[go: up one dir, main page]

JP2009164985A - Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium - Google Patents

Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium Download PDF

Info

Publication number
JP2009164985A
JP2009164985A JP2008001854A JP2008001854A JP2009164985A JP 2009164985 A JP2009164985 A JP 2009164985A JP 2008001854 A JP2008001854 A JP 2008001854A JP 2008001854 A JP2008001854 A JP 2008001854A JP 2009164985 A JP2009164985 A JP 2009164985A
Authority
JP
Japan
Prior art keywords
image
luminance signal
unit
display
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008001854A
Other languages
Japanese (ja)
Inventor
Seiji Kobayashi
誠司 小林
Ryu Taki
龍 滝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008001854A priority Critical patent/JP2009164985A/en
Publication of JP2009164985A publication Critical patent/JP2009164985A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】色味を確認しつつ、フォーカス合わせを容易に行う。
【解決手段】撮像光学系21および撮像素子22は、画像を撮像し、輝度信号生成部41は、撮像された撮像画像の輝度信号Yを生成し、画像合成部43は、ビューファインダ部27に表示される撮像画像の表示領域のうち、ビデオデータにおける矩形領域の範囲を輝度信号Yに変換し、ビデオデータのうちの矩形領域の範囲が輝度信号Yに変換された合成画像を、ビューファインダ部27に表示する。本発明は、例えば、電子ビューファインダを備えるビデオカメラ装置に適用することができる。
【選択図】図2
An object of the present invention is to easily perform focusing while checking the color.
An image pickup optical system and an image pickup device pick up an image, a luminance signal generation unit generates a luminance signal Y of the picked-up image, and an image composition unit includes a viewfinder unit. Of the display area of the captured image to be displayed, the range of the rectangular area in the video data is converted to the luminance signal Y, and the synthesized image in which the rectangular area of the video data is converted to the luminance signal Y 27. The present invention can be applied to, for example, a video camera apparatus including an electronic viewfinder.
[Selection] Figure 2

Description

本発明は、撮像装置および撮像方法、表示制御装置および表示制御方法、プログラム、並びに記録媒体に関し、特に、例えば、色味を確認しつつ、フォーカス合わせを容易に行うことができるようにする撮像装置および撮像方法、表示制御装置および表示制御方法、プログラム、並びに記録媒体に関する。   The present invention relates to an imaging device and an imaging method, a display control device and a display control method, a program, and a recording medium, and more particularly, for example, an imaging device that enables easy focusing while confirming color. The present invention relates to an imaging method, a display control device, a display control method, a program, and a recording medium.

主に業務用のビデオカメラ装置に搭載される電子ビューファインダは、CRT(Cathode Ray Tube)方式によるモノクロ表示のものが一般的であった。これは、人間の視覚特性は、色相の変化よりも明暗の変化に対する感度が高いため、ユーザにとって、モノクロ表示は、フォーカス合わせが容易であり、また、階調を確認しやすいことによるものである。   Electronic viewfinders that are mainly mounted on commercial video camera devices generally have monochrome display using the CRT (Cathode Ray Tube) method. This is because human visual characteristics are more sensitive to changes in light and dark than changes in hue, so that the monochrome display is easy for the user to focus and to confirm the gradation. .

しかしながら、上述したビデオカメラ装置においては、撮像画像の色情報を得ることができなかった。このようなビデオカメラ装置において、色味の確認を行う場合、カメラの外部に配置したカラー表示が可能なモニタ装置に、撮像画像のビデオデータを別途出力する必要がある。   However, in the video camera device described above, color information of the captured image cannot be obtained. In such a video camera device, when checking the color, it is necessary to separately output video data of a captured image to a monitor device that is arranged outside the camera and capable of color display.

一方、より安価なビデオカメラ装置においては、電子ビューファインダとして、カラー表示が可能な液晶表示装置を用いるものが一般的である。このようなビデオカメラ装置において、マニュアルフォーカス制御機能を持つ場合、電子ビューファインダの表示を、モノクロ表示とカラー表示とに切り替えることができる撮像装置がある(例えば、非特許文献1参照)。   On the other hand, cheaper video camera devices generally use a liquid crystal display device capable of color display as an electronic viewfinder. When such a video camera device has a manual focus control function, there is an imaging device that can switch the display of the electronic viewfinder between monochrome display and color display (for example, see Non-Patent Document 1).

これにより、ユーザは、電子ビューファインダの表示をカラー表示にすることで、色味を確認することができ、また、特にマニュアルフォーカス制御機能を用いる場合には、電子ビューファインダの表示をモノクロ表示にすることで、フォーカス合わせを容易に行うことができる。   Thus, the user can check the color by changing the display of the electronic viewfinder to color display, and in particular, when using the manual focus control function, the display of the electronic viewfinder is changed to monochrome display. By doing so, focusing can be performed easily.

ソニーマーケティング株式会社、[online]、2004年10月11日、[平成19年11月28日検索]、インターネット,<URL:http://www.sony.jp/CorporateCruise/Press/200411/11-1110/>Sony Marketing Inc., [online], October 11, 2004, [searched November 28, 2007], Internet, <URL: http://www.sony.jp/CorporateCruise/Press/200411/11- 1110 />

しかしながら、非特許文献1の撮像装置では、電子ビューファインダに、カラー表示とモノクロ表示を同時に行うことはできず、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことはできない。また、動画撮像中に、カラー表示とモノクロ表示の切り替えを行うのは非現実的である。   However, in the imaging device of Non-Patent Document 1, color display and monochrome display cannot be performed simultaneously on the electronic viewfinder, and the user cannot easily perform focusing while checking the color. Also, it is unrealistic to switch between color display and monochrome display during moving image capturing.

本発明は、このような状況に鑑みてなされたものであり、色味を確認しつつ、フォーカス合わせを容易に行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to easily perform focusing while checking the color.

本発明の第1の側面の撮像装置、またはプログラムは、撮像された画像を表示する撮像装置であって、前記画像を撮像する撮像手段と、前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、前記合成画像を表示する表示手段とを備える撮像装置、または撮像装置として、コンピュータを機能させるプログラムである。   An imaging apparatus or a program according to a first aspect of the present invention is an imaging apparatus that displays a captured image, the imaging unit that captures the image, and the luminance signal of the image captured by the imaging unit. A luminance signal generating means for generating, and a composite image generating means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal And a display unit for displaying the composite image, or a program that causes a computer to function as the imaging device.

前記撮像装置には、前記画像の表示領域のうちの前記所定の領域が前記表示手段に表示されるタイミングを示す信号を生成する信号生成手段をさらに設け、前記画像合成手段には、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成させることができる。   The imaging apparatus further includes signal generation means for generating a signal indicating the timing at which the predetermined area of the display area of the image is displayed on the display means, and the image synthesis means Accordingly, the image data for the predetermined region can be converted into the luminance signal to generate the composite image.

前記撮像装置には、前記撮像手段により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに設けることができる。   The imaging apparatus includes an extraction unit that extracts at least one high-frequency component in a horizontal direction or a vertical direction in the image captured by the imaging unit, and a horizontal direction or a vertical direction extracted by the extraction unit. A parameter representing the magnitude of the high-frequency component for each of one or a plurality of lines in the predetermined area of the image display area in at least one of the horizontal direction and the vertical direction based on at least one of the high-frequency components Based on the parameter and the calculation means for calculating, an indicator indicating the size of the parameter is generated, and the combined image and the indicator are combined in correspondence with at least one of the horizontal direction and the vertical direction. And an indicator compositing means.

前記インジケータ合成手段には、前記インジケータを折れ線グラフとして生成させることができる。   The indicator composition means can generate the indicator as a line graph.

前記抽出手段には、前記輝度信号生成手段により生成された前記輝度信号を用いて、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出させることができる。   The extraction means can extract at least one high-frequency component in the horizontal direction or the vertical direction using the luminance signal generated by the luminance signal generation means.

前記撮像装置には、前記所定の領域を設定する設定手段をさらに設けることができる。   The imaging apparatus can further include setting means for setting the predetermined area.

本発明の第1の側面の撮像方法は、撮像された画像を表示する撮像装置の撮像方法であって、前記画像を撮像し、前記撮像手段により撮像された前記画像の輝度信号を生成し、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、前記合成画像を表示するステップを含む。   An imaging method according to a first aspect of the present invention is an imaging method of an imaging device that displays a captured image, captures the image, generates a luminance signal of the image captured by the imaging unit, Converting image data of a predetermined area of the display area of the image into the luminance signal, generating a composite image of the image data and the luminance signal, and displaying the composite image.

本発明の第2の側面の表示制御装置、またはプログラムは、撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置であって、前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、前記合成画像の表示を制御する表示制御手段とを備える表示制御装置、または表示制御装置として、コンピュータを機能させるプログラムである。   A display control device or a program according to a second aspect of the present invention is a display control device that controls display of the image of a display device that displays an image captured by an imaging device, and acquires the image. Luminance signal generation means for generating a luminance signal of the image, image data for a predetermined area of the display area of the image is converted into the luminance signal, and a composite image of the image data and the luminance signal is obtained. A program that causes a computer to function as a display control device or a display control device that includes a composite image generation unit that generates and a display control unit that controls display of the composite image.

前記表示制御装置には、前記画像の表示領域のうちの前記所定の領域が前記表示装置に表示されるタイミングを示す信号を生成する信号生成手段をさらに設け、前記画像合成手段には、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成させることができる。   The display control device further includes signal generation means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display apparatus, and the image composition means includes the signal Accordingly, the image data for the predetermined area can be converted into the luminance signal to generate the composite image.

前記表示制御装置には、前記撮像装置により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに設けることができる。   The display control device includes an extraction unit that extracts at least one high-frequency component in a horizontal direction or a vertical direction in the image captured by the imaging device, and a horizontal direction or a vertical direction extracted by the extraction unit. A parameter that represents the magnitude of the high-frequency component for each of one or more lines in the predetermined area of the image display area in at least one of the horizontal direction and the vertical direction based on at least one high-frequency component in the direction Based on the parameter, and generating an indicator indicating the magnitude of the parameter, and corresponding the position of at least one of the horizontal direction and the vertical direction, the composite image and the indicator Indicator combining means for combining may be further provided.

前記表示制御装置には、前記所定の領域を設定する設定手段をさらに設けることができる。   The display control device may further include setting means for setting the predetermined area.

本発明の第2の側面の表示制御方法は、撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置の表示制御方法であって、前記画像を取得し、前記画像の輝度信号を生成し、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、前記合成画像の表示を制御するステップを含む。   A display control method according to a second aspect of the present invention is a display control method of a display control device that controls display of the image of a display device that displays an image captured by an imaging device, and acquires the image. Generating a luminance signal of the image, converting image data for a predetermined area of the display area of the image into the luminance signal, generating a composite image of the image data and the luminance signal, Controlling the display of the composite image.

本発明の第1の側面においては、画像が撮像され、撮像手段により撮像された画像の輝度信号が生成され、画像の表示領域のうちの所定の領域についての画像データが輝度信号に変換されて、画像データと輝度信号との合成画像が生成され、合成画像が表示される。   In the first aspect of the present invention, an image is picked up, a luminance signal of the image picked up by the image pickup means is generated, and image data for a predetermined region of the display region of the image is converted into a luminance signal. Then, a composite image of the image data and the luminance signal is generated, and the composite image is displayed.

本発明の第2の側面においては、画像が取得され、画像の輝度信号が生成され、画像の表示領域のうちの所定の領域についての画像データが輝度信号に変換されて、画像データと輝度信号との合成画像が生成され、合成画像の表示が制御される。   In the second aspect of the present invention, an image is acquired, a luminance signal of the image is generated, image data for a predetermined area of the display area of the image is converted into a luminance signal, and the image data and the luminance signal are converted. A composite image is generated and display of the composite image is controlled.

なお、プログラムは、記録媒体に記録することができる。   The program can be recorded on a recording medium.

本発明の第1の側面によれば、画像を撮像することができ、特に、色味を確認しつつ、フォーカス合わせを容易に行うことができる。   According to the first aspect of the present invention, an image can be taken, and in particular, focusing can be easily performed while checking the color.

また、本発明の第2の側面によれば、撮像装置によって撮像された画像を表示することができ、特に、色味を確認しつつ、フォーカス合わせを容易に行うことができる。   According to the second aspect of the present invention, it is possible to display an image picked up by the image pickup apparatus, and in particular, it is possible to easily perform focusing while checking the color.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明を適用した撮像装置の一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of an imaging apparatus to which the present invention is applied.

図1において、撮像装置11は、撮像光学系21、撮像素子22、カメラ信号処理部23、コーディック部24、記録部25、ファインダ表示画像変換部26、ビューファインダ部27、および操作入力部28から構成される。   In FIG. 1, the imaging apparatus 11 includes an imaging optical system 21, an imaging element 22, a camera signal processing unit 23, a codec unit 24, a recording unit 25, a finder display image conversion unit 26, a viewfinder unit 27, and an operation input unit 28. Composed.

撮像光学系21は、レンズ、メカニカルシャッタなどで構成される。   The imaging optical system 21 includes a lens, a mechanical shutter, and the like.

撮像素子22は、撮像光学系21を介して入射される光を受光する。撮像素子22は、図示しないAD(Analog/Digital)変換器を介してデジタル変換された撮像データをカメラ信号処理部23に供給する。   The imaging element 22 receives light incident through the imaging optical system 21. The image sensor 22 supplies the camera signal processing unit 23 with image data digitally converted via an AD (Analog / Digital) converter (not shown).

ここで、AD変換器は、特に、撮像素子22がCMOS(Complementary Metal Oxide Semiconductor)型固体撮像素子である場合などにおいては、撮像素子22内に実装されていてもよいし、また、撮像素子22がCMOS型固体撮像素子以外の固体撮像素子であるとき等においては、撮像素子22の外部に配置されているものであってもよい。   Here, the AD converter may be mounted in the image sensor 22, particularly when the image sensor 22 is a CMOS (Complementary Metal Oxide Semiconductor) type solid-state image sensor. When the is a solid-state image sensor other than the CMOS solid-state image sensor, it may be arranged outside the image sensor 22.

また、図1において、撮像装置11の撮像素子22は、受光面に、画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子であるものとして図示されているが、撮像装置11の撮像システムは、プリズム光学系などを介して波長分離された光を3つの異なる撮像素子により受光する3板式の構成であってもよいことは言うまでもない。   Further, in FIG. 1, the image pickup device 22 of the image pickup apparatus 11 is illustrated as a single plate color type solid-state image pickup device having a color filter that transmits different wavelength ranges for each pixel on the light receiving surface. Needless to say, the imaging system of the imaging device 11 may have a three-plate configuration in which light separated by a wavelength via a prism optical system or the like is received by three different imaging elements.

なお、撮像素子22からカメラ信号処理部23に供給される撮像データは、所謂RAWデータである。   Note that the imaging data supplied from the imaging element 22 to the camera signal processing unit 23 is so-called RAW data.

カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正処理、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータをコーディック部24およびファインダ表示画像変換部26に供給する。   The camera signal processing unit 23 performs processing such as white balance correction processing, gain adjustment, demosaic processing, linear matrix processing, and gamma correction processing on the RAW data supplied from the image sensor 22, and the processing result is obtained. The video data is supplied to the codec unit 24 and the finder display image conversion unit 26.

コーディック部24は、カメラ信号処理部23から供給されたビデオデータを、MPEG(Moving Picture Experts Group)2,H.264、または、JPEG(Joint Photographic Experts Group)2000等のビデオ信号符号化処理により圧縮し、符号化ストリームを生成して、記録部25に供給する。   The codec unit 24 compresses the video data supplied from the camera signal processing unit 23 by video signal encoding processing such as MPEG (Moving Picture Experts Group) 2, H.264, or JPEG (Joint Photographic Experts Group) 2000. Then, an encoded stream is generated and supplied to the recording unit 25.

記録部25は、例えば、光ディスク、ハードディスク、または、半導体メモリなどの記録媒体により構成され、コーディック部24から供給された符号化ストリームを記録するか、または、リムーバブルな記録媒体(光ディスク、光磁気ディスク、または、半導体メモリなど)を装着可能なドライブにより構成され、装着されたリムーバブルな記録媒体に、コーディック部24から供給された符号化ストリームを記録する。   The recording unit 25 is configured by a recording medium such as an optical disc, a hard disk, or a semiconductor memory, for example, and records the encoded stream supplied from the codec unit 24 or a removable recording medium (optical disc, magneto-optical disc). Or an encoded stream supplied from the codec unit 24 is recorded on a mounted removable recording medium.

ファインダ表示画像変換部26は、カメラ信号処理部23から供給されるビデオデータから輝度信号を生成し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する、輝度信号変換処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された、ビデオデータと輝度信号との合成画像をビューファインダ部27に供給し、その表示を制御する。   The viewfinder display image conversion unit 26 generates a luminance signal from the video data supplied from the camera signal processing unit 23, and in order to make it easier for the user to grasp the in-focus state, Video data and luminance generated by converting the range of an arbitrary rectangular area into a luminance signal, performing luminance signal conversion processing, and converting the range of an arbitrary rectangular area of the video data into a luminance signal A composite image with the signal is supplied to the viewfinder unit 27, and the display is controlled.

なお、カメラ信号処理部23からファインダ表示画像変換部26に供給されるビデオデータは、ユーザの確認用の撮像画像としてビューファインダ部27に表示される。   The video data supplied from the camera signal processing unit 23 to the viewfinder display image conversion unit 26 is displayed on the viewfinder unit 27 as a captured image for user confirmation.

ファインダ表示画像変換部26の詳細については、図2を参照して後述する。   Details of the finder display image conversion unit 26 will be described later with reference to FIG.

ビューファインダ部27は、ファインダ表示画像変換部26から供給された合成画像を、任意の矩形領域がモノクロ表示された撮像画像としてユーザに呈示する。   The viewfinder unit 27 presents the composite image supplied from the viewfinder display image conversion unit 26 to the user as a captured image in which an arbitrary rectangular area is displayed in monochrome.

操作入力部28は、例えば、各種の操作ボタンやダイヤル等から構成され、撮像装置11に対する指示を入力するためにユーザに操作され、その操作内容を示す情報を撮像装置11の各ブロックに供給する。   The operation input unit 28 includes, for example, various operation buttons, a dial, and the like. The operation input unit 28 is operated by a user to input an instruction to the imaging device 11 and supplies information indicating the operation content to each block of the imaging device 11. .

なお、図1においては、コーディック部24および記録部25を撮像装置11の構成要素として示しているが、撮像装置11は、これらの処理部を持たず、カメラ信号処理部23から出力(供給)されるビデオデータを、そのまま外部の装置やネットワークなどに出力する構成であっても構わない。   In FIG. 1, the codec unit 24 and the recording unit 25 are shown as components of the imaging device 11, but the imaging device 11 does not have these processing units and outputs (supplies) from the camera signal processing unit 23. The video data may be output to an external device or network as it is.

また、図1においては、コーディック部24に供給されるビデオデータとファインダ表示画像変換部26に供給されるビデオデータを同一のものとしているが、ファインダ表示画像変換部26へは、ビューファインダ部27の解像度に合わせて解像度変換したビデオデータを供給する形態としてもよい。   In FIG. 1, the video data supplied to the codec unit 24 and the video data supplied to the finder display image conversion unit 26 are the same. It is also possible to supply video data whose resolution has been converted according to the resolution of the video.

さらに、図1においては、ビューファインダ部27を撮像装置11の構成要素として示しているが、撮像装置11は、ビューファインダ部27を持たず、接続されている外部の表示装置に合成画像を供給して、表示させることができるような形態としてもよい。   Further, in FIG. 1, the viewfinder unit 27 is shown as a component of the imaging device 11, but the imaging device 11 does not have the viewfinder unit 27 and supplies a composite image to a connected external display device. Then, it may be in a form that can be displayed.

また、撮像装置11は、撮像光学系21、撮像素子22、カメラ信号処理部23、コーディック部24、記録部25、および操作入力部28で構成され、ファインダ表示画像変換部26およびビューファインダ部27は、別装置として構成されてもよい。   The imaging device 11 includes an imaging optical system 21, an imaging element 22, a camera signal processing unit 23, a codec unit 24, a recording unit 25, and an operation input unit 28, and a finder display image conversion unit 26 and a viewfinder unit 27. May be configured as a separate device.

このとき、ファインダ表示画像変換部26は、コーディック部24に供給されるビデオデータと同一の、または、解像度変換されたビデオデータに対し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された合成画像をビューファインダ部27に供給し、その表示を制御する。   At this time, the finder display image conversion unit 26 captures the captured image in order to make it easier for the user to grasp the in-focus state of the video data that is the same as the video data supplied to the codec unit 24 or whose resolution has been converted. Generated by converting the range of an arbitrary rectangular area of the video data for the display area into a luminance signal, and converting the range of the arbitrary rectangular area of the video data into a luminance signal The composite image is supplied to the viewfinder unit 27 and its display is controlled.

さらに、ファインダ表示画像変換部26およびビューファインダ部27は、それぞれ別装置として構成されてもよい。   Furthermore, the finder display image conversion unit 26 and the viewfinder unit 27 may be configured as separate devices.

このとき、ファインダ表示画像変換部26に対応する表示制御装置は、コーディック部24に供給されるビデオデータと同一の、または、解像度変換されたビデオデータに対し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された合成画像を、図示しない外部の表示装置(ビューファインダ部27に対応する表示装置)に供給し、その表示を制御する。   At this time, the display control device corresponding to the finder display image conversion unit 26 makes it easy for the user to grasp the in-focus state of the video data that is the same as the video data supplied to the codec unit 24 or whose resolution has been converted. In order to achieve this, a process for converting the range of an arbitrary rectangular area of the video data for the display area of the captured image into a luminance signal is performed, and the range of the arbitrary rectangular area of the video data is converted to a luminance signal. The composite image generated by this is supplied to an external display device (display device corresponding to the viewfinder unit 27) (not shown), and the display is controlled.

図2は、図1のファインダ表示画像変換部26の構成を示すブロック図である。ファインダ表示画像変換部26は、輝度信号生成部41、切替パルス生成部42、および画像合成部43で構成される。   FIG. 2 is a block diagram showing a configuration of the finder display image conversion unit 26 of FIG. The finder display image conversion unit 26 includes a luminance signal generation unit 41, a switching pulse generation unit 42, and an image synthesis unit 43.

カメラ信号処理部23からファインダ表示画像変換部26に供給されるビデオデータ(以下、入力ビデオデータともいう)は、輝度信号生成部41に供給されるとともに、画像合成部43に供給される。   Video data (hereinafter also referred to as input video data) supplied from the camera signal processing unit 23 to the finder display image conversion unit 26 is supplied to the luminance signal generation unit 41 and also to the image composition unit 43.

輝度信号生成部41は、カメラ信号処理部23からの入力ビデオデータに対して、式(1)に示すような変換処理を施し、輝度信号Yを生成して、画像合成部43に供給する。   The luminance signal generation unit 41 performs conversion processing as shown in Expression (1) on the input video data from the camera signal processing unit 23 to generate a luminance signal Y, and supplies the luminance signal Y to the image synthesis unit 43.

Y=0.257R+0.504G+0.098B ・・・(1)       Y = 0.257R + 0.504G + 0.098B (1)

なお、式(1)において、Rは、入力ビデオデータのR信号であり、Gは、入力ビデオデータのG信号であり、Bは、入力ビデオデータのB信号である。   In Expression (1), R is an R signal of input video data, G is a G signal of input video data, and B is a B signal of input video data.

ここで、輝度信号Yへの変換処理は、式(1)に限ったものではなく、例えば、単純にR信号、G信号、およびB信号を加算する処理でも構わない。   Here, the conversion process to the luminance signal Y is not limited to the expression (1), and for example, a process of simply adding the R signal, the G signal, and the B signal may be used.

切替パルス生成部42は、ビューファインダ部27に表示される撮像画像における、予め定められているか、または、操作入力部28を用いてユーザが指定することにより決められる矩形領域を表す情報を記憶する矩形領域メモリ部42aを有し、その矩形領域メモリ部42aに記憶されている情報に基づいて、ビューファインダ部27に表示されるタイミングを示すパルス信号MEを生成し、画像合成部43に供給する。   The switching pulse generation unit 42 stores information representing a rectangular area that is predetermined in the captured image displayed on the viewfinder unit 27 or determined by the user using the operation input unit 28. Based on the information stored in the rectangular area memory unit 42a, the pulse signal ME indicating the timing displayed on the viewfinder unit 27 is generated and supplied to the image synthesis unit 43. .

より具体的には、矩形領域メモリ部42aは、操作入力部28が操作されることにより入力された、矩形領域を表す画素の画素位置を記憶している。切替パルス生成部42は、矩形領域メモリ部42aに記憶されている矩形領域の画素位置に基づいて、ビューファインダ部27に表示される撮像画像の走査において、矩形領域の画素が走査される期間、パルス信号MEを有効にする(生成する)。また、切替パルス生成部42は、矩形領域以外の領域の画素が走査される期間、パルス信号MEを無効にする(生成しない)。   More specifically, the rectangular area memory unit 42a stores pixel positions of pixels representing the rectangular area, which are input by operating the operation input unit 28. The switching pulse generation unit 42 is a period during which pixels in the rectangular area are scanned in scanning of the captured image displayed on the viewfinder unit 27 based on the pixel position of the rectangular area stored in the rectangular area memory unit 42a. Enable (generate) the pulse signal ME. Further, the switching pulse generator 42 invalidates (does not generate) the pulse signal ME during a period in which pixels in a region other than the rectangular region are scanned.

切替パルス生成部42が生成するパルス信号MEの詳細については、図3を参照して後述する。   Details of the pulse signal ME generated by the switching pulse generator 42 will be described later with reference to FIG.

画像合成部43は、切替パルス生成部42から供給されるパルス信号MEに基づいて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域の範囲を、輝度信号生成部41からの輝度信号Yに変換することにより、ビデオデータと輝度信号との合成画像を生成し、ビューファインダ部27に供給するとともに、その表示を制御する。   Based on the pulse signal ME supplied from the switching pulse generator 42, the image synthesizer 43 converts the range of the rectangular area in the video data for the captured image displayed on the viewfinder 27 to the luminance signal generator 41. Is converted into the luminance signal Y from the video signal to generate a composite image of the video data and the luminance signal, which is supplied to the viewfinder unit 27 and its display is controlled.

画像合成部43は、矩形領域判定部43aおよびバッファ部43bを含むように構成される。   The image composition unit 43 is configured to include a rectangular area determination unit 43a and a buffer unit 43b.

矩形領域判定部43aは、切替パルス生成部42から供給されるパルス信号MEに応じて、撮像画像の走査において注目する画素である注目画素の画素位置が矩形領域内であるか否かを判定し、その判定結果に応じて、注目画素についてのビデオデータを輝度信号Yに変換する。   The rectangular area determination unit 43a determines whether the pixel position of the target pixel that is a pixel of interest in scanning of the captured image is within the rectangular area, according to the pulse signal ME supplied from the switching pulse generation unit 42. The video data for the target pixel is converted into a luminance signal Y according to the determination result.

より具体的には、矩形領域判定部43aは、切替パルス生成部42からのパルス信号MEが有効である場合には、注目画素の画素位置が矩形領域内であると判定し、注目画素についてのビデオデータを、輝度信号生成部41からの輝度信号Yに変換して、バッファ部43bに供給する。   More specifically, when the pulse signal ME from the switching pulse generation unit 42 is valid, the rectangular area determination unit 43a determines that the pixel position of the target pixel is within the rectangular area, and The video data is converted into a luminance signal Y from the luminance signal generation unit 41 and supplied to the buffer unit 43b.

また、矩形領域判定部43aは、切替パルス生成部42からのパルス信号MEが無効である場合には、注目画素の画素位置が矩形領域内でないと判定し、注目画素についてのビデオデータを、そのままバッファ部43bに供給する。   In addition, when the pulse signal ME from the switching pulse generation unit 42 is invalid, the rectangular area determination unit 43a determines that the pixel position of the target pixel is not within the rectangular area, and the video data regarding the target pixel is used as it is. This is supplied to the buffer unit 43b.

バッファ部43bは、矩形領域判定部43aからの、撮像画像における各画素についての輝度信号Yまたはビデオデータを一時的に記憶する。そして、矩形領域判定部43aにおける判定処理が、撮像画像における全ての画素について終わったとき、画像合成部43は、バッファ部43bに記憶されている全ての画素の情報を、輝度信号Yとビデオデータとの合成画像として、ビューファインダ部27に供給する。   The buffer unit 43b temporarily stores the luminance signal Y or video data for each pixel in the captured image from the rectangular area determination unit 43a. When the determination processing in the rectangular area determination unit 43a is completed for all the pixels in the captured image, the image composition unit 43 uses the luminance signal Y and the video data as information on all the pixels stored in the buffer unit 43b. Is supplied to the viewfinder 27 as a composite image.

このようにして、画像合成部43からビューファインダ部27に供給される合成画像が、パルス信号MEに応じて、ビューファインダ部27の画面内の一部の矩形領域が輝度信号Yに変換された撮像画像として表示される。   In this way, in the synthesized image supplied from the image synthesis unit 43 to the viewfinder unit 27, a part of the rectangular area in the screen of the viewfinder unit 27 is converted into the luminance signal Y according to the pulse signal ME. It is displayed as a captured image.

なお、画像合成部43は、バッファ部43bを有しない構成であってもよい。この場合、画像合成部43は、矩形領域判定部43aからの輝度信号Yまたはビデオデータを、そのままビューファインダ部27に供給する。   The image composition unit 43 may be configured without the buffer unit 43b. In this case, the image composition unit 43 supplies the luminance signal Y or video data from the rectangular area determination unit 43a to the viewfinder unit 27 as it is.

図3は、切替パルス生成部42が生成するパルス信号MEのタイミングを表すタイムチャートである。   FIG. 3 is a time chart showing the timing of the pulse signal ME generated by the switching pulse generator 42.

ここで、ビューファインダ部27に表示される撮像画像は、画素単位で左から右、そして上から下に向かって1ライン(水平ライン)ごとに走査される、いわゆるプログレッシブ方式の画像であるとする。   Here, it is assumed that the captured image displayed on the viewfinder unit 27 is a so-called progressive image that is scanned pixel by pixel from left to right and from top to bottom in a line (horizontal line). .

図3において、一番上に示す波形は、図示しない制御部から切替パルス生成部42に供給される、入力ビデオデータと同期した垂直同期信号VDであり、上から2番目および5番目に示す波形は、図示しない制御部から切替パルス生成部42に供給される、入力ビデオデータと同期した水平同期信号HDである。   In FIG. 3, the waveform shown at the top is the vertical synchronization signal VD synchronized with the input video data supplied from the control unit (not shown) to the switching pulse generation unit 42, and the second and fifth waveforms from the top. Is a horizontal synchronization signal HD that is supplied from a control unit (not shown) to the switching pulse generation unit 42 and is synchronized with the input video data.

また、図3において、上から3番目および6番目に示す波形は、実際にビューファインダ部27に表示される有効画素領域を表すデータイネーブル信号DEであり、上から4番目および1番下に示す波形は、切替パルス生成部42において生成されるパルス信号MEである。   In FIG. 3, the third and sixth waveforms from the top are data enable signals DE representing the effective pixel region actually displayed on the viewfinder section 27, and are shown at the fourth and bottom from the top. The waveform is a pulse signal ME generated by the switching pulse generator 42.

なお、図3において、上から5番目に示す水平同期信号HDは、上から2番目に示す水平同期信号HDの1パルス分を表し、上から6番目に示すデータイネーブル信号DEは、上から3番目に示すデータイネーブル信号DEの1パルス分を表し、さらに、1番下に示すパルス信号MEは、上から4番目に示すパルス信号MEの1パルス分を表している。   In FIG. 3, the horizontal synchronization signal HD shown fifth from the top represents one pulse of the horizontal synchronization signal HD shown second from the top, and the data enable signal DE shown sixth from the top is 3 from the top. This represents one pulse of the data enable signal DE shown in the second, and the pulse signal ME shown at the bottom represents one pulse of the pulse signal ME shown fourth from the top.

図2の切替パルス生成部42に、垂直同期信号VD、水平同期信号HD、およびデータイネーブル信号DEが供給されると、切替パルス生成部42は、これらの信号のタイミングと、矩形領域メモリ部42aに記憶されている矩形領域の画素位置とから、ビューファインダ部27に表示される撮像画像の走査において、矩形領域の画素が走査される期間、パルス信号MEを有効にし、また、矩形領域以外の領域の画素が走査される期間、パルス信号MEを無効にする。   When the vertical synchronizing signal VD, the horizontal synchronizing signal HD, and the data enable signal DE are supplied to the switching pulse generating unit 42 in FIG. 2, the switching pulse generating unit 42 determines the timing of these signals and the rectangular area memory unit 42a. In the scanning of the captured image displayed on the viewfinder unit 27 from the pixel position of the rectangular area stored in the frame, the pulse signal ME is enabled during the period during which the pixels of the rectangular area are scanned. The pulse signal ME is invalidated during the period when the pixels in the area are scanned.

すなわち、切替パルス生成部42は、垂直方向の画素の走査に対して、垂直同期信号VD(図3の1番上の波形)がHIGHレベルであり、かつ、データイネーブル信号DE(図3の上から3番目の波形)がHIGHレベルである期間のうちの、垂直方向に矩形領域の画素が走査される期間、パルス信号MEをHIGHレベルとする。   That is, the switching pulse generation unit 42 has the vertical synchronization signal VD (the top waveform in FIG. 3) at the high level and the data enable signal DE (upper side in FIG. 3) for the scanning of the pixels in the vertical direction. The pulse signal ME is set to the HIGH level during the period in which the pixels in the rectangular area are scanned in the vertical direction in the period in which the third waveform from (1) to HIGH).

図3の例においては、切替パルス生成部42は、データイネーブル信号DE(図3の上から3番目の波形)がHIGHレベルになってから、期間sy(LOWレベル)が経過したあと、期間monovの間、パルス信号MEをHIGHレベルとする。   In the example of FIG. 3, the switching pulse generator 42 performs the period monov after the period sy (LOW level) has elapsed after the data enable signal DE (third waveform from the top in FIG. 3) has become HIGH level. During this period, the pulse signal ME is set to the HIGH level.

そして、矩形領域判定部43aは、垂直方向の画素の走査において、期間syを含む、パルス信号MEが無効(LOWレベル)である期間においては、カメラ信号処理部23から供給されるビデオデータに対して何もせず、パルス信号MEが有効(HIGHレベル)である、期間monovにおいては、カメラ信号処理部23から供給されるビデオデータを輝度信号生成部41から供給される輝度信号Yに変換する。   Then, the rectangular area determination unit 43a applies to the video data supplied from the camera signal processing unit 23 during the period in which the pulse signal ME is invalid (LOW level) including the period sy in the scanning of the pixels in the vertical direction. In the period monov in which the pulse signal ME is valid (HIGH level), the video data supplied from the camera signal processing unit 23 is converted into the luminance signal Y supplied from the luminance signal generating unit 41.

また、切替パルス生成部42は、水平方向の画素の走査に対して、水平同期信号HD(図3の5番上の波形)がHIGHレベルであり、かつ、データイネーブル信号DE(図3の上から6番目の波形)がHIGHレベルである期間のうちの、水平方向に矩形領域の画素が走査される期間、パルス信号MEをHIGHレベルとする。   In addition, the switching pulse generation unit 42 has the horizontal synchronization signal HD (the uppermost waveform in FIG. 3) at the high level and the data enable signal DE (upper side in FIG. 3) with respect to the horizontal pixel scanning. The pulse signal ME is set to the high level during the period in which the pixels in the rectangular area are scanned in the horizontal direction during the period in which the sixth waveform from the first to the sixth waveform) is at the high level.

図3の例においては、切替パルス生成部42は、データイネーブル信号DE(図6の上から3番目の波形)がHIGHレベルになってから、期間sx(LOWレベル)が経過したあと、期間monohの間、パルス信号MEをHIGHレベルとする。   In the example of FIG. 3, the switching pulse generator 42 performs the period monoh after the period sx (LOW level) has elapsed after the data enable signal DE (third waveform from the top in FIG. 6) has become HIGH level. During this period, the pulse signal ME is set to the HIGH level.

そして、矩形領域判定部43aは、水平方向の画素の走査において、期間sxを含む、パルス信号MEが無効(LOWレベル)である期間においては、カメラ信号処理部23から供給されるビデオデータに対して何もせず、パルス信号MEが有効(HIGHレベル)である、期間monohにおいては、カメラ信号処理部23から供給されるビデオデータを輝度信号生成部41から供給される輝度信号Yに変換する。   Then, the rectangular area determination unit 43a applies to the video data supplied from the camera signal processing unit 23 during a period in which the pulse signal ME is invalid (LOW level) including the period sx in the horizontal pixel scanning. In the period monoh when the pulse signal ME is valid (HIGH level), the video data supplied from the camera signal processing unit 23 is converted into the luminance signal Y supplied from the luminance signal generating unit 41.

図4は、ビューファインダ部27に表示される撮像画像の例を示している。   FIG. 4 shows an example of a captured image displayed on the viewfinder unit 27.

図4に示すように、ビューファインダ部27には、矩形領域メモリ部42aの矩形領域の画素位置で決定される矩形領域Aが輝度信号Yに変換された撮像画像が表示される。この矩形領域Aは、ユーザがフォーカスを合わせたい被写体が写っている領域であり、以下、フォーカシングエリアともいう。   As shown in FIG. 4, the viewfinder unit 27 displays a captured image in which the rectangular area A determined by the pixel position of the rectangular area of the rectangular area memory unit 42 a is converted into the luminance signal Y. This rectangular area A is an area in which a subject that the user wants to focus is shown, and is hereinafter also referred to as a focusing area.

図4において、例えば、ビューファインダ部27に表示される有効画素領域の左上端の画素位置を原点(0,0)とし、水平右方向をx方向、垂直下方向をy方向とすると、フォーカシングエリアは、原点(0,0)から、期間sxに走査されるx方向の画素位置、および、期間syに走査されるy方向の画素位置で決定される画素位置(sx,sy)を左上端とし、水平右方向(x方向)に、期間monohに走査される長さ、および、垂直下方向(y方向)に、期間monovに走査される長さを2辺とした矩形領域Aとなる。   In FIG. 4, for example, if the pixel position at the upper left corner of the effective pixel area displayed on the viewfinder 27 is the origin (0, 0), the horizontal right direction is the x direction and the vertical downward direction is the y direction, the focusing area Is the pixel position (sx, sy) determined by the pixel position in the x direction scanned in the period sx and the pixel position in the y direction scanned in the period sy from the origin (0, 0). The rectangular area A has two sides, the length scanned in the period monoh in the horizontal right direction (x direction) and the length scanned in the period monov in the vertical downward direction (y direction).

フォーカシングエリアは、任意の位置に設定することが可能であり、操作入力部28を用いて、矩形領域メモリ部42aに記憶されている、矩形領域を表す画素の画素位置を変更することにより、ユーザが動的に位置とサイズの変更を行うようにしても構わない。   The focusing area can be set at an arbitrary position, and the user can change the pixel position of the pixel representing the rectangular area stored in the rectangular area memory unit 42a using the operation input unit 28. However, the position and size may be changed dynamically.

また、本実施例では、フォーカシングエリアを矩形の領域としたが、切替パルス生成部42が、任意形状の領域に対して有効(HIGHレベル)となるパルス信号MEを生成するようにして、円形や六角形等の領域にしても構わない。   In this embodiment, the focusing area is a rectangular area. However, the switching pulse generator 42 generates a pulse signal ME that is effective (HIGH level) for an area of an arbitrary shape, so that the circular or It may be a hexagonal region.

さらに、本実施例では、フォーカシングエリアを1つとしたが、切替パルス生成部42が、複数の領域に対して有効(HIGHレベル)となるパルス信号MEを生成するようにして、複数のフォーカシングエリアを表示するようにしても構わない。   Furthermore, in this embodiment, the number of focusing areas is one. However, the switching pulse generator 42 generates a pulse signal ME that is effective (HIGH level) for a plurality of regions, so that a plurality of focusing areas are generated. You may make it display.

次に、図5のフローチャートを参照して、撮像装置11が実行する撮像処理について説明する。なお、ステップS12乃至ステップS18の各処理は、撮像された動画像のあるフレームの処理としては、ステップS14およびステップS15の処理とステップS16およびステップS17の処理とが並行して実行可能であるが、基本的には、記載されたステップの通りに順次実行されるものである。しかしながら、これらは、順次撮像される複数フレームにより構成される動画像全体に対して実行される処理であるので、撮像装置11内においては、それぞれ、並行して実行される。   Next, imaging processing executed by the imaging device 11 will be described with reference to the flowchart of FIG. In addition, although each process of step S12 thru | or step S18 can be performed in parallel with the process of step S14 and step S15, and the process of step S16 and step S17 as a process of the flame | frame with the imaged moving image. Basically, they are executed sequentially according to the described steps. However, these are processes executed on the entire moving image composed of a plurality of frames that are sequentially picked up, and therefore are executed in parallel in the image pickup apparatus 11.

ステップS11において、撮像光学系21および撮像素子22は、操作入力部28によるユーザからの操作入力に基づいて、撮像を開始する。すなわち、撮像素子22は、撮像光学系21を介して入射される光を受光し、AD変換器によりデジタル変換された撮像データとしてのRAWデータを、カメラ信号処理部23に供給して、処理は、ステップS12に進む。   In step S <b> 11, the imaging optical system 21 and the imaging element 22 start imaging based on an operation input from the user by the operation input unit 28. That is, the image sensor 22 receives light incident through the imaging optical system 21 and supplies RAW data as image data digitally converted by the AD converter to the camera signal processing unit 23. The process proceeds to step S12.

ステップS12において、カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータを、コーディック部24およびファインダ表示画像変換部26に供給して、処理は、ステップS13に進む。   In step S <b> 12, the camera signal processing unit 23 performs processing such as white balance correction, gain adjustment, demosaic processing, linear matrix processing, and gamma correction processing on the RAW data supplied from the image sensor 22. The video data obtained as a result is supplied to the codec unit 24 and the finder display image conversion unit 26, and the process proceeds to step S13.

ステップS13において、操作入力部28は、ユーザからの操作入力に基づいて、記録の開始が指令されたか否かを判断する。   In step S13, the operation input unit 28 determines whether or not the start of recording has been instructed based on the operation input from the user.

ステップS13において、記録の開始が指令されていないと判断された場合、処理は、ステップS16に進む。   If it is determined in step S13 that the start of recording is not instructed, the process proceeds to step S16.

一方、ステップS13において、記録の開始が指令されたと判断された場合、処理は、ステップS14に進む。   On the other hand, if it is determined in step S13 that the start of recording has been commanded, the process proceeds to step S14.

ステップS14において、コーディック部24は、カメラ信号処理部23から供給されたビデオデータを、MPEG2,H.264、または、JPEG2000等のビデオ信号符号化処理により圧縮し、符号化ストリームを生成して、記録部25に供給する。その後、処理は、ステップS15に進む   In step S14, the codec unit 24 compresses the video data supplied from the camera signal processing unit 23 by a video signal encoding process such as MPEG2, H.264, or JPEG2000, and generates an encoded stream. This is supplied to the recording unit 25. Thereafter, the process proceeds to step S15.

ステップS15において、記録部25は、コーディック部24から供給された符号化ストリームを記録し、処理は、ステップS16に進む。   In step S15, the recording unit 25 records the encoded stream supplied from the codec unit 24, and the process proceeds to step S16.

ステップS16において、ファインダ表示画像変換部26は、図6を用いて説明する輝度信号変換処理を実行し、輝度信号変換処理の結果得られた合成画像をビューファインダ部27に供給して、処理は、ステップS17に進む。   In step S <b> 16, the finder display image conversion unit 26 executes a luminance signal conversion process described with reference to FIG. 6, and supplies a composite image obtained as a result of the luminance signal conversion process to the viewfinder unit 27. The process proceeds to step S17.

ステップS17において、ビューファインダ部27は、例えば、図4を用いて説明したような、ユーザが合焦具合を把握しやすくするために、ビデオデータにおける任意の矩形領域Aの範囲が輝度信号Yに変換された撮像画像を表示し、処理は、ステップS18に進む。   In step S <b> 17, the viewfinder unit 27 converts the range of an arbitrary rectangular area A in the video data into the luminance signal Y in order to make it easier for the user to grasp the in-focus state as described with reference to FIG. 4, for example. The converted captured image is displayed, and the process proceeds to step S18.

ステップS18において、操作入力部28は、ユーザからの操作入力に基づいて、撮像の終了が指令されたか否かを判断する。   In step S <b> 18, the operation input unit 28 determines whether the end of imaging has been commanded based on the operation input from the user.

ステップS18において、撮像の終了が指令されていないと判断された場合、処理は、ステップS12に戻り、それ以降の処理が繰り返される。   If it is determined in step S18 that the end of imaging has not been commanded, the process returns to step S12, and the subsequent processes are repeated.

一方、ステップS18において、撮像の終了が指令されたと判断された場合、処理は終了する。   On the other hand, if it is determined in step S18 that the end of imaging has been commanded, the process ends.

このような処理により、ビューファインダ部27において、フォーカスを合わせたい被写体が表示されている矩形領域Aが輝度信号Yで表示(モノクロ表示)され、それ以外の領域がカラー表示されるので、特に、フォーカスを合わせたい被写体については、人間の視覚特性に従って明暗の差が認識しやすくなり、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことができる。   By such processing, the rectangular area A in which the subject to be focused is displayed is displayed with the luminance signal Y (monochrome display) in the viewfinder unit 27, and other areas are displayed in color. For a subject to be focused, the difference between light and dark is easily recognized according to human visual characteristics, and the user can easily perform focusing while checking the color.

次に、図6のフローチャートを参照して、図5のステップS16において実行される処理の例である、輝度信号変換処理について説明する。輝度信号変換処理は、ファインダ表示画像変換部26により実行される。   Next, the luminance signal conversion process, which is an example of the process executed in step S16 of FIG. 5, will be described with reference to the flowchart of FIG. The luminance signal conversion process is executed by the finder display image conversion unit 26.

ステップS21において、輝度信号生成部41は、カメラ信号処理部23からのビデオデータに対して、例えば、上述した式(1)に示すような変換処理を施し、輝度信号を生成して、処理は、ステップS22に進む。   In step S <b> 21, the luminance signal generation unit 41 performs a conversion process, for example, as shown in Equation (1) above on the video data from the camera signal processing unit 23 to generate a luminance signal. The process proceeds to step S22.

ステップS22において、矩形領域判定部43aは、ビューファインダ部27に表示される撮像画像の走査における注目画素の画素位置(x,y)を、図4で説明した原点(0,0)とし、処理は、ステップS23に進む。   In step S22, the rectangular area determination unit 43a sets the pixel position (x, y) of the pixel of interest in scanning of the captured image displayed on the viewfinder unit 27 as the origin (0, 0) described in FIG. Advances to step S23.

ステップS23において、切替パルス生成部42は、垂直同期信号VD、水平同期信号HD、およびデータイネーブル信号DEのタイミングと、矩形領域メモリ部42aに記憶されている矩形領域の画素位置とから、パルス信号MEの生成を開始し、処理は、ステップS24に進む。   In step S23, the switching pulse generation unit 42 generates a pulse signal from the timing of the vertical synchronization signal VD, the horizontal synchronization signal HD, and the data enable signal DE and the pixel position of the rectangular area stored in the rectangular area memory unit 42a. Generation of ME is started, and the process proceeds to step S24.

ステップS24において、矩形領域判定部43aは、切替パルス生成部42から供給されるパルス信号MEに基づいて、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内であるか否かを判定する。   In step S24, the rectangular area determination unit 43a determines whether the pixel position (x, y) of the pixel of interest in scanning of the captured image is within the rectangular area based on the pulse signal ME supplied from the switching pulse generation unit 42. Determine whether.

ステップS24において、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内であると判定された場合、すなわち、切替パルス生成部42からのパルス信号MEが有効である場合、矩形領域判定部43aは、その注目画素についてのビデオデータを、輝度信号生成部41からの輝度信号Yに変換し、バッファ部43bに供給して、処理は、ステップS26に進む。   If it is determined in step S24 that the pixel position (x, y) of the pixel of interest in scanning of the captured image is within the rectangular area, that is, if the pulse signal ME from the switching pulse generator 42 is valid, The area determination unit 43a converts the video data for the target pixel into the luminance signal Y from the luminance signal generation unit 41, supplies the converted signal to the buffer unit 43b, and the process proceeds to step S26.

一方、ステップS24において、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内でないと判定された場合、すなわち、切替パルス生成部42からのパルス信号MEが無効である場合、矩形領域判定部43aは、その注目画素についてのビデオデータを、そのままバッファ部43bに供給して、処理は、ステップS26に進む。   On the other hand, when it is determined in step S24 that the pixel position (x, y) of the pixel of interest in the scanning of the captured image is not within the rectangular region, that is, when the pulse signal ME from the switching pulse generation unit 42 is invalid, The rectangular area determination unit 43a supplies the video data for the target pixel as it is to the buffer unit 43b, and the process proceeds to step S26.

ステップS26において、矩形領域判定部43aは、有効画素領域におけるx方向の全ての画素(すなわち1水平ライン)について、注目画素の画素位置(x,y)が矩形領域内であるかの判定処理が終わったか否かを判定する。   In step S <b> 26, the rectangular area determination unit 43 a determines whether the pixel position (x, y) of the target pixel is within the rectangular area for all the pixels in the x direction in the effective pixel area (that is, one horizontal line). Determine if it is over.

ステップS26において、x方向の全ての画素についての処理が終わっていないと判定された場合、処理は、ステップS27に進む。   If it is determined in step S26 that the process has not been completed for all pixels in the x direction, the process proceeds to step S27.

ステップS27において、矩形領域判定部43aは、xを1インクリメントし、処理はステップS24に戻り、これ以降の処理が繰り返される。すなわち、注目画素の画素位置(x,y)がx方向に1つ移動し、その注目画素についての処理が繰り返される。   In step S27, the rectangular area determination unit 43a increments x by 1, the process returns to step S24, and the subsequent processes are repeated. That is, the pixel position (x, y) of the target pixel moves by one in the x direction, and the process for the target pixel is repeated.

一方、ステップS26において、x方向の全ての画素についての処理が終わったと判定された場合、すなわち、ステップS24乃至ステップS27の処理が繰り返されて、水平方向の1ライン分の画素についての処理が終了したと判定された場合、ステップS28において、矩形領域判定部43aは、xを0とし、処理は、ステップS29に進む。   On the other hand, when it is determined in step S26 that the processing for all the pixels in the x direction has been completed, that is, the processing in steps S24 to S27 is repeated, and the processing for the pixels for one line in the horizontal direction is completed. When it is determined that the rectangular area has been determined, the rectangular area determination unit 43a sets x to 0 in step S28, and the process proceeds to step S29.

ステップS29において、矩形領域判定部43aは、有効画素領域におけるy方向の全ての画素(すなわち全ての水平ライン)について、注目画素の画素位置(x,y)が矩形領域内であるかの判定処理が終わったか否かを判定する。   In step S29, the rectangular area determination unit 43a determines whether the pixel position (x, y) of the target pixel is within the rectangular area for all pixels in the effective pixel area in the y direction (that is, all horizontal lines). It is determined whether or not.

ステップS29において、y方向の全ての画素についての処理が終わっていないと判定された場合、処理は、ステップS30に進む。   If it is determined in step S29 that the process has not been completed for all pixels in the y direction, the process proceeds to step S30.

ステップS30において、矩形領域判定部43aは、yを1インクリメントし、処理はステップS24に戻り、これ以降の処理が繰り返される。すなわち、注目画素の画素位置(x,y)が、y方向に1つ移動した水平ラインの一番左側の画素位置となり、その水平ラインの画素についての処理が繰り返される。   In step S30, the rectangular area determination unit 43a increments y by 1, the process returns to step S24, and the subsequent processes are repeated. That is, the pixel position (x, y) of the target pixel becomes the leftmost pixel position of the horizontal line moved by one in the y direction, and the process for the pixels on the horizontal line is repeated.

一方、ステップS29において、y方向の全ての画素についての処理が終わったと判定された場合、すなわち、ステップS24乃至ステップS30の処理が繰り返されて、全ての画素について、矩形領域内であるか否かの判定がなされたと判定された場合、画像合成部43は、バッファ部43bに記憶されている、撮像画像(有効画素領域)における全ての画素からなる画像を、輝度信号Yとビデオデータとの合成画像として、ビューファインダ部27に供給して、処理は、図5のステップS16に戻り、ステップS17に進む。   On the other hand, when it is determined in step S29 that the processing for all the pixels in the y direction has been completed, that is, the processing in steps S24 to S30 is repeated to determine whether or not all the pixels are in the rectangular area. When it is determined that the determination is made, the image composition unit 43 synthesizes an image composed of all the pixels in the captured image (effective pixel region) stored in the buffer unit 43b with the luminance signal Y and the video data. The image is supplied to the viewfinder unit 27, and the process returns to step S16 in FIG. 5 and proceeds to step S17.

このような処理により、カメラ信号処理部23から供給されるビデオデータのうち、フォーカスを合わせたい被写体が表示されている矩形領域Aの範囲を輝度信号Yに変換することができる。   Through such processing, the range of the rectangular area A in which the subject to be focused is displayed in the video data supplied from the camera signal processing unit 23 can be converted into the luminance signal Y.

ところで、業務用のビデオカメラ装置においては、マニュアルフォーカス制御時に、ユーザがフォーカス合わせを容易にするために、ビデオカメラ装置に搭載された電子ビューファインダ上に、さまざまな補助情報を表示するようにもなされている。   By the way, in a professional video camera device, during manual focus control, various auxiliary information may be displayed on an electronic viewfinder mounted on the video camera device so that the user can easily focus. Has been made.

例えば、従来、撮像画像の輪郭に相当する空間的な高周波成分を撮像画像から抽出し、輪郭成分を増大させた上で撮像画像と混合してビューファインダに表示することにより、合焦時に輪郭部を強調するピーキング回路が用いられている(例えば、特開2000−350224号公報参照)。   For example, conventionally, a spatial high-frequency component corresponding to the contour of a captured image is extracted from the captured image, and the contour component is increased and then mixed with the captured image and displayed on the viewfinder. Is used (for example, see Japanese Patent Laid-Open No. 2000-350224).

また、撮像画像の中央部の特定の領域に対して、高域フィルタを施した結果を積分し、その結果として得られる1次元のパラメータをビューファインダ上に表示することにより、合焦具合を表すことができる技術がある(例えば、特開平3−11884号公報または特開平3−179976号公報参照)。   In addition, the result of applying the high-pass filter to a specific area in the center of the captured image is integrated, and the resulting one-dimensional parameter is displayed on the viewfinder to express the degree of focusing. There is a technique that can be used (see, for example, JP-A-3-11884 or JP-A-3-179976).

上述した特開2000−350224号公報に記載の、従来のピーキング回路を用いた場合に表示される画像は、画像中の被写体の輪郭が強調されたものであるため、実際にフォーカスを合わせるべき被写体を特定してフォーカス合わせを行い易いという特徴があった。   Since the image displayed when using the conventional peaking circuit described in Japanese Patent Laid-Open No. 2000-350224 described above is an image in which the contour of the subject in the image is emphasized, the subject to be actually focused There is a feature that it is easy to carry out focusing by specifying.

しかしながら、広角レンズなどを使用した場合には、被写界深度が深くなるうえに画面上の被写体像が小さくなってしまうために、上述した特開2000−350224号公報に記載の技術では、最適なフォーカス位置を得るのが難しくなる。   However, when a wide-angle lens or the like is used, the depth of field becomes deep and the subject image on the screen becomes small. Therefore, the technique described in Japanese Patent Laid-Open No. 2000-350224 described above is optimal. It is difficult to obtain a correct focus position.

また、上述した特開2000−350224号公報に記載の技術では、被写体像の輪郭部を強調して表示しているだけであるため、ユーザは、この表示から、現状のフォーカス距離が最適値であるか否かを判断することはできなかった。   Further, in the technique described in Japanese Patent Laid-Open No. 2000-350224 described above, only the contour portion of the subject image is displayed in an emphasized manner. It was not possible to judge whether there was.

一方、特開平3−11884号公報または特開平3−179976号公報に記載の補助情報の表示方法では、画像中の高周波成分の大きさを表すパラメータを、例えば、バー状のインジケータとしてビューファインダ上にオーバーレイするため、レンズのフォーカス位置を動かした場合に、合焦具合がどの程度増減するかを把握しやすいという特徴がある。   On the other hand, in the auxiliary information display method described in Japanese Patent Application Laid-Open No. 3-11884 or Japanese Patent Application Laid-Open No. 3-179976, a parameter indicating the size of a high-frequency component in an image is displayed on the viewfinder as a bar-shaped indicator, for example. Therefore, when the focus position of the lens is moved, it is easy to grasp how much the focusing condition increases or decreases.

しかしながら、特開平3−11884号公報または特開平3−179976号公報に記載の技術では、画面の特定領域の高周波成分を全て積分した結果としてパラメータを設定しているため、領域内のどの被写体に合焦しているかをユーザが正確に把握し、また、ユーザがフォーカスを合わせようとしている所望の被写体が撮像されている領域に対して、高域フィルタを施し、パラメータを算出することは難しかった。   However, in the technique described in Japanese Patent Laid-Open No. 3-11884 or Japanese Patent Laid-Open No. 3-179976, the parameter is set as a result of integrating all high-frequency components in a specific area of the screen. It is difficult for the user to accurately grasp whether the subject is in focus, and to calculate a parameter by applying a high-pass filter to the region where the desired subject that the user is trying to focus on is captured. .

そこで、撮像装置11では、ユーザが、撮像画像中において合焦している被写体を容易に把握し、また、所定の被写体に対する合焦具合のピークを容易に把握することができるようになっている。   Therefore, in the imaging device 11, the user can easily grasp the subject in focus in the captured image, and can easily grasp the peak of the focusing state with respect to the predetermined subject. .

図7は、撮像装置11の他の機能構成例を示すブロック図である。なお、図7においては、図1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図7の撮像装置11は、ファインダ表示画像変換部26に代わってフォーカスアシスト処理部51を備えている以外は、基本的に、図1の撮像装置11と同様の構成を有するものである。   FIG. 7 is a block diagram illustrating another functional configuration example of the imaging device 11. In FIG. 7, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted as appropriate. That is, the imaging apparatus 11 in FIG. 7 basically has the same configuration as that of the imaging apparatus 11 in FIG. 1 except that it includes a focus assist processing unit 51 in place of the finder display image conversion unit 26. .

カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正処理、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータをコーディック部24およびフォーカスアシスト処理部51に供給する。   The camera signal processing unit 23 performs processing such as white balance correction processing, gain adjustment, demosaic processing, linear matrix processing, and gamma correction processing on the RAW data supplied from the image sensor 22, and the processing result is obtained. The video data is supplied to the codec unit 24 and the focus assist processing unit 51.

フォーカスアシスト処理部51は、カメラ信号処理部23から供給されるビデオデータに対し、ユーザが合焦具合を把握しやすくするための補助情報であるフォーカスインジケータの合成を行うとともに、フォーカスインジケータが合成されたビデオデータをビューファインダ部27に供給し、その表示を制御する。   The focus assist processing unit 51 synthesizes a focus indicator, which is auxiliary information for making it easier for the user to grasp the in-focus state, with the video data supplied from the camera signal processing unit 23, and the focus indicator is synthesized. The obtained video data is supplied to the viewfinder unit 27 and the display thereof is controlled.

フォーカスアシスト処理部51の詳細については、図8、図16および図18を参照して後述する。   Details of the focus assist processing unit 51 will be described later with reference to FIGS.

ビューファインダ部27は、フォーカスアシスト処理部51から供給されたビデオデータに基づいて、フォーカスインジケータが付加された撮像画像を表示する。つまり、ビューファインダ部27は、ユーザに、撮像画像とともに、フォーカス合わせをするための補助情報を呈示する。   The viewfinder unit 27 displays a captured image with a focus indicator added based on the video data supplied from the focus assist processing unit 51. That is, the viewfinder unit 27 presents auxiliary information for focusing together with the captured image to the user.

図8は、図7のフォーカスアシスト処理部51の第1の実施例であるフォーカスアシスト処理部51−1の構成を示すブロック図である。フォーカスアシスト処理部51−1は、輝度信号生成部71、水平微分フィルタ処理部72、加算部73、およびインジケータ合成部74で構成される。   FIG. 8 is a block diagram showing a configuration of a focus assist processing unit 51-1 which is a first embodiment of the focus assist processing unit 51 of FIG. The focus assist processing unit 51-1 includes a luminance signal generation unit 71, a horizontal differential filter processing unit 72, an addition unit 73, and an indicator synthesis unit 74.

カメラ信号処理部23からフォーカスアシスト処理部51−1に供給される入力ビデオデータは、輝度信号生成部71に供給されるとともに、インジケータ合成部74に供給される。   The input video data supplied from the camera signal processing unit 23 to the focus assist processing unit 51-1 is supplied to the luminance signal generation unit 71 and is also supplied to the indicator synthesis unit 74.

輝度信号生成部71は、図2のファインダ表示画像変換部26における輝度信号生成部41と同様に、カメラ信号処理部23からの入力ビデオデータに対して、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、水平微分フィルタ処理部72に供給する。   Similar to the luminance signal generation unit 41 in the finder display image conversion unit 26 of FIG. 2, the luminance signal generation unit 71 applies the input video data from the camera signal processing unit 23 to the above-described equation (1). Conversion processing is performed to generate a luminance signal Y, which is supplied to the horizontal differential filter processing unit 72.

水平微分フィルタ処理部72は、輝度信号生成部71から供給された輝度信号Yから、水平方向の高周波成分を抽出して、加算部73に供給する。   The horizontal differential filter processing unit 72 extracts a high-frequency component in the horizontal direction from the luminance signal Y supplied from the luminance signal generation unit 71 and supplies it to the addition unit 73.

具体的には、水平微分フィルタ処理部72は、例えば、輝度信号生成部71からの輝度信号Yに対して、図9に示すような係数を持つ水平微分フィルタを施し、得られた微分データを加算部73に供給する。   Specifically, the horizontal differential filter processing unit 72 performs, for example, a horizontal differential filter having a coefficient as shown in FIG. 9 on the luminance signal Y from the luminance signal generation unit 71, and obtains the obtained differential data. It supplies to the addition part 73.

図9に示される微分フィルタは、画像に対して水平空間方向の微分処理を行うため、水平微分フィルタ処理部72は、垂直方向にエッジが存在する場合に大きい値を出力する。   Since the differential filter shown in FIG. 9 performs differential processing in the horizontal space direction on the image, the horizontal differential filter processing unit 72 outputs a large value when an edge exists in the vertical direction.

また、水平微分フィルタ処理部72は、水平方向1ラインごとの処理ではなく、数ラインをまとめて処理する構成であっても構わない。   Further, the horizontal differential filter processing unit 72 may be configured to process several lines at once instead of processing for each horizontal line.

なお、ここでは、図9に示した水平微分フィルタ以外のフィルタであっても、水平方向の高周波成分を抽出することが可能であれば、いかなる形状のフィルタを用いても良い。   In this case, a filter other than the horizontal differential filter shown in FIG. 9 may be used as long as it can extract a high-frequency component in the horizontal direction.

加算部73は、水平微分フィルタ処理部72から供給される微分データの、水平1ライン分の微分データの加算を行い、水平ラインごとの微分加算値を、その水平1ラインに対応する高周波成分の大きさを表すパラメータとして、インジケータ合成部74に供給する。   The adding unit 73 adds the differential data for one horizontal line of the differential data supplied from the horizontal differential filter processing unit 72, and calculates the differential addition value for each horizontal line of the high frequency component corresponding to that horizontal line. This is supplied to the indicator composition unit 74 as a parameter representing the size.

また、加算部73は、水平1ラインごとに加算処理を行わずに、数ラインをまとめて処理する構成であっても構わない。   Moreover, the addition part 73 may be the structure which processes several lines collectively, without performing an addition process for every horizontal line.

さらに、加算部73は、例えば、図13を用いて後述するようにして、空間的にフォーカスを合わせる領域であるフォーカシングエリアを限定し、各水平ラインのうち、フォーカシングエリア内の微分データのみを加算するようにしてもよい。   Further, for example, as will be described later with reference to FIG. 13, the adding unit 73 limits the focusing area which is a spatially focused region, and adds only the differential data in the focusing area among the horizontal lines. You may make it do.

なお、水平1ラインに対する高周波成分の大きさを表すパラメータを求めることができれば、水平微分フィルタ処理部72および加算部73が、水平方向の高周波成分を抽出し、線形加算処理を行う代わりに、他の処理を実行する構成としても良い。例えば、画像内の所定の領域にFFT(Fast Fourier Transform)をかけることにより、高調波成分を求めるようにしても良い。   If a parameter representing the magnitude of the high-frequency component for one horizontal line can be obtained, the horizontal differential filter processing unit 72 and the adding unit 73 extract the high-frequency component in the horizontal direction and perform the linear addition process instead of performing other processing. It is good also as a structure which performs the process of. For example, the harmonic component may be obtained by applying FFT (Fast Fourier Transform) to a predetermined region in the image.

インジケータ合成部74は、加算部73から供給される水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、ユーザが、所望の被写体に対してフォーカスを合わせるための指標となる補助情報であるフォーカスインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給するとともに、その表示を制御する。   The indicator synthesis unit 74 is auxiliary information serving as an index for the user to focus on a desired subject based on a parameter representing the magnitude of the high-frequency component for each horizontal line supplied from the addition unit 73. A certain focus indicator is generated, synthesized on the video data supplied from the camera signal processing unit 23, supplied to the viewfinder unit 27, and its display is controlled.

インジケータ合成部74によりフォーカスインジケータが合成されたビデオデータは、フォーカスインジケータが付加された撮像画像として、ビューファインダ部27に表示される。   The video data combined with the focus indicator by the indicator combining unit 74 is displayed on the viewfinder unit 27 as a captured image with the focus indicator added.

次に、インジケータ合成部74により合成されるフォーカスインジケータの例を、図10乃至図15を参照して説明する。   Next, an example of the focus indicator combined by the indicator combining unit 74 will be described with reference to FIGS.

まず、図10および図11を参照して、フォーカスインジケータの第1の表示例について説明する。   First, a first display example of the focus indicator will be described with reference to FIGS. 10 and 11.

図10および図11における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを、図中aで示される折れ線グラフとして生成し、ビデオデータ上に合成する。図10および図11における場合、フォーカスインジケータのラインの位置が画面の右端に近いほど、対応する水平ラインのパラメータは小さい値、すなわち、対応する水平ラインには高調波成分が少ないことを示しており、折れ線グラフの山の部分に対応する水平ラインには、高周波領域が多いことを示している。   In the case of FIG. 10 and FIG. 11, the indicator composition unit 74 generates a focus indicator indicating a parameter for each horizontal line as a line graph indicated by a in the figure, and synthesizes it on the video data. 10 and 11, the closer the position of the focus indicator line is to the right end of the screen, the smaller the corresponding horizontal line parameter, that is, the corresponding horizontal line has less harmonic components. The horizontal line corresponding to the mountain portion of the line graph shows that there are many high frequency regions.

図10の例の場合、フォーカスは中央の女性に合っており、女性の像の中で高調波成分が多い顔の部分が写っている水平ライン上に、フォーカスインジケータの山が現れている。   In the case of the example in FIG. 10, the focus is on the woman in the center, and a mountain of focus indicators appears on a horizontal line in which a face portion with a lot of harmonic components is reflected in the image of the woman.

そして、図11の例では、フォーカスは背景に合っているため、女性の像の中で高調波成分が多い顔の部分が写っている水平ラインではなく、背景部分が多い水平ラインに対応する部分に、フォーカスインジケータの山が現れている。すなわち、画像中において、女性は前ボケの状態になり解像していない。   In the example of FIG. 11, since the focus is on the background, the portion corresponding to the horizontal line with many background portions, not the horizontal line in which the face portion with many harmonic components is reflected in the female image. A pile of focus indicators appears. That is, in the image, the woman is in a state of previous blur and is not resolved.

オートフォーカスではなくマニュアルフォーカスで、実際に、動画像(または静止画像)を撮像するとき、ユーザは、ビューファインダ部27に表示される像を見ながら、焦点を定める(フォーカスを合わせる)。すなわち、図10および図11は、オートフォーカスではなくマニュアルフォーカスで焦点を定めるために、ユーザがフォーカス位置を移動させている間のある一瞬のビューファインダ部27の表示内容に対応する。   When actually capturing a moving image (or still image) with manual focus instead of autofocus, the user determines the focus (focuses) while viewing the image displayed on the viewfinder unit 27. That is, FIG. 10 and FIG. 11 correspond to display contents of the viewfinder 27 for a moment while the user moves the focus position in order to set the focus by manual focus instead of autofocus.

前景(この場合は女性)または背景の持つ空間周波数は、被写体そのものに依存するため、インジケータの山の大小は、被写体の合焦とは必ずしも一致しない。実際には、レンズのフォーカス位置を動作させて、フォーカス位置を手前から後方に動かした場合、表示される撮像画像およびインジケータは、図10の状態から図11の状態に遷移することとなる。   Since the spatial frequency of the foreground (in this case, a woman) or the background depends on the subject itself, the magnitude of the indicator mountain does not necessarily match the focus of the subject. Actually, when the focus position of the lens is operated and the focus position is moved from the near side to the back side, the displayed captured image and indicator are changed from the state shown in FIG. 10 to the state shown in FIG.

具体的には、フォーカスを合わせたい領域である女性の顔が写っているラインに注目した場合、フォーカス位置が女性の位置より前である状態から次第に後方に動くに従って、女性の顔が写っているライン付近のインジケータの山が高くなっていき、図10の状態で、女性の顔が写っているライン付近のインジケータの山が最大となり、図11に向かって山が小さくなっていくことになる。   Specifically, when attention is paid to a line in which a woman's face, which is an area to be focused, is focused, the woman's face is reflected as the focus position gradually moves backward from the state before the woman's position. The peak of the indicator near the line becomes higher, and in the state of FIG. 10, the peak of the indicator near the line in which the female face is reflected becomes the maximum, and the peak becomes smaller toward FIG.

一方、背景が写っているラインに注目した場合、図10の状態では対応する部分のインジケータの山は小さく、図11に向かってインジケータの山が大きくなり、レンズのフォーカス位置をさらに後方に動かした場合には、背景部のインジケータのラインの山は図11の状態で最大値となり、その後、徐々に小さくなっていく。   On the other hand, when attention is paid to the line in which the background is reflected, in the state of FIG. 10, the peak of the indicator in the corresponding part is small, and the peak of the indicator becomes large toward FIG. 11, and the focus position of the lens is moved further backward. In this case, the peak of the indicator line in the background portion becomes the maximum value in the state of FIG. 11, and then gradually decreases.

このように、フォーカスを合わせるための指標となる補助情報であるフォーカスインジケータの表示により、ユーザは、レンズのフォーカス位置を動作させたときのフォーカスの変化を知ることが容易となる。すなわち、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、所望の被写体にフォーカスが合っているか否かを容易に認識することが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業を容易に行うことができる。   Thus, the display of the focus indicator, which is auxiliary information serving as an index for focusing, makes it easy for the user to know the change in focus when the focus position of the lens is operated. In other words, the user can easily recognize whether or not the desired subject is in focus by checking the indicator while moving the focus position of the lens back and forth. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. It is possible to easily perform operations such as focus feeding according to the movement of the camera.

なお、図10および図11の例においては、折れ線グラフの内側を任意の色で埋め、折れ線グラフが分かりやすいようにしているが、折れ線グラフの内側の部分のビデオデータ(撮像画像)が隠れてしまわないように、折れ線グラフの線分のみを表示して、折れ線グラフの内側の部分のビデオデータをそのまま表示しても構わないし、折れ線グラフの内側の部分に対して適当な透過率を設定して任意色との合成表示を行っても構わない。また、フォーカスインジケータである折れ線グラフの表示位置は画面の右端に限定するものではなく、画面の左端等いずれの位置であっても構わない。   In the examples of FIGS. 10 and 11, the inside of the line graph is filled with an arbitrary color so that the line graph is easy to understand. However, the video data (captured image) of the inner part of the line graph is hidden. In order not to stutter, only the line segment of the line graph may be displayed, and the video data inside the line graph may be displayed as it is, or an appropriate transmittance is set for the inner part of the line graph. It is also possible to perform composite display with an arbitrary color. The display position of the line graph as the focus indicator is not limited to the right edge of the screen, and may be any position such as the left edge of the screen.

次に、図12を参照して、フォーカスインジケータの第2の表示例について説明する。   Next, a second display example of the focus indicator will be described with reference to FIG.

図12における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを、図中a´で示されるような棒グラフとして生成し、ビデオデータ上に合成する。図12の例においては、棒グラフを数ラインおきに表示しているが、全てのラインに対して表示してもよいし、複数ラインのパラメータの平均値を算出し、その平均値を、複数ラインごとに表示するようにしてもよい。この場合、フォーカスインジケータの棒グラフが短いほど、パラメータは小さい値、すなわち、高調波成分が少ない水平ラインであることを示しており、棒グラフが最も長い水平ラインが最も高周波領域の多い水平ラインであることを示している。   In the case of FIG. 12, the indicator composition unit 74 generates a focus indicator indicating a parameter for each horizontal line as a bar graph as indicated by a ′ in the figure, and synthesizes it on the video data. In the example of FIG. 12, the bar graph is displayed every several lines. However, it may be displayed for all lines, or an average value of parameters of a plurality of lines is calculated, and the average value is expressed as a plurality of lines. You may make it display for every. In this case, the shorter the bar graph of the focus indicator, the smaller the parameter, that is, the horizontal line with less harmonic components, indicating that the longest horizontal line is the horizontal line with the highest frequency range. Is shown.

図12の例の場合、フォーカスは中央の女性に合っており、女性の像の中で高調波成分が多い顔の部分が写っている部分に対応する水平ライン上の棒グラフが長くなっている。   In the case of the example of FIG. 12, the focus is on the woman in the center, and the bar graph on the horizontal line corresponding to the portion of the image of the woman in which the face portion with many harmonic components is reflected is long.

図12に示されるように、フォーカスインジケータを棒グラフとして表示した場合においても、図10および図11における場合と同様に、フォーカスインジケータは、表示される撮像画像におけるそれぞれの水平ラインの時間的な高周波成分の遷移を表現する。   As shown in FIG. 12, even when the focus indicator is displayed as a bar graph, as in the case of FIGS. 10 and 11, the focus indicator is a temporal high-frequency component of each horizontal line in the displayed captured image. Express the transition of.

したがって、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、レンズのフォーカス位置を動作させたときのフォーカスの変化を容易に知ることができ、所望の被写体にフォーカスを合わせることが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業が容易になる。   Therefore, the user can easily know the change in focus when the lens focus position is operated by checking the indicator while moving the lens focus position back and forth, and can focus on a desired subject. It becomes possible. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. Work such as focus feed that matches the movement of the camera becomes easy.

また、フォーカスインジケータである棒グラフの表示位置は画面の右端に限定するものではなく、画面の左端等いずれの位置でも構わない。   The display position of the bar graph as the focus indicator is not limited to the right edge of the screen, and may be any position such as the left edge of the screen.

また、画面内において、フォーカスを合わせる領域、すなわち、フォーカシングエリアを限定するようにしても良い。   In the screen, an area to be focused, that is, a focusing area may be limited.

例えば、図13に示されるように、画面上垂直に図中b−1およびb−2で示される2本のラインを表示させ、それらのラインの内側をフォーカシングエリアとする。加算部73は、図中b−1およびb−2で示される2本のラインで挟まれた領域内の画素のみ加算処理を行う。この結果、フォーカスインジケータの表示は、フォーカシングエリア内の空間周波数のみに影響をうけるため、水平1ライン上に複数のオブジェクトが存在するような複雑なシーンにおいても、より的確なフォーカス合わせを実現するための補助となるフォーカスインジケータを表示させることができる。   For example, as shown in FIG. 13, two lines indicated by b-1 and b-2 in the figure are displayed vertically on the screen, and the inside of these lines is set as a focusing area. The addition unit 73 performs addition processing only on pixels within a region sandwiched between two lines indicated by b-1 and b-2 in the drawing. As a result, the display of the focus indicator is affected only by the spatial frequency in the focusing area, so that more accurate focusing can be achieved even in a complicated scene where a plurality of objects exist on one horizontal line. It is possible to display a focus indicator that assists.

また、フォーカスインジケータを表示するためのフォーカシングエリアの設定に関しては、ユーザが自由に設定できるようにしてもよいし、撮像装置11において予め決定されているものであってもよい。また、フォーカシングエリアは、画面内を円形、または、多角形で切り取った部分であってもよいし、複数設けられるものであってもよい。   Further, regarding the setting of the focusing area for displaying the focus indicator, the user may be able to freely set it, or it may be determined in advance in the imaging device 11. Further, the focusing area may be a part of the screen cut out in a circle or a polygon, or a plurality of focusing areas may be provided.

さらに、フォーカシングエリアを限定するか否かを、ユーザが選択可能な構成としてもよいことは言うまでもない。   Further, it goes without saying that the user can select whether or not to limit the focusing area.

なお、以上の説明では、フォーカスアシスト処理部51−1においては、水平微分フィルタ処理部72が、輝度信号生成部71から供給された輝度信号Yから、水平方向の高周波成分を抽出し、加算部73が、水平1ライン分の微分データの加算を行い、水平ラインごとの微分加算値を、その水平1ラインに対応する高周波成分の大きさを表すパラメータとして算出するものとして説明した。   In the above description, in the focus assist processing unit 51-1, the horizontal differential filter processing unit 72 extracts a high-frequency component in the horizontal direction from the luminance signal Y supplied from the luminance signal generation unit 71, and an addition unit. 73, the differential data for one horizontal line is added, and the differential addition value for each horizontal line is calculated as a parameter representing the magnitude of the high-frequency component corresponding to that horizontal line.

これに対して、例えば、水平方向ではなく、垂直方向の高調波成分を抽出し、垂直1ラインに対応する高周波成分の大きさを表すパラメータを算出して、垂直1ラインごとの高周波成分の大きさを表すパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に出力して表示させるようにしても良い。   On the other hand, for example, a harmonic component in the vertical direction instead of the horizontal direction is extracted, a parameter representing the size of the high frequency component corresponding to one vertical line is calculated, and the magnitude of the high frequency component for each vertical line is calculated. It is also possible to generate an indicator indicating the size of the parameter indicating the length, combine it on the video data supplied from the camera signal processing unit 23, and output the displayed data to the viewfinder unit 27 for display.

垂直1ラインごとの高周波成分の大きさを表すパラメータの大きさを示すインジケータを表示させる場合、フォーカスアシスト処理部51−1は、例えば、垂直成分の微分データの加算結果を記憶する垂直1ライン分の加算メモリをさらに備えるようにし、水平微分フィルタ処理部72に代わって、垂直方向の微分処理を行う垂直微分フィルタ処理部を備え、加算部73に代わって、垂直1ラインごとに垂直微分フィルタ処理部からの微分データを、該当する垂直ラインにおける加算メモリの値に加算する処理を実行する加算部を備え、インジケータ合成部74に代わって、各垂直ラインに対してパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給するインジケータ合成部を備えるものとする。   When displaying an indicator indicating the magnitude of the parameter representing the magnitude of the high-frequency component for each vertical line, the focus assist processing unit 51-1 stores, for example, one vertical line for storing the addition result of the differential data of the vertical component. In addition to a horizontal differential filter processing unit 72, a vertical differential filter processing unit that performs vertical differential processing is provided, and vertical differential filter processing is performed for each vertical line instead of the addition unit 73. An addition unit that executes a process of adding the differential data from the unit to the value of the addition memory in the corresponding vertical line, and instead of the indicator synthesis unit 74, an indicator that indicates the parameter size for each vertical line Generated and synthesized on the video data supplied from the camera signal processing unit 23 to the viewfinder unit 27. It shall include an indicator composition unit for feeding.

図14を参照して、フォーカスインジケータの第3の表示例として、各垂直ラインに対してパラメータの大きさを示すインジケータが、折れ線グラフとして表示されている場合について説明する。   With reference to FIG. 14, as a third display example of the focus indicator, a case will be described in which an indicator indicating the parameter size for each vertical line is displayed as a line graph.

図14における場合では、インジケータ合成部74は、垂直ラインごとのパラメータを示すフォーカスインジケータを、図中cで示される折れ線グラフとしてビデオデータ上に合成する。この場合、フォーカスインジケータのラインの位置が画面下端に近いほど、パラメータは小さい値、すなわち、高調波成分が少ない垂直ラインであることを示しており、折れ線グラフの山の部分は高周波成分の多い垂直ラインに対応することを示している。   In the case of FIG. 14, the indicator composition unit 74 synthesizes the focus indicator indicating the parameter for each vertical line on the video data as a line graph indicated by c in the figure. In this case, the closer the position of the focus indicator line is to the lower end of the screen, the smaller the parameter, that is, the vertical line with less harmonic components, and the mountain portion of the line graph is a vertical line with more high frequency components. It shows that it corresponds to the line.

図14の例の場合、フォーカスは中央の女性に合っており、女性の像が写っている垂直ラインの位置に、フォーカスインジケータの山が現れている。   In the example of FIG. 14, the focus is on the woman in the center, and a mountain of focus indicators appears at the position of the vertical line where the image of the woman is shown.

また、図14における場合においても、フォーカスインジケータは、表示される撮像画像におけるそれぞれの垂直ラインの時間的な高周波成分の遷移を表現する。   Also in the case of FIG. 14, the focus indicator expresses temporal high-frequency component transition of each vertical line in the displayed captured image.

したがって、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、レンズのフォーカス位置を動作させたときのフォーカスの変化を容易に知ることができ、所望の被写体にフォーカスを合わせることが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業が容易になる。   Therefore, the user can easily know the change in focus when the lens focus position is operated by checking the indicator while moving the lens focus position back and forth, and can focus on a desired subject. It becomes possible. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. Work such as focus feed that matches the movement of the camera becomes easy.

また、フォーカスインジケータである折れ線グラフの表示位置は画面の下側に限定するものではなく、画面の上側等いずれの位置でも構わない。   Further, the display position of the line graph as the focus indicator is not limited to the lower side of the screen, and may be any position such as the upper side of the screen.

また、垂直方向の高周波成分を表現するフォーカスインジケータも、折れ線グラフのみならず、棒グラフで表されていてもよい。   Further, the focus indicator expressing the high-frequency component in the vertical direction may be represented not only by a line graph but also by a bar graph.

また、フォーカスインジケータの第4の表示例として、図15に示されるように、各水平ラインに対してパラメータの大きさを示す図中aで示されるフォーカスインジケータと、各垂直ラインに対してパラメータの大きさを示す図中cで示されるフォーカスインジケータとが、それぞれ、ビデオデータに合成されて表示されるようにしてもよい。   Also, as a fourth display example of the focus indicator, as shown in FIG. 15, the focus indicator indicated by a in the figure showing the parameter size for each horizontal line and the parameter indicator for each vertical line. A focus indicator indicated by c in the drawing showing the size may be combined with the video data and displayed.

図15における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを図中aで示される折れ線グラフとして、垂直ラインごとのパラメータを示すフォーカスインジケータを図中cで示される折れ線グラフとして、それぞれビデオデータ上に合成する。   In the case of FIG. 15, the indicator composition unit 74 uses a focus indicator indicating a parameter for each horizontal line as a line graph indicated by a in the figure, and a focus indicator indicating a parameter for each vertical line as a line graph indicated by c in the figure. Are respectively synthesized on the video data.

以上、図10乃至図15を用いて、フォーカスインジケータの表示例を示したが、これらは本発明の機能を限定するものではなく、フォーカスインジケータは、画像の空間的な高周波成分の大きさに応じて、画像空間上における位置がわかるように表示されていれば、どのような形式で表示されていてもよいことは言うまでもない。   The display examples of the focus indicator have been described above with reference to FIGS. 10 to 15. However, these do not limit the function of the present invention, and the focus indicator corresponds to the size of the spatial high-frequency component of the image. Needless to say, it may be displayed in any format as long as the position in the image space can be understood.

次に、図16は、図7のフォーカスアシスト処理部51の第2の実施例であるフォーカスアシスト処理部51−2の構成を示すブロック図である。なお、図16においては、図8と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図16のフォーカスアシスト処理部51−2は、新たに、比較部91およびピークメモリ部92を備え、インジケータ合成部74に代わってインジケータ合成部93を備えている以外は、基本的に、図8のフォーカスアシスト処理部51−1と同様の構成を有するものである。   Next, FIG. 16 is a block diagram showing a configuration of a focus assist processing unit 51-2 which is a second embodiment of the focus assist processing unit 51 of FIG. In FIG. 16, the same reference numerals are given to portions corresponding to those in FIG. 8, and description thereof will be omitted as appropriate. That is, the focus assist processing unit 51-2 in FIG. 16 is newly provided with a comparison unit 91 and a peak memory unit 92, and basically includes an indicator synthesis unit 93 instead of the indicator synthesis unit 74. This has the same configuration as the focus assist processing unit 51-1 in FIG.

比較部91は、加算部73から供給される各水平ラインの微分加算値と、予めピークメモリ部92に記憶されている過去の各水平ラインの微分データの最大値とを、ラインごとに比較する。そして、比較部91は、各ラインにおいて、過去のパラメータの最大値と、このフレームで求められたパラメータとのうちの大きな値を抽出し、加算部73から供給される各水平ラインの微分加算値とともに、インジケータ合成部93に供給する。   The comparison unit 91 compares the differential addition value of each horizontal line supplied from the addition unit 73 with the maximum value of the differential data of each past horizontal line stored in advance in the peak memory unit 92 for each line. . Then, the comparison unit 91 extracts, in each line, a large value of the past parameter maximum value and the parameter obtained in this frame, and the differential addition value of each horizontal line supplied from the addition unit 73. At the same time, it is supplied to the indicator composition unit 93.

また、比較部91は、得られたパラメータに、過去のパラメータよりも大きな値がある場合、大きな値であった微分加算値でピークメモリ部92の情報を上書きし、ピークメモリ部92に記憶されている、過去の各水平ラインの微分データの最大値を更新する。   In addition, when the obtained parameter has a larger value than the past parameter, the comparison unit 91 overwrites the information in the peak memory unit 92 with the differential addition value which is a larger value, and is stored in the peak memory unit 92. The maximum value of differential data for each past horizontal line is updated.

ピークメモリ部92は、比較部91による比較結果に基づいて、各水平ラインの微分加算値の最大値を保持するメモリである。ピークメモリ部92に記憶されている過去の各水平ラインの微分データの最大値を、以下、ピークホールド値ともいう。   The peak memory unit 92 is a memory that holds the maximum value of the differential addition value of each horizontal line based on the comparison result by the comparison unit 91. Hereinafter, the maximum value of the differential data of each past horizontal line stored in the peak memory unit 92 is also referred to as a peak hold value.

インジケータ合成部93は、上述した場合と同様のフォーカスインジケータと、ピークホールド値を示すラインとを、ビデオデータに合成して、ビューファインダ部27に出力するとともに、その表示を制御する。   The indicator combining unit 93 combines the focus indicator similar to the above case and the line indicating the peak hold value with the video data, outputs the combined video data to the viewfinder unit 27, and controls the display thereof.

図17は、インジケータ合成部93により、図中aで示される水平ラインごとのパラメータを示すフォーカスインジケータと、図中dで示されるピークホールド値を示すラインが生成された場合の、ビューファインダ部27の表示例である。   FIG. 17 shows the viewfinder unit 27 when the indicator combining unit 93 generates a focus indicator indicating parameters for each horizontal line indicated by a in the figure and a line indicating the peak hold value indicated by d in the figure. Is a display example.

図中aで示される、水平ラインごとのパラメータを示すフォーカスインジケータは、図10および図11を用いて説明したものと同じフォーカスインジケータである。図17の例においては、数ラインをまとめて比較処理した結果を示しているが、各ラインごとに比較処理を行っても構わない。また、ピークホールドの表示方法は、過去の最大値が表現できればどのようなものでも構わない。   The focus indicator indicating the parameter for each horizontal line indicated by “a” in the figure is the same focus indicator as described with reference to FIGS. 10 and 11. In the example of FIG. 17, the result of comparison processing of several lines is shown, but the comparison processing may be performed for each line. The peak hold display method may be any method as long as the maximum value in the past can be expressed.

それぞれの水平ラインにおいて高調波成分が多い場合、その水平ラインの画素は多くのエッジ要素を含んでいる。すなわち、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認し、所望の被写体に焦点が合っている場合にインジケータの山が高くなると思われるラインにおいて、インジケータの山がピークホールド値に合うように調整することにより、所望の被写体に容易にフォーカスを合わせることが可能となる。   When there are many harmonic components in each horizontal line, the pixel of the horizontal line contains many edge elements. In other words, the user checks the indicator while moving the lens focus position back and forth so that the peak of the indicator matches the peak hold value in the line where the peak of the indicator seems to be high when the desired subject is in focus. By adjusting to, it becomes possible to easily focus on a desired subject.

また、撮像される対象が変わった場合、過去の微分加算値の最大値は意味を持たない。したがって、ピークメモリ部92に記録されている各水平ラインの微分加算値の最大値がずっとリセットされなかった場合、ピークホールド値の意味がなくなってしまう。   Further, when the object to be imaged is changed, the past maximum differential addition value is meaningless. Therefore, if the maximum value of the differential addition value of each horizontal line recorded in the peak memory unit 92 is not reset all the time, the meaning of the peak hold value is lost.

そこで、ピークメモリ部92に記録されている各水平ラインの微分加算値の最大値は、所定時間ごとに、または、ユーザの操作入力を受けてリセットされるものとする。換言すれば、ピークメモリ部92には、次のリセットタイミングまでの最大微分データが保持されることになる。   Therefore, it is assumed that the maximum value of the differential addition value of each horizontal line recorded in the peak memory unit 92 is reset every predetermined time or in response to a user operation input. In other words, the maximum differential data until the next reset timing is held in the peak memory unit 92.

このように、図17のdで示される、ピークホールド値に対応するラインをフォーカスインジケータとともに表示させることにより、ユーザは、レンズのフォーカス位置を前後させつつ所望の被写体に焦点を合わせる場合に、フォーカスを合わせたい領域のインジケータがピークと一致しているかまたは近づいているか否かに基づいて、現在のフォーカス位置が、所望の被写体に対するフォーカス位置の最適値であるか否かを判断しやすくなる。この方法によれば、被写界深度が浅くフォーカス合わせが難しいような条件においても、所望の被写体に確実にフォーカス合わせを行うことが可能となる。   In this way, by displaying the line corresponding to the peak hold value shown by d in FIG. 17 together with the focus indicator, when the user focuses on a desired subject while moving the focus position of the lens back and forth, the focus is adjusted. It is easy to determine whether or not the current focus position is the optimum value of the focus position with respect to a desired subject based on whether or not the indicator of the region to be matched matches or approaches the peak. According to this method, it is possible to reliably focus on a desired subject even under conditions where the depth of field is shallow and focusing is difficult.

なお、図16および図17を用いて説明した場合においては、水平方向のみの処理に限定して説明を行ったが、図14を用いて説明した場合と同様にして、垂直方向の処理を行い、垂直方向のフォーカスインジケータおよびピークホールド値に対応するラインを生成し、表示させるようにしてもよい。   In the case described with reference to FIGS. 16 and 17, the description is limited to only the process in the horizontal direction, but the process in the vertical direction is performed in the same manner as described with reference to FIG. 14. A line corresponding to the vertical focus indicator and the peak hold value may be generated and displayed.

また、図15を用いて説明した場合と同様に、水平方向と垂直方向の処理を同時に行い、2次元的にフォーカスインジケータおよびピークホールド値に対応するラインを生成して、表示させることができるような構成にしても構わない。   Similarly to the case described with reference to FIG. 15, it is possible to perform processing in the horizontal direction and the vertical direction at the same time to generate and display a line corresponding to the focus indicator and the peak hold value two-dimensionally. Any configuration may be used.

次に、図18は、図7のフォーカスアシスト処理部51の第3の実施例であるフォーカスアシスト処理部51−3の構成を示すブロック図である。なお、図18においては、図8と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図18のフォーカスアシスト処理部51−3は、図8のフォーカスアシスト処理部51−1に、図2のファインダ表示画像変換部26の切替パルス生成部42および画像合成部43をさらに備え、インジケータ合成部74に代わってインジケータ合成部111を備えている以外は、基本的に、図8のフォーカスアシスト処理部51−1と同様の構成を有するものである。   Next, FIG. 18 is a block diagram showing a configuration of a focus assist processing unit 51-3 which is a third embodiment of the focus assist processing unit 51 of FIG. In FIG. 18, parts corresponding to those in FIG. 8 are denoted by the same reference numerals, and description thereof is omitted as appropriate. That is, the focus assist processing unit 51-3 in FIG. 18 further includes a switching pulse generation unit 42 and an image synthesis unit 43 of the viewfinder display image conversion unit 26 in FIG. 2 in addition to the focus assist processing unit 51-1 in FIG. Except that the indicator composition unit 111 is provided in place of the indicator composition unit 74, the configuration is basically the same as that of the focus assist processing unit 51-1 in FIG.

カメラ信号処理部23からフォーカスアシスト処理部51−3に供給される入力ビデオデータは、輝度信号生成部71に供給されるとともに、画像合成部43に供給される。   The input video data supplied from the camera signal processing unit 23 to the focus assist processing unit 51-3 is supplied to the luminance signal generation unit 71 and also to the image synthesis unit 43.

輝度信号生成部71は、カメラ信号処理部23からの入力ビデオデータに対して、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、画像合成部43および水平微分フィルタ処理部72に供給する。   The luminance signal generation unit 71 performs conversion processing as shown in the above-described formula (1) on the input video data from the camera signal processing unit 23 to generate the luminance signal Y, and the image synthesis unit 43 and the horizontal The differential filter processing unit 72 is supplied.

画像合成部43は、切替パルス生成部42から供給されるパルス信号MEに基づいて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号生成部71からの輝度信号Yに変換し、インジケータ合成部111に供給する。   Based on the pulse signal ME supplied from the switching pulse generation unit 42, the image synthesis unit 43 converts the range of the rectangular area A in the video data for the captured image displayed on the viewfinder unit 27 into the luminance signal generation unit. 71 is converted into a luminance signal Y from 71 and supplied to the indicator composition unit 111.

インジケータ合成部111は、上述した場合と同様のフォーカスインジケータを、画像合成部43からの、ビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換されたビデオデータに合成して、ビューファインダ部27に供給するとともに、その表示を制御する。   The indicator composition unit 111 synthesizes the focus indicator similar to that described above with the video data from the image composition unit 43 in which the range of the rectangular area A in the video data is converted into the luminance signal Y, and the view finder. This is supplied to the unit 27 and its display is controlled.

次に、図19を参照して、フォーカスインジケータの第4の表示例について説明する。   Next, a fourth display example of the focus indicator will be described with reference to FIG.

図19は、画像合成部43によって、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換された合成画像に、インジケータ合成部111により、図中aで示される水平ラインごとのパラメータを示すフォーカスインジケータが合成された場合の、ビューファインダ部27の表示例である。   FIG. 19 shows a composite image obtained by converting the range of the rectangular area A in the video data of the captured image displayed on the viewfinder 27 by the image composition unit 43 into the luminance signal Y. It is a display example of the viewfinder unit 27 when a focus indicator indicating a parameter for each horizontal line indicated by a in the figure is synthesized.

図中、矩形領域Aは、図4を用いて説明したものと同じフォーカシングエリアである。また、図中aで示される、水平ラインごとのパラメータを示すフォーカスインジケータは、図10および図11を用いて説明したものと同じフォーカスインジケータである。   In the figure, a rectangular area A is the same focusing area as described with reference to FIG. Further, the focus indicator indicating the parameter for each horizontal line indicated by a in the figure is the same focus indicator as described with reference to FIGS. 10 and 11.

図19の例においては、加算部73は、矩形領域Aであるフォーカシングエリア内の画素のみ加算処理を行う。   In the example of FIG. 19, the addition unit 73 performs addition processing only on pixels in the focusing area that is the rectangular area A.

この結果、フォーカスインジケータは、矩形領域Aと交差しない水平ラインについては表示されず、また、そのフォーカスインジケータの表示は、フォーカシングエリア内の空間周波数のみに影響をうけるため、水平1ライン上に複数のオブジェクトが存在するような複雑なシーンにおいても、より的確なフォーカス合わせを実現するための補助となるフォーカスインジケータを表示させることができ、また、フォーカスを合わせたい対象が輝度信号で表示(モノクロ表示)されるので、ユーザにとって、コントラストを見極めやすくなり、さらにフォーカス合わせが容易になる。   As a result, the focus indicator is not displayed for a horizontal line that does not intersect with the rectangular area A, and the display of the focus indicator is affected only by the spatial frequency in the focusing area. In complex scenes where objects are present, a focus indicator can be displayed to assist in achieving more accurate focus adjustment, and the target to be focused is displayed as a luminance signal (monochrome display) Therefore, it becomes easy for the user to determine the contrast, and further focusing becomes easier.

なお、図18および図19を用いて説明した場合においては、水平方向のみの処理に限定して説明を行ったが、図15を用いて説明した場合と同様に、水平方向と垂直方向の処理を同時に行い、2次元的にフォーカスインジケータを生成して、表示させるようにしてもよい。   In the case described with reference to FIGS. 18 and 19, the description is limited to the processing in only the horizontal direction. However, as in the case described with reference to FIG. 15, the processing in the horizontal direction and the vertical direction is performed. The focus indicator may be generated two-dimensionally and displayed.

また、図17を用いて説明した場合と同様にして、水平方向のフォーカスインジケータおよびピークホールド値に対応するラインを生成し、表示させるようにしてもよい。   Further, similarly to the case described with reference to FIG. 17, a line corresponding to the horizontal focus indicator and the peak hold value may be generated and displayed.

さらに、水平方向と垂直方向の処理を同時に行った上で、2次元的にフォーカスインジケータおよびピークホールド値に対応するラインを生成して、表示させることができるような構成にしても構わない。   Furthermore, it may be configured such that lines corresponding to the focus indicator and the peak hold value can be generated and displayed two-dimensionally after performing the processing in the horizontal direction and the vertical direction simultaneously.

以上、図7においては、撮像素子22、およびカメラ信号処理部23を有し、ユーザの操作入力に基づいてフォーカス位置が制御可能な撮像装置11の構成を説明し、図8以下の図面を用いて、撮像装置11における処理について説明したが、例えば、図8、図16、または図18を用いて説明したフォーカスアシスト処理部51と、ビューファインダ部27に対応する機能を有するものを1つの装置として構成しても良い。   As described above, in FIG. 7, the configuration of the imaging device 11 that includes the imaging element 22 and the camera signal processing unit 23 and that can control the focus position based on the user's operation input will be described. The processing in the imaging device 11 has been described. For example, one device having a function corresponding to the focus assist processing unit 51 and the viewfinder unit 27 described with reference to FIG. 8, FIG. 16, or FIG. You may comprise as.

具体的には、ユーザの操作入力に基づいて、フォーカス位置が制御可能な撮像装置により撮像された撮像画像を外部の装置から取得して、上述したようなフォーカスインジケータ等の作成および撮像画像との合成処理を行って、ビューファインダに表示することができる機能を有する表示装置を構成するものとしても良い。   Specifically, based on a user's operation input, a captured image captured by an imaging device whose focus position can be controlled is acquired from an external device, and a focus indicator or the like as described above is created and the captured image is It is also possible to constitute a display device having a function that can be displayed on the viewfinder by performing a composition process.

さらに、図8、図16、または図18を用いて説明したフォーカスアシスト処理部51に対応する機能を有するものを1つの装置として構成しても良い。   Furthermore, a device having a function corresponding to the focus assist processing unit 51 described with reference to FIG. 8, FIG. 16, or FIG. 18 may be configured as one device.

具体的には、ユーザの操作入力に基づいて、フォーカス位置が制御可能な撮像装置により撮像された撮像画像を外部の装置から取得して、上述したようなフォーカスインジケータ等の作成および撮像画像との合成処理を行って、外部の他の表示装置に出力して表示させることができる機能を有する表示制御装置を構成するものとしても良い。   Specifically, based on a user's operation input, a captured image captured by an imaging device whose focus position can be controlled is acquired from an external device, and a focus indicator or the like as described above is created and the captured image is It is also possible to configure a display control device having a function of performing a synthesis process and outputting and displaying it on another external display device.

次に、図20のフローチャートを参照して、図7の撮像装置11が実行する撮像処理について説明する。なお、ステップS32乃至ステップS38の各処理は、撮像された動画像のあるフレームの処理としては、ステップS34およびステップS35の処理とステップS36およびステップS37の処理とが並行して実行可能であるが、基本的には、記載されたステップの通りに順次実行されるものである。しかしながら、これらは、順次撮像される複数フレームにより構成される動画像全体に対して実行される処理であるので、撮像装置11内においては、それぞれ、並行して実行される。   Next, imaging processing executed by the imaging device 11 of FIG. 7 will be described with reference to the flowchart of FIG. In addition, although each process of step S32 thru | or step S38 can be performed in parallel with the process of step S34 and step S35, and the process of step S36 and step S37 as a process of the frame with the imaged moving image. Basically, they are executed sequentially according to the described steps. However, these are processes executed on the entire moving image composed of a plurality of frames that are sequentially picked up, and therefore are executed in parallel in the image pickup apparatus 11.

ステップS31乃至ステップS35においては、図5のステップS11乃至ステップS15と同様の処理が実行される。すなわち、図7の撮像装置11における撮像光学系21および撮像素子22は、撮像を開始し、カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、コーディック部24は、圧縮処理を行い、記録部25は、符号化ストリームを記録する。   In steps S31 to S35, processing similar to that in steps S11 to S15 in FIG. 5 is executed. That is, the imaging optical system 21 and the imaging element 22 in the imaging apparatus 11 of FIG. 7 start imaging, and the camera signal processing unit 23 performs white balance correction and gain adjustment on the RAW data supplied from the imaging element 22. , Demosaic processing, linear matrix processing, and gamma correction processing are performed, the codec unit 24 performs compression processing, and the recording unit 25 records the encoded stream.

ステップS36において、フォーカスアシスト処理部51は、図21、図22、または図23を用いて説明するフォーカスインジケータ生成処理を実行し、処理は、ステップS37に進む。   In step S36, the focus assist processing unit 51 executes the focus indicator generation process described with reference to FIG. 21, FIG. 22, or FIG. 23, and the process proceeds to step S37.

ステップS37において、ビューファインダ部27は、例えば、図10乃至図15、図17、または図19を用いて説明したような、ユーザが合焦具合を把握しやすくするための補助情報であるフォーカスインジケータ、または、フォーカスインジケータおよびピークホールド値を示すラインが付加された撮像画像を表示し、処理は、ステップS38に進む。   In step S <b> 37, the viewfinder unit 27, for example, a focus indicator that is auxiliary information for making it easier for the user to grasp the in-focus state as described with reference to FIGS. 10 to 15, 17, or 19. Alternatively, the captured image to which the focus indicator and the line indicating the peak hold value are added is displayed, and the process proceeds to step S38.

ステップS38においては、図5のステップS18と同様の処理が実行される。すなわち、操作入力部28は、ユーザからの操作入力に基づいて、撮像の終了が指令されたか否かを判断し、撮像の終了が指令されていないと判断された場合、処理は、ステップS32に戻り、それ以降の処理が繰り返される。そして、撮像の終了が指令されたと判断された場合、処理は終了する。   In step S38, the same process as in step S18 of FIG. 5 is executed. That is, the operation input unit 28 determines whether or not the end of imaging has been commanded based on the operation input from the user. If it is determined that the end of imaging has not been commanded, the process proceeds to step S32. Return, and the subsequent processing is repeated. If it is determined that the end of imaging has been commanded, the process ends.

このような処理により、動画像が撮像され、記録されるとともに、記録されている動画像とともに、フォーカスインジケータ(または、フォーカスインジケータおよびピークホールド値を示すライン)が表示される。   Through such processing, a moving image is captured and recorded, and a focus indicator (or a line indicating the focus indicator and peak hold value) is displayed together with the recorded moving image.

したがって、ユーザは、フォーカスインジケータを参照して、例えば、レンズリングを操作することなどにより、所望の対象物に容易にフォーカスを合わせることができる。また、電子的にレンズを動かし、フォーカスを自動修正することができるようにしてもよいことはいうまでもない。   Therefore, the user can easily focus on a desired object by referring to the focus indicator, for example, by operating the lens ring. Needless to say, the lens may be moved electronically so that the focus can be automatically corrected.

次に、図21のフローチャートを参照して、図20のステップS36において実行される処理の第1の例である、フォーカスインジケータ生成処理1について説明する。フォーカスインジケータ生成処理1は、フォーカスアシスト処理部51−1により実行される。   Next, a focus indicator generation process 1 that is a first example of the process executed in step S36 of FIG. 20 will be described with reference to the flowchart of FIG. The focus indicator generation process 1 is executed by the focus assist processing unit 51-1.

ステップS41において、輝度信号生成部71は、カメラ信号処理部23から供給される入力ビデオデータに対して、例えば、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、水平微分フィルタ処理部72に供給する。その後、処理は、ステップS42に進む。   In step S <b> 41, the luminance signal generation unit 71 performs, for example, the conversion process shown in the above-described formula (1) on the input video data supplied from the camera signal processing unit 23 to generate the luminance signal Y. To the horizontal differential filter processing unit 72. Thereafter, the process proceeds to step S42.

ステップS42において、水平微分フィルタ処理部72は、輝度信号生成部71からの輝度信号Yに対して、図9に示すような係数を持つ水平微分フィルタを施して微分データを得ること等により、輝度信号の水平方向の高周波成分を抽出して、加算部73に供給し、処理は、ステップS43に進む。   In step S42, the horizontal differential filter processing unit 72 applies a horizontal differential filter having a coefficient as shown in FIG. 9 to the luminance signal Y from the luminance signal generation unit 71 to obtain differential data, etc. The high-frequency component in the horizontal direction of the signal is extracted and supplied to the adding unit 73, and the process proceeds to step S43.

ステップS43において、加算部73は、水平微分フィルタ処理部72から供給される微分データの、水平1ライン分の微分データの加算を行うこと等により、水平1ラインに対する高周波成分の大きさを表すパラメータを求め、インジケータ合成部74に供給して、処理は、ステップS44に進む。   In step S43, the addition unit 73 adds a differential data for one horizontal line of the differential data supplied from the horizontal differential filter processing unit 72, thereby representing a parameter representing the magnitude of the high-frequency component for one horizontal line. Is supplied to the indicator composition unit 74, and the process proceeds to step S44.

ステップS44において、インジケータ合成部74は、加算部73から供給される水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、各ラインに対するパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成する。インジケータ合成部74は、インジケータが合成されたビデオデータを、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。   In step S44, the indicator combining unit 74 generates an indicator indicating the size of the parameter for each line based on the parameter indicating the size of the high-frequency component for each horizontal line supplied from the adding unit 73, and generates a camera signal. The video data is synthesized on the video data supplied from the processing unit 23. The indicator combining unit 74 supplies the video data combined with the indicator to the viewfinder unit 27 and controls the display thereof, and the process returns to step S36 in FIG. 20 and proceeds to step S37.

このような処理により、カメラ信号処理部23から供給されるビデオデータ上に、例えば、図10乃至図12を用いて説明したようなフォーカスインジケータを合成し、ビューファインダ部27に、フォーカスインジケータが付加された撮像画像を表示させることができる。   Through such processing, for example, a focus indicator as described with reference to FIGS. 10 to 12 is synthesized on the video data supplied from the camera signal processing unit 23, and the focus indicator is added to the viewfinder unit 27. The captured image can be displayed.

次に、図22のフローチャートを参照して、図20のステップS36において実行される処理の第2の例である、フォーカスインジケータ生成処理2について説明する。フォーカスインジケータ生成処理2は、フォーカスアシスト処理部51−2により実行される。   Next, with reference to the flowchart of FIG. 22, the focus indicator generation process 2 which is the 2nd example of the process performed in FIG.20 S36 is demonstrated. The focus indicator generation process 2 is executed by the focus assist processing unit 51-2.

ステップS71乃至ステップS73においては、図21のステップS41乃至ステップS43と同様の処理が実行される。すなわち、輝度信号生成部71は、輝度信号を生成し、水平微分フィルタ処理部72は、輝度信号の水平方向の高周波成分を抽出し、加算部73は、水平1ラインに対する高周波成分の大きさを表すパラメータを求める。   In steps S71 to S73, the same processes as in steps S41 to S43 in FIG. 21 are executed. That is, the luminance signal generation unit 71 generates a luminance signal, the horizontal differential filter processing unit 72 extracts a high-frequency component in the horizontal direction of the luminance signal, and the addition unit 73 determines the magnitude of the high-frequency component for one horizontal line. Find the parameters to represent.

ステップS74において、比較部91は、加算部73から各水平ラインの微分加算値の供給を受けるとともに、予めピークメモリ部92に記憶されている、過去の各水平ラインの過去のパラメータの最大値を読み出して、処理は、ステップS75に進む。   In step S74, the comparison unit 91 receives the differential addition value of each horizontal line from the addition unit 73, and calculates the past parameter maximum value of each past horizontal line stored in the peak memory unit 92 in advance. After reading, the process proceeds to step S75.

ステップS75において、比較部91は、加算部73によって得られたパラメータのうち、予めピークメモリ部92に記憶されている過去のパラメータよりも大きな値があるか否かを判断する。   In step S <b> 75, the comparison unit 91 determines whether or not the parameter obtained by the addition unit 73 has a value larger than a past parameter stored in advance in the peak memory unit 92.

ステップS75において、過去のパラメータよりも大きな値があると判断された場合、処理は、ステップS76に進み、比較部91は、大きな値であった微分加算値でピークメモリ部92の情報を上書きし、ピークメモリ部92に記録されている、過去の各水平ラインの微分データの最大値を更新する。   If it is determined in step S75 that there is a value larger than the past parameter, the process proceeds to step S76, and the comparison unit 91 overwrites the information in the peak memory unit 92 with the differential addition value that was a large value. The maximum value of the differential data of each past horizontal line recorded in the peak memory unit 92 is updated.

ステップS75において、過去のパラメータよりも大きな値がないと判断された場合、または、ステップS76の処理の終了後、処理は、ステップS77に進み、インジケータ合成部93は、各水平ラインの微分加算値に基づいて、各ラインに対してパラメータの大きさを示すフォーカスインジケータを生成するとともに、ピークメモリ部92に記録されている過去の各水平ラインの微分データの最大値に基づいて、ピークホールド値を示すラインを生成する。そして、インジケータ合成部93は、フォーカスインジケータおよびピークホールド値を示すラインを、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。   If it is determined in step S75 that there is no value larger than the past parameter, or after the process of step S76 is completed, the process proceeds to step S77, and the indicator composition unit 93 determines the differential addition value of each horizontal line. And generating a focus indicator indicating the size of the parameter for each line, and setting the peak hold value based on the maximum differential data of each past horizontal line recorded in the peak memory unit 92. Generate the line shown. Then, the indicator composition unit 93 synthesizes the line indicating the focus indicator and the peak hold value on the video data supplied from the camera signal processing unit 23, supplies the synthesized video data to the viewfinder unit 27, and controls the display thereof. The processing returns to step S36 in FIG. 20 and proceeds to step S37.

このような処理により、カメラ信号処理部23から供給されるビデオデータ上に、例えば、図17を用いて説明したようなフォーカスインジケータおよびピークホールド値を示すラインを合成し、ビューファインダ部27に、フォーカスインジケータおよびピークホールド値を示すラインが付加された撮像画像を表示させることができる。   Through such processing, for example, a line indicating a focus indicator and a peak hold value as described with reference to FIG. 17 is synthesized on the video data supplied from the camera signal processing unit 23, and the viewfinder unit 27 A captured image to which a line indicating a focus indicator and a peak hold value is added can be displayed.

なお、ピークメモリ部92に記録されているパラメータの最大値は、上述したように、一定時間が経過したらリセットされるものとしてもよいし、ユーザの操作入力によりリセットされるものとしてもよい。   As described above, the maximum value of the parameter recorded in the peak memory unit 92 may be reset when a certain time has elapsed, or may be reset by a user operation input.

次に、図23のフローチャートを参照して、図20のステップS36において実行される処理の第3の例である、フォーカスインジケータ生成処理3について説明する。フォーカスインジケータ生成処理3は、フォーカスアシスト処理部51−3により実行される。   Next, a focus indicator generation process 3 that is a third example of the process executed in step S36 of FIG. 20 will be described with reference to the flowchart of FIG. The focus indicator generation process 3 is executed by the focus assist processing unit 51-3.

ステップS101においては、図6で説明した輝度信号変換処理と同様の処理が実行される。すなわち、輝度信号生成部71は、輝度信号Yを生成し、切替パルス生成部42は、パルス信号MEの生成を開始し、画像合成部43は、パルス信号MEに応じて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号生成部71からの輝度信号Yに変換することにより、ビデオデータと輝度信号Yとの合成画像を生成する。   In step S101, processing similar to the luminance signal conversion processing described in FIG. 6 is executed. That is, the luminance signal generation unit 71 generates the luminance signal Y, the switching pulse generation unit 42 starts generating the pulse signal ME, and the image synthesis unit 43 sends the signal to the viewfinder unit 27 according to the pulse signal ME. By converting the range of the rectangular area A in the video data of the captured image to be displayed into the luminance signal Y from the luminance signal generation unit 71, a composite image of the video data and the luminance signal Y is generated.

ステップS102およびステップS103においては、図21のステップS42およびステップS43と同様の処理が実行される。すなわち、水平微分フィルタ処理部72は、輝度信号の水平方向の高周波成分を抽出し、加算部73は、矩形領域Aと交差する水平1ラインに対する高周波成分の大きさを表すパラメータを求める。   In step S102 and step S103, processing similar to that in step S42 and step S43 in FIG. 21 is executed. That is, the horizontal differential filter processing unit 72 extracts a high-frequency component in the horizontal direction of the luminance signal, and the adding unit 73 obtains a parameter representing the size of the high-frequency component for one horizontal line intersecting the rectangular area A.

ステップS104において、インジケータ合成部111は、加算部73からの矩形領域Aと交差する水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、各ラインに対するパラメータの大きさを示すインジケータを生成し、画像合成部43から供給される合成画像上に合成する。インジケータ合成部111は、インジケータが合成された合成画像を、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。   In step S104, the indicator composition unit 111 generates an indicator indicating the size of the parameter for each line, based on the parameter indicating the size of the high-frequency component for each horizontal line intersecting the rectangular area A from the addition unit 73. Then, the image is synthesized on the synthesized image supplied from the image synthesizing unit 43. The indicator compositing unit 111 supplies the composite image with the combined indicator to the viewfinder unit 27 and controls the display thereof, and the process returns to step S36 in FIG. 20 and proceeds to step S37.

このような処理により、カメラ信号処理部23から供給されるビデオデータのうち、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号Yに変換することにより生成された合成画像上に、例えば、図19を用いて説明したようなフォーカスインジケータを合成するので、ビューファインダ部27に、フォーカスを合わせたい被写体が表示されている領域がモノクロ表示され、フォーカスインジケータが付加されている合成画像を表示させることができる。   By such processing, the range of the rectangular area A in the video data of the captured image displayed on the viewfinder 27 in the video data supplied from the camera signal processing unit 23 is converted into the luminance signal Y. For example, since the focus indicator as described with reference to FIG. 19 is synthesized on the synthesized image generated in this manner, the area where the subject to be focused is displayed is displayed in monochrome on the viewfinder unit 27. A composite image to which a focus indicator is added can be displayed.

また、図20乃至図23のフローチャートを用いて説明した処理では、水平方向1ラインごとに、高調波成分の大きさを示すパラメータを求め、インジケータを生成して表示させる場合について説明しているが、それ以外にも、上述したようにして、高調波成分の大きさを示すパラメータを複数ラインごとに求めて、それに対応するインジケータを表示するものとしてもよい。   In the processing described with reference to the flowcharts of FIGS. 20 to 23, a case is described in which a parameter indicating the magnitude of the harmonic component is obtained for each horizontal line, and an indicator is generated and displayed. In addition, as described above, a parameter indicating the magnitude of the harmonic component may be obtained for each of a plurality of lines, and an indicator corresponding thereto may be displayed.

また、図14および図15を用いて説明したように、水平方向ではなく、垂直方向における高調波成分の大きさを示すパラメータを求め、それに対応するインジケータを表示するものとしてもよい。   Further, as described with reference to FIGS. 14 and 15, a parameter indicating the magnitude of the harmonic component in the vertical direction instead of the horizontal direction may be obtained, and an indicator corresponding to the parameter may be displayed.

以上のように、撮像装置11では、画像を撮像し、撮像された撮像画像の輝度信号Yを生成し、ビューファインダ部27に表示される撮像画像の表示領域のうち、ビデオデータにおける矩形領域Aの範囲を輝度信号Yに変換し、ビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換された合成画像を、ビューファインダ部27に表示するようにしたので、ビューファインダ部27において、フォーカスを合わせたい被写体が表示されている矩形領域Aが輝度信号Yで表示(モノクロ表示)され、それ以外の領域がカラー表示されて、特に、フォーカスを合わせたい被写体については、人間の視覚特性に従って明暗の差が認識しやすくなり、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことができる。   As described above, the imaging device 11 captures an image, generates the luminance signal Y of the captured image, and among the display areas of the captured image displayed on the viewfinder unit 27, the rectangular area A in the video data. Is converted into the luminance signal Y, and the composite image in which the range of the rectangular area A in the video data is converted into the luminance signal Y is displayed on the viewfinder unit 27. In the viewfinder unit 27, The rectangular area A on which the subject to be focused is displayed is displayed with the luminance signal Y (monochrome display), and the other areas are displayed in color. Especially for the subject to be focused on, according to the human visual characteristics It becomes easier to recognize the difference between light and dark, and the user can easily perform focusing while checking the color.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、上述した処理は、図24に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図24において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   In FIG. 24, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501,ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT and LCD, an output unit 507 including a speaker, a storage unit 508 including a hard disk, a modem, a terminal adapter, and the like. A communicator 509 is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is also connected to the input / output interface 505 as necessary, and a removable medium 521 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、図24に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 24, this recording medium is not only composed of a package medium consisting of a removable medium 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. These are configured by a hard disk including a ROM 502 storing a program and a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した撮像装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the imaging device to which this invention is applied. 図1のファインダ表示画像変換部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the finder display image conversion part of FIG. 切替パルス生成部の処理を説明するタイミングチャートである。It is a timing chart explaining the process of a switching pulse generation part. フォーカシングエリアについて説明する図である。It is a figure explaining a focusing area. 図1の撮像装置による撮像処理について説明するフローチャートである。3 is a flowchart for describing imaging processing by the imaging apparatus of FIG. 1. 輝度信号変換処理について説明するフローチャートである。It is a flowchart explaining a luminance signal conversion process. 撮像装置の他の構成を示すブロック図である。It is a block diagram which shows the other structure of an imaging device. 図1のフォーカスアシスト処理部の第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of the focus assist process part of FIG. 水平微分フィルタについて説明する図である。It is a figure explaining a horizontal differential filter. フォーカスインジケータについて説明する図である。It is a figure explaining a focus indicator. フォーカスインジケータについて説明する図である。It is a figure explaining a focus indicator. フォーカスインジケータの他の例について説明する図である。It is a figure explaining the other example of a focus indicator. フォーカシングエリアについて説明する図である。It is a figure explaining a focusing area. フォーカスインジケータの他の例について説明する図である。It is a figure explaining the other example of a focus indicator. フォーカスインジケータの他の例について説明する図である。It is a figure explaining the other example of a focus indicator. 図1のフォーカスアシスト処理部の第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the focus assistance process part of FIG. ピークホールド値を示すラインについて説明する図である。It is a figure explaining the line which shows a peak hold value. 図1のフォーカスアシスト処理部の第3の構成例を示すブロック図である。It is a block diagram which shows the 3rd structural example of the focus assist process part of FIG. フォーカシングエリアとフォーカスインジケータについて説明する図である。It is a figure explaining a focusing area and a focus indicator. 図7の撮像装置による撮像処理について説明するフローチャートである。It is a flowchart explaining the imaging process by the imaging device of FIG. フォーカスインジケータ生成処理1について説明するフローチャートである。It is a flowchart explaining the focus indicator production | generation process 1. FIG. フォーカスインジケータ生成処理2について説明するフローチャートである。It is a flowchart explaining the focus indicator production | generation process 2. FIG. フォーカスインジケータ生成処理3について説明するフローチャートである。It is a flowchart explaining the focus indicator production | generation process 3. FIG. パーソナルコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a personal computer.

符号の説明Explanation of symbols

11 撮像装置, 21 撮像光学系, 22 撮像素子, 23 カメラ信号処理部, 24 コーディック部, 25 記録部, 26 ファインダ表示画像変換部, 27 ビューファインダ部, 28 操作入力部, 41 輝度信号生成部, 42 切替パルス生成部, 43 画像合成部, 51 フォーカスアシスト処理部, 71 輝度信号生成部, 72 水平微分フィルタ処理部, 73 加算部, 74 インジケータ合成部, 91 比較部, 92 ピークメモリ部, 93 インジケータ合成部, 111 インジケータ合成部   DESCRIPTION OF SYMBOLS 11 Imaging device, 21 Imaging optical system, 22 Imaging device, 23 Camera signal processing part, 24 Codec part, 25 Recording part, 26 Finder display image conversion part, 27 View finder part, 28 Operation input part, 41 Luminance signal generation part, 42 switching pulse generation unit, 43 image synthesis unit, 51 focus assist processing unit, 71 luminance signal generation unit, 72 horizontal differential filter processing unit, 73 addition unit, 74 indicator synthesis unit, 91 comparison unit, 92 peak memory unit, 93 indicator Combining section, 111 indicator combining section

Claims (16)

撮像された画像を表示する撮像装置において、
前記画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する画像合成手段と、
前記合成画像を表示する表示手段と
を備える撮像装置。
In an imaging device that displays a captured image,
Imaging means for capturing the image;
Luminance signal generation means for generating a luminance signal of the image captured by the imaging means;
Image synthesizing means for converting image data for a predetermined area of the display area of the image into the luminance signal and generating a synthesized image of the image data and the luminance signal;
An imaging apparatus comprising: display means for displaying the composite image.
前記画像の表示領域のうちの前記所定の領域が前記表示手段に表示されるタイミングを示す信号を生成する信号生成手段をさらに備え、
前記画像合成手段は、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成する
請求項1に記載の撮像装置。
Signal generation means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display means;
The imaging apparatus according to claim 1, wherein the image synthesizing unit generates the synthesized image by converting the image data of the predetermined region into the luminance signal according to the signal.
前記撮像手段により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、
前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、
前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに備える
請求項1に記載の撮像装置。
Extraction means for extracting at least one of the horizontal direction and the vertical direction in the image picked up by the image pickup means;
Based on at least one of the high-frequency components in the horizontal direction or the vertical direction extracted by the extraction unit, 1 or 2 in the predetermined area of the display area of the image in at least one of the horizontal direction and the vertical direction Calculating means for calculating a parameter representing the magnitude of the high-frequency component for each of the plurality of lines;
Based on the parameter, an indicator that indicates the size of the parameter is generated, and an indicator compositing unit that combines the composite image and the indicator in correspondence with at least one position in the horizontal direction or the vertical direction. The imaging apparatus according to claim 1 further provided.
前記インジケータ合成手段は、前記インジケータを折れ線グラフとして生成する
請求項3に記載の撮像装置。
The imaging apparatus according to claim 3, wherein the indicator composition unit generates the indicator as a line graph.
前記抽出手段は、前記輝度信号生成手段により生成された前記輝度信号を用いて、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する
請求項3に記載の撮像装置。
The imaging apparatus according to claim 3, wherein the extraction unit extracts at least one high-frequency component in a horizontal direction or a vertical direction using the luminance signal generated by the luminance signal generation unit.
前記所定の領域を設定する設定手段をさらに備える
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising setting means for setting the predetermined area.
撮像された画像を表示する撮像装置の撮像方法において、
前記画像を撮像し、
前記撮像手段により撮像された前記画像の輝度信号を生成し、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、
前記合成画像を表示する
ステップを含む撮像方法。
In an imaging method of an imaging apparatus that displays a captured image,
Taking the image,
Generating a luminance signal of the image imaged by the imaging means;
Converting image data of a predetermined area of the display area of the image into the luminance signal, and generating a composite image of the image data and the luminance signal;
An imaging method including a step of displaying the composite image.
撮像された画像を表示する撮像装置として、コンピュータを機能させるプログラムにおいて、
前記画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、
前記合成画像を表示する表示手段
として、コンピュータを機能させるプログラム。
In a program that causes a computer to function as an imaging device that displays a captured image,
Imaging means for capturing the image;
Luminance signal generation means for generating a luminance signal of the image captured by the imaging means;
Composite image generation means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal;
A program that causes a computer to function as display means for displaying the composite image.
請求項8に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 8 is recorded. 撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置において、
前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する画像合成手段と、
前記合成画像の表示を制御する表示制御手段と
を備える表示制御装置。
In a display control device that controls display of the image of a display device that displays an image captured by the imaging device,
Luminance signal generation means for acquiring the image and generating a luminance signal of the image;
Image synthesizing means for converting image data for a predetermined area of the display area of the image into the luminance signal and generating a synthesized image of the image data and the luminance signal;
A display control unit that controls display of the composite image.
前記画像の表示領域のうちの前記所定の領域が前記表示装置に表示されるタイミングを示す信号を生成する信号生成手段をさらに備え、
前記画像合成手段は、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成する
請求項10に記載の表示制御装置。
Signal generating means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display device;
The display control apparatus according to claim 10, wherein the image synthesis unit converts the image data for the predetermined region into the luminance signal in accordance with the signal, and generates the synthesized image.
前記撮像装置により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、
前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、
前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに備える
請求項10に記載の表示制御装置。
Extracting means for extracting at least one of the horizontal direction and the vertical direction in the image captured by the imaging device;
Based on at least one of the high-frequency components in the horizontal direction or the vertical direction extracted by the extraction unit, 1 or 2 in the predetermined area of the display area of the image in at least one of the horizontal direction and the vertical direction Calculating means for calculating a parameter representing the magnitude of the high-frequency component for each of the plurality of lines;
Based on the parameter, an indicator that indicates the size of the parameter is generated, and an indicator compositing unit that combines the composite image and the indicator in correspondence with at least one position in the horizontal direction or the vertical direction. The display control device according to claim 10.
前記所定の領域を設定する設定手段をさらに備える
請求項10に記載の表示制御装置。
The display control apparatus according to claim 10, further comprising setting means for setting the predetermined area.
撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置の表示制御方法において、
前記画像を取得し、前記画像の輝度信号を生成し、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、
前記合成画像の表示を制御する
ステップを含む表示制御方法。
In a display control method of a display control device that controls display of the image of a display device that displays an image captured by an imaging device,
Acquiring the image, generating a luminance signal of the image,
Converting image data of a predetermined area of the display area of the image into the luminance signal, and generating a composite image of the image data and the luminance signal;
A display control method including a step of controlling display of the composite image.
撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置として、コンピュータを機能させるプログラムにおいて、
前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、
前記合成画像の表示を制御する表示制御手段
として、コンピュータを機能させるプログラム。
In a program that causes a computer to function as a display control device that controls display of the image of a display device that displays an image captured by an imaging device,
Luminance signal generation means for acquiring the image and generating a luminance signal of the image;
Composite image generation means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal;
A program that causes a computer to function as display control means for controlling display of the composite image.
請求項15に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 15 is recorded.
JP2008001854A 2008-01-09 2008-01-09 Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium Pending JP2009164985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008001854A JP2009164985A (en) 2008-01-09 2008-01-09 Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008001854A JP2009164985A (en) 2008-01-09 2008-01-09 Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2009164985A true JP2009164985A (en) 2009-07-23

Family

ID=40967043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008001854A Pending JP2009164985A (en) 2008-01-09 2008-01-09 Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2009164985A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177460A (en) * 2008-01-24 2009-08-06 Ikegami Tsushinki Co Ltd Viewfinder display circuit and method
JP2011135351A (en) * 2009-12-24 2011-07-07 Canon Inc Image capturing apparatus and control method therefor, and program
JP2012073466A (en) * 2010-09-29 2012-04-12 Canon Inc Imaging apparatus and control method thereof
US8619173B2 (en) 2009-04-08 2013-12-31 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128044A (en) * 1999-10-26 2001-05-11 Minolta Co Ltd Digital camera, reproduced picture display device and filing method of picture data
JP2005223780A (en) * 2004-02-09 2005-08-18 Hitachi Maxell Ltd Camera and focusing information display method
JP2006108973A (en) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd Image pickup device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128044A (en) * 1999-10-26 2001-05-11 Minolta Co Ltd Digital camera, reproduced picture display device and filing method of picture data
JP2005223780A (en) * 2004-02-09 2005-08-18 Hitachi Maxell Ltd Camera and focusing information display method
JP2006108973A (en) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd Image pickup device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177460A (en) * 2008-01-24 2009-08-06 Ikegami Tsushinki Co Ltd Viewfinder display circuit and method
US8619173B2 (en) 2009-04-08 2013-12-31 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
JP2011135351A (en) * 2009-12-24 2011-07-07 Canon Inc Image capturing apparatus and control method therefor, and program
JP2012073466A (en) * 2010-09-29 2012-04-12 Canon Inc Imaging apparatus and control method thereof

Similar Documents

Publication Publication Date Title
JP4535114B2 (en) Imaging apparatus and imaging method, display control apparatus and display control method, and program
KR102157675B1 (en) Image photographing apparatus and methods for photographing image thereof
JP4932660B2 (en) Image recording apparatus and image recording method
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
RU2446616C2 (en) Device of image processing, method of image processing
JP5112104B2 (en) Image processing apparatus and image processing program
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
KR20160128366A (en) Mobile terminal photographing method and mobile terminal
JPWO2009011082A1 (en) Image processing apparatus, image processing method, computer program, recording medium recording the computer program, inter-frame motion calculation method, and image processing method
CN107950017B (en) Image processing device, image processing method, and imaging device
JP2011049822A (en) Display controller and display control program
JP2009118051A (en) Signal processing apparatus and processing program
KR20140089672A (en) Digital photographing apparatus, method for controlling the same, and computer-readable recording medium
JP2009164985A (en) Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium
JP4369263B2 (en) Digital camera and image signal generation method
JP2013003339A (en) Image displaying system and method of controlling the same
JP7249212B2 (en) Image processing device and image processing method, imaging device and control method thereof, system, and program
JP2016076771A (en) Imaging device
JP2015033020A (en) Imaging apparatus, imaging method, program and recording medium
JP2012186538A (en) Electronic camera, image display device, program, and recording medium
CN105530426A (en) Image capturing apparatus, control method thereof, and storage medium
JP5094686B2 (en) Image processing apparatus, image processing method, and image processing program
JP5233611B2 (en) Image processing apparatus, image processing method, and program
JP7803906B2 (en) Image processing device, imaging device, image processing method, image processing program, and recording medium
JP2006211650A (en) Image sensing apparatus and image processing method for use therein

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306