JP2009164985A - Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium - Google Patents
Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium Download PDFInfo
- Publication number
- JP2009164985A JP2009164985A JP2008001854A JP2008001854A JP2009164985A JP 2009164985 A JP2009164985 A JP 2009164985A JP 2008001854 A JP2008001854 A JP 2008001854A JP 2008001854 A JP2008001854 A JP 2008001854A JP 2009164985 A JP2009164985 A JP 2009164985A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance signal
- unit
- display
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】色味を確認しつつ、フォーカス合わせを容易に行う。
【解決手段】撮像光学系21および撮像素子22は、画像を撮像し、輝度信号生成部41は、撮像された撮像画像の輝度信号Yを生成し、画像合成部43は、ビューファインダ部27に表示される撮像画像の表示領域のうち、ビデオデータにおける矩形領域の範囲を輝度信号Yに変換し、ビデオデータのうちの矩形領域の範囲が輝度信号Yに変換された合成画像を、ビューファインダ部27に表示する。本発明は、例えば、電子ビューファインダを備えるビデオカメラ装置に適用することができる。
【選択図】図2An object of the present invention is to easily perform focusing while checking the color.
An image pickup optical system and an image pickup device pick up an image, a luminance signal generation unit generates a luminance signal Y of the picked-up image, and an image composition unit includes a viewfinder unit. Of the display area of the captured image to be displayed, the range of the rectangular area in the video data is converted to the luminance signal Y, and the synthesized image in which the rectangular area of the video data is converted to the luminance signal Y 27. The present invention can be applied to, for example, a video camera apparatus including an electronic viewfinder.
[Selection] Figure 2
Description
本発明は、撮像装置および撮像方法、表示制御装置および表示制御方法、プログラム、並びに記録媒体に関し、特に、例えば、色味を確認しつつ、フォーカス合わせを容易に行うことができるようにする撮像装置および撮像方法、表示制御装置および表示制御方法、プログラム、並びに記録媒体に関する。 The present invention relates to an imaging device and an imaging method, a display control device and a display control method, a program, and a recording medium, and more particularly, for example, an imaging device that enables easy focusing while confirming color. The present invention relates to an imaging method, a display control device, a display control method, a program, and a recording medium.
主に業務用のビデオカメラ装置に搭載される電子ビューファインダは、CRT(Cathode Ray Tube)方式によるモノクロ表示のものが一般的であった。これは、人間の視覚特性は、色相の変化よりも明暗の変化に対する感度が高いため、ユーザにとって、モノクロ表示は、フォーカス合わせが容易であり、また、階調を確認しやすいことによるものである。 Electronic viewfinders that are mainly mounted on commercial video camera devices generally have monochrome display using the CRT (Cathode Ray Tube) method. This is because human visual characteristics are more sensitive to changes in light and dark than changes in hue, so that the monochrome display is easy for the user to focus and to confirm the gradation. .
しかしながら、上述したビデオカメラ装置においては、撮像画像の色情報を得ることができなかった。このようなビデオカメラ装置において、色味の確認を行う場合、カメラの外部に配置したカラー表示が可能なモニタ装置に、撮像画像のビデオデータを別途出力する必要がある。 However, in the video camera device described above, color information of the captured image cannot be obtained. In such a video camera device, when checking the color, it is necessary to separately output video data of a captured image to a monitor device that is arranged outside the camera and capable of color display.
一方、より安価なビデオカメラ装置においては、電子ビューファインダとして、カラー表示が可能な液晶表示装置を用いるものが一般的である。このようなビデオカメラ装置において、マニュアルフォーカス制御機能を持つ場合、電子ビューファインダの表示を、モノクロ表示とカラー表示とに切り替えることができる撮像装置がある(例えば、非特許文献1参照)。 On the other hand, cheaper video camera devices generally use a liquid crystal display device capable of color display as an electronic viewfinder. When such a video camera device has a manual focus control function, there is an imaging device that can switch the display of the electronic viewfinder between monochrome display and color display (for example, see Non-Patent Document 1).
これにより、ユーザは、電子ビューファインダの表示をカラー表示にすることで、色味を確認することができ、また、特にマニュアルフォーカス制御機能を用いる場合には、電子ビューファインダの表示をモノクロ表示にすることで、フォーカス合わせを容易に行うことができる。 Thus, the user can check the color by changing the display of the electronic viewfinder to color display, and in particular, when using the manual focus control function, the display of the electronic viewfinder is changed to monochrome display. By doing so, focusing can be performed easily.
しかしながら、非特許文献1の撮像装置では、電子ビューファインダに、カラー表示とモノクロ表示を同時に行うことはできず、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことはできない。また、動画撮像中に、カラー表示とモノクロ表示の切り替えを行うのは非現実的である。
However, in the imaging device of Non-Patent
本発明は、このような状況に鑑みてなされたものであり、色味を確認しつつ、フォーカス合わせを容易に行うことができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to easily perform focusing while checking the color.
本発明の第1の側面の撮像装置、またはプログラムは、撮像された画像を表示する撮像装置であって、前記画像を撮像する撮像手段と、前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、前記合成画像を表示する表示手段とを備える撮像装置、または撮像装置として、コンピュータを機能させるプログラムである。 An imaging apparatus or a program according to a first aspect of the present invention is an imaging apparatus that displays a captured image, the imaging unit that captures the image, and the luminance signal of the image captured by the imaging unit. A luminance signal generating means for generating, and a composite image generating means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal And a display unit for displaying the composite image, or a program that causes a computer to function as the imaging device.
前記撮像装置には、前記画像の表示領域のうちの前記所定の領域が前記表示手段に表示されるタイミングを示す信号を生成する信号生成手段をさらに設け、前記画像合成手段には、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成させることができる。 The imaging apparatus further includes signal generation means for generating a signal indicating the timing at which the predetermined area of the display area of the image is displayed on the display means, and the image synthesis means Accordingly, the image data for the predetermined region can be converted into the luminance signal to generate the composite image.
前記撮像装置には、前記撮像手段により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに設けることができる。 The imaging apparatus includes an extraction unit that extracts at least one high-frequency component in a horizontal direction or a vertical direction in the image captured by the imaging unit, and a horizontal direction or a vertical direction extracted by the extraction unit. A parameter representing the magnitude of the high-frequency component for each of one or a plurality of lines in the predetermined area of the image display area in at least one of the horizontal direction and the vertical direction based on at least one of the high-frequency components Based on the parameter and the calculation means for calculating, an indicator indicating the size of the parameter is generated, and the combined image and the indicator are combined in correspondence with at least one of the horizontal direction and the vertical direction. And an indicator compositing means.
前記インジケータ合成手段には、前記インジケータを折れ線グラフとして生成させることができる。 The indicator composition means can generate the indicator as a line graph.
前記抽出手段には、前記輝度信号生成手段により生成された前記輝度信号を用いて、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出させることができる。 The extraction means can extract at least one high-frequency component in the horizontal direction or the vertical direction using the luminance signal generated by the luminance signal generation means.
前記撮像装置には、前記所定の領域を設定する設定手段をさらに設けることができる。 The imaging apparatus can further include setting means for setting the predetermined area.
本発明の第1の側面の撮像方法は、撮像された画像を表示する撮像装置の撮像方法であって、前記画像を撮像し、前記撮像手段により撮像された前記画像の輝度信号を生成し、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、前記合成画像を表示するステップを含む。 An imaging method according to a first aspect of the present invention is an imaging method of an imaging device that displays a captured image, captures the image, generates a luminance signal of the image captured by the imaging unit, Converting image data of a predetermined area of the display area of the image into the luminance signal, generating a composite image of the image data and the luminance signal, and displaying the composite image.
本発明の第2の側面の表示制御装置、またはプログラムは、撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置であって、前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、前記合成画像の表示を制御する表示制御手段とを備える表示制御装置、または表示制御装置として、コンピュータを機能させるプログラムである。 A display control device or a program according to a second aspect of the present invention is a display control device that controls display of the image of a display device that displays an image captured by an imaging device, and acquires the image. Luminance signal generation means for generating a luminance signal of the image, image data for a predetermined area of the display area of the image is converted into the luminance signal, and a composite image of the image data and the luminance signal is obtained. A program that causes a computer to function as a display control device or a display control device that includes a composite image generation unit that generates and a display control unit that controls display of the composite image.
前記表示制御装置には、前記画像の表示領域のうちの前記所定の領域が前記表示装置に表示されるタイミングを示す信号を生成する信号生成手段をさらに設け、前記画像合成手段には、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成させることができる。 The display control device further includes signal generation means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display apparatus, and the image composition means includes the signal Accordingly, the image data for the predetermined area can be converted into the luminance signal to generate the composite image.
前記表示制御装置には、前記撮像装置により撮像された前記画像における、水平方向または垂直方向の少なくともいずれか一方の高周波成分を抽出する抽出手段と、前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに設けることができる。 The display control device includes an extraction unit that extracts at least one high-frequency component in a horizontal direction or a vertical direction in the image captured by the imaging device, and a horizontal direction or a vertical direction extracted by the extraction unit. A parameter that represents the magnitude of the high-frequency component for each of one or more lines in the predetermined area of the image display area in at least one of the horizontal direction and the vertical direction based on at least one high-frequency component in the direction Based on the parameter, and generating an indicator indicating the magnitude of the parameter, and corresponding the position of at least one of the horizontal direction and the vertical direction, the composite image and the indicator Indicator combining means for combining may be further provided.
前記表示制御装置には、前記所定の領域を設定する設定手段をさらに設けることができる。 The display control device may further include setting means for setting the predetermined area.
本発明の第2の側面の表示制御方法は、撮像装置によって撮像された画像を表示する表示装置の、前記画像の表示を制御する表示制御装置の表示制御方法であって、前記画像を取得し、前記画像の輝度信号を生成し、前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、前記合成画像の表示を制御するステップを含む。 A display control method according to a second aspect of the present invention is a display control method of a display control device that controls display of the image of a display device that displays an image captured by an imaging device, and acquires the image. Generating a luminance signal of the image, converting image data for a predetermined area of the display area of the image into the luminance signal, generating a composite image of the image data and the luminance signal, Controlling the display of the composite image.
本発明の第1の側面においては、画像が撮像され、撮像手段により撮像された画像の輝度信号が生成され、画像の表示領域のうちの所定の領域についての画像データが輝度信号に変換されて、画像データと輝度信号との合成画像が生成され、合成画像が表示される。 In the first aspect of the present invention, an image is picked up, a luminance signal of the image picked up by the image pickup means is generated, and image data for a predetermined region of the display region of the image is converted into a luminance signal. Then, a composite image of the image data and the luminance signal is generated, and the composite image is displayed.
本発明の第2の側面においては、画像が取得され、画像の輝度信号が生成され、画像の表示領域のうちの所定の領域についての画像データが輝度信号に変換されて、画像データと輝度信号との合成画像が生成され、合成画像の表示が制御される。 In the second aspect of the present invention, an image is acquired, a luminance signal of the image is generated, image data for a predetermined area of the display area of the image is converted into a luminance signal, and the image data and the luminance signal are converted. A composite image is generated and display of the composite image is controlled.
なお、プログラムは、記録媒体に記録することができる。 The program can be recorded on a recording medium.
本発明の第1の側面によれば、画像を撮像することができ、特に、色味を確認しつつ、フォーカス合わせを容易に行うことができる。 According to the first aspect of the present invention, an image can be taken, and in particular, focusing can be easily performed while checking the color.
また、本発明の第2の側面によれば、撮像装置によって撮像された画像を表示することができ、特に、色味を確認しつつ、フォーカス合わせを容易に行うことができる。 According to the second aspect of the present invention, it is possible to display an image picked up by the image pickup apparatus, and in particular, it is possible to easily perform focusing while checking the color.
以下、図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明を適用した撮像装置の一実施の形態の構成例を示すブロック図である。 FIG. 1 is a block diagram showing a configuration example of an embodiment of an imaging apparatus to which the present invention is applied.
図1において、撮像装置11は、撮像光学系21、撮像素子22、カメラ信号処理部23、コーディック部24、記録部25、ファインダ表示画像変換部26、ビューファインダ部27、および操作入力部28から構成される。
In FIG. 1, the
撮像光学系21は、レンズ、メカニカルシャッタなどで構成される。
The imaging
撮像素子22は、撮像光学系21を介して入射される光を受光する。撮像素子22は、図示しないAD(Analog/Digital)変換器を介してデジタル変換された撮像データをカメラ信号処理部23に供給する。
The
ここで、AD変換器は、特に、撮像素子22がCMOS(Complementary Metal Oxide Semiconductor)型固体撮像素子である場合などにおいては、撮像素子22内に実装されていてもよいし、また、撮像素子22がCMOS型固体撮像素子以外の固体撮像素子であるとき等においては、撮像素子22の外部に配置されているものであってもよい。
Here, the AD converter may be mounted in the
また、図1において、撮像装置11の撮像素子22は、受光面に、画素ごとに異なる波長域を透過するカラーフィルタを持つ単板カラー方式の固体撮像素子であるものとして図示されているが、撮像装置11の撮像システムは、プリズム光学系などを介して波長分離された光を3つの異なる撮像素子により受光する3板式の構成であってもよいことは言うまでもない。
Further, in FIG. 1, the
なお、撮像素子22からカメラ信号処理部23に供給される撮像データは、所謂RAWデータである。
Note that the imaging data supplied from the
カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正処理、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータをコーディック部24およびファインダ表示画像変換部26に供給する。
The camera
コーディック部24は、カメラ信号処理部23から供給されたビデオデータを、MPEG(Moving Picture Experts Group)2,H.264、または、JPEG(Joint Photographic Experts Group)2000等のビデオ信号符号化処理により圧縮し、符号化ストリームを生成して、記録部25に供給する。
The
記録部25は、例えば、光ディスク、ハードディスク、または、半導体メモリなどの記録媒体により構成され、コーディック部24から供給された符号化ストリームを記録するか、または、リムーバブルな記録媒体(光ディスク、光磁気ディスク、または、半導体メモリなど)を装着可能なドライブにより構成され、装着されたリムーバブルな記録媒体に、コーディック部24から供給された符号化ストリームを記録する。
The
ファインダ表示画像変換部26は、カメラ信号処理部23から供給されるビデオデータから輝度信号を生成し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する、輝度信号変換処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された、ビデオデータと輝度信号との合成画像をビューファインダ部27に供給し、その表示を制御する。
The viewfinder display
なお、カメラ信号処理部23からファインダ表示画像変換部26に供給されるビデオデータは、ユーザの確認用の撮像画像としてビューファインダ部27に表示される。
The video data supplied from the camera
ファインダ表示画像変換部26の詳細については、図2を参照して後述する。
Details of the finder display
ビューファインダ部27は、ファインダ表示画像変換部26から供給された合成画像を、任意の矩形領域がモノクロ表示された撮像画像としてユーザに呈示する。
The
操作入力部28は、例えば、各種の操作ボタンやダイヤル等から構成され、撮像装置11に対する指示を入力するためにユーザに操作され、その操作内容を示す情報を撮像装置11の各ブロックに供給する。
The
なお、図1においては、コーディック部24および記録部25を撮像装置11の構成要素として示しているが、撮像装置11は、これらの処理部を持たず、カメラ信号処理部23から出力(供給)されるビデオデータを、そのまま外部の装置やネットワークなどに出力する構成であっても構わない。
In FIG. 1, the
また、図1においては、コーディック部24に供給されるビデオデータとファインダ表示画像変換部26に供給されるビデオデータを同一のものとしているが、ファインダ表示画像変換部26へは、ビューファインダ部27の解像度に合わせて解像度変換したビデオデータを供給する形態としてもよい。
In FIG. 1, the video data supplied to the
さらに、図1においては、ビューファインダ部27を撮像装置11の構成要素として示しているが、撮像装置11は、ビューファインダ部27を持たず、接続されている外部の表示装置に合成画像を供給して、表示させることができるような形態としてもよい。
Further, in FIG. 1, the
また、撮像装置11は、撮像光学系21、撮像素子22、カメラ信号処理部23、コーディック部24、記録部25、および操作入力部28で構成され、ファインダ表示画像変換部26およびビューファインダ部27は、別装置として構成されてもよい。
The
このとき、ファインダ表示画像変換部26は、コーディック部24に供給されるビデオデータと同一の、または、解像度変換されたビデオデータに対し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された合成画像をビューファインダ部27に供給し、その表示を制御する。
At this time, the finder display
さらに、ファインダ表示画像変換部26およびビューファインダ部27は、それぞれ別装置として構成されてもよい。
Furthermore, the finder display
このとき、ファインダ表示画像変換部26に対応する表示制御装置は、コーディック部24に供給されるビデオデータと同一の、または、解像度変換されたビデオデータに対し、ユーザが合焦具合を把握しやすくするために、撮像画像の表示領域についてのビデオデータのうち、任意の矩形領域の範囲を輝度信号に変換する処理を行うとともに、ビデオデータのうちの任意の矩形領域の範囲が輝度信号に変換されたことにより生成された合成画像を、図示しない外部の表示装置(ビューファインダ部27に対応する表示装置)に供給し、その表示を制御する。
At this time, the display control device corresponding to the finder display
図2は、図1のファインダ表示画像変換部26の構成を示すブロック図である。ファインダ表示画像変換部26は、輝度信号生成部41、切替パルス生成部42、および画像合成部43で構成される。
FIG. 2 is a block diagram showing a configuration of the finder display
カメラ信号処理部23からファインダ表示画像変換部26に供給されるビデオデータ(以下、入力ビデオデータともいう)は、輝度信号生成部41に供給されるとともに、画像合成部43に供給される。
Video data (hereinafter also referred to as input video data) supplied from the camera
輝度信号生成部41は、カメラ信号処理部23からの入力ビデオデータに対して、式(1)に示すような変換処理を施し、輝度信号Yを生成して、画像合成部43に供給する。
The luminance
Y=0.257R+0.504G+0.098B ・・・(1) Y = 0.257R + 0.504G + 0.098B (1)
なお、式(1)において、Rは、入力ビデオデータのR信号であり、Gは、入力ビデオデータのG信号であり、Bは、入力ビデオデータのB信号である。 In Expression (1), R is an R signal of input video data, G is a G signal of input video data, and B is a B signal of input video data.
ここで、輝度信号Yへの変換処理は、式(1)に限ったものではなく、例えば、単純にR信号、G信号、およびB信号を加算する処理でも構わない。 Here, the conversion process to the luminance signal Y is not limited to the expression (1), and for example, a process of simply adding the R signal, the G signal, and the B signal may be used.
切替パルス生成部42は、ビューファインダ部27に表示される撮像画像における、予め定められているか、または、操作入力部28を用いてユーザが指定することにより決められる矩形領域を表す情報を記憶する矩形領域メモリ部42aを有し、その矩形領域メモリ部42aに記憶されている情報に基づいて、ビューファインダ部27に表示されるタイミングを示すパルス信号MEを生成し、画像合成部43に供給する。
The switching
より具体的には、矩形領域メモリ部42aは、操作入力部28が操作されることにより入力された、矩形領域を表す画素の画素位置を記憶している。切替パルス生成部42は、矩形領域メモリ部42aに記憶されている矩形領域の画素位置に基づいて、ビューファインダ部27に表示される撮像画像の走査において、矩形領域の画素が走査される期間、パルス信号MEを有効にする(生成する)。また、切替パルス生成部42は、矩形領域以外の領域の画素が走査される期間、パルス信号MEを無効にする(生成しない)。
More specifically, the rectangular
切替パルス生成部42が生成するパルス信号MEの詳細については、図3を参照して後述する。
Details of the pulse signal ME generated by the switching
画像合成部43は、切替パルス生成部42から供給されるパルス信号MEに基づいて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域の範囲を、輝度信号生成部41からの輝度信号Yに変換することにより、ビデオデータと輝度信号との合成画像を生成し、ビューファインダ部27に供給するとともに、その表示を制御する。
Based on the pulse signal ME supplied from the switching
画像合成部43は、矩形領域判定部43aおよびバッファ部43bを含むように構成される。
The
矩形領域判定部43aは、切替パルス生成部42から供給されるパルス信号MEに応じて、撮像画像の走査において注目する画素である注目画素の画素位置が矩形領域内であるか否かを判定し、その判定結果に応じて、注目画素についてのビデオデータを輝度信号Yに変換する。
The rectangular
より具体的には、矩形領域判定部43aは、切替パルス生成部42からのパルス信号MEが有効である場合には、注目画素の画素位置が矩形領域内であると判定し、注目画素についてのビデオデータを、輝度信号生成部41からの輝度信号Yに変換して、バッファ部43bに供給する。
More specifically, when the pulse signal ME from the switching
また、矩形領域判定部43aは、切替パルス生成部42からのパルス信号MEが無効である場合には、注目画素の画素位置が矩形領域内でないと判定し、注目画素についてのビデオデータを、そのままバッファ部43bに供給する。
In addition, when the pulse signal ME from the switching
バッファ部43bは、矩形領域判定部43aからの、撮像画像における各画素についての輝度信号Yまたはビデオデータを一時的に記憶する。そして、矩形領域判定部43aにおける判定処理が、撮像画像における全ての画素について終わったとき、画像合成部43は、バッファ部43bに記憶されている全ての画素の情報を、輝度信号Yとビデオデータとの合成画像として、ビューファインダ部27に供給する。
The
このようにして、画像合成部43からビューファインダ部27に供給される合成画像が、パルス信号MEに応じて、ビューファインダ部27の画面内の一部の矩形領域が輝度信号Yに変換された撮像画像として表示される。
In this way, in the synthesized image supplied from the
なお、画像合成部43は、バッファ部43bを有しない構成であってもよい。この場合、画像合成部43は、矩形領域判定部43aからの輝度信号Yまたはビデオデータを、そのままビューファインダ部27に供給する。
The
図3は、切替パルス生成部42が生成するパルス信号MEのタイミングを表すタイムチャートである。
FIG. 3 is a time chart showing the timing of the pulse signal ME generated by the switching
ここで、ビューファインダ部27に表示される撮像画像は、画素単位で左から右、そして上から下に向かって1ライン(水平ライン)ごとに走査される、いわゆるプログレッシブ方式の画像であるとする。
Here, it is assumed that the captured image displayed on the
図3において、一番上に示す波形は、図示しない制御部から切替パルス生成部42に供給される、入力ビデオデータと同期した垂直同期信号VDであり、上から2番目および5番目に示す波形は、図示しない制御部から切替パルス生成部42に供給される、入力ビデオデータと同期した水平同期信号HDである。
In FIG. 3, the waveform shown at the top is the vertical synchronization signal VD synchronized with the input video data supplied from the control unit (not shown) to the switching
また、図3において、上から3番目および6番目に示す波形は、実際にビューファインダ部27に表示される有効画素領域を表すデータイネーブル信号DEであり、上から4番目および1番下に示す波形は、切替パルス生成部42において生成されるパルス信号MEである。
In FIG. 3, the third and sixth waveforms from the top are data enable signals DE representing the effective pixel region actually displayed on the
なお、図3において、上から5番目に示す水平同期信号HDは、上から2番目に示す水平同期信号HDの1パルス分を表し、上から6番目に示すデータイネーブル信号DEは、上から3番目に示すデータイネーブル信号DEの1パルス分を表し、さらに、1番下に示すパルス信号MEは、上から4番目に示すパルス信号MEの1パルス分を表している。 In FIG. 3, the horizontal synchronization signal HD shown fifth from the top represents one pulse of the horizontal synchronization signal HD shown second from the top, and the data enable signal DE shown sixth from the top is 3 from the top. This represents one pulse of the data enable signal DE shown in the second, and the pulse signal ME shown at the bottom represents one pulse of the pulse signal ME shown fourth from the top.
図2の切替パルス生成部42に、垂直同期信号VD、水平同期信号HD、およびデータイネーブル信号DEが供給されると、切替パルス生成部42は、これらの信号のタイミングと、矩形領域メモリ部42aに記憶されている矩形領域の画素位置とから、ビューファインダ部27に表示される撮像画像の走査において、矩形領域の画素が走査される期間、パルス信号MEを有効にし、また、矩形領域以外の領域の画素が走査される期間、パルス信号MEを無効にする。
When the vertical synchronizing signal VD, the horizontal synchronizing signal HD, and the data enable signal DE are supplied to the switching
すなわち、切替パルス生成部42は、垂直方向の画素の走査に対して、垂直同期信号VD(図3の1番上の波形)がHIGHレベルであり、かつ、データイネーブル信号DE(図3の上から3番目の波形)がHIGHレベルである期間のうちの、垂直方向に矩形領域の画素が走査される期間、パルス信号MEをHIGHレベルとする。
That is, the switching
図3の例においては、切替パルス生成部42は、データイネーブル信号DE(図3の上から3番目の波形)がHIGHレベルになってから、期間sy(LOWレベル)が経過したあと、期間monovの間、パルス信号MEをHIGHレベルとする。
In the example of FIG. 3, the switching
そして、矩形領域判定部43aは、垂直方向の画素の走査において、期間syを含む、パルス信号MEが無効(LOWレベル)である期間においては、カメラ信号処理部23から供給されるビデオデータに対して何もせず、パルス信号MEが有効(HIGHレベル)である、期間monovにおいては、カメラ信号処理部23から供給されるビデオデータを輝度信号生成部41から供給される輝度信号Yに変換する。
Then, the rectangular
また、切替パルス生成部42は、水平方向の画素の走査に対して、水平同期信号HD(図3の5番上の波形)がHIGHレベルであり、かつ、データイネーブル信号DE(図3の上から6番目の波形)がHIGHレベルである期間のうちの、水平方向に矩形領域の画素が走査される期間、パルス信号MEをHIGHレベルとする。
In addition, the switching
図3の例においては、切替パルス生成部42は、データイネーブル信号DE(図6の上から3番目の波形)がHIGHレベルになってから、期間sx(LOWレベル)が経過したあと、期間monohの間、パルス信号MEをHIGHレベルとする。
In the example of FIG. 3, the switching
そして、矩形領域判定部43aは、水平方向の画素の走査において、期間sxを含む、パルス信号MEが無効(LOWレベル)である期間においては、カメラ信号処理部23から供給されるビデオデータに対して何もせず、パルス信号MEが有効(HIGHレベル)である、期間monohにおいては、カメラ信号処理部23から供給されるビデオデータを輝度信号生成部41から供給される輝度信号Yに変換する。
Then, the rectangular
図4は、ビューファインダ部27に表示される撮像画像の例を示している。
FIG. 4 shows an example of a captured image displayed on the
図4に示すように、ビューファインダ部27には、矩形領域メモリ部42aの矩形領域の画素位置で決定される矩形領域Aが輝度信号Yに変換された撮像画像が表示される。この矩形領域Aは、ユーザがフォーカスを合わせたい被写体が写っている領域であり、以下、フォーカシングエリアともいう。
As shown in FIG. 4, the
図4において、例えば、ビューファインダ部27に表示される有効画素領域の左上端の画素位置を原点(0,0)とし、水平右方向をx方向、垂直下方向をy方向とすると、フォーカシングエリアは、原点(0,0)から、期間sxに走査されるx方向の画素位置、および、期間syに走査されるy方向の画素位置で決定される画素位置(sx,sy)を左上端とし、水平右方向(x方向)に、期間monohに走査される長さ、および、垂直下方向(y方向)に、期間monovに走査される長さを2辺とした矩形領域Aとなる。
In FIG. 4, for example, if the pixel position at the upper left corner of the effective pixel area displayed on the
フォーカシングエリアは、任意の位置に設定することが可能であり、操作入力部28を用いて、矩形領域メモリ部42aに記憶されている、矩形領域を表す画素の画素位置を変更することにより、ユーザが動的に位置とサイズの変更を行うようにしても構わない。
The focusing area can be set at an arbitrary position, and the user can change the pixel position of the pixel representing the rectangular area stored in the rectangular
また、本実施例では、フォーカシングエリアを矩形の領域としたが、切替パルス生成部42が、任意形状の領域に対して有効(HIGHレベル)となるパルス信号MEを生成するようにして、円形や六角形等の領域にしても構わない。
In this embodiment, the focusing area is a rectangular area. However, the switching
さらに、本実施例では、フォーカシングエリアを1つとしたが、切替パルス生成部42が、複数の領域に対して有効(HIGHレベル)となるパルス信号MEを生成するようにして、複数のフォーカシングエリアを表示するようにしても構わない。
Furthermore, in this embodiment, the number of focusing areas is one. However, the switching
次に、図5のフローチャートを参照して、撮像装置11が実行する撮像処理について説明する。なお、ステップS12乃至ステップS18の各処理は、撮像された動画像のあるフレームの処理としては、ステップS14およびステップS15の処理とステップS16およびステップS17の処理とが並行して実行可能であるが、基本的には、記載されたステップの通りに順次実行されるものである。しかしながら、これらは、順次撮像される複数フレームにより構成される動画像全体に対して実行される処理であるので、撮像装置11内においては、それぞれ、並行して実行される。
Next, imaging processing executed by the
ステップS11において、撮像光学系21および撮像素子22は、操作入力部28によるユーザからの操作入力に基づいて、撮像を開始する。すなわち、撮像素子22は、撮像光学系21を介して入射される光を受光し、AD変換器によりデジタル変換された撮像データとしてのRAWデータを、カメラ信号処理部23に供給して、処理は、ステップS12に進む。
In step S <b> 11, the imaging
ステップS12において、カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータを、コーディック部24およびファインダ表示画像変換部26に供給して、処理は、ステップS13に進む。
In step S <b> 12, the camera
ステップS13において、操作入力部28は、ユーザからの操作入力に基づいて、記録の開始が指令されたか否かを判断する。
In step S13, the
ステップS13において、記録の開始が指令されていないと判断された場合、処理は、ステップS16に進む。 If it is determined in step S13 that the start of recording is not instructed, the process proceeds to step S16.
一方、ステップS13において、記録の開始が指令されたと判断された場合、処理は、ステップS14に進む。 On the other hand, if it is determined in step S13 that the start of recording has been commanded, the process proceeds to step S14.
ステップS14において、コーディック部24は、カメラ信号処理部23から供給されたビデオデータを、MPEG2,H.264、または、JPEG2000等のビデオ信号符号化処理により圧縮し、符号化ストリームを生成して、記録部25に供給する。その後、処理は、ステップS15に進む
In step S14, the
ステップS15において、記録部25は、コーディック部24から供給された符号化ストリームを記録し、処理は、ステップS16に進む。
In step S15, the
ステップS16において、ファインダ表示画像変換部26は、図6を用いて説明する輝度信号変換処理を実行し、輝度信号変換処理の結果得られた合成画像をビューファインダ部27に供給して、処理は、ステップS17に進む。
In step S <b> 16, the finder display
ステップS17において、ビューファインダ部27は、例えば、図4を用いて説明したような、ユーザが合焦具合を把握しやすくするために、ビデオデータにおける任意の矩形領域Aの範囲が輝度信号Yに変換された撮像画像を表示し、処理は、ステップS18に進む。
In step S <b> 17, the
ステップS18において、操作入力部28は、ユーザからの操作入力に基づいて、撮像の終了が指令されたか否かを判断する。
In step S <b> 18, the
ステップS18において、撮像の終了が指令されていないと判断された場合、処理は、ステップS12に戻り、それ以降の処理が繰り返される。 If it is determined in step S18 that the end of imaging has not been commanded, the process returns to step S12, and the subsequent processes are repeated.
一方、ステップS18において、撮像の終了が指令されたと判断された場合、処理は終了する。 On the other hand, if it is determined in step S18 that the end of imaging has been commanded, the process ends.
このような処理により、ビューファインダ部27において、フォーカスを合わせたい被写体が表示されている矩形領域Aが輝度信号Yで表示(モノクロ表示)され、それ以外の領域がカラー表示されるので、特に、フォーカスを合わせたい被写体については、人間の視覚特性に従って明暗の差が認識しやすくなり、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことができる。
By such processing, the rectangular area A in which the subject to be focused is displayed is displayed with the luminance signal Y (monochrome display) in the
次に、図6のフローチャートを参照して、図5のステップS16において実行される処理の例である、輝度信号変換処理について説明する。輝度信号変換処理は、ファインダ表示画像変換部26により実行される。
Next, the luminance signal conversion process, which is an example of the process executed in step S16 of FIG. 5, will be described with reference to the flowchart of FIG. The luminance signal conversion process is executed by the finder display
ステップS21において、輝度信号生成部41は、カメラ信号処理部23からのビデオデータに対して、例えば、上述した式(1)に示すような変換処理を施し、輝度信号を生成して、処理は、ステップS22に進む。
In step S <b> 21, the luminance
ステップS22において、矩形領域判定部43aは、ビューファインダ部27に表示される撮像画像の走査における注目画素の画素位置(x,y)を、図4で説明した原点(0,0)とし、処理は、ステップS23に進む。
In step S22, the rectangular
ステップS23において、切替パルス生成部42は、垂直同期信号VD、水平同期信号HD、およびデータイネーブル信号DEのタイミングと、矩形領域メモリ部42aに記憶されている矩形領域の画素位置とから、パルス信号MEの生成を開始し、処理は、ステップS24に進む。
In step S23, the switching
ステップS24において、矩形領域判定部43aは、切替パルス生成部42から供給されるパルス信号MEに基づいて、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内であるか否かを判定する。
In step S24, the rectangular
ステップS24において、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内であると判定された場合、すなわち、切替パルス生成部42からのパルス信号MEが有効である場合、矩形領域判定部43aは、その注目画素についてのビデオデータを、輝度信号生成部41からの輝度信号Yに変換し、バッファ部43bに供給して、処理は、ステップS26に進む。
If it is determined in step S24 that the pixel position (x, y) of the pixel of interest in scanning of the captured image is within the rectangular area, that is, if the pulse signal ME from the switching
一方、ステップS24において、撮像画像の走査における注目画素の画素位置(x,y)が矩形領域内でないと判定された場合、すなわち、切替パルス生成部42からのパルス信号MEが無効である場合、矩形領域判定部43aは、その注目画素についてのビデオデータを、そのままバッファ部43bに供給して、処理は、ステップS26に進む。
On the other hand, when it is determined in step S24 that the pixel position (x, y) of the pixel of interest in the scanning of the captured image is not within the rectangular region, that is, when the pulse signal ME from the switching
ステップS26において、矩形領域判定部43aは、有効画素領域におけるx方向の全ての画素(すなわち1水平ライン)について、注目画素の画素位置(x,y)が矩形領域内であるかの判定処理が終わったか否かを判定する。
In step S <b> 26, the rectangular
ステップS26において、x方向の全ての画素についての処理が終わっていないと判定された場合、処理は、ステップS27に進む。 If it is determined in step S26 that the process has not been completed for all pixels in the x direction, the process proceeds to step S27.
ステップS27において、矩形領域判定部43aは、xを1インクリメントし、処理はステップS24に戻り、これ以降の処理が繰り返される。すなわち、注目画素の画素位置(x,y)がx方向に1つ移動し、その注目画素についての処理が繰り返される。
In step S27, the rectangular
一方、ステップS26において、x方向の全ての画素についての処理が終わったと判定された場合、すなわち、ステップS24乃至ステップS27の処理が繰り返されて、水平方向の1ライン分の画素についての処理が終了したと判定された場合、ステップS28において、矩形領域判定部43aは、xを0とし、処理は、ステップS29に進む。
On the other hand, when it is determined in step S26 that the processing for all the pixels in the x direction has been completed, that is, the processing in steps S24 to S27 is repeated, and the processing for the pixels for one line in the horizontal direction is completed. When it is determined that the rectangular area has been determined, the rectangular
ステップS29において、矩形領域判定部43aは、有効画素領域におけるy方向の全ての画素(すなわち全ての水平ライン)について、注目画素の画素位置(x,y)が矩形領域内であるかの判定処理が終わったか否かを判定する。
In step S29, the rectangular
ステップS29において、y方向の全ての画素についての処理が終わっていないと判定された場合、処理は、ステップS30に進む。 If it is determined in step S29 that the process has not been completed for all pixels in the y direction, the process proceeds to step S30.
ステップS30において、矩形領域判定部43aは、yを1インクリメントし、処理はステップS24に戻り、これ以降の処理が繰り返される。すなわち、注目画素の画素位置(x,y)が、y方向に1つ移動した水平ラインの一番左側の画素位置となり、その水平ラインの画素についての処理が繰り返される。
In step S30, the rectangular
一方、ステップS29において、y方向の全ての画素についての処理が終わったと判定された場合、すなわち、ステップS24乃至ステップS30の処理が繰り返されて、全ての画素について、矩形領域内であるか否かの判定がなされたと判定された場合、画像合成部43は、バッファ部43bに記憶されている、撮像画像(有効画素領域)における全ての画素からなる画像を、輝度信号Yとビデオデータとの合成画像として、ビューファインダ部27に供給して、処理は、図5のステップS16に戻り、ステップS17に進む。
On the other hand, when it is determined in step S29 that the processing for all the pixels in the y direction has been completed, that is, the processing in steps S24 to S30 is repeated to determine whether or not all the pixels are in the rectangular area. When it is determined that the determination is made, the
このような処理により、カメラ信号処理部23から供給されるビデオデータのうち、フォーカスを合わせたい被写体が表示されている矩形領域Aの範囲を輝度信号Yに変換することができる。
Through such processing, the range of the rectangular area A in which the subject to be focused is displayed in the video data supplied from the camera
ところで、業務用のビデオカメラ装置においては、マニュアルフォーカス制御時に、ユーザがフォーカス合わせを容易にするために、ビデオカメラ装置に搭載された電子ビューファインダ上に、さまざまな補助情報を表示するようにもなされている。 By the way, in a professional video camera device, during manual focus control, various auxiliary information may be displayed on an electronic viewfinder mounted on the video camera device so that the user can easily focus. Has been made.
例えば、従来、撮像画像の輪郭に相当する空間的な高周波成分を撮像画像から抽出し、輪郭成分を増大させた上で撮像画像と混合してビューファインダに表示することにより、合焦時に輪郭部を強調するピーキング回路が用いられている(例えば、特開2000−350224号公報参照)。 For example, conventionally, a spatial high-frequency component corresponding to the contour of a captured image is extracted from the captured image, and the contour component is increased and then mixed with the captured image and displayed on the viewfinder. Is used (for example, see Japanese Patent Laid-Open No. 2000-350224).
また、撮像画像の中央部の特定の領域に対して、高域フィルタを施した結果を積分し、その結果として得られる1次元のパラメータをビューファインダ上に表示することにより、合焦具合を表すことができる技術がある(例えば、特開平3−11884号公報または特開平3−179976号公報参照)。 In addition, the result of applying the high-pass filter to a specific area in the center of the captured image is integrated, and the resulting one-dimensional parameter is displayed on the viewfinder to express the degree of focusing. There is a technique that can be used (see, for example, JP-A-3-11884 or JP-A-3-179976).
上述した特開2000−350224号公報に記載の、従来のピーキング回路を用いた場合に表示される画像は、画像中の被写体の輪郭が強調されたものであるため、実際にフォーカスを合わせるべき被写体を特定してフォーカス合わせを行い易いという特徴があった。 Since the image displayed when using the conventional peaking circuit described in Japanese Patent Laid-Open No. 2000-350224 described above is an image in which the contour of the subject in the image is emphasized, the subject to be actually focused There is a feature that it is easy to carry out focusing by specifying.
しかしながら、広角レンズなどを使用した場合には、被写界深度が深くなるうえに画面上の被写体像が小さくなってしまうために、上述した特開2000−350224号公報に記載の技術では、最適なフォーカス位置を得るのが難しくなる。 However, when a wide-angle lens or the like is used, the depth of field becomes deep and the subject image on the screen becomes small. Therefore, the technique described in Japanese Patent Laid-Open No. 2000-350224 described above is optimal. It is difficult to obtain a correct focus position.
また、上述した特開2000−350224号公報に記載の技術では、被写体像の輪郭部を強調して表示しているだけであるため、ユーザは、この表示から、現状のフォーカス距離が最適値であるか否かを判断することはできなかった。 Further, in the technique described in Japanese Patent Laid-Open No. 2000-350224 described above, only the contour portion of the subject image is displayed in an emphasized manner. It was not possible to judge whether there was.
一方、特開平3−11884号公報または特開平3−179976号公報に記載の補助情報の表示方法では、画像中の高周波成分の大きさを表すパラメータを、例えば、バー状のインジケータとしてビューファインダ上にオーバーレイするため、レンズのフォーカス位置を動かした場合に、合焦具合がどの程度増減するかを把握しやすいという特徴がある。 On the other hand, in the auxiliary information display method described in Japanese Patent Application Laid-Open No. 3-11884 or Japanese Patent Application Laid-Open No. 3-179976, a parameter indicating the size of a high-frequency component in an image is displayed on the viewfinder as a bar-shaped indicator, for example. Therefore, when the focus position of the lens is moved, it is easy to grasp how much the focusing condition increases or decreases.
しかしながら、特開平3−11884号公報または特開平3−179976号公報に記載の技術では、画面の特定領域の高周波成分を全て積分した結果としてパラメータを設定しているため、領域内のどの被写体に合焦しているかをユーザが正確に把握し、また、ユーザがフォーカスを合わせようとしている所望の被写体が撮像されている領域に対して、高域フィルタを施し、パラメータを算出することは難しかった。 However, in the technique described in Japanese Patent Laid-Open No. 3-11884 or Japanese Patent Laid-Open No. 3-179976, the parameter is set as a result of integrating all high-frequency components in a specific area of the screen. It is difficult for the user to accurately grasp whether the subject is in focus, and to calculate a parameter by applying a high-pass filter to the region where the desired subject that the user is trying to focus on is captured. .
そこで、撮像装置11では、ユーザが、撮像画像中において合焦している被写体を容易に把握し、また、所定の被写体に対する合焦具合のピークを容易に把握することができるようになっている。
Therefore, in the
図7は、撮像装置11の他の機能構成例を示すブロック図である。なお、図7においては、図1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図7の撮像装置11は、ファインダ表示画像変換部26に代わってフォーカスアシスト処理部51を備えている以外は、基本的に、図1の撮像装置11と同様の構成を有するものである。
FIG. 7 is a block diagram illustrating another functional configuration example of the
カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正処理、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、処理の結果得られたビデオデータをコーディック部24およびフォーカスアシスト処理部51に供給する。
The camera
フォーカスアシスト処理部51は、カメラ信号処理部23から供給されるビデオデータに対し、ユーザが合焦具合を把握しやすくするための補助情報であるフォーカスインジケータの合成を行うとともに、フォーカスインジケータが合成されたビデオデータをビューファインダ部27に供給し、その表示を制御する。
The focus assist processing
フォーカスアシスト処理部51の詳細については、図8、図16および図18を参照して後述する。
Details of the focus assist processing
ビューファインダ部27は、フォーカスアシスト処理部51から供給されたビデオデータに基づいて、フォーカスインジケータが付加された撮像画像を表示する。つまり、ビューファインダ部27は、ユーザに、撮像画像とともに、フォーカス合わせをするための補助情報を呈示する。
The
図8は、図7のフォーカスアシスト処理部51の第1の実施例であるフォーカスアシスト処理部51−1の構成を示すブロック図である。フォーカスアシスト処理部51−1は、輝度信号生成部71、水平微分フィルタ処理部72、加算部73、およびインジケータ合成部74で構成される。
FIG. 8 is a block diagram showing a configuration of a focus assist processing unit 51-1 which is a first embodiment of the focus assist processing
カメラ信号処理部23からフォーカスアシスト処理部51−1に供給される入力ビデオデータは、輝度信号生成部71に供給されるとともに、インジケータ合成部74に供給される。
The input video data supplied from the camera
輝度信号生成部71は、図2のファインダ表示画像変換部26における輝度信号生成部41と同様に、カメラ信号処理部23からの入力ビデオデータに対して、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、水平微分フィルタ処理部72に供給する。
Similar to the luminance
水平微分フィルタ処理部72は、輝度信号生成部71から供給された輝度信号Yから、水平方向の高周波成分を抽出して、加算部73に供給する。
The horizontal differential
具体的には、水平微分フィルタ処理部72は、例えば、輝度信号生成部71からの輝度信号Yに対して、図9に示すような係数を持つ水平微分フィルタを施し、得られた微分データを加算部73に供給する。
Specifically, the horizontal differential
図9に示される微分フィルタは、画像に対して水平空間方向の微分処理を行うため、水平微分フィルタ処理部72は、垂直方向にエッジが存在する場合に大きい値を出力する。
Since the differential filter shown in FIG. 9 performs differential processing in the horizontal space direction on the image, the horizontal differential
また、水平微分フィルタ処理部72は、水平方向1ラインごとの処理ではなく、数ラインをまとめて処理する構成であっても構わない。
Further, the horizontal differential
なお、ここでは、図9に示した水平微分フィルタ以外のフィルタであっても、水平方向の高周波成分を抽出することが可能であれば、いかなる形状のフィルタを用いても良い。 In this case, a filter other than the horizontal differential filter shown in FIG. 9 may be used as long as it can extract a high-frequency component in the horizontal direction.
加算部73は、水平微分フィルタ処理部72から供給される微分データの、水平1ライン分の微分データの加算を行い、水平ラインごとの微分加算値を、その水平1ラインに対応する高周波成分の大きさを表すパラメータとして、インジケータ合成部74に供給する。
The adding
また、加算部73は、水平1ラインごとに加算処理を行わずに、数ラインをまとめて処理する構成であっても構わない。
Moreover, the
さらに、加算部73は、例えば、図13を用いて後述するようにして、空間的にフォーカスを合わせる領域であるフォーカシングエリアを限定し、各水平ラインのうち、フォーカシングエリア内の微分データのみを加算するようにしてもよい。
Further, for example, as will be described later with reference to FIG. 13, the adding
なお、水平1ラインに対する高周波成分の大きさを表すパラメータを求めることができれば、水平微分フィルタ処理部72および加算部73が、水平方向の高周波成分を抽出し、線形加算処理を行う代わりに、他の処理を実行する構成としても良い。例えば、画像内の所定の領域にFFT(Fast Fourier Transform)をかけることにより、高調波成分を求めるようにしても良い。
If a parameter representing the magnitude of the high-frequency component for one horizontal line can be obtained, the horizontal differential
インジケータ合成部74は、加算部73から供給される水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、ユーザが、所望の被写体に対してフォーカスを合わせるための指標となる補助情報であるフォーカスインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給するとともに、その表示を制御する。
The
インジケータ合成部74によりフォーカスインジケータが合成されたビデオデータは、フォーカスインジケータが付加された撮像画像として、ビューファインダ部27に表示される。
The video data combined with the focus indicator by the
次に、インジケータ合成部74により合成されるフォーカスインジケータの例を、図10乃至図15を参照して説明する。
Next, an example of the focus indicator combined by the
まず、図10および図11を参照して、フォーカスインジケータの第1の表示例について説明する。 First, a first display example of the focus indicator will be described with reference to FIGS. 10 and 11.
図10および図11における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを、図中aで示される折れ線グラフとして生成し、ビデオデータ上に合成する。図10および図11における場合、フォーカスインジケータのラインの位置が画面の右端に近いほど、対応する水平ラインのパラメータは小さい値、すなわち、対応する水平ラインには高調波成分が少ないことを示しており、折れ線グラフの山の部分に対応する水平ラインには、高周波領域が多いことを示している。
In the case of FIG. 10 and FIG. 11, the
図10の例の場合、フォーカスは中央の女性に合っており、女性の像の中で高調波成分が多い顔の部分が写っている水平ライン上に、フォーカスインジケータの山が現れている。 In the case of the example in FIG. 10, the focus is on the woman in the center, and a mountain of focus indicators appears on a horizontal line in which a face portion with a lot of harmonic components is reflected in the image of the woman.
そして、図11の例では、フォーカスは背景に合っているため、女性の像の中で高調波成分が多い顔の部分が写っている水平ラインではなく、背景部分が多い水平ラインに対応する部分に、フォーカスインジケータの山が現れている。すなわち、画像中において、女性は前ボケの状態になり解像していない。 In the example of FIG. 11, since the focus is on the background, the portion corresponding to the horizontal line with many background portions, not the horizontal line in which the face portion with many harmonic components is reflected in the female image. A pile of focus indicators appears. That is, in the image, the woman is in a state of previous blur and is not resolved.
オートフォーカスではなくマニュアルフォーカスで、実際に、動画像(または静止画像)を撮像するとき、ユーザは、ビューファインダ部27に表示される像を見ながら、焦点を定める(フォーカスを合わせる)。すなわち、図10および図11は、オートフォーカスではなくマニュアルフォーカスで焦点を定めるために、ユーザがフォーカス位置を移動させている間のある一瞬のビューファインダ部27の表示内容に対応する。
When actually capturing a moving image (or still image) with manual focus instead of autofocus, the user determines the focus (focuses) while viewing the image displayed on the
前景(この場合は女性)または背景の持つ空間周波数は、被写体そのものに依存するため、インジケータの山の大小は、被写体の合焦とは必ずしも一致しない。実際には、レンズのフォーカス位置を動作させて、フォーカス位置を手前から後方に動かした場合、表示される撮像画像およびインジケータは、図10の状態から図11の状態に遷移することとなる。 Since the spatial frequency of the foreground (in this case, a woman) or the background depends on the subject itself, the magnitude of the indicator mountain does not necessarily match the focus of the subject. Actually, when the focus position of the lens is operated and the focus position is moved from the near side to the back side, the displayed captured image and indicator are changed from the state shown in FIG. 10 to the state shown in FIG.
具体的には、フォーカスを合わせたい領域である女性の顔が写っているラインに注目した場合、フォーカス位置が女性の位置より前である状態から次第に後方に動くに従って、女性の顔が写っているライン付近のインジケータの山が高くなっていき、図10の状態で、女性の顔が写っているライン付近のインジケータの山が最大となり、図11に向かって山が小さくなっていくことになる。 Specifically, when attention is paid to a line in which a woman's face, which is an area to be focused, is focused, the woman's face is reflected as the focus position gradually moves backward from the state before the woman's position. The peak of the indicator near the line becomes higher, and in the state of FIG. 10, the peak of the indicator near the line in which the female face is reflected becomes the maximum, and the peak becomes smaller toward FIG.
一方、背景が写っているラインに注目した場合、図10の状態では対応する部分のインジケータの山は小さく、図11に向かってインジケータの山が大きくなり、レンズのフォーカス位置をさらに後方に動かした場合には、背景部のインジケータのラインの山は図11の状態で最大値となり、その後、徐々に小さくなっていく。 On the other hand, when attention is paid to the line in which the background is reflected, in the state of FIG. 10, the peak of the indicator in the corresponding part is small, and the peak of the indicator becomes large toward FIG. 11, and the focus position of the lens is moved further backward. In this case, the peak of the indicator line in the background portion becomes the maximum value in the state of FIG. 11, and then gradually decreases.
このように、フォーカスを合わせるための指標となる補助情報であるフォーカスインジケータの表示により、ユーザは、レンズのフォーカス位置を動作させたときのフォーカスの変化を知ることが容易となる。すなわち、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、所望の被写体にフォーカスが合っているか否かを容易に認識することが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業を容易に行うことができる。 Thus, the display of the focus indicator, which is auxiliary information serving as an index for focusing, makes it easy for the user to know the change in focus when the focus position of the lens is operated. In other words, the user can easily recognize whether or not the desired subject is in focus by checking the indicator while moving the focus position of the lens back and forth. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. It is possible to easily perform operations such as focus feeding according to the movement of the camera.
なお、図10および図11の例においては、折れ線グラフの内側を任意の色で埋め、折れ線グラフが分かりやすいようにしているが、折れ線グラフの内側の部分のビデオデータ(撮像画像)が隠れてしまわないように、折れ線グラフの線分のみを表示して、折れ線グラフの内側の部分のビデオデータをそのまま表示しても構わないし、折れ線グラフの内側の部分に対して適当な透過率を設定して任意色との合成表示を行っても構わない。また、フォーカスインジケータである折れ線グラフの表示位置は画面の右端に限定するものではなく、画面の左端等いずれの位置であっても構わない。 In the examples of FIGS. 10 and 11, the inside of the line graph is filled with an arbitrary color so that the line graph is easy to understand. However, the video data (captured image) of the inner part of the line graph is hidden. In order not to stutter, only the line segment of the line graph may be displayed, and the video data inside the line graph may be displayed as it is, or an appropriate transmittance is set for the inner part of the line graph. It is also possible to perform composite display with an arbitrary color. The display position of the line graph as the focus indicator is not limited to the right edge of the screen, and may be any position such as the left edge of the screen.
次に、図12を参照して、フォーカスインジケータの第2の表示例について説明する。 Next, a second display example of the focus indicator will be described with reference to FIG.
図12における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを、図中a´で示されるような棒グラフとして生成し、ビデオデータ上に合成する。図12の例においては、棒グラフを数ラインおきに表示しているが、全てのラインに対して表示してもよいし、複数ラインのパラメータの平均値を算出し、その平均値を、複数ラインごとに表示するようにしてもよい。この場合、フォーカスインジケータの棒グラフが短いほど、パラメータは小さい値、すなわち、高調波成分が少ない水平ラインであることを示しており、棒グラフが最も長い水平ラインが最も高周波領域の多い水平ラインであることを示している。
In the case of FIG. 12, the
図12の例の場合、フォーカスは中央の女性に合っており、女性の像の中で高調波成分が多い顔の部分が写っている部分に対応する水平ライン上の棒グラフが長くなっている。 In the case of the example of FIG. 12, the focus is on the woman in the center, and the bar graph on the horizontal line corresponding to the portion of the image of the woman in which the face portion with many harmonic components is reflected is long.
図12に示されるように、フォーカスインジケータを棒グラフとして表示した場合においても、図10および図11における場合と同様に、フォーカスインジケータは、表示される撮像画像におけるそれぞれの水平ラインの時間的な高周波成分の遷移を表現する。 As shown in FIG. 12, even when the focus indicator is displayed as a bar graph, as in the case of FIGS. 10 and 11, the focus indicator is a temporal high-frequency component of each horizontal line in the displayed captured image. Express the transition of.
したがって、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、レンズのフォーカス位置を動作させたときのフォーカスの変化を容易に知ることができ、所望の被写体にフォーカスを合わせることが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業が容易になる。 Therefore, the user can easily know the change in focus when the lens focus position is operated by checking the indicator while moving the lens focus position back and forth, and can focus on a desired subject. It becomes possible. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. Work such as focus feed that matches the movement of the camera becomes easy.
また、フォーカスインジケータである棒グラフの表示位置は画面の右端に限定するものではなく、画面の左端等いずれの位置でも構わない。 The display position of the bar graph as the focus indicator is not limited to the right edge of the screen, and may be any position such as the left edge of the screen.
また、画面内において、フォーカスを合わせる領域、すなわち、フォーカシングエリアを限定するようにしても良い。 In the screen, an area to be focused, that is, a focusing area may be limited.
例えば、図13に示されるように、画面上垂直に図中b−1およびb−2で示される2本のラインを表示させ、それらのラインの内側をフォーカシングエリアとする。加算部73は、図中b−1およびb−2で示される2本のラインで挟まれた領域内の画素のみ加算処理を行う。この結果、フォーカスインジケータの表示は、フォーカシングエリア内の空間周波数のみに影響をうけるため、水平1ライン上に複数のオブジェクトが存在するような複雑なシーンにおいても、より的確なフォーカス合わせを実現するための補助となるフォーカスインジケータを表示させることができる。
For example, as shown in FIG. 13, two lines indicated by b-1 and b-2 in the figure are displayed vertically on the screen, and the inside of these lines is set as a focusing area. The
また、フォーカスインジケータを表示するためのフォーカシングエリアの設定に関しては、ユーザが自由に設定できるようにしてもよいし、撮像装置11において予め決定されているものであってもよい。また、フォーカシングエリアは、画面内を円形、または、多角形で切り取った部分であってもよいし、複数設けられるものであってもよい。
Further, regarding the setting of the focusing area for displaying the focus indicator, the user may be able to freely set it, or it may be determined in advance in the
さらに、フォーカシングエリアを限定するか否かを、ユーザが選択可能な構成としてもよいことは言うまでもない。 Further, it goes without saying that the user can select whether or not to limit the focusing area.
なお、以上の説明では、フォーカスアシスト処理部51−1においては、水平微分フィルタ処理部72が、輝度信号生成部71から供給された輝度信号Yから、水平方向の高周波成分を抽出し、加算部73が、水平1ライン分の微分データの加算を行い、水平ラインごとの微分加算値を、その水平1ラインに対応する高周波成分の大きさを表すパラメータとして算出するものとして説明した。
In the above description, in the focus assist processing unit 51-1, the horizontal differential
これに対して、例えば、水平方向ではなく、垂直方向の高調波成分を抽出し、垂直1ラインに対応する高周波成分の大きさを表すパラメータを算出して、垂直1ラインごとの高周波成分の大きさを表すパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に出力して表示させるようにしても良い。
On the other hand, for example, a harmonic component in the vertical direction instead of the horizontal direction is extracted, a parameter representing the size of the high frequency component corresponding to one vertical line is calculated, and the magnitude of the high frequency component for each vertical line is calculated. It is also possible to generate an indicator indicating the size of the parameter indicating the length, combine it on the video data supplied from the camera
垂直1ラインごとの高周波成分の大きさを表すパラメータの大きさを示すインジケータを表示させる場合、フォーカスアシスト処理部51−1は、例えば、垂直成分の微分データの加算結果を記憶する垂直1ライン分の加算メモリをさらに備えるようにし、水平微分フィルタ処理部72に代わって、垂直方向の微分処理を行う垂直微分フィルタ処理部を備え、加算部73に代わって、垂直1ラインごとに垂直微分フィルタ処理部からの微分データを、該当する垂直ラインにおける加算メモリの値に加算する処理を実行する加算部を備え、インジケータ合成部74に代わって、各垂直ラインに対してパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給するインジケータ合成部を備えるものとする。
When displaying an indicator indicating the magnitude of the parameter representing the magnitude of the high-frequency component for each vertical line, the focus assist processing unit 51-1 stores, for example, one vertical line for storing the addition result of the differential data of the vertical component. In addition to a horizontal differential
図14を参照して、フォーカスインジケータの第3の表示例として、各垂直ラインに対してパラメータの大きさを示すインジケータが、折れ線グラフとして表示されている場合について説明する。 With reference to FIG. 14, as a third display example of the focus indicator, a case will be described in which an indicator indicating the parameter size for each vertical line is displayed as a line graph.
図14における場合では、インジケータ合成部74は、垂直ラインごとのパラメータを示すフォーカスインジケータを、図中cで示される折れ線グラフとしてビデオデータ上に合成する。この場合、フォーカスインジケータのラインの位置が画面下端に近いほど、パラメータは小さい値、すなわち、高調波成分が少ない垂直ラインであることを示しており、折れ線グラフの山の部分は高周波成分の多い垂直ラインに対応することを示している。
In the case of FIG. 14, the
図14の例の場合、フォーカスは中央の女性に合っており、女性の像が写っている垂直ラインの位置に、フォーカスインジケータの山が現れている。 In the example of FIG. 14, the focus is on the woman in the center, and a mountain of focus indicators appears at the position of the vertical line where the image of the woman is shown.
また、図14における場合においても、フォーカスインジケータは、表示される撮像画像におけるそれぞれの垂直ラインの時間的な高周波成分の遷移を表現する。 Also in the case of FIG. 14, the focus indicator expresses temporal high-frequency component transition of each vertical line in the displayed captured image.
したがって、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認することにより、レンズのフォーカス位置を動作させたときのフォーカスの変化を容易に知ることができ、所望の被写体にフォーカスを合わせることが可能となる。また、画面内を動く被写体に対して動画像を撮像する場合であっても、フォーカスインジケータを確認することにより、その画面内の時間的な空間周波数の変化を確認しやすくなり、ユーザは、被写体の動きに合わせたフォーカス送りなどの作業が容易になる。 Therefore, the user can easily know the change in focus when the lens focus position is operated by checking the indicator while moving the lens focus position back and forth, and can focus on a desired subject. It becomes possible. Even when a moving image is captured for a subject moving in the screen, checking the focus indicator makes it easy to check the temporal spatial frequency change in the screen. Work such as focus feed that matches the movement of the camera becomes easy.
また、フォーカスインジケータである折れ線グラフの表示位置は画面の下側に限定するものではなく、画面の上側等いずれの位置でも構わない。 Further, the display position of the line graph as the focus indicator is not limited to the lower side of the screen, and may be any position such as the upper side of the screen.
また、垂直方向の高周波成分を表現するフォーカスインジケータも、折れ線グラフのみならず、棒グラフで表されていてもよい。 Further, the focus indicator expressing the high-frequency component in the vertical direction may be represented not only by a line graph but also by a bar graph.
また、フォーカスインジケータの第4の表示例として、図15に示されるように、各水平ラインに対してパラメータの大きさを示す図中aで示されるフォーカスインジケータと、各垂直ラインに対してパラメータの大きさを示す図中cで示されるフォーカスインジケータとが、それぞれ、ビデオデータに合成されて表示されるようにしてもよい。 Also, as a fourth display example of the focus indicator, as shown in FIG. 15, the focus indicator indicated by a in the figure showing the parameter size for each horizontal line and the parameter indicator for each vertical line. A focus indicator indicated by c in the drawing showing the size may be combined with the video data and displayed.
図15における場合では、インジケータ合成部74は、水平ラインごとのパラメータを示すフォーカスインジケータを図中aで示される折れ線グラフとして、垂直ラインごとのパラメータを示すフォーカスインジケータを図中cで示される折れ線グラフとして、それぞれビデオデータ上に合成する。
In the case of FIG. 15, the
以上、図10乃至図15を用いて、フォーカスインジケータの表示例を示したが、これらは本発明の機能を限定するものではなく、フォーカスインジケータは、画像の空間的な高周波成分の大きさに応じて、画像空間上における位置がわかるように表示されていれば、どのような形式で表示されていてもよいことは言うまでもない。 The display examples of the focus indicator have been described above with reference to FIGS. 10 to 15. However, these do not limit the function of the present invention, and the focus indicator corresponds to the size of the spatial high-frequency component of the image. Needless to say, it may be displayed in any format as long as the position in the image space can be understood.
次に、図16は、図7のフォーカスアシスト処理部51の第2の実施例であるフォーカスアシスト処理部51−2の構成を示すブロック図である。なお、図16においては、図8と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図16のフォーカスアシスト処理部51−2は、新たに、比較部91およびピークメモリ部92を備え、インジケータ合成部74に代わってインジケータ合成部93を備えている以外は、基本的に、図8のフォーカスアシスト処理部51−1と同様の構成を有するものである。
Next, FIG. 16 is a block diagram showing a configuration of a focus assist processing unit 51-2 which is a second embodiment of the focus assist processing
比較部91は、加算部73から供給される各水平ラインの微分加算値と、予めピークメモリ部92に記憶されている過去の各水平ラインの微分データの最大値とを、ラインごとに比較する。そして、比較部91は、各ラインにおいて、過去のパラメータの最大値と、このフレームで求められたパラメータとのうちの大きな値を抽出し、加算部73から供給される各水平ラインの微分加算値とともに、インジケータ合成部93に供給する。
The
また、比較部91は、得られたパラメータに、過去のパラメータよりも大きな値がある場合、大きな値であった微分加算値でピークメモリ部92の情報を上書きし、ピークメモリ部92に記憶されている、過去の各水平ラインの微分データの最大値を更新する。
In addition, when the obtained parameter has a larger value than the past parameter, the
ピークメモリ部92は、比較部91による比較結果に基づいて、各水平ラインの微分加算値の最大値を保持するメモリである。ピークメモリ部92に記憶されている過去の各水平ラインの微分データの最大値を、以下、ピークホールド値ともいう。
The
インジケータ合成部93は、上述した場合と同様のフォーカスインジケータと、ピークホールド値を示すラインとを、ビデオデータに合成して、ビューファインダ部27に出力するとともに、その表示を制御する。
The
図17は、インジケータ合成部93により、図中aで示される水平ラインごとのパラメータを示すフォーカスインジケータと、図中dで示されるピークホールド値を示すラインが生成された場合の、ビューファインダ部27の表示例である。
FIG. 17 shows the
図中aで示される、水平ラインごとのパラメータを示すフォーカスインジケータは、図10および図11を用いて説明したものと同じフォーカスインジケータである。図17の例においては、数ラインをまとめて比較処理した結果を示しているが、各ラインごとに比較処理を行っても構わない。また、ピークホールドの表示方法は、過去の最大値が表現できればどのようなものでも構わない。 The focus indicator indicating the parameter for each horizontal line indicated by “a” in the figure is the same focus indicator as described with reference to FIGS. 10 and 11. In the example of FIG. 17, the result of comparison processing of several lines is shown, but the comparison processing may be performed for each line. The peak hold display method may be any method as long as the maximum value in the past can be expressed.
それぞれの水平ラインにおいて高調波成分が多い場合、その水平ラインの画素は多くのエッジ要素を含んでいる。すなわち、ユーザは、レンズのフォーカス位置を前後させつつインジケータを確認し、所望の被写体に焦点が合っている場合にインジケータの山が高くなると思われるラインにおいて、インジケータの山がピークホールド値に合うように調整することにより、所望の被写体に容易にフォーカスを合わせることが可能となる。 When there are many harmonic components in each horizontal line, the pixel of the horizontal line contains many edge elements. In other words, the user checks the indicator while moving the lens focus position back and forth so that the peak of the indicator matches the peak hold value in the line where the peak of the indicator seems to be high when the desired subject is in focus. By adjusting to, it becomes possible to easily focus on a desired subject.
また、撮像される対象が変わった場合、過去の微分加算値の最大値は意味を持たない。したがって、ピークメモリ部92に記録されている各水平ラインの微分加算値の最大値がずっとリセットされなかった場合、ピークホールド値の意味がなくなってしまう。
Further, when the object to be imaged is changed, the past maximum differential addition value is meaningless. Therefore, if the maximum value of the differential addition value of each horizontal line recorded in the
そこで、ピークメモリ部92に記録されている各水平ラインの微分加算値の最大値は、所定時間ごとに、または、ユーザの操作入力を受けてリセットされるものとする。換言すれば、ピークメモリ部92には、次のリセットタイミングまでの最大微分データが保持されることになる。
Therefore, it is assumed that the maximum value of the differential addition value of each horizontal line recorded in the
このように、図17のdで示される、ピークホールド値に対応するラインをフォーカスインジケータとともに表示させることにより、ユーザは、レンズのフォーカス位置を前後させつつ所望の被写体に焦点を合わせる場合に、フォーカスを合わせたい領域のインジケータがピークと一致しているかまたは近づいているか否かに基づいて、現在のフォーカス位置が、所望の被写体に対するフォーカス位置の最適値であるか否かを判断しやすくなる。この方法によれば、被写界深度が浅くフォーカス合わせが難しいような条件においても、所望の被写体に確実にフォーカス合わせを行うことが可能となる。 In this way, by displaying the line corresponding to the peak hold value shown by d in FIG. 17 together with the focus indicator, when the user focuses on a desired subject while moving the focus position of the lens back and forth, the focus is adjusted. It is easy to determine whether or not the current focus position is the optimum value of the focus position with respect to a desired subject based on whether or not the indicator of the region to be matched matches or approaches the peak. According to this method, it is possible to reliably focus on a desired subject even under conditions where the depth of field is shallow and focusing is difficult.
なお、図16および図17を用いて説明した場合においては、水平方向のみの処理に限定して説明を行ったが、図14を用いて説明した場合と同様にして、垂直方向の処理を行い、垂直方向のフォーカスインジケータおよびピークホールド値に対応するラインを生成し、表示させるようにしてもよい。 In the case described with reference to FIGS. 16 and 17, the description is limited to only the process in the horizontal direction, but the process in the vertical direction is performed in the same manner as described with reference to FIG. 14. A line corresponding to the vertical focus indicator and the peak hold value may be generated and displayed.
また、図15を用いて説明した場合と同様に、水平方向と垂直方向の処理を同時に行い、2次元的にフォーカスインジケータおよびピークホールド値に対応するラインを生成して、表示させることができるような構成にしても構わない。 Similarly to the case described with reference to FIG. 15, it is possible to perform processing in the horizontal direction and the vertical direction at the same time to generate and display a line corresponding to the focus indicator and the peak hold value two-dimensionally. Any configuration may be used.
次に、図18は、図7のフォーカスアシスト処理部51の第3の実施例であるフォーカスアシスト処理部51−3の構成を示すブロック図である。なお、図18においては、図8と対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図18のフォーカスアシスト処理部51−3は、図8のフォーカスアシスト処理部51−1に、図2のファインダ表示画像変換部26の切替パルス生成部42および画像合成部43をさらに備え、インジケータ合成部74に代わってインジケータ合成部111を備えている以外は、基本的に、図8のフォーカスアシスト処理部51−1と同様の構成を有するものである。
Next, FIG. 18 is a block diagram showing a configuration of a focus assist processing unit 51-3 which is a third embodiment of the focus assist processing
カメラ信号処理部23からフォーカスアシスト処理部51−3に供給される入力ビデオデータは、輝度信号生成部71に供給されるとともに、画像合成部43に供給される。
The input video data supplied from the camera
輝度信号生成部71は、カメラ信号処理部23からの入力ビデオデータに対して、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、画像合成部43および水平微分フィルタ処理部72に供給する。
The luminance
画像合成部43は、切替パルス生成部42から供給されるパルス信号MEに基づいて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号生成部71からの輝度信号Yに変換し、インジケータ合成部111に供給する。
Based on the pulse signal ME supplied from the switching
インジケータ合成部111は、上述した場合と同様のフォーカスインジケータを、画像合成部43からの、ビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換されたビデオデータに合成して、ビューファインダ部27に供給するとともに、その表示を制御する。
The
次に、図19を参照して、フォーカスインジケータの第4の表示例について説明する。 Next, a fourth display example of the focus indicator will be described with reference to FIG.
図19は、画像合成部43によって、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換された合成画像に、インジケータ合成部111により、図中aで示される水平ラインごとのパラメータを示すフォーカスインジケータが合成された場合の、ビューファインダ部27の表示例である。
FIG. 19 shows a composite image obtained by converting the range of the rectangular area A in the video data of the captured image displayed on the
図中、矩形領域Aは、図4を用いて説明したものと同じフォーカシングエリアである。また、図中aで示される、水平ラインごとのパラメータを示すフォーカスインジケータは、図10および図11を用いて説明したものと同じフォーカスインジケータである。 In the figure, a rectangular area A is the same focusing area as described with reference to FIG. Further, the focus indicator indicating the parameter for each horizontal line indicated by a in the figure is the same focus indicator as described with reference to FIGS. 10 and 11.
図19の例においては、加算部73は、矩形領域Aであるフォーカシングエリア内の画素のみ加算処理を行う。
In the example of FIG. 19, the
この結果、フォーカスインジケータは、矩形領域Aと交差しない水平ラインについては表示されず、また、そのフォーカスインジケータの表示は、フォーカシングエリア内の空間周波数のみに影響をうけるため、水平1ライン上に複数のオブジェクトが存在するような複雑なシーンにおいても、より的確なフォーカス合わせを実現するための補助となるフォーカスインジケータを表示させることができ、また、フォーカスを合わせたい対象が輝度信号で表示(モノクロ表示)されるので、ユーザにとって、コントラストを見極めやすくなり、さらにフォーカス合わせが容易になる。 As a result, the focus indicator is not displayed for a horizontal line that does not intersect with the rectangular area A, and the display of the focus indicator is affected only by the spatial frequency in the focusing area. In complex scenes where objects are present, a focus indicator can be displayed to assist in achieving more accurate focus adjustment, and the target to be focused is displayed as a luminance signal (monochrome display) Therefore, it becomes easy for the user to determine the contrast, and further focusing becomes easier.
なお、図18および図19を用いて説明した場合においては、水平方向のみの処理に限定して説明を行ったが、図15を用いて説明した場合と同様に、水平方向と垂直方向の処理を同時に行い、2次元的にフォーカスインジケータを生成して、表示させるようにしてもよい。 In the case described with reference to FIGS. 18 and 19, the description is limited to the processing in only the horizontal direction. However, as in the case described with reference to FIG. 15, the processing in the horizontal direction and the vertical direction is performed. The focus indicator may be generated two-dimensionally and displayed.
また、図17を用いて説明した場合と同様にして、水平方向のフォーカスインジケータおよびピークホールド値に対応するラインを生成し、表示させるようにしてもよい。 Further, similarly to the case described with reference to FIG. 17, a line corresponding to the horizontal focus indicator and the peak hold value may be generated and displayed.
さらに、水平方向と垂直方向の処理を同時に行った上で、2次元的にフォーカスインジケータおよびピークホールド値に対応するラインを生成して、表示させることができるような構成にしても構わない。 Furthermore, it may be configured such that lines corresponding to the focus indicator and the peak hold value can be generated and displayed two-dimensionally after performing the processing in the horizontal direction and the vertical direction simultaneously.
以上、図7においては、撮像素子22、およびカメラ信号処理部23を有し、ユーザの操作入力に基づいてフォーカス位置が制御可能な撮像装置11の構成を説明し、図8以下の図面を用いて、撮像装置11における処理について説明したが、例えば、図8、図16、または図18を用いて説明したフォーカスアシスト処理部51と、ビューファインダ部27に対応する機能を有するものを1つの装置として構成しても良い。
As described above, in FIG. 7, the configuration of the
具体的には、ユーザの操作入力に基づいて、フォーカス位置が制御可能な撮像装置により撮像された撮像画像を外部の装置から取得して、上述したようなフォーカスインジケータ等の作成および撮像画像との合成処理を行って、ビューファインダに表示することができる機能を有する表示装置を構成するものとしても良い。 Specifically, based on a user's operation input, a captured image captured by an imaging device whose focus position can be controlled is acquired from an external device, and a focus indicator or the like as described above is created and the captured image is It is also possible to constitute a display device having a function that can be displayed on the viewfinder by performing a composition process.
さらに、図8、図16、または図18を用いて説明したフォーカスアシスト処理部51に対応する機能を有するものを1つの装置として構成しても良い。
Furthermore, a device having a function corresponding to the focus assist processing
具体的には、ユーザの操作入力に基づいて、フォーカス位置が制御可能な撮像装置により撮像された撮像画像を外部の装置から取得して、上述したようなフォーカスインジケータ等の作成および撮像画像との合成処理を行って、外部の他の表示装置に出力して表示させることができる機能を有する表示制御装置を構成するものとしても良い。 Specifically, based on a user's operation input, a captured image captured by an imaging device whose focus position can be controlled is acquired from an external device, and a focus indicator or the like as described above is created and the captured image is It is also possible to configure a display control device having a function of performing a synthesis process and outputting and displaying it on another external display device.
次に、図20のフローチャートを参照して、図7の撮像装置11が実行する撮像処理について説明する。なお、ステップS32乃至ステップS38の各処理は、撮像された動画像のあるフレームの処理としては、ステップS34およびステップS35の処理とステップS36およびステップS37の処理とが並行して実行可能であるが、基本的には、記載されたステップの通りに順次実行されるものである。しかしながら、これらは、順次撮像される複数フレームにより構成される動画像全体に対して実行される処理であるので、撮像装置11内においては、それぞれ、並行して実行される。
Next, imaging processing executed by the
ステップS31乃至ステップS35においては、図5のステップS11乃至ステップS15と同様の処理が実行される。すなわち、図7の撮像装置11における撮像光学系21および撮像素子22は、撮像を開始し、カメラ信号処理部23は、撮像素子22から供給されたRAWデータに対して、ホワイトバランス補正、ゲイン調整、デモザイク処理、リニアマトリクス処理、およびガンマ補正処理等の処理を施し、コーディック部24は、圧縮処理を行い、記録部25は、符号化ストリームを記録する。
In steps S31 to S35, processing similar to that in steps S11 to S15 in FIG. 5 is executed. That is, the imaging
ステップS36において、フォーカスアシスト処理部51は、図21、図22、または図23を用いて説明するフォーカスインジケータ生成処理を実行し、処理は、ステップS37に進む。
In step S36, the focus assist processing
ステップS37において、ビューファインダ部27は、例えば、図10乃至図15、図17、または図19を用いて説明したような、ユーザが合焦具合を把握しやすくするための補助情報であるフォーカスインジケータ、または、フォーカスインジケータおよびピークホールド値を示すラインが付加された撮像画像を表示し、処理は、ステップS38に進む。
In step S <b> 37, the
ステップS38においては、図5のステップS18と同様の処理が実行される。すなわち、操作入力部28は、ユーザからの操作入力に基づいて、撮像の終了が指令されたか否かを判断し、撮像の終了が指令されていないと判断された場合、処理は、ステップS32に戻り、それ以降の処理が繰り返される。そして、撮像の終了が指令されたと判断された場合、処理は終了する。
In step S38, the same process as in step S18 of FIG. 5 is executed. That is, the
このような処理により、動画像が撮像され、記録されるとともに、記録されている動画像とともに、フォーカスインジケータ(または、フォーカスインジケータおよびピークホールド値を示すライン)が表示される。 Through such processing, a moving image is captured and recorded, and a focus indicator (or a line indicating the focus indicator and peak hold value) is displayed together with the recorded moving image.
したがって、ユーザは、フォーカスインジケータを参照して、例えば、レンズリングを操作することなどにより、所望の対象物に容易にフォーカスを合わせることができる。また、電子的にレンズを動かし、フォーカスを自動修正することができるようにしてもよいことはいうまでもない。 Therefore, the user can easily focus on a desired object by referring to the focus indicator, for example, by operating the lens ring. Needless to say, the lens may be moved electronically so that the focus can be automatically corrected.
次に、図21のフローチャートを参照して、図20のステップS36において実行される処理の第1の例である、フォーカスインジケータ生成処理1について説明する。フォーカスインジケータ生成処理1は、フォーカスアシスト処理部51−1により実行される。
Next, a focus
ステップS41において、輝度信号生成部71は、カメラ信号処理部23から供給される入力ビデオデータに対して、例えば、上述した式(1)に示すような変換処理を施し、輝度信号Yを生成して、水平微分フィルタ処理部72に供給する。その後、処理は、ステップS42に進む。
In step S <b> 41, the luminance
ステップS42において、水平微分フィルタ処理部72は、輝度信号生成部71からの輝度信号Yに対して、図9に示すような係数を持つ水平微分フィルタを施して微分データを得ること等により、輝度信号の水平方向の高周波成分を抽出して、加算部73に供給し、処理は、ステップS43に進む。
In step S42, the horizontal differential
ステップS43において、加算部73は、水平微分フィルタ処理部72から供給される微分データの、水平1ライン分の微分データの加算を行うこと等により、水平1ラインに対する高周波成分の大きさを表すパラメータを求め、インジケータ合成部74に供給して、処理は、ステップS44に進む。
In step S43, the
ステップS44において、インジケータ合成部74は、加算部73から供給される水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、各ラインに対するパラメータの大きさを示すインジケータを生成し、カメラ信号処理部23から供給されるビデオデータ上に合成する。インジケータ合成部74は、インジケータが合成されたビデオデータを、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。
In step S44, the
このような処理により、カメラ信号処理部23から供給されるビデオデータ上に、例えば、図10乃至図12を用いて説明したようなフォーカスインジケータを合成し、ビューファインダ部27に、フォーカスインジケータが付加された撮像画像を表示させることができる。
Through such processing, for example, a focus indicator as described with reference to FIGS. 10 to 12 is synthesized on the video data supplied from the camera
次に、図22のフローチャートを参照して、図20のステップS36において実行される処理の第2の例である、フォーカスインジケータ生成処理2について説明する。フォーカスインジケータ生成処理2は、フォーカスアシスト処理部51−2により実行される。
Next, with reference to the flowchart of FIG. 22, the focus
ステップS71乃至ステップS73においては、図21のステップS41乃至ステップS43と同様の処理が実行される。すなわち、輝度信号生成部71は、輝度信号を生成し、水平微分フィルタ処理部72は、輝度信号の水平方向の高周波成分を抽出し、加算部73は、水平1ラインに対する高周波成分の大きさを表すパラメータを求める。
In steps S71 to S73, the same processes as in steps S41 to S43 in FIG. 21 are executed. That is, the luminance
ステップS74において、比較部91は、加算部73から各水平ラインの微分加算値の供給を受けるとともに、予めピークメモリ部92に記憶されている、過去の各水平ラインの過去のパラメータの最大値を読み出して、処理は、ステップS75に進む。
In step S74, the
ステップS75において、比較部91は、加算部73によって得られたパラメータのうち、予めピークメモリ部92に記憶されている過去のパラメータよりも大きな値があるか否かを判断する。
In step S <b> 75, the
ステップS75において、過去のパラメータよりも大きな値があると判断された場合、処理は、ステップS76に進み、比較部91は、大きな値であった微分加算値でピークメモリ部92の情報を上書きし、ピークメモリ部92に記録されている、過去の各水平ラインの微分データの最大値を更新する。
If it is determined in step S75 that there is a value larger than the past parameter, the process proceeds to step S76, and the
ステップS75において、過去のパラメータよりも大きな値がないと判断された場合、または、ステップS76の処理の終了後、処理は、ステップS77に進み、インジケータ合成部93は、各水平ラインの微分加算値に基づいて、各ラインに対してパラメータの大きさを示すフォーカスインジケータを生成するとともに、ピークメモリ部92に記録されている過去の各水平ラインの微分データの最大値に基づいて、ピークホールド値を示すラインを生成する。そして、インジケータ合成部93は、フォーカスインジケータおよびピークホールド値を示すラインを、カメラ信号処理部23から供給されるビデオデータ上に合成して、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。
If it is determined in step S75 that there is no value larger than the past parameter, or after the process of step S76 is completed, the process proceeds to step S77, and the
このような処理により、カメラ信号処理部23から供給されるビデオデータ上に、例えば、図17を用いて説明したようなフォーカスインジケータおよびピークホールド値を示すラインを合成し、ビューファインダ部27に、フォーカスインジケータおよびピークホールド値を示すラインが付加された撮像画像を表示させることができる。
Through such processing, for example, a line indicating a focus indicator and a peak hold value as described with reference to FIG. 17 is synthesized on the video data supplied from the camera
なお、ピークメモリ部92に記録されているパラメータの最大値は、上述したように、一定時間が経過したらリセットされるものとしてもよいし、ユーザの操作入力によりリセットされるものとしてもよい。
As described above, the maximum value of the parameter recorded in the
次に、図23のフローチャートを参照して、図20のステップS36において実行される処理の第3の例である、フォーカスインジケータ生成処理3について説明する。フォーカスインジケータ生成処理3は、フォーカスアシスト処理部51−3により実行される。 Next, a focus indicator generation process 3 that is a third example of the process executed in step S36 of FIG. 20 will be described with reference to the flowchart of FIG. The focus indicator generation process 3 is executed by the focus assist processing unit 51-3.
ステップS101においては、図6で説明した輝度信号変換処理と同様の処理が実行される。すなわち、輝度信号生成部71は、輝度信号Yを生成し、切替パルス生成部42は、パルス信号MEの生成を開始し、画像合成部43は、パルス信号MEに応じて、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号生成部71からの輝度信号Yに変換することにより、ビデオデータと輝度信号Yとの合成画像を生成する。
In step S101, processing similar to the luminance signal conversion processing described in FIG. 6 is executed. That is, the luminance
ステップS102およびステップS103においては、図21のステップS42およびステップS43と同様の処理が実行される。すなわち、水平微分フィルタ処理部72は、輝度信号の水平方向の高周波成分を抽出し、加算部73は、矩形領域Aと交差する水平1ラインに対する高周波成分の大きさを表すパラメータを求める。
In step S102 and step S103, processing similar to that in step S42 and step S43 in FIG. 21 is executed. That is, the horizontal differential
ステップS104において、インジケータ合成部111は、加算部73からの矩形領域Aと交差する水平1ラインごとの高周波成分の大きさを表すパラメータに基づいて、各ラインに対するパラメータの大きさを示すインジケータを生成し、画像合成部43から供給される合成画像上に合成する。インジケータ合成部111は、インジケータが合成された合成画像を、ビューファインダ部27に供給し、その表示を制御して、処理は、図20のステップS36に戻り、ステップS37に進む。
In step S104, the
このような処理により、カメラ信号処理部23から供給されるビデオデータのうち、ビューファインダ部27に表示される撮像画像についてのビデオデータのうちの矩形領域Aの範囲を、輝度信号Yに変換することにより生成された合成画像上に、例えば、図19を用いて説明したようなフォーカスインジケータを合成するので、ビューファインダ部27に、フォーカスを合わせたい被写体が表示されている領域がモノクロ表示され、フォーカスインジケータが付加されている合成画像を表示させることができる。
By such processing, the range of the rectangular area A in the video data of the captured image displayed on the
また、図20乃至図23のフローチャートを用いて説明した処理では、水平方向1ラインごとに、高調波成分の大きさを示すパラメータを求め、インジケータを生成して表示させる場合について説明しているが、それ以外にも、上述したようにして、高調波成分の大きさを示すパラメータを複数ラインごとに求めて、それに対応するインジケータを表示するものとしてもよい。 In the processing described with reference to the flowcharts of FIGS. 20 to 23, a case is described in which a parameter indicating the magnitude of the harmonic component is obtained for each horizontal line, and an indicator is generated and displayed. In addition, as described above, a parameter indicating the magnitude of the harmonic component may be obtained for each of a plurality of lines, and an indicator corresponding thereto may be displayed.
また、図14および図15を用いて説明したように、水平方向ではなく、垂直方向における高調波成分の大きさを示すパラメータを求め、それに対応するインジケータを表示するものとしてもよい。 Further, as described with reference to FIGS. 14 and 15, a parameter indicating the magnitude of the harmonic component in the vertical direction instead of the horizontal direction may be obtained, and an indicator corresponding to the parameter may be displayed.
以上のように、撮像装置11では、画像を撮像し、撮像された撮像画像の輝度信号Yを生成し、ビューファインダ部27に表示される撮像画像の表示領域のうち、ビデオデータにおける矩形領域Aの範囲を輝度信号Yに変換し、ビデオデータのうちの矩形領域Aの範囲が輝度信号Yに変換された合成画像を、ビューファインダ部27に表示するようにしたので、ビューファインダ部27において、フォーカスを合わせたい被写体が表示されている矩形領域Aが輝度信号Yで表示(モノクロ表示)され、それ以外の領域がカラー表示されて、特に、フォーカスを合わせたい被写体については、人間の視覚特性に従って明暗の差が認識しやすくなり、ユーザは、色味を確認しつつ、フォーカス合わせを容易に行うことができる。
As described above, the
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、上述した処理は、図24に示されるようなパーソナルコンピュータ500により実行される。
The series of processes described above can be executed by hardware or can be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium. In this case, the processing described above is executed by a
図24において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
In FIG. 24, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a
CPU501,ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
The
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。
The input /
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、図24に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
As shown in FIG. 24, this recording medium is not only composed of a package medium consisting of a
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
11 撮像装置, 21 撮像光学系, 22 撮像素子, 23 カメラ信号処理部, 24 コーディック部, 25 記録部, 26 ファインダ表示画像変換部, 27 ビューファインダ部, 28 操作入力部, 41 輝度信号生成部, 42 切替パルス生成部, 43 画像合成部, 51 フォーカスアシスト処理部, 71 輝度信号生成部, 72 水平微分フィルタ処理部, 73 加算部, 74 インジケータ合成部, 91 比較部, 92 ピークメモリ部, 93 インジケータ合成部, 111 インジケータ合成部
DESCRIPTION OF
Claims (16)
前記画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する画像合成手段と、
前記合成画像を表示する表示手段と
を備える撮像装置。 In an imaging device that displays a captured image,
Imaging means for capturing the image;
Luminance signal generation means for generating a luminance signal of the image captured by the imaging means;
Image synthesizing means for converting image data for a predetermined area of the display area of the image into the luminance signal and generating a synthesized image of the image data and the luminance signal;
An imaging apparatus comprising: display means for displaying the composite image.
前記画像合成手段は、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成する
請求項1に記載の撮像装置。 Signal generation means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display means;
The imaging apparatus according to claim 1, wherein the image synthesizing unit generates the synthesized image by converting the image data of the predetermined region into the luminance signal according to the signal.
前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、
前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに備える
請求項1に記載の撮像装置。 Extraction means for extracting at least one of the horizontal direction and the vertical direction in the image picked up by the image pickup means;
Based on at least one of the high-frequency components in the horizontal direction or the vertical direction extracted by the extraction unit, 1 or 2 in the predetermined area of the display area of the image in at least one of the horizontal direction and the vertical direction Calculating means for calculating a parameter representing the magnitude of the high-frequency component for each of the plurality of lines;
Based on the parameter, an indicator that indicates the size of the parameter is generated, and an indicator compositing unit that combines the composite image and the indicator in correspondence with at least one position in the horizontal direction or the vertical direction. The imaging apparatus according to claim 1 further provided.
請求項3に記載の撮像装置。 The imaging apparatus according to claim 3, wherein the indicator composition unit generates the indicator as a line graph.
請求項3に記載の撮像装置。 The imaging apparatus according to claim 3, wherein the extraction unit extracts at least one high-frequency component in a horizontal direction or a vertical direction using the luminance signal generated by the luminance signal generation unit.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising setting means for setting the predetermined area.
前記画像を撮像し、
前記撮像手段により撮像された前記画像の輝度信号を生成し、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、
前記合成画像を表示する
ステップを含む撮像方法。 In an imaging method of an imaging apparatus that displays a captured image,
Taking the image,
Generating a luminance signal of the image imaged by the imaging means;
Converting image data of a predetermined area of the display area of the image into the luminance signal, and generating a composite image of the image data and the luminance signal;
An imaging method including a step of displaying the composite image.
前記画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、
前記合成画像を表示する表示手段
として、コンピュータを機能させるプログラム。 In a program that causes a computer to function as an imaging device that displays a captured image,
Imaging means for capturing the image;
Luminance signal generation means for generating a luminance signal of the image captured by the imaging means;
Composite image generation means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal;
A program that causes a computer to function as display means for displaying the composite image.
前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する画像合成手段と、
前記合成画像の表示を制御する表示制御手段と
を備える表示制御装置。 In a display control device that controls display of the image of a display device that displays an image captured by the imaging device,
Luminance signal generation means for acquiring the image and generating a luminance signal of the image;
Image synthesizing means for converting image data for a predetermined area of the display area of the image into the luminance signal and generating a synthesized image of the image data and the luminance signal;
A display control unit that controls display of the composite image.
前記画像合成手段は、前記信号に応じて、前記所定の領域についての前記画像データを前記輝度信号に変換して、前記合成画像を生成する
請求項10に記載の表示制御装置。 Signal generating means for generating a signal indicating a timing at which the predetermined area of the display area of the image is displayed on the display device;
The display control apparatus according to claim 10, wherein the image synthesis unit converts the image data for the predetermined region into the luminance signal in accordance with the signal, and generates the synthesized image.
前記抽出手段により抽出された、水平方向または垂直方向の少なくともいずれか一方の高周波成分に基づいて、水平方向または垂直方向の少なくともいずれか一方の、前記画像の表示領域の前記所定の領域における1または複数ラインごとの高周波成分の大きさを表すパラメータを算出する算出手段と、
前記パラメータに基づいて、前記パラメータの大きさを示すインジケータを生成し、水平方向または垂直方向の少なくともいずれか一方の位置に対応させて、前記合成画像と前記インジケータとを合成するインジケータ合成手段とをさらに備える
請求項10に記載の表示制御装置。 Extracting means for extracting at least one of the horizontal direction and the vertical direction in the image captured by the imaging device;
Based on at least one of the high-frequency components in the horizontal direction or the vertical direction extracted by the extraction unit, 1 or 2 in the predetermined area of the display area of the image in at least one of the horizontal direction and the vertical direction Calculating means for calculating a parameter representing the magnitude of the high-frequency component for each of the plurality of lines;
Based on the parameter, an indicator that indicates the size of the parameter is generated, and an indicator compositing unit that combines the composite image and the indicator in correspondence with at least one position in the horizontal direction or the vertical direction. The display control device according to claim 10.
請求項10に記載の表示制御装置。 The display control apparatus according to claim 10, further comprising setting means for setting the predetermined area.
前記画像を取得し、前記画像の輝度信号を生成し、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成し、
前記合成画像の表示を制御する
ステップを含む表示制御方法。 In a display control method of a display control device that controls display of the image of a display device that displays an image captured by an imaging device,
Acquiring the image, generating a luminance signal of the image,
Converting image data of a predetermined area of the display area of the image into the luminance signal, and generating a composite image of the image data and the luminance signal;
A display control method including a step of controlling display of the composite image.
前記画像を取得し、前記画像の輝度信号を生成する輝度信号生成手段と、
前記画像の表示領域のうちの所定の領域についての画像データを前記輝度信号に変換して、前記画像データと前記輝度信号との合成画像を生成する合成画像生成手段と、
前記合成画像の表示を制御する表示制御手段
として、コンピュータを機能させるプログラム。 In a program that causes a computer to function as a display control device that controls display of the image of a display device that displays an image captured by an imaging device,
Luminance signal generation means for acquiring the image and generating a luminance signal of the image;
Composite image generation means for converting image data of a predetermined area of the display area of the image into the luminance signal and generating a composite image of the image data and the luminance signal;
A program that causes a computer to function as display control means for controlling display of the composite image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008001854A JP2009164985A (en) | 2008-01-09 | 2008-01-09 | Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008001854A JP2009164985A (en) | 2008-01-09 | 2008-01-09 | Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009164985A true JP2009164985A (en) | 2009-07-23 |
Family
ID=40967043
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008001854A Pending JP2009164985A (en) | 2008-01-09 | 2008-01-09 | Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009164985A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009177460A (en) * | 2008-01-24 | 2009-08-06 | Ikegami Tsushinki Co Ltd | Viewfinder display circuit and method |
| JP2011135351A (en) * | 2009-12-24 | 2011-07-07 | Canon Inc | Image capturing apparatus and control method therefor, and program |
| JP2012073466A (en) * | 2010-09-29 | 2012-04-12 | Canon Inc | Imaging apparatus and control method thereof |
| US8619173B2 (en) | 2009-04-08 | 2013-12-31 | Canon Kabushiki Kaisha | Image capturing apparatus and control method therefor |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001128044A (en) * | 1999-10-26 | 2001-05-11 | Minolta Co Ltd | Digital camera, reproduced picture display device and filing method of picture data |
| JP2005223780A (en) * | 2004-02-09 | 2005-08-18 | Hitachi Maxell Ltd | Camera and focusing information display method |
| JP2006108973A (en) * | 2004-10-04 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Image pickup device |
-
2008
- 2008-01-09 JP JP2008001854A patent/JP2009164985A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001128044A (en) * | 1999-10-26 | 2001-05-11 | Minolta Co Ltd | Digital camera, reproduced picture display device and filing method of picture data |
| JP2005223780A (en) * | 2004-02-09 | 2005-08-18 | Hitachi Maxell Ltd | Camera and focusing information display method |
| JP2006108973A (en) * | 2004-10-04 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Image pickup device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009177460A (en) * | 2008-01-24 | 2009-08-06 | Ikegami Tsushinki Co Ltd | Viewfinder display circuit and method |
| US8619173B2 (en) | 2009-04-08 | 2013-12-31 | Canon Kabushiki Kaisha | Image capturing apparatus and control method therefor |
| JP2011135351A (en) * | 2009-12-24 | 2011-07-07 | Canon Inc | Image capturing apparatus and control method therefor, and program |
| JP2012073466A (en) * | 2010-09-29 | 2012-04-12 | Canon Inc | Imaging apparatus and control method thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4535114B2 (en) | Imaging apparatus and imaging method, display control apparatus and display control method, and program | |
| KR102157675B1 (en) | Image photographing apparatus and methods for photographing image thereof | |
| JP4932660B2 (en) | Image recording apparatus and image recording method | |
| US9538085B2 (en) | Method of providing panoramic image and imaging device thereof | |
| RU2446616C2 (en) | Device of image processing, method of image processing | |
| JP5112104B2 (en) | Image processing apparatus and image processing program | |
| KR20100039430A (en) | Image processor, image processing method, digital camera, and imaging apparatus | |
| KR20160128366A (en) | Mobile terminal photographing method and mobile terminal | |
| JPWO2009011082A1 (en) | Image processing apparatus, image processing method, computer program, recording medium recording the computer program, inter-frame motion calculation method, and image processing method | |
| CN107950017B (en) | Image processing device, image processing method, and imaging device | |
| JP2011049822A (en) | Display controller and display control program | |
| JP2009118051A (en) | Signal processing apparatus and processing program | |
| KR20140089672A (en) | Digital photographing apparatus, method for controlling the same, and computer-readable recording medium | |
| JP2009164985A (en) | Imaging apparatus and imaging method, display control apparatus and display control method, program, and recording medium | |
| JP4369263B2 (en) | Digital camera and image signal generation method | |
| JP2013003339A (en) | Image displaying system and method of controlling the same | |
| JP7249212B2 (en) | Image processing device and image processing method, imaging device and control method thereof, system, and program | |
| JP2016076771A (en) | Imaging device | |
| JP2015033020A (en) | Imaging apparatus, imaging method, program and recording medium | |
| JP2012186538A (en) | Electronic camera, image display device, program, and recording medium | |
| CN105530426A (en) | Image capturing apparatus, control method thereof, and storage medium | |
| JP5094686B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP5233611B2 (en) | Image processing apparatus, image processing method, and program | |
| JP7803906B2 (en) | Image processing device, imaging device, image processing method, image processing program, and recording medium | |
| JP2006211650A (en) | Image sensing apparatus and image processing method for use therein |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101018 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111110 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111117 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120306 |