[go: up one dir, main page]

JP2013225020A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2013225020A
JP2013225020A JP2012096862A JP2012096862A JP2013225020A JP 2013225020 A JP2013225020 A JP 2013225020A JP 2012096862 A JP2012096862 A JP 2012096862A JP 2012096862 A JP2012096862 A JP 2012096862A JP 2013225020 A JP2013225020 A JP 2013225020A
Authority
JP
Japan
Prior art keywords
distance
image
subject
depth
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012096862A
Other languages
Japanese (ja)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012096862A priority Critical patent/JP2013225020A/en
Priority to PCT/JP2013/060473 priority patent/WO2013157413A1/en
Publication of JP2013225020A publication Critical patent/JP2013225020A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve focusing performance.SOLUTION: An image sensor 16 outputs raw image data indicating a scene captured on an imaging surface. A CPU 26 adjusts a subject distance to a desired distance on the basis of the output raw image data, and, based on the size of the face image of a person shown on the same raw image data, calculates the distance to the face of the person. The CPU 26 adjusts the depth of a field to a depth of field corresponding to a difference between the two distances calculated or adjusted by the manner described above.

Description

この発明は、電子カメラに関し、特に撮像面で生成された光学像に基づいて撮像条件を調整する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera that adjusts imaging conditions based on an optical image generated on an imaging surface.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、AF手段は、画像データ内の所定のAFエリアからの信号に基づいてフォーカス制御を行う。抽出手段は、画像データから特徴部位を抽出する。顔識別手段は、抽出手段が抽出した特徴部位のうちから人物の顔を識別する。判別手段は、顔識別手段が識別した顔の大きさが所定値以上かどうかを判別する。設定手段は、判別手段の判別結果に応じてAFエリアを設定する。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, the AF means performs focus control based on a signal from a predetermined AF area in the image data. The extraction unit extracts a feature part from the image data. The face identifying means identifies a person's face from the characteristic parts extracted by the extracting means. The discriminating unit discriminates whether or not the size of the face identified by the face discriminating unit is a predetermined value or more. The setting means sets the AF area according to the determination result of the determination means.

特開2004−317699号公報JP 2004-317699 A

しかし、背景技術では、顔の大きさの個人差は考慮されておらず、識別された顔の大きさから被写体距離が決定される場合に誤差が生じる可能性がある。例えば、子供の顔に注目して被写体距離が決定される場合、平均的な大人の顔の大きさと被写体距離とが参照されることによって誤差が生じ、合焦性能が低下する恐れがある。   However, the background art does not consider individual differences in face size, and an error may occur when the subject distance is determined from the identified face size. For example, when the subject distance is determined by paying attention to the child's face, an error may occur due to the reference of the average adult face size and subject distance, and the focusing performance may be reduced.

それゆえに、この発明の主たる目的は、合焦性能を高めることができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can improve focusing performance.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えられたシーンを表す画像を出力する撮像手段(16)、被写体距離を所望の距離に調整する第1調整手段(S17~S19, S27~S31)、撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する算出手段(S67, S121~S123, S127)、および被写界深度を算出手段によって算出された距離と第1調整手段によって調整された距離との相違に対応する深度に調整する第2調整手段(S125, S129, S131, S37, S41)を備える。   An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes an imaging unit (16) for outputting an image representing a scene captured on an imaging plane, and a first unit for adjusting a subject distance to a desired distance. 1 adjusting means (S17 to S19, S27 to S31), calculating means for calculating the distance to the subject corresponding to the specific subject image based on the size of the specific subject image appearing in the image output from the imaging means (S67, S121) ~ S123, S127), and second adjusting means (S125, S129, S131, adjusting the depth of field to a depth corresponding to the difference between the distance calculated by the calculating means and the distance adjusted by the first adjusting means) S37, S41).

好ましくは、算出手段は、特定被写体までの最長距離および最短距離を特定被写体像のサイズに基づいて推定する距離推定手段(S121~S123)、および距離推定手段によって推定された最長距離および最短距離のうち被写体距離との相違が大きい一方の距離を選択する距離選択手段(S127)を含む。   Preferably, the calculating means is a distance estimating means (S121 to S123) for estimating the longest distance and the shortest distance to the specific subject based on the size of the specific subject image, and the longest distance and the shortest distance estimated by the distance estimating means. Of these, distance selection means (S127) for selecting one of the distances having a large difference from the subject distance is included.

好ましくは、第1調整手段は撮像手段から出力された画像に現れた所望の被写体像の高周波成分に基づいて被写体距離を調整する。   Preferably, the first adjustment unit adjusts the subject distance based on a high-frequency component of a desired subject image that appears in the image output from the imaging unit.

好ましくは、第1調整手段は撮像手段から出力された画像のうち特定被写体像が現れた領域の高周波成分に基づいて被写体距離を調整する。   Preferably, the first adjustment unit adjusts the subject distance based on a high-frequency component in a region where the specific subject image appears in the image output from the imaging unit.

好ましくは、第1調整手段は撮像手段から出力された画像のうち既定領域の高周波成分に基づいて被写体距離を調整する処理を撮像準備操作に関連して実行する。   Preferably, the first adjustment unit performs a process of adjusting the subject distance based on the high-frequency component of the predetermined region in the image output from the imaging unit in association with the imaging preparation operation.

好ましくは、撮像面の前方に設けられたフォーカスレンズ(12)がさらに備えられ、第1調整手段はフォーカスレンズと撮像面との間隔を所望の距離に相当する間隔に調整する。   Preferably, a focus lens (12) provided in front of the imaging surface is further provided, and the first adjustment unit adjusts the interval between the focus lens and the imaging surface to an interval corresponding to a desired distance.

この発明に従う合焦制御プログラムは、撮像面で捉えられたシーンを表す画像を出力する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、被写体距離を所望の距離に調整する第1調整ステップ(S17~S19, S27~S31)、撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する算出ステップ(S67, S121~S123, S127)、および被写界深度を算出ステップによって算出された距離と第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップ(S125, S129, S131, S37, S41)を実行させるための、合焦制御プログラムである。   The focus control program according to the present invention adjusts the subject distance to a desired distance in the processor (26) of the electronic camera (10) including the imaging means (16) that outputs an image representing the scene captured on the imaging plane. First adjustment step (S17 to S19, S27 to S31), a calculation step for calculating the distance to the subject corresponding to the specific subject image based on the size of the specific subject image appearing in the image output from the imaging means (S67, S121 to S123, S127) and a second adjustment step (S125, S129, S131) for adjusting the depth of field to a depth corresponding to the difference between the distance calculated by the calculation step and the distance adjusted by the first adjustment step. , S37, S41).

この発明に従う合焦制御方法は、撮像面で捉えられたシーンを表す画像を出力する撮像手段(16)を備える電子カメラ(10)によって実行される合焦制御方法であって、被写体距離を所望の距離に調整する第1調整ステップ(S17~S19, S27~S31)、撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する算出ステップ(S67, S121~S123, S127)、および被写界深度を算出ステップによって算出された距離と第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップ(S125, S129, S131, S37, S41)を備える。   A focus control method according to the present invention is a focus control method executed by an electronic camera (10) provided with an imaging means (16) that outputs an image representing a scene captured on an imaging surface, wherein a subject distance is desired A first adjustment step (S17 to S19, S27 to S31) for adjusting the distance to the distance to the subject, the distance to the subject corresponding to the specific subject image is calculated based on the size of the specific subject image appearing in the image output from the imaging means A calculation step (S67, S121 to S123, S127) and a second adjustment step of adjusting the depth of field to a depth corresponding to the difference between the distance calculated by the calculation step and the distance adjusted by the first adjustment step ( S125, S129, S131, S37, S41).

この発明に従う外部制御プログラムは、撮像面で捉えられたシーンを表す画像を出力する撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、被写体距離を所望の距離に調整する第1調整ステップ(S17~S19, S27~S31)、撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する算出ステップ(S67, S121~S123, S127)、および被写界深度を算出ステップによって算出された距離と第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップ(S125, S129, S131, S37, S41)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   The external control program according to the present invention includes an imaging means (16) for outputting an image representing a scene captured on the imaging surface, and a processor (26) for executing processing according to the internal control program stored in the memory (44). A first control step (S17 to S19, S27 to S31) for adjusting a subject distance to a desired distance, and an identification program appearing in an image output from an imaging means, which is an external control program supplied to the electronic camera (10) A calculation step (S67, S121 to S123, S127) for calculating the distance to the subject corresponding to the specific subject image based on the size of the subject image, and the first adjustment step and the distance calculated by the depth of field calculation step An external control program for causing the processor to execute a second adjustment step (S125, S129, S131, S37, S41) for adjusting the depth corresponding to the difference from the distance adjusted by the system in cooperation with the internal control program It is a non.

この発明に従う電子カメラ(10)は、撮像面で捉えられたシーンを表す画像を出力する撮像手段(16)、外部制御プログラムを取り込む取り込み手段(60)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、外部制御プログラムは、被写体距離を所望の距離に調整する第1調整ステップ(S17~S19, S27~S31)、撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する算出ステップ(S67, S121~S123, S127)、および被写界深度を算出ステップによって算出された距離と第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップ(S125, S129, S131, S37, S41)を内部制御プログラムと協働して実行するプログラムに相当する。   An electronic camera (10) according to the present invention includes an image pickup means (16) for outputting an image representing a scene captured on an image pickup surface, a fetch means (60) for fetching an external control program, and an external control program fetched by the fetch means And an internal camera that executes processing according to the internal control program stored in the memory (44). The external control program includes a first adjustment step (S17 to S19, S19 to S19, for adjusting the subject distance to a desired distance). S27 to S31), a calculation step (S67, S121 to S123, S127) for calculating a distance to the subject corresponding to the specific subject image based on the size of the specific subject image that appears in the image output from the imaging means, A second adjustment step (S125, S129, S131, S) for adjusting the depth of field to a depth corresponding to the difference between the distance calculated in the calculation step and the distance adjusted in the first adjustment step. 37, S41) corresponds to a program that executes in cooperation with the internal control program.

この発明によれば、特定被写体までの距離は、特定被写体像のサイズに基づいて算出される。被写界深度は、算出された距離と第1調整手段によって調整された被写体距離との相違に対応する深度に調整される。これによって、被写体距離に存在する被写体および特定被写体の両方について高い鮮鋭度が確保される。こうして合焦性能が向上する。   According to the present invention, the distance to the specific subject is calculated based on the size of the specific subject image. The depth of field is adjusted to a depth corresponding to the difference between the calculated distance and the subject distance adjusted by the first adjusting means. This ensures high sharpness for both the subject existing at the subject distance and the specific subject. Thus, the focusing performance is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 顔検出処理において用いられる顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the face detection frame used in a face detection process. 顔検出処理において参照される顔辞書の構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the face dictionary referred in a face detection process. 顔検出処理の一部を示す図解図である。It is an illustration figure which shows a part of face detection process. 図2実施例において参照されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register referred to in the embodiment in FIG. 2; 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a configuration of another register referred to in the embodiment in FIG. 2; 被写界深度算出処理の一部を示す図解図である。It is an illustration figure which shows a part of depth-of-field calculation process. LCDモニタに表示された画像の一例を示す図解図である。It is an illustration figure which shows an example of the image displayed on the LCD monitor. 被写界深度算出処理の他の一部を示す図解図である。It is an illustration figure which shows another part of depth-of-field calculation processing. LCDモニタに表示された画像の他の一例を示す図解図である。It is an illustration figure which shows another example of the image displayed on the LCD monitor. (A)はLCDモニタに表示された画像のその他の一例を示す図解図であり、(B)はLCDモニタに表示された画像のさらにその他の一例を示す図解図である。(A) is an illustrative view showing another example of an image displayed on the LCD monitor, and (B) is an illustrative view showing still another example of the image displayed on the LCD monitor. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、撮像面で捉えられたシーンを表す画像を出力する。第1調整手段2は、被写体距離を所望の距離に調整する。算出手段3は、撮像手段1から出力された画像に現れた特定被写体像のサイズに基づいて特定被写体像に相当する被写体までの距離を算出する。第2調整手段4は、被写界深度を算出手段3によって算出された距離と第1調整手段2によって調整された距離との相違に対応する深度に調整する。   Referring to FIG. 1, the electronic camera of this embodiment is basically configured as follows. The imaging unit 1 outputs an image representing a scene captured on the imaging surface. The first adjusting means 2 adjusts the subject distance to a desired distance. The calculation unit 3 calculates the distance to the subject corresponding to the specific subject image based on the size of the specific subject image that appears in the image output from the imaging unit 1. The second adjusting unit 4 adjusts the depth of field to a depth corresponding to the difference between the distance calculated by the calculating unit 3 and the distance adjusted by the first adjusting unit 2.

特定被写体までの距離は、特定被写体像のサイズに基づいて算出される。被写界深度は、算出された距離と第1調整手段2によって調整された被写体距離との相違に対応する深度に調整される。これによって、被写体距離に存在する被写体および特定被写体の両方について高い鮮鋭度が確保される。こうして合焦性能が向上する。
[実施例]
The distance to the specific subject is calculated based on the size of the specific subject image. The depth of field is adjusted to a depth corresponding to the difference between the calculated distance and the subject distance adjusted by the first adjusting means 2. This ensures high sharpness for both the subject existing at the subject distance and the specific subject. Thus, the focusing performance is improved.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、シーンを表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the scene that has passed through these members is irradiated onto the imaging surface of the image sensor 16 and subjected to photoelectric conversion. As a result, a charge representing the scene is generated.

電源が投入されると、CPU26は、動画取り込み処理を実行するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。CPU26はまた、初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置する。   When the power is turned on, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge readout operation under the imaging task in order to execute the moving image capturing process. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data based on the read charges is periodically output. The CPU 26 also arranges the focus lens 12 at the pan focus position that is the initial setting position.

前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the image sensor 16. The raw image data subjected to these processes is written into the raw image area 32a (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32b(図3参照)に書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32c(図3参照)に書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The post-processing circuit 34 further performs display zoom processing and search zoom processing in parallel on the image data in the YUV format. As a result, display image data and search image data conforming to the YUV format are individually created. The display image data is written into the display image area 32b (see FIG. 3) of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32c (see FIG. 3) of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the LCD monitor 38.

図4を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 4, an evaluation area EVA is assigned to the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。こうして得られたAE評価値およびAF評価値に基づく処理については、後述する。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync. The AF evaluation circuit 24 integrates the high-frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync. Processing based on the AE evaluation value and the AF evaluation value obtained in this way will be described later.

撮像タスクと並列して実行される顔検出タスクの下で、CPU26は、フラグFLGfcを“0”に初期設定する。CPU26は次に、探索画像エリア32cに格納された探索画像データから人物の顔画像を探索するべく、垂直同期信号Vsyncが発生する毎に顔検出処理を実行する。   Under the face detection task executed in parallel with the imaging task, the CPU 26 initializes the flag FLGfc to “0”. Next, the CPU 26 executes face detection processing each time the vertical synchronization signal Vsync is generated in order to search for a human face image from the search image data stored in the search image area 32c.

顔検出処理では、図5に示す要領でサイズが調整される顔検出枠FDと図6に示す5つの辞書画像(=向きが互いに異なる顔画像)を収めた顔辞書DCとが用いられる。なお、顔辞書DCはフラッシュメモリ44に保存される。   In the face detection process, a face detection frame FD whose size is adjusted in the manner shown in FIG. 5 and a face dictionary DC containing five dictionary images (= face images with different orientations) shown in FIG. 6 are used. The face dictionary DC is stored in the flash memory 44.

顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxが“200”に設定され、最小サイズFSZminが“20”に設定される。   In the face detection process, first, the entire evaluation area EVA is set as a search area. Further, in order to define a variable range of the size of the face detection frame FD, the maximum size FSZmax is set to “200”, and the minimum size FSZmin is set to “20”.

顔検出枠FDは、顔部探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図7参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“FSZmax”から“FSZmin”まで“5”ずつ縮小される。   The face detection frame FD is moved by a predetermined amount in a raster scanning manner from the start position (upper left position) to the end position (lower right position) of the face search area (see FIG. 7). The size of the face detection frame FD is reduced by “5” from “FSZmax” to “FSZmin” every time the face detection frame FD reaches the end position.

顔検出枠FDに属する一部の探索画像データは、メモリ制御回路30を通して探索画像エリア32cから読み出される。読み出された探索画像データの特徴量は、顔辞書DCに収められた5つの辞書画像の各々の特徴量と照合される。閾値THを超える照合度が得られると、顔画像が検出されたものとみなされる。現時点の顔検出枠FDの位置,サイズ,および照合元の辞書番号は、顔情報として図8に示す顔検出レジスタRGSTdtに登録される。   A part of the search image data belonging to the face detection frame FD is read from the search image area 32 c through the memory control circuit 30. The feature amount of the read search image data is collated with the feature amount of each of the five dictionary images stored in the face dictionary DC. If a matching degree exceeding the threshold TH is obtained, it is considered that a face image has been detected. The current position and size of the face detection frame FD and the dictionary number of the collation source are registered in the face detection register RGSTdt shown in FIG. 8 as face information.

顔検出処理の完了後、顔検出レジスタRGSTdtに複数の顔情報が登録されていた場合、位置が撮像面中央に最も近い顔情報によって示される領域が、後述する厳格AF処理および被写界深度算出処理の対象領域とされる。顔検出レジスタRGSTdtに単一の顔情報が登録されていた場合、その顔情報によって示される領域が、厳格AF処理および被写界深度算出処理の対象領域とされる。   When a plurality of pieces of face information are registered in the face detection register RGSTdt after the face detection process is completed, the area indicated by the face information whose position is closest to the center of the imaging surface is a strict AF process and depth of field calculation described later. It is a target area for processing. When single face information is registered in the face detection register RGSTdt, an area indicated by the face information is a target area for the strict AF process and the depth of field calculation process.

これらの処理の対象領域とされた顔情報の位置およびサイズは、図9に示す処理対象レジスタRGSTexに登録される。また、CPU26は、人物の顔画像を発見したことを表明するべくフラグFLGfcを“1”に設定する。   The position and size of the face information set as the processing target area are registered in the processing target register RGSTex shown in FIG. Further, the CPU 26 sets a flag FLGfc to “1” in order to announce that the person's face image has been found.

なお、顔検出処理の完了後に顔検出レジスタRGSTdtに顔情報の登録がなかった場合、すなわち顔画像が発見されなかった場合は、CPU26は、顔画像が未発見であることを表明するべくフラグFLGfcを“0”に設定する。   When face information is not registered in the face detection register RGSTdt after the face detection process is completed, that is, when no face image is found, the CPU 26 sets a flag FLGfc to indicate that no face image has been found. Is set to “0”.

シャッタボタン28shが非操作状態のとき、CPU26は、AE評価回路22からの出力に基づく簡易AE処理を撮像タスクの下で実行し、適正EV値を算出する。簡易AE処理は動画取り込み処理と並列して実行され、算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。   When the shutter button 28sh is in the non-operating state, the CPU 26 executes a simple AE process based on the output from the AE evaluation circuit 22 under the imaging task, and calculates an appropriate EV value. The simple AE process is executed in parallel with the moving image capturing process, and the aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image is appropriately adjusted.

シャッタボタン28shが半押しされると、CPU26は撮像タスクの下で、AE評価回路22から出力された256個のAE評価値に基づき、厳格AE処理を実行する。厳格AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが厳格に調整される。   When the shutter button 28sh is half-pressed, the CPU 26 executes a strict AE process based on the 256 AE evaluation values output from the AE evaluation circuit 22 under the imaging task. The aperture amount and the exposure time that define the optimum EV value calculated by the strict AE process are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image is adjusted strictly.

フラグFLGfcが“1”を示すとき、撮像タスクの下でCPU26は、処理対象レジスタRGSTexに登録された顔情報が示す領域に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、処理対象レジスタRGSTexに格納された位置およびサイズに対応するAF評価値を抽出する。処理対象レジスタRGSTexに登録された顔情報が示す領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるその領域の鮮鋭度が向上する。   When the flag FLGfc indicates “1”, under the imaging task, the CPU 26 executes a strict AF process focusing on the area indicated by the face information registered in the processing target register RGSTex. The CPU 26 extracts an AF evaluation value corresponding to the position and size stored in the processing target register RGSTex from the 256 AF evaluation values output from the AF evaluation circuit 24. The focus lens 12 is arranged at a focal point focusing on the area indicated by the face information registered in the processing target register RGSTex, and the sharpness of the area in the through image is improved.

フラグFLGfcが“1”を示すときまた、撮像タスクの下でCPU26は、処理対象レジスタRGSTexに登録された顔を対象とした被写界深度算出処理を実行する。   When the flag FLGfc indicates “1”, under the imaging task, the CPU 26 executes a depth-of-field calculation process for the face registered in the processing target register RGSTex.

被写界深度算出処理においては、まず、処理対象レジスタRGSTexに登録されたサイズから顔の大きさの個人差を考慮して推定される発見された顔までの最大の距離Lmaxおよび最小の距離Lminが算出される。また、上述の厳格AF処理の実行によって配置されたフォーカスレンズ12の位置に基づいて、厳格AF処理の対象領域に含まれる被写体までの距離(=AF距離)Lafが検出される。   In the depth of field calculation process, first, the maximum distance Lmax and the minimum distance Lmin from the size registered in the processing target register RGSTex to the discovered face estimated in consideration of individual differences in face size. Is calculated. Further, the distance (= AF distance) Laf to the subject included in the target area of the strict AF process is detected based on the position of the focus lens 12 arranged by executing the strict AF process.

このようにして算出された最大距離LmaxおよびAF距離Lafの差分の絶対値と最小距離LminおよびAF距離Lafの差分の絶対値とを比較し、大きい方の値を2倍することによって被写界深度Dhbが算出される。   The absolute value of the difference between the maximum distance Lmax and the AF distance Laf calculated in this way is compared with the absolute value of the difference between the minimum distance Lmin and the AF distance Laf, and the larger value is doubled to increase the object field. The depth Dhb is calculated.

CPU26は、被写界深度算出処理によって算出された被写界深度Dhbに基づいて絞りユニット14を調整すべき旨をドライバ18bに命令する。この結果、被写界深度が算出深度Dhbに変更される。   The CPU 26 instructs the driver 18b to adjust the aperture unit 14 based on the depth of field Dhb calculated by the depth of field calculation process. As a result, the depth of field is changed to the calculated depth Dhb.

厳格AF処理の結果、検出された顔画像に係る人物よりも至近側に、格子状の金網等で構成される障害物が存在した場合、その障害物に合焦される可能性がある。図10に示す例によると、格子状の金網によって構成される柵FCが人物HBよりも至近側に存在し、厳格AF処理の結果、柵FCの位置Paf1に基づいてフォーカスレンズ12が配置される。この場合、AF距離Lafはフォーカスレンズ12および柵FCの距離を示す。   As a result of the strict AF process, when an obstacle composed of a grid-like wire mesh or the like is present closer to the person related to the detected face image, the obstacle may be focused. According to the example shown in FIG. 10, the fence FC constituted by a latticed wire net is present on the near side from the person HB, and the focus lens 12 is arranged based on the position Paf1 of the fence FC as a result of the strict AF processing. . In this case, the AF distance Laf indicates the distance between the focus lens 12 and the fence FC.

またこの場合、最大距離LmaxおよびAF距離Lafの差分の絶対値が最小距離LminおよびAF距離Lafの差分の絶対値よりも大きいので、被写界深度Dhbは、以下の数1に示す式で求めることができる。
[数1]
Dhb=|Lmax−Laf|×2
In this case, since the absolute value of the difference between the maximum distance Lmax and the AF distance Laf is larger than the absolute value of the difference between the minimum distance Lmin and the AF distance Laf, the depth of field Dhb is obtained by the following equation (1). be able to.
[Equation 1]
Dhb = | Lmax−Laf | × 2

このようにして算出された値に基づいて被写界深度が変更されるので、柵FCを基準に厳格AF処理が実行された場合であっても、人物HBの顔が合焦範囲に含まれる。したがって、LCDモニタ38に表示されるスルー画像は、柵FCおよび人物HBの顔のいずれにも合焦された状態となる(図11参照)。   Since the depth of field is changed based on the value calculated in this way, the face of the person HB is included in the in-focus range even when the strict AF process is executed with reference to the fence FC. . Therefore, the through image displayed on the LCD monitor 38 is focused on both the fence FC and the face of the person HB (see FIG. 11).

シャッタボタン28shが非操作状態のとき、LCDモニタ38に対する操作者のタッチ操作によってAF対象領域の指定操作が行われると、タッチ位置がタッチセンサ50によって検知され、検知結果はCPU26に与えられる。   When the shutter button 28 sh is in a non-operating state, if an AF target area designation operation is performed by an operator's touch operation on the LCD monitor 38, the touch position is detected by the touch sensor 50, and the detection result is given to the CPU 26.

次にCPU26は、タッチ位置に相当する領域に注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、タッチ位置に対応するAF評価値を抽出する。タッチ位置に相当する領域に注目した合焦点にフォーカスレンズ12が配置され、スルー画像におけるその領域の鮮鋭度が向上する。   Next, the CPU 26 executes a strict AF process focusing on an area corresponding to the touch position. The CPU 26 extracts an AF evaluation value corresponding to the touch position from 256 AF evaluation values output from the AF evaluation circuit 24. The focus lens 12 is disposed at a focal point focusing on the area corresponding to the touch position, and the sharpness of the area in the through image is improved.

AF領域の指定操作によって厳格AF処理が実行された場合、シャッタボタン28shが半押しされたとき、上述の厳格AE処理の実行後に厳格AF処理は実行されない。ただし、フラグFLGfcが“1”を示すとき、撮像タスクの下でCPU26は、処理対象レジスタRGSTexに登録された顔を対象とした被写界深度算出処理を、上述と同様に実行する。CPU26は、被写界深度算出処理によって算出された被写界深度Dhbに基づいて絞りユニット14を調整すべき旨をドライバ18bに命令する。この結果、上述と同様に被写界深度が算出深度Dhbに変更される。   When the strict AF process is executed by the AF area specifying operation, the strict AF process is not executed after the strict AE process is executed when the shutter button 28sh is half-pressed. However, when the flag FLGfc indicates “1”, under the imaging task, the CPU 26 executes the depth-of-field calculation process for the face registered in the processing target register RGSTex in the same manner as described above. The CPU 26 instructs the driver 18b to adjust the aperture unit 14 based on the depth of field Dhb calculated by the depth of field calculation process. As a result, the depth of field is changed to the calculated depth Dhb as described above.

AF領域の指定操作による厳格AF処理が実行された場合、操作者の操作に従って人物以外の物体に合焦される可能性がある。図12に示す例によると、LCDモニタ38上に表示された石碑STを操作者が指定した場合、厳格AF処理の結果、石碑STの位置Paf2に基づいてフォーカスレンズ12が配置される。この場合、AF距離Lafはフォーカスレンズ12および石碑STの距離を示す。   When the strict AF process is performed by the AF area specifying operation, there is a possibility that an object other than a person is focused according to the operation of the operator. According to the example shown in FIG. 12, when the operator designates the monument ST displayed on the LCD monitor 38, the focus lens 12 is arranged based on the position Paf2 of the monument ST as a result of the strict AF process. In this case, the AF distance Laf indicates the distance between the focus lens 12 and the monument ST.

またこの場合、最小距離LminおよびAF距離Lafの差分の絶対値が最大距離LmaxおよびAF距離Lafの差分の絶対値よりも大きいので、被写界深度Dhbは、以下の数2に示す式で求めることができる。
[数2]
Dhb=|Lmin−Laf|×2
In this case, since the absolute value of the difference between the minimum distance Lmin and the AF distance Laf is larger than the absolute value of the difference between the maximum distance Lmax and the AF distance Laf, the depth of field Dhb is obtained by the following equation (2). be able to.
[Equation 2]
Dhb = | Lmin−Laf | × 2

このようにして算出された値に基づいて被写界深度が変更されるので、石碑STを基準に厳格AF処理が実行された場合であっても、人物HBの顔が合焦範囲に含まれる。したがって、LCDモニタ38に表示されるスルー画像は、石碑STおよび人物HBの顔のいずれにも合焦された状態となる(図13参照)。   Since the depth of field is changed based on the value calculated in this manner, the face of the person HB is included in the in-focus range even when the strict AF process is executed based on the stone monument ST. . Therefore, the through image displayed on the LCD monitor 38 is focused on both the monument ST and the face of the person HB (see FIG. 13).

AF領域の指定操作が行われずにシャッタボタン28shが半押しされたとき、上述の厳格AE処理の実行後にフラグFLGfcが“0”を示す場合、つまり人物の顔が未発見の場合、撮像タスクの下でCPU26は、画面中央に注目した厳格AF処理を実行する。この結果、スルー画像における画面中央の鮮鋭度が向上する。   When the shutter button 28sh is pressed halfway without performing the AF area designation operation, if the flag FLGfc indicates “0” after the above-described strict AE processing is executed, that is, if the face of the person is not found, the imaging task Below, CPU26 performs the strict AF process which paid its attention to the screen center. As a result, the sharpness of the screen center in the through image is improved.

その後シャッタボタン28shの半押し状態が維持されたまま、操作者がディジタルカメラ10を動かした場合、撮像面の向きが変化したことによって人物の顔画像が発見されると、フラグFLGfcが示す値が“0”から“1”に更新される。この場合、撮像タスクの下でCPU26は、処理対象レジスタRGSTexに登録された顔を対象とした被写界深度算出処理を、上述と同様に実行する。この結果、上述と同様に被写界深度が算出深度Dhbに変更される。   Thereafter, when the operator moves the digital camera 10 while the shutter button 28sh is half-pressed, if a face image of a person is found due to the change in the orientation of the imaging surface, the value indicated by the flag FLGfc is It is updated from “0” to “1”. In this case, under the imaging task, the CPU 26 executes the depth-of-field calculation processing for the face registered in the processing target register RGSTex in the same manner as described above. As a result, the depth of field is changed to the calculated depth Dhb as described above.

図14(A)を参照して、人物HBの両手で持ち上げられた花FWが画面中央に存在するときにシャッタボタン28shが半押しされた場合、厳格AE処理の完了直後に人物HBの顔画像が未発見であるときは、画面中央に注目した厳格AF処理が実行される。   Referring to FIG. 14A, when the shutter button 28sh is pressed halfway when the flower FW lifted by both hands of the person HB is present in the center of the screen, the face image of the person HB immediately after the completion of the strict AE process Is not found, a strict AF process focusing on the center of the screen is executed.

その後シャッタボタン28shの半押し状態が維持されたまま、撮像面の向きの変化によって人物の顔画像が図14(B)に示すように撮像面に捉えられると、顔画像を対象とした被写界深度算出処理が実行され、被写界深度が算出深度Dhbに変更される。   Thereafter, when the face image of the person is captured on the imaging surface as shown in FIG. 14B by changing the orientation of the imaging surface while the half-pressed state of the shutter button 28sh is maintained, the subject image of the face image is captured. The depth of field calculation process is executed, and the depth of field is changed to the calculated depth Dhb.

この場合、花FWを基準に厳格AF処理が実行された場合であっても、人物HBの顔が合焦範囲に含まれる。したがって、LCDモニタ38に表示されるスルー画像は、花FWおよび人物HBの顔のいずれにも合焦された状態となる。   In this case, even when the strict AF process is executed based on the flower FW, the face of the person HB is included in the focus range. Accordingly, the through image displayed on the LCD monitor 38 is focused on both the flower FW and the face of the person HB.

シャッタボタン28shが全押しされると、CPU26は、撮像タスクの下で静止画取り込み処理と記録処理とを実行する。シャッタボタン28shが全押しされた時点の1フレームの生画像データは、静止画取り込み処理によってSDRAM32の静止画像エリア32d(図3参照)に取り込まれる。また、記録処理によって1つの静止画ファイルが記録媒体42に作成される。取り込まれた生画像データは、新規作成された静止画ファイルに記録処理によって記録される。   When the shutter button 28sh is fully pressed, the CPU 26 executes a still image capturing process and a recording process under the imaging task. The raw image data of one frame at the time when the shutter button 28sh is fully pressed is captured into the still image area 32d (see FIG. 3) of the SDRAM 32 by the still image capturing process. In addition, one still image file is created on the recording medium 42 by the recording process. The captured raw image data is recorded in a newly created still image file by a recording process.

CPU26は、図15〜17に示す撮像タスクおよび図18に示す顔検出タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 executes a plurality of tasks including the imaging task shown in FIGS. 15 to 17 and the face detection task shown in FIG. 18 in parallel. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図15を参照して、ステップS1ではフラグFLGfcに“0”を初期設定する。ステップS3では顔検出タスクを起動し、ステップS5では動画取り込み処理を開始する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。   Referring to FIG. 15, in step S1, “0” is initially set to flag FLGfc. In step S3, a face detection task is activated, and in step S5, a moving image capturing process is started. As a result, a through image representing a scene is displayed on the LCD monitor 38.

ステップS7では初期設定位置であるパンフォーカス位置にフォーカスレンズ12を配置し、ステップS9ではフラグFLGafに“0”を設定する。   In step S7, the focus lens 12 is placed at the pan focus position, which is the initial setting position, and in step S9, "0" is set to the flag FLGaf.

ステップS11ではLCDモニタ38に対する操作者のタッチ操作によってAF領域の指定操作が行われたか否かを判別し、判別結果がYESであればステップS17に進む一方、判別結果がNOであればステップS13に進む。ステップ13ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がYESであればステップS23に進む一方、判別結果がNOであればステップS15で簡易AE処理を実行する。この結果、スルー画像の明るさが適度に調整される。ステップS15の処理が完了すると、ステップS11に戻る。   In step S11, it is determined whether or not an AF area specifying operation has been performed by an operator's touch operation on the LCD monitor 38. If the determination result is YES, the process proceeds to step S17. If the determination result is NO, step S13 is performed. Proceed to In step 13, it is determined whether or not the shutter button 28sh has been half-pressed. If the determination result is YES, the process proceeds to step S23, whereas if the determination result is NO, the simple AE process is executed in step S15. As a result, the brightness of the through image is appropriately adjusted. When the process of step S15 is completed, the process returns to step S11.

ステップS17ではタッチ位置に相当する領域をAF対象と決定し、決定されたAF対象領域に注目した厳格AF処理をステップS19で実行する。ステップS21では、フラグFLGafに“1”を設定する。   In step S17, an area corresponding to the touch position is determined as an AF target, and a strict AF process focusing on the determined AF target area is executed in step S19. In step S21, “1” is set to the flag FLGaf.

ステップS23では、AE評価回路22から出力された256個のAE評価値に基づき、厳格AE処理を実行する。この結果、スルー画像の明るさが厳格に調整される。ステップS25ではフラグFLGafに“0”が設定されているか否かを判別し、判別結果がNOであればステップS35に進む一方、判別結果がYESであればステップS27に進む。   In step S23, a strict AE process is executed based on the 256 AE evaluation values output from the AE evaluation circuit 22. As a result, the brightness of the through image is adjusted strictly. In step S25, it is determined whether or not “0” is set in the flag FLGaf. If the determination result is NO, the process proceeds to step S35, and if the determination result is YES, the process proceeds to step S27.

ステップS27ではフラグFLGfcに“1”が設定されているか否かを判別し、判別結果がYESであればステップS29を経てステップS33に進む一方、判別結果がNOであればステップS31を経てステップS33に進む。   In step S27, it is determined whether or not “1” is set in the flag FLGfc. If the determination result is YES, the process proceeds to step S33 via step S29. If the determination result is NO, the process proceeds to step S33 via step S31. Proceed to

ステップS29では処理対象レジスタRGSTexに登録された顔画像の位置およびサイズに相当する領域をAF対象と決定し、ステップS31では画面中央の既定領域をAF対象と決定する。ステップS29またはS31で決定されたAF対象に注目した厳格AF処理をステップS33で実行する。この結果、スルー画像におけるAF対象の領域の鮮鋭度が向上する。   In step S29, an area corresponding to the position and size of the face image registered in the processing target register RGSTex is determined as an AF target, and in step S31, a predetermined area in the center of the screen is determined as an AF target. Strict AF processing focusing on the AF target determined in step S29 or S31 is executed in step S33. As a result, the sharpness of the AF target area in the through image is improved.

ステップS35ではフラグFLGfcに“1”が設定されているか否かを判別し、判別結果がYESであればステップS37およびS39の処理を経てステップS43に進み、判別結果がNOであればステップS41の処理を経てステップS43に進む。   In step S35, it is determined whether or not “1” is set in the flag FLGfc. If the determination result is YES, the process proceeds to step S43 through steps S37 and S39. If the determination result is NO, the process proceeds to step S41. It progresses to step S43 through a process.

ステップS37では処理対象レジスタRGSTexに登録された顔を対象とした被写界深度算出処理を実行し、算出された被写界深度DhbをステップS39で設定深度と決定する。ステップS41では既定深度を設定深度と決定する。ステップS39またはS41で決定された設定深度に基づいて絞りユニット14を調整すべき旨を、ステップS43でドライバ18bに命令する。この結果、ステップS39またはS41で決定された設定深度に被写界深度が変更される。   In step S37, depth-of-field calculation processing for the face registered in the processing target register RGSTex is executed, and the calculated depth of field Dhb is determined as the set depth in step S39. In step S41, the predetermined depth is determined as the set depth. In step S43, the driver 18b is commanded to adjust the aperture unit 14 based on the set depth determined in step S39 or S41. As a result, the depth of field is changed to the set depth determined in step S39 or S41.

ステップS45ではシャッタボタン28shが全押しされたか否かを判別し、判別結果がNOであればシャッタボタン28shの半押し状態が解除されたか否かをステップS47で判別する。ステップS47の判別結果がNOであればステップS35に戻る一方、ステップS47の判別結果がYESであればステップS7に戻る。   In step S45, it is determined whether or not the shutter button 28sh has been fully pressed. If the determination result is NO, it is determined in step S47 whether or not the half-pressed state of the shutter button 28sh has been released. If the determination result in step S47 is NO, the process returns to step S35, while if the determination result in step S47 is YES, the process returns to step S7.

ステップS45の判別結果がYESであれば、ステップS49で静止画取り込み処理を実行し、ステップS51で記録処理を実行する。シャッタボタン28shが全押しされた時点の1フレームの生画像データは、静止画取り込み処理によってSDRAM32の静止画像エリア32dに取り込まれる。また、記録処理によって1つの静止画ファイルが記録媒体42に作成される。取り込まれた生画像データは、新規作成された静止画ファイルに記録処理によって記録される。ステップS51の処理が完了するとステップS7に戻る。   If the decision result in the step S45 is YES, a still image capturing process is executed in a step S49, and a recording process is executed in a step S51. One frame of raw image data at the time when the shutter button 28sh is fully pressed is captured in the still image area 32d of the SDRAM 32 by the still image capturing process. In addition, one still image file is created on the recording medium 42 by the recording process. The captured raw image data is recorded in a newly created still image file by a recording process. When the process of step S51 is completed, the process returns to step S7.

図18を参照して、ステップS61ではフラグFLGfcに“0”を設定し、ステップS63では処理対象レジスタRGSTexの格納内容を初期化するべくクリアする。ステップS65では、垂直同期信号Vsyncが発生したか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS67に進む。   Referring to FIG. 18, in step S61, “0” is set to flag FLGfc, and in step S63, the stored contents of processing target register RGSTex are cleared to be initialized. In step S65, it is repeatedly determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, the process proceeds to step S67.

ステップS67では、探索画像データから人物の顔画像を探索するべく、顔検出処理を実行する。ステップS69では、ステップS67の処理によって顔検出レジスタRGSTdtに顔情報が格納されたか否かを判別し、判別結果がYESであればステップS73に進む一方、判別結果がNOであればステップS71に進む。ステップS71ではフラグFLGfcに“0”を設定し、その後にステップS65に戻る。   In step S67, face detection processing is executed to search for a human face image from the search image data. In step S69, it is determined whether or not face information is stored in the face detection register RGSTdt by the process in step S67. If the determination result is YES, the process proceeds to step S73. If the determination result is NO, the process proceeds to step S71. . In step S71, “0” is set in the flag FLGfc, and then the process returns to step S65.

ステップS73では、顔検出レジスタRGSTdtに複数の顔情報が格納されたか否かを判別し、判別結果がNOであればステップS77に進む一方、判別結果がYESであればステップS75の処理を経てステップS77に進む。   In step S73, it is determined whether or not a plurality of pieces of face information are stored in the face detection register RGSTdt. If the determination result is NO, the process proceeds to step S77. If the determination result is YES, the process proceeds to step S75. Proceed to S77.

ステップS75では、顔検出レジスタRGSTdtに格納された位置が撮像面中央に最も近い顔情報を処理対象顔情報と決定し、ステップS77では、処理対象顔情報とされた顔情報の位置およびサイズを、処理対象レジスタRGSTexに格納する。ステップS79ではフラグFLGfcに“1”を設定し、その後にステップS65に戻る。   In step S75, face information whose position stored in the face detection register RGSTdt is closest to the center of the imaging surface is determined as processing target face information. In step S77, the position and size of the face information set as processing target face information are determined. Store in the processing target register RGSTex. In step S79, the flag FLGfc is set to “1”, and then the process returns to step S65.

ステップS67の顔検出処理は、図19〜20に示すサブルーチンに従って実行される。図19を参照して、ステップS81では、顔検出レジスタRGSTdtを初期化すべく格納内容をクリアする。   The face detection process in step S67 is executed according to a subroutine shown in FIGS. Referring to FIG. 19, in step S81, the stored contents are cleared to initialize face detection register RGSTdt.

ステップS83では、評価エリアEVAの全域を探索エリアとして設定する。ステップS85では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxを“200”に設定し、最小サイズFSZminを“20”に設定する。   In step S83, the entire evaluation area EVA is set as a search area. In step S85, the maximum size FSZmax is set to “200” and the minimum size FSZmin is set to “20” in order to define a variable range of the size of the face detection frame FD.

ステップS87では顔検出枠FDのサイズを“FSZmax”に設定し、ステップS89では顔検出枠FDを探索エリアの左上位置に配置する。ステップS91では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。   In step S87, the size of the face detection frame FD is set to “FSZmax”, and in step S89, the face detection frame FD is arranged at the upper left position of the search area. In step S91, a part of the search image data belonging to the face detection frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated.

ステップS93では変数Nを“1”に設定し、ステップS95では、ステップS91で算出された特徴量と顔辞書DCのN番目に収められた辞書画像の特徴量とを照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS97で判別し、判別結果がNOであればステップS101に進む一方、判別結果がYESであればステップS99に進む。ステップS99では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出レジスタRGSTdtに登録する。   In step S93, the variable N is set to “1”. In step S95, the feature amount calculated in step S91 is collated with the feature amount of the Nth dictionary image stored in the face dictionary DC. As a result of the collation, whether or not a collation degree exceeding the threshold value TH is determined in step S97. If the determination result is NO, the process proceeds to step S101, and if the determination result is YES, the process proceeds to step S99. In step S99, the current position and size of the face detection frame FD are registered in the face detection register RGSTdt as face information.

ステップS101では変数Nをインクリメントし、ステップS103では変数Nが“5”を超えたか否かを判別する。判別結果がNOであればステップS95に戻る一方、判別結果がYESであればステップS105に進む。   In step S101, the variable N is incremented, and in step S103, it is determined whether or not the variable N exceeds “5”. If the determination result is NO, the process returns to step S95, while if the determination result is YES, the process proceeds to step S105.

ステップS105では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS109に進む一方、判別結果がNOであれば、ステップS107で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS91に戻る。   In step S105, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is YES, the process proceeds to step S109. If the determination result is NO, the face detection is performed in step S107. The frame FD is moved in the raster direction by a predetermined amount, and then the process returns to step S91.

ステップS109では顔検出枠FDのサイズが“FSZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS111に進む。   In step S109, it is determined whether or not the size of the face detection frame FD is equal to or less than “FSZmin”. If the determination result is YES, the process returns to the upper layer routine. If the determination result is NO, the process proceeds to step S111. .

ステップS111では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS113では顔検出枠FDを探索エリアの左上位置に配置する。ステップS113の処理が完了すると、ステップS91に戻る。   In step S111, the size of the face detection frame FD is reduced by “5”, and in step S113, the face detection frame FD is arranged at the upper left position of the search area. When the process of step S113 is completed, the process returns to step S91.

ステップS37の被写界深度算出処理(顔対象)は、図21に示すサブルーチンに従って実行される。図21を参照して、ステップS121では、処理対象レジスタRGSTexに登録されたサイズに基づいて推定される発見された顔までの最大の距離Lmaxを算出する。ステップS123では、処理対象レジスタRGSTexに登録されたサイズに基づいて推定される発見された顔までの最小の距離Lminを算出する。   The depth of field calculation process (face object) in step S37 is executed according to a subroutine shown in FIG. Referring to FIG. 21, in step S121, the maximum distance Lmax to the discovered face estimated based on the size registered in the processing target register RGSTex is calculated. In step S123, the minimum distance Lmin to the discovered face estimated based on the size registered in the processing target register RGSTex is calculated.

ステップS125では、ステップS19またはS33の厳格AF処理の実行によって配置されたフォーカスレンズ12の位置に基づいて、AF距離Lafを検出する。   In step S125, the AF distance Laf is detected based on the position of the focus lens 12 arranged by executing the strict AF process in step S19 or S33.

ステップS127では、ステップS121で算出された最大距離LmaxおよびAF距離Lafの差分の絶対値がステップS123で算出された最小距離LminおよびAF距離Lafの差分の絶対値以上の値を示すか否かを判別する。判別結果がYESであればステップS129に進み、判別結果がNOであればステップS131に進む。   In step S127, it is determined whether or not the absolute value of the difference between the maximum distance Lmax and the AF distance Laf calculated in step S121 is greater than or equal to the absolute value of the difference between the minimum distance Lmin and the AF distance Laf calculated in step S123. Determine. If the determination result is YES, the process proceeds to step S129, and if the determination result is NO, the process proceeds to step S131.

ステップS129では、最大距離LmaxおよびAF距離Lafの差分の絶対値に“2”を乗じて被写界深度Dhbを算出し、ステップS131では、最小距離LminおよびAF距離Lafの差分の絶対値に“2”を乗じて被写界深度Dhbを算出する。ステップS129またはS131の処理が完了すると、上階層のルーチンに復帰する。   In step S129, the depth of field Dhb is calculated by multiplying the absolute value of the difference between the maximum distance Lmax and the AF distance Laf by “2”. In step S131, the absolute value of the difference between the minimum distance Lmin and the AF distance Laf is “ Multiply by 2 ″ to calculate the depth of field Dhb. When the process of step S129 or S131 is completed, the process returns to the upper hierarchy routine.

以上の説明から分かるように、イメージセンサ16は、撮像面で捉えられたシーンを表す生画像データを出力する。CPU26は、出力された生画像データに基づいて被写体距離を所望の距離に調整し(S17~S19, S27~S31)、同じ生画像データに現われた人物の顔画像のサイズに基づいて人物の顔部までの距離を算出する(S67, S121~S123, S127)。CPU26はまた、被写界深度を上述の要領で算出ないし調整された2つの距離の相違に対応する深度に調整する(S125, S129, S131, S37, S41)。   As can be seen from the above description, the image sensor 16 outputs raw image data representing a scene captured on the imaging surface. The CPU 26 adjusts the subject distance to a desired distance based on the output raw image data (S17 to S19, S27 to S31), and the person's face based on the size of the person's face image appearing in the same raw image data. The distance to the part is calculated (S67, S121 to S123, S127). The CPU 26 also adjusts the depth of field to a depth corresponding to the difference between the two distances calculated or adjusted as described above (S125, S129, S131, S37, S41).

このように、人物の顔部までの距離は、顔画像のサイズに基づいて算出される。被写界深度は、算出された距離と調整された被写体距離との相違に対応する深度に調整される。これによって、被写体距離に存在する被写体および人物の顔部の両方について高い鮮鋭度が確保される。こうして合焦性能が向上する。   As described above, the distance to the face of the person is calculated based on the size of the face image. The depth of field is adjusted to a depth corresponding to the difference between the calculated distance and the adjusted subject distance. As a result, high sharpness is ensured for both the subject existing at the subject distance and the face of the person. Thus, the focusing performance is improved.

なお、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図22に示す要領でディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 44 in advance. However, a communication I / F 60 for connecting to an external server is provided in the digital camera 10 in the manner shown in FIG. 22, and some control programs are prepared as internal control programs in the flash memory 44 from the beginning, while other parts are prepared. These control programs may be acquired from an external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU26によって実行される処理を、図15〜17に示す撮像タスクおよび図18に示す顔検出タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 26 is divided into a plurality of tasks including an imaging task shown in FIGS. 15 to 17 and a face detection task shown in FIG. However, these tasks may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when the transfer task is divided into a plurality of small tasks, all or part of the transfer task may be acquired from an external server.

また、この実施例では、ディジタルスチルカメラを用いて説明したが、本発明は、ディジタルビデオカメラ,携帯電話端末またはスマートフォンなどにも適用することができる。   In this embodiment, the digital still camera has been described. However, the present invention can also be applied to a digital video camera, a mobile phone terminal, a smartphone, or the like.

10 …ディジタルカメラ
12 …フォーカスレンズ
14 …絞りユニット
16 …イメージセンサ
26 …CPU
32 …SDRAM
38 …LCDモニタ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... Focus lens 14 ... Aperture unit 16 ... Image sensor 26 ... CPU
32 ... SDRAM
38 ... LCD monitor

Claims (10)

撮像面で捉えられたシーンを表す画像を出力する撮像手段、
被写体距離を所望の距離に調整する第1調整手段、
前記撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて前記特定被写体像に相当する被写体までの距離を算出する算出手段、および
被写界深度を前記算出手段によって算出された距離と前記第1調整手段によって調整された距離との相違に対応する深度に調整する第2調整手段を備える、電子カメラ。
Imaging means for outputting an image representing a scene captured on the imaging surface;
First adjusting means for adjusting the subject distance to a desired distance;
A calculating unit that calculates a distance to a subject corresponding to the specific subject image based on a size of the specific subject image that appears in the image output from the imaging unit; and a distance in which the depth of field is calculated by the calculating unit And an electronic camera comprising second adjusting means for adjusting to a depth corresponding to the difference between the distance adjusted by the first adjusting means.
前記算出手段は、前記特定被写体までの最長距離および最短距離を前記特定被写体像のサイズに基づいて推定する距離推定手段、および前記距離推定手段によって推定された最長距離および最短距離のうち前記被写体距離との相違が大きい一方の距離を選択する距離選択手段を含む、請求項1記載の電子カメラ。   The calculating means estimates a longest distance and a shortest distance to the specific subject based on a size of the specific subject image, and the subject distance among the longest distance and the shortest distance estimated by the distance estimating means The electronic camera according to claim 1, further comprising distance selection means for selecting one of the distances having a large difference from. 前記第1調整手段は前記撮像手段から出力された画像に現れた所望の被写体像の高周波成分に基づいて前記被写体距離を調整する、請求項1または2記載の電子カメラ。   The electronic camera according to claim 1, wherein the first adjustment unit adjusts the subject distance based on a high-frequency component of a desired subject image that appears in the image output from the imaging unit. 前記第1調整手段は前記撮像手段から出力された画像のうち前記特定被写体像が現れた領域の高周波成分に基づいて前記被写体距離を調整する、請求項1または2記載の電子カメラ。   3. The electronic camera according to claim 1, wherein the first adjustment unit adjusts the subject distance based on a high-frequency component of a region where the specific subject image appears in the image output from the imaging unit. 前記第1調整手段は前記撮像手段から出力された画像のうち既定領域の高周波成分に基づいて前記被写体距離を調整する処理を撮像準備操作に関連して実行する、請求項1または2記載の電子カメラ。   3. The electronic device according to claim 1, wherein the first adjustment unit performs a process of adjusting the subject distance based on a high-frequency component of a predetermined region in the image output from the imaging unit in association with an imaging preparation operation. camera. 前記撮像面の前方に設けられたフォーカスレンズをさらに備え、
前記第1調整手段は前記フォーカスレンズと前記撮像面との間隔を前記所望の距離に相当する間隔に調整する、請求項1ないし5のいずれかに記載の電子カメラ。
A focus lens provided in front of the imaging surface;
The electronic camera according to claim 1, wherein the first adjustment unit adjusts an interval between the focus lens and the imaging surface to an interval corresponding to the desired distance.
撮像面で捉えられたシーンを表す画像を出力する撮像手段を備える電子カメラのプロセッサに、
被写体距離を所望の距離に調整する第1調整ステップ、
前記撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて前記特定被写体像に相当する被写体までの距離を算出する算出ステップ、および
被写界深度を前記算出ステップによって算出された距離と前記第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップを実行させるための、合焦制御プログラム。
In the processor of an electronic camera provided with an imaging means for outputting an image representing a scene captured on the imaging surface,
A first adjustment step for adjusting the subject distance to a desired distance;
A calculation step of calculating a distance to a subject corresponding to the specific subject image based on a size of the specific subject image appearing in the image output from the imaging unit; and a distance in which the depth of field is calculated by the calculation step And a focus control program for executing a second adjustment step for adjusting to a depth corresponding to the difference between the distance adjusted by the first adjustment step.
撮像面で捉えられたシーンを表す画像を出力する撮像手段を備える電子カメラによって実行される合焦制御方法であって、
被写体距離を所望の距離に調整する第1調整ステップ、
前記撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて前記特定被写体像に相当する被写体までの距離を算出する算出ステップ、および
被写界深度を前記算出ステップによって算出された距離と前記第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップを備える、合焦制御方法。
A focusing control method executed by an electronic camera including an imaging unit that outputs an image representing a scene captured on an imaging surface,
A first adjustment step for adjusting the subject distance to a desired distance;
A calculation step of calculating a distance to a subject corresponding to the specific subject image based on a size of the specific subject image appearing in the image output from the imaging unit; and a distance in which the depth of field is calculated by the calculation step And a second adjustment step for adjusting to a depth corresponding to the difference between the distance adjusted by the first adjustment step.
撮像面で捉えられたシーンを表す画像を出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
被写体距離を所望の距離に調整する第1調整ステップ、
前記撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて前記特定被写体像に相当する被写体までの距離を算出する算出ステップ、および
被写界深度を前記算出ステップによって算出された距離と前記第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to an electronic camera comprising an imaging means for outputting an image representing a scene captured on an imaging surface, and a processor for executing processing according to an internal control program stored in a memory,
A first adjustment step for adjusting the subject distance to a desired distance;
A calculation step of calculating a distance to a subject corresponding to the specific subject image based on a size of the specific subject image appearing in the image output from the imaging unit; and a distance in which the depth of field is calculated by the calculation step And an external control program for causing the processor to execute a second adjustment step for adjusting the depth corresponding to the difference between the distance and the distance adjusted by the first adjustment step in cooperation with the internal control program.
撮像面で捉えられたシーンを表す画像を出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
被写体距離を所望の距離に調整する第1調整ステップ、
前記撮像手段から出力された画像に現れた特定被写体像のサイズに基づいて前記特定被写体像に相当する被写体までの距離を算出する算出ステップ、および
被写界深度を前記算出ステップによって算出された距離と前記第1調整ステップによって調整された距離との相違に対応する深度に調整する第2調整ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
Imaging means for outputting an image representing a scene captured on the imaging surface;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A first adjustment step for adjusting the subject distance to a desired distance;
A calculation step of calculating a distance to a subject corresponding to the specific subject image based on a size of the specific subject image appearing in the image output from the imaging unit; and a distance in which the depth of field is calculated by the calculation step And an electronic camera corresponding to a program that executes a second adjustment step for adjusting the depth corresponding to the difference between the distance adjusted by the first adjustment step in cooperation with the internal control program.
JP2012096862A 2012-04-20 2012-04-20 Electronic camera Pending JP2013225020A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012096862A JP2013225020A (en) 2012-04-20 2012-04-20 Electronic camera
PCT/JP2013/060473 WO2013157413A1 (en) 2012-04-20 2013-04-05 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096862A JP2013225020A (en) 2012-04-20 2012-04-20 Electronic camera

Publications (1)

Publication Number Publication Date
JP2013225020A true JP2013225020A (en) 2013-10-31

Family

ID=49383377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096862A Pending JP2013225020A (en) 2012-04-20 2012-04-20 Electronic camera

Country Status (2)

Country Link
JP (1) JP2013225020A (en)
WO (1) WO2013157413A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107713A (en) * 2016-12-27 2018-07-05 キヤノン株式会社 Imaging control apparatus and control method thereof
JP2019133060A (en) * 2018-02-01 2019-08-08 キヤノン株式会社 Imaging device and control method of the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008076981A (en) * 2006-09-25 2008-04-03 Nikon Corp Electronic camera
JP4916355B2 (en) * 2007-03-20 2012-04-11 三洋電機株式会社 Aperture control apparatus and image processing apparatus
JP2009105851A (en) * 2007-10-25 2009-05-14 Sony Corp Imaging apparatus, control method thereof, and program
JP2012027408A (en) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd Electronic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107713A (en) * 2016-12-27 2018-07-05 キヤノン株式会社 Imaging control apparatus and control method thereof
JP2019133060A (en) * 2018-02-01 2019-08-08 キヤノン株式会社 Imaging device and control method of the same
JP7073125B2 (en) 2018-02-01 2022-05-23 キヤノン株式会社 Imaging device and its control method

Also Published As

Publication number Publication date
WO2013157413A1 (en) 2013-10-24

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
JP7276393B2 (en) Imaging device and imaging method
JP4974812B2 (en) Electronic camera
JP2010050798A (en) Electronic camera
US20110149098A1 (en) Image processing apparutus and method for virtual implementation of optical properties of lens
JP2012247533A (en) Electronic camera
KR20140113413A (en) Image capture apparatus, image capture method, and storage medium
JP2014235224A (en) Imaging device and control program
JP5178441B2 (en) Electronic camera
JP2012155044A (en) Electronic camera
JP5865120B2 (en) Electronic camera
JP2011142486A (en) Electronic camera
JP2013225020A (en) Electronic camera
JP2012074894A (en) Electronic camera
JP5785034B2 (en) Electronic camera
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2010102596A (en) Image processor
JP2013005405A (en) Electronic camera
JP2006039254A (en) Camera
JP2014053706A (en) Electronic camera
JP2012244278A (en) Electronic camera
JP2011223181A (en) Electronic camera
JP2011130043A (en) Electronic camera
JP2013026660A (en) Electronic camera
JP2012150236A (en) Electronic camera