JP2014056169A - Focus adjustment device and focus adjustment method - Google Patents
Focus adjustment device and focus adjustment method Download PDFInfo
- Publication number
- JP2014056169A JP2014056169A JP2012201821A JP2012201821A JP2014056169A JP 2014056169 A JP2014056169 A JP 2014056169A JP 2012201821 A JP2012201821 A JP 2012201821A JP 2012201821 A JP2012201821 A JP 2012201821A JP 2014056169 A JP2014056169 A JP 2014056169A
- Authority
- JP
- Japan
- Prior art keywords
- face
- area
- rotation angle
- image data
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 62
- 238000012937 correction Methods 0.000 claims abstract description 61
- 230000003287 optical effect Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 abstract description 34
- 238000012545 processing Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 26
- 230000007246 mechanism Effects 0.000 description 22
- 230000000875 corresponding effect Effects 0.000 description 11
- 210000001747 pupil Anatomy 0.000 description 11
- 210000003128 head Anatomy 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体について焦点調節動作を行う焦点調節装置及び焦点調節方法に関する。 The present invention relates to a focus adjustment device and a focus adjustment method for performing a focus adjustment operation on a subject.
従来、撮像素子により取得された画像データに含まれている人物の顔の像を検出する顔検出処理の技術が知られている。また、この顔検出処理により検出された顔の像にピントが合うように合焦制御を行う撮像装置が知られている。 2. Description of the Related Art Conventionally, a technique of face detection processing for detecting a human face image included in image data acquired by an image sensor is known. There is also known an imaging apparatus that performs focusing control so that the face image detected by the face detection process is in focus.
特許文献1には、画像データに基づいて人物の顔を検出する顔検出処理を行い、顔領域を検出し、顔領域の大きさに応じてAFエリアの大きさを変更してAF動作を行うことが開示されている。このような処理によりAFエリアに含まれる背景により生ずるAF誤差を抑制する。 In Patent Document 1, face detection processing is performed to detect a person's face based on image data, the face area is detected, and the AF area is changed according to the size of the face area, and an AF operation is performed. It is disclosed. By such processing, an AF error caused by the background included in the AF area is suppressed.
しかしながら、特許文献1の場合、被写体が正面を向いていない場合、たとえば横顔であるときに同様な方法でAFエリアのサイズを小さくするとAFエリア内に背景が含まれてしまい、AF精度が低下するという問題が残る。 However, in the case of Patent Document 1, when the subject is not facing the front, for example, when the subject is a side profile, if the size of the AF area is reduced by the same method, the background is included in the AF area, and the AF accuracy decreases. The problem remains.
本発明は、前記の事情に鑑みてなされたもので、被写体が正面を向いていない場合であっても、顔に対してAF精度の高い焦点調節装置および焦点調節方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a focus adjustment device and a focus adjustment method with high AF accuracy with respect to a face even when a subject is not facing the front. To do.
前記の目的を達成するために、第1の発明に係わる焦点調節装置は、撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出する顔検出部と、撮影画面内にAFエリアを設定し、該AFエリアに関する画像データに基づいてAF動作を実行するAF制御部と、前記顔検出部により検出された顔領域の画像データに基づいて顔の回転角を算出する回転角算出部と、前記回転角算出部により算出された回転角に基づいてAFエリアの位置を補正するAFエリア位置補正部と、を具備する。 In order to achieve the above object, a focus adjustment apparatus according to a first aspect of the present invention is based on image data generated by imaging a subject image formed by a photographing optical system, and A face detection unit that detects a face region including the face of the subject, an AF control unit that sets an AF area in a shooting screen and executes an AF operation based on image data related to the AF area, and the face detection unit A rotation angle calculation unit that calculates the rotation angle of the face based on the image data of the detected face area, and an AF area position correction unit that corrects the position of the AF area based on the rotation angle calculated by the rotation angle calculation unit And.
第2の発明に係わる焦点調節装置は、前記第1の発明において、前記回転角算出部は、顔の正立方向を軸とする第1の回転角と、顔の正対方向を軸とする第2の回転角を算出する。 In the focus adjustment apparatus according to a second aspect of the present invention, in the first aspect, the rotation angle calculation unit uses the first rotation angle with the face upright direction as the axis and the face-to-face direction as the axis. A second rotation angle is calculated.
第3の発明に係わる焦点調節装置は、前記第1の発明において 前記AFエリア位置補正部は、前記回転角算出部により算出された回転角に基づいて前記AFエリアの面積を変更する。 In the focus adjustment apparatus according to a third aspect, in the first aspect, the AF area position correction unit changes the area of the AF area based on the rotation angle calculated by the rotation angle calculation unit.
第4の発明に係わる焦点調節方法は、撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出し、検出された前記顔領域の画像データに基づいて顔の回転角を算出し、算出された前記回転角に基づいてAFエリアの位置を補正し、補正された前記AFエリアに対応する画像データに基づいて焦点調節動作を行う。 According to a fourth aspect of the present invention, there is provided a focus adjustment method, wherein a face region including a face of the subject is included in the subject image based on image data generated by capturing a subject image formed by a photographing optical system. Detecting, calculating a rotation angle of the face based on the detected image data of the face area, correcting the position of the AF area based on the calculated rotation angle, and an image corresponding to the corrected AF area A focus adjustment operation is performed based on the data.
本発明によれば、被写体が正面を向いていない場合であっても、顔に対して高いAF精度の焦点調節装置及び焦点調節方法を提供することができる。 According to the present invention, it is possible to provide a focus adjustment device and a focus adjustment method with high AF accuracy for a face even when the subject is not facing the front.
以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の各実施形態に係る焦点調節装置を備えた撮像装置の一例としての構成を示す図である。図1に示す撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134と、を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration as an example of an imaging apparatus including a focus adjustment apparatus according to each embodiment of the present invention. An
撮影光学系102は、図示しない被写体からの光束Fを、撮像素子114の受光面上に集光するための光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有している。焦点調整機構104は、モータ及びその駆動回路等を有している。この焦点調整機構104は、システムコントローラ130内のCPU1301の制御に従って、撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動させる。
The photographing
絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有している。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って、絞り106を駆動させる。
The
シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って、シャッタ110を駆動させる。
The
撮像素子114は、撮影光学系102を介して集光された被写体からの光束Fが結像される受光面を有している。撮像素子114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。
The
撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114を駆動させる。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。
The image
記憶部としてのRAM118は、例えばSDRAMであり、ワークエリアを有している。ワークエリアは、撮像素子IF回路116で得られた画像データ等の、撮像装置100の各部で発生したデータを一時記憶しておくためにRAM118に設けられた記憶エリアである。
A
表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種の画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動させ、表示素子120に画像を表示させる。
The
タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動するとともに、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。
The
記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、画像データに所定のヘッダを付与して構成されるファイルである。ヘッダには、撮影条件を示すデータ等が、タグデータとして記録される。
The
システムコントローラ130は、撮像装置100の動作を制御するための制御回路として、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、顔検出回路1305と、メモリ制御回路1306と、を有している。
The
CPU1301は、制御部としての機能を有し、焦点調整機構104、絞り駆動機構108、シャッタ駆動機構112、表示素子駆動回路122、タッチパネル駆動回路126等のシステムコントローラ130の外部の各ブロック、及びシステムコントローラ130の内部の各制御回路の動作を制御する。
The
AF制御回路1302は、コントラストAF処理を制御する。具体的には、AF制御回路1302は、撮像素子IF回路116で得られた画像データのうち所定のAFエリアに相当する画像データの高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。CPU1301とAF制御回路1302はAF制御部を構成する。
The
AE制御回路1303は、AE動作を制御する。具体的には、AE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。
The
画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理としては、色補正処理、ガンマ(γ)補正処理、圧縮処理等が含まれる。また、画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。
The
顔検出回路1305は、公知のパターン認識技術を用いた顔検出アルゴリズムにより顔領域を検出する。輪郭形状や肌色領域の検出により顔候補とされた領域内から目や鼻に相当する特徴量を抽出し、抽出された特徴量と複数の顔テンプレート画像の特徴量とを照合することによって、顔候補が人物の顔であるか否かを判別する。顔検出回路1305は、顔を判別し検出すると、顔領域の位置(座標)、顔領域の大きさ、顔の回転角度、顔検出の信頼度を算出し、CPU1301へ出力する。また、顔検出回路1305は、目(瞳)の領域を検出する機能も有し、目領域の位置(座標)、大きさを算出し、CPU1301に出力する。顔検出回路1305は、顔検出部および回転角度検出部を構成する。
The
CPU1301は、顔検出回路1305が出力する顔領域データ、顔の回転角度データに応じてAFエリアの位置を補正するAFエリア位置補正部を構成する。
The
メモリ制御回路1306は、CPU1301等が、RAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。
The
操作部132は、ユーザによって操作される各種の操作部材である。操作部132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。
The
レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチと、を有している。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンするスイッチである。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。また、2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンするスイッチである。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。 The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user half-presses the release button. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。 The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。 The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。 The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the
ROM134は、たとえばFlashROMであり、CPU1301が種々の処理を実行するためのプログラムコードを記憶している。また、ROM134は、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。さらには、ROM134は、AFエリアの位置を補正するためのデータ等を記憶している。
The
次に、本実施形態に係る撮像装置の動作について説明する。図2は、撮像装置100の撮影動作を示すフローチャートである。CPU1301は、ROM134から必要なプログラムコードを読み込んで図2の動作を制御する。
Next, the operation of the imaging apparatus according to the present embodiment will be described. FIG. 2 is a flowchart illustrating the shooting operation of the
S100において、CPU1301は、ライブビュー動作を開始させる。ライブビュー動作として、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、CPU1301は、撮像素子IF回路116を制御して撮像素子114による撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作を繰り返し実行することにより、被写体の画像を動画表示する。この動画表示により、ユーザは、被写体を観察することが可能である。
In S100, the
S102において、CPU1301は、顔検出回路1305に顔検出処理を実行するように指示する。顔検出回路1305は、顔検出処理を実行し顔検出ができたか否かの結果を示す情報や、検出した顔領域に関する様々な情報、たとえば顔領域の位置や大きさ等の情報をCPU1301に出力する。
In step S102, the
S104において、CPU1301は、顔検出回路1305の出力する情報に基づいて顔検出ができたか否かを判別する。そして顔検出ができた場合はS106に進み、顔検出ができなかった場合はS108に進む。
In step S <b> 104, the
S106において、CPU1301は、顔が検出された最新の顔領域を示す表示枠を表示するように表示素子駆動回路122に指示する。表示素子駆動回路122は、CPU1301の指示に応じて表示素子120により顔領域を示す表示を行う
S108において、CPU1301は1stレリーズスイッチがオンされたかを判定する。S108において、1stレリーズスイッチがオンされていないと判定すると、CCPU1301は、S102に処理を戻して顔検出処理を実行する。このように、1stレリーズスイッチがオンされるまでは、CPU1301は、ライブビュー動作を継続し、検出した顔領域を更新して顔領域の表示を行う。
In step S106, the
また、S108において、1stレリーズスイッチがオンされたと判定した場合に、S110において、CPU1301は、最終的に顔検出できているか否かを判別する。そして、CPU1301は、顔検出ができていない場合はS112に、顔検出ができている場合はS114にそれぞれ処理を進める。
If it is determined in S108 that the 1st release switch is turned on, in S110, the
S112において、CPU1301は予め決められたAFエリアを設定する。たとえば、撮影画面内に複数のAFエリアを配置するマルチAFモードに応じたAFエリアを設定する。そしてS120に進む。
In step S112, the
S114においては、CPU1301は顔検出回路1305による瞳検出ができているか判定する。そして、CPU1301は、瞳検出ができていない場合はS116に、瞳検出ができている場合はS118にそれぞれ処理を進める。瞳検出処理は、顔がある程度大きい場合には、瞳部分に相当する画像データの量が多いので高精度に瞳を検出することができる。しかしながら、顔が小さくなっていくと、瞳部分に相当する画像データの量が少なくなり検出することができなくなる。
In step S114, the
S116においては、CPU1301は後述するAFエリア位置補正を実行し、補正したAFエリアを設定する。また、S118においては、CPU1301は顔検出回路1305による瞳検出の結果に基づき、瞳領域の位置に対応させてAFエリアを設定する。そしてS120に進む。
In step S116, the
S120においては、CPU1301はAF処理を実行する。AF処理においては、スキャン駆動によって、フォーカスレンズを合焦位置まで駆動させる。スキャン駆動では、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AFエリア内の画像データに基づきAF制御回路1302で順次算出される合焦評価値を評価する。そして、CPU1301は、合焦評価値の評価の結果、合焦評価値が最大、すなわち画像のコントラストが最大となるフォーカスレンズの位置において、フォーカスレンズの駆動を停止させる。
In S120, the
また、CPU1301はAF処理の実行中に並行してAE処理を行う。AE処理においては、CPU1301は、AE制御回路1303で算出されたAFエリアに位置する被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。
Further, the
S122において、CPU1301は2ndレリーズスイッチがオンされたかを判定し、2ndレリーズスイッチがオンされるまで待機する。そして、2ndレリーズスイッチがオンされたと判定した場合に、S123において露出動作を行う。
In step S122, the
露出動作においては、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を閉じ、絞り駆動機構108を制御して、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を先に算出した開放時間だけ開放しつつ、撮像素子114による撮像動作を行う。 その後、CPU1301は、撮像素子114の撮像動作により得られた画像データを画像処理回路1304にて処理を行わせ、静止画像データを得る。S124において、CPU1301は、静止画像データを記録メディア128に記録する処理を行う。その後、CPU1301は、図1に示す処理を終了させる。
In the exposure operation, the
次に、顔検出回路1305により実行される顔検出の結果に基づいて顔領域を設定する方法について説明する。図3は、顔Fに対する顔検出領域の設定を示すものである。
Next, a method for setting a face area based on the result of face detection executed by the
まず、顔領域の幅の設定について説明する。図3に示す顔Fの画像データの中から両方の目(瞳)を検出し、両目の間隔をLeとする。ここでは、統計に基づいて、一般に顔の幅は両目の間隔の所定倍と仮定するものとする。この仮定に基づき、両目の間隔Leに対して所定の比率Nを乗じたN×Leを、両目の中心より均等に振り分けたものを顔領域Faの幅Lf1と設定する。 First, setting of the width of the face area will be described. Both eyes (pupils) are detected from the image data of the face F shown in FIG. 3, and the interval between the eyes is set to Le. Here, based on statistics, it is generally assumed that the face width is a predetermined multiple of the distance between the eyes. Based on this assumption, N × Le obtained by multiplying the distance Le between both eyes by a predetermined ratio N and equally distributed from the center of both eyes is set as the width Lf1 of the face area Fa.
次に、顔領域の長さ方向の設定について説明する。統計に基づいて、一般的に顔の長さ方向に対する目の位置は、顔の長さを所定の比率で分割した位置と仮定するものとする。この仮定に基づき、顔の長さ方向の目の位置を基準として、顔の長さ方向に所定距離の範囲を顔領域として設定する。 Next, setting of the length direction of the face area will be described. Based on statistics, it is generally assumed that the eye position in the face length direction is a position obtained by dividing the face length by a predetermined ratio. Based on this assumption, a range of a predetermined distance in the face length direction is set as a face area with the eye position in the face length direction as a reference.
図3に示す顔Fの画像データの中から両目を検出し、顔の長さ方向の目の位置を決定する。そして、統計に基づく一般的な顔の長さを長さ方向に分割する目の位置の比率をL:Mとすると、目を基準として顔の長さ方向に頭部(上)方向の領域範囲Lte(FLE×L/(L+M))、目の顎(下)方向の領域範囲Lbe(FLE×M/(L+M))を設定する(顔の長さをFLEとする)。 Both eyes are detected from the image data of the face F shown in FIG. 3, and the position of the eyes in the length direction of the face is determined. Then, assuming that the ratio of the position of the eyes that divides the length of a general face based on statistics in the length direction is L: M, the region range in the head (up) direction in the length direction of the face with respect to the eyes Lte (FLE × L / (L + M)), a region range Lbe (FLE × M / (L + M)) in the chin (downward) direction of the eye is set (the length of the face is assumed to be FLE).
このような顔領域の設定処理は、顔検出回路1305により顔検出処理の一部として実行され(図2:S102)、顔領域Faの中心座標Fcや顔領域のサイズS(Lf1、Lf2、面積等)がCPU1301に出力される。
Such face area setting processing is executed by the
次に、図2のS116に示すAFエリア位置補正の処理について、図4を参照して説明する。S200において、CPU1301は、顔検出回路1305より最新の顔領域の情報を取得する。顔領域の情報には、顔領域の大きさと位置の他に、顔の回転角度、顔の左右傾き情報、等が含まれている。顔検出回路1305は、顔検出処理の中で、公知の技術により顔の回転角度、顔の左右傾き情報を算出して、CPU1301に出力する。
Next, the AF area position correction process shown in S116 of FIG. 2 will be described with reference to FIG. In step S <b> 200, the
S202において、CPU1301は、顔領域の情報に含まれる顔の回転角度に基づいて補正値の領域(後述するR1−R4)を選択する。
In step S <b> 202, the
S204において、CPU1301は、顔領域の情報に含まれる顔の左右傾き情報に基づいてS202により選択された補正値の領域(R1−R4)において補正値(後述するX方向オフセットXO、Y方向オフセットYO)を選択する。
In S204, the
S206において、CPU1301は、選択された補正値に基づいてAFエリアの位置を補正する。次にAFエリア位置補正の詳細な処理について説明する。
In step S206, the
図5は、AFエリアの位置を補正するための入力条件となる顔の回転角度(第1の回転角)と左右傾き角度(第2の回転角)について説明するため図である。 FIG. 5 is a diagram for explaining a face rotation angle (first rotation angle) and a horizontal tilt angle (second rotation angle), which are input conditions for correcting the position of the AF area.
図5(A)に示すように、顔の回転角度は、人物の頭部Hの前後方向の軸F−Rを中心として顔が回転する角度とする。軸F−Rは、顔を平面とする場合に顔の中心、たとえば鼻の中心を、垂直に通るものとする。 As shown in FIG. 5A, the rotation angle of the face is an angle at which the face rotates about the axis F-R in the front-rear direction of the head H of the person. The axis F-R passes vertically through the center of the face, for example, the center of the nose, when the face is a plane.
また、図5(B)に示すように、顔の左右傾きは、人物の頭部Hの上下方向の軸T−Bを中心として顔が回転する角度とする。軸T−Bは、頭部を上から見た場合の中心を通るように設定する。 Further, as shown in FIG. 5B, the left-right inclination of the face is an angle at which the face rotates about the vertical axis TB of the person's head H. The axis TB is set so as to pass through the center when the head is viewed from above.
図6は、人物の顔の回転角度(第1の回転角)と顔の左右傾き情報(第2の回転角)に応じたAFエリアの位置の補正に関する補正値を示すテーブルである。図6のテーブルデータは、ROM134に制御パラメータの一部として記憶されている。
FIG. 6 is a table showing correction values relating to the correction of the position of the AF area according to the rotation angle (first rotation angle) of the person's face and the left / right tilt information (second rotation angle) of the face. The table data of FIG. 6 is stored in the
CPU1301は、ROM134から図6に示すテーブルデータを読み出してAFエリアの位置の補正を行う。図6において、補正値は、X方向オフセットXOとY方向オフセットYOであり、それぞれ単位は%である。
The
図6において、顔の回転角度θはR1からR4の4個の領域に分割され、顔の左右の傾きδは左、正面、右の3個に分割されている。そして、これらの組合せに応じて補正値(X方向オフセットXO、Y方向オフセットYO)が設定されている。 In FIG. 6, the rotation angle θ of the face is divided into four regions R1 to R4, and the left / right inclination δ of the face is divided into three regions, left, front, and right. Then, correction values (X direction offset XO, Y direction offset YO) are set according to these combinations.
図7は、上記顔の回転角度θ(第1の回転角)の分割(R1からR4)を説明するための図である。顔の回転角度θは、図5(A)に示すように、顔の前後方向を軸とする顔の回転の角度であるが、図7に示すように人物が正立した状態における顔の回転角度を0とする。たとえば、顔の回転により方向T−Bが、方向T´−B´に変化した場合の顔の回転角度はθとなる。図7においては、回転角度θは、領域R2に含まれ領域R2に該当する補正値が選択される候補となる。 FIG. 7 is a diagram for explaining division (R1 to R4) of the face rotation angle θ (first rotation angle). The face rotation angle θ is the rotation angle of the face with the front-rear direction of the face as an axis as shown in FIG. 5A, but the face rotation in a state where the person is upright as shown in FIG. The angle is 0. For example, the face rotation angle when the direction TB changes to the direction T′-B ′ due to the rotation of the face is θ. In FIG. 7, the rotation angle θ is a candidate for selecting a correction value included in the region R2 and corresponding to the region R2.
図8は、上記顔の左右傾きδ(第2の回転角)の分割(左、正面、右)を説明するための図である。顔の左右傾き情報は、図5(B)に示すように、顔の上下方向を軸とする顔の回転の角度であり、図8に示すように、人物が正対した状態、顔がFの方向における左右傾き情報を0とする。例えば顔の左右回転により方向F−Bが、方向F´−B´に変化した場合の、顔の左右傾きはδとなる。なお、顔の左右傾き情報δは、撮影者から見た顔の向きで定義するものとし、図8においては、左右傾き情報δは左向き領域に含まれる。この場合は左向き領域に該当する補正値が選択される。 FIG. 8 is a diagram for explaining division (left, front, right) of the left-right inclination δ (second rotation angle) of the face. As shown in FIG. 5B, the left / right tilt information of the face is a rotation angle of the face with the vertical direction of the face as an axis. As shown in FIG. The left / right tilt information in the direction of For example, when the direction FB is changed to the direction F′-B ′ by the left-right rotation of the face, the left-right inclination of the face is δ. Note that the right / left tilt information δ of the face is defined by the orientation of the face as viewed from the photographer, and in FIG. 8, the left / right tilt information δ is included in the leftward area. In this case, the correction value corresponding to the leftward area is selected.
このように顔の回転角度θと顔の左右傾きδの組合せに応じて、図6に示す補正値を選択する
次に、上記選択された補正値を用いて、AFエリアの位置を補正するためのAFエリアの位置の補正式について説明する。AFエリアの位置の補正式を下記式(1)、(2)に示す。
In this way, the correction value shown in FIG. 6 is selected according to the combination of the face rotation angle θ and the left / right inclination δ of the face. Next, in order to correct the position of the AF area using the selected correction value. The AF area position correction formula will be described. Expressions (1) and (2) below are used to correct the AF area position.
補正AFエリア位置_X = 顔位置中心_X +(顔サイズS×補正係数Hx×X方向オフセットXO) ・・・ (1)
補正AFエリア位置_Y = 顔位置中心_Y +(顔サイズS×補正係数Hy×Y方向オフセットYO) ・・・ (2)
顔領域の中心位置を示す顔位置中心_X、顔位置中心_Y、および顔サイズSは、顔検出回路1305にて算出されCPU1301へ出力されるデータである。
Correction AF area position_X = face position center_X + (face size S × correction coefficient Hx × X direction offset XO) (1)
Correction AF area position_Y = face position center_Y + (face size S × correction coefficient Hy × Y direction offset YO) (2)
The face position center_X, the face position center_Y, and the face size S indicating the center position of the face area are data calculated by the
補正AFエリア位置_X、補正AFエリア位置_Yは、AFエリアの中心の補正後の位置を示し、上記(1)、(2)式を用いてCPU1301により算出される。
The corrected AF area position_X and the corrected AF area position_Y indicate the corrected position of the center of the AF area, and are calculated by the
CPU1301は、補正AFエリア位置_X、補正AFエリア位置_Yを中心として補正されたAFエリアを設定する。補正されたAFエリアの大きさは、通常のAFエリアの大きさ(面積)を所定比率だけ縮小した大きさとする。所定比率はたとえば50%としてもよい。これは、AFエリアが顔領域をはみ出して設定され、背景を含んでしまい背景の影響を受けて合焦精度が低下することを防止するためである。
The
補正係数Hx、Hyは、補正量を微調整するための係数であり、顔検出回路1305より出力される顔検出の信頼度や角度検出の信頼度、その他の条件に応じてCPU1301によって設定される。補正係数Hx、Hyは、通常は1と設定される。
The correction coefficients Hx and Hy are coefficients for finely adjusting the correction amount, and are set by the
図9は、AFエリア位置補正を行った場合のAFエリアの設定を、AFエリア補正処理を行なわない場合のAFエリアの設定とともに記載し、その差を示すものである。図9において、顔検出の対象となった人物の頭部Hに対して、AFEC´は顔検出回路1305により検出された顔位置中心_X、顔位置中心_Yにより示される顔位置の中心である。AFE´は、顔検出回路1305により検出された顔領域を示す。前述のように顔領域検出処理は、顔領域の中心をほぼ人物の鼻の付近に設定するようなアルゴリズムとなっているのでそのような位置関係になる。
FIG. 9 shows the setting of the AF area when the AF area position correction is performed together with the setting of the AF area when the AF area correction process is not performed, and shows the difference. In FIG. 9, AFEC ′ is the center of the face position indicated by the face position center_X and the face position center_Y detected by the
ここで、顔領域AFE´をAFエリアとしてAF処理が実行された場合、顔が撮影者にとって右方向に角度を持って傾いているので、AFエリアは実際の顔よりもはみ出した範囲に設定されており背景が含まれている。このため、背景の影響を受けてAF精度が低下する問題が発生する。 Here, when the AF processing is executed with the face area AFE ′ as the AF area, the face is inclined at an angle to the right for the photographer, so the AF area is set to a range that protrudes beyond the actual face. The background is included. For this reason, there arises a problem that the AF accuracy is lowered under the influence of the background.
本実施例では、以下のようにAFエリアの位置の補正を行う。図9の場合は、顔は正立しているので顔の回転角度は「0°」であり、顔は撮影者にとって右方向を向いており顔の左右方向の傾き情報は「右」とする。顔検出回路1305は、顔の回転角度(0°)と、顔の左右方向の傾き情報(右)と、図6のテーブルデータおよび式(1)、(2)に基づいてAFエリアの位置の補正を行う。
In this embodiment, the position of the AF area is corrected as follows. In the case of FIG. 9, since the face is upright, the rotation angle of the face is “0 °”, the face is directed rightward for the photographer, and the right / left tilt information of the face is “right”. . The
具体的に図6のテーブルデータを適用すると、顔の回転角度θ=0より領域R1であり、顔の左右傾き情報δ=右であるので、X方向オフセットXO=−20%、Y方向オフセットYO=15%となる。具体的に式(1)、(2)に適用すると、補正係数Hx、Hyをそれぞれ1として、以下にようになる。 Specifically, when the table data of FIG. 6 is applied, since the face rotation angle θ = 0 is the region R1 and the face right / left tilt information δ = right, the X direction offset XO = −20% and the Y direction offset YO. = 15%. Specifically, when applied to the equations (1) and (2), the correction coefficients Hx and Hy are set to 1 as follows.
補正AFエリア位置_X=顔位置中心_X+顔サイズS×(−20%)、
補正AFエリア位置_Y=顔位置中心_Y+顔サイズS×15%
そして、顔検出の対象となった人物の頭部Hに対して、補正前の顔位置中心AFEC´は顔検出回路1305により補正された顔位置中心AFECへ変更される。また、補正前の顔領域AFE´は、顔検出回路1305により補正された顔領域AFEへ変更される。そして、CPU1301は、補正後の顔領域AFEをAFエリアに設定することによりAFエリアに背景を含まない状態とし、背景の影響を受けず高精度なAFを実行することが可能である。
Correction AF area position_X = face position center_X + face size S × (−20%),
Corrected AF area position_Y = face position center_Y + face size S × 15%
Then, the face position center AFEC ′ before correction is changed to the face position center AFEC corrected by the
次に、図9とは異なる顔の状況の例について図10に基づいて説明する。図10において、顔の回転角度が90°であり、顔が撮影者にとって右方向を向いている状態である。顔検出の対象となった人物の頭部Hに対して、AFEC´は顔検出回路1305により検出された顔位置の中心であり、AFE´は、顔検出回路1305により検出された顔領域を示す。このとき、顔領域AFEをAFエリアとしてAF処理が実行された場合、AFエリアは、実際の顔よりもはみ出した範囲に設定されており背景が含まれAF精度が低下する問題が発生する。
Next, an example of a face situation different from FIG. 9 will be described with reference to FIG. In FIG. 10, the rotation angle of the face is 90 °, and the face is facing the right direction for the photographer. For the head H of the person who is the target of face detection, AFEC ′ is the center of the face position detected by the
図10において、顔の回転角度は「90°」であり、顔は撮影者にとって右方向を向いており顔の左右方向の傾き情報は「右」とする。顔検出回路1305は、顔の回転角度(90°)と、顔の左右方向の傾き情報(右)と、図6のテーブルデータおよび式(1)、(2)に基づいてAFエリアの位置の補正を行う。
In FIG. 10, the rotation angle of the face is “90 °”, the face is facing the right direction for the photographer, and the right / left tilt information of the face is “right”. The
具体的に図6のテーブルデータを適用すると、顔の回転角度θ=90°より領域R2であり、顔の左右傾き情報δ=右であるので、X方向オフセット=15、Y方向オフセット=20となる。具体的に式(1)、(2)に適用すると、補正係数Hx、Hyをそれぞれ1として、以下にようになる。 Specifically, when the table data of FIG. 6 is applied, since the face rotation angle θ = 90 ° is the region R2, and the right / left tilt information δ = right, the X direction offset = 15 and the Y direction offset = 20. Become. Specifically, when applied to the equations (1) and (2), the correction coefficients Hx and Hy are set to 1 as follows.
補正AFエリア位置_X=顔位置中心_X+顔サイズS×15%、
補正AFエリア位置_Y=顔位置中心_Y+顔サイズS×20%
顔検出の対象となった人物の頭部Hに対して、補正前の顔位置中心AFEC´は顔位置中心AFECへ変更され、補正前の顔領域AFE´は、補正された顔領域AFEへ変更される。そして、CPU1301は、補正後の顔領域AFEをAFエリアに設定することによりAFエリアに背景を含まない状態とすることができ、背景の影響を受けず高精度なAFを実行することが可能である。
Correction AF area position_X = face position center_X + face size S × 15%,
Corrected AF area position_Y = face position center_Y + face size S × 20%
The face position center AFEC ′ before correction is changed to the face position center AFEC with respect to the head H of the person subjected to face detection, and the face area AFE ′ before correction is changed to the corrected face area AFE. Is done. Then, the
なお、図6のテーブルデータにおいて、X方向オフセットXOとY方向オフセットYOを絶対値が異なる補正値にしているのは、顔が左右方向に傾いた場合に人物の耳やもみあげ等のコントラストの高い部分を検出しやすいようにするためである。 In the table data of FIG. 6, the X-direction offset XO and the Y-direction offset YO are set to correction values having different absolute values when the face is tilted in the left-right direction and has high contrast such as a person's ear or sideburns. This is to make it easy to detect the portion.
顔が正立またはそれに近い状態である図6の領域R1においては、X方向オフセットXOを絶対値がより大きい数値としている。また、顔が正立から90度回転、またはそれに近い状態である図6の領域R2においては、Y方向オフセットYOを絶対値がより大きい数値としている。
<変形例>
本実施例では、顔の回転角度を4個の領域に分割し、顔の左右傾き情報を3個の領域に分割して補正値を設定しているが、これに限定されることなく分割数を増減させてもよい。たとえば、顔の回転角度をより細かい8個の領域に分割して補正値を設定することや、顔の左右の傾きを「左向き」、「正面」、「右向き」に加えて「斜め左向き」、「斜め右向き」を追加して5個の領域に分割して補正値を設定してもよい。あるいは、図6に示すテーブルデータの代わりに所定の演算式を記憶しており、補正値を算出してもよい。所定の演算式はROM134に記憶させればよい。
In the region R1 of FIG. 6 where the face is upright or close to it, the X-direction offset XO is a numerical value with a larger absolute value. Further, in the region R2 in FIG. 6 where the face is rotated 90 degrees from erect or close to it, the Y-direction offset YO is a numerical value having a larger absolute value.
<Modification>
In this embodiment, the face rotation angle is divided into four areas, and the right / left tilt information of the face is divided into three areas and the correction value is set. However, the number of divisions is not limited to this. May be increased or decreased. For example, the correction value can be set by dividing the face rotation angle into 8 finer areas, and the left / right tilt of the face can be set to “left”, “front”, “right”, The correction value may be set by adding “oblique rightward” and dividing into five regions. Alternatively, a predetermined arithmetic expression may be stored instead of the table data shown in FIG. 6, and the correction value may be calculated. The predetermined arithmetic expression may be stored in the
また、式(1)、(2)の補正係数に関して以下のように変形して使用してもよい。 Further, the correction coefficients of the equations (1) and (2) may be modified as follows.
左右傾きの傾き角度が浅い「斜め左向き」、「斜め右向き」の場合には補正係数を0.8として、補正量を減らしてもよい。また、左右傾きの傾きが深い「左向き」、「右向き」の場合には補正係数を1.2として、補正量を増やしてもよい。また、顔の回転角度が45°や135°など、斜めである場合には補正係数を0.7として、補正量を減らしてもよい。 In the case of “slanting leftward” or “slanting rightward” where the tilt angle of the horizontal tilt is shallow, the correction amount may be set to 0.8 and the correction amount may be reduced. Further, in the case of “leftward” or “rightward” where the left / right inclination is deep, the correction amount may be increased by setting the correction coefficient to 1.2. When the face rotation angle is oblique, such as 45 ° or 135 °, the correction amount may be reduced by setting the correction coefficient to 0.7.
前述のように、CPU1301は、補正AFエリア位置_X、補正AFエリア位置_Yを中心とする補正AFエリアを通常のAFエリアの大きさ(面積)の50%としている。ここで、顔の左右傾き情報に応じて補正AFエリアの大きさを変更してもよい。たとえば、顔の左右傾き情報δが正面を含む所定の角度範囲の場合は、通常のAFエリアと同一の面積とし、これ以外の角度範囲の場合は通常のAFエリアの面積の50%としてもよい。これにより、背景が含まれにくい顔が正面(または正面に近い状況)のときには、AFエリアをより大きく設定することにより、コントラストが低い場合であっても高精度なAFを行うことができる。
As described above, the
さらに、顔検出回路1305により算出される顔の角度情報の信頼性を判別し、角度情報の信頼性が低いときには、補正係数を0.6として補正量を減らしてもよい。顔検出や角度検出の信頼性が低いときには過補正を防ぐことが可能である。
Furthermore, the reliability of the face angle information calculated by the
以上説明したように、顔の回転角度(第1の回転角)と顔の左右傾き情報(第2の回転角)を検出し、顔の回転角度と左右傾き情報に基づいて補正値を決定しAFエリアの位置を補正することにより、被写体が正面を向いていない場合であっても、顔に対してAF精度の高い焦点調節を行うことが可能である。 As described above, the face rotation angle (first rotation angle) and the left / right tilt information (second rotation angle) of the face are detected, and the correction value is determined based on the face rotation angle and left / right tilt information. By correcting the position of the AF area, it is possible to perform focus adjustment with high AF accuracy on the face even when the subject is not facing the front.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の動作の説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of the operation described above, the operation is described using “first”, “next”, and the like for convenience. However, it does not mean that the operation is essential in this order.
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…撮像装置、102…撮影光学系、104…焦点調整機構、106…絞り、108…絞り駆動機構、110…シャッタ、112…シャッタ駆動機構、114…撮像素子、116…撮像素子インターフェイス(IF)回路、118…RAM、120…表示素子、122…表示素子駆動回路、124…タッチパネル、126…タッチパネル駆動回路、128…記録メディア、130…システムコントローラ、132…操作部、134…ROM、1301…CPU、1302…AF制御回路、1303…AE制御回路、1304…画像処理回路、1305…顔検出回路、1306…メモリ制御回路
DESCRIPTION OF
Claims (4)
撮影画面内にAFエリアを設定し、該AFエリアに関する画像データに基づいてAF動作を実行するAF制御部と、
前記顔検出部により検出された顔領域の画像データに基づいて顔の回転角を算出する回転角算出部と、
前記回転角算出部により算出された回転角に基づいてAFエリアの位置を補正するAFエリア位置補正部と
を具備することを特徴とする焦点調節装置。 A face detection unit that detects a face area including the face of the subject in the subject image based on image data generated by capturing a subject image formed by the photographing optical system;
An AF control unit that sets an AF area in the shooting screen and executes an AF operation based on image data related to the AF area;
A rotation angle calculation unit for calculating a rotation angle of the face based on the image data of the face area detected by the face detection unit;
An AF area position correction unit that corrects the position of the AF area based on the rotation angle calculated by the rotation angle calculation unit.
ことを特徴とする請求項1に記載の焦点調節装置。 The rotation angle calculation unit calculates a first rotation angle with the face upright direction as an axis and a second rotation angle with the face facing direction as an axis. Focusing device.
ことを特徴とする請求項1に記載の焦点調節装置。 The focus adjustment apparatus according to claim 1, wherein the AF area position correction unit changes the area of the AF area based on the rotation angle calculated by the rotation angle calculation unit.
検出された前記顔領域の画像データに基づいて顔の回転角を算出し、
算出された前記回転角に基づいてAFエリアの位置を補正し、
補正された前記AFエリアに対応する画像データに基づいて焦点調節動作を行う
ことを特徴とする焦点調節方法。 Based on image data generated by capturing a subject image formed by a photographing optical system, a face region including the subject's face in the subject image is detected;
Calculating a rotation angle of the face based on the detected image data of the face area;
Correct the position of the AF area based on the calculated rotation angle,
A focus adjustment method, wherein a focus adjustment operation is performed based on image data corresponding to the corrected AF area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012201821A JP2014056169A (en) | 2012-09-13 | 2012-09-13 | Focus adjustment device and focus adjustment method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012201821A JP2014056169A (en) | 2012-09-13 | 2012-09-13 | Focus adjustment device and focus adjustment method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014056169A true JP2014056169A (en) | 2014-03-27 |
Family
ID=50613507
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012201821A Pending JP2014056169A (en) | 2012-09-13 | 2012-09-13 | Focus adjustment device and focus adjustment method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014056169A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10356310B2 (en) | 2015-10-21 | 2019-07-16 | Samsung Electronics Co., Ltd. | Method for detecting eye of subject and electronic device thereof |
| JP2020074037A (en) * | 2013-09-24 | 2020-05-14 | ソニー株式会社 | Photographing device, photographing method, and program |
| JPWO2021010070A1 (en) * | 2019-07-12 | 2021-01-21 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007034261A (en) * | 2005-06-22 | 2007-02-08 | Fujifilm Corp | Automatic focusing control device and control method thereof |
| JP2008287091A (en) * | 2007-05-18 | 2008-11-27 | Fujifilm Corp | Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method |
| JP2011039460A (en) * | 2009-08-18 | 2011-02-24 | Canon Inc | Automatic focusing device |
| WO2012099174A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Autofocus system |
-
2012
- 2012-09-13 JP JP2012201821A patent/JP2014056169A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007034261A (en) * | 2005-06-22 | 2007-02-08 | Fujifilm Corp | Automatic focusing control device and control method thereof |
| JP2008287091A (en) * | 2007-05-18 | 2008-11-27 | Fujifilm Corp | Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method |
| JP2011039460A (en) * | 2009-08-18 | 2011-02-24 | Canon Inc | Automatic focusing device |
| WO2012099174A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Autofocus system |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020074037A (en) * | 2013-09-24 | 2020-05-14 | ソニー株式会社 | Photographing device, photographing method, and program |
| US10972652B2 (en) | 2013-09-24 | 2021-04-06 | Sony Corporation | Imaging apparatus and imaging method |
| JP7004014B2 (en) | 2013-09-24 | 2022-01-21 | ソニーグループ株式会社 | Shooting equipment, shooting method, and program |
| US11659277B2 (en) | 2013-09-24 | 2023-05-23 | Sony Corporation | Imaging apparatus and imaging method |
| US12316964B2 (en) | 2013-09-24 | 2025-05-27 | Sony Group Corporation | Imaging apparatus and imaging method |
| US10356310B2 (en) | 2015-10-21 | 2019-07-16 | Samsung Electronics Co., Ltd. | Method for detecting eye of subject and electronic device thereof |
| JPWO2021010070A1 (en) * | 2019-07-12 | 2021-01-21 | ||
| WO2021010070A1 (en) * | 2019-07-12 | 2021-01-21 | ソニー株式会社 | Imaging device, imaging method, and program |
| US11849216B2 (en) | 2019-07-12 | 2023-12-19 | Sony Group Corporation | Imaging apparatus detecting a pupil in moving and still images |
| JP7619263B2 (en) | 2019-07-12 | 2025-01-22 | ソニーグループ株式会社 | Imaging device, imaging method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8102465B2 (en) | Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject | |
| JP5830373B2 (en) | Imaging device | |
| US9554029B2 (en) | Imaging apparatus and focus control method | |
| US20140071318A1 (en) | Imaging apparatus | |
| US10212353B2 (en) | Display control apparatus and method of controlling display control apparatus | |
| JP2014081420A (en) | Tracking device and method thereof | |
| US8872961B2 (en) | Focusing image verifying device | |
| KR20130005883A (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method | |
| WO2016002355A1 (en) | Image capturing device and image capturing method | |
| JP6463190B2 (en) | Imaging apparatus, control method therefor, and program | |
| JP4506779B2 (en) | Imaging apparatus and program | |
| JP2013205675A (en) | Imaging apparatus | |
| JP6997295B2 (en) | Imaging device, imaging method, and program | |
| JP2013012940A (en) | Tracking apparatus and tracking method | |
| JP2014056169A (en) | Focus adjustment device and focus adjustment method | |
| US9456140B2 (en) | Optimized image stabilization | |
| US8462259B2 (en) | Focusing image display device and method for displaying same | |
| US10277796B2 (en) | Imaging control apparatus, imaging apparatus, and imaging control method | |
| JP2017125985A (en) | Imaging apparatus | |
| JP2017021177A (en) | Range-finding point upon lens vignetting, range-finding area transition method | |
| US12175951B2 (en) | Imaging apparatus, and method of controlling imaging apparatus | |
| JP5977526B2 (en) | Image processing apparatus and image processing method | |
| JP2013162225A (en) | Tracker and imaging apparatus, and tracking method to be used for imaging apparatus | |
| JP2009042556A (en) | Electronic camera | |
| JP2018040928A (en) | Imaging control device and imaging control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150902 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160531 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160607 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160803 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20160803 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160902 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170302 |