[go: up one dir, main page]

JP2014056169A - Focus adjustment device and focus adjustment method - Google Patents

Focus adjustment device and focus adjustment method Download PDF

Info

Publication number
JP2014056169A
JP2014056169A JP2012201821A JP2012201821A JP2014056169A JP 2014056169 A JP2014056169 A JP 2014056169A JP 2012201821 A JP2012201821 A JP 2012201821A JP 2012201821 A JP2012201821 A JP 2012201821A JP 2014056169 A JP2014056169 A JP 2014056169A
Authority
JP
Japan
Prior art keywords
face
area
rotation angle
image data
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012201821A
Other languages
Japanese (ja)
Inventor
Shingo Miyazawa
慎吾 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012201821A priority Critical patent/JP2014056169A/en
Publication of JP2014056169A publication Critical patent/JP2014056169A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a focus adjustment device having high AF accuracy for a face, even when an object does not face the front and to provide a focus adjustment method.SOLUTION: The focus adjustment device includes a face detection part detecting a face area including the face of the object in an object image, based on image data generated by imaging the object image formed by a photographic optical system, an AF part setting an AF area in a photographing screen and executing an AF operation, based on the image data on the AF area, a rotation angle calculation part calculating the rotation angle of the face, based on the image data of the face area detected by the face detection part, and an AF area position correction part correcting the position of the AF area, based on the rotation angle calculated by the rotation angle calculation part.

Description

本発明は、被写体について焦点調節動作を行う焦点調節装置及び焦点調節方法に関する。   The present invention relates to a focus adjustment device and a focus adjustment method for performing a focus adjustment operation on a subject.

従来、撮像素子により取得された画像データに含まれている人物の顔の像を検出する顔検出処理の技術が知られている。また、この顔検出処理により検出された顔の像にピントが合うように合焦制御を行う撮像装置が知られている。   2. Description of the Related Art Conventionally, a technique of face detection processing for detecting a human face image included in image data acquired by an image sensor is known. There is also known an imaging apparatus that performs focusing control so that the face image detected by the face detection process is in focus.

特許文献1には、画像データに基づいて人物の顔を検出する顔検出処理を行い、顔領域を検出し、顔領域の大きさに応じてAFエリアの大きさを変更してAF動作を行うことが開示されている。このような処理によりAFエリアに含まれる背景により生ずるAF誤差を抑制する。   In Patent Document 1, face detection processing is performed to detect a person's face based on image data, the face area is detected, and the AF area is changed according to the size of the face area, and an AF operation is performed. It is disclosed. By such processing, an AF error caused by the background included in the AF area is suppressed.

特開2009−098317号公報JP 2009-098317 A

しかしながら、特許文献1の場合、被写体が正面を向いていない場合、たとえば横顔であるときに同様な方法でAFエリアのサイズを小さくするとAFエリア内に背景が含まれてしまい、AF精度が低下するという問題が残る。   However, in the case of Patent Document 1, when the subject is not facing the front, for example, when the subject is a side profile, if the size of the AF area is reduced by the same method, the background is included in the AF area, and the AF accuracy decreases. The problem remains.

本発明は、前記の事情に鑑みてなされたもので、被写体が正面を向いていない場合であっても、顔に対してAF精度の高い焦点調節装置および焦点調節方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a focus adjustment device and a focus adjustment method with high AF accuracy with respect to a face even when a subject is not facing the front. To do.

前記の目的を達成するために、第1の発明に係わる焦点調節装置は、撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出する顔検出部と、撮影画面内にAFエリアを設定し、該AFエリアに関する画像データに基づいてAF動作を実行するAF制御部と、前記顔検出部により検出された顔領域の画像データに基づいて顔の回転角を算出する回転角算出部と、前記回転角算出部により算出された回転角に基づいてAFエリアの位置を補正するAFエリア位置補正部と、を具備する。   In order to achieve the above object, a focus adjustment apparatus according to a first aspect of the present invention is based on image data generated by imaging a subject image formed by a photographing optical system, and A face detection unit that detects a face region including the face of the subject, an AF control unit that sets an AF area in a shooting screen and executes an AF operation based on image data related to the AF area, and the face detection unit A rotation angle calculation unit that calculates the rotation angle of the face based on the image data of the detected face area, and an AF area position correction unit that corrects the position of the AF area based on the rotation angle calculated by the rotation angle calculation unit And.

第2の発明に係わる焦点調節装置は、前記第1の発明において、前記回転角算出部は、顔の正立方向を軸とする第1の回転角と、顔の正対方向を軸とする第2の回転角を算出する。   In the focus adjustment apparatus according to a second aspect of the present invention, in the first aspect, the rotation angle calculation unit uses the first rotation angle with the face upright direction as the axis and the face-to-face direction as the axis. A second rotation angle is calculated.

第3の発明に係わる焦点調節装置は、前記第1の発明において 前記AFエリア位置補正部は、前記回転角算出部により算出された回転角に基づいて前記AFエリアの面積を変更する。   In the focus adjustment apparatus according to a third aspect, in the first aspect, the AF area position correction unit changes the area of the AF area based on the rotation angle calculated by the rotation angle calculation unit.

第4の発明に係わる焦点調節方法は、撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出し、検出された前記顔領域の画像データに基づいて顔の回転角を算出し、算出された前記回転角に基づいてAFエリアの位置を補正し、補正された前記AFエリアに対応する画像データに基づいて焦点調節動作を行う。   According to a fourth aspect of the present invention, there is provided a focus adjustment method, wherein a face region including a face of the subject is included in the subject image based on image data generated by capturing a subject image formed by a photographing optical system. Detecting, calculating a rotation angle of the face based on the detected image data of the face area, correcting the position of the AF area based on the calculated rotation angle, and an image corresponding to the corrected AF area A focus adjustment operation is performed based on the data.

本発明によれば、被写体が正面を向いていない場合であっても、顔に対して高いAF精度の焦点調節装置及び焦点調節方法を提供することができる。   According to the present invention, it is possible to provide a focus adjustment device and a focus adjustment method with high AF accuracy for a face even when the subject is not facing the front.

本発明の実施形態に係る焦点調節装置を備えた撮像装置の一例としての構成を示す図である。It is a figure which shows the structure as an example of the imaging device provided with the focus adjustment apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置の撮影動作を示すフローチャートである。4 is a flowchart illustrating a shooting operation of the imaging apparatus according to the embodiment of the present invention. 顔領域の検出方法について説明するための図である。It is a figure for demonstrating the detection method of a face area. 本発明の実施形態に係るAFエリアの位置補正の処理について示すフローチャートである。It is a flowchart shown about the position correction process of AF area which concerns on embodiment of this invention. 顔の回転角度と左右傾きについて説明するための図である。It is a figure for demonstrating the rotation angle and left-right inclination of a face. 顔の回転角度と左右傾きに応じた補正値について説明するための図である。It is a figure for demonstrating the correction value according to the rotation angle and left-right inclination of a face. 顔の回転角度について詳細に説明するための図である。It is a figure for demonstrating in detail about the rotation angle of a face. 顔の左右傾きについて詳細に説明するための図である。It is a figure for demonstrating in detail about the left-right inclination of a face. 顔の状況の一例に応じてAFエリアの位置を補正する動作について説明するための図である。It is a figure for demonstrating the operation | movement which correct | amends the position of AF area according to an example of the condition of a face. 顔の状況の他の例に応じてAFエリアの位置を補正する動作について説明するための図である。It is a figure for demonstrating the operation | movement which correct | amends the position of AF area according to the other example of the condition of a face.

以下、図面を参照して本発明の実施形態を説明する。図1は、本発明の各実施形態に係る焦点調節装置を備えた撮像装置の一例としての構成を示す図である。図1に示す撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134と、を有している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration as an example of an imaging apparatus including a focus adjustment apparatus according to each embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 1 includes a photographing optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface ( IF) circuit 116, RAM 118, display element 120, display element drive circuit 122, touch panel 124, touch panel drive circuit 126, recording medium 128, system controller 130, operation unit 132, and ROM 134. Have.

撮影光学系102は、図示しない被写体からの光束Fを、撮像素子114の受光面上に集光するための光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有している。焦点調整機構104は、モータ及びその駆動回路等を有している。この焦点調整機構104は、システムコントローラ130内のCPU1301の制御に従って、撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動させる。   The photographing optical system 102 is an optical system for condensing a light flux F from a subject (not shown) on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. The focus adjustment mechanism 104 includes a motor and its drive circuit. The focus adjustment mechanism 104 drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) under the control of the CPU 1301 in the system controller 130.

絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有している。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って、絞り106を駆動させる。   The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106. The diaphragm driving mechanism 108 drives the diaphragm 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って、シャッタ110を駆動させる。   The shutter 110 is configured to place the light receiving surface of the image sensor 114 in a light shielding state or an exposure state. The exposure time of the image sensor 114 is adjusted by the shutter 110. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110, and drives the shutter 110 under the control of the CPU 1301 in the system controller 130.

撮像素子114は、撮影光学系102を介して集光された被写体からの光束Fが結像される受光面を有している。撮像素子114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。   The imaging element 114 has a light receiving surface on which a light flux F from a subject condensed through the photographing optical system 102 is imaged. The light receiving surface of the image sensor 114 is configured by two-dimensionally arranging a plurality of pixels, and a color filter is provided on the light incident side of the light receiving surface. Such an image sensor 114 converts an image (subject image) corresponding to the light beam F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount. Here, as the imaging device 114, imaging devices having various configurations such as a CCD system and a CMOS system are known. Various color filters such as a Bayer array are also known. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration, and image sensors having various configurations can be used.

撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114を駆動させる。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。   The image sensor IF circuit 116 drives the image sensor 114 under the control of the CPU 1301 in the system controller 130. The image sensor IF circuit 116 reads the image signal obtained by the image sensor 114 according to the control of the CPU 1301 in the system controller 130, and performs CDS (correlated double sampling) processing or AGC (automatic operation) on the read image signal. Analog processing such as gain control processing is performed. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal (hereinafter referred to as image data).

記憶部としてのRAM118は、例えばSDRAMであり、ワークエリアを有している。ワークエリアは、撮像素子IF回路116で得られた画像データ等の、撮像装置100の各部で発生したデータを一時記憶しておくためにRAM118に設けられた記憶エリアである。   A RAM 118 serving as a storage unit is, for example, an SDRAM and has a work area. The work area is a storage area provided in the RAM 118 for temporarily storing data generated in each part of the imaging apparatus 100 such as image data obtained by the imaging element IF circuit 116.

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種の画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動させ、表示素子120に画像を表示させる。   The display element 120 is a liquid crystal display (LCD), for example, and displays various images such as an image for live view and an image recorded on the recording medium 128. The display element driving circuit 122 drives the display element 120 based on the image data input from the CPU 1301 of the system controller 130 and causes the display element 120 to display an image.

タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動するとともに、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。   The touch panel 124 is integrally formed on the display screen of the display element 120, and detects a contact position of a user's finger or the like on the display screen. The touch panel drive circuit 126 drives the touch panel 124 and outputs a contact detection signal from the touch panel 124 to the CPU 1301 of the system controller 130. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、画像データに所定のヘッダを付与して構成されるファイルである。ヘッダには、撮影条件を示すデータ等が、タグデータとして記録される。   The recording medium 128 is a memory card, for example, and records an image file obtained by a shooting operation. The image file is a file configured by adding a predetermined header to image data. In the header, data indicating shooting conditions is recorded as tag data.

システムコントローラ130は、撮像装置100の動作を制御するための制御回路として、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、顔検出回路1305と、メモリ制御回路1306と、を有している。   The system controller 130 is a control circuit for controlling the operation of the imaging apparatus 100, and includes a CPU 1301, an AF control circuit 1302, an AE control circuit 1303, an image processing circuit 1304, a face detection circuit 1305, and a memory control circuit 1306. And have.

CPU1301は、制御部としての機能を有し、焦点調整機構104、絞り駆動機構108、シャッタ駆動機構112、表示素子駆動回路122、タッチパネル駆動回路126等のシステムコントローラ130の外部の各ブロック、及びシステムコントローラ130の内部の各制御回路の動作を制御する。   The CPU 1301 has a function as a control unit. Each block outside the system controller 130 such as the focus adjustment mechanism 104, the aperture driving mechanism 108, the shutter driving mechanism 112, the display element driving circuit 122, and the touch panel driving circuit 126, and the system The operation of each control circuit in the controller 130 is controlled.

AF制御回路1302は、コントラストAF処理を制御する。具体的には、AF制御回路1302は、撮像素子IF回路116で得られた画像データのうち所定のAFエリアに相当する画像データの高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。CPU1301とAF制御回路1302はAF制御部を構成する。   The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts high-frequency components of image data corresponding to a predetermined AF area from the image data obtained by the image sensor IF circuit 116, and integrates the extracted high-frequency components. The focus evaluation value for AF is acquired. The CPU 1301 controls the focus adjustment mechanism 104 to bring the focus lens into focus while evaluating the contrast of the image data according to the focus evaluation value. The CPU 1301 and the AF control circuit 1302 constitute an AF control unit.

AE制御回路1303は、AE動作を制御する。具体的には、AE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。   The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates subject luminance using the image data obtained by the image sensor IF circuit 116. The CPU 1301 calculates the aperture amount (aperture value) of the aperture 106 during exposure, the opening time of the shutter 110 (shutter speed value), the image sensor sensitivity, the ISO sensitivity, and the like according to the subject brightness.

画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理としては、色補正処理、ガンマ(γ)補正処理、圧縮処理等が含まれる。また、画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。   The image processing circuit 1304 performs various image processing on the image data. This image processing includes color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.

顔検出回路1305は、公知のパターン認識技術を用いた顔検出アルゴリズムにより顔領域を検出する。輪郭形状や肌色領域の検出により顔候補とされた領域内から目や鼻に相当する特徴量を抽出し、抽出された特徴量と複数の顔テンプレート画像の特徴量とを照合することによって、顔候補が人物の顔であるか否かを判別する。顔検出回路1305は、顔を判別し検出すると、顔領域の位置(座標)、顔領域の大きさ、顔の回転角度、顔検出の信頼度を算出し、CPU1301へ出力する。また、顔検出回路1305は、目(瞳)の領域を検出する機能も有し、目領域の位置(座標)、大きさを算出し、CPU1301に出力する。顔検出回路1305は、顔検出部および回転角度検出部を構成する。   The face detection circuit 1305 detects a face area by a face detection algorithm using a known pattern recognition technique. A feature amount corresponding to the eyes and nose is extracted from the region that is a face candidate by detecting the contour shape and skin color region, and the extracted feature amount is compared with the feature amounts of a plurality of face template images. It is determined whether the candidate is a person's face. When the face detection circuit 1305 discriminates and detects the face, it calculates the position (coordinates) of the face area, the size of the face area, the rotation angle of the face, and the reliability of face detection, and outputs them to the CPU 1301. The face detection circuit 1305 also has a function of detecting an eye (pupil) area, calculates the position (coordinates) and size of the eye area, and outputs the calculated position to the CPU 1301. The face detection circuit 1305 constitutes a face detection unit and a rotation angle detection unit.

CPU1301は、顔検出回路1305が出力する顔領域データ、顔の回転角度データに応じてAFエリアの位置を補正するAFエリア位置補正部を構成する。   The CPU 1301 constitutes an AF area position correction unit that corrects the position of the AF area according to the face area data and the face rotation angle data output from the face detection circuit 1305.

メモリ制御回路1306は、CPU1301等が、RAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。   The memory control circuit 1306 is an interface that performs control for the CPU 1301 and the like to access the RAM 118, the recording medium 128, and the ROM 134.

操作部132は、ユーザによって操作される各種の操作部材である。操作部132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。   The operation unit 132 is various operation members operated by the user. The operation unit 132 includes, for example, a release button, a moving image button, a mode dial, a selection key, a power button, and the like.

レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチと、を有している。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンするスイッチである。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。また、2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンするスイッチである。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。   The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user half-presses the release button. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.

動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。   The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.

モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。   The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.

選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。   The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.

電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。   The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the imaging apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the imaging apparatus 100 enters a power saving standby state.

ROM134は、たとえばFlashROMであり、CPU1301が種々の処理を実行するためのプログラムコードを記憶している。また、ROM134は、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。さらには、ROM134は、AFエリアの位置を補正するためのデータ等を記憶している。   The ROM 134 is, for example, a Flash ROM, and stores program codes for the CPU 1301 to execute various processes. In addition, the ROM 134 stores various control parameters such as control parameters necessary for the operation of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, and control parameters necessary for image processing in the image processing circuit 1304. ing. Further, the ROM 134 stores data for correcting the position of the AF area.

次に、本実施形態に係る撮像装置の動作について説明する。図2は、撮像装置100の撮影動作を示すフローチャートである。CPU1301は、ROM134から必要なプログラムコードを読み込んで図2の動作を制御する。   Next, the operation of the imaging apparatus according to the present embodiment will be described. FIG. 2 is a flowchart illustrating the shooting operation of the imaging apparatus 100. The CPU 1301 reads the necessary program code from the ROM 134 and controls the operation of FIG.

S100において、CPU1301は、ライブビュー動作を開始させる。ライブビュー動作として、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、CPU1301は、撮像素子IF回路116を制御して撮像素子114による撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作を繰り返し実行することにより、被写体の画像を動画表示する。この動画表示により、ユーザは、被写体を観察することが可能である。   In S100, the CPU 1301 starts a live view operation. As a live view operation, the CPU 1301 controls the shutter drive mechanism 112 to release the shutter 110, and then the CPU 1301 controls the image sensor IF circuit 116 to start imaging by the image sensor 114. Thereafter, the CPU 1301 inputs the image data stored in the work area of the RAM 118 as a result of imaging by the imaging device 114 to the image processing circuit 1304 and performs image processing for live view display. Subsequently, the CPU 1301 inputs image data that has been subjected to image processing for live view display to the display element driving circuit 122 and causes the display element 120 to display an image. By repeatedly executing such a display operation, the subject image is displayed as a moving image. By this moving image display, the user can observe the subject.

S102において、CPU1301は、顔検出回路1305に顔検出処理を実行するように指示する。顔検出回路1305は、顔検出処理を実行し顔検出ができたか否かの結果を示す情報や、検出した顔領域に関する様々な情報、たとえば顔領域の位置や大きさ等の情報をCPU1301に出力する。   In step S102, the CPU 1301 instructs the face detection circuit 1305 to execute face detection processing. The face detection circuit 1305 outputs to the CPU 1301 information indicating whether or not face detection has been performed by performing face detection processing, and various information related to the detected face area, for example, information such as the position and size of the face area. To do.

S104において、CPU1301は、顔検出回路1305の出力する情報に基づいて顔検出ができたか否かを判別する。そして顔検出ができた場合はS106に進み、顔検出ができなかった場合はS108に進む。   In step S <b> 104, the CPU 1301 determines whether face detection has been performed based on information output from the face detection circuit 1305. If the face is detected, the process proceeds to S106. If the face is not detected, the process proceeds to S108.

S106において、CPU1301は、顔が検出された最新の顔領域を示す表示枠を表示するように表示素子駆動回路122に指示する。表示素子駆動回路122は、CPU1301の指示に応じて表示素子120により顔領域を示す表示を行う
S108において、CPU1301は1stレリーズスイッチがオンされたかを判定する。S108において、1stレリーズスイッチがオンされていないと判定すると、CCPU1301は、S102に処理を戻して顔検出処理を実行する。このように、1stレリーズスイッチがオンされるまでは、CPU1301は、ライブビュー動作を継続し、検出した顔領域を更新して顔領域の表示を行う。
In step S106, the CPU 1301 instructs the display element driving circuit 122 to display a display frame indicating the latest face area in which the face is detected. The display element driving circuit 122 performs display indicating the face area by the display element 120 in accordance with an instruction from the CPU 1301. In S108, the CPU 1301 determines whether or not the 1st release switch is turned on. If it is determined in S108 that the first release switch is not turned on, the CCPU 1301 returns the process to S102 and executes the face detection process. Thus, until the 1st release switch is turned on, the CPU 1301 continues the live view operation, updates the detected face area, and displays the face area.

また、S108において、1stレリーズスイッチがオンされたと判定した場合に、S110において、CPU1301は、最終的に顔検出できているか否かを判別する。そして、CPU1301は、顔検出ができていない場合はS112に、顔検出ができている場合はS114にそれぞれ処理を進める。   If it is determined in S108 that the 1st release switch is turned on, in S110, the CPU 1301 determines whether or not the face is finally detected. Then, the CPU 1301 advances the process to S112 when the face is not detected, and advances to S114 when the face is detected.

S112において、CPU1301は予め決められたAFエリアを設定する。たとえば、撮影画面内に複数のAFエリアを配置するマルチAFモードに応じたAFエリアを設定する。そしてS120に進む。   In step S112, the CPU 1301 sets a predetermined AF area. For example, an AF area corresponding to the multi AF mode in which a plurality of AF areas are arranged in the shooting screen is set. Then, the process proceeds to S120.

S114においては、CPU1301は顔検出回路1305による瞳検出ができているか判定する。そして、CPU1301は、瞳検出ができていない場合はS116に、瞳検出ができている場合はS118にそれぞれ処理を進める。瞳検出処理は、顔がある程度大きい場合には、瞳部分に相当する画像データの量が多いので高精度に瞳を検出することができる。しかしながら、顔が小さくなっていくと、瞳部分に相当する画像データの量が少なくなり検出することができなくなる。   In step S114, the CPU 1301 determines whether the face detection circuit 1305 can detect the pupil. Then, the CPU 1301 advances the process to S116 when the pupil is not detected, and advances to S118 when the pupil is detected. In the pupil detection process, when the face is large to some extent, the amount of image data corresponding to the pupil portion is large, so that the pupil can be detected with high accuracy. However, as the face becomes smaller, the amount of image data corresponding to the pupil portion becomes smaller and cannot be detected.

S116においては、CPU1301は後述するAFエリア位置補正を実行し、補正したAFエリアを設定する。また、S118においては、CPU1301は顔検出回路1305による瞳検出の結果に基づき、瞳領域の位置に対応させてAFエリアを設定する。そしてS120に進む。   In step S116, the CPU 1301 executes AF area position correction, which will be described later, and sets a corrected AF area. In step S118, the CPU 1301 sets an AF area corresponding to the position of the pupil region based on the result of pupil detection by the face detection circuit 1305. Then, the process proceeds to S120.

S120においては、CPU1301はAF処理を実行する。AF処理においては、スキャン駆動によって、フォーカスレンズを合焦位置まで駆動させる。スキャン駆動では、CPU1301は、焦点調整機構104を制御してフォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AFエリア内の画像データに基づきAF制御回路1302で順次算出される合焦評価値を評価する。そして、CPU1301は、合焦評価値の評価の結果、合焦評価値が最大、すなわち画像のコントラストが最大となるフォーカスレンズの位置において、フォーカスレンズの駆動を停止させる。   In S120, the CPU 1301 executes AF processing. In the AF process, the focus lens is driven to the in-focus position by scan driving. In the scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to drive the focus lens in one direction within a predetermined scan range, and the focus is sequentially calculated by the AF control circuit 1302 based on the image data in the AF area. Evaluate the evaluation value. Then, the CPU 1301 stops the drive of the focus lens at the position of the focus lens where the focus evaluation value is maximum, that is, the image contrast is maximum, as a result of the evaluation of the focus evaluation value.

また、CPU1301はAF処理の実行中に並行してAE処理を行う。AE処理においては、CPU1301は、AE制御回路1303で算出されたAFエリアに位置する被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。   Further, the CPU 1301 performs the AE process in parallel with the execution of the AF process. In the AE process, the CPU 1301 sets the aperture of the aperture 106 during the main exposure (the appropriate exposure amount) so that the luminance of the subject located in the AF area calculated by the AE control circuit 1303 is a predetermined appropriate amount (appropriate exposure amount). Aperture value) and the opening time of the shutter 110 (shutter speed value) are calculated.

S122において、CPU1301は2ndレリーズスイッチがオンされたかを判定し、2ndレリーズスイッチがオンされるまで待機する。そして、2ndレリーズスイッチがオンされたと判定した場合に、S123において露出動作を行う。   In step S122, the CPU 1301 determines whether the 2nd release switch is turned on, and waits until the 2nd release switch is turned on. When it is determined that the 2nd release switch is turned on, an exposure operation is performed in S123.

露出動作においては、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を閉じ、絞り駆動機構108を制御して、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を先に算出した開放時間だけ開放しつつ、撮像素子114による撮像動作を行う。 その後、CPU1301は、撮像素子114の撮像動作により得られた画像データを画像処理回路1304にて処理を行わせ、静止画像データを得る。S124において、CPU1301は、静止画像データを記録メディア128に記録する処理を行う。その後、CPU1301は、図1に示す処理を終了させる。   In the exposure operation, the CPU 1301 controls the shutter drive mechanism 112 to close the shutter 110 and controls the aperture drive mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 to perform an imaging operation by the imaging element 114 while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 causes the image processing circuit 1304 to process the image data obtained by the imaging operation of the imaging element 114 to obtain still image data. In step S <b> 124, the CPU 1301 performs processing for recording still image data on the recording medium 128. Thereafter, the CPU 1301 ends the process shown in FIG.

次に、顔検出回路1305により実行される顔検出の結果に基づいて顔領域を設定する方法について説明する。図3は、顔Fに対する顔検出領域の設定を示すものである。   Next, a method for setting a face area based on the result of face detection executed by the face detection circuit 1305 will be described. FIG. 3 shows setting of the face detection area for the face F.

まず、顔領域の幅の設定について説明する。図3に示す顔Fの画像データの中から両方の目(瞳)を検出し、両目の間隔をLeとする。ここでは、統計に基づいて、一般に顔の幅は両目の間隔の所定倍と仮定するものとする。この仮定に基づき、両目の間隔Leに対して所定の比率Nを乗じたN×Leを、両目の中心より均等に振り分けたものを顔領域Faの幅Lf1と設定する。   First, setting of the width of the face area will be described. Both eyes (pupils) are detected from the image data of the face F shown in FIG. 3, and the interval between the eyes is set to Le. Here, based on statistics, it is generally assumed that the face width is a predetermined multiple of the distance between the eyes. Based on this assumption, N × Le obtained by multiplying the distance Le between both eyes by a predetermined ratio N and equally distributed from the center of both eyes is set as the width Lf1 of the face area Fa.

次に、顔領域の長さ方向の設定について説明する。統計に基づいて、一般的に顔の長さ方向に対する目の位置は、顔の長さを所定の比率で分割した位置と仮定するものとする。この仮定に基づき、顔の長さ方向の目の位置を基準として、顔の長さ方向に所定距離の範囲を顔領域として設定する。   Next, setting of the length direction of the face area will be described. Based on statistics, it is generally assumed that the eye position in the face length direction is a position obtained by dividing the face length by a predetermined ratio. Based on this assumption, a range of a predetermined distance in the face length direction is set as a face area with the eye position in the face length direction as a reference.

図3に示す顔Fの画像データの中から両目を検出し、顔の長さ方向の目の位置を決定する。そして、統計に基づく一般的な顔の長さを長さ方向に分割する目の位置の比率をL:Mとすると、目を基準として顔の長さ方向に頭部(上)方向の領域範囲Lte(FLE×L/(L+M))、目の顎(下)方向の領域範囲Lbe(FLE×M/(L+M))を設定する(顔の長さをFLEとする)。   Both eyes are detected from the image data of the face F shown in FIG. 3, and the position of the eyes in the length direction of the face is determined. Then, assuming that the ratio of the position of the eyes that divides the length of a general face based on statistics in the length direction is L: M, the region range in the head (up) direction in the length direction of the face with respect to the eyes Lte (FLE × L / (L + M)), a region range Lbe (FLE × M / (L + M)) in the chin (downward) direction of the eye is set (the length of the face is assumed to be FLE).

このような顔領域の設定処理は、顔検出回路1305により顔検出処理の一部として実行され(図2:S102)、顔領域Faの中心座標Fcや顔領域のサイズS(Lf1、Lf2、面積等)がCPU1301に出力される。   Such face area setting processing is executed by the face detection circuit 1305 as part of face detection processing (FIG. 2: S102), and the center coordinates Fc of the face area Fa and the size S (Lf1, Lf2, area) of the face area Etc.) is output to the CPU 1301.

次に、図2のS116に示すAFエリア位置補正の処理について、図4を参照して説明する。S200において、CPU1301は、顔検出回路1305より最新の顔領域の情報を取得する。顔領域の情報には、顔領域の大きさと位置の他に、顔の回転角度、顔の左右傾き情報、等が含まれている。顔検出回路1305は、顔検出処理の中で、公知の技術により顔の回転角度、顔の左右傾き情報を算出して、CPU1301に出力する。   Next, the AF area position correction process shown in S116 of FIG. 2 will be described with reference to FIG. In step S <b> 200, the CPU 1301 acquires the latest face area information from the face detection circuit 1305. In addition to the size and position of the face area, the face area information includes a face rotation angle, face left-right tilt information, and the like. In the face detection process, the face detection circuit 1305 calculates face rotation angle and face left-right tilt information by a known technique, and outputs the information to the CPU 1301.

S202において、CPU1301は、顔領域の情報に含まれる顔の回転角度に基づいて補正値の領域(後述するR1−R4)を選択する。   In step S <b> 202, the CPU 1301 selects a correction value area (R <b> 1 to R <b> 4 described later) based on the face rotation angle included in the face area information.

S204において、CPU1301は、顔領域の情報に含まれる顔の左右傾き情報に基づいてS202により選択された補正値の領域(R1−R4)において補正値(後述するX方向オフセットXO、Y方向オフセットYO)を選択する。   In S204, the CPU 1301 corrects correction values (X-direction offset XO and Y-direction offset YO described later) in the correction value area (R1-R4) selected in S202 based on the left / right tilt information of the face included in the face area information. ) Is selected.

S206において、CPU1301は、選択された補正値に基づいてAFエリアの位置を補正する。次にAFエリア位置補正の詳細な処理について説明する。   In step S206, the CPU 1301 corrects the position of the AF area based on the selected correction value. Next, detailed processing of AF area position correction will be described.

図5は、AFエリアの位置を補正するための入力条件となる顔の回転角度(第1の回転角)と左右傾き角度(第2の回転角)について説明するため図である。   FIG. 5 is a diagram for explaining a face rotation angle (first rotation angle) and a horizontal tilt angle (second rotation angle), which are input conditions for correcting the position of the AF area.

図5(A)に示すように、顔の回転角度は、人物の頭部Hの前後方向の軸F−Rを中心として顔が回転する角度とする。軸F−Rは、顔を平面とする場合に顔の中心、たとえば鼻の中心を、垂直に通るものとする。   As shown in FIG. 5A, the rotation angle of the face is an angle at which the face rotates about the axis F-R in the front-rear direction of the head H of the person. The axis F-R passes vertically through the center of the face, for example, the center of the nose, when the face is a plane.

また、図5(B)に示すように、顔の左右傾きは、人物の頭部Hの上下方向の軸T−Bを中心として顔が回転する角度とする。軸T−Bは、頭部を上から見た場合の中心を通るように設定する。   Further, as shown in FIG. 5B, the left-right inclination of the face is an angle at which the face rotates about the vertical axis TB of the person's head H. The axis TB is set so as to pass through the center when the head is viewed from above.

図6は、人物の顔の回転角度(第1の回転角)と顔の左右傾き情報(第2の回転角)に応じたAFエリアの位置の補正に関する補正値を示すテーブルである。図6のテーブルデータは、ROM134に制御パラメータの一部として記憶されている。   FIG. 6 is a table showing correction values relating to the correction of the position of the AF area according to the rotation angle (first rotation angle) of the person's face and the left / right tilt information (second rotation angle) of the face. The table data of FIG. 6 is stored in the ROM 134 as a part of the control parameter.

CPU1301は、ROM134から図6に示すテーブルデータを読み出してAFエリアの位置の補正を行う。図6において、補正値は、X方向オフセットXOとY方向オフセットYOであり、それぞれ単位は%である。   The CPU 1301 reads the table data shown in FIG. 6 from the ROM 134 and corrects the position of the AF area. In FIG. 6, the correction values are an X-direction offset XO and a Y-direction offset YO, and each unit is%.

図6において、顔の回転角度θはR1からR4の4個の領域に分割され、顔の左右の傾きδは左、正面、右の3個に分割されている。そして、これらの組合せに応じて補正値(X方向オフセットXO、Y方向オフセットYO)が設定されている。   In FIG. 6, the rotation angle θ of the face is divided into four regions R1 to R4, and the left / right inclination δ of the face is divided into three regions, left, front, and right. Then, correction values (X direction offset XO, Y direction offset YO) are set according to these combinations.

図7は、上記顔の回転角度θ(第1の回転角)の分割(R1からR4)を説明するための図である。顔の回転角度θは、図5(A)に示すように、顔の前後方向を軸とする顔の回転の角度であるが、図7に示すように人物が正立した状態における顔の回転角度を0とする。たとえば、顔の回転により方向T−Bが、方向T´−B´に変化した場合の顔の回転角度はθとなる。図7においては、回転角度θは、領域R2に含まれ領域R2に該当する補正値が選択される候補となる。   FIG. 7 is a diagram for explaining division (R1 to R4) of the face rotation angle θ (first rotation angle). The face rotation angle θ is the rotation angle of the face with the front-rear direction of the face as an axis as shown in FIG. 5A, but the face rotation in a state where the person is upright as shown in FIG. The angle is 0. For example, the face rotation angle when the direction TB changes to the direction T′-B ′ due to the rotation of the face is θ. In FIG. 7, the rotation angle θ is a candidate for selecting a correction value included in the region R2 and corresponding to the region R2.

図8は、上記顔の左右傾きδ(第2の回転角)の分割(左、正面、右)を説明するための図である。顔の左右傾き情報は、図5(B)に示すように、顔の上下方向を軸とする顔の回転の角度であり、図8に示すように、人物が正対した状態、顔がFの方向における左右傾き情報を0とする。例えば顔の左右回転により方向F−Bが、方向F´−B´に変化した場合の、顔の左右傾きはδとなる。なお、顔の左右傾き情報δは、撮影者から見た顔の向きで定義するものとし、図8においては、左右傾き情報δは左向き領域に含まれる。この場合は左向き領域に該当する補正値が選択される。   FIG. 8 is a diagram for explaining division (left, front, right) of the left-right inclination δ (second rotation angle) of the face. As shown in FIG. 5B, the left / right tilt information of the face is a rotation angle of the face with the vertical direction of the face as an axis. As shown in FIG. The left / right tilt information in the direction of For example, when the direction FB is changed to the direction F′-B ′ by the left-right rotation of the face, the left-right inclination of the face is δ. Note that the right / left tilt information δ of the face is defined by the orientation of the face as viewed from the photographer, and in FIG. 8, the left / right tilt information δ is included in the leftward area. In this case, the correction value corresponding to the leftward area is selected.

このように顔の回転角度θと顔の左右傾きδの組合せに応じて、図6に示す補正値を選択する
次に、上記選択された補正値を用いて、AFエリアの位置を補正するためのAFエリアの位置の補正式について説明する。AFエリアの位置の補正式を下記式(1)、(2)に示す。
In this way, the correction value shown in FIG. 6 is selected according to the combination of the face rotation angle θ and the left / right inclination δ of the face. Next, in order to correct the position of the AF area using the selected correction value. The AF area position correction formula will be described. Expressions (1) and (2) below are used to correct the AF area position.

補正AFエリア位置_X = 顔位置中心_X +(顔サイズS×補正係数Hx×X方向オフセットXO) ・・・ (1)
補正AFエリア位置_Y = 顔位置中心_Y +(顔サイズS×補正係数Hy×Y方向オフセットYO) ・・・ (2)
顔領域の中心位置を示す顔位置中心_X、顔位置中心_Y、および顔サイズSは、顔検出回路1305にて算出されCPU1301へ出力されるデータである。
Correction AF area position_X = face position center_X + (face size S × correction coefficient Hx × X direction offset XO) (1)
Correction AF area position_Y = face position center_Y + (face size S × correction coefficient Hy × Y direction offset YO) (2)
The face position center_X, the face position center_Y, and the face size S indicating the center position of the face area are data calculated by the face detection circuit 1305 and output to the CPU 1301.

補正AFエリア位置_X、補正AFエリア位置_Yは、AFエリアの中心の補正後の位置を示し、上記(1)、(2)式を用いてCPU1301により算出される。   The corrected AF area position_X and the corrected AF area position_Y indicate the corrected position of the center of the AF area, and are calculated by the CPU 1301 using the above formulas (1) and (2).

CPU1301は、補正AFエリア位置_X、補正AFエリア位置_Yを中心として補正されたAFエリアを設定する。補正されたAFエリアの大きさは、通常のAFエリアの大きさ(面積)を所定比率だけ縮小した大きさとする。所定比率はたとえば50%としてもよい。これは、AFエリアが顔領域をはみ出して設定され、背景を含んでしまい背景の影響を受けて合焦精度が低下することを防止するためである。   The CPU 1301 sets an AF area corrected around the corrected AF area position_X and the corrected AF area position_Y. The size of the corrected AF area is a size obtained by reducing the size (area) of the normal AF area by a predetermined ratio. The predetermined ratio may be 50%, for example. This is to prevent the AF area from being set so as to protrude from the face area, including the background, and reducing the focusing accuracy due to the influence of the background.

補正係数Hx、Hyは、補正量を微調整するための係数であり、顔検出回路1305より出力される顔検出の信頼度や角度検出の信頼度、その他の条件に応じてCPU1301によって設定される。補正係数Hx、Hyは、通常は1と設定される。   The correction coefficients Hx and Hy are coefficients for finely adjusting the correction amount, and are set by the CPU 1301 according to the reliability of face detection, the reliability of angle detection output from the face detection circuit 1305, and other conditions. . The correction coefficients Hx and Hy are normally set to 1.

図9は、AFエリア位置補正を行った場合のAFエリアの設定を、AFエリア補正処理を行なわない場合のAFエリアの設定とともに記載し、その差を示すものである。図9において、顔検出の対象となった人物の頭部Hに対して、AFEC´は顔検出回路1305により検出された顔位置中心_X、顔位置中心_Yにより示される顔位置の中心である。AFE´は、顔検出回路1305により検出された顔領域を示す。前述のように顔領域検出処理は、顔領域の中心をほぼ人物の鼻の付近に設定するようなアルゴリズムとなっているのでそのような位置関係になる。   FIG. 9 shows the setting of the AF area when the AF area position correction is performed together with the setting of the AF area when the AF area correction process is not performed, and shows the difference. In FIG. 9, AFEC ′ is the center of the face position indicated by the face position center_X and the face position center_Y detected by the face detection circuit 1305 with respect to the head H of the person whose face is to be detected. is there. AFE ′ indicates a face area detected by the face detection circuit 1305. As described above, the face area detection process has such a positional relationship because the algorithm is such that the center of the face area is set approximately in the vicinity of the person's nose.

ここで、顔領域AFE´をAFエリアとしてAF処理が実行された場合、顔が撮影者にとって右方向に角度を持って傾いているので、AFエリアは実際の顔よりもはみ出した範囲に設定されており背景が含まれている。このため、背景の影響を受けてAF精度が低下する問題が発生する。   Here, when the AF processing is executed with the face area AFE ′ as the AF area, the face is inclined at an angle to the right for the photographer, so the AF area is set to a range that protrudes beyond the actual face. The background is included. For this reason, there arises a problem that the AF accuracy is lowered under the influence of the background.

本実施例では、以下のようにAFエリアの位置の補正を行う。図9の場合は、顔は正立しているので顔の回転角度は「0°」であり、顔は撮影者にとって右方向を向いており顔の左右方向の傾き情報は「右」とする。顔検出回路1305は、顔の回転角度(0°)と、顔の左右方向の傾き情報(右)と、図6のテーブルデータおよび式(1)、(2)に基づいてAFエリアの位置の補正を行う。   In this embodiment, the position of the AF area is corrected as follows. In the case of FIG. 9, since the face is upright, the rotation angle of the face is “0 °”, the face is directed rightward for the photographer, and the right / left tilt information of the face is “right”. . The face detection circuit 1305 determines the position of the AF area based on the rotation angle (0 °) of the face, the tilt information (right) of the left / right direction of the face, the table data of FIG. 6 and the equations (1) and (2). Make corrections.

具体的に図6のテーブルデータを適用すると、顔の回転角度θ=0より領域R1であり、顔の左右傾き情報δ=右であるので、X方向オフセットXO=−20%、Y方向オフセットYO=15%となる。具体的に式(1)、(2)に適用すると、補正係数Hx、Hyをそれぞれ1として、以下にようになる。   Specifically, when the table data of FIG. 6 is applied, since the face rotation angle θ = 0 is the region R1 and the face right / left tilt information δ = right, the X direction offset XO = −20% and the Y direction offset YO. = 15%. Specifically, when applied to the equations (1) and (2), the correction coefficients Hx and Hy are set to 1 as follows.

補正AFエリア位置_X=顔位置中心_X+顔サイズS×(−20%)、
補正AFエリア位置_Y=顔位置中心_Y+顔サイズS×15%
そして、顔検出の対象となった人物の頭部Hに対して、補正前の顔位置中心AFEC´は顔検出回路1305により補正された顔位置中心AFECへ変更される。また、補正前の顔領域AFE´は、顔検出回路1305により補正された顔領域AFEへ変更される。そして、CPU1301は、補正後の顔領域AFEをAFエリアに設定することによりAFエリアに背景を含まない状態とし、背景の影響を受けず高精度なAFを実行することが可能である。
Correction AF area position_X = face position center_X + face size S × (−20%),
Corrected AF area position_Y = face position center_Y + face size S × 15%
Then, the face position center AFEC ′ before correction is changed to the face position center AFEC corrected by the face detection circuit 1305 with respect to the head H of the person subjected to face detection. Further, the face area AFE ′ before correction is changed to the face area AFE corrected by the face detection circuit 1305. Then, the CPU 1301 sets the corrected face area AFE as an AF area so that the AF area does not include a background, and can perform highly accurate AF without being affected by the background.

次に、図9とは異なる顔の状況の例について図10に基づいて説明する。図10において、顔の回転角度が90°であり、顔が撮影者にとって右方向を向いている状態である。顔検出の対象となった人物の頭部Hに対して、AFEC´は顔検出回路1305により検出された顔位置の中心であり、AFE´は、顔検出回路1305により検出された顔領域を示す。このとき、顔領域AFEをAFエリアとしてAF処理が実行された場合、AFエリアは、実際の顔よりもはみ出した範囲に設定されており背景が含まれAF精度が低下する問題が発生する。   Next, an example of a face situation different from FIG. 9 will be described with reference to FIG. In FIG. 10, the rotation angle of the face is 90 °, and the face is facing the right direction for the photographer. For the head H of the person who is the target of face detection, AFEC ′ is the center of the face position detected by the face detection circuit 1305, and AFE ′ indicates the face area detected by the face detection circuit 1305. . At this time, when the AF process is executed with the face area AFE as the AF area, the AF area is set in a range that protrudes beyond the actual face, and there is a problem that the background is included and the AF accuracy is lowered.

図10において、顔の回転角度は「90°」であり、顔は撮影者にとって右方向を向いており顔の左右方向の傾き情報は「右」とする。顔検出回路1305は、顔の回転角度(90°)と、顔の左右方向の傾き情報(右)と、図6のテーブルデータおよび式(1)、(2)に基づいてAFエリアの位置の補正を行う。   In FIG. 10, the rotation angle of the face is “90 °”, the face is facing the right direction for the photographer, and the right / left tilt information of the face is “right”. The face detection circuit 1305 determines the position of the AF area based on the rotation angle (90 °) of the face, the tilt information (right) of the horizontal direction of the face, the table data in FIG. 6 and the equations (1) and (2). Make corrections.

具体的に図6のテーブルデータを適用すると、顔の回転角度θ=90°より領域R2であり、顔の左右傾き情報δ=右であるので、X方向オフセット=15、Y方向オフセット=20となる。具体的に式(1)、(2)に適用すると、補正係数Hx、Hyをそれぞれ1として、以下にようになる。   Specifically, when the table data of FIG. 6 is applied, since the face rotation angle θ = 90 ° is the region R2, and the right / left tilt information δ = right, the X direction offset = 15 and the Y direction offset = 20. Become. Specifically, when applied to the equations (1) and (2), the correction coefficients Hx and Hy are set to 1 as follows.

補正AFエリア位置_X=顔位置中心_X+顔サイズS×15%、
補正AFエリア位置_Y=顔位置中心_Y+顔サイズS×20%
顔検出の対象となった人物の頭部Hに対して、補正前の顔位置中心AFEC´は顔位置中心AFECへ変更され、補正前の顔領域AFE´は、補正された顔領域AFEへ変更される。そして、CPU1301は、補正後の顔領域AFEをAFエリアに設定することによりAFエリアに背景を含まない状態とすることができ、背景の影響を受けず高精度なAFを実行することが可能である。
Correction AF area position_X = face position center_X + face size S × 15%,
Corrected AF area position_Y = face position center_Y + face size S × 20%
The face position center AFEC ′ before correction is changed to the face position center AFEC with respect to the head H of the person subjected to face detection, and the face area AFE ′ before correction is changed to the corrected face area AFE. Is done. Then, the CPU 1301 can set the corrected face area AFE as an AF area so that the AF area does not include a background, and can perform highly accurate AF without being affected by the background. is there.

なお、図6のテーブルデータにおいて、X方向オフセットXOとY方向オフセットYOを絶対値が異なる補正値にしているのは、顔が左右方向に傾いた場合に人物の耳やもみあげ等のコントラストの高い部分を検出しやすいようにするためである。   In the table data of FIG. 6, the X-direction offset XO and the Y-direction offset YO are set to correction values having different absolute values when the face is tilted in the left-right direction and has high contrast such as a person's ear or sideburns. This is to make it easy to detect the portion.

顔が正立またはそれに近い状態である図6の領域R1においては、X方向オフセットXOを絶対値がより大きい数値としている。また、顔が正立から90度回転、またはそれに近い状態である図6の領域R2においては、Y方向オフセットYOを絶対値がより大きい数値としている。
<変形例>
本実施例では、顔の回転角度を4個の領域に分割し、顔の左右傾き情報を3個の領域に分割して補正値を設定しているが、これに限定されることなく分割数を増減させてもよい。たとえば、顔の回転角度をより細かい8個の領域に分割して補正値を設定することや、顔の左右の傾きを「左向き」、「正面」、「右向き」に加えて「斜め左向き」、「斜め右向き」を追加して5個の領域に分割して補正値を設定してもよい。あるいは、図6に示すテーブルデータの代わりに所定の演算式を記憶しており、補正値を算出してもよい。所定の演算式はROM134に記憶させればよい。
In the region R1 of FIG. 6 where the face is upright or close to it, the X-direction offset XO is a numerical value with a larger absolute value. Further, in the region R2 in FIG. 6 where the face is rotated 90 degrees from erect or close to it, the Y-direction offset YO is a numerical value having a larger absolute value.
<Modification>
In this embodiment, the face rotation angle is divided into four areas, and the right / left tilt information of the face is divided into three areas and the correction value is set. However, the number of divisions is not limited to this. May be increased or decreased. For example, the correction value can be set by dividing the face rotation angle into 8 finer areas, and the left / right tilt of the face can be set to “left”, “front”, “right”, The correction value may be set by adding “oblique rightward” and dividing into five regions. Alternatively, a predetermined arithmetic expression may be stored instead of the table data shown in FIG. 6, and the correction value may be calculated. The predetermined arithmetic expression may be stored in the ROM 134.

また、式(1)、(2)の補正係数に関して以下のように変形して使用してもよい。   Further, the correction coefficients of the equations (1) and (2) may be modified as follows.

左右傾きの傾き角度が浅い「斜め左向き」、「斜め右向き」の場合には補正係数を0.8として、補正量を減らしてもよい。また、左右傾きの傾きが深い「左向き」、「右向き」の場合には補正係数を1.2として、補正量を増やしてもよい。また、顔の回転角度が45°や135°など、斜めである場合には補正係数を0.7として、補正量を減らしてもよい。   In the case of “slanting leftward” or “slanting rightward” where the tilt angle of the horizontal tilt is shallow, the correction amount may be set to 0.8 and the correction amount may be reduced. Further, in the case of “leftward” or “rightward” where the left / right inclination is deep, the correction amount may be increased by setting the correction coefficient to 1.2. When the face rotation angle is oblique, such as 45 ° or 135 °, the correction amount may be reduced by setting the correction coefficient to 0.7.

前述のように、CPU1301は、補正AFエリア位置_X、補正AFエリア位置_Yを中心とする補正AFエリアを通常のAFエリアの大きさ(面積)の50%としている。ここで、顔の左右傾き情報に応じて補正AFエリアの大きさを変更してもよい。たとえば、顔の左右傾き情報δが正面を含む所定の角度範囲の場合は、通常のAFエリアと同一の面積とし、これ以外の角度範囲の場合は通常のAFエリアの面積の50%としてもよい。これにより、背景が含まれにくい顔が正面(または正面に近い状況)のときには、AFエリアをより大きく設定することにより、コントラストが低い場合であっても高精度なAFを行うことができる。   As described above, the CPU 1301 sets the corrected AF area centered on the corrected AF area position_X and the corrected AF area position_Y to 50% of the size (area) of the normal AF area. Here, the size of the correction AF area may be changed according to the left / right tilt information of the face. For example, when the right / left tilt information δ of the face is in a predetermined angle range including the front, the same area as the normal AF area may be used, and in other angle ranges, the area may be 50% of the area of the normal AF area. . As a result, when the face that does not easily include the background is in the front (or in a situation close to the front), the AF area is set to be larger so that highly accurate AF can be performed even when the contrast is low.

さらに、顔検出回路1305により算出される顔の角度情報の信頼性を判別し、角度情報の信頼性が低いときには、補正係数を0.6として補正量を減らしてもよい。顔検出や角度検出の信頼性が低いときには過補正を防ぐことが可能である。   Furthermore, the reliability of the face angle information calculated by the face detection circuit 1305 may be determined, and when the angle information reliability is low, the correction amount may be reduced by setting the correction coefficient to 0.6. When the reliability of face detection or angle detection is low, overcorrection can be prevented.

以上説明したように、顔の回転角度(第1の回転角)と顔の左右傾き情報(第2の回転角)を検出し、顔の回転角度と左右傾き情報に基づいて補正値を決定しAFエリアの位置を補正することにより、被写体が正面を向いていない場合であっても、顔に対してAF精度の高い焦点調節を行うことが可能である。   As described above, the face rotation angle (first rotation angle) and the left / right tilt information (second rotation angle) of the face are detected, and the correction value is determined based on the face rotation angle and left / right tilt information. By correcting the position of the AF area, it is possible to perform focus adjustment with high AF accuracy on the face even when the subject is not facing the front.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の動作の説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of the operation described above, the operation is described using “first”, “next”, and the like for convenience. However, it does not mean that the operation is essential in this order.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…撮像装置、102…撮影光学系、104…焦点調整機構、106…絞り、108…絞り駆動機構、110…シャッタ、112…シャッタ駆動機構、114…撮像素子、116…撮像素子インターフェイス(IF)回路、118…RAM、120…表示素子、122…表示素子駆動回路、124…タッチパネル、126…タッチパネル駆動回路、128…記録メディア、130…システムコントローラ、132…操作部、134…ROM、1301…CPU、1302…AF制御回路、1303…AE制御回路、1304…画像処理回路、1305…顔検出回路、1306…メモリ制御回路   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 102 ... Imaging optical system, 104 ... Focus adjustment mechanism, 106 ... Aperture, 108 ... Aperture drive mechanism, 110 ... Shutter, 112 ... Shutter drive mechanism, 114 ... Imaging element, 116 ... Imaging element interface (IF) Circuit: 118 ... RAM, 120 ... Display element, 122 ... Display element drive circuit, 124 ... Touch panel, 126 ... Touch panel drive circuit, 128 ... Recording medium, 130 ... System controller, 132 ... Operation unit, 134 ... ROM, 1301 ... CPU DESCRIPTION OF SYMBOLS 1302 ... AF control circuit, 1303 ... AE control circuit, 1304 ... Image processing circuit, 1305 ... Face detection circuit, 1306 ... Memory control circuit

Claims (4)

撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出する顔検出部と、
撮影画面内にAFエリアを設定し、該AFエリアに関する画像データに基づいてAF動作を実行するAF制御部と、
前記顔検出部により検出された顔領域の画像データに基づいて顔の回転角を算出する回転角算出部と、
前記回転角算出部により算出された回転角に基づいてAFエリアの位置を補正するAFエリア位置補正部と
を具備することを特徴とする焦点調節装置。
A face detection unit that detects a face area including the face of the subject in the subject image based on image data generated by capturing a subject image formed by the photographing optical system;
An AF control unit that sets an AF area in the shooting screen and executes an AF operation based on image data related to the AF area;
A rotation angle calculation unit for calculating a rotation angle of the face based on the image data of the face area detected by the face detection unit;
An AF area position correction unit that corrects the position of the AF area based on the rotation angle calculated by the rotation angle calculation unit.
前記回転角算出部は、顔の正立方向を軸とする第1の回転角と、顔の正対方向を軸とする第2の回転角を算出する
ことを特徴とする請求項1に記載の焦点調節装置。
The rotation angle calculation unit calculates a first rotation angle with the face upright direction as an axis and a second rotation angle with the face facing direction as an axis. Focusing device.
前記AFエリア位置補正部は、前記回転角算出部により算出された回転角に基づいて前記AFエリアの面積を変更する
ことを特徴とする請求項1に記載の焦点調節装置。
The focus adjustment apparatus according to claim 1, wherein the AF area position correction unit changes the area of the AF area based on the rotation angle calculated by the rotation angle calculation unit.
撮影光学系により結像される被写体像を撮像することで生成される画像データに基づいて、前記被写体像内において前記被写体の顔が含まれる顔領域を検出し、
検出された前記顔領域の画像データに基づいて顔の回転角を算出し、
算出された前記回転角に基づいてAFエリアの位置を補正し、
補正された前記AFエリアに対応する画像データに基づいて焦点調節動作を行う
ことを特徴とする焦点調節方法。
Based on image data generated by capturing a subject image formed by a photographing optical system, a face region including the subject's face in the subject image is detected;
Calculating a rotation angle of the face based on the detected image data of the face area;
Correct the position of the AF area based on the calculated rotation angle,
A focus adjustment method, wherein a focus adjustment operation is performed based on image data corresponding to the corrected AF area.
JP2012201821A 2012-09-13 2012-09-13 Focus adjustment device and focus adjustment method Pending JP2014056169A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012201821A JP2014056169A (en) 2012-09-13 2012-09-13 Focus adjustment device and focus adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201821A JP2014056169A (en) 2012-09-13 2012-09-13 Focus adjustment device and focus adjustment method

Publications (1)

Publication Number Publication Date
JP2014056169A true JP2014056169A (en) 2014-03-27

Family

ID=50613507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201821A Pending JP2014056169A (en) 2012-09-13 2012-09-13 Focus adjustment device and focus adjustment method

Country Status (1)

Country Link
JP (1) JP2014056169A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10356310B2 (en) 2015-10-21 2019-07-16 Samsung Electronics Co., Ltd. Method for detecting eye of subject and electronic device thereof
JP2020074037A (en) * 2013-09-24 2020-05-14 ソニー株式会社 Photographing device, photographing method, and program
JPWO2021010070A1 (en) * 2019-07-12 2021-01-21

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034261A (en) * 2005-06-22 2007-02-08 Fujifilm Corp Automatic focusing control device and control method thereof
JP2008287091A (en) * 2007-05-18 2008-11-27 Fujifilm Corp Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method
JP2011039460A (en) * 2009-08-18 2011-02-24 Canon Inc Automatic focusing device
WO2012099174A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Autofocus system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034261A (en) * 2005-06-22 2007-02-08 Fujifilm Corp Automatic focusing control device and control method thereof
JP2008287091A (en) * 2007-05-18 2008-11-27 Fujifilm Corp Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method
JP2011039460A (en) * 2009-08-18 2011-02-24 Canon Inc Automatic focusing device
WO2012099174A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Autofocus system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020074037A (en) * 2013-09-24 2020-05-14 ソニー株式会社 Photographing device, photographing method, and program
US10972652B2 (en) 2013-09-24 2021-04-06 Sony Corporation Imaging apparatus and imaging method
JP7004014B2 (en) 2013-09-24 2022-01-21 ソニーグループ株式会社 Shooting equipment, shooting method, and program
US11659277B2 (en) 2013-09-24 2023-05-23 Sony Corporation Imaging apparatus and imaging method
US12316964B2 (en) 2013-09-24 2025-05-27 Sony Group Corporation Imaging apparatus and imaging method
US10356310B2 (en) 2015-10-21 2019-07-16 Samsung Electronics Co., Ltd. Method for detecting eye of subject and electronic device thereof
JPWO2021010070A1 (en) * 2019-07-12 2021-01-21
WO2021010070A1 (en) * 2019-07-12 2021-01-21 ソニー株式会社 Imaging device, imaging method, and program
US11849216B2 (en) 2019-07-12 2023-12-19 Sony Group Corporation Imaging apparatus detecting a pupil in moving and still images
JP7619263B2 (en) 2019-07-12 2025-01-22 ソニーグループ株式会社 Imaging device, imaging method, and program

Similar Documents

Publication Publication Date Title
US8102465B2 (en) Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP5830373B2 (en) Imaging device
US9554029B2 (en) Imaging apparatus and focus control method
US20140071318A1 (en) Imaging apparatus
US10212353B2 (en) Display control apparatus and method of controlling display control apparatus
JP2014081420A (en) Tracking device and method thereof
US8872961B2 (en) Focusing image verifying device
KR20130005883A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method
WO2016002355A1 (en) Image capturing device and image capturing method
JP6463190B2 (en) Imaging apparatus, control method therefor, and program
JP4506779B2 (en) Imaging apparatus and program
JP2013205675A (en) Imaging apparatus
JP6997295B2 (en) Imaging device, imaging method, and program
JP2013012940A (en) Tracking apparatus and tracking method
JP2014056169A (en) Focus adjustment device and focus adjustment method
US9456140B2 (en) Optimized image stabilization
US8462259B2 (en) Focusing image display device and method for displaying same
US10277796B2 (en) Imaging control apparatus, imaging apparatus, and imaging control method
JP2017125985A (en) Imaging apparatus
JP2017021177A (en) Range-finding point upon lens vignetting, range-finding area transition method
US12175951B2 (en) Imaging apparatus, and method of controlling imaging apparatus
JP5977526B2 (en) Image processing apparatus and image processing method
JP2013162225A (en) Tracker and imaging apparatus, and tracking method to be used for imaging apparatus
JP2009042556A (en) Electronic camera
JP2018040928A (en) Imaging control device and imaging control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160803

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170302