[go: up one dir, main page]

JP2013012942A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013012942A
JP2013012942A JP2011144772A JP2011144772A JP2013012942A JP 2013012942 A JP2013012942 A JP 2013012942A JP 2011144772 A JP2011144772 A JP 2011144772A JP 2011144772 A JP2011144772 A JP 2011144772A JP 2013012942 A JP2013012942 A JP 2013012942A
Authority
JP
Japan
Prior art keywords
face
tracking
unit
subject
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011144772A
Other languages
Japanese (ja)
Inventor
Nao Yoneyama
尚 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011144772A priority Critical patent/JP2013012942A/en
Priority to US13/534,075 priority patent/US8929598B2/en
Priority to CN201210224984.2A priority patent/CN102857690B/en
Publication of JP2013012942A publication Critical patent/JP2013012942A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus allowing visual recognition of proper tracking as being executed.SOLUTION: A face to be tracked is tracked by tracking processing using a face detection circuit 1307, tracking processing using luminance information by a tracking processing circuit 1305, and tracking processing using color information by a tracking processing circuit 1306. A face periphery to be tracked is tracked by estimation from the position of the face detected by the tracking processing using the face detection circuit 1307, and tracked by tracking processing using luminance information by the tracking processing circuit and tracking processing using color information by the tracking processing circuit 1306. The display position of a tracking frame is changed in accordance with the reliability of the detection result of the face to be tracked and the detection result of the face periphery to be tracked.

Description

本発明は、被写体を追尾する機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having a function of tracking a subject.

従来、動体を撮影する際や動画像を撮影する際に、特定の被写体に追従するように自動合焦制御(AF)や自動露光制御(AE)を行う技術が知られている。このような特定の被写体を追従するために追尾処理が用いられている。追尾処理には、輝度情報を利用するものや、色情報を利用するもの、顔検出を利用するもの等、種々のものがある。特許文献1には、撮像手段より出力された撮像信号に基づいて、被写体像に対する追尾動作を行う自動追尾装置が開示されている。   2. Description of the Related Art Conventionally, techniques for performing automatic focusing control (AF) or automatic exposure control (AE) so as to follow a specific subject when shooting a moving object or shooting a moving image are known. Tracking processing is used to follow such a specific subject. There are various types of tracking processes, such as those using luminance information, those using color information, and those using face detection. Patent Document 1 discloses an automatic tracking device that performs a tracking operation on a subject image based on an imaging signal output from an imaging unit.

特許文献1に開示されている自動追尾装置では、被写体の特徴を表わすパラメータ(例えば被写体及び背景の色等)を、予め設定された追尾視野について抽出し、この抽出した特徴と、新たに抽出した被写体の特徴とに基づいて、被写体の移動の有無、及び被写体が移動した場合にはその移動方向又は移動位置を検出する。そして、追尾枠を、被写体の移動に追尾して移動させる。   In the automatic tracking device disclosed in Patent Document 1, parameters representing the characteristics of the subject (for example, the color of the subject and the background) are extracted for a preset tracking field of view, and the extracted features and newly extracted Based on the characteristics of the subject, the presence / absence of movement of the subject and, if the subject moves, the moving direction or moving position thereof are detected. Then, the tracking frame is moved following the movement of the subject.

特許第2605004号公報Japanese Patent No. 2605004

ところで、1種類のみの追尾処理を用いた場合、追尾処理に失敗してしまうと、それ以降は正しい追尾処理が不能となる可能性がある。また、例えば顔検出を用いた追尾処理の場合、画面内のある顔を追尾している最中にその顔が検出されなくなると、画面内の別の顔に乗り換えて追尾をしてしまう可能性がある。このような乗り換えが発生場合、追尾枠も当該別の顔に移動してしまう。この場合、ユーザは、追尾対象の再設定を行う必要が生じる。   By the way, when only one type of tracking process is used, if the tracking process fails, the correct tracking process may not be possible thereafter. For example, in the case of tracking processing using face detection, if a face is no longer detected while tracking a face on the screen, there is a possibility of switching to another face on the screen for tracking. There is. When such a transfer occurs, the tracking frame also moves to the other face. In this case, the user needs to reset the tracking target.

本発明は、前記の事情に鑑みてなされたもので、適切な追尾処理が行われていることを視認可能な撮像装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an imaging apparatus that can visually recognize that an appropriate tracking process is being performed.

前記の目的を達成するために、本発明の第1の態様の撮像装置は、被写体を撮像して画像データを出力する撮像部と、前記画像データから前記被写体の顔部を検出する顔検出部と、前記画像データに基づいて、前記画像データにおける前記被写体の顔部を追尾する第1の被写体追尾部と、前記画像データに基づいて、前記画像データにおける前記被写体の顔周辺部を追尾する第2の被写体追尾部と、前記画像データに基づく画像を表示する表示部と、前記顔検出部による前記顔部の検出又は前記第1の被写体追尾部による前記顔部の追尾が有効である間は、前記表示部に表示された画像に、前記顔部の位置を示す表示枠を重畳させ、前記顔検出部による前記顔部の検出と前記第1の被写体追尾部による前記顔部の追尾が無効となったときに、前記表示部に表示された画像に、前記顔周辺部の位置を示す表示枠を重畳させる制御部と、を具備することを特徴とする。   To achieve the above object, an imaging device according to a first aspect of the present invention includes an imaging unit that images a subject and outputs image data, and a face detection unit that detects a face portion of the subject from the image data A first subject tracking unit that tracks the face of the subject in the image data based on the image data, and a first tracking unit that tracks the periphery of the face of the subject in the image data based on the image data. While the two subject tracking units, the display unit displaying an image based on the image data, and the detection of the face by the face detection unit or the tracking of the face by the first subject tracking unit are effective The display of the position of the face is superimposed on the image displayed on the display unit, and the detection of the face by the face detection unit and the tracking of the face by the first subject tracking unit are invalid When The image displayed on the serial display unit, characterized by comprising a control unit that superimposes a display frame indicating the position of the face peripheral portion.

また、前記の目的を達成するために、本発明の第2の態様の撮像装置は、被写体を撮像して画像データを出力する撮像部と、前記画像データから前記被写体の顔部を検出する顔検出部と、前記画像データに基づいて、前記画像データにおける前記被写体の顔周辺部を追尾する顔周辺追尾部と、前記画像データに基づく画像を表示する表示部と、前記顔検出部による前記顔部の検出が有効である間は、前記表示部に表示された画像に、前記顔部の位置を示す表示枠を重畳させ、前記顔検出部による前記顔部の検出が無効となったときに、前記表示部に表示された画像に、前記顔周辺部の位置を示す表示枠を重畳させる制御部と、を具備することを特徴とする。   In order to achieve the above object, an imaging apparatus according to a second aspect of the present invention includes an imaging unit that captures an image of a subject and outputs image data, and a face that detects the face of the subject from the image data. A detection unit; a face periphery tracking unit that tracks the face periphery of the subject in the image data based on the image data; a display unit that displays an image based on the image data; and the face by the face detection unit While the detection of the face is valid, a display frame indicating the position of the face is superimposed on the image displayed on the display, and the detection of the face by the face detection becomes invalid And a control unit that superimposes a display frame indicating the position of the peripheral portion of the face on the image displayed on the display unit.

本発明によれば、適切な追尾処理が行われていることをユーザが視認可能な撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which a user can visually recognize that the appropriate tracking process is performed can be provided.

本発明の一実施形態に係る追尾装置を備えた撮像装置の一例としての構成を示す図である。It is a figure which shows the structure as an example of the imaging device provided with the tracking apparatus which concerns on one Embodiment of this invention. 輝度情報を用いた追尾処理について説明するための図である。It is a figure for demonstrating the tracking process using luminance information. 色情報を用いた追尾処理について説明するための図である。It is a figure for demonstrating the tracking process using color information. 顔検出処理について説明するための図である。It is a figure for demonstrating a face detection process. 撮像装置の撮影動作を示すフローチャートである。It is a flowchart which shows the imaging operation of an imaging device. 本発明の一実施形態に係る追尾方法としての追尾処理について示すフローチャートである。It is a flowchart shown about the tracking process as a tracking method which concerns on one Embodiment of this invention. 周辺位置推定処理について示すフローチャートである。It is a flowchart shown about a periphery position estimation process. 各部追尾処理について示すフローチャートである。It is a flowchart shown about each part tracking process. 候補追尾位置算出処理について示すフローチャートである。It is a flowchart shown about a candidate tracking position calculation process. 追尾位置更新判断処理について示すフローチャートである。It is a flowchart shown about a tracking position update determination process. 追尾位置更新判断処理の具体例について示す図である。It is a figure shown about the specific example of a tracking position update determination process. 表示枠の表示例について示す図である。It is a figure shown about the example of a display of a display frame.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る追尾装置を備えた撮像装置の一例としての構成を示す図である。図1に示す撮像装置100は、撮影光学系102と、焦点調整機構104と、絞り106と、絞り駆動機構108と、シャッタ110と、シャッタ駆動機構112と、撮像素子114と、撮像素子インターフェイス(IF)回路116と、RAM118と、表示素子120と、表示素子駆動回路122と、タッチパネル124と、タッチパネル駆動回路126と、記録メディア128と、システムコントローラ130と、操作部132と、ROM134と、を有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration as an example of an imaging apparatus including a tracking device according to an embodiment of the present invention. An imaging apparatus 100 illustrated in FIG. 1 includes a photographing optical system 102, a focus adjustment mechanism 104, a diaphragm 106, a diaphragm driving mechanism 108, a shutter 110, a shutter driving mechanism 112, an imaging element 114, and an imaging element interface ( IF) circuit 116, RAM 118, display element 120, display element drive circuit 122, touch panel 124, touch panel drive circuit 126, recording medium 128, system controller 130, operation unit 132, and ROM 134. Have.

撮影光学系102は、図示しない被写体からの光束Fを、撮像素子114の受光面上に集光するための光学系である。この撮影光学系102は、フォーカスレンズ等の複数のレンズを有している。焦点調整機構104は、モータ及びその駆動回路等を有している。この焦点調整機構104は、システムコントローラ130内のCPU1301の制御に従って、撮影光学系102内のフォーカスレンズをその光軸方向(図示一点鎖線方向)に駆動させる。   The photographing optical system 102 is an optical system for condensing a light flux F from a subject (not shown) on the light receiving surface of the image sensor 114. The photographing optical system 102 has a plurality of lenses such as a focus lens. The focus adjustment mechanism 104 includes a motor and its drive circuit. The focus adjustment mechanism 104 drives the focus lens in the photographing optical system 102 in the optical axis direction (the one-dot chain line direction in the drawing) under the control of the CPU 1301 in the system controller 130.

絞り106は、開閉自在に構成され、撮影光学系102を介して撮像素子114に入射する光束Fの量を調整する。絞り駆動機構108は、絞り106を駆動するための駆動機構を有している。この絞り駆動機構108は、システムコントローラ130内のCPU1301の制御に従って、絞り106を駆動させる。   The diaphragm 106 is configured to be openable and closable, and adjusts the amount of the light beam F incident on the image sensor 114 via the photographing optical system 102. The aperture drive mechanism 108 has a drive mechanism for driving the aperture 106. The diaphragm driving mechanism 108 drives the diaphragm 106 according to the control of the CPU 1301 in the system controller 130.

シャッタ110は、撮像素子114の受光面を遮光状態又は露光状態とするように構成されている。このシャッタ110により、撮像素子114の露光時間が調整される。シャッタ駆動機構112は、シャッタ110を駆動させるための駆動機構を有し、システムコントローラ130内のCPU1301の制御に従って、シャッタ110を駆動させる。   The shutter 110 is configured to place the light receiving surface of the image sensor 114 in a light shielding state or an exposure state. The exposure time of the image sensor 114 is adjusted by the shutter 110. The shutter drive mechanism 112 has a drive mechanism for driving the shutter 110, and drives the shutter 110 under the control of the CPU 1301 in the system controller 130.

撮像素子114は、撮影光学系102を介して集光された被写体からの光束Fが結像される受光面を有している。撮像素子114の受光面は、複数の画素が2次元状に配置されて構成されており、また、受光面の光入射側には、カラーフィルタが設けられている。このような撮像素子114は、受光面に結像された光束Fに対応した像(被写体像)を、その光量に応じた電気信号(以下、画像信号という)に変換する。ここで、撮像素子114は、CCD方式やCMOS方式等の種々の構成の撮像素子が知られている。また、カラーフィルタの色配列もベイヤ配列等の種々の配列が知られている。本実施形態は、撮像素子114の構成が特定の構成に限定されるものではなく、種々の構成の撮像素子を用いることが可能である。   The imaging element 114 has a light receiving surface on which a light flux F from a subject condensed through the photographing optical system 102 is imaged. The light receiving surface of the image sensor 114 is configured by two-dimensionally arranging a plurality of pixels, and a color filter is provided on the light incident side of the light receiving surface. Such an image sensor 114 converts an image (subject image) corresponding to the light beam F formed on the light receiving surface into an electrical signal (hereinafter referred to as an image signal) corresponding to the light amount. Here, as the imaging device 114, imaging devices having various configurations such as a CCD system and a CMOS system are known. Various color filters such as a Bayer array are also known. In the present embodiment, the configuration of the image sensor 114 is not limited to a specific configuration, and image sensors having various configurations can be used.

撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114を駆動させる。また、撮像素子IF回路116は、システムコントローラ130内のCPU1301の制御に従って、撮像素子114で得られた画像信号を読み出し、読み出した画像信号に対してCDS(相関二重サンプリング)処理やAGC(自動利得制御)処理等のアナログ処理を施す。さらに、撮像素子IF回路116は、アナログ処理した画像信号をデジタル信号(以下、画像データという)に変換する。   The image sensor IF circuit 116 drives the image sensor 114 under the control of the CPU 1301 in the system controller 130. The image sensor IF circuit 116 reads out the image signal obtained by the image sensor 114 under the control of the CPU 1301 in the system controller 130, and performs CDS (correlated double sampling) processing or AGC (automatic operation) on the read image signal. Analog processing such as gain control processing is performed. Further, the image sensor IF circuit 116 converts the analog processed image signal into a digital signal (hereinafter referred to as image data).

RAM118は、例えばSDRAMであり、ワークエリア、評価画像エリア、参照画像エリア、追尾位置ログエリア、追尾色領域ログエリア、を記憶エリアとして有している。
ワークエリアは、撮像素子IF回路116で得られた画像データ等の、撮像装置100の各部で発生したデータを一時記憶しておくためにRAM118に設けられた記憶エリアである。
評価画像エリアは、評価画像データを一時記憶しておくためにRAM118に設けられた記憶エリアである。評価画像データは、後述する追尾処理における追尾対象の被写体を含むフレームの画像データである。追尾処理においては、この追尾対象を追尾するように処理が行われる。
参照画像エリアは、参照画像データを一時記憶しておくためにRAM118に設けられた記憶エリアである。参照画像データは、後述する追尾処理において、追尾対象の探索の対象となるフレームの画像データである。追尾処理においては、参照画像データ中で探索が行われる。
追尾位置ログエリアは、追尾位置ログを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾位置ログは、追尾処理の結果として得られた追尾位置を記録したログである。本実施形態では、複数の追尾処理を併用して追尾対象を追尾する。したがって、追尾位置ログには、それぞれの追尾処理によって得られた追尾位置(候補追尾位置)を例えば過去10フレーム分個別に記録する。また、追尾位置ログには、後述の追尾処理によって採用された最終的な追尾位置も記録する。
追尾色領域ログエリアは、追尾色領域ログを一時記憶しておくためにRAM118に設けられた記憶エリアである。追尾色領域ログは、追尾処理によって得られた追尾色領域を記録したログである。本実施形態では、追尾色領域を例えば過去10フレーム分記録する。追尾色領域の詳細については後述する。
The RAM 118 is, for example, an SDRAM, and has a work area, an evaluation image area, a reference image area, a tracking position log area, and a tracking color area log area as storage areas.
The work area is a storage area provided in the RAM 118 for temporarily storing data generated in each part of the imaging apparatus 100 such as image data obtained by the imaging element IF circuit 116.
The evaluation image area is a storage area provided in the RAM 118 for temporarily storing evaluation image data. The evaluation image data is image data of a frame including a subject to be tracked in a tracking process described later. In the tracking process, processing is performed so as to track this tracking target.
The reference image area is a storage area provided in the RAM 118 for temporarily storing reference image data. The reference image data is image data of a frame to be searched for a tracking target in tracking processing described later. In the tracking process, a search is performed in the reference image data.
The tracking position log area is a storage area provided in the RAM 118 for temporarily storing the tracking position log. The tracking position log is a log in which the tracking position obtained as a result of the tracking process is recorded. In the present embodiment, a tracking target is tracked using a plurality of tracking processes in combination. Therefore, in the tracking position log, the tracking positions (candidate tracking positions) obtained by the respective tracking processes are individually recorded, for example, for the past 10 frames. The tracking position log also records the final tracking position adopted by the tracking process described later.
The tracking color area log area is a storage area provided in the RAM 118 for temporarily storing the tracking color area log. The tracking color area log is a log in which the tracking color area obtained by the tracking process is recorded. In this embodiment, the tracking color area is recorded for the past 10 frames, for example. Details of the tracking color area will be described later.

表示素子120は、例えば液晶ディスプレイ(LCD)であり、ライブビュー用の画像及び記録メディア128に記録された画像等の各種の画像を表示する。表示素子駆動回路122は、システムコントローラ130のCPU1301から入力された画像データに基づいて表示素子120を駆動させ、表示素子120に画像を表示させる。   The display element 120 is a liquid crystal display (LCD), for example, and displays various images such as an image for live view and an image recorded on the recording medium 128. The display element driving circuit 122 drives the display element 120 based on the image data input from the CPU 1301 of the system controller 130 and causes the display element 120 to display an image.

タッチパネル124は、表示素子120の表示画面上に一体的に形成されており、表示画面上へのユーザの指等の接触位置等を検出する。タッチパネル駆動回路126は、タッチパネル124を駆動するとともに、タッチパネル124からの接触検出信号をシステムコントローラ130のCPU1301に出力する。CPU1301は、接触検出信号から、ユーザの表示画面上への接触操作を検出し、その接触操作に応じた処理を実行する。   The touch panel 124 is integrally formed on the display screen of the display element 120, and detects a contact position of a user's finger or the like on the display screen. The touch panel drive circuit 126 drives the touch panel 124 and outputs a contact detection signal from the touch panel 124 to the CPU 1301 of the system controller 130. The CPU 1301 detects a contact operation on the display screen of the user from the contact detection signal, and executes processing according to the contact operation.

記録メディア128は、例えばメモリカードであり、撮影動作によって得られた画像ファイルが記録される。画像ファイルは、画像データに所定のヘッダを付与して構成されるファイルである。ヘッダには、撮影条件を示すデータ及び追尾位置を示すデータ等が、タグデータとして記録される。   The recording medium 128 is a memory card, for example, and records an image file obtained by a shooting operation. The image file is a file configured by adding a predetermined header to image data. In the header, data indicating shooting conditions, data indicating a tracking position, and the like are recorded as tag data.

システムコントローラ130は、撮像装置100の動作を制御するための制御回路として、CPU1301と、AF制御回路1302と、AE制御回路1303と、画像処理回路1304と、追尾処理回路1305、1306と、顔検出回路1307と、顔向き判定回路1308と、色情報取得回路1309と、メモリ制御回路1310と、を有している。   The system controller 130 is a control circuit for controlling the operation of the imaging apparatus 100. The CPU 1301, the AF control circuit 1302, the AE control circuit 1303, the image processing circuit 1304, the tracking processing circuits 1305 and 1306, and face detection. A circuit 1307, a face orientation determination circuit 1308, a color information acquisition circuit 1309, and a memory control circuit 1310 are included.

CPU1301は、制御部としての機能を有し、焦点調整機構104、絞り駆動機構108、シャッタ駆動機構112、表示素子駆動回路122、タッチパネル駆動回路126等のシステムコントローラ130の外部の各ブロック、及びシステムコントローラ130の内部の各制御回路の動作を制御する。また、CPU1301は、第2の被写体追尾部としての機能も有し、顔検出回路1307で検出された追尾対象の顔部の位置から顔周辺部の位置を推定することも行う。   The CPU 1301 has a function as a control unit. Each block outside the system controller 130 such as the focus adjustment mechanism 104, the aperture driving mechanism 108, the shutter driving mechanism 112, the display element driving circuit 122, and the touch panel driving circuit 126, and the system The operation of each control circuit in the controller 130 is controlled. The CPU 1301 also has a function as a second subject tracking unit, and estimates the position of the face peripheral part from the position of the face part to be tracked detected by the face detection circuit 1307.

AF制御回路1302は、コントラストAF処理を制御する。具体的には、AF制御回路1302は、撮像素子IF回路116で得られた画像データの高周波成分を抽出し、この抽出した高周波成分を積算することにより、AF用の合焦評価値を取得する。CPU1301は、この合焦評価値に従って画像データのコントラストを評価しつつ、焦点調整機構104を制御してフォーカスレンズを合焦状態とする。   The AF control circuit 1302 controls contrast AF processing. Specifically, the AF control circuit 1302 extracts the high frequency component of the image data obtained by the image sensor IF circuit 116, and acquires the focus evaluation value for AF by integrating the extracted high frequency component. . The CPU 1301 controls the focus adjustment mechanism 104 to bring the focus lens into focus while evaluating the contrast of the image data according to the focus evaluation value.

AE制御回路1303は、AE動作を制御する。具体的には、AE制御回路1303は、撮像素子IF回路116で得られた画像データを用いて被写体輝度を算出する。CPU1301は、この被写体輝度に従って、露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)、撮像素子感度やISO感度等を算出する。   The AE control circuit 1303 controls the AE operation. Specifically, the AE control circuit 1303 calculates subject luminance using the image data obtained by the image sensor IF circuit 116. The CPU 1301 calculates the aperture amount (aperture value) of the aperture 106 during exposure, the opening time of the shutter 110 (shutter speed value), the image sensor sensitivity, the ISO sensitivity, and the like according to the subject brightness.

画像処理回路1304は、画像データに対する各種の画像処理を行う。この画像処理としては、色補正処理、ガンマ(γ)補正処理、圧縮処理等が含まれる。また、画像処理回路1304は、圧縮されている画像データに対する伸張処理も施す。   The image processing circuit 1304 performs various image processing on the image data. This image processing includes color correction processing, gamma (γ) correction processing, compression processing, and the like. The image processing circuit 1304 also performs decompression processing on the compressed image data.

追尾処理回路1305は、第2の特徴情報としての画像データの輝度情報を用いた追尾処理を行う。この輝度情報を用いた追尾処理について簡単に説明する。輝度情報を用いた追尾処理では、例えば、図2(a)に示す(N−1)フレームにおいて追尾対象が設定された場合、この(N−1)フレームの画像データを、評価画像データとしてRAM118の評価画像エリアに記憶する。この評価画像データの追尾対象を含む所定範囲202の画像データを、基準画像データに設定する。この後の追尾処理では、参照画像データの基準画像データ202と対応する部分を探索する。
Nフレームの追尾処理を例に示すと、まず、Nフレームの画像データを、参照画像データとしてRAM118の参照画像エリアに記憶する。この参照画像データのうちの所定の探索範囲204の画像データと基準画像データ202との相関量を求めることにより、参照画像データの基準画像データ202と対応する部分を探索する。相関量は、例えば基準画像データと参照画像データとの差分絶対値和(画素毎に輝度差の絶対値を求めてそれを積算したもの)から判定する。例えば、図2(b)に示す参照画像データの領域206の参照画像データと基準画像データ202との差分絶対値和を求めたとすると、参照画像データの領域206と基準画像データ202とは明らかに異なる画像データであり、差分絶対値和が大きくなる。これに対し、参照画像データの領域208と基準画像データ202との差分絶対値和を求めたとすると、差分絶対値和が小さくなる。このように、基準画像データ202との相関量が大きくなるに従って差分絶対値和が小さくなる。輝度情報を用いた追尾処理では、相関量が最大の、即ち差分絶対値和が最小の領域を参照画像データから探索する。図2(b)の例では、領域208となる。なお、追尾位置ログエリアには、領域208の中で最も一致度の高い位置を追尾位置として記録する。なお、このような位置が複数ある場合には、例えば、領域208の中心に近い位置を追尾位置とする。次回の追尾処理時には、この追尾位置を追尾処理の開始位置とすることが望ましい。これにより、追尾処理にかかる時間を軽減することが可能である。
The tracking processing circuit 1305 performs tracking processing using the luminance information of the image data as the second feature information. The tracking process using this luminance information will be briefly described. In the tracking process using luminance information, for example, when a tracking target is set in the (N-1) frame shown in FIG. 2A, the image data of the (N-1) frame is used as the evaluation image data in the RAM 118. Is stored in the evaluation image area. Image data in a predetermined range 202 including the tracking target of the evaluation image data is set as reference image data. In the subsequent tracking process, a portion corresponding to the reference image data 202 of the reference image data is searched.
As an example of N frame tracking processing, N frame image data is first stored in the reference image area of the RAM 118 as reference image data. A portion of the reference image data corresponding to the reference image data 202 is searched for by obtaining a correlation amount between the image data in the predetermined search range 204 and the reference image data 202. The correlation amount is determined from, for example, the sum of absolute differences between the standard image data and the reference image data (obtained by obtaining absolute values of luminance differences for each pixel and integrating them). For example, if the sum of absolute differences between the reference image data in the reference image data area 206 and the standard image data 202 shown in FIG. 2B is obtained, the reference image data area 206 and the standard image data 202 are clearly shown. It is different image data, and the sum of absolute differences is increased. On the other hand, if the sum of absolute differences between the reference image data area 208 and the standard image data 202 is obtained, the sum of absolute differences becomes small. Thus, the difference absolute value sum decreases as the correlation amount with the reference image data 202 increases. In the tracking process using luminance information, an area having the maximum correlation amount, that is, the minimum difference absolute value sum is searched from the reference image data. In the example of FIG. In the tracking position log area, the position with the highest degree of matching in the area 208 is recorded as the tracking position. When there are a plurality of such positions, for example, a position close to the center of the region 208 is set as the tracking position. In the next tracking process, this tracking position is preferably set as the start position of the tracking process. As a result, the time required for the tracking process can be reduced.

追尾処理回路1306は、第1の特徴情報としての画像データの色情報を用いた追尾処理を行う。この色情報を用いた追尾処理について簡単に説明する。色情報を用いた追尾処理では、評価画像データ内で設定された色と同色であると判定できる領域である追尾色領域を探索する。図3(a)に示すように、(N−1)フレームにおいて、被写体のある位置302が指定された場合、評価画像データ中の位置302の色情報を取得する。そして、位置302を追尾処理の開始位置として、位置302と同じ色情報を有する領域を探索する。具体的には、位置302を開始位置から周辺に向かうように順次色情報を取得し、取得した色情報が位置302の色情報と同一であると判定できる場合には領域に含め、取得した色情報が位置302の色情報と同一であると判定できない場合には領域に含めない。このようにして追尾色領域を探索すると、例えば、図3(a)に示すような単色の被写体の場合、被写体に内接する矩形領域304が追尾色領域となる。また、追尾位置ログエリアに記録する追尾位置は、例えば追尾色領域304の重心位置(図3(a)の例では、位置302と同じ)とする。次回の追尾処理においては、この追尾位置を追尾処理の開始位置とする。   The tracking processing circuit 1306 performs a tracking process using the color information of the image data as the first feature information. The tracking process using this color information will be briefly described. In the tracking process using color information, a tracking color area that is an area that can be determined to be the same color as the color set in the evaluation image data is searched. As shown in FIG. 3A, when the position 302 of the subject is designated in the (N-1) frame, the color information of the position 302 in the evaluation image data is acquired. Then, an area having the same color information as the position 302 is searched for using the position 302 as the start position of the tracking process. Specifically, the color information is sequentially acquired from the start position toward the periphery from the start position, and if it can be determined that the acquired color information is the same as the color information at the position 302, the acquired color information is included in the area. When it cannot be determined that the information is the same as the color information at the position 302, it is not included in the area. When the tracking color area is searched in this way, for example, in the case of a monochromatic subject as shown in FIG. 3A, a rectangular area 304 inscribed in the subject becomes the tracking color area. Further, the tracking position recorded in the tracking position log area is, for example, the barycentric position of the tracking color area 304 (same as the position 302 in the example of FIG. 3A). In the next tracking process, this tracking position is set as the starting position of the tracking process.

Nフレームの追尾処理を例に示すと、図3(b)に示す参照画像データとして記憶したNフレームの画像データの所定の探索範囲の中で、(N−1)フレームの追尾位置302を追尾処理の開始位置とし、追尾位置302の周辺から順次、追尾色領域304の色と同色であると判定できる領域を追尾色領域として探索する。図3(b)の例では、領域306が追尾色領域となる。また、図3(b)の例では、重心位置308を追尾位置とし、この追尾位置308を、追尾位置ログエリアに記録する。また、追尾色領域ログエリアには、追尾色領域306の範囲を示す情報(例えば、四隅の位置)を記録する。   As an example of the N frame tracking process, the tracking position 302 of the (N-1) frame is tracked within a predetermined search range of the N frame image data stored as the reference image data shown in FIG. An area that can be determined to be the same color as the color of the tracking color area 304 is sequentially searched from the periphery of the tracking position 302 as the processing start position. In the example of FIG. 3B, the area 306 is a tracking color area. In the example of FIG. 3B, the center of gravity position 308 is set as the tracking position, and the tracking position 308 is recorded in the tracking position log area. Also, information indicating the range of the tracking color area 306 (for example, the positions of the four corners) is recorded in the tracking color area log area.

ここで、追尾処理回路1305、1306が、第1の被写体追尾部、第2の被写体追尾部、顏周辺追尾部の一例として機能する。   Here, the tracking processing circuits 1305 and 1306 function as an example of the first subject tracking unit, the second subject tracking unit, and the eyelid periphery tracking unit.

顔検出回路1307は、画像データにおける被写体(人物)の顔部を検出する。ここで、顔検出処理について簡単に説明する。顔検出処理においては、各フレームで得られる画像データと、図4(a)に示すような顔パーツ402、404、406との相関量を求める。顔パーツ402は、人物の鼻部周辺の陰影のパターンに対応した画像データであり、顔パーツ404は、人物の目部周辺の陰影のパターンに対応した画像データであり、顔パーツ406は、人物の口部周辺の陰影のパターンに対応した画像データである。画像データと顔部パーツ402、404、406との相関量は、図4(b)に示すような、人物の顔を示す所定の配置となったときに最大となる。このとき、顔部パーツ402、404、406を含む領域408に顔部が存在しているとする。なお、顔パーツ402、404、406は予め設定した検索顔の大きさに応じて、大きさを変えても良い。ここで、図4(b)では、顔部領域を矩形領域としているが、円形領域としても良い。   The face detection circuit 1307 detects the face portion of the subject (person) in the image data. Here, the face detection process will be briefly described. In the face detection process, the correlation amount between the image data obtained in each frame and the face parts 402, 404, and 406 as shown in FIG. The face part 402 is image data corresponding to a shadow pattern around a person's nose, the face part 404 is image data corresponding to a shadow pattern around a person's eye, and the face part 406 is a person This is image data corresponding to the shadow pattern around the mouth. The amount of correlation between the image data and the face part parts 402, 404, and 406 is maximized when a predetermined arrangement representing a person's face is obtained as shown in FIG. At this time, it is assumed that a face exists in an area 408 including the face parts 402, 404, and 406. Note that the size of the face parts 402, 404, and 406 may be changed according to a preset search face size. Here, in FIG. 4B, the face area is a rectangular area, but it may be a circular area.

顔向き判定回路1308は、領域408内での顔部パーツ402、404、406の配置等から、顔検出回路1307で検出された顔部の向きを判定する。例えば、領域408の左右何れかの一辺に顔部パーツ402、404、406が集まっている場合には、顔部が横向きであると判定する。   The face orientation determination circuit 1308 determines the orientation of the face detected by the face detection circuit 1307 from the arrangement of the face parts 402, 404, and 406 in the area 408. For example, when the face parts 402, 404, and 406 are gathered on one of the left and right sides of the area 408, it is determined that the face is in the horizontal direction.

色情報取得回路1309は、追尾処理回路1305で得られた追尾位置の色情報を取得する。この色情報は、後述する候補追尾位置算出処理において用いられる。
メモリ制御回路1310は、CPU1301等が、RAM118、記録メディア128、ROM134にアクセスするための制御を行うインターフェイスである。
The color information acquisition circuit 1309 acquires the color information of the tracking position obtained by the tracking processing circuit 1305. This color information is used in a candidate tracking position calculation process described later.
The memory control circuit 1310 is an interface that performs control for the CPU 1301 and the like to access the RAM 118, the recording medium 128, and the ROM 134.

操作部132は、ユーザによって操作される各種の操作部材である。操作部132としては、例えば、レリーズ釦、動画釦、モードダイヤル、選択キー、電源釦等が含まれる。
レリーズボタン釦は、1stレリーズスイッチと、2ndレリーズスイッチと、を有している。1stレリーズスイッチは、ユーザがレリーズ釦を半押しするとオンするスイッチである。1stレリーズスイッチがオンすることにより、AF処理等の撮影準備動作が行われる。また、2ndレリーズスイッチは、ユーザがレリーズ釦を全押しするとオンするスイッチである。2ndレリーズスイッチがオンすることにより、静止画撮影用の露光動作が行われる。
動画釦は、動画撮影の開始又は終了を指示するための操作部材である。ユーザによって動画釦が押されると動画撮影処理が開始される。また、動画撮影処理の実行中に動画釦が押されると、動画撮影処理が終了される。
モードダイヤルは、撮像装置の撮影設定を選択するための操作部材である。本実施形態では、撮像装置の撮影設定として、例えば、静止画撮影モードと動画撮影モードを選択できる。静止画撮影モードは、静止画像を撮影するための撮影設定である。また、動画撮影モードは、動画像を撮影するための撮影設定である。
選択キーは、例えばメニュー画面上での項目の選択や決定をするための操作部材である。ユーザによって選択キーが操作されるとメニュー画面上での項目の選択や決定が行われる。
電源釦は、撮像装置の電源をオン又はオフするための操作部材である。ユーザによって電源釦が操作されると、撮像装置100が起動して動作可能な状態となる。撮像装置が起動している間に電源釦が操作されると、撮像装置100が省電力待機状態となる。
The operation unit 132 is various operation members operated by the user. The operation unit 132 includes, for example, a release button, a moving image button, a mode dial, a selection key, a power button, and the like.
The release button button has a 1st release switch and a 2nd release switch. The 1st release switch is a switch that is turned on when the user half-presses the release button. When the 1st release switch is turned on, a shooting preparation operation such as AF processing is performed. The 2nd release switch is a switch that is turned on when the user fully presses the release button. When the 2nd release switch is turned on, an exposure operation for still image shooting is performed.
The moving image button is an operation member for instructing the start or end of moving image shooting. When the moving image button is pressed by the user, the moving image shooting process is started. Further, when the moving image button is pressed during the moving image shooting process, the moving image shooting process is ended.
The mode dial is an operation member for selecting shooting settings of the imaging apparatus. In the present embodiment, for example, a still image shooting mode and a moving image shooting mode can be selected as shooting settings of the imaging apparatus. The still image shooting mode is a shooting setting for shooting a still image. The moving image shooting mode is a shooting setting for shooting a moving image.
The selection key is an operation member for selecting or determining an item on the menu screen, for example. When the selection key is operated by the user, an item is selected or determined on the menu screen.
The power button is an operation member for turning on or off the power of the imaging apparatus. When the power button is operated by the user, the imaging apparatus 100 is activated and becomes operable. If the power button is operated while the imaging apparatus is activated, the imaging apparatus 100 enters a power saving standby state.

ROM134は、CPU1301が種々の処理を実行するためのプログラムコードを記憶している。また、ROM134は、撮影光学系102、絞り106、及び撮像素子114等の動作に必要な制御パラメータ、並びに画像処理回路1304での画像処理に必要な制御パラメータ等の、各種の制御パラメータを記憶している。さらには、ROM134は、顔検出回路1307における顔検出に用いられる顔部パーツのデータや追尾枠を表示するためのデータ等も記憶している。また、ROM134は、後述の周辺位置推定処理において用いる、画像データ上での顔位置から顔周辺位置までの距離を示す統計データも記憶している。   The ROM 134 stores program codes for the CPU 1301 to execute various processes. In addition, the ROM 134 stores various control parameters such as control parameters necessary for the operation of the photographing optical system 102, the aperture 106, the image sensor 114, and the like, and control parameters necessary for image processing in the image processing circuit 1304. ing. Further, the ROM 134 also stores face part data used for face detection in the face detection circuit 1307, data for displaying a tracking frame, and the like. The ROM 134 also stores statistical data indicating the distance from the face position to the face peripheral position on the image data, which is used in the peripheral position estimation process described later.

次に、本実施形態に係る撮像装置の動作について説明する。図5は、撮像装置100の撮影動作を示すフローチャートである。CPU1301は、ROM134から必要なプログラムコードを読み込んで図5の動作を制御する。
S100において、CPU1301は、現在の撮像装置100の撮影設定が静止画撮影モードであるかを判定する。前述したように、撮影設定は、モードダイヤルによって設定される。
Next, the operation of the imaging apparatus according to the present embodiment will be described. FIG. 5 is a flowchart showing the shooting operation of the imaging apparatus 100. The CPU 1301 reads the necessary program code from the ROM 134 and controls the operation of FIG.
In step S <b> 100, the CPU 1301 determines whether the current shooting setting of the imaging apparatus 100 is the still image shooting mode. As described above, the shooting setting is set by the mode dial.

S100において、撮影設定が静止画撮影モードであると判定した場合に、S102において、CPU1301は、ライブビュー動作を開始させる。ライブビュー動作として、CPU1301は、シャッタ駆動機構112を制御してシャッタ110を開放した後、CPU1301は、撮像素子IF回路116を制御して撮像素子114による撮像を開始させる。その後、CPU1301は、撮像素子114による撮像の結果としてRAM118のワークエリアに記憶された画像データを画像処理回路1304に入力してライブビュー表示用の画像処理を施す。続いて、CPU1301は、ライブビュー表示用の画像処理がされた画像データを表示素子駆動回路122に入力し、表示素子120に画像を表示させる。このような表示動作を繰り返し実行することにより、被写体の画像を動画表示する。この動画表示により、ユーザは、被写体を観察することが可能である。   When it is determined in S100 that the shooting setting is the still image shooting mode, in S102, the CPU 1301 starts a live view operation. As a live view operation, the CPU 1301 controls the shutter drive mechanism 112 to release the shutter 110, and then the CPU 1301 controls the image sensor IF circuit 116 to start imaging by the image sensor 114. Thereafter, the CPU 1301 inputs the image data stored in the work area of the RAM 118 as a result of imaging by the imaging device 114 to the image processing circuit 1304 and performs image processing for live view display. Subsequently, the CPU 1301 inputs image data that has been subjected to image processing for live view display to the display element driving circuit 122 and causes the display element 120 to display an image. By repeatedly executing such a display operation, the subject image is displayed as a moving image. By this moving image display, the user can observe the subject.

S104において、CPU1301は、1stレリーズスイッチがオンされたかを判定する。S104において、1stレリーズスイッチがオンされたと判定するまでは、CPU1301は、ライブビュー動作を継続する。
また、S104において、1stレリーズスイッチがオンされたと判定した場合に、S106において、CPU1301は、レリーズAF処理を行う。レリーズAFにおいては、スキャン駆動によって、フォーカスレンズを合焦位置まで駆動させる。スキャン駆動では、CPU1301は、焦点調整機構104を制御して、フォーカスレンズを所定のスキャン範囲内で一方向に駆動させつつ、AF制御回路1302で順次算出される合焦評価値を評価する。そして、CPU1301は、合焦評価値の評価の結果、コントラストが最大となるレンズ位置において、フォーカスレンズの駆動を停止させる。このようなスキャン駆動は、AF前のフォーカスレンズの位置と合焦位置との差が大きい場合に行われる。
In step S104, the CPU 1301 determines whether the first release switch is turned on. The CPU 1301 continues the live view operation until it is determined in S104 that the 1st release switch is turned on.
If it is determined in S104 that the first release switch is turned on, in S106, the CPU 1301 performs a release AF process. In the release AF, the focus lens is driven to the in-focus position by scan driving. In the scan drive, the CPU 1301 controls the focus adjustment mechanism 104 to evaluate the focus evaluation values sequentially calculated by the AF control circuit 1302 while driving the focus lens in one direction within a predetermined scan range. Then, the CPU 1301 stops the driving of the focus lens at the lens position where the contrast is maximized as a result of the evaluation of the focus evaluation value. Such scan driving is performed when the difference between the position of the focus lens before AF and the in-focus position is large.

S108において、CPU1301は、表示素子駆動回路122を制御して、表示素子120に追尾枠を表示させる。ここで、追尾枠は、表示素子120の画面上の追尾対象の位置に表示させる。例えば、レリーズAFで合焦した被写体を追尾対象とし、その被写体に追尾枠を表示させるようにしても良いし、顔検出回路1307によって顔部が検出された場合には、その顔に追尾枠を表示させるようにしても良い。さらに、タッチパネル124により、表示素子120の画面上に表示された被写体が指定された場合には、その被写体上に追尾枠を表示させるようにしても良い。このように、本実施形態においては、CPU1301、AF制御回路1302、顔検出回路1307、タッチパネル124等が追尾対象設定部の一例として機能する。   In step S108, the CPU 1301 controls the display element driving circuit 122 to display a tracking frame on the display element 120. Here, the tracking frame is displayed at the position of the tracking target on the screen of the display element 120. For example, a subject focused by release AF may be set as a tracking target, and a tracking frame may be displayed on the subject. When a face portion is detected by the face detection circuit 1307, a tracking frame is set on the face. You may make it display. Furthermore, when a subject displayed on the screen of the display element 120 is designated by the touch panel 124, a tracking frame may be displayed on the subject. Thus, in the present embodiment, the CPU 1301, the AF control circuit 1302, the face detection circuit 1307, the touch panel 124, and the like function as an example of the tracking target setting unit.

S110において、CPU1301は、追尾処理を行う。この追尾処理の詳細については後述する。
S112において、CPU1301は、追尾位置の被写体に合焦するようにAF処理を行うとともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。
追尾処理後のAF処理においては、スキャン駆動、またはウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。ウォブリング駆動では、CPU1301は、フォーカスレンズを駆動したときにAF制御回路1302で算出された合焦評価値が、前回のレンズ位置での合焦評価値に対して増加したかを判定する。そして、CPU1301は、合焦評価値が増加した場合には前回と同方向にフォーカスレンズを微小駆動させ、合焦評価値が減少した場合には前回と逆方向にフォーカスレンズを微小駆動させる。このような動作を高速で繰り返してフォーカスレンズを徐々に合焦位置まで駆動させる。
In S110, the CPU 1301 performs a tracking process. Details of this tracking process will be described later.
In step S112, the CPU 1301 performs AF processing so that the subject at the tracking position is focused, and performs AE processing so that exposure of the subject at the tracking position is appropriate.
In the AF processing after the tracking processing, the focus lens is driven to the in-focus position by scan driving or wobbling driving. In wobbling driving, the CPU 1301 determines whether or not the focus evaluation value calculated by the AF control circuit 1302 when the focus lens is driven has increased with respect to the focus evaluation value at the previous lens position. The CPU 1301 finely drives the focus lens in the same direction as the previous time when the focus evaluation value increases, and finely drives the focus lens in the opposite direction to the previous time when the focus evaluation value decreases. Such an operation is repeated at high speed to gradually drive the focus lens to the in-focus position.

また、AE処理において、CPU1301は、AE制御回路1303で算出された追尾位置の被写体の輝度を予め定められた適正な量(適正露光量)とする、本露光時の絞り106の開口量(絞り値)、シャッタ110の開放時間(シャッタ速度値)を算出する。   In the AE process, the CPU 1301 sets the aperture of the aperture 106 (aperture) during main exposure to set the luminance of the subject at the tracking position calculated by the AE control circuit 1303 to a predetermined appropriate amount (appropriate exposure amount). Value), the shutter 110 opening time (shutter speed value) is calculated.

S114において、CPU1301は、2ndレリーズスイッチがオンされたかを判定する。S114において、2ndレリーズスイッチがオンされていないと判定した場合に、CPU1301は、S110の追尾処理以後の処理を実行する。このように、静止画撮影モード時には、2ndレリーズスイッチがオンされるまでは、追尾処理が継続される。   In step S114, the CPU 1301 determines whether the 2nd release switch is turned on. If it is determined in S114 that the 2nd release switch is not turned on, the CPU 1301 executes processing after the tracking processing in S110. In this way, in the still image shooting mode, the tracking process is continued until the 2nd release switch is turned on.

また、S114において、2ndレリーズスイッチがオンされたと判定した場合に、S116において、CPU1301は、表示素子駆動回路122を制御して、追尾枠を非表示とする。
S118において、CPU1301は、静止画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を閉じる。その後、CPU1301は、絞り駆動機構108を制御して、絞り106を先に算出した絞り値まで絞り込む。続いて、CPU1301は、シャッタ駆動機構112を制御して、シャッタ110を先に算出した開放時間だけ開放しつつ、撮像素子114による撮像(露光)を行う。その後、CPU1301は、撮像素子114を介して得られた静止画像データを画像処理回路1304において処理する。そして、CPU1301は、画像処理回路1304において処理された静止画像データにヘッダを付与して静止画像ファイルを生成し、生成した静止画像ファイルを記録メディア128に記録する。
S120において、CPU1301は、S110の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した静止画像ファイルに追記する。その後に、CPU1301は、図5に示す動作を終了させる。
In S114, when it is determined that the 2nd release switch is turned on, in S116, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame.
In step S <b> 118, the CPU 1301 performs processing for recording still image data on the recording medium 128. At this time, the CPU 1301 controls the shutter driving mechanism 112 to close the shutter 110. Thereafter, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the previously calculated aperture value. Subsequently, the CPU 1301 controls the shutter driving mechanism 112 to perform imaging (exposure) by the imaging element 114 while opening the shutter 110 for the previously calculated opening time. Thereafter, the CPU 1301 processes still image data obtained via the image sensor 114 in the image processing circuit 1304. The CPU 1301 adds a header to the still image data processed by the image processing circuit 1304 to generate a still image file, and records the generated still image file on the recording medium 128.
In S120, the CPU 1301 adds data indicating the tracking position obtained as a result of the tracking processing in S110 to the still image file previously recorded on the recording medium 128. Thereafter, the CPU 1301 ends the operation shown in FIG.

また、S100において、撮影設定が動画撮影モードであると判定した場合に、S122において、CPU1301は、ライブビュー動作を開始させる。
S124において、CPU1301は、動画釦がオンされたかを判定する。S124において、動画釦がオンされたと判定するまでは、CPU1301は、ライブビュー動作を継続する。
If it is determined in S100 that the shooting setting is the moving image shooting mode, in S122, the CPU 1301 starts a live view operation.
In step S124, the CPU 1301 determines whether the moving image button has been turned on. Until it is determined in S124 that the moving image button has been turned on, the CPU 1301 continues the live view operation.

また、S124において、動画釦がオンされたと判定した場合に、S126において、CPU1301は、表示素子駆動回路122を制御して、表示素子120に追尾枠を表示させる。
S128において、CPU1301は、追尾処理を行う。この追尾処理の詳細については、後述する。
In S124, when it is determined that the moving image button is turned on, in S126, the CPU 1301 controls the display element driving circuit 122 to display the tracking frame on the display element 120.
In S128, the CPU 1301 performs a tracking process. Details of the tracking process will be described later.

S130において、CPU1301は、追尾位置の被写体に合焦するようにAF処理を行うともに、追尾位置の被写体の露光が適正となるようにAE処理を行う。S130におけるAF処理おいては、ウォブリング駆動によって、フォーカスレンズを合焦位置まで駆動させる。   In step S130, the CPU 1301 performs AF processing so as to focus on the subject at the tracking position, and performs AE processing so that the exposure of the subject at the tracking position is appropriate. In the AF process in S130, the focus lens is driven to the in-focus position by wobbling driving.

S132において、CPU1301は、動画像データを記録メディア128に記録する処理を行う。この際、CPU1301は、絞り駆動機構108を制御して、絞り106をAE処理において算出した絞り値まで絞り込む。続いて、CPU1301は、AE処理において算出したシャッタ速度値に対応した時間だけ撮像素子114による撮像(露光)を実行させる。露光の終了後、CPU1301は、動画像ファイルを生成して記録メディア128に記録する。また、CPU1301は、撮像素子114を介して得られた動画像データを画像処理回路1304において処理し、画像処理回路1304において処理された動画像データを動画像ファイルに記録する。   In step S <b> 132, the CPU 1301 performs processing for recording moving image data on the recording medium 128. At this time, the CPU 1301 controls the aperture driving mechanism 108 to narrow the aperture 106 to the aperture value calculated in the AE process. Subsequently, the CPU 1301 causes the image sensor 114 to perform imaging (exposure) for a time corresponding to the shutter speed value calculated in the AE process. After the exposure is completed, the CPU 1301 generates a moving image file and records it on the recording medium 128. Further, the CPU 1301 processes the moving image data obtained via the image sensor 114 in the image processing circuit 1304, and records the moving image data processed in the image processing circuit 1304 in a moving image file.

S134において、CPU1301は、S128の追尾処理の結果として得られた追尾位置を示すデータを、先に記録メディア128に記録した動画像ファイルと同時記録する。
S136において、CPU1301は、動画釦がオフされたかを判定する。S136において、動画釦がオフされていないと判定した場合に、CPU1301は、S128の追尾処理以後の処理を実行する。このように、動画撮影モード時では、動画釦がオフされるまでは、追尾処理と動画像データの記録が継続される。
In S134, the CPU 1301 simultaneously records data indicating the tracking position obtained as a result of the tracking process in S128 together with the moving image file previously recorded on the recording medium 128.
In step S136, the CPU 1301 determines whether the moving image button has been turned off. If it is determined in S136 that the moving image button is not turned off, the CPU 1301 executes processing after the tracking processing in S128. Thus, in the moving image shooting mode, the tracking process and the recording of moving image data are continued until the moving image button is turned off.

また、S136において、動画釦がオフされたと判定した場合に、S138において、CPU1301は、表示素子駆動回路122を制御して、追尾枠を非表示とする。その後、CPU1301は、図5に示す動作を終了させる。
次に、本実施形態に係る追尾方法としての追尾処理について図6を参照して説明する。前述したように、本実施形態においては、複数の追尾処理を併用して追尾対象の追尾を行う。
S200において、CPU1301は、撮像素子IF回路116を制御して撮像素子114による撮像を実行する。S202において、CPU1301は、撮像素子114による撮像により、撮像素子IF回路116において得られた画像データをRAM118に取り込む。ここで、初回の追尾処理で得られた画像データは、評価画像データとする。このため、CPU1301は、初回の追尾処理で得られた画像データをRAM118の評価画像エリアに取り込む。また、2回目以後の追尾処理で得られた画像データは、参照画像データとする。このため、CPU1301は、2回目以後の追尾処理で得られた画像データをRAM118の参照画像エリアに取り込む。
If it is determined in S136 that the moving image button has been turned off, in S138, the CPU 1301 controls the display element driving circuit 122 to hide the tracking frame. Thereafter, the CPU 1301 ends the operation shown in FIG.
Next, tracking processing as a tracking method according to the present embodiment will be described with reference to FIG. As described above, in the present embodiment, tracking of a tracking target is performed using a plurality of tracking processes in combination.
In step S <b> 200, the CPU 1301 controls the imaging element IF circuit 116 to execute imaging by the imaging element 114. In step S <b> 202, the CPU 1301 takes in the image data obtained in the image sensor IF circuit 116 into the RAM 118 by imaging with the image sensor 114. Here, the image data obtained by the first tracking process is assumed to be evaluation image data. For this reason, the CPU 1301 captures the image data obtained in the first tracking process into the evaluation image area of the RAM 118. Further, the image data obtained by the second and subsequent tracking processing is referred to as reference image data. For this reason, the CPU 1301 captures the image data obtained in the second and subsequent tracking processing into the reference image area of the RAM 118.

S204において、CPU1301は、顔検出回路1307により、顔検出を用いた追尾処理を行う。顔検出を用いた追尾処理については、前述したので説明を省略する。なお、顔検出処理は、初回の追尾処理においては、評価画像データから顔部を検出し、2回目以後の追尾処理においては、参照画像データから顔部を検出する。   In step S <b> 204, the CPU 1301 causes the face detection circuit 1307 to perform tracking processing using face detection. Since the tracking process using face detection has been described above, a description thereof will be omitted. In the face detection process, the face part is detected from the evaluation image data in the first tracking process, and the face part is detected from the reference image data in the second and subsequent tracking processes.

S206において、CPU1301は、顔向き判定回路1308により、S204において検出された顔部の向きを判定する。なお、S204において、顔部が検出されなかった場合には、S206及び次のS208の処理は省略される。
S208において、CPU1301は、顔検出回路1307により検出された顔部の位置から、顔周辺部の位置を推定する。ここで、顔周辺部とは、追尾対象の被写体の顔部以外の部分(胴体、手足等)である。以下の説明においては、顔周辺部の例として、追尾対象の胸部の位置を推定することとする。周辺位置推定処理の詳細については後述する。
In S206, the CPU 1301 determines the orientation of the face detected in S204 by the face orientation determination circuit 1308. If no face is detected in S204, the processing in S206 and the next S208 is omitted.
In step S <b> 208, the CPU 1301 estimates the position of the face periphery from the position of the face detected by the face detection circuit 1307. Here, the face peripheral portion is a portion (torso, limbs, etc.) other than the face portion of the subject to be tracked. In the following description, the position of the tracking target chest is estimated as an example of the peripheral portion of the face. Details of the peripheral position estimation process will be described later.

S210において、CPU1301は、追尾処理回路1305、1306を用いての追尾対象の顔部及び顔周辺部の追尾を行う。S210の各部追尾処理の詳細については後述する。
S212において、CPU1301は、追尾位置更新判断処理を行う。この追尾位置更新判断処理は、複数の追尾処理によって得られた候補追尾位置のうち、どの追尾位置を次のフレームにおける追尾位置として採用するかを判断する処理である。S212の追尾位置更新判断処理の詳細については後述する。
In step S <b> 210, the CPU 1301 performs tracking of the face part to be tracked and the face peripheral part using the tracking processing circuits 1305 and 1306. Details of each part tracking process in S210 will be described later.
In step S212, the CPU 1301 performs tracking position update determination processing. This tracking position update determination process is a process of determining which tracking position is adopted as the tracking position in the next frame among candidate tracking positions obtained by a plurality of tracking processes. Details of the tracking position update determination process in S212 will be described later.

S214において、CPU1301は、追尾位置更新判断処理の結果として採用された追尾位置の信頼性を判断する。顔検出を用いた追尾処理の追尾結果が採用された場合には、過去の複数フレームの顔検出の結果から信頼性を判断する。具体的には、過去の複数フレームに亘って顔が検出されている場合には信頼性があると判断する。また、輝度情報を用いた追尾処理の結果が採用された場合には、例えば参照画像データのコントラストから信頼性を判断する。具体的には、参照画像データにおける追尾対象の領域の隣接画素間の差分和が所定値以下である場合には、信頼性があると判断する。また、色情報を用いた追尾処理の結果が採用された場合には、例えば参照画像データの彩度から信頼性を判断する。具体的には、参照画像データの追尾位置の彩度が所定値以上である場合には、信頼性があると判断する。これらの信頼性を判定するための閾値は適宜設定可能である。   In S214, the CPU 1301 determines the reliability of the tracking position adopted as a result of the tracking position update determination process. When the tracking result of the tracking process using face detection is adopted, the reliability is determined from the face detection results of a plurality of past frames. Specifically, if a face is detected over a plurality of past frames, it is determined that there is reliability. Further, when the result of the tracking process using the luminance information is adopted, the reliability is determined from the contrast of the reference image data, for example. Specifically, when the sum of differences between adjacent pixels in the tracking target area in the reference image data is equal to or less than a predetermined value, it is determined that there is reliability. Further, when the result of the tracking process using color information is adopted, the reliability is determined from the saturation of the reference image data, for example. Specifically, if the saturation at the tracking position of the reference image data is greater than or equal to a predetermined value, it is determined that the reference image data is reliable. These threshold values for determining reliability can be set as appropriate.

S216において、CPU1301は、最終的な追尾位置を、RAM118の追尾ログエリアに記録する。詳細は後述するが、本実施形態においては、顔部の追尾処理と顔周辺部の追尾処理との両方を行うため、追尾位置も顔部と顔周辺部の両方が得られる。このうちの何れかをAF制御やAE制御に用いる追尾位置とする。例えば、S214における信頼性判断の結果、顔部の追尾位置の検出結果が有効である、即ち顏検出回路1307における顏検出の信頼性及び各部追尾処理における顏部の追尾の信頼性の何れかがある場合には、CPU1301は、顔部の追尾位置を採用する。また、S214における信頼性判断の結果、顔部の追尾位置の検出結果が無効である、即ち顏検出回路1307における顏検出の信頼性及び各部追尾処理における顏部の追尾の信頼性の何れかもない場合には、CPU1301は、顔周辺部の追尾位置を採用する。しかしながら、RAM118には、顔部と顔周辺部の両方の追尾位置を記憶させておく。なお、両方の追尾位置の何れも信頼性がないと判断された場合には、追尾位置を記録しないようにしても良い。   In S <b> 216, the CPU 1301 records the final tracking position in the tracking log area of the RAM 118. Although details will be described later, in the present embodiment, since both the face tracking process and the face peripheral tracking process are performed, both the face position and the face peripheral area can be obtained. One of these is set as a tracking position used for AF control or AE control. For example, as a result of the reliability determination in S214, the detection result of the face tracking position is valid, that is, either the reliability of the eyelid detection in the eyelid detection circuit 1307 or the reliability of the eyelid tracking in each part tracking process. In some cases, the CPU 1301 employs the tracking position of the face. In addition, as a result of the reliability determination in S214, the detection result of the face tracking position is invalid, that is, either the reliability of the eyelid detection in the eyelid detection circuit 1307 or the reliability of the eyelid tracking in each part tracking process. In this case, the CPU 1301 adopts the tracking position of the face peripheral part. However, the RAM 118 stores the tracking positions of both the face part and the face peripheral part. If it is determined that neither of the tracking positions is reliable, the tracking position may not be recorded.

S218において、CPU1301は、表示素子駆動回路122を制御して、追尾枠の表示位置をS218で記憶させた追尾位置に対応した位置に更新する。その後、CPU1301は、図6の追尾処理を終了させる。
次に、周辺位置推定処理について図7を参照して説明する。周辺位置推定処理においては、顔検出処理において検出された顔部の位置から追尾対象の顔周辺部(胸部)の位置を推定する。
S300において、CPU1301は、顔検出回路1307によって検出された顔部の位置(例えば、顔部領域の重心位置)の情報を取得する。S302において、CPU1301は、顔検出回路1307によって検出された顔部のサイズ(例えば、顔部領域の大きさ)の情報を取得する。S304において、CPU1301は、顔部の位置から顔周辺部(胸部)の位置までの距離を示す統計データをROM134から取得する。
In S218, the CPU 1301 controls the display element driving circuit 122 to update the display position of the tracking frame to a position corresponding to the tracking position stored in S218. Thereafter, the CPU 1301 ends the tracking process of FIG.
Next, the peripheral position estimation process will be described with reference to FIG. In the peripheral position estimation process, the position of the tracking target face peripheral part (chest part) is estimated from the face part position detected in the face detection process.
In step S300, the CPU 1301 acquires information on the position of the face detected by the face detection circuit 1307 (for example, the position of the center of gravity of the face area). In step S <b> 302, the CPU 1301 acquires information on the size of the face (for example, the size of the face area) detected by the face detection circuit 1307. In step S <b> 304, the CPU 1301 acquires statistical data indicating the distance from the position of the face part to the position of the face peripheral part (chest part) from the ROM 134.

S306において、CPU1301は、取得した統計データから、画像データ上での顔周辺部の位置を算出する。具体的には、顔部の位置を基準とし、この基準の位置から統計データに応じて得られた距離分だけ下方の位置を顔周辺部の位置とする。ここで、ROM134に記憶されている統計データは、ある固定の距離で測定した顔部の位置から顔周辺部の位置までの統計データである。したがって、撮像装置から追尾対象までの距離が統計データを得たときの距離と異なる場合には、その距離差に応じて顔周辺部の位置を補正する。撮像装置から追尾対象までの距離は、例えば顔部のサイズ(画面上に占める顔部のサイズの割合)から算出する。そして、この距離に応じて統計データの値を補正して実際の画像データ上での顔周辺部の位置を算出する。顔周辺部の位置を算出した後、CPU1301は、図7の処理を終了させる。   In step S306, the CPU 1301 calculates the position of the peripheral portion of the face on the image data from the acquired statistical data. Specifically, the position of the face is used as a reference, and the position below the reference position by the distance obtained according to the statistical data is set as the position of the face periphery. Here, the statistical data stored in the ROM 134 is statistical data from the position of the face portion measured at a certain fixed distance to the position of the face peripheral portion. Therefore, when the distance from the imaging device to the tracking target is different from the distance when the statistical data is obtained, the position of the face peripheral portion is corrected according to the distance difference. The distance from the imaging device to the tracking target is calculated from, for example, the size of the face (ratio of the size of the face on the screen). Then, the value of the statistical data is corrected according to this distance, and the position of the peripheral portion of the face on the actual image data is calculated. After calculating the position of the face periphery, the CPU 1301 ends the process of FIG.

ここで、図7の例では、説明を簡単にするために、顔部の位置の下方の位置を顔周辺部の位置としている。この場合、追尾対象としての人物が直立しているときには正しい結果が得られるが、例えば追尾対象としての人物が寝そべっている場合等においては正しい結果を得ることができない。これに対し、顔部の各器官(目、鼻、口等)をそれぞれ検出し、各器官が画面に対してどの方向に並んでいるかを判別することによって、追尾対象としての人物が直立しているか又は寝ているかを判別し、この判別結果に従って顔周辺部の位置を算出するようにしても良い。例えば、目、鼻、口が、画面の左から右に向かって並んでいる場合には、顔部の位置に対して右方向の位置に顔周辺部があると推定する。
また、図7の例では、顏検出回路1307で検出された顏部の位置から顏周辺部の位置を推定している。これに対し、後述の各部追尾処理において得られた顏部の追尾位置から顏周辺部の位置を推定しても良い。
Here, in the example of FIG. 7, the position below the position of the face portion is set as the position of the face peripheral portion in order to simplify the description. In this case, a correct result is obtained when the person to be tracked is standing upright, but a correct result cannot be obtained, for example, when the person to be tracked is lying down. On the other hand, by detecting each organ of the face (eyes, nose, mouth, etc.) and determining in which direction each organ is aligned with respect to the screen, a person as a tracking target stands upright. It may be determined whether the person is sleeping or sleeping, and the position of the face periphery may be calculated according to the determination result. For example, when the eyes, nose, and mouth are lined up from the left to the right of the screen, it is estimated that there is a face peripheral portion at a position in the right direction with respect to the position of the face portion.
In the example of FIG. 7, the position of the heel periphery is estimated from the position of the heel detected by the heel detection circuit 1307. On the other hand, the position of the periphery of the heel may be estimated from the tracking position of the heel obtained in each part tracking process described later.

次に、各部追尾処理について図8を参照して説明する。各部追尾処理においては、顔検出処理以外の追尾処理において、追尾対象の顔部及び顔周辺部を追尾する。
S400において、CPU1301は、追尾処理回路1306により、第1の特徴情報としての色情報を用いた顔部の追尾処理を行う。具体的には、追尾処理回路1306により、評価画像データ中で設定された顔部の色情報と同じ色情報を有する追尾色領域を参照画像データ中で追尾させる。そして、CPU1301は、色情報を用いた追尾処理の結果として得られた顔部の追尾位置を、RAM118の追尾ログエリアに記憶させる。また、CPU1301は、色情報を用いた追尾処理の結果として得られた顔部の追尾色領域を、RAM118の追尾色領域ログエリアに記憶させる。
Next, each part tracking process will be described with reference to FIG. In each part tracking process, a tracking target face part and a face peripheral part are tracked in a tracking process other than the face detection process.
In step S <b> 400, the CPU 1301 causes the tracking processing circuit 1306 to perform face tracking processing using color information as the first feature information. More specifically, the tracking processing circuit 1306 tracks the tracking color area having the same color information as the face color information set in the evaluation image data in the reference image data. Then, the CPU 1301 stores the tracking position of the face obtained as a result of the tracking process using the color information in the tracking log area of the RAM 118. In addition, the CPU 1301 stores the tracking color area of the face obtained as a result of the tracking process using the color information in the tracking color area log area of the RAM 118.

ここで、初回の各部追尾処理においては、評価画像データのみが取得された状態であるので、S400以後の処理は省略される。以後の説明においては、評価画像データと参照画像データの両方が取得されているものとして説明を続ける。
S402において、CPU1301は、追尾処理回路1305により、第2の特徴情報としての輝度情報を用いた顔部の追尾処理を行う。具体的には、追尾処理回路1305により、評価画像データ中で設定された顔部と同様のパターンを有する領域を参照画像データ中で追尾させる。そして、CPU1301は、輝度情報を用いた追尾処理の結果として得られた顔部の追尾位置を、RAM118の追尾ログエリアに記憶させる。
Here, in the first part tracking process, since only the evaluation image data has been acquired, the processes after S400 are omitted. In the following description, the description will be continued on the assumption that both the evaluation image data and the reference image data have been acquired.
In step S <b> 402, the CPU 1301 causes the tracking processing circuit 1305 to perform face tracking processing using luminance information as the second feature information. Specifically, the tracking processing circuit 1305 tracks an area having the same pattern as the face set in the evaluation image data in the reference image data. Then, the CPU 1301 stores the tracking position of the face obtained as a result of the tracking process using the luminance information in the tracking log area of the RAM 118.

S404において、CPU1301は、追尾処理回路1305の追尾結果と追尾処理回路1306の追尾結果との何れかを、各部追尾処理における最終的な顔部の追尾位置(顔部候補追尾位置)とする。この顔部候補追尾位置算出処理については後述する。
S406において、CPU1301は、追尾処理回路1306により、色情報を用いた顔周辺部の追尾処理を行う。具体的には、追尾処理回路1306により、評価画像データ中で設定された顔周辺部(例えば胸部)の色情報(例えば服の色情報)と同じ色情報を有する追尾色領域を参照画像データ中で追尾させる。そして、CPU1301は、色情報を用いた追尾処理の結果として得られた顔周辺部の追尾位置を、RAM118の追尾ログエリアに記憶させる。また、CPU1301は、色情報を用いた追尾処理の結果として得られた顔周辺部の追尾色領域を、RAM118の追尾色領域ログエリアに記憶させる。
In step S <b> 404, the CPU 1301 sets one of the tracking result of the tracking processing circuit 1305 and the tracking result of the tracking processing circuit 1306 as the final face tracking position (face candidate tracking position) in each part tracking process. The face candidate tracking position calculation process will be described later.
In step S <b> 406, the CPU 1301 uses the tracking processing circuit 1306 to perform tracking processing for the peripheral portion of the face using color information. Specifically, the tracking processing circuit 1306 uses a tracking color area having the same color information as the color information (for example, the color information of clothes) of the face periphery (for example, the chest) set in the evaluation image data in the reference image data. To track. Then, the CPU 1301 stores the tracking position of the peripheral portion of the face obtained as a result of the tracking process using the color information in the tracking log area of the RAM 118. In addition, the CPU 1301 stores the tracking color area in the peripheral portion of the face obtained as a result of the tracking process using the color information in the tracking color area log area of the RAM 118.

S408において、CPU1301は、追尾処理回路1305により、輝度情報を用いた顔周辺部の追尾処理を行う。具体的には、追尾処理回路1305により、評価画像データ中で設定された顔周辺部と同様のパターンを有する領域を参照画像データ中で追尾させる。そして、CPU1301は、輝度情報を用いた追尾処理の結果として得られた顔周辺部の追尾位置を、RAM118の追尾ログエリアに記憶させる。   In step S <b> 408, the CPU 1301 uses the tracking processing circuit 1305 to perform tracking processing of the face peripheral portion using luminance information. Specifically, the tracking processing circuit 1305 tracks an area having the same pattern as the face periphery set in the evaluation image data in the reference image data. Then, the CPU 1301 stores the tracking position of the peripheral portion of the face obtained as a result of the tracking process using the luminance information in the tracking log area of the RAM 118.

S410において、CPU1301は、追尾処理回路1305の追尾結果と追尾処理回路1306の追尾結果との何れかを、各部追尾処理における最終的な顔周辺部の追尾位置(周辺部候補追尾位置)とする。この周辺部候補追尾位置算出処理については後述する。周辺部候補追尾位置算出処理の後、CPU1301は、図8の処理を終了させる。   In S410, the CPU 1301 uses either the tracking result of the tracking processing circuit 1305 or the tracking result of the tracking processing circuit 1306 as the final tracking position (peripheral part candidate tracking position) of the face periphery in each part tracking process. This peripheral part candidate tracking position calculation process will be described later. After the peripheral part candidate tracking position calculation process, the CPU 1301 ends the process of FIG.

次に、顔部候補追尾位置算出処理及び周辺部候補追尾位置算出処理について図9を参照して説明する。ここで、顔部候補追尾位置算出処理と周辺部候補追尾位置算出処理とは、それぞれの処理に用いる追尾位置が、顔部のものであるか顔周辺部のものであるかのみが異なる。したがって、図9では、これらの処理をまとめて説明する。図9の処理においては、色情報によって得られた追尾位置における色情報と輝度情報によって得られた追尾位置における色情報との比較結果、及び色情報によって得られた追尾位置と輝度情報によって得られた追尾位置との位置関係に応じて最終的な候補追尾位置を決定する。   Next, the face candidate tracking position calculation process and the peripheral part candidate tracking position calculation process will be described with reference to FIG. Here, the face candidate tracking position calculation process and the peripheral part candidate tracking position calculation process differ only in whether the tracking position used for each process is a face part or a face peripheral part. Therefore, in FIG. 9, these processes will be described together. In the processing of FIG. 9, the color information at the tracking position obtained from the color information and the color information at the tracking position obtained from the luminance information are compared, and the tracking position and luminance information obtained from the color information are obtained. The final candidate tracking position is determined according to the positional relationship with the tracking position.

S500において、CPU1301は、色情報取得回路1309により、参照画像データにおける輝度情報によって得られた追尾位置の色情報を取得する。実際には、当該追尾位置を含む微小領域の色情報を取得する。
S502において、CPU1301は、色情報によって得られた追尾位置の色情報(追尾色領域の色情報)と輝度情報によって得られた追尾位置の色情報とが一致したかを判定する。ここで一致とは、輝度情報によって得られた追尾位置の色情報が、色情報によって得られた追尾位置の色情報を基準に予め設定した任意範囲内にあることとする。S502において、色情報によって得られた追尾位置の色情報と輝度情報によって得られた追尾位置の色情報とが一致した場合に、S504において、CPU1301は、追尾色領域が輝度情報によって得られた追尾位置を包含しているかを判定する。
In step S500, the CPU 1301 uses the color information acquisition circuit 1309 to acquire the color information of the tracking position obtained from the luminance information in the reference image data. Actually, the color information of the minute region including the tracking position is acquired.
In step S502, the CPU 1301 determines whether the color information of the tracking position (color information of the tracking color area) obtained from the color information matches the color information of the tracking position obtained from the luminance information. Here, “match” means that the color information of the tracking position obtained from the luminance information is within an arbitrary range set in advance based on the color information of the tracking position obtained from the color information. In S502, when the color information of the tracking position obtained from the color information matches the color information of the tracking position obtained from the luminance information, in S504, the CPU 1301 determines that the tracking color area is obtained from the luminance information. Determine if the location is included.

S504において、追尾色領域が輝度情報によって得られた追尾位置を包含していないと判定した場合に、S506において、CPU1301は、輝度情報によって得られた追尾位置を最終的な候補追尾位置として採用する。その後、CPU1301は、図9の処理を終了させる。   If it is determined in S504 that the tracking color area does not include the tracking position obtained by the luminance information, in S506, the CPU 1301 employs the tracking position obtained by the luminance information as the final candidate tracking position. . Thereafter, the CPU 1301 ends the process of FIG.

S502において、色情報によって得られた追尾位置の色情報と輝度情報によって得られた追尾位置の色情報とが一致していない場合、又は5304において、追尾色領域が輝度情報によって得られた追尾位置を包含していると判定した場合に、S508において、CPU1301は、色情報によって得られた追尾位置を最終的な候補追尾位置として採用する。その後、CPU1301は、図9の処理を終了させる。   If the color information of the tracking position obtained from the color information does not match the color information of the tracking position obtained from the luminance information in S502, or the tracking position where the tracking color area is obtained from the luminance information in 5304 In step S508, the CPU 1301 employs the tracking position obtained from the color information as the final candidate tracking position. Thereafter, the CPU 1301 ends the process of FIG.

図9のようにして最終的な候補追尾位置を決定することにより、動きの激しい追尾対象に対しては色情報を用いた追尾処理によって追尾することができ、また複数の同色被写体を含むシーンにおいては輝度情報を用いた追尾処理によって追尾することができる。これにより、顔検出に失敗した場合であっても、追尾対象を追尾し続けることが可能である。   By determining the final candidate tracking position as shown in FIG. 9, it is possible to track a tracking target with intense movement by tracking processing using color information, and in a scene including a plurality of same-color subjects. Can be tracked by tracking processing using luminance information. As a result, even if face detection fails, it is possible to continue tracking the tracking target.

ここで、図8の各部追尾処理においては、輝度情報と色情報とを組み合わせて追尾処理を行っているが、特徴量検出による追尾処理等、他の追尾処理を組み合わせるようにしても良い。
次に、追尾位置更新判断処理について図10を参照して説明する。追尾位置更新判断処理においては、追尾対象の顔の向きに応じて最終的な追尾位置を判断する。
Here, in each part tracking process of FIG. 8, the tracking process is performed by combining the luminance information and the color information. However, other tracking processes such as a tracking process based on feature amount detection may be combined.
Next, tracking position update determination processing will be described with reference to FIG. In the tracking position update determination process, the final tracking position is determined according to the orientation of the face to be tracked.

S600において、CPU1301は、顔検出回路1307によって顔部が検出されているかを判定する。
S600において、顔検出回路1307によって顔部が検出されていると判定した場合に、S602において、CPU1301は、顔向き判定回路1308により、顔部の向きを判定する。そして、CPU1301は、顔向き判定回路1308による顔部の向きの判定の結果、顔部の向きが正面向きであるかを判定する。
In step S <b> 600, the CPU 1301 determines whether a face is detected by the face detection circuit 1307.
If it is determined in S600 that the face is detected by the face detection circuit 1307, in S602, the CPU 1301 determines the orientation of the face using the face orientation determination circuit 1308. Then, the CPU 1301 determines whether the face orientation is the front orientation as a result of the face orientation determination by the face orientation determination circuit 1308.

S602において、顔部の向きが正面向きであると判定した場合に、S604において、CPU1301は、顔検出回路1307において検出された顔部の位置(例えば領域408の重心位置)を最終的な顔部の追尾位置とする。次のフレームにおいて、CPU1301は、この最終的な顔部の追尾位置を追尾処理の開始位置として、顔検出処理、色情報を用いての顔部の追尾処理、及び輝度情報を用いての顔部の追尾処理を行う。S606において、CPU1301は、周辺位置推定処理において算出された顔周辺部の位置を最終的な顔周辺部の追尾位置とする。次のフレームにおいて、CPU1301は、この最終的な顔周辺部の追尾位置を追尾処理の開始位置として、色情報を用いた顔周辺部の追尾処理、及び輝度情報を用いた顔周辺部の追尾処理を行う。S608において、CPU1301は、色情報取得回路1309により、周辺位置推定処理において算出された顔周辺部の位置の色情報を取得する。そして、CPU1301は、次フレームにおける色情報を用いての顔周辺部の追尾処理において追尾すべき色情報を、新たに取得した顔周辺部の位置の色情報に更新する。その後、CPU1301は、図10に示す処理を終了させる。   If it is determined in S602 that the face is facing the front, in S604, the CPU 1301 determines the position of the face detected by the face detection circuit 1307 (for example, the barycentric position of the region 408) as the final face. This is the tracking position. In the next frame, the CPU 1301 uses the final face tracking position as the tracking processing start position, and performs face detection processing, face tracking processing using color information, and face information using luminance information. The tracking process is performed. In step S606, the CPU 1301 sets the position of the face periphery calculated in the periphery position estimation process as the final tracking position of the face periphery. In the next frame, the CPU 1301 uses the final tracking position of the face periphery as a tracking process start position, and performs tracking processing of the face periphery using color information and tracking processing of the face periphery using luminance information. I do. In step S <b> 608, the CPU 1301 uses the color information acquisition circuit 1309 to acquire the color information of the position of the face periphery calculated in the periphery position estimation process. Then, the CPU 1301 updates the color information to be tracked in the tracking process of the face peripheral part using the color information in the next frame to the newly acquired color information of the position of the face peripheral part. Thereafter, the CPU 1301 ends the process shown in FIG.

S604〜S608に対応したシーンの例を図11(a)及び図11(b)に示す。顔部が検出されている場合、図11(a)に示すように、顔部を含む領域A1が得られ、この領域A1の重心位置が、顔部の位置となる。また、顔部から所定距離だけ下方の位置B1が、顔周辺部の位置となる。これに対し、各部追尾処理は、顔検出処理とは別個に行われる。例えば、図11(b)では、位置C1が顔部の候補追尾位置であり、位置D1が顔周辺部の候補追尾位置である。   Examples of scenes corresponding to S604 to S608 are shown in FIGS. 11 (a) and 11 (b). When the face portion is detected, as shown in FIG. 11A, a region A1 including the face portion is obtained, and the position of the center of gravity of the region A1 becomes the position of the face portion. Further, the position B1 below the face by a predetermined distance is the position of the face periphery. On the other hand, each part tracking process is performed separately from the face detection process. For example, in FIG. 11B, the position C1 is the candidate tracking position of the face portion, and the position D1 is the candidate tracking position of the face peripheral portion.

ここで、図11(b)に示すように、顔部が正面を向いている場合には、顔部の検出精度と顔周辺部の推定精度の何れもが高精度であると考えることができる。このため、本実施形態においては、図11(b)のような追尾結果が得られた場合には、次フレームにおける追尾処理回路1305及び1306の顔部の追尾処理の開始位置を、位置C1の代わりに、顔検出回路1307で検出された顔部の位置A1とする。このようにすると、次フレームにおいても同じ顔部を追尾し易い。同様に、次フレームにおける追尾処理回路1305及び1306の顔周辺部の追尾処理の開始位置を、位置D1の代わりに、周辺位置推定処理において推定された顔周辺部の位置B1とする。このようにすると、次フレームにおいても同じ顔周辺部を追尾し易い。
なお、人物は、服を着ていることが多く、服には様々な模様が形成されていることが多い。したがって、特に、色情報を用いた追尾処理においては、直近の顔周辺部の位置の色情報に従って追尾処理を行うことが望ましい。このために、S608において、追尾対象の色情報を位置B1の色情報に更新する。
Here, as shown in FIG. 11B, when the face portion is facing the front, it can be considered that both the detection accuracy of the face portion and the estimation accuracy of the peripheral portion of the face are high accuracy. . Therefore, in the present embodiment, when the tracking result as shown in FIG. 11B is obtained, the start position of the face tracking process of the tracking processing circuits 1305 and 1306 in the next frame is set to the position C1. Instead, the face position A1 detected by the face detection circuit 1307 is used. In this way, it is easy to track the same face portion in the next frame. Similarly, the start position of the tracking process of the face peripheral part of the tracking processing circuits 1305 and 1306 in the next frame is set to the position B1 of the face peripheral part estimated in the peripheral position estimation process instead of the position D1. In this way, it is easy to track the same face periphery in the next frame.
A person often wears clothes, and various patterns are often formed on the clothes. Therefore, in particular, in the tracking process using color information, it is desirable to perform the tracking process according to the color information of the position of the latest face peripheral part. Therefore, in S608, the tracking target color information is updated to the color information of the position B1.

S602において、顔部の向きが正面向きでないと判定した場合に、S610において、CPU1301は、顔検出回路1307において検出された顔部の位置を最終的な顔部の追尾位置とする。S612において、CPU1301は、各部追尾処理において得られた顔周辺部の候補追尾位置を最終的な顔周辺部の追尾位置とする。S614において、CPU1301は、色情報を用いての追尾処理において追尾すべき色情報を更新せず、過去の色情報をそのまま用いる。その後、CPU1301は、図10に示す処理を終了させる。   If it is determined in S602 that the face is not facing the front, in S610, the CPU 1301 sets the face position detected by the face detection circuit 1307 as the final face tracking position. In step S <b> 612, the CPU 1301 sets the candidate peripheral tracking position of the face periphery obtained in each part tracking process as the final tracking position of the face periphery. In step S614, the CPU 1301 does not update the color information to be tracked in the tracking process using the color information, and uses the past color information as it is. Thereafter, the CPU 1301 ends the process shown in FIG.

S610〜S614に対応したシーンの例を図11(c)に示す。顔部が検出されている場合、図11(c)に示すように、顔部を含む領域A2が得られ、この領域A2の重心位置が、顔部の位置となる。また、顔部から所定距離だけ下方の位置B2が、顔周辺部の位置となる。これに対し、各部追尾処理は、顔検出処理とは別個に行われる。例えば、図11(c)では、位置C1が顔部の候補追尾位置であり、位置D1が顔周辺部の候補追尾位置である。   An example of a scene corresponding to S610 to S614 is shown in FIG. When the face is detected, as shown in FIG. 11C, a region A2 including the face is obtained, and the position of the center of gravity of the region A2 becomes the position of the face. Further, a position B2 below the face by a predetermined distance is the position of the face periphery. On the other hand, each part tracking process is performed separately from the face detection process. For example, in FIG. 11C, the position C1 is the candidate tracking position of the face part, and the position D1 is the candidate tracking position of the face peripheral part.

ここで、図11(c)に示すように、顔部が検出でき且つ正面を向いていない場合、言い換えれば顔部が横向きである場合、顔部についてはある程度の検出精度が保障されるが、顔周辺部については推定精度が保障されない。これは、顔周辺部を、単に顔部から所定距離の位置として推定しているためである。このため、本実施形態においては、図11(c)のような追尾結果が得られた場合には、次フレームにおける追尾処理回路1305及び1306の顔部の追尾処理の開始位置を、位置C1の代わりに、顔検出回路1307で検出された顔部の位置A2とする。一方、次フレームにおける追尾処理回路1305及び1306の顔周辺部の追尾処理の開始位置を、今回の各部追尾処理で得られた顔周辺部の位置D1とする。このようにすることにより、次フレームにおいても顔周辺部を精度良く追尾することが可能である。
なお、顔部の向きが横向きになっている場合には、顔周辺部の推定精度が保障されないので、追尾対象の色情報は更新しない。
Here, as shown in FIG. 11C, when the face can be detected and is not facing the front, in other words, when the face is sideways, a certain degree of detection accuracy is guaranteed for the face. The estimation accuracy is not guaranteed for the face periphery. This is because the peripheral part of the face is simply estimated as a position at a predetermined distance from the face part. For this reason, in this embodiment, when the tracking result as shown in FIG. 11C is obtained, the start position of the face tracking processing of the tracking processing circuits 1305 and 1306 in the next frame is set to the position C1. Instead, the face position A2 detected by the face detection circuit 1307 is used. On the other hand, the start position of the tracking process of the face peripheral part of the tracking processing circuits 1305 and 1306 in the next frame is set as the position D1 of the face peripheral part obtained by the current part tracking process. By doing so, it is possible to accurately track the peripheral portion of the face even in the next frame.
Note that when the face portion is in landscape orientation, the accuracy of estimation of the peripheral portion of the face is not guaranteed, and the tracking target color information is not updated.

S600において、顔検出回路1307によって顔部が検出されていないと判定した場合に、S616において、CPU1301は、各部追尾処理において得られた顔周辺部の候補追尾位置を最終的な顔部の追尾位置とする。S618において、CPU1301は、各部追尾処理において得られた顔周辺部の候補追尾位置を最終的な顔周辺部の追尾位置とする。S620において、CPU1301は、色情報を用いての追尾処理において追尾すべき色情報を更新せず、過去の色情報をそのまま用いる。その後、CPU1301は、図10に示す処理を終了させる。   If it is determined in S600 that the face detection circuit 1307 has not detected a face, the CPU 1301 determines the face tracking candidate tracking position obtained in each part tracking process as the final tracking position in S616. And In step S <b> 618, the CPU 1301 sets the candidate peripheral tracking position of the face periphery obtained in each part tracking process as the final tracking position of the face periphery. In step S620, the CPU 1301 does not update the color information to be tracked in the tracking process using the color information, and uses the past color information as it is. Thereafter, the CPU 1301 ends the process shown in FIG.

S616〜S620に対応したシーンの例を図11(d)に示す。顔部が検出されていないので、追尾処理の結果は、各部追尾処理によるものしか得られない。例えば、図11(d)では、位置C2が顔部の候補追尾位置であり、位置D2が顔周辺部の候補追尾位置である。   An example of a scene corresponding to S616 to S620 is shown in FIG. Since no face is detected, the result of the tracking process can be obtained only by the tracking process of each part. For example, in FIG. 11D, the position C2 is the face candidate tracking position, and the position D2 is the face periphery candidate tracking position.

図11(d)に示すように、顔部が背面を向いていたり、顔部が大きく移動していたりして顔部が検出できない場合には、次フレームにおける追尾処理回路1305及び1306の顔部の追尾処理の開始位置を、今回の各部追尾処理で得られた顔部の位置C2とする。また、次フレームにおける追尾処理回路1305及び1306の顔周辺部の追尾処理の開始位置を、今回の各部追尾処理で得られた顔周辺部の位置D2とする。このようにすることにより、次フレームにおいても顔部及び顔周辺部を精度良く追尾することが可能である。
なお、顔部が検出できない場合にも追尾対象の色情報は更新しない。
As shown in FIG. 11D, when the face part cannot be detected because the face part is facing back or the face part is moved greatly, the face parts of the tracking processing circuits 1305 and 1306 in the next frame are detected. The start position of the tracking process is the face position C2 obtained by the respective part tracking processes. In addition, the start position of the tracking process of the face peripheral part of the tracking processing circuits 1305 and 1306 in the next frame is set as the position D2 of the face peripheral part obtained by the current part tracking process. By doing so, it is possible to accurately track the face portion and the face peripheral portion in the next frame.
Note that the tracking target color information is not updated even when the face portion cannot be detected.

次に、追尾枠の表示について説明する。S216の説明において前述したように、本実施形態においては、顔部の追尾処理と顔周辺部の追尾処理との両方を行うため、追尾位置も顔部と顔周辺部の両方が得られる。そして、本実施形態においては、これらの追尾位置のうちの何れかをAF制御やAE制御に用いる追尾位置とする。追尾枠の表示においては、この最終的に採用された追尾枠を表示させる。例えば、顏部の追尾位置が採用された場合には、図12(a)のようにして、追尾対象の顏部の位置に追尾枠E1を表示させる。また、顏周辺部の追尾位置が採用された場合には、図12(b)のようにして、追尾対象の顏周辺部の位置に追尾枠E2を表示させる。
図12(a)及び図12(b)のように追尾枠を表示させることにより、ユーザは、現在のAF制御やAE制御の対象となっている部分を容易に視認可能である。
Next, display of the tracking frame will be described. As described above in the description of S216, in the present embodiment, both the face tracking process and the face peripheral tracking process are performed, so that both the face position and the face peripheral area are obtained. In the present embodiment, any one of these tracking positions is set as a tracking position used for AF control or AE control. In the display of the tracking frame, the finally adopted tracking frame is displayed. For example, when the tracking position of the buttock is adopted, the tracking frame E1 is displayed at the position of the buttock to be tracked as shown in FIG. Further, when the tracking position in the vicinity of the eyelid is adopted, the tracking frame E2 is displayed at the position of the periphery of the eyelid to be tracked as shown in FIG.
By displaying the tracking frame as shown in FIG. 12A and FIG. 12B, the user can easily visually recognize the part that is currently subject to AF control or AE control.

なお、顏部の追尾位置と顏周辺部の追尾位置の何れが採用されたかによらずに、図12(c)のようにして、追尾対象の顏部と顏周辺部との両方を含む追尾枠E3を表示させるようにしても良い。このようにして追尾枠を表示させることにより、ユーザは、現在の追尾対象となっている被写体そのものを容易に識別可能である。   Regardless of whether the tracking position of the buttocks or the tracking position of the periphery of the heel is adopted, the tracking including both the heel part to be tracked and the periphery of the heel as shown in FIG. The frame E3 may be displayed. By displaying the tracking frame in this way, the user can easily identify the subject that is the current tracking target.

また、図11で示した顏部領域や追尾候補位置をそのまま表示させるようにしても良い。この場合には、例えば、図11(b)や図11(c)に示すように、顏検出回路1307によって得られた顏部領域を示す追尾枠の大きさを、追尾処理回路1305、1306で得られた追尾位置を示す追尾枠の大きさよりも大きくする。また、追尾処理回路1305で得られた追尾位置を示す追尾枠の大きさと追尾処理回路1305で得られた追尾位置を示す追尾枠の大きさを異ならせるようにしても良い。このようにして大きさを異ならせることにより、追尾枠を区別することが可能である。
さらには、顏検出回路1307によって得られた顏部領域を示す追尾枠の表示色と、追尾処理回路1305で得られた追尾位置を示す追尾枠の表示色と、追尾処理回路1305で得られた追尾位置を示す追尾枠の表示色とを異ならせるようにしても良い。このようにして色を異ならせることによっても、追尾枠を区別することが可能である。
Further, the buttocks area and the tracking candidate position shown in FIG. 11 may be displayed as they are. In this case, for example, as shown in FIG. 11B and FIG. 11C, the size of the tracking frame indicating the buttock area obtained by the heel detection circuit 1307 is set by the tracking processing circuits 1305 and 1306. The size of the tracking frame indicating the obtained tracking position is made larger. Further, the size of the tracking frame indicating the tracking position obtained by the tracking processing circuit 1305 may be different from the size of the tracking frame indicating the tracking position obtained by the tracking processing circuit 1305. Thus, it is possible to distinguish a tracking frame by varying a magnitude | size.
Furthermore, the display color of the tracking frame indicating the hip region obtained by the eyelid detection circuit 1307, the display color of the tracking frame indicating the tracking position obtained by the tracking processing circuit 1305, and the tracking processing circuit 1305 The display color of the tracking frame indicating the tracking position may be different. The tracking frame can also be distinguished by making the colors different in this way.

以上説明したように、本実施形態においては、顏検出回路1307と、追尾処理回路1305、1306を組み合わせて追尾処理を行うことにより、ユーザが所望する特定の追尾対象を追尾し続けることが可能である。また、追尾処理の結果に応じて追尾枠の表示位置を顏部と顏周辺部との間で切り替えるようにしているので、ユーザは、適切な追尾処理が行われていることを容易に視認できる。   As described above, in the present embodiment, by performing the tracking process by combining the eyelid detection circuit 1307 and the tracking processing circuits 1305 and 1306, it is possible to continue tracking a specific tracking target desired by the user. is there. Further, since the display position of the tracking frame is switched between the heel part and the heel peripheral part according to the result of the tracking process, the user can easily recognize that the appropriate tracking process is being performed. .

ここで、上述の実施形態においては、各部追尾処理において輝度情報を用いた追尾処理と色情報を用いた追尾処理とを行っている。これは、追尾処理の性能をより向上させるためである。これに対し、追尾処理の性能は低下するが、各部追尾処理において輝度情報を用いた追尾処理と色情報を用いた追尾処理の何れかのみを行うようにしても良い。また、顏検出回路1307によって顏部の追尾を行っているので、追尾処理回路1305、1306を用いた顏部の追尾は省略しても良い。   Here, in the above-described embodiment, a tracking process using luminance information and a tracking process using color information are performed in each part tracking process. This is to further improve the performance of the tracking process. On the other hand, although the performance of the tracking process is degraded, only one of the tracking process using luminance information and the tracking process using color information may be performed in each part tracking process. Further, since the heel tracking is performed by the heel detection circuit 1307, the tracking of the heel using the tracking processing circuits 1305 and 1306 may be omitted.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の動作の説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. Further, in the description of the operation described above, the operation is described using “first”, “next”, and the like for convenience. However, it does not mean that the operation is essential in this order.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…撮像装置、102…撮影光学系、104…焦点調整機構、106…絞り、108…絞り駆動機構、110…シャッタ、112…シャッタ駆動機構、114…撮像素子、116…撮像素子インターフェイス(IF)回路、118…RAM、120…表示素子、122…表示素子駆動回路、124…タッチパネル、126…タッチパネル駆動回路、128…記録メディア、130…システムコントローラ、132…操作部、134…ROM、1301…CPU、1302…AF制御回路、1303…AE制御回路、1304…画像処理回路、1305,1306…追尾処理回路、1307…顔検出回路、1308…顔向き判定回路、1309…色情報取得回路、1310…メモリ制御回路   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 102 ... Imaging optical system, 104 ... Focus adjustment mechanism, 106 ... Aperture, 108 ... Aperture drive mechanism, 110 ... Shutter, 112 ... Shutter drive mechanism, 114 ... Imaging element, 116 ... Imaging element interface (IF) Circuit: 118 ... RAM, 120 ... Display element, 122 ... Display element drive circuit, 124 ... Touch panel, 126 ... Touch panel drive circuit, 128 ... Recording medium, 130 ... System controller, 132 ... Operation unit, 134 ... ROM, 1301 ... CPU 1302: AF control circuit, 1303 ... AE control circuit, 1304 ... Image processing circuit, 1305, 1306 ... Tracking processing circuit, 1307 ... Face detection circuit, 1308 ... Face orientation determination circuit, 1309 ... Color information acquisition circuit, 1310 ... Memory Control circuit

Claims (17)

被写体を撮像して画像データを出力する撮像部と、
前記画像データから前記被写体の顔部を検出する顔検出部と、
前記画像データに基づいて、前記画像データにおける前記被写体の顔部を追尾する第1の被写体追尾部と、
前記画像データに基づいて、前記画像データにおける前記被写体の顔周辺部を追尾する第2の被写体追尾部と、
前記画像データに基づく画像を表示する表示部と、
前記顔検出部による前記顔部の検出又は前記第1の被写体追尾部による前記顔部の追尾が有効である間は、前記表示部に表示された画像に、前記顔部の位置を示す表示枠を重畳させ、前記顔検出部による前記顔部の検出と前記第1の被写体追尾部による前記顔部の追尾が無効となったときに、前記表示部に表示された画像に、前記顔周辺部の位置を示す表示枠を重畳させる制御部と、
を具備することを特徴とする撮像装置。
An imaging unit for imaging a subject and outputting image data;
A face detector for detecting the face of the subject from the image data;
A first subject tracking unit that tracks the face of the subject in the image data based on the image data;
Based on the image data, a second subject tracking unit that tracks the periphery of the face of the subject in the image data;
A display unit for displaying an image based on the image data;
While detection of the face part by the face detection part or tracking of the face part by the first subject tracking part is effective, a display frame indicating the position of the face part on the image displayed on the display part When the detection of the face by the face detection unit and the tracking of the face by the first subject tracking unit are disabled, the peripheral portion of the face is displayed on the image displayed on the display unit. A control unit for superimposing a display frame indicating the position of
An imaging apparatus comprising:
前記制御部は、前記顔検出部による前記顔部の検出又は前記第1の被写体追尾部による前記顔部の追尾が有効である状態から、前記顔検出部による前記顔部の検出と前記第1の被写体追尾部による前記顔部の追尾が無効である状態に変化したときに、前記表示部に重畳された前記顔部の位置を示す表示枠の重畳を停止することを特徴とする請求項1に記載の撮像装置。   The control unit detects the face by the face detection unit and detects the first from the state in which the detection of the face by the face detection unit or the tracking of the face by the first subject tracking unit is effective. The superposition of a display frame indicating the position of the face portion superimposed on the display portion is stopped when the tracking of the face portion by the subject tracking portion changes to an invalid state. The imaging device described in 1. 前記制御部は、前記顔検出部による前記顔部の検出と前記第1の被写体追尾部による前記顔部の追尾とが有効である場合には、前記表示部に表示された画像に、前記顔検出部によって検出された前記顔部の位置を示す表示枠を重畳させることを特徴とする請求項2に記載の撮像装置。   When the detection of the face by the face detection unit and the tracking of the face by the first subject tracking unit are valid, the control unit adds the face to the image displayed on the display unit. The imaging apparatus according to claim 2, wherein a display frame indicating the position of the face detected by the detection unit is superimposed. 前記制御部は、前記顔検出部による前記顔部の検出と前記第1の被写体追尾部による前記顔部の追尾とが有効である場合には、前記表示部に表示された画像に、前記顔検出部によって検出された前記顔部の位置を示す表示枠と前記第1の被写体追尾部によって追尾された前記顔部の位置を示す表示枠とを重畳させることを特徴とする請求項2に記載の撮像装置。   When the detection of the face by the face detection unit and the tracking of the face by the first subject tracking unit are valid, the control unit adds the face to the image displayed on the display unit. The display frame indicating the position of the face detected by the detection unit and the display frame indicating the position of the face tracked by the first subject tracking unit are overlapped with each other. Imaging device. 前記制御部は、前記顔検出部による前記顔部の検出が無効であり、前記第1の被写体追尾部による前記顔部の追尾動作が有効である場合には、前記表示部に表示された画像に前記第1の被写体追尾部によって追尾された前記顔部の位置を示す表示枠を重畳させることを特徴とする請求項2に記載の撮像装置。   When the face detection by the face detection unit is invalid and the tracking operation of the face by the first subject tracking unit is valid, the control unit displays the image displayed on the display unit. The imaging apparatus according to claim 2, wherein a display frame indicating the position of the face tracked by the first subject tracking section is superimposed on the image capturing apparatus. 前記第2の被写体追尾部は、前記顔検出部によって検出された顔部の位置又は前記第1の被写体追尾部によって追尾された顔部の位置に基づいて、前記被写体の胸部の位置を前記顔周辺部の位置として推定して前記追尾を行うことを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。   The second subject tracking unit determines the position of the chest of the subject based on the position of the face detected by the face detection unit or the position of the face tracked by the first subject tracking unit. The imaging apparatus according to claim 1, wherein the tracking is performed by estimating the position of a peripheral portion. 前記第1の被写体追尾部は、
前記画像データの色情報を検出して前記被写体の顔部を追尾する第1の色追尾部と、
前記画像データの輝度情報を検出して前記被写体の顔部を追尾する第1の輝度追尾部と、
を有し、
前記第2の被写体追尾部は、
前記画像データの色情報を検出して前記被写体の顔周辺部を追尾する第2の色追尾部と、
前記画像データの輝度情報を検出して前記被写体の顔周辺部を追尾する第2の輝度追尾部と、
を有することを特徴とする請求項1乃至6の何れか1項に記載の撮像装置。
The first subject tracking section is
A first color tracking unit that detects color information of the image data and tracks the face of the subject;
A first luminance tracking unit that detects luminance information of the image data and tracks the face of the subject;
Have
The second subject tracking unit includes:
A second color tracking unit that detects color information of the image data and tracks a peripheral part of the face of the subject;
A second luminance tracking unit that detects luminance information of the image data and tracks the periphery of the face of the subject;
The imaging apparatus according to claim 1, wherein the imaging apparatus includes:
前記制御部は、前記顔の位置を示す表示枠の大きさと前記顔周辺部の位置を示す表示枠の大きさとを異なる大きさとすることを特徴とする請求項1乃至7の何れか1項に記載の撮像装置。   The control unit according to any one of claims 1 to 7, wherein a size of a display frame indicating the position of the face is different from a size of a display frame indicating the position of the periphery of the face. The imaging device described. 前記制御部は、前記顔の位置を示す表示枠の色と前記顔周辺部の位置を示す表示枠の色とを異なる色とすることを特徴とする請求項1乃至8の何れか1項に記載の撮像装置。   The said control part makes the color of the display frame which shows the position of the said face, and the color of the display frame which shows the position of the said periphery part of a face different from any one of Claim 1 thru | or 8 characterized by the above-mentioned. The imaging device described. 前記制御部は、前記表示部に表示された画像に、前記顔部と前記顔周辺部とを含む表示枠を重畳させることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit superimposes a display frame including the face part and the face peripheral part on an image displayed on the display unit. 被写体を撮像して画像データを出力する撮像部と、
前記画像データから前記被写体の顔部を検出する顔検出部と、
前記画像データに基づいて、前記画像データにおける前記被写体の顔周辺部を追尾する顔周辺追尾部と、
前記画像データに基づく画像を表示する表示部と、
前記顔検出部による前記顔部の検出が有効である間は、前記表示部に表示された画像に、前記顔部の位置を示す表示枠を重畳させ、前記顔検出部による前記顔部の検出が無効となったときに、前記表示部に表示された画像に、前記顔周辺部の位置を示す表示枠を重畳させる制御部と、
を具備することを特徴とする撮像装置。
An imaging unit for imaging a subject and outputting image data;
A face detector for detecting the face of the subject from the image data;
Based on the image data, a face periphery tracking unit that tracks the face periphery of the subject in the image data;
A display unit for displaying an image based on the image data;
While the detection of the face by the face detection unit is effective, a display frame indicating the position of the face is superimposed on the image displayed on the display unit, and the detection of the face by the face detection unit is performed. A control unit that superimposes a display frame indicating the position of the peripheral portion of the face on the image displayed on the display unit when
An imaging apparatus comprising:
前記制御部は、前記顔検出部による前記顔部の検出が有効である状態から、前記顔検出部による前記顔部の検出が無効である状態に変化したときに、前記表示部に重畳された前記顔部の位置を示す表示枠の重畳を停止することを特徴とする請求項11に記載の撮像装置。   The control unit is superimposed on the display unit when the detection of the face by the face detection unit is changed to a state in which the detection of the face by the face detection unit is invalid. The imaging apparatus according to claim 11, wherein superimposition of a display frame indicating the position of the face is stopped. 前記顔周辺追尾部は、前記顔検出部によって検出された顔部の位置に基づいて、前記被写体の胸部の位置を前記顔周辺部の位置として推定して前記追尾を行うことを特徴とする請求項11又は12に記載の撮像装置。   The face periphery tracking unit estimates the position of the chest of the subject as the position of the face periphery based on the position of the face detected by the face detection unit, and performs the tracking. Item 13. The imaging device according to Item 11 or 12. 前記顔周辺追尾部は、前記画像データの色情報を検出して前記被写体の顔部を追尾する色追尾部と、
前記画像データの輝度情報を検出して前記被写体の顔部を追尾する輝度追尾部と、
を有することを特徴とする請求項11乃至13の何れか1項に記載の撮像装置。
The face periphery tracking unit detects color information of the image data and tracks the face of the subject;
A luminance tracking unit that detects luminance information of the image data and tracks the face of the subject;
The imaging apparatus according to claim 11, further comprising:
前記制御部は、前記顔の位置を示す表示枠の大きさと前記顔周辺部の位置を示す表示枠の大きさとを異なる大きさとすることを特徴とする請求項11乃至14の何れか1項に記載の撮像装置。   The control unit according to any one of claims 11 to 14, wherein a size of a display frame indicating the position of the face is different from a size of a display frame indicating the position of the peripheral portion of the face. The imaging device described. 前記制御部は、前記顔の位置を示す表示枠の色と前記顔周辺部の位置を示す表示枠の色とを異なる色とすることを特徴とする請求項11乃至15の何れか1項に記載の撮像装置。   The said control part makes the color of the display frame which shows the position of the said face, and the color of the display frame which shows the position of the said periphery part of a face different from any one of Claim 11 thru | or 15 characterized by the above-mentioned. The imaging device described. 前記制御部は、前記表示部に表示された画像に、前記顔部と前記顔周辺部とを含む表示枠を重畳させることを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the control unit superimposes a display frame including the face part and the face peripheral part on an image displayed on the display part.
JP2011144772A 2011-06-29 2011-06-29 Imaging apparatus Withdrawn JP2013012942A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011144772A JP2013012942A (en) 2011-06-29 2011-06-29 Imaging apparatus
US13/534,075 US8929598B2 (en) 2011-06-29 2012-06-27 Tracking apparatus, tracking method, and storage medium to store tracking program
CN201210224984.2A CN102857690B (en) 2011-06-29 2012-06-29 Follow-up mechanism, method for tracing, camera head and image capture method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144772A JP2013012942A (en) 2011-06-29 2011-06-29 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013012942A true JP2013012942A (en) 2013-01-17

Family

ID=47686444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144772A Withdrawn JP2013012942A (en) 2011-06-29 2011-06-29 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013012942A (en)

Similar Documents

Publication Publication Date Title
JP5830373B2 (en) Imaging device
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US8553134B2 (en) Imager processing a captured image
US8929598B2 (en) Tracking apparatus, tracking method, and storage medium to store tracking program
JP5226903B1 (en) TRACKING DEVICE AND TRACKING METHOD
JP2014081420A (en) Tracking device and method thereof
JP5851206B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5810136B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP5331128B2 (en) Imaging device
JP2005210728A (en) Method and device for continuously adjusting focus and exposure in digital imaging apparatus
JP2013012940A (en) Tracking apparatus and tracking method
JP6172973B2 (en) Image processing device
JP6516426B2 (en) Image pickup apparatus, image processing method and program
JP2012235257A (en) Photographing device
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5977526B2 (en) Image processing apparatus and image processing method
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5839857B2 (en) Imaging apparatus, imaging method, and imaging program
JP2013012942A (en) Imaging apparatus
JP5769518B2 (en) Imaging device
JP6138632B2 (en) Imaging apparatus, imaging method, and program
US9866755B2 (en) Image capture apparatus and method for controlling the same
JP2014038164A (en) Image processor
JP6293334B2 (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902