[go: up one dir, main page]

JP2014202875A - Subject tracking device - Google Patents

Subject tracking device Download PDF

Info

Publication number
JP2014202875A
JP2014202875A JP2013078133A JP2013078133A JP2014202875A JP 2014202875 A JP2014202875 A JP 2014202875A JP 2013078133 A JP2013078133 A JP 2013078133A JP 2013078133 A JP2013078133 A JP 2013078133A JP 2014202875 A JP2014202875 A JP 2014202875A
Authority
JP
Japan
Prior art keywords
subject
tracking
main subject
image
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013078133A
Other languages
Japanese (ja)
Inventor
将平 船本
Shohei FUNAMOTO
将平 船本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013078133A priority Critical patent/JP2014202875A/en
Publication of JP2014202875A publication Critical patent/JP2014202875A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】主被写体と主被写体の手前にある物体を追尾し、主被写体だけが存在する測距点を合焦時に選択する撮像装置を提供すること。【解決手段】追跡対象の少なくとも一部を含む基準画像を生成する基準画像生成手段と、前期追跡センサからの撮影画像と基準画像との相関度を評価することで前記撮影画像中の追跡対象位置を検出する追跡手段と、前記追跡手段は、焦点調節時にピントを合わせる被写体を主被写体、前記撮像装置から見て前記主被写体よりも手前に位置する被写体を遮蔽被写体としてそれぞれを個別に追跡し、前記焦点調節手段は、前記主被写体上に存在し、かつ前記遮蔽被写体上には存在しない測距点で焦点調節を行うことを特徴とする構成とした。【選択図】図1(a)An imaging apparatus is provided that tracks a main subject and an object in front of the main subject and selects a distance measuring point where only the main subject exists at the time of focusing. A reference image generating unit that generates a reference image including at least a part of a tracking target, and a tracking target position in the captured image by evaluating a degree of correlation between the captured image from the previous tracking sensor and the reference image. Tracking means for detecting the tracking object, and the tracking means individually tracking the subject to be focused at the time of focus adjustment as a main subject and the subject positioned in front of the main subject as viewed from the imaging device as a shielding subject, The focus adjusting means is configured to perform focus adjustment at a distance measuring point that exists on the main subject and does not exist on the shielding subject. [Selection] Figure 1 (a)

Description

本発明は、撮像装置に関し、特に撮像装置に搭載される被写体追跡装置に関するものである。   The present invention relates to an imaging device, and more particularly to a subject tracking device mounted on the imaging device.

従来、固体撮像素子を搭載したカメラにおいて、連続して撮像される画像から任意の被写体を選択し、連続するコマ間でその被写体を追跡し続ける機能が実用化されている。このようなカメラでは、画像中における主被写体の位置を検出することによって、時間と共に変化する被写体に対して、適切な焦点調節や自動露出をし続けることが可能となっている。   2. Description of the Related Art Conventionally, in a camera equipped with a solid-state image sensor, a function of selecting an arbitrary subject from continuously captured images and keeping track of the subject between successive frames has been put into practical use. In such a camera, by detecting the position of the main subject in the image, it is possible to continue appropriate focus adjustment and automatic exposure for a subject that changes with time.

また、上述の被写体追跡機能を備えるカメラにおいては、複数の被写体を個別に認識したり、主被写体とそうでない被写体を区別したりするために、1つの被写体ではなく複数の被写体を同時に追跡する機能をもつものも存在する。   In addition, in a camera having the above-described subject tracking function, a function for simultaneously tracking a plurality of subjects instead of a single subject in order to recognize a plurality of subjects individually or distinguish a main subject from a subject that is not. Some of them have

特許文献1では、画像内に存在する複数の被写体を個別に認識し、それらを同時に追跡することで、画像上における被写体の位置を撮影者に示す技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-151561 discloses a technique for recognizing a plurality of subjects existing in an image and tracking them simultaneously to show the photographer the position of the subject on the image.

特許文献1に記載のデジタルカメラは、入力画像から検出した被写体を囲む追跡枠を画面に表示する機能を有し、その中から撮影者がタッチスクリーンLCD等を介して指定した1つ乃至複数の被写体を追跡対象として設定することが可能となっている。そして、追跡対象の指定後に撮影される画像に対し、追跡対象に最適なホワイトバランス調整やガンマ補正等の処理を施す機能を有している。   The digital camera described in Patent Document 1 has a function of displaying a tracking frame surrounding a subject detected from an input image on a screen, and one or more specified by the photographer via a touch screen LCD or the like. The subject can be set as a tracking target. And, it has a function of performing processing such as white balance adjustment and gamma correction that are optimal for the tracking target for an image captured after the tracking target is specified.

特開2010−183253号公報JP 2010-183253 A

しかしながら、上述の特許文献1に開示された従来技術では、撮影者が指定した追跡対象を全て追跡するため、シーン内に多数の被写体が存在する場合に全ての被写体を追跡対象とすると、演算コストが大きくなるという問題がある。また、被写体追跡の利用の仕方次第では、全ての被写体を追跡する必要はない場合もある。   However, in the conventional technique disclosed in Patent Document 1 described above, since all the tracking targets designated by the photographer are tracked, if there are a large number of subjects in the scene and all subjects are to be tracked, the calculation cost is low. There is a problem that becomes larger. Also, depending on how to use subject tracking, it may not be necessary to track all subjects.

例えば、追跡処理によって検出された被写体の位置情報を、位相差AF方式を有する一眼レフカメラの測距点選択に利用する場合を考える。このような場合、主被写体の位置を特定した上で、主被写体上に存在する測距点の中から、遠近競合など別の被写体の影響を受けた測距点を除外した測距点を選択すれば、主被写体にピントを合わせることができる。遠近競合は多くの場合、主被写体と撮像装置との間に別の被写体が割り込んだ場合に起こりうるため、主被写体と、主被写体よりも撮像装置の間に割り込む可能性のある被写体のみを追跡すれば、遠近競合の影響を受けた測距点を合焦の対象から除外できる。   For example, consider a case where the position information of a subject detected by tracking processing is used for distance measurement point selection of a single-lens reflex camera having a phase difference AF method. In such a case, after identifying the position of the main subject, select a distance measurement point that excludes the distance measurement points affected by other subjects, such as distance conflict, from the distance measurement points that exist on the main subject. By doing so, it is possible to focus on the main subject. Perspective conflicts often occur when another subject cuts in between the main subject and the imaging device, so only the main subject and only the subject that can be interrupted between the imaging device rather than the main subject are tracked. By doing so, it is possible to exclude ranging points affected by the perspective conflict from being focused.

そこで、本発明の目的は、追跡対象を画像内に存在する全ての被写体ではなく、主被写体と主被写体の手前にある物体を追尾し、主被写体だけが存在する測距点を合焦時に選択する撮像装置を提供することである。   Therefore, the object of the present invention is to track the main subject and an object in front of the main subject instead of all the subjects present in the image as the tracking target, and select a distance measuring point where only the main subject exists at the time of focusing. An imaging device is provided.

以下、本提案書においては、主被写体と撮像装置との間に割り込む可能性のある被写体を遮蔽被写体と呼ぶこととする。   Hereinafter, in this proposal, a subject that may interrupt between the main subject and the imaging device is referred to as a shielding subject.

上記目的を達成するために、本発明は、ファインダ光学系からの画像を撮像する追跡センサと、追跡対象の少なくとも一部を含む基準画像を生成する基準画像生成手段と、
前期追跡センサからの撮影画像と基準画像との相関度を評価することで前記撮影画像中の追跡対象位置を検出する追跡手段と、
撮像画面中の複数の測距点の焦点状態を検出可能であり、前記追跡手段の結果に基づいて複数の測距点の中から前記追跡対象位置に応じた測距点を選択し、自動焦点調節を行う焦点調節手段を有した撮像装置において、
前記追跡手段は、前記焦点調節手段においてピントを合わせる被写体を主被写体、前記撮像装置から見て前記主被写体よりも手前に位置する被写体を遮蔽被写体としてそれぞれを個別に追跡し、
前記焦点調節手段は、前記主被写体上に存在し、かつ前記遮蔽被写体上には存在しない測距点で焦点調節を行うことを特徴とする。
To achieve the above object, the present invention provides a tracking sensor that captures an image from a finder optical system, a reference image generating unit that generates a reference image including at least a part of a tracking target,
A tracking means for detecting a tracking target position in the captured image by evaluating a degree of correlation between the captured image from the previous tracking sensor and the reference image;
It is possible to detect the focus state of a plurality of ranging points in the imaging screen, select a ranging point corresponding to the tracking target position from the plurality of ranging points based on the result of the tracking means, and automatically focus In an imaging apparatus having a focus adjusting means for adjusting,
The tracking unit individually tracks each of the subject to be focused on by the focus adjusting unit as a main subject and a subject positioned in front of the main subject as viewed from the imaging apparatus as a shielding subject,
The focus adjusting means adjusts the focus at a distance measuring point that exists on the main subject and does not exist on the shielding subject.

本発明によれば、追跡処理の負荷を軽減しつつ、AFにおいて良くない影響を与える可能性の高い測距点領域を合焦の対象から除外する撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which excludes the focus detection area | region which has a high possibility of having a bad influence in AF from the object of focusing can be provided, reducing the load of tracking processing.

第1の実施形態に関わる撮像装置の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the imaging device in connection with 1st Embodiment. 第1の実施形態に関わる撮像装置の動作手順を示す図である。It is a figure which shows the operation | movement procedure of the imaging device in connection with 1st Embodiment. 第1の実施形態に関わる撮像装置の機械図面である。It is a mechanical drawing of the imaging device concerning 1st Embodiment. 第1の実施形態に関わる撮像装置の基本構成を示すブロック線図である。It is a block diagram which shows the basic composition of the imaging device concerning 1st Embodiment. 第1の実施形態に関わる撮像装置に搭載されるセンサの撮像範囲を示す図である。It is a figure which shows the imaging range of the sensor mounted in the imaging device concerning 1st Embodiment. 第1の実施形態に関わる撮像装置の遮蔽被写体検出の例を示す図である。It is a figure which shows the example of the shielding subject detection of the imaging device concerning 1st Embodiment. 第1の実施形態に関わる撮像装置の測距点選択の例を示す図である。It is a figure which shows the example of the ranging point selection of the imaging device concerning 1st Embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわる撮像装置の動作手順である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is an operation procedure of the imaging apparatus according to the embodiment of the present invention.

[実施例1]
以下、図2を参照して、本発明の第1の実施例による撮像装置について説明する。
[Example 1]
Hereinafter, with reference to FIG. 2, an imaging apparatus according to a first embodiment of the present invention will be described.

図2において201はデジタル一眼レフカメラ本体であり、その前面には撮影レンズ202が装着される。撮影レンズ202は交換可能であり、またカメラ本体201と撮影レンズ202は、マウント接点群215を介して電気的にも接続される。撮影レンズ202の中には、フォーカシングレンズ213と絞りシャッター214があり、前記マウント接点群を介した制御により、カメラ内に取り込む光量とピントを調整できるようになっている。   In FIG. 2, reference numeral 201 denotes a digital single-lens reflex camera body, and a photographing lens 202 is attached to the front surface thereof. The photographing lens 202 can be exchanged, and the camera body 201 and the photographing lens 202 are also electrically connected via the mount contact group 215. The taking lens 202 includes a focusing lens 213 and an aperture shutter 214, and the amount of light taken into the camera and the focus can be adjusted by control via the mount contact group.

203はメインミラーであり、ハーフミラーとなっている。メインミラー203はファインダ観測状態では撮影光路上に斜設され、撮影レンズ202からの撮影光束をファインダ光学系へと反射する。一方、透過光はサブミラー204を介して測距センサ205へと入射する。   Reference numeral 203 denotes a main mirror, which is a half mirror. The main mirror 203 is obliquely arranged on the photographing optical path in the finder observation state, and reflects the photographing light beam from the photographing lens 202 to the finder optical system. On the other hand, the transmitted light enters the distance measuring sensor 205 via the sub mirror 204.

測距センサ205は、撮影レンズ202の二次結像面を焦点検出ラインセンサ上に形成することで、位相差検出方式によって撮影レンズ202の焦点調節状態を検出することのできる像信号を生成する。   The distance measuring sensor 205 forms an image signal that can detect the focus adjustment state of the photographing lens 202 by a phase difference detection method by forming the secondary image formation surface of the photographing lens 202 on the focus detection line sensor. .

206はファインダ光学系を構成する撮影レンズ202の予定結像面に配置されたピント板である。   Reference numeral 206 denotes a focusing plate disposed on the planned imaging plane of the photographing lens 202 constituting the finder optical system.

207はファインダ光路変更用のペンタプリズムである。209はアイピースであり、撮影者はここからピント板206を観察することによって、撮影画面と測距点マークを確認することができる。   Reference numeral 207 denotes a pentaprism for changing the finder optical path. Reference numeral 209 denotes an eyepiece, and the photographer can confirm the photographing screen and the distance measuring point mark by observing the focus plate 206 from here.

208は測光センサである。測光センサ208は、照射される光信号から輝度信号と色差信号を持つ画像データを生成する。測光センサ208で生成された測光画像データは、被写体の明るさ検出と露出演算、被写体追跡を行う処理に用いられる。   Reference numeral 208 denotes a photometric sensor. The photometric sensor 208 generates image data having a luminance signal and a color difference signal from the irradiated light signal. Photometric image data generated by the photometric sensor 208 is used for processing of subject brightness detection, exposure calculation, and subject tracking.

210はフォーカルプレーンシャッター、211は撮像素子である。露光を行う際は、メインミラー203、およびサブミラー204は撮影光束上から退避し、フォーカルプレーンシャッター210が開くことにより、撮像センサ211が露光される。また、212はディスプレイユニットであり、撮影情報や撮影画像を表示し、ユーザが確認できるようにするものである。   Reference numeral 210 denotes a focal plane shutter, and 211 denotes an image sensor. When performing exposure, the main mirror 203 and the sub mirror 204 are retracted from the photographing light beam, and the focal plane shutter 210 is opened, so that the image sensor 211 is exposed. Reference numeral 212 denotes a display unit that displays photographing information and a photographed image so that the user can check it.

次に、本実施形態の撮像装置の機能ブロックについて、図2の模式図および図3、図4を用いて説明する。なお、図3中の図2と同じ部材については、図2のものと同一符号を付す。   Next, functional blocks of the imaging apparatus according to the present embodiment will be described with reference to the schematic diagram of FIG. 2 and FIGS. 3 and 4. In FIG. 3, the same members as those in FIG. 2 are denoted by the same reference numerals as those in FIG.

操作部301はユーザがカメラボディ部201に取り付けられた不図示のレリーズボタン、スイッチ、ダイヤル、接続機器等を介して行った操作を検知し、操作内容に応じた信号をシステム制御部304へ送る。操作部301は、レリーズボタンを半押しされた瞬間にSW1信号を、レリーズボタンを押し込んだ瞬間にSW2信号をシステム制御部304に出力する。以降、ユーザがレリーズボタンの半押しすることを「SW1ボタンを押す」と表現し、レリーズボタンの半押し状態を維持することをSW1状態と表現する。また、レリーズボタンの押し込むことを「SW2ボタンを押す」と表現し、レリーズボタンを押し込んだ状態をSW2状態と表現する。また、操作部301は、ユーザがSW1状態においてレリーズボタンを離した瞬間にSW1解除信号を、SW2状態においてレリーズボタンを離した瞬間にSW2解除信号をシステム制御部304に出力する。   The operation unit 301 detects an operation performed by a user via a release button, a switch, a dial, a connected device, and the like (not shown) attached to the camera body unit 201, and sends a signal corresponding to the operation content to the system control unit 304. . The operation unit 301 outputs the SW1 signal to the system control unit 304 at the moment when the release button is pressed halfway, and the SW2 signal at the moment when the release button is pressed. Hereinafter, when the user presses the release button halfway is expressed as “pressing the SW1 button”, and maintaining the release button halfway pressed is expressed as SW1 state. In addition, pressing the release button is expressed as “pressing the SW2 button”, and a state where the release button is pressed is expressed as SW2 state. In addition, the operation unit 301 outputs the SW1 release signal to the system control unit 304 at the moment when the user releases the release button in the SW1 state, and the SW2 release signal at the moment when the user releases the release button in the SW2 state.

測光センサ302は、センサに入射する光信号から自動露出演算および被写体追跡を行うための画像データを生成し、システム制御部304に出力する。システム制御部304は、測光センサ302から入力される画像データに基づいて自動露出演算を行い、演算結果に基づいて絞りシャッター214の絞りを制御し、カメラ本体内に入射する光の量を調節する。さらに、レリーズ時にシャッター210を制御し、撮像素子211の露光時間を調節する。   The photometric sensor 302 generates image data for performing automatic exposure calculation and subject tracking from a light signal incident on the sensor, and outputs the image data to the system control unit 304. The system control unit 304 performs automatic exposure calculation based on the image data input from the photometric sensor 302, controls the aperture of the aperture shutter 214 based on the calculation result, and adjusts the amount of light incident on the camera body. . Furthermore, the shutter 210 is controlled at the time of release, and the exposure time of the image sensor 211 is adjusted.

また、SW1状態および連写中において、システム制御部304は測光センサ302から入力される画像データを用いて被写体追跡を行い、被写体の位置を検出する。   In the SW1 state and during continuous shooting, the system control unit 304 performs subject tracking using the image data input from the photometric sensor 302 to detect the position of the subject.

測距センサ303は、後述する図4の測距点マーク403の位置に対応するラインセンサで構成され、サブミラー204を介して入射される光信号から像信号を生成し、システム制御部304に出力する。システム制御部304は、測距センサ303から入力される像信号から、公知の技術である位相差検出方式に基づいて各測距点のデフォーカス値を計算し、焦点検出を行う。   The distance measuring sensor 303 includes a line sensor corresponding to the position of a distance measuring point mark 403 in FIG. 4 to be described later, generates an image signal from an optical signal incident through the sub-mirror 204, and outputs the image signal to the system control unit 304. To do. The system control unit 304 calculates a defocus value at each distance measurement point from the image signal input from the distance sensor 303 based on a phase difference detection method that is a known technique, and performs focus detection.

そして、システム制御部304は、被写体追跡処理で検出された被写体位置近傍の測距点もしくは、ユーザの手動操作によって選択された測距点のいずれかの焦点検出結果に基づいて焦点調節を行い、マウント接点郡215を介してフォーカシングレンズ213を制御する。   Then, the system control unit 304 performs focus adjustment based on the focus detection result of either the distance measurement point near the subject position detected in the subject tracking process or the distance measurement point selected by the user's manual operation, The focusing lens 213 is controlled through the mount contact point group 215.

システム制御部304は、操作部301から入力される信号に基づいてミラー203、204およびシャッター210を制御する。操作部301から出力される信号がSW2信号であれば、ミラー203、204をアップし、シャッター210を制御することで撮像センサ211に光を照射させる。シャッター制御が終了すれば、ミラー203、204をダウンさせる。   The system control unit 304 controls the mirrors 203 and 204 and the shutter 210 based on a signal input from the operation unit 301. If the signal output from the operation unit 301 is the SW2 signal, the mirrors 203 and 204 are raised and the shutter 210 is controlled to irradiate the image sensor 211 with light. When the shutter control is finished, the mirrors 203 and 204 are lowered.

撮像センサ211は撮影レンズ202を通して入射する光信号から画像データを生成し、システム制御部304へ出力する。システム制御部304は撮像センサ211から入力される画像データをディスプレイ212で表示させるとともに、画像記憶装置305へ画像データを保存する。   The image sensor 211 generates image data from an optical signal incident through the photographing lens 202 and outputs the image data to the system control unit 304. The system control unit 304 displays the image data input from the imaging sensor 211 on the display 212 and stores the image data in the image storage device 305.

本実施形態における撮像センサ211、測光センサ302の撮影範囲と、測距センサ303の測距点マークの配置を図4に示す。撮像センサ211の撮影範囲が図4の撮像センサ範囲、測光センサ302の撮像範囲は測光センサ範囲402、測距センサ303の測距点位置は測距点マーク403で示される。   FIG. 4 shows the shooting ranges of the image sensor 211 and the photometric sensor 302 and the arrangement of the distance measuring point marks of the distance measuring sensor 303 in this embodiment. The imaging range of the imaging sensor 211 is indicated by the imaging sensor range in FIG. 4, the imaging range of the photometric sensor 302 is indicated by the photometric sensor range 402, and the distance measuring point position of the distance measuring sensor 303 is indicated by the distance measuring point mark 403.

メインミラー203がダウン状態にある時、ピント版206に被写体像が投影されるため、ユーザは図2のアイピース209を覗き込むことで、追跡中の被写体像を視認することができる。また、図4の測距点マーク403のうち、その時点で焦点調節を行っている測距点がピント板206にスーパーインポーズして表示されるため、ユーザは現在追跡中の被写体位置にある測距点を確認することができる。   When the main mirror 203 is in the down state, the subject image is projected onto the focus plate 206, so that the user can view the subject image being tracked by looking into the eyepiece 209 of FIG. Also, among the distance measuring point marks 403 in FIG. 4, the distance measuring point for which focus adjustment is being performed at that time is displayed superimposed on the focus plate 206, so that the user is at the currently tracked subject position. A distance measuring point can be confirmed.

続いて、本実施形態における撮像装置の動作手順および被写体追跡のアルゴリズムについて、図1、図5、図6を用いて説明する。   Subsequently, an operation procedure of the imaging apparatus and an object tracking algorithm in the present embodiment will be described with reference to FIGS. 1, 5, and 6.

図1(a)、(b)はSW1が押されてからのカメラの動作シーケンスを示したものである。   FIGS. 1A and 1B show the operation sequence of the camera after SW1 is pressed.

S101では、システム制御部304は基準画像生成フラグをFALSEに設定する。このフラグは、追跡が開始してから主被写体の基準画像が一度でも生成されていればTRUEとなるフラグである。   In S101, the system control unit 304 sets the reference image generation flag to FALSE. This flag is set to TRUE if the reference image of the main subject has been generated even once after the start of tracking.

S102では、測光センサ302および測距センサ303は入射される光信号の蓄積を行い、像信号をシステム制御部304に出力する。以下、測光センサ302からシステム制御部304に出力される画像を入力画像と呼ぶ。   In step S <b> 102, the photometric sensor 302 and the distance measuring sensor 303 accumulate incident optical signals and output image signals to the system control unit 304. Hereinafter, an image output from the photometric sensor 302 to the system control unit 304 is referred to as an input image.

S103では、システム制御部304は、基準画像生成フラグの値を参照し、TRUEであれば主被写体追跡のための基準画像が生成されているということであるため、S109の被写体追跡処理に移行する。FALSEであれば、主被写体の基準画像が生成されていないため被写体追跡処理ではなく、S104のデフォーカス演算と測距点選択処理に移行する。   In S103, the system control unit 304 refers to the value of the reference image generation flag. If it is TRUE, it means that the reference image for tracking the main subject has been generated, and the process proceeds to the subject tracking process in S109. . If it is FALSE, since the reference image of the main subject has not been generated, the process shifts to the defocus calculation and distance measuring point selection process of S104, not the subject tracking process.

S104は、S103で主被写体の基準画像が存在していないと判定された場合に実行される処理であり、システム制御部304は、S102で測距センサ303から読み出した像信号に基づいて、全ての測距点のデフォーカス値を演算する。そして、ユーザが手動操作によって予め選択していた測距点を選択測距点とする。ここで算出したデフォーカス値は、後述するS107およびS117の処理にて利用する。   S104 is processing executed when it is determined in S103 that the reference image of the main subject does not exist. The system control unit 304 performs all processing based on the image signal read from the distance measuring sensor 303 in S102. The defocus value of the distance measuring point is calculated. Then, a distance measuring point previously selected by the user by manual operation is set as the selected distance measuring point. The defocus value calculated here is used in the processing of S107 and S117 described later.

S105では、システム制御部304は、入力画像において、S104で選択された測距点と同じ位置に存在する被写体を主被写体として設定する。そして、入力画像からS104で選択された測距点の位置を中心とする一定の大きさの領域を切り出し、これを主被写体の基準画像とする。以降のコマにおいては、この主被写体の基準画像を追跡対象として、入力画像から主被写体を検出する。   In S105, the system control unit 304 sets a subject existing at the same position as the distance measuring point selected in S104 in the input image as a main subject. Then, a region having a certain size centered on the position of the distance measuring point selected in S104 is cut out from the input image, and this is used as the reference image of the main subject. In subsequent frames, the main subject is detected from the input image using the reference image of the main subject as a tracking target.

S106では、システム制御部304は、各測距点のデフォーカス値に基づいて、S116からS121の処理を実行することで、入力画像から遮蔽被写体を検出する。以下、遮蔽被写体を検出するための具体的な方法について、図5を用いて述べる。図5は、測距点範囲内に3つの被写体501、502、503が存在するシーンである。図5(a)は、S104において選択された測距点が選択測距点504であり、S105において主被写体を被写体501とした状態を表している。   In S <b> 106, the system control unit 304 detects the occluded subject from the input image by executing the processing of S <b> 116 to S <b> 121 based on the defocus value of each ranging point. Hereinafter, a specific method for detecting the shielding subject will be described with reference to FIG. FIG. 5 shows a scene in which three subjects 501, 502, and 503 exist within the distance measuring point range. FIG. 5A shows a state where the distance measuring point selected in S104 is the selected distance measuring point 504, and the main subject is the object 501 in S105.

S116では、システム制御部304は、現時点で追跡対象として設定されている遮蔽被写体の情報をクリアし、追跡対象から除外する。   In S <b> 116, the system control unit 304 clears the information of the shielding subject currently set as the tracking target and excludes it from the tracking target.

S117では、システム制御部304は、各測距点のデフォーカス値において、S105で設定された主被写体よりも手前のデフォーカス値を持つ測距点を抽出し、記憶する。   In S117, the system control unit 304 extracts and stores a distance measuring point having a defocus value in front of the main subject set in S105 as the defocus value of each distance measuring point.

S118では、システム制御部304は、S117で主被写体よりも手前のデフォーカス値を持つ測距点が少なくとも1つ以上抽出されたならば、S119の処理に移行する。一方、1つも抽出されなかった場合には遮蔽被写体検出処理を終了する。   In S118, if at least one distance measuring point having a defocus value before the main subject is extracted in S117, the system control unit 304 proceeds to the process in S119. On the other hand, when none is extracted, the shielding subject detection process is terminated.

S119では、システム制御部304は、S117で抽出した測距点のうち、上下左右で隣り合い、かつ、デフォーカス値の差が所定値以下となる測距点同士をグループ化し、測距点グループを作成する。   In S119, the system control unit 304 groups the distance measurement points extracted in S117, the distance measurement points adjacent to each other vertically and horizontally and having a defocus value difference equal to or smaller than a predetermined value. Create

図5(a)に対し、主被写体よりも手前のデフォーカス値を持つ測距点をグループ化した図が図5(b)である。図5(b)では、被写体501よりも手前に位置する被写体502と同位置にある測距点が抽出、グループ化され、測距点グループ505が得られている。一方で、撮像装置から見て、被写体501よりも奥に存在する被写体503上の測距点は、グループ化の対象とはならない。   FIG. 5B is a diagram in which distance measuring points having a defocus value in front of the main subject are grouped with respect to FIG. In FIG. 5B, distance measuring points located at the same position as the subject 502 located in front of the subject 501 are extracted and grouped, and a distance measuring point group 505 is obtained. On the other hand, a distance measuring point on the subject 503 existing behind the subject 501 as viewed from the imaging apparatus is not a grouping target.

S120では、システム制御部304は、入力画像中において、S119で作成された各測距点グループと同じ位置に存在する被写体を遮蔽被写体として検出し、次のコマにおける追跡対象に設定する。   In S120, the system control unit 304 detects a subject existing at the same position as each distance measurement point group created in S119 in the input image as a shielding subject, and sets it as a tracking target in the next frame.

S121では、システム制御部304は、S120で設定された全ての遮蔽被写体に対し、追跡処理用の基準画像を生成する。具体的な処理としては、各遮蔽被写体に対応する測距点グループに属する測距点の、入力画像上での重心位置を中心とする一定の大きさの領域を切り出し、これを遮蔽被写体の基準画像とする。   In S121, the system control unit 304 generates a reference image for tracking processing for all the occluded subjects set in S120. As a specific process, an area of a certain size centered on the position of the center of gravity on the input image of the ranging point belonging to the ranging point group corresponding to each shielding subject is cut out, and this is used as a reference for the shielding subject. An image.

その様子を図5(c)に示す。図5(c)では、S105において、選択測距点を中心とする一定の大きさの画像を主被写体である被写体501の基準画像601としている。また、S121において、遮蔽被写体である被写体502の基準画像602を、被写体502に対応する測距点グループ505の重心位置を中心とする一定の大きさの画像としている。   This is shown in FIG. In FIG. 5C, in S105, an image having a certain size centered on the selected distance measuring point is used as the reference image 601 of the subject 501 as the main subject. In S 121, the reference image 602 of the subject 502 that is a shielding subject is an image having a certain size centered on the position of the center of gravity of the distance measuring point group 505 corresponding to the subject 502.

以降のコマにおいては、この遮蔽被写体の基準画像を追跡対象として、入力画像から遮蔽被写体を検出する。   In subsequent frames, the shielded subject is detected from the input image using the reference image of the shielded subject as a tracking target.

以上が、遮蔽被写体の検出処理の説明である。S116からS121の処理により、撮像装置から見て、主被写体よりも手前に存在する被写体を遮蔽被写体として検出し、追跡対象に設定することができる。また、S116において遮蔽被写体の初期化を行うため、時間の変化に従って主被写体よりも奥に移動した被写体を追跡対象から除外することができる。   The above is the description of the shielding subject detection process. By the processing from S116 to S121, it is possible to detect a subject existing in front of the main subject as viewed from the imaging device as a shielding subject and set it as a tracking target. In addition, since the shielded subject is initialized in S116, the subject that has moved deeper than the main subject according to the change in time can be excluded from the tracking target.

S107では、システム制御部304は、S105で主被写体の基準画像を生成したため、基準画像生成フラグをTRUEとする。   In S107, the system control unit 304 generates the reference image of the main subject in S105, and therefore sets the reference image generation flag to TRUE.

S108では、システム制御部304は、入力画像に対して主被写体および遮蔽被写体の基準画像を用いたテンプレートマッチング処理を行い、入力画像の各領域との相関度を計算する。そして、それぞれ最も相関度の高い領域を主被写体および遮蔽被写体の検出位置とする。   In S <b> 108, the system control unit 304 performs template matching processing on the input image using the reference image of the main subject and the shielded subject, and calculates the degree of correlation with each area of the input image. Then, the region having the highest correlation is set as the detection position of the main subject and the shielding subject.

ここで、テンプレートマッチングについては、次のようなマッチング処理を行う。まず、入力画像の任意の領域について、追跡対象の基準画像と同じ大きさになるようにして切り出し、追跡入力画像とする。   Here, for template matching, the following matching processing is performed. First, an arbitrary area of the input image is cut out so as to have the same size as the reference image to be tracked, and is set as the tracking input image.

そして、この追跡入力画像と追跡対象の基準画像との対応する全ての画素について、輝度信号と色差信号の差分値の総和を計算し、結果をマッチング評価値とする。マッチング評価値は小さければ小さいほど相関度が高いことを表す。   Then, the sum of the difference values of the luminance signal and the color difference signal is calculated for all corresponding pixels of the tracking input image and the reference image to be tracked, and the result is used as a matching evaluation value. The smaller the matching evaluation value, the higher the degree of correlation.

そして、入力画像から切り出す領域の位置を所定値ずつシフトしながら画像全体についてマッチング評価値を算出することで、最も相関度の高い追跡入力画像の領域を追跡対象の検出位置とする。これを、主被写体と全ての遮蔽被写体の基準画像に対して行うことで、入力画像における主被写体および各遮蔽被写体の位置を検出する。   Then, by calculating the matching evaluation value for the entire image while shifting the position of the area to be cut out from the input image by a predetermined value, the area of the tracking input image having the highest degree of correlation is set as the detection position of the tracking target. This is performed on the reference image of the main subject and all the shielding subjects, thereby detecting the positions of the main subject and each shielding subject in the input image.

S109では、システム制御部304は、S102で測距センサ303から読み出した像信号に基づいて各測距点のデフォーカス値を演算し、ピントを合わせる測距点を選択する。ここで、測距点の選択方法について図6を用いて説明する。図6(a)は、図6の基準画像601、602を用いて、S108の追跡処理にて被写体501と502を追跡した結果である。主被写体である被写体501を追跡した結果が追跡結果701、遮蔽被写体である被写体502を追跡した結果が追跡結果702となっている。   In S109, the system control unit 304 calculates the defocus value of each distance measurement point based on the image signal read from the distance measurement sensor 303 in S102, and selects the distance measurement point to be focused. Here, a method of selecting a distance measuring point will be described with reference to FIG. FIG. 6A shows the result of tracking the subjects 501 and 502 in the tracking process of S108 using the reference images 601 and 602 of FIG. The tracking result 701 is the result of tracking the subject 501 that is the main subject, and the tracking result 702 is the result of tracking the subject 502 that is the shielding subject.

このような結果に対して、まず、各遮蔽被写体の追跡結果に最も近い測距点をそれぞれ1つずつ選択する。図6(a)では、遮蔽被写体は被写体502のみであるため、その追跡結果702に最も近い測距点703が選択される。続いて、図6(b)に示すように、選択した測距点を始点として、上下左右で隣り合い、かつ、デフォーカス値の差が所定値以下となる測距点全てをグループ化することで、遮蔽測距点グループ704を作成する。   For such a result, first, a distance measuring point closest to the tracking result of each shielding object is selected one by one. In FIG. 6A, since the shielding subject is only the subject 502, the distance measuring point 703 closest to the tracking result 702 is selected. Subsequently, as shown in FIG. 6B, all the distance measuring points that are adjacent in the vertical and horizontal directions and have a defocus value difference equal to or smaller than a predetermined value are grouped starting from the selected distance measuring point. Thus, the shielding distance measuring point group 704 is created.

そして最終的に、遮蔽測距点グループ704を除外した測距点の中から、被写体501の追跡結果701に最も近い測距点を選択測距点705とする。これにより、遮蔽被写体の影響を受けた測距点を選択測距点から除外することができるため、遮蔽被写体が主被写体の一部を隠してしまうような場合でも、主被写体にピントを合わせ続けることができる。  Finally, a distance measuring point closest to the tracking result 701 of the subject 501 is selected as a selected distance measuring point 705 from the distance measuring points excluding the shielded distance measuring point group 704. As a result, the distance measuring point affected by the shielding subject can be excluded from the selected distance measuring point, so that the main subject is kept in focus even when the shielding subject hides a part of the main subject. be able to.

S110では、システム制御部304は、S106と同様の遮蔽被写体の検出処理を行い、主被写体よりも手前に存在する被写体を検出し、次のコマでの追跡対象として設定する。   In S110, the system control unit 304 performs the same occluded subject detection process as in S106, detects an object existing in front of the main subject, and sets it as a tracking target in the next frame.

このタイミングで遮蔽被写体の検出を行うことにより、S109のデフォーカス演算結果に基づいて次のコマで追跡する遮蔽被写体を検出できる。また、撮像装置から見て主被写体よりも奥に移動した遮蔽被写体があれば、これを追跡対象から除外することができる。   By detecting the shield subject at this timing, the shield subject to be tracked in the next frame can be detected based on the defocus calculation result of S109. Further, if there is a shielded subject that has moved to the back of the main subject as seen from the imaging device, it can be excluded from the tracking target.

S111では、システム制御部304は、S108で算出された主被写体の基準画像と入力画像との相関度が所定値以上であれば、入力画像において主被写体が検出された領域の画像で、主被写体の基準画像を更新する。   In S111, if the degree of correlation between the reference image of the main subject calculated in S108 and the input image is equal to or greater than a predetermined value, the system control unit 304 is an image of the area in which the main subject is detected in the input image. Update the reference image.

S112では、システム制御部304は、入力画像に基づいて自動露出演算を行う。S113では、システム制御部304は、S104あるいはS109で選択された測距点の焦点検出結果に基づいて焦点調節を行う。また、S116の自動露出演算結果に基づいて露出制御を行う。   In S112, the system control unit 304 performs automatic exposure calculation based on the input image. In S113, the system control unit 304 performs focus adjustment based on the focus detection result of the distance measuring point selected in S104 or S109. Further, exposure control is performed based on the automatic exposure calculation result of S116.

S114では、システム制御部304は、操作部301からSW2信号を受信しているかどうかを判定し、受信していればS115の撮像処理に進む。受信していなければ、撮像は行わず、S102に移行する。   In S114, the system control unit 304 determines whether the SW2 signal is received from the operation unit 301. If the SW2 signal is received, the system control unit 304 proceeds to the imaging process in S115. If it has not been received, imaging is not performed and the process proceeds to S102.

S115では、システム制御部304は、ミラー203、204をアップさせ、撮像センサ211に露光することで撮影を行う。撮影後はミラー203、204をダウンさせ、S102の処理に移行する。   In step S <b> 115, the system control unit 304 performs shooting by raising the mirrors 203 and 204 and exposing the image sensor 211. After shooting, the mirrors 203 and 204 are lowered, and the process proceeds to S102.

以上の処理を、SW1状態あるいはSW2状態が継続する間繰り返す。以上が、本実施形態における撮像装置の動作手順である。このような動作により、主被写体と、主被写体への合焦に良くない影響を与える可能性の高い遮蔽被写体だけを追尾することにより、演算負荷を軽減しつつ主被写体にピントを合わせ続けることができる。   The above processing is repeated while the SW1 state or SW2 state continues. The above is the operation procedure of the imaging apparatus in the present embodiment. By such an operation, it is possible to keep focusing on the main subject while reducing the computation load by tracking only the main subject and a shielding subject that is likely to have a bad influence on the focus on the main subject. it can.

本発明は、撮像装置に関し、特に撮像装置に搭載される被写体追跡装置に利用できる可能性がある。   The present invention relates to an imaging apparatus, and in particular, may be applicable to a subject tracking apparatus mounted on the imaging apparatus.

201 デジタル一眼レフカメラ本体
202 レンズ
203 メインミラー
204 サブミラー
205 測距センサ
206 ピント版
207 ペンタプリズム
208 測光センサ
209 アイピース
210 フォーカルプレーンシャッター
211 撮像素子
212 ディスプレイユニット
213 フォーカシングレンズ
214 絞りシャッター
215 マウント接点群
301 操作部
302 測光センサ
303 測距センサ
304 システム制御部
305 画像記憶装置
201 Digital SLR Camera Main Body 202 Lens 203 Main Mirror 204 Sub Mirror 205 Distance Sensor 206 Focusing Plate 207 Penta Prism 208 Photometric Sensor 209 Eyepiece 210 Focal Plane Shutter 211 Image Sensor 212 Display Unit 213 Focusing Lens 214 Aperture Shutter 215 Mount Contact Group 301 Operation Unit 302 Photometric sensor 303 Distance sensor 304 System control unit 305 Image storage device

Claims (2)

ファインダ光学系からの画像を撮像する追跡センサ(208)と、
追跡対象の少なくとも一部を含む基準画像を生成する基準画像生成手段(S105)と、
前期追跡センサからの撮影画像と基準画像との相関度を評価することで前記撮影画像中の追跡対象位置を検出する追跡手段(S108)と、
撮像画面中の複数の測距点の焦点状態を検出可能であり、前記追跡手段の結果に基づいて複数の測距点の中から前記追跡対象位置に応じた測距点を選択し、自動焦点調節を行う焦点調節手段(S117)を有した撮像装置において、
前記追跡手段は、前記焦点調節手段においてピントを合わせる被写体を主被写体、前記撮像装置から見て前記主被写体よりも手前に位置する被写体を遮蔽被写体としてそれぞれを個別に追跡し(S106〜S108、S110〜S114)、
前記焦点調節手段は、前記主被写体上に存在し、かつ前記遮蔽被写体上には存在しない測距点で焦点調節を行うことを特徴とする撮像装置。
A tracking sensor (208) for capturing an image from the viewfinder optical system;
Reference image generation means (S105) for generating a reference image including at least a part of the tracking target;
Tracking means (S108) for detecting the tracking target position in the captured image by evaluating the degree of correlation between the captured image from the previous tracking sensor and the reference image;
It is possible to detect the focus state of a plurality of ranging points in the imaging screen, select a ranging point corresponding to the tracking target position from the plurality of ranging points based on the result of the tracking means, and automatically focus In the imaging apparatus having the focus adjusting means (S117) for adjusting,
The tracking unit individually tracks the subject to be focused by the focus adjusting unit as a main subject and the subject positioned in front of the main subject as viewed from the imaging apparatus as a shielding subject (S106 to S108, S110). To S114),
The imaging apparatus according to claim 1, wherein the focus adjustment unit performs focus adjustment at a distance measuring point that exists on the main subject and does not exist on the shielding subject.
前記追跡手段は、前記遮蔽被写体が、前記撮像装置から見て前記主被写体よりも奥に移動した場合には、追跡対象から除外すること(S110、S113)を特徴とする請求項1に記載の撮像装置。 2. The tracking unit according to claim 1, wherein the tracking unit excludes the shielded subject from being tracked when the shielded subject moves far behind the main subject as viewed from the imaging device (S <b> 110, S <b> 113). Imaging device.
JP2013078133A 2013-04-04 2013-04-04 Subject tracking device Pending JP2014202875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013078133A JP2014202875A (en) 2013-04-04 2013-04-04 Subject tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013078133A JP2014202875A (en) 2013-04-04 2013-04-04 Subject tracking device

Publications (1)

Publication Number Publication Date
JP2014202875A true JP2014202875A (en) 2014-10-27

Family

ID=52353359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013078133A Pending JP2014202875A (en) 2013-04-04 2013-04-04 Subject tracking device

Country Status (1)

Country Link
JP (1) JP2014202875A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224372A (en) * 2015-06-03 2016-12-28 株式会社ニコン FOCUS DETECTION DEVICE, IMAGING DEVICE, AND ELECTRONIC DEVICE
CN107850753A (en) * 2015-08-31 2018-03-27 索尼公司 Detection device, detection method, detection program and imaging device
JP2020073971A (en) * 2019-09-30 2020-05-14 株式会社ニコン Imaging device
CN113923277A (en) * 2020-07-07 2022-01-11 黑快马股份有限公司 Automatic video recording system and automatic video recording method
JP2022105047A (en) * 2018-03-23 2022-07-12 カシオ計算機株式会社 Imaging apparatus, flight device, imaging method, and program
WO2023026702A1 (en) * 2021-08-25 2023-03-02 富士フイルム株式会社 Image capturing device, method for driving image capturing device, and program
US11627245B2 (en) 2021-03-09 2023-04-11 Olympus Corporation Focus adjustment device and focus adjustment method
US12316963B2 (en) 2021-01-15 2025-05-27 Fujifilm Corporation Imaging apparatus, imaging method, and imaging program
JP7741264B1 (en) * 2024-09-02 2025-09-17 アキュートロジック株式会社 Focus adjustment device control method, focus adjustment device, and imaging device
JP7771308B1 (en) * 2024-08-30 2025-11-17 アキュートロジック株式会社 Focus adjustment device and control method thereof, imaging device, and computer-readable storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224372A (en) * 2015-06-03 2016-12-28 株式会社ニコン FOCUS DETECTION DEVICE, IMAGING DEVICE, AND ELECTRONIC DEVICE
CN107850753A (en) * 2015-08-31 2018-03-27 索尼公司 Detection device, detection method, detection program and imaging device
US11275230B2 (en) 2015-08-31 2022-03-15 Sony Group Corporation Detection apparatus, detection method, detection program, and imaging apparatus
JP2022105047A (en) * 2018-03-23 2022-07-12 カシオ計算機株式会社 Imaging apparatus, flight device, imaging method, and program
JP2020073971A (en) * 2019-09-30 2020-05-14 株式会社ニコン Imaging device
CN113923277A (en) * 2020-07-07 2022-01-11 黑快马股份有限公司 Automatic video recording system and automatic video recording method
US12316963B2 (en) 2021-01-15 2025-05-27 Fujifilm Corporation Imaging apparatus, imaging method, and imaging program
US11627245B2 (en) 2021-03-09 2023-04-11 Olympus Corporation Focus adjustment device and focus adjustment method
WO2023026702A1 (en) * 2021-08-25 2023-03-02 富士フイルム株式会社 Image capturing device, method for driving image capturing device, and program
JP7771308B1 (en) * 2024-08-30 2025-11-17 アキュートロジック株式会社 Focus adjustment device and control method thereof, imaging device, and computer-readable storage medium
JP7741264B1 (en) * 2024-09-02 2025-09-17 アキュートロジック株式会社 Focus adjustment device control method, focus adjustment device, and imaging device

Similar Documents

Publication Publication Date Title
JP2014202875A (en) Subject tracking device
WO2018101092A1 (en) Imaging device and flicker determination method
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
JP5950664B2 (en) Imaging apparatus and control method thereof
JP2012253462A (en) Imaging apparatus and control method therefor
JP2014002283A (en) Focus adjustment device and control method therefor
JP5925186B2 (en) Imaging apparatus and control method thereof
JP2000180709A (en) Range-finding device
JP2015152749A (en) Imaging apparatus and control method thereof
JP2010109923A (en) Imaging apparatus
JP2013186314A (en) Image capturing device
JP6346484B2 (en) Image processing apparatus and control method thereof
WO2016056089A1 (en) Camera, and image-capturing method
JP6746398B2 (en) Imaging device, control method thereof, and program
JP2019152807A (en) Focus detection device and focus detection method
JP5930792B2 (en) Imaging apparatus and control method thereof
JP5018932B2 (en) Imaging device
JP6699679B2 (en) Imaging device
JP5981898B2 (en) Imaging apparatus and control method thereof
JP6005955B2 (en) Photometric device and imaging device
JP2017146328A (en) Imaging device
JP2015045759A (en) Imaging apparatus and control method thereof
JP2021015162A (en) Image processing device and control method therefor
JP2015187662A (en) Focus adjustment device and imaging device
JP2013218062A (en) Focus detector