[go: up one dir, main page]

JP2012015642A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012015642A
JP2012015642A JP2010148042A JP2010148042A JP2012015642A JP 2012015642 A JP2012015642 A JP 2012015642A JP 2010148042 A JP2010148042 A JP 2010148042A JP 2010148042 A JP2010148042 A JP 2010148042A JP 2012015642 A JP2012015642 A JP 2012015642A
Authority
JP
Japan
Prior art keywords
image
subject
tracking target
tracking
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010148042A
Other languages
Japanese (ja)
Inventor
Kengo Hirata
健悟 平田
Haruo Hatanaka
晴雄 畑中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010148042A priority Critical patent/JP2012015642A/en
Publication of JP2012015642A publication Critical patent/JP2012015642A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate accurate and easy setting of a subject-of-interest to a tracking target.SOLUTION: An imaging device has a function of selecting and indicating a tracking target by using a touch panel. Under the state that motion pictures of subjects SUBto SUBare displayed, the touch panel accepts a user's specified position input operation for specifying a tracking target. A tracking target setting unit corrects a specified position (321) as a touch position to a position (322) shorter from a subject by using a distance image 330 representing subject distance information as an image, and sets the subject at the corrected specified position to a tracking target. Thereafter, the tracking processing of the tracking target based on an image feature amount is executed.

Description

本発明は、デジタルカメラ等の撮像装置に関し、特に被写体を追尾する機能を備えた撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera, and more particularly to an imaging apparatus having a function of tracking a subject.

画像解析を用いて動画像上で追尾対象を追尾する方法が様々に提案されている。追尾処理の実現方法として、追尾パターンの設定後に画像内におけるパターンの位置を探索するパターンマッチング法(例えば下記特許文献1参照)や、色などの画像特徴を追跡する方法がある(例えば下記特許文献2参照)。また、追尾パターンとしてのテンプレート画像の設定後、テンプレートマッチングによる類似度を算出する際、被写体距離の測定結果をも利用して類似度を算出する方法が提案されている(例えば下記特許文献1参照)。   Various methods for tracking a tracking target on a moving image using image analysis have been proposed. As a method for realizing the tracking process, there is a pattern matching method (for example, refer to Patent Document 1 below) for searching for the position of a pattern in an image after setting a tracking pattern, or a method for tracking an image feature such as a color (for example, the following Patent Document). 2). In addition, after calculating a template image as a tracking pattern, a method of calculating similarity by using a subject distance measurement result when calculating similarity by template matching has been proposed (for example, see Patent Document 1 below). ).

ところで、デジタルカメラの撮影範囲内には、ユーザの注目被写体(例えば、ユーザの子供)の他に、様々な被写体(不特定人物、動物、植物など)が含まれていることも多い。従って、ユーザの注目被写体を追尾対象として動画像上で追尾するためには、まず、追尾対象となるべき注目被写体を指定する操作が必要となる。この操作を、タッチパネルを用いて実現する方法も提案されている(例えば下記特許文献3参照)。この方法では、注目人物の顔領域をユーザがモニタ上でタッチすることで、その注目人物が追尾対象に設定される。   Incidentally, the shooting range of the digital camera often includes various subjects (unspecified persons, animals, plants, etc.) in addition to the subject of interest of the user (for example, the user's child). Therefore, in order to track a user's target subject as a tracking target on a moving image, first, an operation for designating the target subject to be the tracking target is required. A method for realizing this operation using a touch panel has also been proposed (see, for example, Patent Document 3 below). In this method, when the user touches the face area of the attention person on the monitor, the attention person is set as a tracking target.

この方法の実現時におけるモニタの様子を、図18(a)に示す。モニタの表示画面901にはデジタルカメラの撮影動画像が表示されており、表示される動画像上において人物911〜913が刻々と動いている。ユーザ(撮影者)の注目人物が人物911である場合、図18(b)に示す如く、人物911をタッチする操作を行うことで人物911が追尾対象に設定される。尚、図18(a)等において、ドットで満たされた領域はモニタの筐体部分を表している。   FIG. 18A shows the state of the monitor when this method is realized. On the display screen 901 of the monitor, a shooting moving image of the digital camera is displayed, and the persons 911 to 913 are moving every moment on the displayed moving image. When the person (photographer) 's attention person is the person 911, as shown in FIG. 18B, the person 911 is set as a tracking target by performing an operation of touching the person 911. In FIG. 18A and the like, a region filled with dots represents a monitor casing.

特開2009−141475号公報JP 2009-141475 A 特開平4−282989号公報JP-A-4-282899 特開2006−101186号公報JP 2006-101186 A

しかしながら、一般消費者向けに普及している小型デジタルカメラの表示画面901は、あまり大きなものではないため、人間の指の大きさとの比較において、表示画面901上の各被写体もあまり大きなものではない。特に、注目人物とデジタルカメラ間の実空間上距離が遠い場合や広画角で撮影している場合などにおいては、表示画面901上における注目人物の表示部分はかなり小さくなることがある。このため、タッチパネル操作により表示画面901上で正確に注目人物を選択することが難しい場合もある。また、実空間上における注目人物の移動に伴って表示画面51上においても注目人物は移動し、この移動が上記選択を更に難しくさせる。例えば、人物911を追尾対象として選択することを希望しているにも関らず、図18(c)に示す如く、誤って人物912の表示部分をタッチしてしまい、結果、人物912が追尾対象に設定されるといったことも生じえる。   However, since the display screen 901 of a small digital camera that is popular for general consumers is not so large, each subject on the display screen 901 is not so large in comparison with the size of a human finger. . In particular, when the distance in the real space between the person of interest and the digital camera is long, or when photographing with a wide angle of view, the display portion of the person of interest on the display screen 901 may be considerably small. For this reason, it may be difficult to select a person of interest accurately on the display screen 901 by a touch panel operation. In addition, along with the movement of the person of interest in the real space, the person of interest also moves on the display screen 51, which makes the selection more difficult. For example, in spite of desiring to select the person 911 as the tracking target, the display portion of the person 912 is accidentally touched as shown in FIG. It can also be set as a target.

そこで本発明は、ユーザによる追尾対象の指定操作を支援する機能を持つ撮像装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus having a function of supporting a user to specify a tracking target.

本発明に係る撮像装置は、被写体を順次撮影することで得られる画像列を表す信号を出力する撮像素子と、前記被写体及び前記撮像素子間の距離情報を取得する距離情報取得部と、前記撮像素子の出力に基づく表示用画像を表示する表示画面と、前記表示画面上における指定位置の入力操作を受け付ける操作受付部と、前記距離情報と前記指定位置に基づいて特定の被写体を追尾対象に設定する追尾対象設定部を有し、前記画像列の画像データに基づき前記画像列上で前記追尾対象を追尾する追尾処理部と、を備えたことを特徴とする。   An imaging apparatus according to the present invention includes an imaging element that outputs a signal representing an image sequence obtained by sequentially photographing a subject, a distance information acquisition unit that acquires distance information between the subject and the imaging element, and the imaging A display screen that displays a display image based on the output of the element, an operation receiving unit that receives an input operation of a specified position on the display screen, and a specific subject is set as a tracking target based on the distance information and the specified position And a tracking processing unit that tracks the tracking target on the image sequence based on image data of the image sequence.

一般的に、ユーザの注目する被写体は、他の被写体と比べて、比較的短い被写体距離を有する。従って例えば、上記距離情報をユーザによる指定位置と共に参照すれば、仮に指定位置が注目被写体を正しく指し示していなかったとしても、ユーザの注目被写体を推測して該注目被写体を追尾対象に設定するといったことが可能となる。或いは例えば、上記距離情報を用いて、追尾対象として選択される可能性が高いと推測される被写体に対し、その被写体の指定を支援するような表示を成すといったことも可能となる。このように、上記構成の如く、距離情報と指定位置に基づいて追尾対象を設定するようにすれば、ユーザによる追尾対象の指定操作が支援され、正確に且つ容易に所望の被写体を追尾対象に設定することが可能となる。   In general, a subject that is noticed by the user has a relatively short subject distance compared to other subjects. Therefore, for example, if the distance information is referred to together with the designated position by the user, even if the designated position does not correctly indicate the subject of interest, the subject of interest of the user is estimated and the subject of interest is set as a tracking target. Is possible. Alternatively, for example, it is possible to display a subject that is likely to be selected as a tracking target by using the distance information so as to support the designation of the subject. As described above, if the tracking target is set based on the distance information and the specified position as described above, the user can support the tracking target specifying operation, and the desired subject can be accurately and easily set as the tracking target. It becomes possible to set.

具体的には例えば、前記追尾対象設定部は、前記距離情報を用いて前記指定位置を補正し、補正後の指定位置における被写体を前記追尾対象に設定する。   Specifically, for example, the tracking target setting unit corrects the specified position using the distance information, and sets the subject at the corrected specified position as the tracking target.

これにより、仮に指定位置が注目被写体を正しく指し示していなかったとしても、注目被写体を追尾対象に設定するといったことが可能となる。   As a result, even if the designated position does not correctly indicate the subject of interest, the subject of interest can be set as a tracking target.

或いは例えば、前記表示画面は、前記表示用画像上に複数の被写体が現れている場合において前記入力操作を受け付ける際、前記複数の被写体に対応する複数の指標を前記表示用画像とともに表示し、前記追尾対象設定部は、前記距離情報に基づいて前記複数の指標の大きさを決定し、前記表示画面上における前記指定位置と各指標との位置関係に基づき前記追尾対象を設定する。   Alternatively, for example, when the input operation is accepted when a plurality of subjects appear on the display image, the display screen displays a plurality of indices corresponding to the plurality of subjects together with the display image, The tracking target setting unit determines the size of the plurality of indices based on the distance information, and sets the tracking target based on a positional relationship between the designated position and each index on the display screen.

これにより、追尾対象として選択される可能性が高いと推測される、被写体距離が小さな被写体に対してほど、表示サイズの大きな指標を割り当てるといったことが可能となる。結果、ユーザは、注目被写体を追尾対象として選択指定しやすくなる。   This makes it possible to assign an indicator with a larger display size to a subject with a shorter subject distance, which is estimated to be highly likely to be selected as a tracking target. As a result, it becomes easier for the user to select and specify the target subject as the tracking target.

より具体的には例えば、前記複数の被写体は第1〜第nの被写体から成るともに、前記複数の指標は第1〜第nの被写体に対応する第1〜第nの指標から成り(nは2以上の整数)、前記追尾対象設定部は、前記指定位置が第iの指標に対応する位置であるとき(iはn以下の自然数)、第iの指標に対応する第iの被写体を前記追尾対象に設定する。   More specifically, for example, the plurality of subjects include first to nth subjects, and the plurality of indicators include first to nth indicators corresponding to the first to nth subjects (n is 2), the tracking target setting unit determines the i th subject corresponding to the i th index when the specified position is a position corresponding to the i th index (i is a natural number equal to or less than n). Set the tracking target.

また例えば、前記画像列は、基準画像、及び、前記基準画像よりも後の撮影によって得られる複数の非基準画像を含み、前記追尾対象設定部は、前記距離情報を用いて、前記追尾対象の画像データを内包する初期追尾領域を前記基準画像に設定し、前記追尾処理部は、前記基準画像における前記初期追尾領域内の画像データと各非基準画像の画像データとを用いて各非基準画像における前記追尾対象の位置を検出することにより、前記画像列上で前記追尾対象を追尾する。   Further, for example, the image sequence includes a reference image and a plurality of non-reference images obtained by photographing after the reference image, and the tracking target setting unit uses the distance information to determine the tracking target. An initial tracking area including image data is set in the reference image, and the tracking processing unit uses each image data in the initial tracking area in the reference image and image data of each non-reference image to each non-reference image. By detecting the position of the tracking target at, the tracking target is tracked on the image sequence.

距離情報を用いて初期追尾領域を設定することにより、追尾精度の向上が期待される。   By setting the initial tracking area using the distance information, improvement in tracking accuracy is expected.

具体的には例えば、前記追尾対象設定部は、前記初期追尾領域から前記追尾対象以外の被写体の画像データが除外されるように、前記距離情報を用いて前記初期追尾領域を設定する。   Specifically, for example, the tracking target setting unit sets the initial tracking area using the distance information so that image data of subjects other than the tracking target is excluded from the initial tracking area.

本発明によれば、ユーザによる追尾対象の指定操作を支援する機能を持つ撮像装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the imaging device which has a function which assists designation | designated operation of the tracking target by a user.

本発明の第1実施形態に係る撮像装置の概略全体ブロック図である。1 is a schematic overall block diagram of an imaging apparatus according to a first embodiment of the present invention. 図1に示される撮像部の内部構成図である。It is an internal block diagram of the imaging part shown by FIG. 図1に示される表示部の概略分解図である。It is a schematic exploded view of the display part shown by FIG. 表示画面とXY座標面との関係を示す図(a)と、二次元画像とXY座標面との関係を示す図(b)である。It is the figure (a) which shows the relationship between a display screen and an XY coordinate plane, and the figure (b) which shows the relationship between a two-dimensional image and an XY coordinate plane. 撮影者側から見た、撮像装置の外観斜視図である。It is the external appearance perspective view of an imaging device seen from the photographer side. 図1の撮像装置に内包される、被写体追尾機能に特に関与する部位のブロック図である。FIG. 2 is a block diagram of a part particularly involved in a subject tracking function included in the imaging apparatus of FIG. 1. 本発明の第1実施形態に係り、追尾モードにおける撮像装置の動作フローチャートである。6 is an operation flowchart of the imaging apparatus in a tracking mode according to the first embodiment of the present invention. 撮像装置と複数の被写体との距離関係を示す図である。It is a figure showing distance relation between an imaging device and a plurality of subjects. 本発明の第1実施形態に係り、複数の被写体を撮影することで得られるフレーム画像と、それに対応する距離画像を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the frame image obtained by image | photographing several subjects, and the distance image corresponding to it. 本発明の第1実施形態に係り、複数の被写体を撮影することで得られるフレーム画像と、それに対応する距離画像を示す図である。It is a figure which concerns on 1st Embodiment of this invention and shows the frame image obtained by image | photographing several subjects, and the distance image corresponding to it. 追尾モードにおいて実行される初期登録処理のフローチャートである。It is a flowchart of the initial registration process performed in tracking mode. 本発明の第1実施形態に係り、追尾モードにおける撮像装置の変形動作フローチャートである。6 is a flowchart illustrating a deformation operation of the imaging apparatus in the tracking mode according to the first embodiment of the present invention. 本発明の第1実施形態に係り、追尾対象指定操作(指定位置入力操作)の受け付け時における表示画面の表示内容例を示す図である。It is a figure which shows the example of a display content of the display screen at the time of reception of tracking object designation | designated operation (designated position input operation) concerning 1st Embodiment of this invention. 初期フレーム画像及びそれに対応する距離画像を示す図(a)(b)と、初期フレーム画像に設定される初期追尾領域の例を示す図(c)(d)である。FIGS. 6A and 6B show an initial frame image and a distance image corresponding to the initial frame image, and FIGS. 3C and 3D show examples of an initial tracking area set in the initial frame image. FIGS. 本発明の第2実施形態に係り、追尾モードにおける撮像装置の動作フローチャートである。9 is an operation flowchart of the imaging apparatus in the tracking mode according to the second embodiment of the present invention. 本発明の第2実施形態に係り、複数の被写体を撮影することで得られるフレーム画像と、それに対応する距離画像を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the frame image obtained by image | photographing several subjects, and the distance image corresponding to it. 本発明の第2実施形態に係り、追尾対象選択操作(指定位置入力操作)の受け付け時における表示画面の表示内容例を示す図である。It is a figure which shows the example of a display content of the display screen at the time of reception of tracking object selection operation (designated position input operation) concerning 2nd Embodiment of this invention. タッチパネルを用いた、従来の追尾対象選択操作を説明するための図である。It is a figure for demonstrating the conventional tracking object selection operation using a touch panel.

以下、本発明の実施形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、第1実施形態に係る撮像装置1の概略全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置1は、携帯電話機などの携帯端末に搭載されるものであっても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of an imaging apparatus 1 according to the first embodiment. The imaging device 1 is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images. The imaging device 1 may be mounted on a mobile terminal such as a mobile phone.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a main control unit 13, an internal memory 14, a display unit 15, a recording medium 16, and an operation unit 17.

図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量(換言すれば、絞り値)を制御する。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. The imaging unit 11 drives and controls the optical system 35, the diaphragm 32, the imaging element 33 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the optical system 35 or the diaphragm 32. And a driver 34. The optical system 35 is formed from a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 drives and controls the positions of the zoom lens 30 and the focus lens 31 and the opening degree of the diaphragm 32 based on the control signal from the main control unit 13, so that the focal length (view angle) and focus of the imaging unit 11 are controlled. The position and the amount of light incident on the image sensor 33 (in other words, the aperture value) are controlled.

撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。   The image sensor 33 photoelectrically converts an optical image representing a subject incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels arranged two-dimensionally in a matrix, and in each photographing, each light receiving pixel stores a signal charge having a charge amount corresponding to the exposure time. An analog signal from each light receiving pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the AFE 12 in accordance with a drive pulse generated in the imaging device 1.

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 outputs this digital signal to the main control unit 13 as RAW data. The amplification degree of signal amplification in the AFE 12 is controlled by the main control unit 13.

主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成る。主制御部13は、AFE12からのRAWデータに基づいて、撮像部11によって撮影された画像(以下、撮影画像とも言う)を表す画像データを生成する。ここで生成される画像データには、例えば、輝度信号及び色差信号が含まれる。但し、RAWデータそのものも画像データの一種であり、撮像部11から出力されるアナログ信号も画像データの一種である。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。   The main control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Based on the RAW data from the AFE 12, the main control unit 13 generates image data representing an image captured by the imaging unit 11 (hereinafter also referred to as a captured image). The image data generated here includes, for example, a luminance signal and a color difference signal. However, the RAW data itself is a kind of image data, and an analog signal output from the imaging unit 11 is also a kind of image data. The main control unit 13 also has a function as display control means for controlling the display content of the display unit 15, and performs control necessary for display on the display unit 15.

内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。   The internal memory 14 is formed by SDRAM (Synchronous Dynamic Random Access Memory) or the like, and temporarily stores various data generated in the imaging device 1. The display unit 15 is a display device having a display screen such as a liquid crystal display panel, and displays captured images, images recorded on the recording medium 16, and the like under the control of the main control unit 13.

記録媒体16は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。操作部17は、静止画像の撮影指示を受け付けるシャッタボタン20等を備え、外部からの各種操作を受け付ける。操作部17に対する操作を、タッチパネル操作と区別すべく、ボタン操作とも呼ぶ。操作部17に対する操作内容は、主制御部13に伝達される。   The recording medium 16 is a non-volatile memory such as a card-like semiconductor memory or a magnetic disk, and stores a photographed image or the like under the control of the main control unit 13. The operation unit 17 includes a shutter button 20 that receives a still image shooting instruction, and receives various operations from the outside. The operation on the operation unit 17 is also referred to as a button operation in order to distinguish it from the touch panel operation. The content of the operation on the operation unit 17 is transmitted to the main control unit 13.

表示部15にはタッチパネルが設けられている。図3は、表示部15の概略分解図(換言すればタッチパネルの概略分解図)である。表示部15には、液晶ディスプレイ等から成る表示画面51と、操作体が表示画面51上に触れている位置(圧力を加えている位置)を検出するタッチ検出部52と、が設けられている。ユーザは、表示部15の表示画面51を操作体で触れることで撮像装置1に特定の指示を与えることができる。表示画面51を操作体で触れることによる操作をタッチパネル操作と呼ぶ。操作体と表示画面51との接触位置をタッチ位置と呼ぶ。操作体が表示画面51に触れているとき、タッチ検出部52は、その触れた位置(即ちタッチ位置)を指し示すタッチ位置情報を主制御部13にリアルタイムで出力する。操作体は、指やペンなどであるが、以下では主として操作体が指であることを想定する。また、本明細書において、単に表示と言った場合、それは表示画面51における表示を指すものとする。   The display unit 15 is provided with a touch panel. FIG. 3 is a schematic exploded view of the display unit 15 (in other words, a schematic exploded view of the touch panel). The display unit 15 is provided with a display screen 51 formed of a liquid crystal display or the like, and a touch detection unit 52 that detects a position where the operating body touches the display screen 51 (a position where pressure is applied). . The user can give a specific instruction to the imaging apparatus 1 by touching the display screen 51 of the display unit 15 with an operating tool. An operation by touching the display screen 51 with an operating body is referred to as a touch panel operation. A contact position between the operating tool and the display screen 51 is referred to as a touch position. When the operating body is touching the display screen 51, the touch detection unit 52 outputs touch position information indicating the touched position (ie, touch position) to the main control unit 13 in real time. The operation body is a finger, a pen, or the like. In the following, it is mainly assumed that the operation body is a finger. Further, in this specification, when the term “display” is simply used, it means the display on the display screen 51.

図4(a)に示す如く、表示画面51上の位置は、二次元のXY座標面上の位置として定義される。また更に、図4(b)に示す如く、撮像装置1において、任意の二次元画像300もXY座標面上の画像として取り扱われる。XY座標面は、表示画面51及び二次元画像300の水平方向に伸びるX軸と、表示画面51及び二次元画像300の垂直方向に伸びるY軸と、を座標軸として有する。本明細書において述べられる画像は、全て、特に記述なき限り二次元画像である。表示画面51及び二次元画像300上における或る注目点の位置を(x,y)にて表す。xは、該注目点のX軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の水平位置を表す。yは、該注目点のY軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の垂直位置を表す。二次元画像300を表示画面51にて表示する際(二次元画像300を表示画面51の全体を使って表示する際)、二次元画像300上の位置(x,y)における画像は、表示画面51上の位置(x,y)に表示される。   As shown in FIG. 4A, the position on the display screen 51 is defined as a position on a two-dimensional XY coordinate plane. Furthermore, as shown in FIG. 4B, in the imaging device 1, an arbitrary two-dimensional image 300 is also handled as an image on the XY coordinate plane. The XY coordinate plane has an X axis extending in the horizontal direction of the display screen 51 and the two-dimensional image 300 and a Y axis extending in the vertical direction of the display screen 51 and the two-dimensional image 300 as coordinate axes. All images described herein are two-dimensional images unless otherwise specified. The position of a certain point of interest on the display screen 51 and the two-dimensional image 300 is represented by (x, y). x represents the X-axis coordinate value of the attention point, and also represents the horizontal position of the attention point on the display screen 51 and the two-dimensional image 300. y represents the Y-axis coordinate value of the target point, and also represents the vertical position of the target point on the display screen 51 and the two-dimensional image 300. When the 2D image 300 is displayed on the display screen 51 (when the 2D image 300 is displayed using the entire display screen 51), the image at the position (x, y) on the 2D image 300 is displayed on the display screen. 51 is displayed at position (x, y).

撮像装置1の動作モードには、静止画像又は動画像を撮影可能な撮影モードと記録媒体16に記録された静止画像又は動画像を表示部15上で再生可能な再生モードとが含まれる。撮影モードでは、所定のフレーム周期にて周期的に被写体の撮影が行われ、撮像部11から(より詳細にはAFE12から)被写体の撮影画像列を表すRAWデータが出力される。撮影画像列に代表される画像列とは、時系列で並ぶ画像の集まりを指す。1つのフレーム周期分の画像データによって1枚分の画像が表現される。AFE12からの1フレーム周期分の画像データによって表現される1枚分の撮影画像を、フレーム画像とも呼ぶ。RAWデータによる撮影画像に対して所定の画像処理(デモサイキング処理、ノイズ除去処理、色補正処理など)を施して得られる画像がフレーム画像である、と解釈していも良い。   The operation modes of the imaging apparatus 1 include a shooting mode in which a still image or a moving image can be shot and a playback mode in which the still image or the moving image recorded on the recording medium 16 can be played on the display unit 15. In the shooting mode, a subject is periodically shot at a predetermined frame period, and RAW data representing a shot image sequence of the subject is output from the imaging unit 11 (more specifically, from the AFE 12). An image sequence typified by a captured image sequence refers to a collection of images arranged in time series. One image is represented by image data for one frame period. One captured image expressed by image data for one frame period from the AFE 12 is also referred to as a frame image. You may interpret that the image obtained by performing predetermined image processing (Democycling processing, noise removal processing, color correction processing, etc.) with respect to the picked-up image by RAW data is a frame image.

図5に、撮影者側から見た、撮像装置1の外観斜視図を示す。図5には、被写体としての人物も示されている。順次撮影によって得られるフレーム画像列は動画像として表示画面51上に表示される。撮影者としてのユーザは、表示画面51上に表示された被写体の様子を確認することで、撮像装置1の撮影範囲(換言すれば撮像部11又は撮像素子33の撮影範囲)等を確認することができる。   FIG. 5 shows an external perspective view of the imaging apparatus 1 as seen from the photographer side. FIG. 5 also shows a person as a subject. A frame image sequence obtained by sequential shooting is displayed on the display screen 51 as a moving image. A user as a photographer confirms the photographing range of the imaging device 1 (in other words, the photographing range of the imaging unit 11 or the imaging element 33) by confirming the state of the subject displayed on the display screen 51. Can do.

撮像装置1は、画像処理を用いた被写体追尾機能を備えており、この被写体追尾機能の実現時に特徴的な動作を行う。被写体追尾機能は撮影モードにおいて実現される。撮影モードの一形態である、被写体追尾機能が実現される動作モードを追尾モードという。所定のタッチパネル操作又はボタン操作を成すことで、追尾モードにおける動作が実行される。以下に示される動作は、特に記述なき限り、この追尾モードにおける撮像装置1の動作である。   The imaging apparatus 1 has a subject tracking function using image processing, and performs a characteristic operation when the subject tracking function is realized. The subject tracking function is realized in the shooting mode. An operation mode that realizes the subject tracking function, which is one form of the shooting mode, is referred to as a tracking mode. The operation in the tracking mode is executed by performing a predetermined touch panel operation or button operation. The operations described below are operations of the imaging apparatus 1 in the tracking mode unless otherwise specified.

図6は、撮像装置1内の、被写体追尾機能に特に関与する部位のブロック図である。被写体距離情報生成部(距離情報取得部)61、追尾処理部62及び表示制御部64を、図1の主制御部13内に設けておくことができる。追尾処理部62には、追尾対象設定部63が内包されている。フレーム画像列を形成する各フレーム画像の画像データは、順次、追尾処理部62及び表示制御部64に与えられる。   FIG. 6 is a block diagram of a part of the imaging apparatus 1 that is particularly related to the subject tracking function. A subject distance information generation unit (distance information acquisition unit) 61, a tracking processing unit 62, and a display control unit 64 can be provided in the main control unit 13 of FIG. The tracking processing unit 62 includes a tracking target setting unit 63. The image data of each frame image forming the frame image sequence is sequentially given to the tracking processing unit 62 and the display control unit 64.

被写体距離情報生成部(以下、距離情報生成部と略記することがある)61は、撮像装置1の撮影範囲内に収まっている各被写体の被写体距離を検出する被写体距離検処理を実行し、これによってフレーム画像上の各位置における被写体の被写体距離を表す被写体距離情報を生成する。或る被写体についての被写体距離とは、その被写体と撮像装置1(より具体的には撮像素子33)との間における実空間上の距離を指す。尚、本明細書において、“距離が大きい”という表現と“距離が長い”という表現は同義であり、“距離が小さい”という表現と“距離が短い”という表現は同義である。被写体距離検出処理を周期的に又は所望のタイミングに実行することができる。被写体距離情報は、自身を形成する各画素値が被写体距離の測定値を持つ距離画像である。被写体距離の検出方法及び被写体距離情報の生成方法として、公知の方法(例えば、特開2009−272799号公報に記載の方法)を含む任意の方法を利用可能である。   A subject distance information generation unit (hereinafter sometimes abbreviated as a distance information generation unit) 61 executes subject distance detection processing for detecting the subject distance of each subject that is within the shooting range of the imaging apparatus 1. Thus, subject distance information representing the subject distance of the subject at each position on the frame image is generated. The subject distance for a certain subject refers to the distance in real space between the subject and the imaging device 1 (more specifically, the imaging device 33). In the present specification, the expression “the distance is large” and the expression “the distance is long” are synonymous, and the expression “the distance is small” and the expression “the distance is short” are synonymous. The subject distance detection process can be executed periodically or at a desired timing. The subject distance information is a distance image in which each pixel value forming the subject has a subject distance measurement value. Any method including a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2009-272799) can be used as a method for detecting a subject distance and a method for generating subject distance information.

フレーム画像の画像データから被写体距離情報を生成するようにしても良いし、フレーム画像の画像データ以外の情報から被写体距離情報を生成するようにしても良い。例えば、各被写体の被写体距離を測定する測距センサ(不図示)を用いて被写体距離情報を生成することができる。測距センサとして、三角測量法に基づく測距センサ等、公知の任意の測距センサを用いることができる。或いは例えば、複眼カメラを用いて上記距離画像を生成するようにしても良い。   The subject distance information may be generated from the image data of the frame image, or the subject distance information may be generated from information other than the image data of the frame image. For example, subject distance information can be generated using a distance measuring sensor (not shown) that measures the subject distance of each subject. As the distance measuring sensor, any known distance measuring sensor such as a distance measuring sensor based on the triangulation method can be used. Alternatively, for example, the distance image may be generated using a compound eye camera.

或いは例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから被写体距離情報を生成するようにしても良い。これを実現するために、例えば“Light Field Photography”と呼ばれる方法(例えば、国際公開第06/039486号パンフレット又は特開2009−224982号公報に記載の方法;以下、Light Field法と呼ぶ)を用いても良い。Light Field法では、開口絞りを有する撮像レンズとマイクロレンズアレイを用いることで、撮像素子から得られる画像信号が、撮像素子の受光面における光の強度分布に加えて光の進行方向の情報をも含むようになっている。従って、図2には表れていないが、Light Field法を用いる場合には、Light Field法の実現に必要な光学部材が撮像部11に設けられる。この光学部材には、マイクロレンズアレイ等が含まれ、被写体からの入射光はマイクロレンズアレイ等を介して撮像素子33の受光面(換言すれば撮像面)に入射する。マイクロレンズアレイは複数のマイクロレンズから成り、撮像素子33上の1又は複数の受光画素に対して1つのマイクロレンズを割り当てられる。これによって、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて、撮像素子33への入射光の進行方向の情報をも含むようになる。   Alternatively, for example, the imaging unit 11 may be formed so that the RAW data includes information representing the subject distance, and the subject distance information may be generated from the RAW data. In order to realize this, for example, a method called “Light Field Photography” (for example, a method described in International Publication No. 06/039486 pamphlet or Japanese Patent Application Laid-Open No. 2009-224982; hereinafter referred to as “Light Field method”) is used. May be. In the light field method, by using an imaging lens having an aperture stop and a microlens array, the image signal obtained from the imaging device has information on the light traveling direction in addition to the light intensity distribution on the light receiving surface of the imaging device. It comes to include. Therefore, although not shown in FIG. 2, when the light field method is used, an optical member necessary for realizing the light field method is provided in the imaging unit 11. The optical member includes a microlens array or the like, and incident light from the subject enters the light receiving surface (in other words, the imaging surface) of the image sensor 33 via the microlens array or the like. The microlens array is composed of a plurality of microlenses, and one microlens is assigned to one or a plurality of light receiving pixels on the image sensor 33. As a result, the output signal of the image sensor 33 includes information on the traveling direction of the incident light to the image sensor 33 in addition to the light intensity distribution on the light receiving surface of the image sensor 33.

追尾処理部62には、フレーム画像列の画像データだけでなく、被写体距離情報及びタッチ位置情報が入力される。追尾処理部62は、フレーム画像列の画像データに基づき各フレーム画像内における特定被写体の位置を逐次検出していくことにより、フレーム画像列における特定被写体の位置を追尾する。この追尾を実行する処理を追尾処理と呼ぶ。追尾されるべき特定被写体を追尾対象と呼ぶ。   In addition to the image data of the frame image sequence, subject distance information and touch position information are input to the tracking processing unit 62. The tracking processing unit 62 tracks the position of the specific subject in the frame image sequence by sequentially detecting the position of the specific subject in each frame image based on the image data of the frame image sequence. A process for executing the tracking is called a tracking process. A specific subject to be tracked is called a tracking target.

追尾対象設定部63は、ユーザによる操作の内容に基づき、撮像装置1の撮影範囲内に収まっている被写体の中から追尾対象を設定する。この設定の際、被写体距離情報が利用されるが、その利用方法例については後述する。追尾対象の設定の元となる、ユーザの操作は、例えば所定のタッチパネル操作である。この場合、タッチ位置情報に基づいて追尾対象が設定されることとなる。   The tracking target setting unit 63 sets a tracking target from among subjects that are within the shooting range of the imaging apparatus 1 based on the content of the operation by the user. In this setting, subject distance information is used, and an example of how to use it will be described later. The user's operation that is the basis for setting the tracking target is, for example, a predetermined touch panel operation. In this case, the tracking target is set based on the touch position information.

表示制御部64は、表示画面51の表示内容を制御し、フレーム画像の画像データから表示用画像の画像データを生成して、これを表示部15に送ることで表示画面51上に表示用画像を表示させる。フレーム画像は周期的に順次取得されるため、表示用画像も周期的に生成されて表示画面上で更新表示される。この表示用画像は、追尾処理部62による追尾結果などを、フレーム画像に反映させることによって生成される。   The display control unit 64 controls the display content of the display screen 51, generates image data of a display image from the image data of the frame image, and sends this to the display unit 15, thereby displaying the display image on the display screen 51. Is displayed. Since the frame images are sequentially acquired sequentially, the display image is also periodically generated and updated and displayed on the display screen. This display image is generated by reflecting the tracking result by the tracking processing unit 62 in the frame image.

図7を参照して、追尾モードにおける動作について、より詳細に説明する。図7は、追尾モードにおける撮像装置1の動作の流れを表すフローチャートである。この動作をより具体的に説明するべく、今、撮像装置1の撮影範囲内に収まる被写体の中に、図8に示す4つの被写体SUB〜SUBが含まれていることを想定する。被写体SUB〜SUBは、サッカーの試合における被写体である。被写体SUB〜SUBの夫々は実空間上で移動しうる人物であり、被写体SUBは実空間上で静止しているサッカーゴールである。また、被写体SUB〜SUBの被写体距離を夫々d〜dにて表す。ここで、不等式“d<d<d<d”が常に成立するものとする。 The operation in the tracking mode will be described in more detail with reference to FIG. FIG. 7 is a flowchart showing an operation flow of the imaging apparatus 1 in the tracking mode. In order to explain this operation more specifically, it is assumed that the four subjects SUB 1 to SUB 4 shown in FIG. 8 are included in the subjects that fall within the imaging range of the imaging apparatus 1. Subjects SUB 1 to SUB 4 are subjects in a soccer game. Each of the subjects SUB 1 to SUB 3 is a person who can move in the real space, and the subject SUB 4 is a soccer goal that is stationary in the real space. The subject distances of the subjects SUB 1 to SUB 4 are represented by d 1 to d 4, respectively. Here, it is assumed that the inequality “d 1 <d 2 <d 3 <d 4 ” always holds.

撮像装置1の動作モードが追尾モードに設定されると、まず、ステップS11において、撮像装置1はユーザによる追尾対象指定操作の入力を受け付け、その入力が成された場合に、ステップS12及びそれ以降の処理を実行する。ステップS11における追尾対象指定操作は、表示画面51上において追尾対象となるべき被写体が表示されている部分を指にて触れることで実現される。ステップS11において、追尾対象を指定するためにユーザが表示画面51に触れた位置を指定位置と呼ぶ。そうすると、ステップS11における追尾対象指定操作は、ユーザによる指定位置入力操作であると言え、図3のタッチ検出部52が、その指定位置入力操作を受け付ける操作受付部として機能する。   When the operation mode of the imaging device 1 is set to the tracking mode, first, in step S11, the imaging device 1 accepts an input of a tracking target specifying operation by the user, and when the input is made, step S12 and subsequent steps are performed. Execute the process. The tracking target specifying operation in step S11 is realized by touching a part on the display screen 51 where a subject to be tracked is displayed with a finger. In step S11, the position where the user touches the display screen 51 in order to specify the tracking target is referred to as a specified position. Then, it can be said that the tracking target specifying operation in step S11 is a specified position input operation by the user, and the touch detection unit 52 in FIG. 3 functions as an operation receiving unit that receives the specified position input operation.

ステップS12において、距離情報生成部61は、被写体距離検出処理を実行することで被写体距離情報を生成する。ステップS12における被写体距離検出処理を、追尾対象指定操作が成された時点又は追尾対象指定操作が成された直後に行うことができる。また、追尾対象指定操作が成される直前に実行された被写体距離検出処理の結果から、ステップS12の被写体距離情報を生成するようにしても良い。   In step S12, the distance information generating unit 61 generates subject distance information by executing subject distance detection processing. The subject distance detection process in step S12 can be performed at the time when the tracking target specifying operation is performed or immediately after the tracking target specifying operation is performed. Further, the subject distance information in step S12 may be generated from the result of the subject distance detection process executed immediately before the tracking target designation operation is performed.

続くステップS13において、追尾対象設定部63は、ステップS11において決定された指定位置を、ステップS12にて生成された被写体距離情報を用いて補正する。この補正方法を例示する。   In subsequent step S13, the tracking target setting unit 63 corrects the designated position determined in step S11 using the subject distance information generated in step S12. This correction method is illustrated.

例えば、図9(a)のフレーム画像320が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置321が補正前の指定位置として設定された場合を考える。位置321には、サッカー場の地面部分の画像データが存在しており、その地面部分の被写体距離は被写体SUBのそれよりも大きいものとする。図9(b)の画像330は、フレーム画像320に対応する被写体距離情報としての距離画像である。任意の距離画像はグレースケール画像である。距離画像において、各画素は、対応する被写体距離が小さいほどゼロに近い画素値を有し、対応する被写体距離が大きいほど大きな画素値を有するものとする。更に、距離画像を示す図面においては、画素値の比較的小さい部分(即ち被写体距離が比較的小さい部分)は比較的白く示され、画素値の比較的大きい部分(即ち被写体距離が比較的大きい部分)は比較的黒く示されている。図示の簡略化上、図9(b)の距離画像330では、被写体距離がある程度以上大きい部分を全て黒く示している(後述の他の距離画像も同様)。 For example, consider the case where the position 321 on the display screen 51 is set as the designated position before correction by the user's designated position input operation when the frame image 320 of FIG. 9A is displayed as the display image. . In position 321, there are image data of the ground portion of the soccer field, the object distance of the ground portion is made larger than that of the subject SUB 1. An image 330 in FIG. 9B is a distance image as subject distance information corresponding to the frame image 320. The arbitrary distance image is a gray scale image. In the distance image, each pixel has a pixel value closer to zero as the corresponding subject distance is smaller, and has a larger pixel value as the corresponding subject distance is larger. Further, in the drawing showing the distance image, a portion having a relatively small pixel value (that is, a portion having a relatively small subject distance) is shown in white, and a portion having a relatively large pixel value (that is, a portion having a relatively large subject distance). ) Is shown relatively black. For simplification of illustration, in the distance image 330 of FIG. 9B, all portions where the subject distance is larger than a certain extent are shown in black (the same applies to other distance images described later).

位置321が補正前の指定位置として設定された場合、追尾対象設定部63は、位置321から見て空間的に近接した位置に、上記地面部分の被写体距離よりも小さな被写体距離を有する被写体が存在しているかを、ステップS12の被写体距離情報(即ち距離画像330)に基づいて判定し、その存在が認められた場合、より小さな被写体距離の被写体の位置に指定位置を補正する。図9(a)の例では、位置321から見て空間的に近接した位置に、上記地面部分の被写体距離よりも小さな被写体距離を有する被写体SUBが存在している。このため、この例において、追尾対象設定部63は、指定位置を、位置321から被写体SUBの画像データが存在している位置322へと補正することができる。注目位置(本例において位置321)から見て空間的に近接した位置とは、例えば、注目位置を中心とした一定の大きさを有する領域内の位置である。 When the position 321 is set as the designated position before correction, the tracking target setting unit 63 has a subject having a subject distance smaller than the subject distance of the ground portion at a position spatially close to the position 321. Is determined based on the subject distance information (that is, the distance image 330) in step S12, and if the presence is recognized, the designated position is corrected to the position of the subject having a smaller subject distance. In the example of FIG. 9A, the subject SUB 1 having a subject distance smaller than the subject distance of the ground portion exists at a position spatially close as viewed from the position 321. Therefore, in this example, the tracking target setting unit 63 can correct the designated position from the position 321 to the position 322 where the image data of the subject SUB 1 exists. A position spatially close to the target position (position 321 in this example) is, for example, a position within a region having a certain size with the target position as the center.

また例えば、図10(a)のフレーム画像340が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置341が補正前の指定位置として設定された場合を考える。図10(b)の画像350は、フレーム画像340に対応する被写体距離情報としての距離画像である。   Further, for example, when the frame image 340 of FIG. 10A is displayed as a display image, the position 341 on the display screen 51 is set as the designated position before correction by the user's designated position input operation. Think. An image 350 in FIG. 10B is a distance image as subject distance information corresponding to the frame image 340.

位置341には、被写体SUBの画像データが存在している。即ち、位置341における被写体は被写体SUBである。この場合も、追尾対象設定部63は、位置341から見て空間的に近接した位置に、被写体SUBの被写体距離よりも小さな被写体距離を有する被写体が存在しているかを、ステップS12の被写体距離情報(即ち距離画像350)に基づいて判定し、その存在が認められた場合、より小さな被写体距離の被写体の位置に指定位置を補正する。図10(a)の例では、位置341から見て空間的に近接した位置に、被写体SUBの被写体距離よりも小さな被写体距離を有する被写体SUBが存在している。このため、この例において、追尾対象設定部63は、指定位置を、位置341から被写体SUBの画像データが存在している位置342へと補正することができる。 In position 341, the image data of the subject SUB 3 is present. That is, the subject at the position 341 is the subject SUB 3 . Also in this case, the tracking target setting unit 63 determines whether or not a subject having a subject distance smaller than the subject distance of the subject SUB 3 exists in a spatially close position as viewed from the position 341. When the determination is made based on the information (that is, the distance image 350) and the presence is recognized, the designated position is corrected to the position of the subject having a smaller subject distance. In the example of FIG. 10A, the subject SUB 1 having a subject distance smaller than the subject distance of the subject SUB 3 exists at a position spatially close to the position 341. Therefore, in this example, the tracking target setting unit 63 can correct the designated position from the position 341 to the position 342 where the image data of the subject SUB 1 exists.

また例えば、合焦領域内の被写体上の位置に指定位置を補正するようにしても良い。合焦領域とは、ピントが合っている被写体の画像データが存在する画像領域である。合焦距離を内包する被写界深度内に位置している被写体、即ち、被写界深度内の被写体距離を有する被写体にピントが合う。従って、被写界深度内に位置している被写体の画像データが存在する画像領域は、合焦領域に相当する。例えば、図9(a)のフレーム画像320が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置321が補正前の指定位置として設定された場合を考える。この際、追尾対象設定部63は、フレーム画像320の撮影時におけるフォーカスレンズ31の位置及び絞り値等から合焦距離及び被写界深度の深さを求め、求めた合焦距離及び被写界深度の深さとステップS12の被写体距離情報(即ち距離画像330)からフレーム画像320内における合焦領域を特定する。今、実空間上において被写体SUBが被写界深度内に位置しているとすると、特定された合焦領域内に被写体SUBの画像データが存在することとなる。また、位置321は合焦領域内に存在していないものとする。この場合、追尾対象設定部63は、指定位置を、位置321から被写体SUBの画像データが存在している位置322へと補正することができる。 Further, for example, the designated position may be corrected to the position on the subject in the focus area. The in-focus area is an image area where image data of a subject in focus exists. A subject located within the depth of field containing the in-focus distance, that is, a subject having a subject distance within the depth of field is focused. Therefore, the image area where the image data of the subject located within the depth of field is equivalent to the in-focus area. For example, consider the case where the position 321 on the display screen 51 is set as the designated position before correction by the user's designated position input operation when the frame image 320 of FIG. 9A is displayed as the display image. . At this time, the tracking target setting unit 63 obtains the in-focus distance and the depth of field from the position of the focus lens 31 and the aperture value at the time of shooting the frame image 320, and the obtained in-focus distance and the object field. The focus area in the frame image 320 is specified from the depth and the subject distance information (that is, the distance image 330) in step S12. Assuming that the subject SUB 1 is located within the depth of field in real space, the image data of the subject SUB 1 exists in the specified in-focus area. Further, it is assumed that the position 321 does not exist in the focus area. In this case, the tracking target setting unit 63 can correct the designated position from the position 321 to the position 322 where the image data of the subject SUB 1 exists.

補正後の指定位置の情報は追尾処理部62から表示制御部64に伝達され、ステップS13による補正の後、ステップS14において、表示制御部64は、補正後の指定位置を最新のフレーム画像に重畳して表示画面51に表示させる。補正後の指定位置における被写体の全体を囲む枠などを、最新のフレーム画像に重畳して表示するようにしても良い。この後、ステップS15において、主制御部13は、ユーザが追尾開始指示操作を成したか否かを判断する。追尾開始指示操作は、ステップS13の補正を承認した上で追尾処理の開始を指示する操作であり、所定のタッチパネル操作等により実現される。追尾開始指示操作が成された場合は、ステップS15からステップS16へと移行して、ステップS16及びステップS16以降の処理が実行される。一方、追尾開始指示操作が成されず、指定位置の再設定を要求する操作等が成された場合にはステップS15からステップS11に戻って、ステップS11からの処理を再度実行する。基本的に表示画面51上にはフレーム画像列に基づく表示用画像列が動画像として表示されているが、追尾開始指示操作を受け付けている期間中においては、補正後の指定位置と、対応する被写体との対応関係をユーザに分かりやすくするために、表示画面51上における動画像の再生を一時的に停止するようにしても良い。   Information on the specified position after correction is transmitted from the tracking processing unit 62 to the display control unit 64. After the correction in step S13, in step S14, the display control unit 64 superimposes the specified position after correction on the latest frame image. And displayed on the display screen 51. A frame surrounding the entire subject at the specified position after correction may be displayed superimposed on the latest frame image. Thereafter, in step S15, the main control unit 13 determines whether or not the user has performed a tracking start instruction operation. The tracking start instruction operation is an operation for instructing the start of the tracking process after approving the correction in step S13, and is realized by a predetermined touch panel operation or the like. When the tracking start instruction operation is performed, the process proceeds from step S15 to step S16, and the processes after step S16 and step S16 are executed. On the other hand, when the tracking start instruction operation is not performed and an operation for requesting resetting of the designated position is performed, the process returns from step S15 to step S11, and the process from step S11 is executed again. Basically, the display image sequence based on the frame image sequence is displayed as a moving image on the display screen 51, but during the period when the tracking start instruction operation is accepted, it corresponds to the specified position after correction. In order to make it easier for the user to understand the correspondence with the subject, the reproduction of the moving image on the display screen 51 may be temporarily stopped.

追尾対象設定部63は、ステップS16において、補正後の指定位置における被写体を追尾対象に設定し、続くステップS17において追尾対象の初期登録処理を実行する。例えば、図9(a)又は図10(a)の例の如く、位置322又は342が補正後の指定位置である場合には、被写体SUBが追尾対象に設定される。 In step S16, the tracking target setting unit 63 sets the subject at the specified position after correction as the tracking target, and executes tracking target initial registration processing in subsequent step S17. For example, when the position 322 or 342 is a corrected designated position as in the example of FIG. 9A or FIG. 10A, the subject SUB 1 is set as a tracking target.

初期登録処理は、追尾対象の初期情報を登録する処理であり、図11のステップS31及びS32の処理から成る。ステップS31では、最新のフレーム画像を初期フレーム画像(基準画像)に設定し、初期フレーム画像内に追尾領域を設定する。初期フレーム画像以降に得られる各フレーム画像を追尾対象フレーム画像(非基準画像)と呼ぶ。追尾領域とは、追尾対象の画像データが存在している画像領域を指す。初期フレーム画像に設定される追尾領域を、特に、初期追尾領域とも呼ぶ。初期追尾領域は、補正後の指定位置を基準として設定される。単純には例えば、補正後の指定位置を中心に配置した、所定の大きさを有する矩形領域を初期追尾領域として設定することができる。但し、初期フレーム画像及び各追尾対象フレーム画像に設定されるべき追尾領域の形状は、矩形に限定されない。   The initial registration process is a process for registering initial information to be tracked, and includes the processes of steps S31 and S32 in FIG. In step S31, the latest frame image is set as an initial frame image (reference image), and a tracking area is set in the initial frame image. Each frame image obtained after the initial frame image is called a tracking target frame image (non-reference image). The tracking area refers to an image area in which image data to be tracked exists. The tracking area set in the initial frame image is particularly called an initial tracking area. The initial tracking area is set based on the specified position after correction. Simply, for example, a rectangular area having a predetermined size and centered on the corrected designated position can be set as the initial tracking area. However, the shape of the tracking area to be set in the initial frame image and each tracking target frame image is not limited to a rectangle.

ステップS32において、追尾処理部62又は追尾対象設定部63は、初期追尾領域内の画像データから画像特徴量を抽出し、抽出した画像特徴量を含む初期登録情報をメモリ(例えば内部メモリ14)に保存する。ここで抽出される画像特徴量は、追尾対象の追尾に有益な画像特徴量であり、例えば、色情報、エッジ情報などを含む。初期登録情報に、画像特徴量の他、追尾処理の実行に必要又は有益な様々な情報を含めておくことができる。例えば、初期追尾領域における被写体距離(即ち、初期フレーム画像における追尾対象の被写体距離)、並びに、初期フレーム画像上における初期追尾領域の位置、大きさ及び形状を、初期登録情報に含めておくことができる。   In step S32, the tracking processing unit 62 or the tracking target setting unit 63 extracts the image feature amount from the image data in the initial tracking area, and stores the initial registration information including the extracted image feature amount in a memory (for example, the internal memory 14). save. The image feature amount extracted here is an image feature amount useful for tracking the tracking target, and includes, for example, color information and edge information. The initial registration information can include various information necessary or useful for executing the tracking process in addition to the image feature amount. For example, the initial registration information may include the subject distance in the initial tracking area (that is, the subject distance to be tracked in the initial frame image) and the position, size, and shape of the initial tracking area on the initial frame image. it can.

初期登録情報の保存によって、図7のステップS17における初期登録処理が完了すると、ステップS18において追尾処理が開始される。即ち、追尾処理部62により、ステップS17の処理以後に得られる追尾対象フレーム画像列に対して追尾処理が実行される。追尾処理では、初期フレーム画像の初期追尾領域内の画像データと各追尾対象フレーム画像の画像データに基づいて各追尾対象フレーム画像における追尾対象の位置(換言すれば追尾領域の位置)を検出し、これによって初期フレーム画像及び各追尾対象フレーム画像から成るフレーム画像列上で追尾対象を追尾する。初期登録情報に初期追尾領域の画像特徴量が格納されているため、実際には、初期登録情報と各追尾対象フレーム画像の画像データに基づいて追尾処理を成せばよい。   When the initial registration process in step S17 of FIG. 7 is completed by storing the initial registration information, the tracking process is started in step S18. That is, the tracking processing unit 62 executes the tracking process on the tracking target frame image sequence obtained after the process of step S17. In the tracking process, the position of the tracking target in each tracking target frame image (in other words, the position of the tracking area) is detected based on the image data in the initial tracking area of the initial frame image and the image data of each tracking target frame image. As a result, the tracking target is tracked on the frame image sequence including the initial frame image and each tracking target frame image. Since the image feature amount of the initial tracking area is stored in the initial registration information, in practice, the tracking process may be performed based on the initial registration information and the image data of each tracking target frame image.

追尾処理部62は、公知の任意の追尾処理方法を用いて追尾処理を実行することができる。例えば、色情報に基づいて追尾処理を行うことができるし、色情報に基づく追尾処理の方法として、特開平5−284411号公報、特開2000−48211号公報、特開2001−169169号公報などに記載の方法を用いることができる。また例えば、特開2009−141475号公報などに記載されているような、パターンマッチングを用いた方法によって追尾処理を実行しても良い。   The tracking processing unit 62 can execute the tracking process using any known arbitrary tracking processing method. For example, tracking processing can be performed based on color information, and tracking methods based on color information are disclosed in Japanese Patent Application Laid-Open Nos. 5-284411, 2000-48211, 2001-169169, and the like. Can be used. Further, for example, the tracking process may be executed by a method using pattern matching as described in Japanese Patent Application Laid-Open No. 2009-141475.

具体的には例えば、初期フレーム画像又は任意の追尾対象フレーム画像である第1フレーム画像内に追尾領域が設定されて第1フレーム画像内の追尾領域の画像特徴量が求められた後、第1フレーム画像の次に得られる第2フレーム画像に対して以下の処理を成せば良い。第2フレーム画像内に、追尾領域の大きさと同程度の大きさを有する評価ブロックを設定して、評価ブロック内における画像の画像特徴量と、第1フレーム画像内の追尾領域の画像特徴量との類似度評価を、評価ブロックの位置を探索範囲内で順次変更しながら実行し、最大の類似度が得られた評価ブロックの位置に第2フレーム画像上の追尾対象が存在すると判断する(即ち、最大の類似度が得られた評価ブロック内の画像領域が第2フレーム画像の追尾領域であると判断する)。第2フレーム画像に対する探索範囲は、第1フレーム画像の追尾領域の位置を基準にして設定される。このような追尾処理により、時間的に連続するフレーム画像間で追尾対象の位置が次々と検出されて、各追尾対象フレーム画像における追尾対象の位置が検出される。   Specifically, for example, after the tracking area is set in the first frame image that is the initial frame image or an arbitrary tracking target frame image and the image feature amount of the tracking area in the first frame image is obtained, What is necessary is just to perform the following processes with respect to the 2nd frame image obtained after a frame image. An evaluation block having the same size as the size of the tracking area is set in the second frame image, and the image feature amount of the image in the evaluation block and the image feature amount of the tracking area in the first frame image The similarity evaluation is performed while sequentially changing the position of the evaluation block within the search range, and it is determined that the tracking target on the second frame image exists at the position of the evaluation block where the maximum similarity is obtained (that is, The image area in the evaluation block where the maximum similarity is obtained is determined to be the tracking area of the second frame image). The search range for the second frame image is set with reference to the position of the tracking area of the first frame image. By such tracking processing, the position of the tracking target is successively detected between temporally consecutive frame images, and the position of the tracking target in each tracking target frame image is detected.

周期的に得られる被写体距離情報をも更に利用して追尾処理を成すようにしても良い。この際、追尾対象の被写体距離の、時間方向における連続性を考慮すれば良い。即ち、時間的に近接したフレーム画像間で追尾対象の被写体距離は大きく相違しないという原理をも利用して(但し、フレーム周期が1/60秒程度であって且つ追尾対象が人物等であることを想定)、各追尾対象フレーム画像における追尾対象を検出するようにしても良い。例えば、被写体距離情報を考慮して上記の類似度を求めるようにしても良いし、被写体距離情報を考慮して上記の探索範囲に制限を加えるようにしても良い。   The tracking process may be performed by further using subject distance information obtained periodically. At this time, the continuity in the time direction of the subject distance to be tracked may be considered. In other words, the principle that the subject distance of the tracking target does not differ greatly between temporally adjacent frame images (however, the frame period is about 1/60 seconds and the tracking target is a person or the like). The tracking target in each tracking target frame image may be detected. For example, the similarity may be obtained in consideration of subject distance information, or the search range may be limited in consideration of subject distance information.

ステップS18にて開始された追尾処理は、ユーザによる追尾処理停止指示や追尾対象再指定操作があるまで継続実行される(ステップS19及びS20)。追尾対象再指定操作があった場合には、ステップS11に戻って、ステップS11からの処理が再度実行される。   The tracking process started in step S18 is continuously executed until there is a tracking process stop instruction or a tracking target redesignation operation by the user (steps S19 and S20). If there is a tracking target redesignation operation, the process returns to step S11 and the processing from step S11 is executed again.

尚、任意のフレーム画像において、被写体距離が互いに異なる第1〜第n被写体領域を区別する際、被写体距離情報に基づく領域分割処理を利用することができる(nは2以上の整数)。第i被写体領域とは第i被写体の画像データが存在する画像領域を指す(iは整数)。i及びjが互いに異なる整数の場合、第i及び第j被写体は互いに異なる被写体であるとする。この領域分割処理によって、フレーム画像の全体画像領域が被写体距離情報に基づき複数の画像領域に分割され、この複数の画像領域の中に第1〜第n被写体領域が含まれるようになる。領域分割処理では、類似した特徴量を持ち且つ空間的に近接した画素の集合が1つのまとまりを形成するように、フレーム画像の全体画像領域を分割する。この集合の形成及び画像領域の分割に、公知の領域統合法(region unification method)等を用いることができる。被写体距離情報に基づく領域分割処理では、被写体距離を特徴量として用いる。   Note that, in an arbitrary frame image, when the first to nth subject regions having different subject distances are distinguished, an area division process based on subject distance information can be used (n is an integer of 2 or more). The i-th subject area refers to an image area in which image data of the i-th subject exists (i is an integer). When i and j are different integers, it is assumed that the i-th and j-th subjects are different subjects. By this region division processing, the entire image region of the frame image is divided into a plurality of image regions based on the subject distance information, and the first to nth subject regions are included in the plurality of image regions. In the region division processing, the entire image region of the frame image is divided so that a set of pixels having similar feature amounts and spatially close together forms one unit. A known region unification method or the like can be used for forming the set and dividing the image area. In the region division processing based on the subject distance information, the subject distance is used as a feature amount.

また、上述の説明では、ステップS13において指定位置が補正されることを想定しているが、結果的に補正が成されないこともある。例えば、図9(a)の位置322がステップS11において指定位置として入力された場合、指定位置の補正は成されない。この場合も、便宜上、位置322が補正後の指定位置であると捉えて、ステップS14及びそれ以降の処理を実行すればよい。   In the above description, it is assumed that the designated position is corrected in step S13, but as a result, correction may not be performed. For example, when the position 322 in FIG. 9A is input as the designated position in step S11, the designated position is not corrected. In this case as well, for the sake of convenience, the position 322 may be regarded as the specified position after correction, and step S14 and subsequent processing may be executed.

注目被写体を追尾対象に指定するための操作(指定位置入力操作)をタッチパネルを用いて行う際、注目被写体の表示サイズが小さい或いは表示画面51上で注目被写体が動く等の理由によって、指定位置を正確に注目被写体に合わし難いこともある。一方において、ユーザの注目被写体は、一般的に近景側に位置することが多く、他の被写体と比べて比較的短い被写体距離を有することが多い。これを考慮し、上述の如く、被写体距離情報を用いてユーザの指定位置を補正する機能を持たせる。これにより、仮に指定位置が注目被写体を正しく指し示していなかったとしても、ユーザの注目被写体を推測して該注目被写体を追尾対象に設定するといったことが可能となる。結果、ユーザによる追尾対象の指定操作が支援され、正確に且つ容易に所望の被写体を追尾対象に設定することが可能となる。   When an operation (designated position input operation) for designating the subject of interest as a tracking target is performed using the touch panel, the designated position is set because the subject of interest has a small display size or the subject of interest moves on the display screen 51. It may be difficult to accurately match the subject of interest. On the other hand, the user's attention subject is generally often located on the near view side and often has a relatively short subject distance compared to other subjects. Considering this, as described above, the function of correcting the user-specified position using the subject distance information is provided. As a result, even if the designated position does not correctly indicate the subject of interest, it is possible to guess the subject of interest of the user and set the subject of interest as a tracking target. As a result, it is possible to assist the user in specifying the tracking target, and to accurately and easily set a desired subject as the tracking target.

以下に、上述の動作に適用可能な変形技術などを、第1〜第7応用例として説明する。矛盾なき限り、複数の応用例を組み合わせて実施することも可能である。   Hereinafter, modification techniques applicable to the above-described operation will be described as first to seventh application examples. As long as there is no contradiction, a plurality of application examples can be combined.

[第1応用例]
第1応用例を説明する。ステップS14において、補正前の指定位置及び補正後の指定位置の双方を表示するようにしても良い。例えば、図10(a)の位置341及び342が夫々補正前及び補正後の指定位置である場合、最新のフレーム画像と共に位置341及び342を最新のフレーム画像に重畳して表示しても良い。このような表示を成している状態において、ユーザに位置341及び342の一方を選択させることができる。位置341が選択されたならば補正前の指定位置に対応する被写体SUBを追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良く、位置342が選択されたならば補正後の指定位置に対応する被写体SUBを追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良い。
[First application example]
A first application example will be described. In step S14, both the specified position before correction and the specified position after correction may be displayed. For example, when the positions 341 and 342 in FIG. 10A are designated positions before and after correction, the positions 341 and 342 may be superimposed on the latest frame image and displayed together with the latest frame image. In a state where such a display is made, the user can select one of the positions 341 and 342. If the position 341 is selected, the subject SUB 3 corresponding to the designated position before correction may be set as the tracking target, and the processing in step S17 and subsequent steps may be executed. If the position 342 is selected, the correction is performed. After the subject SUB 1 corresponding to the designated position is set as the tracking target, step S17 and subsequent processing may be executed.

これと類似するが、ステップS14において、補正前の指定位置における被写体の被写体領域及び補正後の指定位置における被写体の被写体領域の双方を表示するようにしても良い。例えば、図10(a)の位置341及び342が夫々補正前及び補正後の指定位置である場合、最新のフレーム画像と共に被写体SUBの輪郭及び被写体SUBの輪郭を最新のフレーム画像に重畳して表示しても良い。このような表示を成している状態において、ユーザに被写体SUB及びSUBの一方を選択させ、被写体SUBが選択されたならば被写体SUBを追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良く、被写体SUBが選択されたならば被写体SUBを追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良い。 Although similar to this, in step S14, both the subject area of the subject at the designated position before correction and the subject area of the subject at the designated position after correction may be displayed. For example, when the positions 341 and 342 in FIG. 10A are designated positions before and after correction, the contour of the subject SUB 3 and the contour of the subject SUB 1 are superimposed on the latest frame image together with the latest frame image. May be displayed. In a state in which form such a display, the user to select one of the subject SUB 3 and SUB 1, step S17 and it in terms of setting the subject SUB 3 to tracking target if the subject SUB 3 is selected may be executed subsequent processing may be executed steps S17 and subsequent processing in terms of setting the subject SUB 1 if the subject SUB 1 has been selected in the tracking target.

一般に、近景側にユーザ(撮影者)の注目被写体が存在する可能性が高いが、場合によっては、遠景側にユーザの注目被写体が存在することもある。これを考慮し、上記のような選択操作を可能としておけば、指定位置補正の妥当性確認(ユーザによる確認)が可能となり、ユーザの意図どおりに追尾対象を設定することが可能となる。   In general, there is a high possibility that the subject of interest of the user (photographer) is present on the near view side, but in some cases, the subject of interest of the user is present on the far view side. Considering this, if the above selection operation is made possible, the validity of the specified position correction can be confirmed (confirmed by the user), and the tracking target can be set as intended by the user.

[第2応用例]
第2応用例を説明する。追尾処理の実行中、フレーム画像列を動画像として表示しつつ、追尾領域を示す枠なども表示するようにしても良い。追尾領域を示す枠などの表示を、追尾領域表示と呼ぶ。追尾領域表示によって、ユーザは、フレーム画像列が表示される表示画面51上において追尾対象及び追尾領域を確認することができる。尚、追尾処理の実行開始から一定時間が経過するまでの期間を追尾対象再指定期間と捉え、追尾対象再指定期間中だけ追尾領域表示を成すようにしても良い。この際、追尾対象再指定期間中だけ、上述の追尾対象再指定操作(図7参照)を受け付けるようにしても良い。追尾対象を指定しなおしたい場合、ユーザはタッチパネル操作等により追尾対象再指定操作を成すことができる。
[Second application example]
A second application example will be described. During the execution of the tracking process, a frame indicating the tracking area may be displayed while displaying the frame image sequence as a moving image. A display such as a frame indicating the tracking area is referred to as a tracking area display. With the tracking area display, the user can confirm the tracking target and the tracking area on the display screen 51 on which the frame image sequence is displayed. It should be noted that the period from when the tracking process starts until a certain time elapses may be regarded as the tracking target redesignation period, and the tracking area display may be displayed only during the tracking target redesignation period. At this time, the above-described tracking target redesignation operation (see FIG. 7) may be accepted only during the tracking target redesignation period. When it is desired to respecify the tracking target, the user can perform a tracking target redesignation operation by a touch panel operation or the like.

[第3応用例]
第3応用例を説明する。図7のフローチャートを図12のフローチャートへと変更するようにしても良い。即ち、ステップS13における補正処理の完了後、ステップS14及びS15の処理を行うことなく、直ちにステップS13からステップS16へ移行してステップS16及びそれ以降の処理を実行するようにしても良い。この場合、補正後の指定位置に対応する被写体を追尾対象に設定しても良いかの確認機会がユーザに与えられないため、追尾対象の再指定を可能とするべく、上記第2応用例も実施すると良い。
[Third application example]
A third application example will be described. The flowchart of FIG. 7 may be changed to the flowchart of FIG. That is, after completion of the correction process in step S13, the process may proceed immediately from step S13 to step S16 without executing the processes in steps S14 and S15, and the processes in step S16 and subsequent steps may be executed. In this case, since the user is not given an opportunity to confirm whether or not the subject corresponding to the corrected designated position may be set as the tracking target, the second application example also enables the re-designation of the tracking target. It is good to carry out.

[第4応用例]
第4応用例を説明する。ステップS15のような追尾開始指示操作の有無確認を経てから追尾処理を開始する場合、追尾開始指示操作が成されるまでの間に、追尾対象となるべき注目被写体が大きく移動してしまうことがある。このような大きな移動が発生すると、ステップS16及びS17の処理実行時に、注目被写体が補正後の指定位置に存在しないといったことも発生しうる。これを考慮し、以下のような処理を行うようにしても良い。
[Fourth application example]
A fourth application example will be described. When the tracking process is started after confirming the presence / absence of the tracking start instruction operation as in step S15, the target subject to be tracked may greatly move before the tracking start instruction operation is performed. is there. When such a large movement occurs, it may occur that the subject of interest does not exist at the specified position after correction when the processes of steps S16 and S17 are executed. Considering this, the following processing may be performed.

ステップS13にて指定位置の補正を行った後、補正前の指定位置における第1被写体及び補正後の指定位置における第2被写体の夫々を暫定的な追尾対象(換言すれば追尾対象候補)と捉えて、追尾開始指示操作の有無に関係なく直ちに、第1被写体に対する追尾処理及び第2被写体に対する追尾処理を個別に実行開始する。そして、第1及び第2被写体の夫々に対して上記の追尾領域表示を行い、この状態で、第1及び第2被写体のどちらか一方を選択する、ユーザの選択操作を受け付ける。この選択操作によって第1被写体が選択された場合には、第1被写体を真の追尾対象に設定した上でステップS17及びそれ以降の処理を実行し、この選択操作によって第2被写体が選択された場合には、第2被写体を真の追尾対象に設定した上でステップS17及びそれ以降の処理を実行すれば良い。   After the specified position is corrected in step S13, each of the first subject at the specified position before correction and the second subject at the specified position after correction is regarded as a provisional tracking target (in other words, a tracking target candidate). Thus, the tracking process for the first subject and the tracking process for the second subject are immediately started separately regardless of whether or not the tracking start instruction operation is performed. Then, the tracking area display is performed for each of the first and second subjects, and in this state, a user's selection operation for selecting one of the first and second subjects is accepted. When the first subject is selected by this selection operation, the first subject is set as a true tracking target, and then step S17 and subsequent processing are executed, and the second subject is selected by this selection operation. In this case, the second subject may be set as a true tracking target, and then step S17 and subsequent processing may be executed.

[第5応用例]
指定位置入力操作の例を、第5応用例として説明する。
ステップS11における指定位置入力操作は、例えば、表示画面51上の一点を指にて触れる操作であり、この場合、その一点の位置そのものが補正前の指定位置となる。
或いは例えば、ステップS11における指定位置入力操作は、指と表示画面51との接触状態を保ったままで指にて表示画面51上の特定領域を囲む操作であっても良い。この場合、その特定領域内の位置(例えば特定領域の中心位置又は重心位置)が補正前の指定位置となる。
或いは例えば、フレーム画像を表示している表示画面51の全体表示領域を水平及び垂直方向に分割して複数の分割表示領域を設定し、何れかの分割表示領域をタッチパネル操作でユーザに選択させることでステップS11の指定位置を決定するようにしても良い。この際、図13に示す如く、隣接する分割表示領域間の境界線をフレーム画像に重畳して表示すると良い。この場合において、或る分割表示領域内の点を指にて触れたならば、タッチ位置を内包する分割表示領域内の位置(例えば、その分割表示領域の中心位置又は重心位置)が補正前の指定位置となる。尚、図13において、ドットで満たされた領域は表示部15の筐体部分を表している(後述の図17においても同様)。
[Fifth application example]
An example of the designated position input operation will be described as a fifth application example.
The designated position input operation in step S11 is, for example, an operation of touching one point on the display screen 51 with a finger, and in this case, the position of the one point itself becomes the designated position before correction.
Alternatively, for example, the designated position input operation in step S11 may be an operation of surrounding a specific area on the display screen 51 with the finger while maintaining a contact state between the finger and the display screen 51. In this case, the position in the specific area (for example, the center position or the gravity center position of the specific area) becomes the designated position before correction.
Alternatively, for example, the entire display area of the display screen 51 displaying the frame image is divided in the horizontal and vertical directions to set a plurality of divided display areas, and the user can select any one of the divided display areas by operating the touch panel. Thus, the designated position in step S11 may be determined. At this time, as shown in FIG. 13, it is preferable to display the boundary line between adjacent divided display areas so as to be superimposed on the frame image. In this case, if a point in a certain divided display area is touched with a finger, the position in the divided display area including the touch position (for example, the center position or the center of gravity position of the divided display area) is not corrected. It becomes the specified position. In FIG. 13, a region filled with dots represents a housing portion of the display unit 15 (the same applies to FIG. 17 described later).

[第6応用例]
第6応用例を説明する。初期の画像特徴量が抽出されるべき初期追尾領域を、被写体距離情報を用いて決定するようにしても良い。例えば、図14(a)の画像400が初期フレーム画像であって、被写体SUBが追尾対象に設定された場合を考える(即ち例えば、補正後の指定位置が被写体SUB上の位置であった場合を考える)。初期フレーム画像400は、森を背景にした状態で人物としての被写体SUBを撮影した画像である。図14(b)の画像410は、初期フレーム画像400に対応する距離画像(例えば、初期フレーム画像400の撮影直前、撮影時又は撮影直後の被写体距離検出処理の結果に基づく距離画像)である。
[Sixth application example]
A sixth application example will be described. An initial tracking area from which an initial image feature amount should be extracted may be determined using subject distance information. For example, consider a case in which the image 400 in FIG. 14A is an initial frame image and the subject SUB 1 is set as a tracking target (ie, the corrected specified position is a position on the subject SUB 1 ). Think about the case). The initial frame image 400 is an image obtained by photographing the subject SUB 1 as a person with the forest in the background. An image 410 in FIG. 14B is a distance image corresponding to the initial frame image 400 (for example, a distance image based on the result of subject distance detection processing immediately before, during, or immediately after the initial frame image 400).

このような場合において、例えば、初期追尾領域を一定の大きさを持つ矩形領域401(図14(c)参照)としたならば、初期追尾領域内に追尾対象以外の被写体(本例において、木や地面)の画像データが含まれる場合がある。初期追尾領域内に追尾対象以外の被写体の画像データが含まれると、初期登録情報の画像特徴量に、追尾対象以外の被写体の画像特徴量が含まれるようになり、追尾精度が劣化する。この劣化は、特に、追尾対象と背景が色などにおいて似通っている場合に顕著となる。これを回避すべく、被写体距離情報としての距離画像410を用いて、追尾対象以外の被写体の画像データが初期追尾領域から除外されるように(換言すれば、追尾対象以外の被写体が初期追尾領域に入らないように)、初期追尾領域の位置、大きさ及び形状を設定すると良い。これにより、追尾精度の向上が図られる。   In such a case, for example, if the initial tracking area is a rectangular area 401 (see FIG. 14C) having a certain size, a subject other than the tracking target in the initial tracking area (in this example, a tree) Or ground) image data may be included. If image data of a subject other than the tracking target is included in the initial tracking area, the image feature amount of the subject other than the tracking target is included in the image feature amount of the initial registration information, and the tracking accuracy deteriorates. This deterioration is particularly noticeable when the tracking target and the background are similar in color or the like. In order to avoid this, the distance image 410 as the subject distance information is used so that the image data of the subject other than the tracking target is excluded from the initial tracking region (in other words, the subject other than the tracking target is excluded from the initial tracking region). It is better to set the position, size and shape of the initial tracking area. As a result, the tracking accuracy can be improved.

具体的には例えば、距離画像410を用いた領域分割処理によって、初期フレーム画像400の全体画像領域を被写体SUBの被写体領域と被写体SUBの被写体領域以外の画像領域とに切り分け、被写体SUBの被写体領域の全部又は一部を含む領域であって且つ被写体SUBの被写体領域以外の画像領域を含まない領域を初期追尾領域として設定すると良い。図14(d)の破線402で囲まれた領域は、このような初期追尾領域の例である。 Specifically, for example, by the region dividing processing using the distance image 410, cut the entire image area of the initial frame image 400 in the image region other than the subject region in the subject area and the subject SUB 1 subject SUB 1, the subject SUB 1 An area including all or a part of the subject area and not including the image area other than the subject area of the subject SUB 1 may be set as the initial tracking area. An area surrounded by a broken line 402 in FIG. 14D is an example of such an initial tracking area.

[第7応用例]
第7応用例を説明する。追尾結果は様々な形態で利用可能である。例えば、追尾領域内の被写体にピントが合い続けるようにフォーカスレンズ31の位置を調整したり、追尾領域内の被写体に対する露出が最適化されるようにISO感度を調整したり、追尾領域内の被写体のホワイトバランスが最適化されるようにホワイトバランス調整を行ったりすることができる。
[Seventh application example]
A seventh application example will be described. The tracking result can be used in various forms. For example, the position of the focus lens 31 is adjusted so that the subject in the tracking area continues to be focused, the ISO sensitivity is adjusted so that the exposure to the subject in the tracking area is optimized, or the subject in the tracking area is adjusted. The white balance can be adjusted so that the white balance is optimized.

また、追尾領域を内包する切り出し領域を各フレーム画像に設定して、切り出し領域内の画像(以下、切り出し画像という)を各フレーム画像から抽出し、切り出し画像列から成る動画像を記録媒体16に保存しておくこともできる。切り出し領域は追尾領域そのものであっても良い。切り出し画像列から成る動画像を高解像度化してから記録媒体16に保存するようにしても良い。高解像度化の方法として、例えば、特開2009−147727号公報に記載の方法を用いることができる。勿論、各フレーム画像の全体画像データを記録媒体16に保存しておくことで、フレーム画像列そのものを動画像として記録することも可能である。   In addition, a cutout area including the tracking area is set in each frame image, an image in the cutout area (hereinafter referred to as a cutout image) is extracted from each frame image, and a moving image including the cutout image sequence is stored in the recording medium 16. You can also save it. The cutout area may be the tracking area itself. The moving image composed of the cut-out image sequence may be stored in the recording medium 16 after the resolution is increased. As a method for increasing the resolution, for example, the method described in JP-A-2009-147727 can be used. Of course, by storing the entire image data of each frame image in the recording medium 16, the frame image sequence itself can be recorded as a moving image.

<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態は第1実施形態を基礎とした実施形態であり、第2実施形態において特に述べない事項に関しては、矛盾なき限り、第1実施形態の記載が第2実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second embodiment is an embodiment based on the first embodiment. Regarding matters not specifically described in the second embodiment, the description of the first embodiment is applied to the second embodiment as long as there is no contradiction. .

図15を参照して、第2実施形態の追尾モードにおける動作を説明する。図15は、追尾モードにおける撮像装置1の動作の流れを表すフローチャートである。撮像装置1の動作モードが追尾モードに設定されると、まず、ステップS51において、距離情報生成部61は、被写体距離検出処理を実行することで被写体距離情報を生成する。続くステップS52において、追尾対象設定部63は、ステップS51の被写体距離情報に基づき追尾対象候補を設定する。追尾対象候補は、後述のステップS55にて設定されるべき追尾対象の候補である。   The operation in the tracking mode of the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing the flow of the operation of the imaging apparatus 1 in the tracking mode. When the operation mode of the imaging apparatus 1 is set to the tracking mode, first, in step S51, the distance information generation unit 61 generates subject distance information by executing subject distance detection processing. In subsequent step S52, the tracking target setting unit 63 sets a tracking target candidate based on the subject distance information in step S51. The tracking target candidate is a tracking target candidate to be set in step S55 described later.

今、追尾対象候補の設定時におけるフレーム画像が、図16(a)の画像500であった場合を考える。フレーム画像500には、比較的小さい被写体距離dを有する被写体SUB及び比較的大きな被写体距離dを有する被写体SUBの画像データが存在している。また、説明の簡略化上、被写体SUB及びSUBの被写体領域以外には、被写体距離がd及びdよりも十分大きい背景被写体が存在しているものとする。図16(b)の画像510は、ステップS51の被写体距離情報に基づく、フレーム画像500に対応する距離画像である。ステップS52では、例えば、被写体距離が所定距離よりも小さい各被写体が追尾対象候補に設定される。今、被写体距離d及びdが共に所定距離よりも小さい場合を考える。そうすると、被写体SUB及びSUBの夫々が追尾対象候補に設定される。尚、追尾対象候補が1つしか設定されなかった場合には、後述のステップS53及びS54の処理実行を割愛して、その1つの追尾対象候補を追尾対象に設定し、ステップS17及びそれ以降の処理を実行すれば良い。 Consider a case where the frame image at the time of setting the tracking target candidate is the image 500 in FIG. The frame image 500, the image data of the object SUB 2 having subject SUB 1 and a relatively large object distance d 2 has a relatively small object distance d 1 is present. For the sake of simplification, it is assumed that there is a background subject whose subject distance is sufficiently larger than d 1 and d 2 other than the subject areas of the subjects SUB 1 and SUB 2 . An image 510 in FIG. 16B is a distance image corresponding to the frame image 500 based on the subject distance information in step S51. In step S52, for example, each subject whose subject distance is smaller than a predetermined distance is set as a tracking target candidate. Consider a case where the subject distances d 1 and d 2 are both smaller than a predetermined distance. Then, each of the subjects SUB 1 and SUB 2 is set as a tracking target candidate. When only one tracking target candidate is set, the processing execution of steps S53 and S54 described later is omitted, and the one tracking target candidate is set as the tracking target, and step S17 and the subsequent steps are set. What is necessary is just to perform a process.

ステップS52に続くステップS53において、追尾対象設定部63は、ステップS51にて得られた被写体距離情報に基づき各追尾対象候補に対するタグを生成し、表示制御部64と協働して各タグをフレーム画像と共に表示画面51に表示させる。ステップS53における表示画面51の表示内容例を、図17に示す。図17の表示画面51には、フレーム画像500と共に、被写体SUBに対応するタグ521及び被写体SUBに対応するタグ522が表示されている。タグ521は、被写体SUBが追尾対象候補の1つであることをユーザに知らせるための指標であり、タグ522は、被写体SUBが追尾対象候補の1つであることをユーザに知らせるための指標である。 In step S53 following step S52, the tracking target setting unit 63 generates a tag for each tracking target candidate based on the subject distance information obtained in step S51, and cooperates with the display control unit 64 to frame each tag. The image is displayed on the display screen 51 together with the image. An example of display contents on the display screen 51 in step S53 is shown in FIG. In the display screen 51 of FIG. 17, a tag 521 corresponding to the subject SUB 1 and a tag 522 corresponding to the subject SUB 2 are displayed together with the frame image 500. The tag 521 is an index for informing the user that the subject SUB 1 is one of the tracking target candidates, and the tag 522 is for informing the user that the subject SUB 2 is one of the tracking target candidates. It is an indicator.

ここで、表示画面51上における各タグの大きさは、ステップS51にて得られた被写体距離情報に基づき、対応する追尾対象候補の被写体距離が小さいほど大きくなるように決定される。タグ521に対応するSUBの被写体距離dはタグ522に対応するSUBの被写体距離dよりも小さいため、表示画面51上において、タグ521の大きさはタグ522の大きさよりも大きくなる。図17の例では、タグ521及び522の形状が相似となっているが、それらの形状を互いに異ならせても構わない。また、タグと追尾対象候補との対応関係が分かるように、表示画面51上において、各タグは対応する追尾対象候補の近傍に配置される。この際、タグの表示によって主要な被写体が表示画面51上で確認しづらくなることを防止すべく、背景被写体の表示領域又は被写体距離が所定距離以上の被写体の表示領域に各タグを表示すると良い。 Here, the size of each tag on the display screen 51 is determined so as to increase as the subject distance of the corresponding tracking target candidate decreases based on the subject distance information obtained in step S51. Since the subject distance d 1 of SUB 1 corresponding to the tag 521 is smaller than the subject distance d 2 of SUB 2 corresponding to the tag 522, the size of the tag 521 is larger than the size of the tag 522 on the display screen 51. . In the example of FIG. 17, the shapes of the tags 521 and 522 are similar, but the shapes may be different from each other. Further, each tag is arranged in the vicinity of the corresponding tracking target candidate on the display screen 51 so that the correspondence between the tag and the tracking target candidate can be understood. At this time, in order to prevent the main subject from being difficult to confirm on the display screen 51 due to the display of the tag, each tag may be displayed in the display region of the background subject or the subject display region where the subject distance is a predetermined distance or more. .

各タグの表示中、ステップS54において、タッチパネル(タッチ検出体52)によりユーザによる追尾対象選択操作の入力を受け付け、その入力が成された場合に、ステップS55及びそれ以降の処理を実行する。ステップS54における追尾対象選択操作は、表示画面51上における何れかのタグを指にて触れることで実現される。何れかのタグを指定するためのタッチ位置を指定位置と呼んだならば、ステップS54における追尾対象選択操作は、ユーザによる指定位置入力操作であると言え、図3のタッチ検出部52が、その指定位置入力操作を受け付ける操作受付部として機能する。基本的に表示画面51上にはフレーム画像列に基づく表示用画像列が動画像として表示されているが、追尾対象選択操作を受け付けている期間中においては、その操作を行いやすくするために、表示画面51上における動画像の再生を一時的に停止するようにしても良い。   During the display of each tag, in step S54, the input of the tracking target selection operation by the user is accepted by the touch panel (touch detection body 52), and when the input is made, step S55 and subsequent processing are executed. The tracking target selection operation in step S54 is realized by touching any tag on the display screen 51 with a finger. If the touch position for designating any tag is called the designated position, it can be said that the tracking target selection operation in step S54 is a designated position input operation by the user, and the touch detection unit 52 in FIG. It functions as an operation reception unit that receives a specified position input operation. Basically, the display image sequence based on the frame image sequence is displayed as a moving image on the display screen 51. During the period when the tracking target selection operation is accepted, the operation is facilitated. You may make it stop reproduction | regeneration of the moving image on the display screen 51 temporarily.

ステップS55では、追尾対象選択操作の内容に従い、追尾対象設定部63が複数の追尾対象候補の中から追尾対象を選択する。即ち、追尾対象選択操作による指定位置と各タグの表示位置との位置関係に基づき追尾対象を設定する。より具体的には、追尾対象選択操作による指定位置がタグ521の表示されている位置であるならば、タグ521に対応する追尾対象候補(即ち被写体SUB)を追尾対象として設定し、追尾対象選択操作による指定位置がタグ522の表示されている位置であるならば、タグ522に対応する追尾対象候補(即ち被写体SUB)を追尾対象として設定する。追尾対象の設定後、追尾対象の初期登録処理を経て追尾処理が実行される(ステップS17〜S20)。追尾対象の設定後に実行される処理は、第1実施形態で述べたそれと同様である。 In step S55, the tracking target setting unit 63 selects a tracking target from a plurality of tracking target candidates according to the content of the tracking target selection operation. That is, the tracking target is set based on the positional relationship between the designated position by the tracking target selection operation and the display position of each tag. More specifically, if the specified position by the tracking target selection operation is the position where the tag 521 is displayed, the tracking target candidate corresponding to the tag 521 (that is, the subject SUB 1 ) is set as the tracking target, and the tracking target is set. If the designated position by the selection operation is the position where the tag 522 is displayed, the tracking target candidate (that is, the subject SUB 2 ) corresponding to the tag 522 is set as the tracking target. After setting the tracking target, the tracking process is executed through the initial registration process of the tracking target (steps S17 to S20). The processing executed after setting the tracking target is the same as that described in the first embodiment.

尚、上述の例では、追尾対象候補の個数が2であるときの動作を説明したが、その個数が3であるときも同様である。また、追尾対象候補となる被写体の種類を特定の種類(例えば、人物)に限定するようにしても良い。   In the above example, the operation when the number of tracking target candidates is 2 has been described, but the same applies when the number of tracking target candidates is 3. Further, the type of subject that is a tracking target candidate may be limited to a specific type (for example, a person).

本実施形態によれば、追尾対象として設定される可能性がより高いと思われる、被写体距離が小さな被写体に対し、表示サイズの大きなタグが生成及び表示され、対応するタグをタッチすれば対応する被写体が追尾対象に設定される。このため、ユーザは、所望の被写体を容易に且つ正確に追尾対象に指定しやすくなる。   According to the present embodiment, a tag with a large display size is generated and displayed for a subject with a short subject distance, which is likely to be set as a tracking target, and a corresponding tag can be touched by touching it. The subject is set as a tracking target. For this reason, the user can easily and accurately designate a desired subject as a tracking target.

矛盾なき限り、第1実施形態で述べた各応用例を本実施形態にも適用することができる。特に例えば、第2実施形態に対する上記第4応用例の適用は有益である。即ち、以下のような動作を行うようにしても良い。ステップS51〜S53の処理後、追尾対象選択操作の有無に関係なく直ちに、設定された複数の追尾対象候補の夫々を暫定的な追尾対象と捉えて、各追尾対象候補に対する追尾処理を個別に実行開始する。この追尾処理の実行過程において、表示画面51上で各追尾対象候補の位置が変化したならば、それに追従するように、各追尾対象候補に対応するタグの表示位置も変化させる。この状態で、ステップS54における追尾対象選択操作を受け付けるようにすると良い。   As long as there is no contradiction, each application example described in the first embodiment can be applied to this embodiment. In particular, for example, the application of the fourth application example to the second embodiment is beneficial. That is, the following operation may be performed. Immediately after the processing of steps S51 to S53, regardless of whether or not a tracking target selection operation is performed, each of the set plurality of tracking target candidates is regarded as a provisional tracking target, and tracking processing for each tracking target candidate is executed individually. Start. If the position of each tracking target candidate is changed on the display screen 51 during the execution of this tracking process, the display position of the tag corresponding to each tracking target candidate is also changed so as to follow it. In this state, the tracking target selection operation in step S54 may be accepted.

<<変形等>>
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施の形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施の形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
<< Deformation, etc. >>
The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an example of the embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values.

図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。   The imaging apparatus 1 in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device (for example, a computer).

1 撮像装置
11 撮像部
15 表示部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
51 表示画面
52 タッチ検出部
61 被写体距離情報生成部
62 追尾処理部
63 追尾対象設定部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 15 Display part 30 Zoom lens 31 Focus lens 32 Aperture 33 Imaging element 51 Display screen 52 Touch detection part 61 Subject distance information generation part 62 Tracking process part 63 Tracking object setting part

Claims (6)

被写体を順次撮影することで得られる画像列を表す信号を出力する撮像素子と、
前記被写体及び前記撮像素子間の距離情報を取得する距離情報取得部と、
前記撮像素子の出力に基づく表示用画像を表示する表示画面と、
前記表示画面上における指定位置の入力操作を受け付ける操作受付部と、
前記距離情報と前記指定位置に基づいて特定の被写体を追尾対象に設定する追尾対象設定部を有し、前記画像列の画像データに基づき前記画像列上で前記追尾対象を追尾する追尾処理部と、を備えた
ことを特徴とする撮像装置。
An image sensor that outputs a signal representing an image sequence obtained by sequentially photographing a subject;
A distance information acquisition unit that acquires distance information between the subject and the image sensor;
A display screen for displaying an image for display based on the output of the image sensor;
An operation accepting unit for accepting an input operation at a designated position on the display screen;
A tracking target setting unit that sets a specific subject as a tracking target based on the distance information and the specified position, and a tracking processing unit that tracks the tracking target on the image sequence based on image data of the image sequence; An imaging apparatus comprising:
前記追尾対象設定部は、前記距離情報を用いて前記指定位置を補正し、補正後の指定位置における被写体を前記追尾対象に設定する
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the tracking target setting unit corrects the specified position using the distance information, and sets a subject at the corrected specified position as the tracking target.
前記表示画面は、前記表示用画像上に複数の被写体が現れている場合において前記入力操作を受け付ける際、前記複数の被写体に対応する複数の指標を前記表示用画像とともに表示し、
前記追尾対象設定部は、前記距離情報に基づいて前記複数の指標の大きさを決定し、前記表示画面上における前記指定位置と各指標との位置関係に基づき前記追尾対象を設定する
ことを特徴とする請求項1に記載の撮像装置。
The display screen displays a plurality of indices corresponding to the plurality of subjects together with the display image when receiving the input operation when a plurality of subjects appear on the display image,
The tracking target setting unit determines the size of the plurality of indices based on the distance information, and sets the tracking target based on a positional relationship between the designated position and each index on the display screen. The imaging apparatus according to claim 1.
前記複数の被写体は第1〜第nの被写体から成るともに、前記複数の指標は第1〜第nの被写体に対応する第1〜第nの指標から成り(nは2以上の整数)、
前記追尾対象設定部は、前記指定位置が第iの指標に対応する位置であるとき(iはn以下の自然数)、第iの指標に対応する第iの被写体を前記追尾対象に設定する
ことを特徴とする請求項3に記載の撮像装置。
The plurality of subjects include first to nth subjects, and the plurality of indicators include first to nth indicators corresponding to the first to nth subjects (n is an integer of 2 or more),
The tracking target setting unit sets the i-th subject corresponding to the i-th index as the tracking target when the designated position is a position corresponding to the i-th index (i is a natural number equal to or less than n). The imaging apparatus according to claim 3.
前記画像列は、基準画像、及び、前記基準画像よりも後の撮影によって得られる複数の非基準画像を含み、
前記追尾対象設定部は、前記距離情報を用いて、前記追尾対象の画像データを内包する初期追尾領域を前記基準画像に設定し、
前記追尾処理部は、前記基準画像における前記初期追尾領域内の画像データと各非基準画像の画像データとを用いて各非基準画像における前記追尾対象の位置を検出することにより、前記画像列上で前記追尾対象を追尾する
ことを特徴とする請求項1〜請求項4の何れかに記載の撮像装置。
The image sequence includes a reference image and a plurality of non-reference images obtained by photographing after the reference image,
The tracking target setting unit uses the distance information to set an initial tracking area containing the tracking target image data in the reference image,
The tracking processing unit detects the position of the tracking target in each non-reference image using the image data in the initial tracking area in the reference image and the image data of each non-reference image. The imaging apparatus according to claim 1, wherein the tracking target is tracked.
前記追尾対象設定部は、前記初期追尾領域から前記追尾対象以外の被写体の画像データが除外されるように、前記距離情報を用いて前記初期追尾領域を設定する
ことを特徴とする請求項5に記載の撮像装置。
The tracking target setting unit sets the initial tracking area using the distance information so that image data of a subject other than the tracking target is excluded from the initial tracking area. The imaging device described.
JP2010148042A 2010-06-29 2010-06-29 Imaging device Pending JP2012015642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010148042A JP2012015642A (en) 2010-06-29 2010-06-29 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010148042A JP2012015642A (en) 2010-06-29 2010-06-29 Imaging device

Publications (1)

Publication Number Publication Date
JP2012015642A true JP2012015642A (en) 2012-01-19

Family

ID=45601593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010148042A Pending JP2012015642A (en) 2010-06-29 2010-06-29 Imaging device

Country Status (1)

Country Link
JP (1) JP2012015642A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
WO2017090437A1 (en) 2015-11-24 2017-06-01 ソニー株式会社 Camera module and electronic device
JP2017228082A (en) * 2016-06-22 2017-12-28 キヤノン株式会社 Tracking device, tracking method, and program
JP2017229061A (en) * 2016-06-21 2017-12-28 キヤノン株式会社 Image processing apparatus, control method therefor, and imaging apparatus
WO2018139255A1 (en) 2017-01-26 2018-08-02 Sony Semiconductor Solutions Corporation Af module, camera module, and electronic apparatus
WO2019044539A1 (en) 2017-08-31 2019-03-07 Sony Semiconductor Solutions Corporation Laminated lens structure, solid-state imaging element, and electronic apparatus
WO2019065899A1 (en) * 2017-09-28 2019-04-04 パナソニックIpマネジメント株式会社 Information processing device
JP2020077951A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device
JP2020077952A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
WO2017090437A1 (en) 2015-11-24 2017-06-01 ソニー株式会社 Camera module and electronic device
JP2017229061A (en) * 2016-06-21 2017-12-28 キヤノン株式会社 Image processing apparatus, control method therefor, and imaging apparatus
JP2017228082A (en) * 2016-06-22 2017-12-28 キヤノン株式会社 Tracking device, tracking method, and program
WO2018139255A1 (en) 2017-01-26 2018-08-02 Sony Semiconductor Solutions Corporation Af module, camera module, and electronic apparatus
WO2019044539A1 (en) 2017-08-31 2019-03-07 Sony Semiconductor Solutions Corporation Laminated lens structure, solid-state imaging element, and electronic apparatus
WO2019065899A1 (en) * 2017-09-28 2019-04-04 パナソニックIpマネジメント株式会社 Information processing device
JPWO2019065899A1 (en) * 2017-09-28 2020-11-26 パナソニックIpマネジメント株式会社 Information processing device
JP2020077951A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device
JP2020077952A (en) * 2018-11-07 2020-05-21 キヤノン株式会社 Image processing device
JP7233886B2 (en) 2018-11-07 2023-03-07 キヤノン株式会社 Image processing device
JP7289630B2 (en) 2018-11-07 2023-06-12 キヤノン株式会社 Image processing device

Similar Documents

Publication Publication Date Title
JP2012015642A (en) Imaging device
JP6271990B2 (en) Image processing apparatus and image processing method
US10242454B2 (en) System for depth data filtering based on amplitude energy values
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
US20120147150A1 (en) Electronic equipment
US20120105590A1 (en) Electronic equipment
CN106101522A (en) Use the method and apparatus that non-optical field imaging equipment obtains light field data
US20120300115A1 (en) Image sensing device
JP2010056692A (en) Imaging apparatus and its control method
BR102012020775B1 (en) image capture device, image processing device and image processing method for generating auxiliary information for the captured image
JP2013123123A (en) Stereo image generation device, stereo image generation method and computer program for stereo image generation
US20150178595A1 (en) Image processing apparatus, imaging apparatus, image processing method and program
CN102811312A (en) Image pickup apparatus and control method therefor
JP5885395B2 (en) Image capturing apparatus and image data recording method
JP5857712B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP4732303B2 (en) Imaging device
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP6818449B2 (en) Focus detector
JP2013213903A (en) Imaging device
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2014116789A (en) Photographing device, control method therefor, and program
JP6818814B2 (en) Focus detector and its control method
JP2011182341A (en) Imaging device and method of controlling imaging device
US11754833B2 (en) Image processing apparatus and control method for image processing apparatus
JP2018042092A (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130607