JP2012015642A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2012015642A JP2012015642A JP2010148042A JP2010148042A JP2012015642A JP 2012015642 A JP2012015642 A JP 2012015642A JP 2010148042 A JP2010148042 A JP 2010148042A JP 2010148042 A JP2010148042 A JP 2010148042A JP 2012015642 A JP2012015642 A JP 2012015642A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- tracking target
- tracking
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 71
- 238000012545 processing Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 description 73
- 230000008569 process Effects 0.000 description 46
- 238000012937 correction Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 230000003321 amplification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラ等の撮像装置に関し、特に被写体を追尾する機能を備えた撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera, and more particularly to an imaging apparatus having a function of tracking a subject.
画像解析を用いて動画像上で追尾対象を追尾する方法が様々に提案されている。追尾処理の実現方法として、追尾パターンの設定後に画像内におけるパターンの位置を探索するパターンマッチング法(例えば下記特許文献1参照)や、色などの画像特徴を追跡する方法がある(例えば下記特許文献2参照)。また、追尾パターンとしてのテンプレート画像の設定後、テンプレートマッチングによる類似度を算出する際、被写体距離の測定結果をも利用して類似度を算出する方法が提案されている(例えば下記特許文献1参照)。 Various methods for tracking a tracking target on a moving image using image analysis have been proposed. As a method for realizing the tracking process, there is a pattern matching method (for example, refer to Patent Document 1 below) for searching for the position of a pattern in an image after setting a tracking pattern, or a method for tracking an image feature such as a color (for example, the following Patent Document). 2). In addition, after calculating a template image as a tracking pattern, a method of calculating similarity by using a subject distance measurement result when calculating similarity by template matching has been proposed (for example, see Patent Document 1 below). ).
ところで、デジタルカメラの撮影範囲内には、ユーザの注目被写体(例えば、ユーザの子供)の他に、様々な被写体(不特定人物、動物、植物など)が含まれていることも多い。従って、ユーザの注目被写体を追尾対象として動画像上で追尾するためには、まず、追尾対象となるべき注目被写体を指定する操作が必要となる。この操作を、タッチパネルを用いて実現する方法も提案されている(例えば下記特許文献3参照)。この方法では、注目人物の顔領域をユーザがモニタ上でタッチすることで、その注目人物が追尾対象に設定される。 Incidentally, the shooting range of the digital camera often includes various subjects (unspecified persons, animals, plants, etc.) in addition to the subject of interest of the user (for example, the user's child). Therefore, in order to track a user's target subject as a tracking target on a moving image, first, an operation for designating the target subject to be the tracking target is required. A method for realizing this operation using a touch panel has also been proposed (see, for example, Patent Document 3 below). In this method, when the user touches the face area of the attention person on the monitor, the attention person is set as a tracking target.
この方法の実現時におけるモニタの様子を、図18(a)に示す。モニタの表示画面901にはデジタルカメラの撮影動画像が表示されており、表示される動画像上において人物911〜913が刻々と動いている。ユーザ(撮影者)の注目人物が人物911である場合、図18(b)に示す如く、人物911をタッチする操作を行うことで人物911が追尾対象に設定される。尚、図18(a)等において、ドットで満たされた領域はモニタの筐体部分を表している。
FIG. 18A shows the state of the monitor when this method is realized. On the
しかしながら、一般消費者向けに普及している小型デジタルカメラの表示画面901は、あまり大きなものではないため、人間の指の大きさとの比較において、表示画面901上の各被写体もあまり大きなものではない。特に、注目人物とデジタルカメラ間の実空間上距離が遠い場合や広画角で撮影している場合などにおいては、表示画面901上における注目人物の表示部分はかなり小さくなることがある。このため、タッチパネル操作により表示画面901上で正確に注目人物を選択することが難しい場合もある。また、実空間上における注目人物の移動に伴って表示画面51上においても注目人物は移動し、この移動が上記選択を更に難しくさせる。例えば、人物911を追尾対象として選択することを希望しているにも関らず、図18(c)に示す如く、誤って人物912の表示部分をタッチしてしまい、結果、人物912が追尾対象に設定されるといったことも生じえる。
However, since the
そこで本発明は、ユーザによる追尾対象の指定操作を支援する機能を持つ撮像装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus having a function of supporting a user to specify a tracking target.
本発明に係る撮像装置は、被写体を順次撮影することで得られる画像列を表す信号を出力する撮像素子と、前記被写体及び前記撮像素子間の距離情報を取得する距離情報取得部と、前記撮像素子の出力に基づく表示用画像を表示する表示画面と、前記表示画面上における指定位置の入力操作を受け付ける操作受付部と、前記距離情報と前記指定位置に基づいて特定の被写体を追尾対象に設定する追尾対象設定部を有し、前記画像列の画像データに基づき前記画像列上で前記追尾対象を追尾する追尾処理部と、を備えたことを特徴とする。 An imaging apparatus according to the present invention includes an imaging element that outputs a signal representing an image sequence obtained by sequentially photographing a subject, a distance information acquisition unit that acquires distance information between the subject and the imaging element, and the imaging A display screen that displays a display image based on the output of the element, an operation receiving unit that receives an input operation of a specified position on the display screen, and a specific subject is set as a tracking target based on the distance information and the specified position And a tracking processing unit that tracks the tracking target on the image sequence based on image data of the image sequence.
一般的に、ユーザの注目する被写体は、他の被写体と比べて、比較的短い被写体距離を有する。従って例えば、上記距離情報をユーザによる指定位置と共に参照すれば、仮に指定位置が注目被写体を正しく指し示していなかったとしても、ユーザの注目被写体を推測して該注目被写体を追尾対象に設定するといったことが可能となる。或いは例えば、上記距離情報を用いて、追尾対象として選択される可能性が高いと推測される被写体に対し、その被写体の指定を支援するような表示を成すといったことも可能となる。このように、上記構成の如く、距離情報と指定位置に基づいて追尾対象を設定するようにすれば、ユーザによる追尾対象の指定操作が支援され、正確に且つ容易に所望の被写体を追尾対象に設定することが可能となる。 In general, a subject that is noticed by the user has a relatively short subject distance compared to other subjects. Therefore, for example, if the distance information is referred to together with the designated position by the user, even if the designated position does not correctly indicate the subject of interest, the subject of interest of the user is estimated and the subject of interest is set as a tracking target. Is possible. Alternatively, for example, it is possible to display a subject that is likely to be selected as a tracking target by using the distance information so as to support the designation of the subject. As described above, if the tracking target is set based on the distance information and the specified position as described above, the user can support the tracking target specifying operation, and the desired subject can be accurately and easily set as the tracking target. It becomes possible to set.
具体的には例えば、前記追尾対象設定部は、前記距離情報を用いて前記指定位置を補正し、補正後の指定位置における被写体を前記追尾対象に設定する。 Specifically, for example, the tracking target setting unit corrects the specified position using the distance information, and sets the subject at the corrected specified position as the tracking target.
これにより、仮に指定位置が注目被写体を正しく指し示していなかったとしても、注目被写体を追尾対象に設定するといったことが可能となる。 As a result, even if the designated position does not correctly indicate the subject of interest, the subject of interest can be set as a tracking target.
或いは例えば、前記表示画面は、前記表示用画像上に複数の被写体が現れている場合において前記入力操作を受け付ける際、前記複数の被写体に対応する複数の指標を前記表示用画像とともに表示し、前記追尾対象設定部は、前記距離情報に基づいて前記複数の指標の大きさを決定し、前記表示画面上における前記指定位置と各指標との位置関係に基づき前記追尾対象を設定する。 Alternatively, for example, when the input operation is accepted when a plurality of subjects appear on the display image, the display screen displays a plurality of indices corresponding to the plurality of subjects together with the display image, The tracking target setting unit determines the size of the plurality of indices based on the distance information, and sets the tracking target based on a positional relationship between the designated position and each index on the display screen.
これにより、追尾対象として選択される可能性が高いと推測される、被写体距離が小さな被写体に対してほど、表示サイズの大きな指標を割り当てるといったことが可能となる。結果、ユーザは、注目被写体を追尾対象として選択指定しやすくなる。 This makes it possible to assign an indicator with a larger display size to a subject with a shorter subject distance, which is estimated to be highly likely to be selected as a tracking target. As a result, it becomes easier for the user to select and specify the target subject as the tracking target.
より具体的には例えば、前記複数の被写体は第1〜第nの被写体から成るともに、前記複数の指標は第1〜第nの被写体に対応する第1〜第nの指標から成り(nは2以上の整数)、前記追尾対象設定部は、前記指定位置が第iの指標に対応する位置であるとき(iはn以下の自然数)、第iの指標に対応する第iの被写体を前記追尾対象に設定する。 More specifically, for example, the plurality of subjects include first to nth subjects, and the plurality of indicators include first to nth indicators corresponding to the first to nth subjects (n is 2), the tracking target setting unit determines the i th subject corresponding to the i th index when the specified position is a position corresponding to the i th index (i is a natural number equal to or less than n). Set the tracking target.
また例えば、前記画像列は、基準画像、及び、前記基準画像よりも後の撮影によって得られる複数の非基準画像を含み、前記追尾対象設定部は、前記距離情報を用いて、前記追尾対象の画像データを内包する初期追尾領域を前記基準画像に設定し、前記追尾処理部は、前記基準画像における前記初期追尾領域内の画像データと各非基準画像の画像データとを用いて各非基準画像における前記追尾対象の位置を検出することにより、前記画像列上で前記追尾対象を追尾する。 Further, for example, the image sequence includes a reference image and a plurality of non-reference images obtained by photographing after the reference image, and the tracking target setting unit uses the distance information to determine the tracking target. An initial tracking area including image data is set in the reference image, and the tracking processing unit uses each image data in the initial tracking area in the reference image and image data of each non-reference image to each non-reference image. By detecting the position of the tracking target at, the tracking target is tracked on the image sequence.
距離情報を用いて初期追尾領域を設定することにより、追尾精度の向上が期待される。 By setting the initial tracking area using the distance information, improvement in tracking accuracy is expected.
具体的には例えば、前記追尾対象設定部は、前記初期追尾領域から前記追尾対象以外の被写体の画像データが除外されるように、前記距離情報を用いて前記初期追尾領域を設定する。 Specifically, for example, the tracking target setting unit sets the initial tracking area using the distance information so that image data of subjects other than the tracking target is excluded from the initial tracking area.
本発明によれば、ユーザによる追尾対象の指定操作を支援する機能を持つ撮像装置を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the imaging device which has a function which assists designation | designated operation of the tracking target by a user.
以下、本発明の実施形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、第1実施形態に係る撮像装置1の概略全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。撮像装置1は、携帯電話機などの携帯端末に搭載されるものであっても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of an imaging apparatus 1 according to the first embodiment. The imaging device 1 is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images. The imaging device 1 may be mounted on a mobile terminal such as a mobile phone.
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。
The imaging device 1 includes an
図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量(換言すれば、絞り値)を制御する。
FIG. 2 shows an internal configuration diagram of the
撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。
The
AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号をRAWデータとして主制御部13に出力する。AFE12における信号増幅の増幅度は、主制御部13によって制御される。
The
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成る。主制御部13は、AFE12からのRAWデータに基づいて、撮像部11によって撮影された画像(以下、撮影画像とも言う)を表す画像データを生成する。ここで生成される画像データには、例えば、輝度信号及び色差信号が含まれる。但し、RAWデータそのものも画像データの一種であり、撮像部11から出力されるアナログ信号も画像データの一種である。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。
The
内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。
The
記録媒体16は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。操作部17は、静止画像の撮影指示を受け付けるシャッタボタン20等を備え、外部からの各種操作を受け付ける。操作部17に対する操作を、タッチパネル操作と区別すべく、ボタン操作とも呼ぶ。操作部17に対する操作内容は、主制御部13に伝達される。
The
表示部15にはタッチパネルが設けられている。図3は、表示部15の概略分解図(換言すればタッチパネルの概略分解図)である。表示部15には、液晶ディスプレイ等から成る表示画面51と、操作体が表示画面51上に触れている位置(圧力を加えている位置)を検出するタッチ検出部52と、が設けられている。ユーザは、表示部15の表示画面51を操作体で触れることで撮像装置1に特定の指示を与えることができる。表示画面51を操作体で触れることによる操作をタッチパネル操作と呼ぶ。操作体と表示画面51との接触位置をタッチ位置と呼ぶ。操作体が表示画面51に触れているとき、タッチ検出部52は、その触れた位置(即ちタッチ位置)を指し示すタッチ位置情報を主制御部13にリアルタイムで出力する。操作体は、指やペンなどであるが、以下では主として操作体が指であることを想定する。また、本明細書において、単に表示と言った場合、それは表示画面51における表示を指すものとする。
The
図4(a)に示す如く、表示画面51上の位置は、二次元のXY座標面上の位置として定義される。また更に、図4(b)に示す如く、撮像装置1において、任意の二次元画像300もXY座標面上の画像として取り扱われる。XY座標面は、表示画面51及び二次元画像300の水平方向に伸びるX軸と、表示画面51及び二次元画像300の垂直方向に伸びるY軸と、を座標軸として有する。本明細書において述べられる画像は、全て、特に記述なき限り二次元画像である。表示画面51及び二次元画像300上における或る注目点の位置を(x,y)にて表す。xは、該注目点のX軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の水平位置を表す。yは、該注目点のY軸座標値を表すと共に、表示画面51及び二次元画像300上における該注目点の垂直位置を表す。二次元画像300を表示画面51にて表示する際(二次元画像300を表示画面51の全体を使って表示する際)、二次元画像300上の位置(x,y)における画像は、表示画面51上の位置(x,y)に表示される。
As shown in FIG. 4A, the position on the
撮像装置1の動作モードには、静止画像又は動画像を撮影可能な撮影モードと記録媒体16に記録された静止画像又は動画像を表示部15上で再生可能な再生モードとが含まれる。撮影モードでは、所定のフレーム周期にて周期的に被写体の撮影が行われ、撮像部11から(より詳細にはAFE12から)被写体の撮影画像列を表すRAWデータが出力される。撮影画像列に代表される画像列とは、時系列で並ぶ画像の集まりを指す。1つのフレーム周期分の画像データによって1枚分の画像が表現される。AFE12からの1フレーム周期分の画像データによって表現される1枚分の撮影画像を、フレーム画像とも呼ぶ。RAWデータによる撮影画像に対して所定の画像処理(デモサイキング処理、ノイズ除去処理、色補正処理など)を施して得られる画像がフレーム画像である、と解釈していも良い。
The operation modes of the imaging apparatus 1 include a shooting mode in which a still image or a moving image can be shot and a playback mode in which the still image or the moving image recorded on the
図5に、撮影者側から見た、撮像装置1の外観斜視図を示す。図5には、被写体としての人物も示されている。順次撮影によって得られるフレーム画像列は動画像として表示画面51上に表示される。撮影者としてのユーザは、表示画面51上に表示された被写体の様子を確認することで、撮像装置1の撮影範囲(換言すれば撮像部11又は撮像素子33の撮影範囲)等を確認することができる。
FIG. 5 shows an external perspective view of the imaging apparatus 1 as seen from the photographer side. FIG. 5 also shows a person as a subject. A frame image sequence obtained by sequential shooting is displayed on the
撮像装置1は、画像処理を用いた被写体追尾機能を備えており、この被写体追尾機能の実現時に特徴的な動作を行う。被写体追尾機能は撮影モードにおいて実現される。撮影モードの一形態である、被写体追尾機能が実現される動作モードを追尾モードという。所定のタッチパネル操作又はボタン操作を成すことで、追尾モードにおける動作が実行される。以下に示される動作は、特に記述なき限り、この追尾モードにおける撮像装置1の動作である。 The imaging apparatus 1 has a subject tracking function using image processing, and performs a characteristic operation when the subject tracking function is realized. The subject tracking function is realized in the shooting mode. An operation mode that realizes the subject tracking function, which is one form of the shooting mode, is referred to as a tracking mode. The operation in the tracking mode is executed by performing a predetermined touch panel operation or button operation. The operations described below are operations of the imaging apparatus 1 in the tracking mode unless otherwise specified.
図6は、撮像装置1内の、被写体追尾機能に特に関与する部位のブロック図である。被写体距離情報生成部(距離情報取得部)61、追尾処理部62及び表示制御部64を、図1の主制御部13内に設けておくことができる。追尾処理部62には、追尾対象設定部63が内包されている。フレーム画像列を形成する各フレーム画像の画像データは、順次、追尾処理部62及び表示制御部64に与えられる。
FIG. 6 is a block diagram of a part of the imaging apparatus 1 that is particularly related to the subject tracking function. A subject distance information generation unit (distance information acquisition unit) 61, a
被写体距離情報生成部(以下、距離情報生成部と略記することがある)61は、撮像装置1の撮影範囲内に収まっている各被写体の被写体距離を検出する被写体距離検処理を実行し、これによってフレーム画像上の各位置における被写体の被写体距離を表す被写体距離情報を生成する。或る被写体についての被写体距離とは、その被写体と撮像装置1(より具体的には撮像素子33)との間における実空間上の距離を指す。尚、本明細書において、“距離が大きい”という表現と“距離が長い”という表現は同義であり、“距離が小さい”という表現と“距離が短い”という表現は同義である。被写体距離検出処理を周期的に又は所望のタイミングに実行することができる。被写体距離情報は、自身を形成する各画素値が被写体距離の測定値を持つ距離画像である。被写体距離の検出方法及び被写体距離情報の生成方法として、公知の方法(例えば、特開2009−272799号公報に記載の方法)を含む任意の方法を利用可能である。 A subject distance information generation unit (hereinafter sometimes abbreviated as a distance information generation unit) 61 executes subject distance detection processing for detecting the subject distance of each subject that is within the shooting range of the imaging apparatus 1. Thus, subject distance information representing the subject distance of the subject at each position on the frame image is generated. The subject distance for a certain subject refers to the distance in real space between the subject and the imaging device 1 (more specifically, the imaging device 33). In the present specification, the expression “the distance is large” and the expression “the distance is long” are synonymous, and the expression “the distance is small” and the expression “the distance is short” are synonymous. The subject distance detection process can be executed periodically or at a desired timing. The subject distance information is a distance image in which each pixel value forming the subject has a subject distance measurement value. Any method including a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2009-272799) can be used as a method for detecting a subject distance and a method for generating subject distance information.
フレーム画像の画像データから被写体距離情報を生成するようにしても良いし、フレーム画像の画像データ以外の情報から被写体距離情報を生成するようにしても良い。例えば、各被写体の被写体距離を測定する測距センサ(不図示)を用いて被写体距離情報を生成することができる。測距センサとして、三角測量法に基づく測距センサ等、公知の任意の測距センサを用いることができる。或いは例えば、複眼カメラを用いて上記距離画像を生成するようにしても良い。 The subject distance information may be generated from the image data of the frame image, or the subject distance information may be generated from information other than the image data of the frame image. For example, subject distance information can be generated using a distance measuring sensor (not shown) that measures the subject distance of each subject. As the distance measuring sensor, any known distance measuring sensor such as a distance measuring sensor based on the triangulation method can be used. Alternatively, for example, the distance image may be generated using a compound eye camera.
或いは例えば、RAWデータに被写体距離を表す情報が含まれるように撮像部11を形成しておき、RAWデータから被写体距離情報を生成するようにしても良い。これを実現するために、例えば“Light Field Photography”と呼ばれる方法(例えば、国際公開第06/039486号パンフレット又は特開2009−224982号公報に記載の方法;以下、Light Field法と呼ぶ)を用いても良い。Light Field法では、開口絞りを有する撮像レンズとマイクロレンズアレイを用いることで、撮像素子から得られる画像信号が、撮像素子の受光面における光の強度分布に加えて光の進行方向の情報をも含むようになっている。従って、図2には表れていないが、Light Field法を用いる場合には、Light Field法の実現に必要な光学部材が撮像部11に設けられる。この光学部材には、マイクロレンズアレイ等が含まれ、被写体からの入射光はマイクロレンズアレイ等を介して撮像素子33の受光面(換言すれば撮像面)に入射する。マイクロレンズアレイは複数のマイクロレンズから成り、撮像素子33上の1又は複数の受光画素に対して1つのマイクロレンズを割り当てられる。これによって、撮像素子33の出力信号が、撮像素子33の受光面における光の強度分布に加えて、撮像素子33への入射光の進行方向の情報をも含むようになる。
Alternatively, for example, the
追尾処理部62には、フレーム画像列の画像データだけでなく、被写体距離情報及びタッチ位置情報が入力される。追尾処理部62は、フレーム画像列の画像データに基づき各フレーム画像内における特定被写体の位置を逐次検出していくことにより、フレーム画像列における特定被写体の位置を追尾する。この追尾を実行する処理を追尾処理と呼ぶ。追尾されるべき特定被写体を追尾対象と呼ぶ。
In addition to the image data of the frame image sequence, subject distance information and touch position information are input to the
追尾対象設定部63は、ユーザによる操作の内容に基づき、撮像装置1の撮影範囲内に収まっている被写体の中から追尾対象を設定する。この設定の際、被写体距離情報が利用されるが、その利用方法例については後述する。追尾対象の設定の元となる、ユーザの操作は、例えば所定のタッチパネル操作である。この場合、タッチ位置情報に基づいて追尾対象が設定されることとなる。
The tracking
表示制御部64は、表示画面51の表示内容を制御し、フレーム画像の画像データから表示用画像の画像データを生成して、これを表示部15に送ることで表示画面51上に表示用画像を表示させる。フレーム画像は周期的に順次取得されるため、表示用画像も周期的に生成されて表示画面上で更新表示される。この表示用画像は、追尾処理部62による追尾結果などを、フレーム画像に反映させることによって生成される。
The
図7を参照して、追尾モードにおける動作について、より詳細に説明する。図7は、追尾モードにおける撮像装置1の動作の流れを表すフローチャートである。この動作をより具体的に説明するべく、今、撮像装置1の撮影範囲内に収まる被写体の中に、図8に示す4つの被写体SUB1〜SUB4が含まれていることを想定する。被写体SUB1〜SUB4は、サッカーの試合における被写体である。被写体SUB1〜SUB3の夫々は実空間上で移動しうる人物であり、被写体SUB4は実空間上で静止しているサッカーゴールである。また、被写体SUB1〜SUB4の被写体距離を夫々d1〜d4にて表す。ここで、不等式“d1<d2<d3<d4”が常に成立するものとする。 The operation in the tracking mode will be described in more detail with reference to FIG. FIG. 7 is a flowchart showing an operation flow of the imaging apparatus 1 in the tracking mode. In order to explain this operation more specifically, it is assumed that the four subjects SUB 1 to SUB 4 shown in FIG. 8 are included in the subjects that fall within the imaging range of the imaging apparatus 1. Subjects SUB 1 to SUB 4 are subjects in a soccer game. Each of the subjects SUB 1 to SUB 3 is a person who can move in the real space, and the subject SUB 4 is a soccer goal that is stationary in the real space. The subject distances of the subjects SUB 1 to SUB 4 are represented by d 1 to d 4, respectively. Here, it is assumed that the inequality “d 1 <d 2 <d 3 <d 4 ” always holds.
撮像装置1の動作モードが追尾モードに設定されると、まず、ステップS11において、撮像装置1はユーザによる追尾対象指定操作の入力を受け付け、その入力が成された場合に、ステップS12及びそれ以降の処理を実行する。ステップS11における追尾対象指定操作は、表示画面51上において追尾対象となるべき被写体が表示されている部分を指にて触れることで実現される。ステップS11において、追尾対象を指定するためにユーザが表示画面51に触れた位置を指定位置と呼ぶ。そうすると、ステップS11における追尾対象指定操作は、ユーザによる指定位置入力操作であると言え、図3のタッチ検出部52が、その指定位置入力操作を受け付ける操作受付部として機能する。
When the operation mode of the imaging device 1 is set to the tracking mode, first, in step S11, the imaging device 1 accepts an input of a tracking target specifying operation by the user, and when the input is made, step S12 and subsequent steps are performed. Execute the process. The tracking target specifying operation in step S11 is realized by touching a part on the
ステップS12において、距離情報生成部61は、被写体距離検出処理を実行することで被写体距離情報を生成する。ステップS12における被写体距離検出処理を、追尾対象指定操作が成された時点又は追尾対象指定操作が成された直後に行うことができる。また、追尾対象指定操作が成される直前に実行された被写体距離検出処理の結果から、ステップS12の被写体距離情報を生成するようにしても良い。
In step S12, the distance
続くステップS13において、追尾対象設定部63は、ステップS11において決定された指定位置を、ステップS12にて生成された被写体距離情報を用いて補正する。この補正方法を例示する。
In subsequent step S13, the tracking
例えば、図9(a)のフレーム画像320が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置321が補正前の指定位置として設定された場合を考える。位置321には、サッカー場の地面部分の画像データが存在しており、その地面部分の被写体距離は被写体SUB1のそれよりも大きいものとする。図9(b)の画像330は、フレーム画像320に対応する被写体距離情報としての距離画像である。任意の距離画像はグレースケール画像である。距離画像において、各画素は、対応する被写体距離が小さいほどゼロに近い画素値を有し、対応する被写体距離が大きいほど大きな画素値を有するものとする。更に、距離画像を示す図面においては、画素値の比較的小さい部分(即ち被写体距離が比較的小さい部分)は比較的白く示され、画素値の比較的大きい部分(即ち被写体距離が比較的大きい部分)は比較的黒く示されている。図示の簡略化上、図9(b)の距離画像330では、被写体距離がある程度以上大きい部分を全て黒く示している(後述の他の距離画像も同様)。
For example, consider the case where the
位置321が補正前の指定位置として設定された場合、追尾対象設定部63は、位置321から見て空間的に近接した位置に、上記地面部分の被写体距離よりも小さな被写体距離を有する被写体が存在しているかを、ステップS12の被写体距離情報(即ち距離画像330)に基づいて判定し、その存在が認められた場合、より小さな被写体距離の被写体の位置に指定位置を補正する。図9(a)の例では、位置321から見て空間的に近接した位置に、上記地面部分の被写体距離よりも小さな被写体距離を有する被写体SUB1が存在している。このため、この例において、追尾対象設定部63は、指定位置を、位置321から被写体SUB1の画像データが存在している位置322へと補正することができる。注目位置(本例において位置321)から見て空間的に近接した位置とは、例えば、注目位置を中心とした一定の大きさを有する領域内の位置である。
When the
また例えば、図10(a)のフレーム画像340が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置341が補正前の指定位置として設定された場合を考える。図10(b)の画像350は、フレーム画像340に対応する被写体距離情報としての距離画像である。
Further, for example, when the
位置341には、被写体SUB3の画像データが存在している。即ち、位置341における被写体は被写体SUB3である。この場合も、追尾対象設定部63は、位置341から見て空間的に近接した位置に、被写体SUB3の被写体距離よりも小さな被写体距離を有する被写体が存在しているかを、ステップS12の被写体距離情報(即ち距離画像350)に基づいて判定し、その存在が認められた場合、より小さな被写体距離の被写体の位置に指定位置を補正する。図10(a)の例では、位置341から見て空間的に近接した位置に、被写体SUB3の被写体距離よりも小さな被写体距離を有する被写体SUB1が存在している。このため、この例において、追尾対象設定部63は、指定位置を、位置341から被写体SUB1の画像データが存在している位置342へと補正することができる。
In
また例えば、合焦領域内の被写体上の位置に指定位置を補正するようにしても良い。合焦領域とは、ピントが合っている被写体の画像データが存在する画像領域である。合焦距離を内包する被写界深度内に位置している被写体、即ち、被写界深度内の被写体距離を有する被写体にピントが合う。従って、被写界深度内に位置している被写体の画像データが存在する画像領域は、合焦領域に相当する。例えば、図9(a)のフレーム画像320が表示用画像として表示されているときにおいて、ユーザの指定位置入力操作により表示画面51上の位置321が補正前の指定位置として設定された場合を考える。この際、追尾対象設定部63は、フレーム画像320の撮影時におけるフォーカスレンズ31の位置及び絞り値等から合焦距離及び被写界深度の深さを求め、求めた合焦距離及び被写界深度の深さとステップS12の被写体距離情報(即ち距離画像330)からフレーム画像320内における合焦領域を特定する。今、実空間上において被写体SUB1が被写界深度内に位置しているとすると、特定された合焦領域内に被写体SUB1の画像データが存在することとなる。また、位置321は合焦領域内に存在していないものとする。この場合、追尾対象設定部63は、指定位置を、位置321から被写体SUB1の画像データが存在している位置322へと補正することができる。
Further, for example, the designated position may be corrected to the position on the subject in the focus area. The in-focus area is an image area where image data of a subject in focus exists. A subject located within the depth of field containing the in-focus distance, that is, a subject having a subject distance within the depth of field is focused. Therefore, the image area where the image data of the subject located within the depth of field is equivalent to the in-focus area. For example, consider the case where the
補正後の指定位置の情報は追尾処理部62から表示制御部64に伝達され、ステップS13による補正の後、ステップS14において、表示制御部64は、補正後の指定位置を最新のフレーム画像に重畳して表示画面51に表示させる。補正後の指定位置における被写体の全体を囲む枠などを、最新のフレーム画像に重畳して表示するようにしても良い。この後、ステップS15において、主制御部13は、ユーザが追尾開始指示操作を成したか否かを判断する。追尾開始指示操作は、ステップS13の補正を承認した上で追尾処理の開始を指示する操作であり、所定のタッチパネル操作等により実現される。追尾開始指示操作が成された場合は、ステップS15からステップS16へと移行して、ステップS16及びステップS16以降の処理が実行される。一方、追尾開始指示操作が成されず、指定位置の再設定を要求する操作等が成された場合にはステップS15からステップS11に戻って、ステップS11からの処理を再度実行する。基本的に表示画面51上にはフレーム画像列に基づく表示用画像列が動画像として表示されているが、追尾開始指示操作を受け付けている期間中においては、補正後の指定位置と、対応する被写体との対応関係をユーザに分かりやすくするために、表示画面51上における動画像の再生を一時的に停止するようにしても良い。
Information on the specified position after correction is transmitted from the
追尾対象設定部63は、ステップS16において、補正後の指定位置における被写体を追尾対象に設定し、続くステップS17において追尾対象の初期登録処理を実行する。例えば、図9(a)又は図10(a)の例の如く、位置322又は342が補正後の指定位置である場合には、被写体SUB1が追尾対象に設定される。
In step S16, the tracking
初期登録処理は、追尾対象の初期情報を登録する処理であり、図11のステップS31及びS32の処理から成る。ステップS31では、最新のフレーム画像を初期フレーム画像(基準画像)に設定し、初期フレーム画像内に追尾領域を設定する。初期フレーム画像以降に得られる各フレーム画像を追尾対象フレーム画像(非基準画像)と呼ぶ。追尾領域とは、追尾対象の画像データが存在している画像領域を指す。初期フレーム画像に設定される追尾領域を、特に、初期追尾領域とも呼ぶ。初期追尾領域は、補正後の指定位置を基準として設定される。単純には例えば、補正後の指定位置を中心に配置した、所定の大きさを有する矩形領域を初期追尾領域として設定することができる。但し、初期フレーム画像及び各追尾対象フレーム画像に設定されるべき追尾領域の形状は、矩形に限定されない。 The initial registration process is a process for registering initial information to be tracked, and includes the processes of steps S31 and S32 in FIG. In step S31, the latest frame image is set as an initial frame image (reference image), and a tracking area is set in the initial frame image. Each frame image obtained after the initial frame image is called a tracking target frame image (non-reference image). The tracking area refers to an image area in which image data to be tracked exists. The tracking area set in the initial frame image is particularly called an initial tracking area. The initial tracking area is set based on the specified position after correction. Simply, for example, a rectangular area having a predetermined size and centered on the corrected designated position can be set as the initial tracking area. However, the shape of the tracking area to be set in the initial frame image and each tracking target frame image is not limited to a rectangle.
ステップS32において、追尾処理部62又は追尾対象設定部63は、初期追尾領域内の画像データから画像特徴量を抽出し、抽出した画像特徴量を含む初期登録情報をメモリ(例えば内部メモリ14)に保存する。ここで抽出される画像特徴量は、追尾対象の追尾に有益な画像特徴量であり、例えば、色情報、エッジ情報などを含む。初期登録情報に、画像特徴量の他、追尾処理の実行に必要又は有益な様々な情報を含めておくことができる。例えば、初期追尾領域における被写体距離(即ち、初期フレーム画像における追尾対象の被写体距離)、並びに、初期フレーム画像上における初期追尾領域の位置、大きさ及び形状を、初期登録情報に含めておくことができる。
In step S32, the
初期登録情報の保存によって、図7のステップS17における初期登録処理が完了すると、ステップS18において追尾処理が開始される。即ち、追尾処理部62により、ステップS17の処理以後に得られる追尾対象フレーム画像列に対して追尾処理が実行される。追尾処理では、初期フレーム画像の初期追尾領域内の画像データと各追尾対象フレーム画像の画像データに基づいて各追尾対象フレーム画像における追尾対象の位置(換言すれば追尾領域の位置)を検出し、これによって初期フレーム画像及び各追尾対象フレーム画像から成るフレーム画像列上で追尾対象を追尾する。初期登録情報に初期追尾領域の画像特徴量が格納されているため、実際には、初期登録情報と各追尾対象フレーム画像の画像データに基づいて追尾処理を成せばよい。
When the initial registration process in step S17 of FIG. 7 is completed by storing the initial registration information, the tracking process is started in step S18. That is, the
追尾処理部62は、公知の任意の追尾処理方法を用いて追尾処理を実行することができる。例えば、色情報に基づいて追尾処理を行うことができるし、色情報に基づく追尾処理の方法として、特開平5−284411号公報、特開2000−48211号公報、特開2001−169169号公報などに記載の方法を用いることができる。また例えば、特開2009−141475号公報などに記載されているような、パターンマッチングを用いた方法によって追尾処理を実行しても良い。
The
具体的には例えば、初期フレーム画像又は任意の追尾対象フレーム画像である第1フレーム画像内に追尾領域が設定されて第1フレーム画像内の追尾領域の画像特徴量が求められた後、第1フレーム画像の次に得られる第2フレーム画像に対して以下の処理を成せば良い。第2フレーム画像内に、追尾領域の大きさと同程度の大きさを有する評価ブロックを設定して、評価ブロック内における画像の画像特徴量と、第1フレーム画像内の追尾領域の画像特徴量との類似度評価を、評価ブロックの位置を探索範囲内で順次変更しながら実行し、最大の類似度が得られた評価ブロックの位置に第2フレーム画像上の追尾対象が存在すると判断する(即ち、最大の類似度が得られた評価ブロック内の画像領域が第2フレーム画像の追尾領域であると判断する)。第2フレーム画像に対する探索範囲は、第1フレーム画像の追尾領域の位置を基準にして設定される。このような追尾処理により、時間的に連続するフレーム画像間で追尾対象の位置が次々と検出されて、各追尾対象フレーム画像における追尾対象の位置が検出される。 Specifically, for example, after the tracking area is set in the first frame image that is the initial frame image or an arbitrary tracking target frame image and the image feature amount of the tracking area in the first frame image is obtained, What is necessary is just to perform the following processes with respect to the 2nd frame image obtained after a frame image. An evaluation block having the same size as the size of the tracking area is set in the second frame image, and the image feature amount of the image in the evaluation block and the image feature amount of the tracking area in the first frame image The similarity evaluation is performed while sequentially changing the position of the evaluation block within the search range, and it is determined that the tracking target on the second frame image exists at the position of the evaluation block where the maximum similarity is obtained (that is, The image area in the evaluation block where the maximum similarity is obtained is determined to be the tracking area of the second frame image). The search range for the second frame image is set with reference to the position of the tracking area of the first frame image. By such tracking processing, the position of the tracking target is successively detected between temporally consecutive frame images, and the position of the tracking target in each tracking target frame image is detected.
周期的に得られる被写体距離情報をも更に利用して追尾処理を成すようにしても良い。この際、追尾対象の被写体距離の、時間方向における連続性を考慮すれば良い。即ち、時間的に近接したフレーム画像間で追尾対象の被写体距離は大きく相違しないという原理をも利用して(但し、フレーム周期が1/60秒程度であって且つ追尾対象が人物等であることを想定)、各追尾対象フレーム画像における追尾対象を検出するようにしても良い。例えば、被写体距離情報を考慮して上記の類似度を求めるようにしても良いし、被写体距離情報を考慮して上記の探索範囲に制限を加えるようにしても良い。 The tracking process may be performed by further using subject distance information obtained periodically. At this time, the continuity in the time direction of the subject distance to be tracked may be considered. In other words, the principle that the subject distance of the tracking target does not differ greatly between temporally adjacent frame images (however, the frame period is about 1/60 seconds and the tracking target is a person or the like). The tracking target in each tracking target frame image may be detected. For example, the similarity may be obtained in consideration of subject distance information, or the search range may be limited in consideration of subject distance information.
ステップS18にて開始された追尾処理は、ユーザによる追尾処理停止指示や追尾対象再指定操作があるまで継続実行される(ステップS19及びS20)。追尾対象再指定操作があった場合には、ステップS11に戻って、ステップS11からの処理が再度実行される。 The tracking process started in step S18 is continuously executed until there is a tracking process stop instruction or a tracking target redesignation operation by the user (steps S19 and S20). If there is a tracking target redesignation operation, the process returns to step S11 and the processing from step S11 is executed again.
尚、任意のフレーム画像において、被写体距離が互いに異なる第1〜第n被写体領域を区別する際、被写体距離情報に基づく領域分割処理を利用することができる(nは2以上の整数)。第i被写体領域とは第i被写体の画像データが存在する画像領域を指す(iは整数)。i及びjが互いに異なる整数の場合、第i及び第j被写体は互いに異なる被写体であるとする。この領域分割処理によって、フレーム画像の全体画像領域が被写体距離情報に基づき複数の画像領域に分割され、この複数の画像領域の中に第1〜第n被写体領域が含まれるようになる。領域分割処理では、類似した特徴量を持ち且つ空間的に近接した画素の集合が1つのまとまりを形成するように、フレーム画像の全体画像領域を分割する。この集合の形成及び画像領域の分割に、公知の領域統合法(region unification method)等を用いることができる。被写体距離情報に基づく領域分割処理では、被写体距離を特徴量として用いる。 Note that, in an arbitrary frame image, when the first to nth subject regions having different subject distances are distinguished, an area division process based on subject distance information can be used (n is an integer of 2 or more). The i-th subject area refers to an image area in which image data of the i-th subject exists (i is an integer). When i and j are different integers, it is assumed that the i-th and j-th subjects are different subjects. By this region division processing, the entire image region of the frame image is divided into a plurality of image regions based on the subject distance information, and the first to nth subject regions are included in the plurality of image regions. In the region division processing, the entire image region of the frame image is divided so that a set of pixels having similar feature amounts and spatially close together forms one unit. A known region unification method or the like can be used for forming the set and dividing the image area. In the region division processing based on the subject distance information, the subject distance is used as a feature amount.
また、上述の説明では、ステップS13において指定位置が補正されることを想定しているが、結果的に補正が成されないこともある。例えば、図9(a)の位置322がステップS11において指定位置として入力された場合、指定位置の補正は成されない。この場合も、便宜上、位置322が補正後の指定位置であると捉えて、ステップS14及びそれ以降の処理を実行すればよい。
In the above description, it is assumed that the designated position is corrected in step S13, but as a result, correction may not be performed. For example, when the
注目被写体を追尾対象に指定するための操作(指定位置入力操作)をタッチパネルを用いて行う際、注目被写体の表示サイズが小さい或いは表示画面51上で注目被写体が動く等の理由によって、指定位置を正確に注目被写体に合わし難いこともある。一方において、ユーザの注目被写体は、一般的に近景側に位置することが多く、他の被写体と比べて比較的短い被写体距離を有することが多い。これを考慮し、上述の如く、被写体距離情報を用いてユーザの指定位置を補正する機能を持たせる。これにより、仮に指定位置が注目被写体を正しく指し示していなかったとしても、ユーザの注目被写体を推測して該注目被写体を追尾対象に設定するといったことが可能となる。結果、ユーザによる追尾対象の指定操作が支援され、正確に且つ容易に所望の被写体を追尾対象に設定することが可能となる。
When an operation (designated position input operation) for designating the subject of interest as a tracking target is performed using the touch panel, the designated position is set because the subject of interest has a small display size or the subject of interest moves on the
以下に、上述の動作に適用可能な変形技術などを、第1〜第7応用例として説明する。矛盾なき限り、複数の応用例を組み合わせて実施することも可能である。 Hereinafter, modification techniques applicable to the above-described operation will be described as first to seventh application examples. As long as there is no contradiction, a plurality of application examples can be combined.
[第1応用例]
第1応用例を説明する。ステップS14において、補正前の指定位置及び補正後の指定位置の双方を表示するようにしても良い。例えば、図10(a)の位置341及び342が夫々補正前及び補正後の指定位置である場合、最新のフレーム画像と共に位置341及び342を最新のフレーム画像に重畳して表示しても良い。このような表示を成している状態において、ユーザに位置341及び342の一方を選択させることができる。位置341が選択されたならば補正前の指定位置に対応する被写体SUB3を追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良く、位置342が選択されたならば補正後の指定位置に対応する被写体SUB1を追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良い。
[First application example]
A first application example will be described. In step S14, both the specified position before correction and the specified position after correction may be displayed. For example, when the
これと類似するが、ステップS14において、補正前の指定位置における被写体の被写体領域及び補正後の指定位置における被写体の被写体領域の双方を表示するようにしても良い。例えば、図10(a)の位置341及び342が夫々補正前及び補正後の指定位置である場合、最新のフレーム画像と共に被写体SUB3の輪郭及び被写体SUB1の輪郭を最新のフレーム画像に重畳して表示しても良い。このような表示を成している状態において、ユーザに被写体SUB3及びSUB1の一方を選択させ、被写体SUB3が選択されたならば被写体SUB3を追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良く、被写体SUB1が選択されたならば被写体SUB1を追尾対象に設定した上でステップS17及びそれ以後の処理を実行すれば良い。
Although similar to this, in step S14, both the subject area of the subject at the designated position before correction and the subject area of the subject at the designated position after correction may be displayed. For example, when the
一般に、近景側にユーザ(撮影者)の注目被写体が存在する可能性が高いが、場合によっては、遠景側にユーザの注目被写体が存在することもある。これを考慮し、上記のような選択操作を可能としておけば、指定位置補正の妥当性確認(ユーザによる確認)が可能となり、ユーザの意図どおりに追尾対象を設定することが可能となる。 In general, there is a high possibility that the subject of interest of the user (photographer) is present on the near view side, but in some cases, the subject of interest of the user is present on the far view side. Considering this, if the above selection operation is made possible, the validity of the specified position correction can be confirmed (confirmed by the user), and the tracking target can be set as intended by the user.
[第2応用例]
第2応用例を説明する。追尾処理の実行中、フレーム画像列を動画像として表示しつつ、追尾領域を示す枠なども表示するようにしても良い。追尾領域を示す枠などの表示を、追尾領域表示と呼ぶ。追尾領域表示によって、ユーザは、フレーム画像列が表示される表示画面51上において追尾対象及び追尾領域を確認することができる。尚、追尾処理の実行開始から一定時間が経過するまでの期間を追尾対象再指定期間と捉え、追尾対象再指定期間中だけ追尾領域表示を成すようにしても良い。この際、追尾対象再指定期間中だけ、上述の追尾対象再指定操作(図7参照)を受け付けるようにしても良い。追尾対象を指定しなおしたい場合、ユーザはタッチパネル操作等により追尾対象再指定操作を成すことができる。
[Second application example]
A second application example will be described. During the execution of the tracking process, a frame indicating the tracking area may be displayed while displaying the frame image sequence as a moving image. A display such as a frame indicating the tracking area is referred to as a tracking area display. With the tracking area display, the user can confirm the tracking target and the tracking area on the
[第3応用例]
第3応用例を説明する。図7のフローチャートを図12のフローチャートへと変更するようにしても良い。即ち、ステップS13における補正処理の完了後、ステップS14及びS15の処理を行うことなく、直ちにステップS13からステップS16へ移行してステップS16及びそれ以降の処理を実行するようにしても良い。この場合、補正後の指定位置に対応する被写体を追尾対象に設定しても良いかの確認機会がユーザに与えられないため、追尾対象の再指定を可能とするべく、上記第2応用例も実施すると良い。
[Third application example]
A third application example will be described. The flowchart of FIG. 7 may be changed to the flowchart of FIG. That is, after completion of the correction process in step S13, the process may proceed immediately from step S13 to step S16 without executing the processes in steps S14 and S15, and the processes in step S16 and subsequent steps may be executed. In this case, since the user is not given an opportunity to confirm whether or not the subject corresponding to the corrected designated position may be set as the tracking target, the second application example also enables the re-designation of the tracking target. It is good to carry out.
[第4応用例]
第4応用例を説明する。ステップS15のような追尾開始指示操作の有無確認を経てから追尾処理を開始する場合、追尾開始指示操作が成されるまでの間に、追尾対象となるべき注目被写体が大きく移動してしまうことがある。このような大きな移動が発生すると、ステップS16及びS17の処理実行時に、注目被写体が補正後の指定位置に存在しないといったことも発生しうる。これを考慮し、以下のような処理を行うようにしても良い。
[Fourth application example]
A fourth application example will be described. When the tracking process is started after confirming the presence / absence of the tracking start instruction operation as in step S15, the target subject to be tracked may greatly move before the tracking start instruction operation is performed. is there. When such a large movement occurs, it may occur that the subject of interest does not exist at the specified position after correction when the processes of steps S16 and S17 are executed. Considering this, the following processing may be performed.
ステップS13にて指定位置の補正を行った後、補正前の指定位置における第1被写体及び補正後の指定位置における第2被写体の夫々を暫定的な追尾対象(換言すれば追尾対象候補)と捉えて、追尾開始指示操作の有無に関係なく直ちに、第1被写体に対する追尾処理及び第2被写体に対する追尾処理を個別に実行開始する。そして、第1及び第2被写体の夫々に対して上記の追尾領域表示を行い、この状態で、第1及び第2被写体のどちらか一方を選択する、ユーザの選択操作を受け付ける。この選択操作によって第1被写体が選択された場合には、第1被写体を真の追尾対象に設定した上でステップS17及びそれ以降の処理を実行し、この選択操作によって第2被写体が選択された場合には、第2被写体を真の追尾対象に設定した上でステップS17及びそれ以降の処理を実行すれば良い。 After the specified position is corrected in step S13, each of the first subject at the specified position before correction and the second subject at the specified position after correction is regarded as a provisional tracking target (in other words, a tracking target candidate). Thus, the tracking process for the first subject and the tracking process for the second subject are immediately started separately regardless of whether or not the tracking start instruction operation is performed. Then, the tracking area display is performed for each of the first and second subjects, and in this state, a user's selection operation for selecting one of the first and second subjects is accepted. When the first subject is selected by this selection operation, the first subject is set as a true tracking target, and then step S17 and subsequent processing are executed, and the second subject is selected by this selection operation. In this case, the second subject may be set as a true tracking target, and then step S17 and subsequent processing may be executed.
[第5応用例]
指定位置入力操作の例を、第5応用例として説明する。
ステップS11における指定位置入力操作は、例えば、表示画面51上の一点を指にて触れる操作であり、この場合、その一点の位置そのものが補正前の指定位置となる。
或いは例えば、ステップS11における指定位置入力操作は、指と表示画面51との接触状態を保ったままで指にて表示画面51上の特定領域を囲む操作であっても良い。この場合、その特定領域内の位置(例えば特定領域の中心位置又は重心位置)が補正前の指定位置となる。
或いは例えば、フレーム画像を表示している表示画面51の全体表示領域を水平及び垂直方向に分割して複数の分割表示領域を設定し、何れかの分割表示領域をタッチパネル操作でユーザに選択させることでステップS11の指定位置を決定するようにしても良い。この際、図13に示す如く、隣接する分割表示領域間の境界線をフレーム画像に重畳して表示すると良い。この場合において、或る分割表示領域内の点を指にて触れたならば、タッチ位置を内包する分割表示領域内の位置(例えば、その分割表示領域の中心位置又は重心位置)が補正前の指定位置となる。尚、図13において、ドットで満たされた領域は表示部15の筐体部分を表している(後述の図17においても同様)。
[Fifth application example]
An example of the designated position input operation will be described as a fifth application example.
The designated position input operation in step S11 is, for example, an operation of touching one point on the
Alternatively, for example, the designated position input operation in step S11 may be an operation of surrounding a specific area on the
Alternatively, for example, the entire display area of the
[第6応用例]
第6応用例を説明する。初期の画像特徴量が抽出されるべき初期追尾領域を、被写体距離情報を用いて決定するようにしても良い。例えば、図14(a)の画像400が初期フレーム画像であって、被写体SUB1が追尾対象に設定された場合を考える(即ち例えば、補正後の指定位置が被写体SUB1上の位置であった場合を考える)。初期フレーム画像400は、森を背景にした状態で人物としての被写体SUB1を撮影した画像である。図14(b)の画像410は、初期フレーム画像400に対応する距離画像(例えば、初期フレーム画像400の撮影直前、撮影時又は撮影直後の被写体距離検出処理の結果に基づく距離画像)である。
[Sixth application example]
A sixth application example will be described. An initial tracking area from which an initial image feature amount should be extracted may be determined using subject distance information. For example, consider a case in which the
このような場合において、例えば、初期追尾領域を一定の大きさを持つ矩形領域401(図14(c)参照)としたならば、初期追尾領域内に追尾対象以外の被写体(本例において、木や地面)の画像データが含まれる場合がある。初期追尾領域内に追尾対象以外の被写体の画像データが含まれると、初期登録情報の画像特徴量に、追尾対象以外の被写体の画像特徴量が含まれるようになり、追尾精度が劣化する。この劣化は、特に、追尾対象と背景が色などにおいて似通っている場合に顕著となる。これを回避すべく、被写体距離情報としての距離画像410を用いて、追尾対象以外の被写体の画像データが初期追尾領域から除外されるように(換言すれば、追尾対象以外の被写体が初期追尾領域に入らないように)、初期追尾領域の位置、大きさ及び形状を設定すると良い。これにより、追尾精度の向上が図られる。
In such a case, for example, if the initial tracking area is a rectangular area 401 (see FIG. 14C) having a certain size, a subject other than the tracking target in the initial tracking area (in this example, a tree) Or ground) image data may be included. If image data of a subject other than the tracking target is included in the initial tracking area, the image feature amount of the subject other than the tracking target is included in the image feature amount of the initial registration information, and the tracking accuracy deteriorates. This deterioration is particularly noticeable when the tracking target and the background are similar in color or the like. In order to avoid this, the
具体的には例えば、距離画像410を用いた領域分割処理によって、初期フレーム画像400の全体画像領域を被写体SUB1の被写体領域と被写体SUB1の被写体領域以外の画像領域とに切り分け、被写体SUB1の被写体領域の全部又は一部を含む領域であって且つ被写体SUB1の被写体領域以外の画像領域を含まない領域を初期追尾領域として設定すると良い。図14(d)の破線402で囲まれた領域は、このような初期追尾領域の例である。
Specifically, for example, by the region dividing processing using the
[第7応用例]
第7応用例を説明する。追尾結果は様々な形態で利用可能である。例えば、追尾領域内の被写体にピントが合い続けるようにフォーカスレンズ31の位置を調整したり、追尾領域内の被写体に対する露出が最適化されるようにISO感度を調整したり、追尾領域内の被写体のホワイトバランスが最適化されるようにホワイトバランス調整を行ったりすることができる。
[Seventh application example]
A seventh application example will be described. The tracking result can be used in various forms. For example, the position of the
また、追尾領域を内包する切り出し領域を各フレーム画像に設定して、切り出し領域内の画像(以下、切り出し画像という)を各フレーム画像から抽出し、切り出し画像列から成る動画像を記録媒体16に保存しておくこともできる。切り出し領域は追尾領域そのものであっても良い。切り出し画像列から成る動画像を高解像度化してから記録媒体16に保存するようにしても良い。高解像度化の方法として、例えば、特開2009−147727号公報に記載の方法を用いることができる。勿論、各フレーム画像の全体画像データを記録媒体16に保存しておくことで、フレーム画像列そのものを動画像として記録することも可能である。
In addition, a cutout area including the tracking area is set in each frame image, an image in the cutout area (hereinafter referred to as a cutout image) is extracted from each frame image, and a moving image including the cutout image sequence is stored in the
<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態は第1実施形態を基礎とした実施形態であり、第2実施形態において特に述べない事項に関しては、矛盾なき限り、第1実施形態の記載が第2実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second embodiment is an embodiment based on the first embodiment. Regarding matters not specifically described in the second embodiment, the description of the first embodiment is applied to the second embodiment as long as there is no contradiction. .
図15を参照して、第2実施形態の追尾モードにおける動作を説明する。図15は、追尾モードにおける撮像装置1の動作の流れを表すフローチャートである。撮像装置1の動作モードが追尾モードに設定されると、まず、ステップS51において、距離情報生成部61は、被写体距離検出処理を実行することで被写体距離情報を生成する。続くステップS52において、追尾対象設定部63は、ステップS51の被写体距離情報に基づき追尾対象候補を設定する。追尾対象候補は、後述のステップS55にて設定されるべき追尾対象の候補である。
The operation in the tracking mode of the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing the flow of the operation of the imaging apparatus 1 in the tracking mode. When the operation mode of the imaging apparatus 1 is set to the tracking mode, first, in step S51, the distance
今、追尾対象候補の設定時におけるフレーム画像が、図16(a)の画像500であった場合を考える。フレーム画像500には、比較的小さい被写体距離d1を有する被写体SUB1及び比較的大きな被写体距離d2を有する被写体SUB2の画像データが存在している。また、説明の簡略化上、被写体SUB1及びSUB2の被写体領域以外には、被写体距離がd1及びd2よりも十分大きい背景被写体が存在しているものとする。図16(b)の画像510は、ステップS51の被写体距離情報に基づく、フレーム画像500に対応する距離画像である。ステップS52では、例えば、被写体距離が所定距離よりも小さい各被写体が追尾対象候補に設定される。今、被写体距離d1及びd2が共に所定距離よりも小さい場合を考える。そうすると、被写体SUB1及びSUB2の夫々が追尾対象候補に設定される。尚、追尾対象候補が1つしか設定されなかった場合には、後述のステップS53及びS54の処理実行を割愛して、その1つの追尾対象候補を追尾対象に設定し、ステップS17及びそれ以降の処理を実行すれば良い。
Consider a case where the frame image at the time of setting the tracking target candidate is the
ステップS52に続くステップS53において、追尾対象設定部63は、ステップS51にて得られた被写体距離情報に基づき各追尾対象候補に対するタグを生成し、表示制御部64と協働して各タグをフレーム画像と共に表示画面51に表示させる。ステップS53における表示画面51の表示内容例を、図17に示す。図17の表示画面51には、フレーム画像500と共に、被写体SUB1に対応するタグ521及び被写体SUB2に対応するタグ522が表示されている。タグ521は、被写体SUB1が追尾対象候補の1つであることをユーザに知らせるための指標であり、タグ522は、被写体SUB2が追尾対象候補の1つであることをユーザに知らせるための指標である。
In step S53 following step S52, the tracking
ここで、表示画面51上における各タグの大きさは、ステップS51にて得られた被写体距離情報に基づき、対応する追尾対象候補の被写体距離が小さいほど大きくなるように決定される。タグ521に対応するSUB1の被写体距離d1はタグ522に対応するSUB2の被写体距離d2よりも小さいため、表示画面51上において、タグ521の大きさはタグ522の大きさよりも大きくなる。図17の例では、タグ521及び522の形状が相似となっているが、それらの形状を互いに異ならせても構わない。また、タグと追尾対象候補との対応関係が分かるように、表示画面51上において、各タグは対応する追尾対象候補の近傍に配置される。この際、タグの表示によって主要な被写体が表示画面51上で確認しづらくなることを防止すべく、背景被写体の表示領域又は被写体距離が所定距離以上の被写体の表示領域に各タグを表示すると良い。
Here, the size of each tag on the
各タグの表示中、ステップS54において、タッチパネル(タッチ検出体52)によりユーザによる追尾対象選択操作の入力を受け付け、その入力が成された場合に、ステップS55及びそれ以降の処理を実行する。ステップS54における追尾対象選択操作は、表示画面51上における何れかのタグを指にて触れることで実現される。何れかのタグを指定するためのタッチ位置を指定位置と呼んだならば、ステップS54における追尾対象選択操作は、ユーザによる指定位置入力操作であると言え、図3のタッチ検出部52が、その指定位置入力操作を受け付ける操作受付部として機能する。基本的に表示画面51上にはフレーム画像列に基づく表示用画像列が動画像として表示されているが、追尾対象選択操作を受け付けている期間中においては、その操作を行いやすくするために、表示画面51上における動画像の再生を一時的に停止するようにしても良い。
During the display of each tag, in step S54, the input of the tracking target selection operation by the user is accepted by the touch panel (touch detection body 52), and when the input is made, step S55 and subsequent processing are executed. The tracking target selection operation in step S54 is realized by touching any tag on the
ステップS55では、追尾対象選択操作の内容に従い、追尾対象設定部63が複数の追尾対象候補の中から追尾対象を選択する。即ち、追尾対象選択操作による指定位置と各タグの表示位置との位置関係に基づき追尾対象を設定する。より具体的には、追尾対象選択操作による指定位置がタグ521の表示されている位置であるならば、タグ521に対応する追尾対象候補(即ち被写体SUB1)を追尾対象として設定し、追尾対象選択操作による指定位置がタグ522の表示されている位置であるならば、タグ522に対応する追尾対象候補(即ち被写体SUB2)を追尾対象として設定する。追尾対象の設定後、追尾対象の初期登録処理を経て追尾処理が実行される(ステップS17〜S20)。追尾対象の設定後に実行される処理は、第1実施形態で述べたそれと同様である。
In step S55, the tracking
尚、上述の例では、追尾対象候補の個数が2であるときの動作を説明したが、その個数が3であるときも同様である。また、追尾対象候補となる被写体の種類を特定の種類(例えば、人物)に限定するようにしても良い。 In the above example, the operation when the number of tracking target candidates is 2 has been described, but the same applies when the number of tracking target candidates is 3. Further, the type of subject that is a tracking target candidate may be limited to a specific type (for example, a person).
本実施形態によれば、追尾対象として設定される可能性がより高いと思われる、被写体距離が小さな被写体に対し、表示サイズの大きなタグが生成及び表示され、対応するタグをタッチすれば対応する被写体が追尾対象に設定される。このため、ユーザは、所望の被写体を容易に且つ正確に追尾対象に指定しやすくなる。 According to the present embodiment, a tag with a large display size is generated and displayed for a subject with a short subject distance, which is likely to be set as a tracking target, and a corresponding tag can be touched by touching it. The subject is set as a tracking target. For this reason, the user can easily and accurately designate a desired subject as a tracking target.
矛盾なき限り、第1実施形態で述べた各応用例を本実施形態にも適用することができる。特に例えば、第2実施形態に対する上記第4応用例の適用は有益である。即ち、以下のような動作を行うようにしても良い。ステップS51〜S53の処理後、追尾対象選択操作の有無に関係なく直ちに、設定された複数の追尾対象候補の夫々を暫定的な追尾対象と捉えて、各追尾対象候補に対する追尾処理を個別に実行開始する。この追尾処理の実行過程において、表示画面51上で各追尾対象候補の位置が変化したならば、それに追従するように、各追尾対象候補に対応するタグの表示位置も変化させる。この状態で、ステップS54における追尾対象選択操作を受け付けるようにすると良い。
As long as there is no contradiction, each application example described in the first embodiment can be applied to this embodiment. In particular, for example, the application of the fourth application example to the second embodiment is beneficial. That is, the following operation may be performed. Immediately after the processing of steps S51 to S53, regardless of whether or not a tracking target selection operation is performed, each of the set plurality of tracking target candidates is regarded as a provisional tracking target, and tracking processing for each tracking target candidate is executed individually. Start. If the position of each tracking target candidate is changed on the
<<変形等>>
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施の形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施の形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
<< Deformation, etc. >>
The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an example of the embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values.
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい。 The imaging apparatus 1 in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device (for example, a computer).
1 撮像装置
11 撮像部
15 表示部
30 ズームレンズ
31 フォーカスレンズ
32 絞り
33 撮像素子
51 表示画面
52 タッチ検出部
61 被写体距離情報生成部
62 追尾処理部
63 追尾対象設定部
DESCRIPTION OF SYMBOLS 1
Claims (6)
前記被写体及び前記撮像素子間の距離情報を取得する距離情報取得部と、
前記撮像素子の出力に基づく表示用画像を表示する表示画面と、
前記表示画面上における指定位置の入力操作を受け付ける操作受付部と、
前記距離情報と前記指定位置に基づいて特定の被写体を追尾対象に設定する追尾対象設定部を有し、前記画像列の画像データに基づき前記画像列上で前記追尾対象を追尾する追尾処理部と、を備えた
ことを特徴とする撮像装置。 An image sensor that outputs a signal representing an image sequence obtained by sequentially photographing a subject;
A distance information acquisition unit that acquires distance information between the subject and the image sensor;
A display screen for displaying an image for display based on the output of the image sensor;
An operation accepting unit for accepting an input operation at a designated position on the display screen;
A tracking target setting unit that sets a specific subject as a tracking target based on the distance information and the specified position, and a tracking processing unit that tracks the tracking target on the image sequence based on image data of the image sequence; An imaging apparatus comprising:
ことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the tracking target setting unit corrects the specified position using the distance information, and sets a subject at the corrected specified position as the tracking target.
前記追尾対象設定部は、前記距離情報に基づいて前記複数の指標の大きさを決定し、前記表示画面上における前記指定位置と各指標との位置関係に基づき前記追尾対象を設定する
ことを特徴とする請求項1に記載の撮像装置。 The display screen displays a plurality of indices corresponding to the plurality of subjects together with the display image when receiving the input operation when a plurality of subjects appear on the display image,
The tracking target setting unit determines the size of the plurality of indices based on the distance information, and sets the tracking target based on a positional relationship between the designated position and each index on the display screen. The imaging apparatus according to claim 1.
前記追尾対象設定部は、前記指定位置が第iの指標に対応する位置であるとき(iはn以下の自然数)、第iの指標に対応する第iの被写体を前記追尾対象に設定する
ことを特徴とする請求項3に記載の撮像装置。 The plurality of subjects include first to nth subjects, and the plurality of indicators include first to nth indicators corresponding to the first to nth subjects (n is an integer of 2 or more),
The tracking target setting unit sets the i-th subject corresponding to the i-th index as the tracking target when the designated position is a position corresponding to the i-th index (i is a natural number equal to or less than n). The imaging apparatus according to claim 3.
前記追尾対象設定部は、前記距離情報を用いて、前記追尾対象の画像データを内包する初期追尾領域を前記基準画像に設定し、
前記追尾処理部は、前記基準画像における前記初期追尾領域内の画像データと各非基準画像の画像データとを用いて各非基準画像における前記追尾対象の位置を検出することにより、前記画像列上で前記追尾対象を追尾する
ことを特徴とする請求項1〜請求項4の何れかに記載の撮像装置。 The image sequence includes a reference image and a plurality of non-reference images obtained by photographing after the reference image,
The tracking target setting unit uses the distance information to set an initial tracking area containing the tracking target image data in the reference image,
The tracking processing unit detects the position of the tracking target in each non-reference image using the image data in the initial tracking area in the reference image and the image data of each non-reference image. The imaging apparatus according to claim 1, wherein the tracking target is tracked.
ことを特徴とする請求項5に記載の撮像装置。 The tracking target setting unit sets the initial tracking area using the distance information so that image data of a subject other than the tracking target is excluded from the initial tracking area. The imaging device described.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010148042A JP2012015642A (en) | 2010-06-29 | 2010-06-29 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010148042A JP2012015642A (en) | 2010-06-29 | 2010-06-29 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012015642A true JP2012015642A (en) | 2012-01-19 |
Family
ID=45601593
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010148042A Pending JP2012015642A (en) | 2010-06-29 | 2010-06-29 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012015642A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013214254A (en) * | 2012-04-04 | 2013-10-17 | Nikon Corp | Information detection device |
| WO2017090437A1 (en) | 2015-11-24 | 2017-06-01 | ソニー株式会社 | Camera module and electronic device |
| JP2017228082A (en) * | 2016-06-22 | 2017-12-28 | キヤノン株式会社 | Tracking device, tracking method, and program |
| JP2017229061A (en) * | 2016-06-21 | 2017-12-28 | キヤノン株式会社 | Image processing apparatus, control method therefor, and imaging apparatus |
| WO2018139255A1 (en) | 2017-01-26 | 2018-08-02 | Sony Semiconductor Solutions Corporation | Af module, camera module, and electronic apparatus |
| WO2019044539A1 (en) | 2017-08-31 | 2019-03-07 | Sony Semiconductor Solutions Corporation | Laminated lens structure, solid-state imaging element, and electronic apparatus |
| WO2019065899A1 (en) * | 2017-09-28 | 2019-04-04 | パナソニックIpマネジメント株式会社 | Information processing device |
| JP2020077951A (en) * | 2018-11-07 | 2020-05-21 | キヤノン株式会社 | Image processing device |
| JP2020077952A (en) * | 2018-11-07 | 2020-05-21 | キヤノン株式会社 | Image processing device |
-
2010
- 2010-06-29 JP JP2010148042A patent/JP2012015642A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013214254A (en) * | 2012-04-04 | 2013-10-17 | Nikon Corp | Information detection device |
| WO2017090437A1 (en) | 2015-11-24 | 2017-06-01 | ソニー株式会社 | Camera module and electronic device |
| JP2017229061A (en) * | 2016-06-21 | 2017-12-28 | キヤノン株式会社 | Image processing apparatus, control method therefor, and imaging apparatus |
| JP2017228082A (en) * | 2016-06-22 | 2017-12-28 | キヤノン株式会社 | Tracking device, tracking method, and program |
| WO2018139255A1 (en) | 2017-01-26 | 2018-08-02 | Sony Semiconductor Solutions Corporation | Af module, camera module, and electronic apparatus |
| WO2019044539A1 (en) | 2017-08-31 | 2019-03-07 | Sony Semiconductor Solutions Corporation | Laminated lens structure, solid-state imaging element, and electronic apparatus |
| WO2019065899A1 (en) * | 2017-09-28 | 2019-04-04 | パナソニックIpマネジメント株式会社 | Information processing device |
| JPWO2019065899A1 (en) * | 2017-09-28 | 2020-11-26 | パナソニックIpマネジメント株式会社 | Information processing device |
| JP2020077951A (en) * | 2018-11-07 | 2020-05-21 | キヤノン株式会社 | Image processing device |
| JP2020077952A (en) * | 2018-11-07 | 2020-05-21 | キヤノン株式会社 | Image processing device |
| JP7233886B2 (en) | 2018-11-07 | 2023-03-07 | キヤノン株式会社 | Image processing device |
| JP7289630B2 (en) | 2018-11-07 | 2023-06-12 | キヤノン株式会社 | Image processing device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012015642A (en) | Imaging device | |
| JP6271990B2 (en) | Image processing apparatus and image processing method | |
| US10242454B2 (en) | System for depth data filtering based on amplitude energy values | |
| JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
| US20120147150A1 (en) | Electronic equipment | |
| US20120105590A1 (en) | Electronic equipment | |
| CN106101522A (en) | Use the method and apparatus that non-optical field imaging equipment obtains light field data | |
| US20120300115A1 (en) | Image sensing device | |
| JP2010056692A (en) | Imaging apparatus and its control method | |
| BR102012020775B1 (en) | image capture device, image processing device and image processing method for generating auxiliary information for the captured image | |
| JP2013123123A (en) | Stereo image generation device, stereo image generation method and computer program for stereo image generation | |
| US20150178595A1 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
| CN102811312A (en) | Image pickup apparatus and control method therefor | |
| JP5885395B2 (en) | Image capturing apparatus and image data recording method | |
| JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
| JP4732303B2 (en) | Imaging device | |
| JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
| JP6818449B2 (en) | Focus detector | |
| JP2013213903A (en) | Imaging device | |
| JP6257260B2 (en) | Imaging apparatus and control method thereof | |
| JP2014116789A (en) | Photographing device, control method therefor, and program | |
| JP6818814B2 (en) | Focus detector and its control method | |
| JP2011182341A (en) | Imaging device and method of controlling imaging device | |
| US11754833B2 (en) | Image processing apparatus and control method for image processing apparatus | |
| JP2018042092A (en) | Image processing apparatus, imaging apparatus, control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130404 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130607 |