JP2019201387A - Tracking controller - Google Patents
Tracking controller Download PDFInfo
- Publication number
- JP2019201387A JP2019201387A JP2018096470A JP2018096470A JP2019201387A JP 2019201387 A JP2019201387 A JP 2019201387A JP 2018096470 A JP2018096470 A JP 2018096470A JP 2018096470 A JP2018096470 A JP 2018096470A JP 2019201387 A JP2019201387 A JP 2019201387A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- face
- tracking
- unit
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】追尾対象を切り換えることなく、容易に被写体を継続して追尾できるようにする追尾制御装置を提供する。【解決手段】CPUは、フレーム画像において、被写体の一部を構成しかつ該被写体を特徴付ける特徴部である顔部62と特徴部の周辺に位置する周辺部である頭部61との少なくとも一方を有するものを、追尾対象として設定する。枠30aは、顔部62及び頭部61をまとめて1つの追尾対象として囲む。また当該被写体の特徴量等を辞書データに追加することで辞書データを更新する。【選択図】図6PROBLEM TO BE SOLVED: To provide a tracking control device capable of easily and continuously tracking a subject without switching a tracking target. SOLUTION: In a frame image, a CPU configures at least one of a face portion 62, which is a characteristic portion that constitutes a part of a subject and characterizes the subject, and a head portion 61, which is a peripheral portion located around the characteristic portion. What is possessed is set as a tracking target. The frame 30a encloses the face portion 62 and the head portion 61 together as one tracking target. The dictionary data is updated by adding the feature amount of the subject to the dictionary data. [Selection diagram] Fig. 6
Description
本発明は、追尾制御装置に関する。 The present invention relates to a tracking control device.
電子カメラ等の撮像装置には、移動する被写体を自動で追尾して撮影するいわゆる追尾機能を備えたものがある。このような追尾機能に関連する技術として、特許文献1が知られている。 Some imaging devices such as electronic cameras have a so-called tracking function for automatically tracking and photographing a moving subject. Patent Document 1 is known as a technique related to such a tracking function.
具体的に、特許文献1には、被写体の顔部を追尾する顔部追尾部と、胸部等の被写体の顔部の周辺部位を追尾する周辺部位追尾部とを備える追尾制御装置が開示されている。この追尾制御装置は、顔部追尾部で被写体を追尾する一方、顔部の追尾ができないときに周辺部位追尾部で被写体を追尾するように切り換えるようになっている。 Specifically, Patent Document 1 discloses a tracking control device including a face tracking unit that tracks a face part of a subject and a peripheral part tracking unit that tracks a peripheral part of the face part of the subject such as a chest. Yes. This tracking control device tracks the subject with the face tracking unit, and switches to track the subject with the peripheral part tracking unit when the face cannot be tracked.
特許文献1のものでは、顔部を追尾できないときに、追尾対象の切換処理といった比較的負荷の高い処理が必要となる。 In Patent Document 1, when the face portion cannot be tracked, a relatively high-load process such as a tracking target switching process is required.
そこで、本発明は、追尾対象を切り換えることなく、容易に被写体を継続して追尾できるようにすることを目的とする。 Therefore, an object of the present invention is to enable easy and continuous tracking of a subject without switching the tracking target.
第1の発明は、撮像装置の撮像部から特定の被写体を含んだ連続する複数のフレーム画像を取得する取得部と、前記撮像部に対し前記被写体を含む追尾対象を追尾させるように追尾制御を行う追尾制御部とを備える追尾制御装置であって、前記追尾制御部は、前記フレーム画像において、前記被写体の一部を構成しかつ該被写体を特徴付ける特徴部と該特徴部の周辺に位置する周辺部との少なくとも一方を有するものを、前記追尾対象として設定することを特徴とする追尾制御装置である。 According to a first aspect of the present invention, an acquisition unit that acquires a plurality of continuous frame images including a specific subject from an imaging unit of an imaging device, and tracking control so that the tracking unit including the subject is tracked by the imaging unit. A tracking control unit comprising: a tracking control unit configured to perform a tracking control unit, wherein the tracking control unit forms a part of the subject and characterizes the subject in the frame image; and a periphery located around the feature unit A tracking control device is characterized in that a device having at least one of the units is set as the tracking target.
第1の発明によれば、例えば特徴部を検出できないときでも、フレーム画像上に周辺部が検出されれば被写体を追尾することができる。このため、被写体を継続して追尾することができる。また、特徴部と周辺部とをまとめて1つの追尾対象にすることもできるので、追尾対象を切り換えることなく、容易に被写体を追尾することができる。 According to the first invention, for example, even when the feature portion cannot be detected, the subject can be tracked if the peripheral portion is detected on the frame image. For this reason, the subject can be tracked continuously. In addition, since the feature portion and the peripheral portion can be combined into one tracking target, the subject can be easily tracked without switching the tracking target.
第2の発明は、第1の発明において、前記特徴部は前記被写体の顔部であり、かつ、前記周辺部は前記被写体の頭部であり、前記頭部の色を示す頭部色情報を検出する頭部色情報検出部を更に備え、複数の前記フレーム画像に含まれる第1フレーム画像は、前記顔部が位置する第1顔部範囲を有し、前記頭部色情報検出部が、前記第1フレーム画像の後の第2フレーム画像が有する、前記第1顔部範囲に対応する第2顔部範囲内から、前記頭部の色と同様の色情報を検出した場合、前記追尾制御部は、前記第2顔部範囲内に前記顔部があると判定することを特徴とする追尾制御装置である。 In a second aspect based on the first aspect, the characteristic portion is a face portion of the subject, and the peripheral portion is a head portion of the subject, and head color information indicating a color of the head is provided. A head color information detecting unit for detecting, the first frame image included in the plurality of frame images has a first face range in which the face is located, and the head color information detecting unit includes: When color information similar to the color of the head is detected from within a second face range corresponding to the first face range included in a second frame image after the first frame image, the tracking control is performed. The tracking control device is characterized in that it determines that the face part is within the second face part range.
第2の発明によれば、被写体の顔部が認識できないときでも、頭髪や帽子等の色を基に被写体を追尾することができる。例えば、被写体の顔部の向きが変化して、顔部が検出できなくなると共に、それまで顔部が位置していた範囲内に被写体の頭部の色が検出される場合がある。この場合でも、顔部自体が認識できずとも、顔部があると判定するため、継続して被写体を追尾することができる。 According to the second invention, even when the face portion of the subject cannot be recognized, the subject can be tracked based on the color of the hair, the hat, or the like. For example, the orientation of the face portion of the subject may change, making it impossible to detect the face portion, and the color of the subject's head may be detected within the range in which the face portion has been located. Even in this case, even if the face portion itself cannot be recognized, it is determined that there is a face portion, so that the subject can be tracked continuously.
第3の発明は、第2の発明において、前記フレーム画像から前記顔部を検出する顔部検出部と、前記フレーム画像において、前記顔部の上方に位置し、かつ、同様の色情報を所定の面積以上有するものを前記頭部と検出する頭部検出部と、を更に備えることを特徴とする追尾制御装置である。 According to a third invention, in the second invention, a face part detection unit that detects the face part from the frame image, and the frame image that is located above the face part and has similar color information predetermined. A tracking control device further comprising: a head detecting unit that detects the head having an area equal to or larger than the area.
第3の発明によれば、頭部を検出する精度を向上させることができる。 According to the third invention, the accuracy of detecting the head can be improved.
第4の発明は、第2又は第3の発明において、前記撮像装置の表示部に前記フレーム画像を表示させる表示制御部、を更に備え、前記表示制御部は、1つの前記被写体に対して1つの枠を前記表示部に表示させ、前記枠は、前記顔部及び前記頭部をまとめて1つの前記追尾対象として囲むことを特徴とする追尾制御装置である。 According to a fourth aspect of the present invention, in the second or third aspect of the present invention, the display control unit further displays a frame image on the display unit of the imaging device, and the display control unit is configured to 1 for one subject. One frame is displayed on the display unit, and the frame collectively surrounds the face and the head as one tracking target.
第4の発明によれば、表示部に表示される枠が多くなることによって撮像されたフレーム画像が見辛くなることを、抑制することができる。 According to the fourth aspect of the present invention, it is possible to suppress the difficulty in seeing the frame image captured due to an increase in the number of frames displayed on the display unit.
第5の発明は、第1の発明において、前記フレーム画像において、前記周辺部の色を示す周辺色情報を検出する周辺色情報検出部を備え、前記追尾制御部は、前記周辺色情報と同様の色情報を所定の面積以上有するものを前記周辺部であると判定することを特徴とする追尾制御装置である。 According to a fifth aspect, in the first aspect, the frame image includes a peripheral color information detection unit that detects peripheral color information indicating a color of the peripheral portion, and the tracking control unit is similar to the peripheral color information. It is a tracking control device characterized in that it is determined that the peripheral portion has the color information of at least a predetermined area.
第5の発明によれば、周辺部を検出する精度を向上させることができる。 According to the fifth aspect, it is possible to improve the accuracy of detecting the peripheral portion.
第6の発明は、第5の発明において、前記特徴部は前記被写体の顔部であり、かつ前記周辺部は前記被写体の胴部であり、前記フレーム画像から前記顔部を検出する顔部検出部と、前記フレーム画像から前記胴部を検出する胴部検出部と、を更に備え、前記胴部検出部は、前記顔部の下方にあるものを前記胴部であると判定することを特徴とする追尾制御装置である。 In a sixth aspect based on the fifth aspect, the feature portion is the face portion of the subject, and the peripheral portion is the torso portion of the subject, and the face portion detection detects the face portion from the frame image. And a torso detecting unit for detecting the torso from the frame image, wherein the torso detecting unit determines that the part below the face is the torso. Is a tracking control device.
第6の発明によれば、仮に被写体の顔部が認識できないときでも、胴部における服等の色を基に被写体を追尾することができる。 According to the sixth aspect, even when the face portion of the subject cannot be recognized, the subject can be tracked based on the color of clothes or the like on the torso.
第7の発明は、第5又は第6の発明において、前記撮像装置の表示部に前記フレーム画像を表示させる表示制御部、を更に備え、前記表示制御部は、前記特徴部を囲む第1枠と、前記特徴部及び前記周辺部をまとめて1つの前記追尾対象として囲む第2枠とを前記表示部に表示させることを特徴とする追尾制御装置である。 A seventh invention further includes a display control unit that displays the frame image on the display unit of the imaging device according to the fifth or sixth invention, and the display control unit includes a first frame surrounding the feature unit. And a second frame that surrounds the characteristic portion and the peripheral portion as a single tracking target on the display portion.
第7の発明によれば、表示部において、追尾対象全体と顔部とが確認しやすくなる。 According to the seventh aspect, it becomes easy to confirm the entire tracking target and the face in the display unit.
本発明によれば、追尾対象の切換処理といった比較的負荷の高い処理が必要とせず、容易に被写体を継続して追尾できる。 According to the present invention, it is possible to easily and continuously track a subject without requiring a relatively high load process such as a tracking target switching process.
以下、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are essentially preferable examples, and are not intended to limit the scope of the present invention, its application, or its use.
≪第1実施形態≫
<概要>
本実施形態に係る追尾制御装置は、画像処理装置(100)にて構成される。画像処理装置(100)は、様々な撮影モードにて画像を撮像できる撮像装置(10)に備えられており、撮像された画像に対し画像処理を施す。撮像装置(10)としては、具体的には、ビデオカメラやデジタルカメラ等の電子カメラが挙げられる。
<< First Embodiment >>
<Overview>
The tracking control device according to the present embodiment is configured by an image processing device (100). The image processing apparatus (100) is provided in the imaging apparatus (10) that can capture an image in various shooting modes, and performs image processing on the captured image. Specific examples of the imaging device (10) include electronic cameras such as video cameras and digital cameras.
特に、撮像装置(10)は、撮影モードの1つとして、撮像装置(10)が概ね固定された状態にて被写体を追尾して撮像する追尾モード機能を有しており、本実施形態に係る画像処理装置(100)は、当該追尾機能を実現するための制御処理も行う。 In particular, the imaging apparatus (10) has a tracking mode function for tracking and imaging a subject with the imaging apparatus (10) being substantially fixed as one of the imaging modes. The image processing apparatus (100) also performs control processing for realizing the tracking function.
被写体を撮像装置(10)が撮像し続ける際、撮像装置(10)には、被写体を見失うことなく追尾し続けることが求められる。ところが、被写体自体の動きや環境の変化によって、撮像装置(10)は、被写体を見失い、追尾動作を続けることができなくなる可能性がある。 When the imaging device (10) continues to capture the subject, the imaging device (10) is required to keep tracking without losing sight of the subject. However, there is a possibility that the imaging device (10) loses sight of the subject and cannot continue the tracking operation due to the movement of the subject itself or a change in environment.
これに対し、本実施形態の画像処理装置(100)は、被写体の姿勢や環境が変化したとしても撮像装置(10)が被写体を追尾して撮像できるように、追尾制御を行う。 In contrast, the image processing apparatus (100) of the present embodiment performs tracking control so that the imaging apparatus (10) can track and image the subject even when the posture or environment of the subject changes.
なお、撮像装置(10)が撮像する画像は、連続撮像された複数枚の静止画であってもよいし、動画であってもよいが、以下では、動画である場合を例示する。 Note that the image captured by the imaging device (10) may be a plurality of continuously captured still images or a moving image, but a case where it is a moving image is illustrated below.
<撮像装置の構成>
図1に示すように、撮像装置(10)は、追尾制御装置である画像処理装置(100)に加えて、撮像部(11)及びモニタ(30)を備える。
<Configuration of imaging device>
As shown in FIG. 1, the imaging device (10) includes an imaging unit (11) and a monitor (30) in addition to the image processing device (100) that is a tracking control device.
撮像部(11)は、画像を撮像して画像データを得るものであって、ドライバ(18a,18b,18c)、フォーカスレンズ(12)、絞りユニット(14)及びイメージセンサ(20)を有する。 The imaging unit (11) captures an image to obtain image data, and includes a driver (18a, 18b, 18c), a focus lens (12), an aperture unit (14), and an image sensor (20).
ドライバ(18a,18b,18c)は、フォーカスレンズ(12)、絞りユニット(14)及びイメージセンサ(20)それぞれに対応して接続され、接続された機能部を駆動する。フォーカスレンズ(12)は、被写体にピントを合わせるためのレンズであって、撮像装置(10)の筐体(図示せず)内にて可動に設けられている。絞りユニット(14)は、露光量を調節するためのものである。イメージセンサ(20)は、撮像素子であって、イメージセンサ(20)の受光面には、フォーカスレンズ(12)を経て被写体の光学像が入射される。イメージセンサ(20)は、この光学像に対し光電変換を施すことにより、光学像に対応する生画像信号を生成する。更に、イメージセンサ(20)では、読み出された各フレームの生画像信号に対してノイズ除去とレベル調整とが施される。 The drivers (18a, 18b, 18c) are connected to the focus lens (12), the aperture unit (14), and the image sensor (20), respectively, and drive the connected functional units. The focus lens (12) is a lens for focusing on a subject, and is movably provided in a housing (not shown) of the imaging device (10). The aperture unit (14) is for adjusting the exposure amount. The image sensor (20) is an image sensor, and an optical image of a subject is incident on the light receiving surface of the image sensor (20) through the focus lens (12). The image sensor (20) generates a raw image signal corresponding to the optical image by performing photoelectric conversion on the optical image. Further, in the image sensor (20), noise removal and level adjustment are performed on the read raw image signal of each frame.
このような撮像部(11)を備える撮像装置(10)は、自動で主要被写体にピントを合わせるオートフォーカス機能、及び、自動で露出(換言すると絞りの開口量や露光期間)を制御する自動露出機能を有する。これらの各機能を実現させるべく、撮像部(11)の各ドライバ(18a〜18c)は、後述する画像処理装置(100)のCPU(32)によって制御される。 The image pickup apparatus (10) including such an image pickup unit (11) has an autofocus function for automatically focusing on a main subject, and an automatic exposure for automatically controlling exposure (in other words, aperture opening amount and exposure period). It has a function. In order to realize these functions, the drivers (18a to 18c) of the imaging unit (11) are controlled by a CPU (32) of the image processing apparatus (100) described later.
モニタ(30)は、図示してはいないが、撮像装置(10)の筐体表面において、ユーザが視認できる位置に設けられている。モニタ(30)は、表示部としての機能を有する。モニタ(30)は、タッチパネル形式の液晶表示パネルで構成されることができ、撮像装置(10)が撮像した画像や、撮像装置(10)の各種設定に用いるメニュー画面等が表示される。 Although not shown, the monitor (30) is provided on the surface of the housing of the imaging device (10) at a position where the user can visually recognize it. The monitor (30) has a function as a display unit. The monitor (30) can be composed of a touch panel type liquid crystal display panel, and displays an image captured by the imaging device (10), a menu screen used for various settings of the imaging device (10), and the like.
<画像処理装置の構成>
本実施形態に係る画像処理装置(100)の構成について、撮影時の動作を交えて具体的に説明する。
<Configuration of image processing apparatus>
The configuration of the image processing apparatus (100) according to the present embodiment will be specifically described along with the operation at the time of shooting.
画像処理装置(100)は、図1に示すように、信号処理回路(26)、メモリ制御回路(24)、SDRAM(38)、モニタ用ドライバ(28)、I/F回路(34)、メモリカード(36)、MPEGコーデック(27)、記憶部(42)、CPU(32)及び撮像ボタン(40)を備える。 As shown in FIG. 1, the image processing apparatus (100) includes a signal processing circuit (26), a memory control circuit (24), an SDRAM (38), a monitor driver (28), an I / F circuit (34), a memory A card (36), an MPEG codec (27), a storage unit (42), a CPU (32), and an imaging button (40) are provided.
このうち、信号処理回路(26)は、取得部としての機能を有する。CPU(32)は、追尾制御部、頭部検出部、顔部検出部、頭部色情報検出部、としての機能を有する。 Among these, the signal processing circuit (26) has a function as an acquisition unit. The CPU (32) has functions as a tracking control unit, a head detection unit, a face detection unit, and a head color information detection unit.
信号処理回路(26)は、撮像部(11)に含まれるイメージセンサ(20)から出力された各フレームの生画像信号(ディジタル信号)を次々と取得する。信号処理回路(26)は、前処理回路(26a)と後処理回路(26b)とを有する。 The signal processing circuit (26) sequentially acquires raw image signals (digital signals) of each frame output from the image sensor (20) included in the imaging unit (11). The signal processing circuit (26) has a pre-processing circuit (26a) and a post-processing circuit (26b).
前処理回路(26a)は、取得した生画像データに、ディジタルクランプ、画素欠陥補正、ゲイン制御等の処理を施す。これらの処理を施された生画像データは、メモリ制御回路(24)を介してSDRAM(38)の生画像エリア(38a)に書き込まれる。 The preprocessing circuit (26a) performs processing such as digital clamping, pixel defect correction, and gain control on the obtained raw image data. The raw image data subjected to these processes is written into the raw image area (38a) of the SDRAM (38) via the memory control circuit (24).
後処理回路(26b)は、生画像エリア(38a)に格納された生画像データを、メモリ制御回路(24)を介して読み出し、読み出された生画像データに色分離処理、ホワイトバランス調整処理及びYUV変換処理を施す。更に、後処理回路(26b)は、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データ及び探索画像データが個別に作成される。表示画像データは、メモリ制御回路(24)によってSDRAM(38)の表示画像エリア(38b)に書き込まれる。探索画像データは、メモリ制御回路(24)によってSDRAM(38)の検索画像エリア(38c)に書き込まれる。 The post-processing circuit (26b) reads the raw image data stored in the raw image area (38a) via the memory control circuit (24), and performs color separation processing and white balance adjustment processing on the read raw image data. And YUV conversion processing. Further, the post-processing circuit (26b) executes the zoom process for display and the zoom process for search on the image data according to the YUV format in parallel. As a result, display image data and search image data according to the YUV format are individually created. The display image data is written into the display image area (38b) of the SDRAM (38) by the memory control circuit (24). The search image data is written into the search image area (38c) of the SDRAM (38) by the memory control circuit (24).
ところで、図2に示すように、被写界(即ち画面)は、垂直方向及び水平方向のそれぞれに例えば16分割され、画面には256個のブロックが形成されている。各ブロックには、垂直位置信号i(iは0〜15の整数)及び水平位置信号j(jは0〜15の整数)が割り当てられる。信号処理回路(26)は、上述した処理に加えて、画像データに係るR成分、G成分及びB成分それぞれを上記ブロック毎に積分する処理を更に行う。これによって、R成分に関する256個の積分値r(i,j)、G成分に関する256個の積分値g(i,j)、B成分に関する256個の積分値b(i,j)が、信号処理回路(26)から1フレーム期間毎に出力される。これらの積分値r(i,j),g(i,j),b(i,j)は、絞りユニット(14)による露光量及び露光時間の調節をCPU(32)が行う際の、AE評価値として用いられる。また、信号処理回路(26)は、上記R成分、G成分及びB成分それぞれの高周波数成分をブロック毎に積分する処理を更に行う。この積分値は、CPU(32)がフォーカスレンズ(12)の位置を最適にする処理を行う際の(即ちオートフォーカス)、AF評価値として用いられる。 By the way, as shown in FIG. 2, the object scene (that is, the screen) is divided into, for example, 16 in each of the vertical direction and the horizontal direction, and 256 blocks are formed on the screen. Each block is assigned a vertical position signal i (i is an integer from 0 to 15) and a horizontal position signal j (j is an integer from 0 to 15). In addition to the processing described above, the signal processing circuit (26) further performs processing for integrating the R component, G component, and B component relating to the image data for each block. As a result, 256 integral values r (i, j) relating to the R component, 256 integral values g (i, j) relating to the G component, and 256 integral values b (i, j) relating to the B component are obtained as a signal. Output from the processing circuit (26) every frame period. These integrated values r (i, j), g (i, j), and b (i, j) are obtained when the CPU (32) adjusts the exposure amount and exposure time by the aperture unit (14). Used as an evaluation value. The signal processing circuit (26) further performs processing for integrating the high frequency components of the R component, G component, and B component for each block. This integrated value is used as an AF evaluation value when the CPU (32) performs processing for optimizing the position of the focus lens (12) (that is, autofocus).
更に、信号処理回路(26)は、画像データに係るY成分をブロック毎に積分し、Y成分に関する256個の積分値y(i,j)を1フレーム期間毎にCPU(32)に出力してもよい。 Further, the signal processing circuit (26) integrates the Y component related to the image data for each block, and outputs 256 integral values y (i, j) related to the Y component to the CPU (32) every frame period. May be.
図1に戻り、SDRAM(38)の表示画像エリア(38b)に格納された各フレームの画像データ(即ち表示画像データ)がメモリ制御回路(24)によって読み出されると、表示制御部としての機能を有するモニタ用ドライバ(28)は、この画像データに基づいてモニタ(30)を駆動する。これにより、モニタ(30)には、被写体のリアルタイム動画像(スルー画像)が表示される。 Returning to FIG. 1, when the image data of each frame (that is, display image data) stored in the display image area (38b) of the SDRAM (38) is read by the memory control circuit (24), the function as a display control unit is achieved. The monitor driver (28) has a drive for the monitor (30) based on the image data. As a result, a real-time moving image (through image) of the subject is displayed on the monitor (30).
撮像ボタン(40)の押下によって動画の撮像開始操作が行われると、CPU(32)は、動画記録処理を開始するべく、記録開始命令をMPEGコーデック(27)及びI/F回路(34)に与える。撮像ボタン(40)によって記録終了操作が行われると、CPU(32)は、動画記録処理を終了するべく、記録終了命令をMPEGコーデック(27)及びI/F回路(34)に与える。記録開始命令から記録終了命令までの期間、MPEGコーデック(27)は、垂直同期信号(図示せず)に応答して、SDRAM(38)の検索画像エリア(38c)に格納されたYUV形式の画像データ(即ち検索画像データ)を、メモリ制御回路(24)を介して繰り返し読み出すと共に、読み出された画像データを所定形式に従って符号化する。I/F回路(34)は、記録開始命令から記録終了命令までの期間、符号化された画像データを、ファイル形式でメモリカード(36)に記録する。 When a moving image capturing start operation is performed by pressing the image capturing button (40), the CPU (32) sends a recording start command to the MPEG codec (27) and the I / F circuit (34) to start the moving image recording process. give. When a recording end operation is performed by the imaging button (40), the CPU (32) gives a recording end command to the MPEG codec (27) and the I / F circuit (34) in order to end the moving image recording process. During the period from the recording start command to the recording end command, the MPEG codec (27) responds to a vertical synchronization signal (not shown) and the YUV format image stored in the search image area (38c) of the SDRAM (38). Data (that is, search image data) is repeatedly read out via the memory control circuit (24), and the read image data is encoded according to a predetermined format. The I / F circuit (34) records the encoded image data on the memory card (36) in a file format during the period from the recording start command to the recording end command.
なお、メモリカード(36)は、撮像装置(10)の筐体(図示せず)に対して着脱自在に設けられたものである。 The memory card (36) is provided detachably with respect to the housing (not shown) of the imaging device (10).
CPU(32)には、フラッシュメモリ等で構成される記憶部(42)が、電気的に接続されている。記憶部(42)には、追尾対象とする被写体を自動で認識する際に利用される辞書データ(DB1)、及び、追尾撮影制御時に利用される評価値データ(DB2)が格納されている。 A storage unit (42) composed of a flash memory or the like is electrically connected to the CPU (32). The storage unit (42) stores dictionary data (DB1) used when automatically recognizing a subject to be tracked and evaluation value data (DB2) used during tracking shooting control.
図3は、辞書データ(DB1)の概念を一例として表したものである。図3の辞書データ(DB1)には、人物の特徴量のデータ(G1)が登録されている。特徴量には、被写体の輝度、明度、彩度、色相、色成分、形状(即ち輪郭、エッジ成分)、方位、これらの組合せ等が挙げられる。本実施形態では、辞書データ(DB1)に登録される特徴量が、被写体の色成分である場合を例示する。 FIG. 3 shows an example of the concept of dictionary data (DB1). In the dictionary data (DB1) shown in FIG. 3, the feature data (G1) of the person is registered. The feature amount includes subject brightness, brightness, saturation, hue, color component, shape (ie, contour, edge component), orientation, combinations thereof, and the like. In the present embodiment, the case where the feature amount registered in the dictionary data (DB1) is the color component of the subject is illustrated.
以下では、辞書データ(DB1)に含まれる、追尾対象の候補となる被写体の色成分特徴量を「色情報」と称する。 Hereinafter, the color component feature amount of a subject that is a tracking target candidate included in the dictionary data (DB1) is referred to as “color information”.
なお、上記辞書データ(DB1)には、個々の被写体毎の特徴量が登録されていてもよいし、被写体の種類毎に特徴量を平均化した値が登録されていてもよい。例えば、被写体が人物である場合、顔の色は肌色のため、人物に係る上記データ(G1)には、肌色の平均化した値を登録することができる。 In the dictionary data (DB1), the feature amount for each subject may be registered, or a value obtained by averaging the feature amounts for each type of subject may be registered. For example, when the subject is a person, the face color is skin color, so the average value of the skin color can be registered in the data (G1) related to the person.
図4は、評価値データ(DB2)の概念を一例として表したものである。図4の評価値データ(DB2)には、追尾対象である特定の被写体毎に、色成分特徴量に基づく色評価値が、対応づけて記憶される。具体的に、図4では、追尾対象である特定の被写体の番号“001”と、色評価値“Clr1”とが、1レコードとして記憶され、特定の被写体の番号“002”と、色評価値“Clr2”とが、1レコードとして記憶されている。 FIG. 4 shows the concept of evaluation value data (DB2) as an example. In the evaluation value data (DB2) of FIG. 4, color evaluation values based on color component feature values are stored in association with each specific subject that is a tracking target. Specifically, in FIG. 4, the number “001” of the specific subject to be tracked and the color evaluation value “Clr1” are stored as one record, the number “002” of the specific subject, and the color evaluation value “Clr2” is stored as one record.
色評価値とは、追尾対象の被写体の色成分特徴量と、辞書データ(DB1)内の色情報との照合度を表した値である。 The color evaluation value is a value representing a matching degree between the color component feature amount of the subject to be tracked and the color information in the dictionary data (DB1).
なお、フレーム画像毎に算出される色評価値は、評価値データ(DB2)内に、フレーム画像毎に常に更新される。 The color evaluation value calculated for each frame image is constantly updated for each frame image in the evaluation value data (DB2).
CPU(32)は、上述した撮像部(11)のドライバ(18a〜18c)、信号処理回路(26)、メモリ制御回路(24)、モニタ用ドライバ(28)、MPEGコーデック(27)、I/F回路(34)と、バスを介して電気的に接続されている。CPU(32)は、上述した各種処理の他、信号処理回路(26)からの各積分値を用いた撮像シーン(夜景シーン等)の判定処理、撮影シーンの判定結果に応じた撮影条件の設定処理、設定された撮影条件下でのAE評価値に基づく露出調整指令出力、AF評価値に基づくオートフォーカス調整指令出力、信号処理回路(26)に対する色合い調整指令出力等を行う。 The CPU (32) includes the drivers (18a to 18c), the signal processing circuit (26), the memory control circuit (24), the monitor driver (28), the MPEG codec (27), the I / O of the imaging unit (11) described above. It is electrically connected to the F circuit (34) via a bus. In addition to the various processes described above, the CPU (32) determines a shooting scene (such as a night scene) using each integrated value from the signal processing circuit (26), and sets shooting conditions according to the shooting scene determination result. Processing, exposure adjustment command output based on AE evaluation value under set photographing conditions, autofocus adjustment command output based on AF evaluation value, hue adjustment command output to signal processing circuit (26), and the like are performed.
特に、本実施形態に係るCPU(32)は、追尾撮影に関する処理として、追尾対象の設定/登録処理、追尾対象の検出処理、追尾撮影制御処理を行う。 In particular, the CPU (32) according to the present embodiment performs tracking target setting / registration processing, tracking target detection processing, and tracking shooting control processing as processing related to tracking shooting.
追尾対象の設定/登録処理とは、モニタ(30)に写し出されている画面にユーザが直接触れることで、追尾して撮影することを希望する被写体を選択した際に、選択された対象をCPU(32)が辞書データ(DB1)に書き込む処理である。 The tracking target setting / registration process means that the user directly touches the screen projected on the monitor (30) and selects the subject desired to be tracked and photographed. (32) is the process of writing to the dictionary data (DB1).
追尾対象の検出処理とは、撮像装置(10)が追尾モードに設定されている際に、検索画像エリア(38c)内の検索画像データから、辞書データ(DB1)に記憶されている追尾対象の被写体の存在をCPU(32)が自動で検索する処理である。 The tracking target detection process refers to the tracking target stored in the dictionary data (DB1) from the search image data in the search image area (38c) when the imaging device (10) is set to the tracking mode. This is a process in which the CPU (32) automatically searches for the presence of a subject.
追尾撮影制御処理とは、撮像装置(10)が追尾モードに設定されている際に、追尾対象と決定された特定の被写体を、撮像部(11)が追尾して撮像できるように、撮像部(11)の追尾動作を制御する処理である。 The tracking imaging control process is an imaging unit so that the imaging unit (11) can track and capture a specific subject determined as a tracking target when the imaging device (10) is set to the tracking mode. This is a process for controlling the tracking operation of (11).
<追尾モードに関する動作>
以下では、追尾モードに関して画像処理装置(100)が行う動作として、追尾対象の設定/登録動作、追尾対象の検出動作、追尾撮影制御動作について詳述する。
<Operations in tracking mode>
In the following, the tracking target setting / registration operation, tracking target detection operation, and tracking shooting control operation will be described in detail as operations performed by the image processing apparatus (100) regarding the tracking mode.
―追尾対象の設定/登録動作―
図5は、追尾対象の設定/登録動作の流れを表す図である。
-Tracking target setting / registration operation-
FIG. 5 is a diagram illustrating the flow of the setting / registration operation of the tracking target.
先ず、モニタ(30)には、表示画像データに係る画像が、当該画像内の被写体を選択可能なように表示される(ステップS11)。 First, an image relating to the display image data is displayed on the monitor (30) so that a subject in the image can be selected (step S11).
ステップS11の画面上から、追尾対象とするべき被写体がユーザによって選択された場合(ステップS12のYes)、CPU(32)は、被写体の一部を構成しかつ被写体を特徴付ける特徴部と、特徴部の周辺に位置する周辺部と、を設定する(ステップS13)。例えば、被写体が人物である場合、CPU(32)は、フレーム画像から被写体の顔部(62)を検出し、顔部(62)を特徴部に設定する。CPU(32)は、顔部(62)の上方に位置し、かつ、同様の色情報を所定の面積以上有する色の固まりを頭部(61)と検出して、頭部(61)を周辺部に設定する。CPU(32)は、頭部(61)の色を示す頭部色情報を検出する。頭部色情報としては、例えば、頭髪や帽子の色が検出される。 When the subject to be tracked is selected by the user from the screen in step S11 (Yes in step S12), the CPU (32) includes a feature that forms part of the subject and characterizes the subject, And a peripheral part located in the vicinity of (step S13). For example, when the subject is a person, the CPU (32) detects the face portion (62) of the subject from the frame image and sets the face portion (62) as a feature portion. The CPU (32) detects a cluster of colors located above the face (62) and having similar color information more than a predetermined area as the head (61), and moves the head (61) around Set the part. The CPU (32) detects head color information indicating the color of the head (61). As the head color information, for example, the color of the hair or hat is detected.
CPU(32)は、選択された被写体を枠(30a)が囲った状態の画面が表示されるように(即ち、ステップS11の画面に枠(30a)を重ねて表示するように)、モニタ用ドライバ(28)を駆動させる(ステップS14)。具体的に、CPU(32)は、図6に示すように、1つの被写体に対して1つの枠(30a)をモニタ(30)に表示させる。図6では、一例として、モニタ(30)には、追尾対象として人物の顔部(62)及び頭部(61)が選択された画面例を表す。この場合、枠(30a)は、顔部(62)及び頭部(61)をまとめて1つの追尾対象として囲む。 The CPU (32) displays a screen in a state where the frame (30a) surrounds the selected subject (that is, displays the frame (30a) so as to overlap the screen of step S11). The driver (28) is driven (step S14). Specifically, the CPU (32) causes the monitor (30) to display one frame (30a) for one subject as shown in FIG. In FIG. 6, as an example, the monitor (30) represents a screen example in which a human face (62) and head (61) are selected as tracking targets. In this case, the frame (30a) collectively surrounds the face (62) and the head (61) as one tracking target.
枠(30a)に囲われた被写体を追尾対象の被写体として登録する操作がユーザによってなされると(ステップS15のYes)、CPU(32)は、枠(30a)内の被写体を、追尾対象として設定すると共に、当該被写体の特徴量等を辞書データ(DB1)に追加することで辞書データ(DB1)を更新する。(ステップS16)。具体的に、CPU(32)は、顔部(62)と頭部(61)との少なくとも一方を有するものを、追尾対象として設定する。なお、図6では、一例として、顔部(62)及び頭部(61)が、まとめて1つの追尾対象として設定された場合を例示している。 When the user performs an operation for registering the subject surrounded by the frame (30a) as the subject to be tracked (Yes in step S15), the CPU (32) sets the subject in the frame (30a) as the subject to be tracked. At the same time, the dictionary data (DB1) is updated by adding the feature amount of the subject to the dictionary data (DB1). (Step S16). Specifically, the CPU (32) sets an object having at least one of the face part (62) and the head part (61) as a tracking target. In addition, in FIG. 6, the case where the face part (62) and the head part (61) are collectively set as one tracking object is illustrated as an example.
ステップS15にて登録操作がなされない場合(ステップS15のNo)、追尾対象の設定及び辞書データ(DB1)の更新が行われることなく、図5の一連の動作が終了する。 When the registration operation is not performed in step S15 (No in step S15), the series of operations in FIG. 5 ends without setting the tracking target and updating the dictionary data (DB1).
―追尾対象の検出動作―
図7は、追尾対象の検出動作の流れを示す図である。
-Tracking target detection operation-
FIG. 7 is a diagram illustrating a flow of a tracking target detection operation.
先ず、撮像装置(10)において追尾モードが設定されているとする(ステップS21のYes)。この状態で、撮像ボタン(40)が押下されると(ステップS22のYes)、追尾対象が既に設定済みでない限り(ステップS23のNo)、CPU(32)は、現在検索画像エリア(38c)内に格納されている検知画像データ内の被写体の特徴量を算出する(ステップS24)。ここで算出される特徴量には、被写体の色成分等が含まれる。なお、特徴量の算出については、特に限定されず、従来から知られている手法を用いることができる。 First, it is assumed that the tracking mode is set in the imaging device (10) (Yes in step S21). In this state, when the image pickup button (40) is pressed (Yes in step S22), the CPU (32) is in the current search image area (38c) unless the tracking target is already set (No in step S23). The feature amount of the subject in the detected image data stored in is calculated (step S24). The feature amount calculated here includes a color component of the subject. Note that the feature amount calculation is not particularly limited, and a conventionally known method can be used.
次いで、CPU(32)は、辞書データ(DB1)に登録済みの、各被写体の特徴量を読み出し(ステップS25)、ステップS24で算出した特徴量と読み出した特徴量とを照合する(ステップS26)。照合した結果、CPU(32)は、特徴量が一致する可能性が高いと判断した場合(ステップS26のYes)、検索画像エリア(38c)内に格納されている画像データ内の被写体を、追尾対象に設定する(ステップS27)。 Next, the CPU (32) reads the feature amount of each subject registered in the dictionary data (DB1) (step S25), and collates the feature amount calculated in step S24 with the read feature amount (step S26). . As a result of the collation, if the CPU (32) determines that there is a high possibility that the feature amounts match (Yes in step S26), the subject in the image data stored in the search image area (38c) is tracked. The target is set (step S27).
ステップS26において、ステップS24で算出した特徴量と一致する可能性の高い被写体が辞書データ(DB1)内に存在しない場合(ステップS26のNo)、CPU(32)は、検索画像データ内には追尾対象が存在しない旨の情報及び追尾対象の設定登録を勧める旨の情報がモニタ(30)に表示されるように、モニタ用ドライバ(28)を駆動させる(ステップS28)。この場合、ユーザの操作によっては図5の動作が行われる。 In step S26, when there is no subject in the dictionary data (DB1) that is highly likely to match the feature amount calculated in step S24 (No in step S26), the CPU (32) tracks the search image data. The monitor driver (28) is driven so that information indicating that the target does not exist and information indicating that tracking target setting registration is recommended are displayed on the monitor (30) (step S28). In this case, the operation of FIG. 5 is performed depending on the user's operation.
なお、ステップS21にて追尾モードが設定されていない場合(ステップS21のNo)、ステップS23にて追尾対象が既に設定済みであった場合(ステップS23のYes)、ステップS27及びS28が行われることなく追尾対象の検出動作は終了する。 If the tracking mode is not set in step S21 (No in step S21), if the tracking target has already been set in step S23 (Yes in step S23), steps S27 and S28 are performed. The tracking target detection operation ends.
―追尾撮影制御動作―
図8は、追尾撮影制御動作の流れを示す図である。
-Tracking shooting control operation-
FIG. 8 is a diagram showing the flow of the tracking shooting control operation.
本動作は、図8に示すように、図7に係る追尾対象の検出動作を経て(ステップS31)、追尾対象が設定済みの状態となった後に(ステップS32のYes)、行われる。従って、追尾対象が設定済みでない場合は(ステップS32のNo)、本動作は行われない。 As shown in FIG. 8, this operation is performed after the tracking target detection operation shown in FIG. 7 (step S31) and after the tracking target is set (Yes in step S32). Therefore, when the tracking target has not been set (No in step S32), this operation is not performed.
なお、本動作で撮像される画像は、追尾対象である特定の被写体が写し出された動画である。それ故、信号処理回路(26)は、撮像部(11)から、特定の被者体を含んだ連続する複数のフレーム画像を取得する。当該フレーム画像を用いて、CPU(32)は、撮像部(11)に対し特定の被写体を含む追尾対象を追尾させるように以下に述べる特定の被写体の追尾制御を行う。 Note that the image captured in this operation is a moving image in which a specific subject that is a tracking target is captured. Therefore, the signal processing circuit (26) acquires a plurality of continuous frame images including a specific subject from the imaging unit (11). Using the frame image, the CPU (32) performs tracking control of the specific subject described below so that the imaging unit (11) tracks the tracking target including the specific subject.
CPU(32)は、撮像部(11)に追尾撮影を開始させる(ステップS33)。これにより、撮像部(11)のドライバ(18a〜18c)は、設定済みの特定の被写体を自動で追尾して撮像するように、フォーカスレンズ(12)等を動作させる。 The CPU (32) causes the imaging unit (11) to start tracking shooting (step S33). As a result, the drivers (18a to 18c) of the imaging unit (11) operate the focus lens (12) and the like so as to automatically track and capture a specific subject that has been set.
動画撮影の間、信号処理回路(26)は、連続する複数のフレーム画像を次々と撮像部(11)から取得し、逐次処理を行っていく。CPU(32)は、連続するフレーム画像毎に、色情報を検出する処理を開始する(ステップS34)。 During moving image shooting, the signal processing circuit (26) sequentially acquires a plurality of consecutive frame images from the imaging unit (11) and sequentially performs processing. The CPU (32) starts processing for detecting color information for each successive frame image (step S34).
撮像ボタン(40)の押下が解除された場合(ステップS35のYes)、図8に係る一連の動作が終了する。 When the pressing of the imaging button (40) is released (Yes in step S35), a series of operations according to FIG. 8 ends.
―具体例―
図6及び図9を用いて、追尾撮影制御動作の具体例について説明する。
-Concrete example-
A specific example of the tracking shooting control operation will be described with reference to FIGS. 6 and 9.
ここでは、図6に示すように、被写体としての人物の顔部(62)及び頭部(61)がユーザによって追尾対象とされた場合を例示する。図6は、複数のフレーム画像のうち、被写体の顔部(62)及び頭部(61)が検出された第1フレーム画像(51)を示す。上述したように、被写体の顔部(62)及び頭部(61)は、1つの枠(30a)に囲まれている。CPU(32)は、第1フレーム画像(51)内に、顔部(62)が位置する第1顔部範囲(31)を検出する。なお、第1顔部範囲(31)は、モニタ(30)上には表示されない。 Here, as shown in FIG. 6, the case where the face (62) and head (61) of a person as a subject are set as tracking targets by the user is illustrated. FIG. 6 shows a first frame image (51) in which the face (62) and head (61) of the subject are detected from among a plurality of frame images. As described above, the face (62) and head (61) of the subject are surrounded by one frame (30a). The CPU (32) detects the first face range (31) where the face (62) is located in the first frame image (51). Note that the first face range (31) is not displayed on the monitor (30).
被写体の向きが変わると、被写体の顔部(62)が検出されなくなる場合がある。図9は、第1フレーム画像(51)の後の第2フレーム画像(52)を示す。CPU(32)は、第2フレーム画像(52)内に第1顔部範囲(31)に対応する第2顔部範囲(33)を検出する。なお、第2顔部範囲(33)は、モニタ(30)上には表示されない。CPU(32)は、第2顔部範囲(33)に頭部(61)の色と同様の色情報を検出した場合、第2顔部範囲(33)内に顔部(62)があると判定(推定)して、追尾対象の追尾を継続する。第2フレーム画像(52)において、枠(30a)は、頭部(61)及び第2顔部範囲(33)を囲む。 When the direction of the subject changes, the face (62) of the subject may not be detected. FIG. 9 shows the second frame image (52) after the first frame image (51). The CPU (32) detects a second face range (33) corresponding to the first face range (31) in the second frame image (52). The second face range (33) is not displayed on the monitor (30). When the CPU (32) detects color information similar to the color of the head (61) in the second face range (33), the face (62) is in the second face range (33). Determine (estimate) and continue tracking of the tracking target. In the second frame image (52), the frame (30a) surrounds the head (61) and the second face range (33).
なお、上述したように、CPU(32)は、顔部(62)と頭部(61)との少なくとも一方を有するものを、追尾対象として設定する。このため、被写体の顔部(62)又は頭部(61)が検出できないときでも、追尾対象の追尾を継続する。 Note that, as described above, the CPU (32) sets an object having at least one of the face (62) and the head (61) as a tracking target. For this reason, even when the face (62) or head (61) of the subject cannot be detected, the tracking of the tracking target is continued.
<効果>
本実施形態の追尾制御装置である画像処理装置(100)は、例えば特徴部としての顔部(62)が検出できないときでも、フレーム画像上に周辺部としての頭部(61)が検出されれば被写体を追尾することができる。このため、被写体を継続して追尾することができる。また、顔部(62)と頭部(61)とをまとめて1つの追尾対象にすることもできるので、追尾対象を切り換えることなく、容易に被写体を追尾することができる。
<Effect>
The image processing apparatus (100), which is the tracking control apparatus of the present embodiment, detects the head (61) as the peripheral part on the frame image even when the face (62) as the characteristic part cannot be detected, for example. Track the subject. For this reason, the subject can be tracked continuously. In addition, since the face (62) and the head (61) can be combined into one tracking target, the subject can be easily tracked without switching the tracking target.
また、被写体の顔部(62)が認識できないときでも、頭髪や帽子等の色を基に被写体を追尾することができる。上述のように、被写体の顔部(62)の向きが変化して、顔部(62)が検出できなくなると共に、それまで顔部(62)が位置していた範囲内に頭部(61)の色が検出される場合がある。この場合でも、顔部(62)自体が認識できずとも、顔部(62)があると判定(推定)するので、継続して被写体を追尾することができる。従って、例えば、顔部(62)をズームにして撮影していた場合等、顔部(62)が検出できなくなる前後において頭部(61)が検出されなかった場合でも、継続して被写体を追尾することができる。 Even when the face part (62) of the subject cannot be recognized, the subject can be tracked based on the color of the hair, hat, or the like. As described above, the orientation of the face part (62) of the subject changes, the face part (62) cannot be detected, and the head part (61) is within the range where the face part (62) has been located so far. May be detected. Even in this case, even if the face (62) itself cannot be recognized, it is determined (estimated) that the face (62) is present, so that the subject can be tracked continuously. Therefore, even if the head (61) is not detected before and after the face (62) cannot be detected, such as when the face (62) is zoomed, the subject is continuously tracked. can do.
さらに、CPU(32)は、同様の色情報を所定の面積以上有する色の固まりを頭部(61)と検出する。このため、頭部(61)を検出する精度を向上させることができる。 Further, the CPU (32) detects a cluster of colors having the same color information as a predetermined area or more as the head (61). For this reason, the precision which detects a head (61) can be improved.
また、1つの枠(30a)が、顔部(62)及び頭部(61)をまとめて1つの追尾対象として囲む。このため、モニタ(30)に表示される枠が多くなることによって撮像されたフレーム画像が見辛くなることを、抑制することができる。 One frame (30a) collectively surrounds the face (62) and head (61) as one tracking target. For this reason, it can suppress that the frame image imaged by the number of the frames displayed on the monitor (30) becoming difficult to see.
≪第2実施形態≫
上記第1実施形態では、周辺部は被写体の頭部(61)である場合について説明したが、本実施形態では、周辺部は被写体の胴部(63)である場合について説明する。ここでは、図10及び図11に基づいて、本実施形態の画像処理装置(100)について、実施形態1と異なる点を説明する。
<< Second Embodiment >>
In the first embodiment, the case where the peripheral portion is the head portion (61) of the subject has been described. However, in this embodiment, the case where the peripheral portion is the trunk portion (63) of the subject will be described. Here, with respect to the image processing apparatus (100) of the present embodiment, differences from the first embodiment will be described based on FIG. 10 and FIG.
CPU(32)は、上述した顔部検出部としての機能に加え、胴部検出部と周辺色情報検出部としての機能を有する。 The CPU (32) has a function as a body part detection part and a surrounding color information detection part in addition to the function as the face part detection part described above.
―追尾対象の設定/登録動作―
本実施形態の追尾対象の設定/登録動作では、CPU(32)は、被写体の顔部(62)を特徴部に設定する。CPU(32)は、顔部(62)の下方に位置し、かつ、同様の色情報を所定の面積以上有する色の固まりを胴部(63)と検出して、胴部(63)を周辺部に設定する。CPU(32)は、胴部(63)の色を示す周辺色情報を検出する。周辺色情報としては、例えば、服の色が検出される。CPU(32)は、図10に示すように、頭部及び顔部(62)を囲む第1枠(30b)と、頭部、顔部(62)及び胴部(63)をまとめて1つの追尾対象として囲む第2枠(30c)とを表示させる。
-Tracking target setting / registration operation-
In the tracking target setting / registration operation of the present embodiment, the CPU (32) sets the face (62) of the subject as the feature. The CPU (32) detects a cluster of colors located below the face (62) and having similar color information over a predetermined area as the body (63), and surrounds the body (63). Set the part. The CPU (32) detects peripheral color information indicating the color of the trunk (63). As the peripheral color information, for example, the color of clothes is detected. As shown in FIG. 10, the CPU (32) combines the first frame (30b) surrounding the head and face (62), and the head, face (62) and torso (63) together. A second frame (30c) enclosed as a tracking target is displayed.
枠(30b,30c)に囲われた被写体を追尾対象の被写体として登録する操作がユーザによってなされると、CPU(32)は、被写体を、追尾対象として設定すると共に、当該被写体の特徴量等を辞書データ(DB1)に追加することで辞書データ(DB1)を更新する。具体的に、CPU(32)は、顔部(62)と胴部(63)との少なくとも一方を有するものを、追尾対象として設定する。 When the user performs an operation of registering the subject surrounded by the frames (30b, 30c) as the subject to be tracked, the CPU (32) sets the subject as the subject to be tracked and sets the feature amount of the subject. Update dictionary data (DB1) by adding to dictionary data (DB1). Specifically, the CPU (32) sets an object having at least one of the face part (62) and the trunk part (63) as a tracking target.
<追尾撮影制御動作>
図10及び図11を用いて、本実施形態における追尾撮影制御動作の具体例について説明する。
<Tracking control operation>
A specific example of the tracking shooting control operation in this embodiment will be described with reference to FIGS. 10 and 11.
ここでは、図10は、複数のフレーム画像のうち、被写体の顔部(62)及び胴部(63)が検出された第1フレーム画像(51)を示す。上述したように、被写体の顔部(62)及び頭部は、第1枠(30b)に囲まれている。被写体の頭部、顔部(62)及び胴部(63)は、第2枠(30c)に囲まれている。 Here, FIG. 10 shows the first frame image (51) in which the face part (62) and the torso part (63) of the subject are detected among the plurality of frame images. As described above, the face (62) and head of the subject are surrounded by the first frame (30b). The head, face (62), and body (63) of the subject are surrounded by the second frame (30c).
被写体の向きが変わると、被写体の顔部(62)が検出されなくなる場合がある。図11は、第1フレーム画像(51)の後の第2フレーム画像(52)を示す。CPU(32)は、第2フレーム画像(52)に胴部(63)を検出した場合、胴部(63)の上部に顔部(62)があると判定して、追尾対象の追尾を継続する。第2フレーム画像(52)において、枠(30a)は、胴部(63)及び胴部(63)の上部を囲む。 When the direction of the subject changes, the face (62) of the subject may not be detected. FIG. 11 shows the second frame image (52) after the first frame image (51). When the CPU (32) detects the torso (63) in the second frame image (52), it determines that the face (62) is above the torso (63) and continues to track the tracking target. To do. In the second frame image (52), the frame (30a) surrounds the trunk (63) and the upper part of the trunk (63).
<効果>
本実施形態は、上記第1実施形態とは異なる以下の効果を奏する。
<Effect>
This embodiment has the following effects different from those of the first embodiment.
本実施形態によれば、被写体の顔部(62)が認識できないときでも、顔部(62)の周辺部に相当する胴部(63)における服等の色を基に被写体を追尾することができる。 According to the present embodiment, even when the face part (62) of the subject cannot be recognized, the subject can be tracked based on the color of clothes or the like in the trunk part (63) corresponding to the peripheral part of the face part (62). it can.
また、モニタ(30)には、被写体の顔部(62)及び頭部を囲む第1枠(30b)と、被写体の頭部、顔部(62)及び胴部(63)を囲む第2枠(30c)とが表示される。このため、モニタ(30)において、追尾対象全体と特徴部である顔部(62)とが確認しやすくなる。 The monitor (30) includes a first frame (30b) surrounding the face (62) and head of the subject, and a second frame surrounding the head, face (62) and torso (63) of the subject. (30c) is displayed. For this reason, on the monitor (30), it becomes easy to confirm the entire tracking target and the face part (62) which is a characteristic part.
≪その他の実施形態≫
上記第1及び第2実施形態では、1人の人物を追尾対象として説明した。しかし、複数の被写体をまとめて1つの追尾対象としてもよい。例えば、図12に示すように、1人の人物(65)と人物(65)の周辺に位置する1匹の犬(66)とをまとめて1つの追尾対象とすることができる。この場合、追尾対象の設定/登録動作では、CPU(32)は、人物(65)を特徴部に設定し、犬(66)を周辺部に設定する。CPU(32)は、人物(65)を囲む第1枠(30b)と、人物(65)と犬(66)とをまとめて1つの追尾対象として囲む第2枠(30c)とを表示させる。このように、周辺部は、人体に関する部位に限定されずともよい。
<< Other Embodiments >>
In the first and second embodiments, one person has been described as a tracking target. However, a plurality of subjects may be combined into one tracking target. For example, as shown in FIG. 12, one person (65) and one dog (66) located around the person (65) can be collectively set as one tracking target. In this case, in the tracking target setting / registration operation, the CPU (32) sets the person (65) as the characteristic part and the dog (66) as the peripheral part. The CPU (32) displays a first frame (30b) surrounding the person (65) and a second frame (30c) surrounding the person (65) and the dog (66) as one tracking target. Thus, the peripheral part may not be limited to the part related to the human body.
追尾制御装置である画像処理装置(100)は、動画が撮像される場合のみならず、静止画が複数枚連続して撮像されるような場合にも適用することができる。 The image processing apparatus (100), which is a tracking control apparatus, can be applied not only when a moving image is captured, but also when a plurality of still images are captured continuously.
追尾制御装置は、図1において、信号処理回路(26)、CPU(32)及び記憶部(42)のみを備えた構成であることができる。 In FIG. 1, the tracking control device can be configured to include only the signal processing circuit (26), the CPU (32), and the storage unit (42).
辞書データ(DB1)の更新動作は必須ではない。 Dictionary data (DB1) update operation is not essential.
形状閾値及び色閾値は、固定値ではなく、評価値に基づいて適宜補正されてもよい。 The shape threshold value and the color threshold value may be appropriately corrected based on the evaluation value instead of the fixed values.
本発明は、特定の被写体を連続して追尾することができる追尾制御装置として有用である。 The present invention is useful as a tracking control device capable of continuously tracking a specific subject.
10 撮像装置
11 撮像部
26 信号処理回路(取得部)
28 モニタ用ドライバ(表示制御部)
30 モニタ(表示部)
30a 枠
30b 第1枠
31 第1顔部範囲
32 CPU(追尾制御部、頭部色情報検出部、顔部検出部、頭部検出部、周辺色情報検出部、胴部検出部)
33 第2顔部範囲
42 記憶部
51 第1フレーム画像(フレーム画像)
52 第2フレーム画像(フレーム画像)
61 頭部(周辺部)
62 顔部(特徴部)
63 胴部(周辺部)
DB1 辞書データ
100 画像処理装置(追尾制御装置)
DESCRIPTION OF SYMBOLS 10 Imaging device 11 Imaging part 26 Signal processing circuit (acquisition part)
28 Monitor driver (display controller)
30 Monitor (display unit)
30a Frame 30b First frame 31 First face range 32 CPU (tracking control unit, head color information detection unit, face detection unit, head detection unit, peripheral color information detection unit, trunk detection unit)
33 Second face range 42 Storage unit 51 First frame image (frame image)
52 Second frame image (frame image)
61 head (peripheral)
62 Face (Characteristics)
63 trunk (peripheral part)
DB1 Dictionary data 100 Image processing device (tracking control device)
Claims (7)
前記追尾制御部は、前記フレーム画像において、前記被写体の一部を構成しかつ該被写体を特徴付ける特徴部と該特徴部の周辺に位置する周辺部との少なくとも一方を有するものを、前記追尾対象として設定することを特徴とする追尾制御装置。 An acquisition unit that acquires a plurality of continuous frame images including a specific subject from the imaging unit of the imaging device, and a tracking control unit that performs tracking control so that the imaging unit tracks a tracking target including the subject. A tracking control device comprising:
In the frame image, the tracking control unit includes at least one of a feature part that constitutes a part of the subject and characterizes the subject and a peripheral part located around the feature part as the tracking target. A tracking control device characterized by setting.
前記特徴部は前記被写体の顔部であり、かつ、前記周辺部は前記被写体の頭部であり、
前記頭部の色を示す頭部色情報を検出する頭部色情報検出部を更に備え、
複数の前記フレーム画像に含まれる第1フレーム画像は、前記顔部が位置する第1顔部範囲を有し、
前記頭部色情報検出部が、前記第1フレーム画像の後の第2フレーム画像が有する、前記第1顔部範囲に対応する第2顔部範囲内から、前記頭部の色と同様の色情報を検出した場合、前記追尾制御部は、前記第2顔部範囲内に前記顔部があると判定することを特徴とする追尾制御装置。 In claim 1,
The characteristic part is a face part of the subject, and the peripheral part is a head part of the subject;
A head color information detection unit for detecting head color information indicating the color of the head;
A first frame image included in the plurality of frame images has a first face range in which the face is located;
The head color information detection unit has a color similar to the color of the head from the second face range corresponding to the first face range, which the second frame image after the first frame image has When the information is detected, the tracking control unit determines that the face part is within the second face part range.
前記フレーム画像から前記顔部を検出する顔部検出部と、
前記フレーム画像において、前記顔部の上方に位置し、かつ、同様の色情報を所定の面積以上有するものを前記頭部と検出する頭部検出部と、を更に備えることを特徴とする追尾制御装置。 In claim 2,
A face detection unit for detecting the face from the frame image;
A tracking control, further comprising: a head detection unit that detects the head image that is located above the face and has similar color information having a predetermined area or more in the frame image. apparatus.
前記撮像装置の表示部に前記フレーム画像を表示させる表示制御部、を更に備え、
前記表示制御部は、1つの前記被写体に対して1つの枠を前記表示部に表示させ、
前記枠は、前記顔部及び前記頭部をまとめて1つの前記追尾対象として囲むことを特徴とする追尾制御装置。 In claim 2 or 3,
A display control unit for displaying the frame image on the display unit of the imaging device;
The display control unit displays one frame on the display unit for one subject,
The tracking control device according to claim 1, wherein the frame surrounds the face and the head together as one tracking target.
前記フレーム画像において、前記周辺部の色を示す周辺色情報を検出する周辺色情報検出部を備え、
前記追尾制御部は、前記周辺色情報と同様の色情報を所定の面積以上有するものを前記周辺部であると判定することを特徴とする追尾制御装置。 In claim 1,
The frame image includes a peripheral color information detection unit that detects peripheral color information indicating the color of the peripheral part,
The tracking control unit, wherein the tracking control unit determines that the color information similar to the peripheral color information has a predetermined area or more is the peripheral unit.
前記特徴部は前記被写体の顔部であり、かつ前記周辺部は前記被写体の胴部であり、
前記フレーム画像から前記顔部を検出する顔部検出部と、
前記フレーム画像から前記胴部を検出する胴部検出部と、を更に備え、
前記胴部検出部は、前記顔部の下方にあるものを前記胴部であると判定することを特徴とする追尾制御装置。 In claim 5,
The characteristic portion is a face portion of the subject, and the peripheral portion is a torso portion of the subject;
A face detection unit for detecting the face from the frame image;
A torso detecting unit for detecting the torso from the frame image;
The tracking control apparatus according to claim 1, wherein the trunk detection unit determines that the part below the face is the trunk.
前記撮像装置の表示部に前記フレーム画像を表示させる表示制御部、を更に備え、
前記表示制御部は、前記特徴部を囲む第1枠と、前記特徴部及び前記周辺部をまとめて1つの前記追尾対象として囲む第2枠とを前記表示部に表示させることを特徴とする追尾制御装置。 In claim 5 or 6,
A display control unit for displaying the frame image on the display unit of the imaging device;
The display control unit causes the display unit to display a first frame that surrounds the characteristic part and a second frame that collectively surrounds the characteristic part and the peripheral part as the tracking target. Control device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018096470A JP2019201387A (en) | 2018-05-18 | 2018-05-18 | Tracking controller |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018096470A JP2019201387A (en) | 2018-05-18 | 2018-05-18 | Tracking controller |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019201387A true JP2019201387A (en) | 2019-11-21 |
Family
ID=68612363
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018096470A Pending JP2019201387A (en) | 2018-05-18 | 2018-05-18 | Tracking controller |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2019201387A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021184564A (en) * | 2020-05-22 | 2021-12-02 | パナソニックIpマネジメント株式会社 | Image tracking device |
| WO2022004302A1 (en) * | 2020-06-30 | 2022-01-06 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method, and program |
| WO2022145294A1 (en) | 2020-12-28 | 2022-07-07 | 富士フイルム株式会社 | Image processing apparatus, image capture apparatus, image processing method, and program |
| JP2022178493A (en) * | 2021-05-20 | 2022-12-02 | キヤノン株式会社 | Imaging control device, imaging apparatus, imaging control method, and program |
| JP7566481B2 (en) | 2020-03-30 | 2024-10-15 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007042072A (en) * | 2005-07-05 | 2007-02-15 | Omron Corp | Tracking device |
| JP2010193333A (en) * | 2009-02-20 | 2010-09-02 | Casio Computer Co Ltd | Imaging apparatus, imaging method and program |
| JP2011166305A (en) * | 2010-02-05 | 2011-08-25 | Sony Corp | Image processing apparatus and imaging apparatus |
| JP2014062926A (en) * | 2011-01-18 | 2014-04-10 | Fujifilm Corp | Autofocus system |
-
2018
- 2018-05-18 JP JP2018096470A patent/JP2019201387A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007042072A (en) * | 2005-07-05 | 2007-02-15 | Omron Corp | Tracking device |
| JP2010193333A (en) * | 2009-02-20 | 2010-09-02 | Casio Computer Co Ltd | Imaging apparatus, imaging method and program |
| JP2011166305A (en) * | 2010-02-05 | 2011-08-25 | Sony Corp | Image processing apparatus and imaging apparatus |
| JP2014062926A (en) * | 2011-01-18 | 2014-04-10 | Fujifilm Corp | Autofocus system |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7566481B2 (en) | 2020-03-30 | 2024-10-15 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2021184564A (en) * | 2020-05-22 | 2021-12-02 | パナソニックIpマネジメント株式会社 | Image tracking device |
| WO2022004302A1 (en) * | 2020-06-30 | 2022-01-06 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method, and program |
| JPWO2022004302A1 (en) * | 2020-06-30 | 2022-01-06 | ||
| CN115812177A (en) * | 2020-06-30 | 2023-03-17 | 富士胶片株式会社 | Image processing device, imaging device, image processing method, and program |
| JP7550223B2 (en) | 2020-06-30 | 2024-09-12 | 富士フイルム株式会社 | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM |
| US12457407B2 (en) | 2020-06-30 | 2025-10-28 | Fujifilm Corporation | Image processing device, imaging apparatus, image processing method, and program |
| WO2022145294A1 (en) | 2020-12-28 | 2022-07-07 | 富士フイルム株式会社 | Image processing apparatus, image capture apparatus, image processing method, and program |
| JP2022178493A (en) * | 2021-05-20 | 2022-12-02 | キヤノン株式会社 | Imaging control device, imaging apparatus, imaging control method, and program |
| US12165333B2 (en) | 2021-05-20 | 2024-12-10 | Canon Kabushiki Kaisha | Image capturing control apparatus, image capturing apparatus, image capturing control method, and storage medium |
| JP7665409B2 (en) | 2021-05-20 | 2025-04-21 | キヤノン株式会社 | Imaging control device, imaging device, imaging control method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5507014B2 (en) | Moving object detection apparatus and method | |
| US7868917B2 (en) | Imaging device with moving object prediction notification | |
| JP4784678B2 (en) | Imaging apparatus, imaging method, and program | |
| US7860387B2 (en) | Imaging apparatus and control method therefor | |
| US20130002885A1 (en) | Image pick-up apparatus and tracking method therefor | |
| US9317748B2 (en) | Tracking apparatus | |
| JP5331128B2 (en) | Imaging device | |
| JP2019201387A (en) | Tracking controller | |
| US20230042807A1 (en) | Electronic device | |
| KR101728042B1 (en) | Digital photographing apparatus and control method thereof | |
| US20210258473A1 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
| JP2000188713A (en) | Automatic focus control device and its focusing operation determination method | |
| JP5105616B2 (en) | Imaging apparatus and program | |
| JP2019134335A (en) | Imaging apparatus, control method, and program | |
| JP2006058431A (en) | Autofocusing system | |
| JP6923160B2 (en) | Tracking control device | |
| US20210258472A1 (en) | Electronic device | |
| JP4645413B2 (en) | Imaging device | |
| JP2014106324A (en) | Autofocus device and imaging device | |
| JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
| JP5200820B2 (en) | Imaging apparatus, imaging method, and image processing program | |
| JP2010081246A (en) | Device and program for selecting composition | |
| JP2017050593A (en) | Imaging apparatus, imaging control method and program | |
| JP5126285B2 (en) | Imaging apparatus and program thereof | |
| JP2009027437A (en) | Image processing apparatus, image processing method, and imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220323 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221011 |