[go: up one dir, main page]

JP5625995B2 - 被写体追跡装置、被写体追跡方法及びプログラム - Google Patents

被写体追跡装置、被写体追跡方法及びプログラム Download PDF

Info

Publication number
JP5625995B2
JP5625995B2 JP2011035595A JP2011035595A JP5625995B2 JP 5625995 B2 JP5625995 B2 JP 5625995B2 JP 2011035595 A JP2011035595 A JP 2011035595A JP 2011035595 A JP2011035595 A JP 2011035595A JP 5625995 B2 JP5625995 B2 JP 5625995B2
Authority
JP
Japan
Prior art keywords
unit
image
subject
tracking
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011035595A
Other languages
English (en)
Other versions
JP2011258180A (ja
JP2011258180A5 (ja
Inventor
敬輔 島田
敬輔 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011035595A priority Critical patent/JP5625995B2/ja
Priority to CN201110122343.1A priority patent/CN102244728B/zh
Priority to US13/104,231 priority patent/US8878939B2/en
Publication of JP2011258180A publication Critical patent/JP2011258180A/ja
Publication of JP2011258180A5 publication Critical patent/JP2011258180A5/ja
Application granted granted Critical
Publication of JP5625995B2 publication Critical patent/JP5625995B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の画像間において被写体の追跡を行う被写体追跡装置、被写体追跡方法及びプログラムに関する。
従来、顔などの被写体をテンプレートマッチングにより検出する技術にて、被写体を検出する際に前回検出が成功した被写体の位置の近傍を探索することにより被写体検出の演算量を減少させる技術が知られている(例えば、特許文献1参照)。
特開2004−171490号公報
しかしながら、上記特許文献1の技術にあっては、被写体である顔の画角内における位置の変移が大きくないことを前提としているため、顔が振り向いたり上を向くなどの画角内での被写体の向きが変化する動作に対しては顔検出の精度が低下してしまい、複数の画像間における被写体の追跡を適正に行うことができなくなるといった問題がある。また、被写体に対する陰影の影響によって、同様に、当該被写体の検出の精度の低下を招いてしまう場合もある。
そこで、本発明の課題は、被写体の追跡精度の向上を図ることができる被写体追跡装置、被写体追跡方法及びプログラムを提供することである。
上記課題を解決するため、本発明の被写体追跡装置は、
画像データを逐次取得する取得手段と、前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段と、前記検出手段により検出された所定の被写体の画像データを複数の領域に分割する分割手段と、前記検出手段により検出された所定の被写体の画像データが当該検出手段による検出後に取得された画像データに存在するか否かを判定する判定手段と、前記判定手段により所定の被写体が存在しないと判定された場合に、前記分割手段により分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域何れかの領域に対応する対応領域を特定する特定手段と、前記特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段と、を備えたことを特徴としている。
また、本発明の被写体追跡装置は、画像データを逐次取得する取得手段と、前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段と、前記検出手段により検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割手段と、前記分割手段により前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出手段と、前記乖離度算出手段により算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定手段と、前記決定手段により決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定手段と、前記特定手段により特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段と、を備えたことを特徴としている。
また、本発明の被写体追跡方法は、
被写体追跡装置を用いた被写体追跡方法であって、画像データを逐次取得する取得ステップと、取得された画像データから、所定の被写体の画像データを検出する検出ステップと、検出された所定の被写体の画像データを複数の領域に分割する分割ステップと、検出された前記所定の被写体の画像データが当該検出後に取得された画像データに存在するか否かを判定する判定ステップと、前記所定の被写体が存在しないと判定された場合に、分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、逐次取得される画像フレームから、前記複数の領域何れかの領域に対応する対応領域を特定する特定ステップと、特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡ステップと、を含むことを特徴としている。
また、本発明の被写体追跡方法は、画像データを逐次取得する取得ステップと、取得された画像データから、所定の被写体の画像データを検出する検出ステップと、検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割ステップと、前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出ステップと、算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定ステップと、決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得ステップにより逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定ステップと、特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡ステップと、を含むことを特徴としている。
また、本発明のプログラムは、
コンピュータを、画像データを逐次取得する取得手段、前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段、前記検出手段により検出された所定の被写体の画像データを複数の領域に分割する分割手段、前記検出手段により検出された所定の被写体の画像データが当該検出手段による検出後の画像データに存在するか否かを判定する判定手段、前記判定手段により所定の被写体が存在しないと判定された場合に、前記分割手段により分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域何れかの領域に対応する対応領域を特定する特定手段、前記特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段、として機能させることを特徴としている。
また、本発明のプログラムは、
コンピュータを、画像データを逐次取得する取得手段、前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段、前記検出手段により検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割手段、前記分割手段により前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出手段、前記乖離度算出手段により算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定手段、前記決定手段により決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域の何れかの領域に対応する対応領域を特定する特定手段、前記特定手段により特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段、として機能させることを特徴としている。
本発明によれば、画像フレームにおける被写体の追跡精度の向上を図ることができる。
本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。 図1の撮像装置によるメイン処理に係る動作の一例を示すフローチャートである。 図2のメイン処理における被写体追跡処理に係る動作の一例を示すフローチャートである。 図3の被写体追跡処理における画像登録処理に係る動作の一例を示すフローチャートである。 図3の被写体追跡処理に係る顔画像の一例を模式的に示す図である。 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。 図6の撮像装置による被写体の画像データの分割態様の一例を模式的に示す図である。 図6の撮像装置による被写体追跡処理における画像登録処理に係る動作の一例を示すフローチャートである。 図8の画像登録処理に係る顔画像の一例を模式的に示す図である。 図8の画像登録処理に係る顔画像の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
[実施形態1]
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置100は、メモリ4に記憶された被写体の画像データを複数の領域に分割し、分割された複数の領域が有する各々の特徴情報に基づいて、撮像により逐次生成される画像フレームから分割された複数の領域の各領域に対応する対応領域を夫々特定し、特定された対応領域に基づいて、画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する。
具体的には、図1に示すように、撮像装置100は、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、画像処理部5と、記録媒体制御部6と、表示制御部7と、表示部8と、操作入力部9と、中央制御部10とを備えている。
撮像部1は、撮像手段として、被写体(例えば、人の顔等;図5(a)等参照)を撮像して画像フレームを生成する。即ち、撮像部1は、図示は省略するが、ズームレンズやフォーカスレンズ等の複数のレンズから構成されたレンズ部と、このレンズ部を通過する光の量を調整する絞りと、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する電子撮像部を備えている。
また、撮像部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
撮像制御部2は、撮像部1による被写体の撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部を走査駆動して、所定周期毎に光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部3に出力させる。
また、撮像制御部2は、画像処理部5の被写体追跡部5h(後述)による被写体の追跡結果に基づいて、撮像部1による撮像を制御する。
具体的には、撮像制御部2は、被写体追跡部5hによる被写体の追跡結果に基づいて、AF(自動合焦処理)を制御する。即ち、撮像制御部2は、被写体追跡部5hによる追跡対象、つまり、各画像フレームにおける顔領域Fを合焦領域とするように、撮像部1の合焦駆動部によりフォーカスレンズを光軸方向に移動させて当該フォーカスレンズの合焦位置を調整する。また、事前に登録された顔領域Fが検出されなかった場合には、撮像制御部2は、各画像フレームにて画像分割部5b(後述)による分割後の顔の二つ(例えば、左右二つ)の領域Al,Arの各々に対応する対応領域を有する画像領域を合焦領域とするように、撮像部1の合焦駆動部によりフォーカスレンズを光軸方向に移動させて当該フォーカスレンズの合焦位置を調整する。
なお、撮像制御部2は、レンズ部に代えて、電子撮像部を光軸方向に移動させてレンズ部の合焦位置を調整するようにしても良い。
また、撮像制御部2は、AF(自動合焦処理)に加えて、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
ここで、撮像制御部2は、被写体追跡部5hによる被写体の追跡結果に基づいて、撮像部1を制御する制御手段を構成している。
画像データ生成部3は、電子撮像部から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部5や中央制御部10等によって処理されるデータ等を一時記憶する。
画像処理部5は、被写体検出部5aと、画像分割部5bと、特徴情報算出部5cと、領域特定部5dと、類似度算出部5eと、領域指定部5fと、計数部5gと、被写体追跡部5hと、トリミング部5iとを具備している。
なお、画像処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
被写体検出部5aは、撮像部1により生成された画像フレームから被写体(例えば、人の顔等)を検出する。
即ち、被写体検出部5aは、撮像部1による被写体の撮像により逐次生成された各画像フレームの画像データ(YUVデータ)をメモリ4から取得して、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の所定の画像認識技術を利用して各画像フレームから被写体が含まれる被写体領域(例えば、顔領域F等)を検出する。具体的には、被写体検出部5aは、例えば、各画像フレームの画像データに対して所定の顔検出処理を施して顔領域Fを検出する。
なお、顔検出処理やエッジ検出処理や特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
ここで、被写体検出部5aは、撮像部1により逐次生成された画像フレームから被写体を検出する検出手段を構成している。
画像分割部5bは、被写体の画像データを複数の領域に分割する。
即ち、画像分割部5bは、メモリ4に記憶された被写体領域(例えば、顔領域F等)の画像データを取得して、当該画像データを複数の領域(例えば、顔の左右二つの領域Al,Ar等)に分割する。具体的には、画像分割部5bは、被写体検出部5aによる顔の検出後にメモリ4に記憶された顔領域Fの画像データを取得して、当該顔領域Fを左右の目の中央を上下に通る線分で分割し、当該顔領域F内の人の顔からはみ出さない程度の大きさで左右二つの矩形状の領域Al,Ar(図5(a)参照)を設定する。
なお、被写体の画像データの分割方向や分割数は、一例であってこれに限られるものではなく、例えば、上下に複数の領域(例えば、目を中心とした上領域、口を中心とした下領域等)に分割しても良いし、3つ以上の領域(例えば、左頬を中心とした左領域、鼻を中心とした中領域、右頬を中心とした右領域等)に分割しても良い。また、分割された各領域の形状は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
ここで、画像分割部5bは、メモリ(記憶手段)4に記憶された被写体の画像データを複数の領域に分割する分割手段を構成している。
特徴情報算出部5cは、画像分割部5bにより分割された各領域(例えば、顔の左右の領域Al,Ar等)の特徴情報(例えば、平均画素値Fl,Fr等)を算出する。具体的には、特徴情報算出部5cは、例えば、顔の左右の領域Al,Arの各々について、その輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値Fl,Frを特徴情報として算出する。
また、特徴情報算出部5cは、後述する領域特定部5dにより特定された各領域に対応する対応領域の各々の特徴情報(例えば、平均画素値Fi等)を算出する。具体的には、特徴情報算出部5cは、例えば、各対応領域の輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値Fiを特徴情報として算出する。
ここで、特徴情報算出部5cは、画像分割部5bにより分割された各領域の平均画素値と領域特定部5dにより特定された対応領域の平均画素値とを夫々算出する画素値算出手段を構成している。
なお、特徴情報として、各領域の輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
領域特定部5dは、撮像部1により逐次生成される画像フレームから画像分割部5bにより分割された各領域に対応する対応領域を特定する。
即ち、領域特定部5dは、特徴情報算出部5cにより算出された各領域(例えば、顔の左右の領域Al,Ar等)が有する特徴情報(例えば、平均画素値Fl,Fr等)に基づいて、撮像部1により逐次生成される画像フレームから各領域に対応する対応領域を特定する。具体的には、領域特定部5dは、例えば、顔の左右の領域Al,Arの各々の位置(例えば、矩形の四隅の座標等)を基準として、撮像部1により逐次生成される各画像フレームにおける各領域の位置の近傍に所定の探索範囲を設定する。そして、領域特定部5dは、設定された探索範囲内で各領域の特徴情報(平均画素値Fl,Fr)をテンプレートとして所定方向に走査して、各領域に対応する対応領域を特定する。このとき、領域特定部5dは、撮像部1により逐次生成された各画像フレームから顔の二つ(例えば、左右)の各領域Al,Arに対応する対応領域を複数特定するようになっているが、対応領域の特定数は一つであっても良い。
また、領域特定部5dは、特定された各対応領域の位置(例えば、矩形の四隅の座標等)を算出する。
ここで、領域特定部5dは、画像分割部5bにより分割された各領域が有する特徴情報に基づいて、撮像部1により逐次生成される画像フレームから、複数の領域の各領域に対応する対応領域を夫々特定する特定手段を構成している。
類似度算出部5eは、領域特定部5dにより特定された後、特徴情報算出部5cにより算出された対応領域の平均画素値Fiと、画像分割部5bにより分割された後、特徴情報算出部5cにより算出された各領域(例えば、顔の左右の領域Al,Ar等)の平均画素値Fl,Frの各々とを比較して類似度DLi,DRiを算出する。具体的には、類似度算出部5eは、領域特定部5dにより特定された対応領域の輝度信号Y及び色差信号Cb,Crの各々の平均画素値Fiと、画像分割部5bにより分割された各領域(例えば、顔の左右の領域Al,Ar等)の輝度信号Y及び色差信号Cb,Crの各々の平均画素値Fl,Frとをそれぞれ比較して、類似度DLi,DRiを所定の演算式に従って算出する。なお、類似度DLi,DRiの演算式としては、如何なる式を適用しても良い。
ここで、類似度算出部5eは、特徴情報算出部5cにより算出された各領域の平均画素値Fl,Frと対応領域の平均画素値Fiとに基づいて、各領域と対応領域との類似度を算出する類似度算出手段を構成している。
領域指定部5fは、被写体追跡部5hにより追跡される候補領域を指定する。
具体的には、領域指定部5fは、領域特定部5dにより特定された対応領域に係る類似度DLi,DRiのうち、値の大きい方を類似度Diとし、当該類似度Diが第1の閾値(所定値)以上であるか否かを判定する。そして、領域指定部5fは、類似度Diが第1の閾値以上である対応領域を、被写体追跡部5hにより追跡される追跡対象の追跡候補領域として指定する。
ここで、領域指定部5fは、類似度算出部5eにより算出された類似度が第1の所定値以上である対応領域を、被写体追跡部5hにより追跡される追跡対象の追跡候補領域として指定する指定手段を構成している。
計数部5gは、類似度算出部5eにより算出された類似度Diが第1の閾値(所定値)以上である対応領域の個数Nを計数する。即ち、計数部5gは、領域特定部5dにより特定された複数の対応領域の中で、領域指定部5fにより追跡候補領域として指定された類似度Diが第1の閾値以上である対応領域の個数Nを計数する。
ここで、計数部5gは、領域特定部5dにより特定された複数の対応領域の中で、類似度算出部5eにより算出された類似度が第1の閾値(所定値)以上である対応領域の個数を計数する計数手段を構成している。
被写体追跡部5hは、撮像部1により逐次生成される各画像フレームにて、領域特定部5dにより特定された対応領域を有する画像領域を追跡対象として追跡する。
即ち、被写体追跡部5hは、被写体検出部5aにより被写体領域(例えば、顔領域F等)が検出されない場合に、領域特定部5dにより特定された対応領域に基づいて、各画像フレームにおける当該対応領域を有する画像領域を特定する。具体的には、被写体追跡部5hは、領域指定部5fにより指定された追跡候補領域、つまり、領域特定部5dにより特定された対応領域のうち、類似度Diが第1の閾値以上である対応領域に基づいて、各画像フレームにて追跡対象となる当該対応領域を有する画像領域を特定する。
より具体的には、被写体追跡部5hは、計数部5gにより計数された類似度Diが第1の閾値以上である対応領域の個数Nが第2の閾値(所定値)以上であるか否かを判定する。
そして、被写体追跡部5hは、対応領域の個数Nが第2の閾値(所定値)以上である場合に、各対応領域の領域特定部5dにより算出された位置(例えば、矩形の四隅の座標等)を類似度Diに応じて重み付け平均して、当該平均位置Gに対応する追跡結果領域を特定する。
その後、被写体追跡部5hは、平均位置Gにおける追跡結果領域の大きさが追跡対象領域(例えば、顔領域F等)と異なる場合に、当該追跡結果領域が追跡対象領域と等しくなるように補正する。即ち、例えば、当該追跡結果領域の大きさが追跡対象領域よりも小さい場合には、被写体追跡部5hは、特定済みの追跡結果領域全体を含み、且つ当該追跡結果領域と追跡対象領域の大きさが等しくなるように追跡結果領域をより広い範囲に設定し直す。一方、当該追跡結果領域の大きさが追跡対象領域よりも大きい場合には、被写体追跡部5hは、当該追跡結果領域の中心を基準としてトリミングすることで追跡結果領域と追跡対象領域の大きさが等しくなるように補正する。なお、追跡結果領域の補正の方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。
これにより、被写体追跡部5hは、領域特定部5dにより特定された対応領域を有する画像領域(補正後の追跡結果領域)を算出し、当該画像領域を追跡対象として各画像フレームにて追跡する。
なお、被写体追跡部5hは、計数部5gにより計数された対応領域の個数Nが第2の閾値(所定値)以上である場合に、当該対応領域に基づいて画像領域を追跡するようにしたが、これに限られるものではなく、領域特定部5dにより一の対応領域を特定し、当該一の対応領域に基づいて画像領域を算出して追跡するようにしても良い。
また、被写体追跡部5hは、類似度算出部5eにより算出された対応領域の平均画素値Fiと被写体領域の各領域の平均画素値Fl,Frとの類似度DLi,DRiを基準として、対応領域を有する画像領域を算出して、当該画像領域を追跡対象とするようにしたが、追跡対象の決定方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。即ち、被写体追跡部5hは、領域特定部5dにより特定された対応領域に基づいて、画像フレームにおける当該対応領域を有する画像領域を追跡対象として決定する方法であれば如何なる方法を用いても良い。
このように、被写体追跡部5hは、領域特定部5dにより特定された対応領域に基づいて、画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する追跡手段を構成している。
トリミング部5iは、撮像部1により撮像された画像データから、撮像制御部2によるAF(自動合焦処理)にて合焦された合焦領域を被写体画像としてトリミングする。即ち、トリミング部5iは、メモリ4から撮像部1による撮像後の画像の画像データを取得して、当該画像における被写体追跡部5hによる追跡対象である画像領域(平均位置Gにおける対応領域を有する画像領域)を被写体画像としてトリミングする。なお、トリミングされた被写体画像は、所定の符号化方式により符号化されて圧縮された後、記録媒体制御部6の制御下にて、記録媒体Mの所定の記憶領域に記憶される。
ここで、トリミング部5iは、撮像部1により合焦された画像領域を被写体画像としてトリミングするトリミング手段を構成している。
記録媒体制御部6は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
表示制御部7は、メモリ4に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部7は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部10の制御下にてメモリ4から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
表示部8は、例えば、液晶表示パネルであり、表示制御部7からのビデオ信号に基づいて電子撮像部により撮像された画像などを表示画面に表示する。具体的には、表示部8は、静止画撮像モードや動画撮像モードにて、撮像部1及び撮像制御部2による被写体の撮像により生成された複数の画像フレームを所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部8は、静止画として記録される画像(レックビュー画像)を表示したり、動画として記録中の画像を表示する。
操作入力部9は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部9は、被写体の撮影指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等を備え(いずれも図示略)、これらのボタンの操作に応じて所定の操作信号を中央制御部10に出力する。
中央制御部10は、撮像装置100の各部を制御するものである。具体的には、中央制御部10は、図示は省略するが、CPU(Central Processing Unit)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
次に、撮像装置100によるメイン処理について図2を参照して説明する。
図2は、メイン処理に係る動作の一例を示すフローチャートである。
メイン処理は、ユーザによる操作入力部9の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から静止画像や動画像の撮像モードが選択指示された場合に、中央制御部10により実行される処理である。
先ず、中央制御部10は、メモリ4に記憶されているカウント値などを初期化するイニシャライズ処理を行った後(ステップS1)、撮像部1により撮像された複数の画像間にて被写体を追跡する被写体追跡処理(図3及び図4参照;後述)を画像処理部5に行わせる(ステップS2)。
その後、中央制御部10は、被写体追跡処理の結果に応じて、AF(自動合焦処理)を撮像制御部2に実行させる(ステップS3)。具体的には、撮像制御部2は、被写体追跡部5hによる追跡対象、即ち、画像フレームにおける顔領域Fや、画像分割部5bにより分割された顔の二つ(例えば、左右二つ)の領域Al,Arの各々に対応する対応領域を有する画像領域(追跡結果領域;後述)を合焦領域とするように、撮像部1の合焦駆動部によりフォーカスレンズを光軸方向に移動させて当該フォーカスレンズの合焦位置を調整する。
なお、AF(自動合焦処理)は、ユーザによる操作入力部9のシャッタボタンの半押し操作に基づいて実行しても良いし、当該シャッタボタンの操作の有無に拘わらず被写体追跡処理の実行後に自動的に実行しても良い。
次に、ユーザによる操作入力部9のシャッタボタンの所定操作に基づいて撮像指示が中央制御部10に入力されると、中央制御部10は、撮像制御部2を制御して撮像部1に被写体を撮像させる(ステップS4)。具体的には、撮像制御部2は、被写体の光学像を所定の撮像条件で電子撮像部に撮像させ、画像データ生成部3は、電子撮像部から転送された被写体の撮像画像のYUVデータを生成する。生成されたYUVデータは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
続けて、中央制御部10は、画像処理部5のトリミング部5iに、被写体画像のトリミングを実行させる(ステップS5)。具体的には、トリミング部5iは、メモリ4から撮像部1による撮像後の画像の画像データを取得して、当該画像における被写体追跡部5hによる追跡対象である画像領域(顔領域F)を被写体画像としてトリミングする。
これにより、中央制御部10は、メイン処理を終了する。
ここで、被写体追跡処理について図3〜図5を参照して説明する。
図3は、被写体追跡処理に係る動作の一例を示すフローチャートである。また、図4は、被写体追跡処理における画像登録処理に係る動作の一例を示すフローチャートである。また、図5(a)及び図5(b)は、被写体追跡処理に係る顔画像の一例を模式的に示す図であり、図5(b)は、追跡対象となる顔画像を左右の各領域Al,Arに分割した状態を模式的に示す図である。
なお、被写体追跡処理にあっては、被写体として人の顔を検出して追跡するものとする。また、事前に所望の人の顔画像(例えば、家族や友人等の顔画像;図5(a)参照)の画像データをメモリ4の所定の登録テーブル(図示略)に登録しておくものとするが、事前に顔画像の画像データを登録するか否かは適宜任意に変更可能である。
図3に示すように、画像処理部5の被写体検出部5aは、撮像部1による被写体の撮像により生成された一の画像フレームの画像データ(YUVデータ)をメモリ4から取得した後(ステップS21)、当該画像フレームから事前にメモリ4に登録されている顔画像が含まれる顔領域F(図5(a)参照)を顔検出処理等の所定の画像認識技術を利用して検出する(ステップS22)。
次に、被写体検出部5aは、顔検出処理の結果に応じて、顔領域Fの検出に成功したか否かを判定する(ステップS23)。
ここで、顔領域Fの検出に成功していないと判定されると(ステップS23;No)、被写体検出部5aは、処理をステップS21に移行し、メモリ4から一の画像フレームの画像データ(YUVデータ)を取得し直した後(ステップS21)、それ以降の処理を実行する。
一方、ステップS23にて、顔領域Fの検出に成功したと判定されると(ステップS23;Yes)、画像処理部5は、検出された顔領域Fを追跡対象として登録する画像登録処理を実行する(ステップS24;図4参照)。
以下に、画像登録処理について図4を参照して説明する。
図4に示すように、画像処理部5は、先ず、被写体検出部5aにより検出された顔領域Fの画像データをトリミング部5iによりトリミングし、当該顔領域Fの画像データを追跡用データとしてメモリ4の所定の記憶領域に記憶させる(ステップS41)。
次に、画像処理部5の画像分割部5bは、メモリ4に記憶された顔領域Fの画像データを取得して、当該顔領域Fを左右の目の中央を上下に通る線分で分割し、当該顔領域Fからはみ出さない程度の大きさで左右二つの矩形状の領域(図5(b)参照)を設定する(ステップS42)。
その後、画像処理部5の特徴情報算出部5cは、画像分割部5bにより分割された顔の二つの領域Al,Arの各々について、その輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値Fl,Frを特徴情報として算出する。続けて、特徴情報算出部5cは、算出された二つの各領域Al,Arの平均画素値Fl,Frをメモリ4の所定の記憶領域に記憶させて(ステップS43)、画像登録処理を終了する。
図3に示すように、次に、画像処理部5の被写体検出部5aは、撮像部1による被写体の撮像により生成された複数の画像フレームの画像データのうち、画像登録処理にて登録された顔領域Fが含まれる一の画像フレームの次の画像フレームを処理対象として、当該画像フレームの画像データをメモリ4から取得する(ステップS25)。続けて、被写体検出部5aは、当該画像フレームから画像登録処理にて事前にメモリ4に登録されている顔領域F(図5(a)参照)を検出する顔検出処理を行って、当該顔検出処理の結果に応じて、顔領域Fの検出に成功したか否かを判定する(ステップS26)。
ステップS26にて、顔領域Fの検出に成功したと判定されると(ステップS26;Yes)、画像処理部5は、例えば、自動合焦処理の実行や撮像処理の実行の有無等に応じて当該被写体追跡処理の終了が指示されているか否かを判定する(ステップS27)。
ここで、被写体追跡処理の終了が指示されていないと判定されると(ステップS27;No)、画像処理部5は、処理をステップS25に移行し、当該被写体追跡処理の処理対象を次の画像フレームに移行して当該画像フレームの画像データをメモリ4から取得した後(ステップS25)、それ以降の処理を実行する。
一方、ステップS27にて、被写体追跡処理の終了が指示されたと判定されると(ステップS27;Yes)、画像処理部5は、被写体追跡処理を終了させる。
ステップS26にて、顔領域Fの検出に成功していないと判定されると(ステップS26;No)、即ち、顔が振り向いたり上を向くなどの画角内で被写体の向きが変化する動作が行われたり、顔に対する陰影の影響などによって、顔領域Fの検出に失敗した場合には、画像処理部5は、被写体の顔領域の追跡処理を開始する(ステップS28)。画像処理部5の領域特定部5dは、特徴情報算出部5cにより算出された顔の二つ(例えば、左右)の領域Al,Arの平均画素値Fl,Frに基づいて、処理対象の画像フレームから顔の二つの各領域Al,Arに対応する対応領域を特定する(ステップS29)。
続けて、領域特定部5dは、特定された各対応領域の位置(例えば、矩形の四隅の座標等)を算出するとともに、特徴情報算出部5cは、対応領域の各々について、その輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値Fiを特徴情報として算出する(ステップS30)。
次に、画像処理部5の類似度算出部5eは、算出された各対応領域の輝度信号Y及び色差信号Cb,Crの各々の平均画素値Fiと、顔の二つの各領域Al,Arの輝度信号Y及び色差信号Cb,Crの各々の平均画素値Fl,Frとをそれぞれ比較して、類似度DLi,DRiを所定の演算式に従って算出する(ステップS31)。続けて、画像処理部5の領域指定部5fは、算出された各対応領域に係る類似度DLi,DRiのうち、値の大きい方を類似度Diとして特定する(ステップS32)。
次に、領域指定部5fは、特定された類似度Diが第1の閾値(所定値)以上であるか否かを判定した後、計数部5gは、領域指定部5fにより類似度Diが第1の閾値(所定値)以上であると判定された対応領域の個数Nを計数する(ステップS33)。
続けて、画像処理部5の被写体追跡部5hは、計数部5gにより計数された類似度Diが第1の閾値以上である対応領域の個数Nが第2の閾値(所定値)以上であるか否かを判定する(ステップS34)。
ここで、対応領域の個数Nが第2の閾値(所定値)以上であると判定されると(ステップS34;Yes)、被写体追跡部5hは、各対応領域の領域特定部5dにより算出された位置(例えば、矩形の四隅の座標等)を類似度Diに応じて重み付け平均して、当該平均位置Gに対応する追跡結果領域として追跡する(ステップS35)。
次に、被写体追跡部5hは、平均位置Gにおける追跡結果領域の大きさが追跡対象である顔領域Fの大きさと等しいか否かを判定する(ステップS36)。
ここで、平均位置Gにおける追跡結果領域の大きさが追跡対象である顔領域Fの大きさと異なると判定されると(ステップS36;No)、被写体追跡部5hは、当該追跡結果領域が顔領域Fの大きさと等しくなるように補正する。
一方、平均位置Gにおける追跡結果領域の大きさと追跡対象である顔領域Fの大きさが等しいと判定されると(ステップS36;Yes)被写体追跡部5hは、ステップS37の処理をスキップして、当該被写体追跡処理の終了が指示されているか否かを判定する(ステップS27)。
また、ステップS34にて、対応領域の個数Nが第2の閾値(所定値)以上でないと判定されると(ステップS34;No)、被写体追跡部5hは、処理をステップS27に移行し、ステップS27における顔領域Fの追跡を行うことなく、当該被写体追跡処理の終了が指示されているか否かを判定する(ステップS27)。
ここで、被写体追跡処理の終了が指示されていないと判定されると(ステップS27;No)、画像処理部5は、上記と同様に、処理をステップS25に移行し、当該被写体追跡処理の処理対象を次の画像フレームに移行して当該画像フレームの画像データをメモリ4から取得した後(ステップS25)、それ以降の処理を実行する。
一方、ステップS27にて、被写体追跡処理の終了が指示されたと判定されると(ステップS27;Yes)、画像処理部5は、被写体追跡処理を終了させる。
以上のように、実施形態1の撮像装置100によれば、メモリ4に記憶された被写体領域(例えば、顔領域F等)の画像データを複数の領域に分割した後、各領域が有する特徴情報に基づいて、撮像部1により逐次生成される各画像フレームから各領域に対応する対応領域を夫々特定し、各画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する。つまり、追跡対象である被写体領域が分割された複数の領域の各々を撮像部1により撮像された各画像フレームで特定することで、被写体検出処理の際に、例えば被写体としての人の顔が振り向いたり上を向くなどの画角内で被写体の向きが変化する動作が行われたり、被写体が影に入るなど陰影の影響が生じるなどによってコントラストが変化しても、コントラスト変化の少ない被写体領域(追跡対象)の一部分の領域を被写体検出に利用することができ、被写体領域全体を追跡対象とする場合よりも被写体検出の精度の低下を抑制することができる。これにより、複数の画像フレームにおける被写体の追跡精度の向上を図ることができる。
具体的には、分割された被写体領域の各領域の平均画素値Fl,Frと特定された対応領域の平均画素値Fiとを比較して類似度Diを算出し、当該類似度Diが第1の閾値以上である対応領域を追跡対象の追跡候補領域として各画像フレームにて追跡対象となる画像領域を特定し、当該画像領域を追跡するので、被写体領域の各領域の平均画素値Fl,Frと各対応領域の平均画素値Fiとの類似度Diを基準とすることで、追跡候補領域の指定を適正に行うことができる。
より具体的には、各画像フレームから各領域に対応する対応領域を複数特定して、これらの中で類似度Diが第1の閾値以上である対応領域の個数Nが第2の閾値以上である場合に、当該対応領域に基づいて画像領域を追跡対象として追跡するので、被写体領域を複数の領域に分割して当該被写体を追跡する場合であっても、追跡対象の特定の誤りを防止して被写体の追跡精度の向上を図ることができる。
また、撮像部1により逐次生成された各画像フレームから被写体が検出されない場合に、画像フレームにおける各領域に対応する対応領域を有する画像領域を追跡対象として追跡する。つまり、撮像部1により逐次生成された各画像フレームから被写体が検出された場合には、当該被写体を追跡対象として通常の被写体追跡処理を行うことができる一方で、各画像フレームから被写体が検出されない場合であっても、上記のように、画像フレームにおける各領域に対応する対応領域を有する画像領域を追跡対象として追跡することで、被写体の追跡精度の向上を図ることができる。
また、各画像フレームにおける被写体の追跡対象(画像領域)を合焦領域とするように撮像部1を制御するので、当該被写体に対してピントを合わせることができる。さらに、合焦された画像領域を被写体画像としてトリミングするので、当該被写体画像を今後の被写体追跡処理などの各処理に利用することができる。
[実施形態2]
以下に、実施形態2の撮像装置200について図6〜図10を参照して説明する。
実施形態2の撮像装置200は、被写体の画像データを予め定められた複数の分割態様で複数の領域に分割した後、複数の分割態様の各々で分割された複数の領域について算出された当該複数の領域間の特徴情報の乖離度のうち、最大の乖離度に係る分割態様を特定する。撮像装置200は、最大の乖離度の分割態様で分割された複数の領域の各々の特徴情報に基づいて、対応領域を夫々特定する。
なお、実施形態2の撮像装置200は、以下に詳細に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、詳細な説明は省略する。
図6は、本発明を適用した実施形態2の撮像装置200の概略構成を示すブロック図である。
図6に示すように、撮像装置200の画像処理部5は、被写体検出部5a、画像分割部5b、特徴情報算出部5c、領域特定部5d、類似度算出部5e、領域指定部5f、計数部5g、被写体追跡部5h、トリミング部5iに加えて、分割制御部5j、乖離度算出部5k、分割態様決定部5lを具備している。
分割制御部5jは、画像分割部5bによる被写体の画像データの分割を制御する。
即ち、分割制御部5jは、被写体の画像データを複数の分割態様(図7(a)〜図7(r)参照)で画像分割部5bにより複数の領域に分割させる。具体的には、分割制御部5jは、被写体検出部5aによる顔の検出後にメモリ4に記憶された顔領域Fの画像データを画像分割部5bに取得させる。続けて、分割制御部5jは、当該顔領域Fを左右の目の中央を上下に通る線分で画像分割部5bに分割させ、当該顔領域F内の人の顔からはみ出さない程度の大きさで二つの矩形状の領域A1,A2(図7(a)参照)を設定する。
そして、分割制御部5jは、設定された二つの領域A1,A2を基準位置(例えば、0°)に対応する基準領域とし、当該基準領域の略中心位置を軸として所定の角度(例えば、10°等)ずつ所定方向(例えば、右方向等)に回動させていくことにより、それぞれの角度に対応する二つの領域A1,A2をそれぞれ設定する(図7(b)〜図7(r)参照)。分割制御部5jは、基準領域の回動を基準位置に対して所定の角度(例えば、170°)となるまで行うことで、複数の分割態様(例えば、18パターン)で分割された二つの領域A1,A2をそれぞれ設定する。なお、図7(a)〜図7(r)にあっては、顔領域F内の顔画像の部分のみを模式的に表している。
また、上記した被写体の画像データの分割方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、分割制御部5jは、顔領域Fの左右の目の中央を上下に通る線分を基準線分として、当該顔領域Fの略中心位置を軸として所定の角度ずつ所定方向に回動させていき、それぞれの角度の線分で当該顔領域を分割することにより、各角度に対応する二つの領域A1,A2をそれぞれ設定しても良い。
さらに、上記の基準領域や基準線分を所定の角度ずつ回動させるのではなく、予め基準領域や基準線分に対する所定の角度を被写体の画像データを分割する角度として記憶手段に記憶しておき、分割制御部5jは、当該記憶手段に記憶されている基準領域や基準線分に対する所定の角度に基づいて、被写体の画像データを画像分割部5bにより分割させても良い。
なお、被写体の画像データを分割する角度、基準領域や基準線分の回動方向等は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
このように、分割制御部5jは、被写体の画像データを予め定められた複数の分割態様で画像分割部5bにより複数の領域に分割させる分割制御手段を構成している。
乖離度算出部5kは、複数の分割態様の各々で分割された複数の領域について、当該複数の領域間の特徴情報の乖離度Riを夫々算出する。
具体的には、特徴情報算出部5cは、複数の分割態様(例えば、18パターン)の各々で画像分割部5bにより分割された複数の領域(例えば、二つの領域A1,A2等)の各々について、各領域の特徴情報(例えば、平均画素値Fi等)を算出する。なお、特徴情報の具体的な算出方法は、上記実施形態1と略同様であり、その詳細な説明は省略する。
そして、乖離度算出部5kは、複数の分割態様の各々について、分割された複数の領域の特徴情報に基づいて、当該複数の領域間の特徴情報の乖離度Riを所定の演算式に従って夫々算出する。具体的には、乖離度算出部5kは、複数の分割態様の各々について、二つの領域A1,A2の平均画素値F1,F2どうしの差分を算出し、その絶対値をとったものを乖離度Riとして夫々算出する。なお、乖離度Riの演算式としては、如何なる式を適用しても良い。
このように、乖離度算出部5kは、分割制御部5jにより複数の分割態様の各々で分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を夫々算出する乖離度算出手段を構成している。
分割態様決定部5lは、複数の分割態様の中で最大の乖離度Riの分割態様を決定する。
即ち、分割態様決定部5lは、乖離度算出部5kにより算出された複数の分割態様の各々に係る乖離度Riどうしを比較して、乖離度Riが最大となっている分割態様を決定する。
ここで、乖離度Riの大きさは、陰影の影響、即ち、光源に対する被写体(顔)の向きによって生じる陰影の影響によって変動する。つまり、光源が被写体に対して所定位置にある場合、光源と被写体の略中心とを結ぶ線分に略直交するとともに被写体の略中心を通る直交線分を軸としてその両側で被写体の明るさ(コントラスト)が変化し、当該直交線分に沿って分割する二つの領域A1,A2(図示略)の特徴情報(例えば、平均画素値Fi等)の乖離度Riが最大となる。
例えば、光源が被写体(顔)に対して左右方向にある場合、顔領域Fの左右で明るさが変化するため(図9(a)及び図9(b)参照)、顔領域Fを左右に分割する二つの領域A1,A2(図9(c)参照)の特徴情報の乖離度Riが最大となる。また、例えば、光源が被写体(顔)に対して上下方向にある場合、顔領域Fの上下で明るさが変化するため(図10(a)及び図10(b)参照)、顔領域Fを上下に分割する二つの領域A1,A2(図10(c)参照)の特徴情報の乖離度Riが最大となる。また、光源が被写体(顔)に対して斜め方向にある場合も上記と同様である。
なお、図9(a)〜図9(c)及び図10(a)〜図10(c)にあっては、光が当たっている部分を相対的に「白く」し、陰になっている部分を相対的に「黒く」して模式的に表している。
このように、分割態様決定部5lは、乖離度算出部5kにより乖離度Riがそれぞれ算出された複数の分割態様のうち、最大の乖離度Riの分割態様を決定する決定手段を構成している。
そして、領域特定部5dは、分割態様決定部5lにより決定された最大の乖離度Riの分割態様で分割された複数の領域(例えば、顔の二つの領域A1,A2等)の各々の特徴情報(例えば、平均画素値Fi等)に基づいて、当該複数の領域の各領域に対応する対応領域を夫々特定する。
なお、領域特定部5dによる対応領域の具体的な特定方法は、上記実施形態1と略同様であり、その詳細な説明は省略する。
次に、被写体追跡処理について図3、図8〜図10を参照して説明する。
図8は、被写体追跡処理における画像登録処理に係る動作の一例を示すフローチャートである。
なお、被写体追跡処理は、以下に説明する画像登録処理以外の処理は、実施形態1の被写体追跡処理と略同様であり、その詳細な説明は省略する。
被写体追跡処理は、実施形態1の被写体追跡処理と同様に、メイン処理の一つとして実行される処理である。
即ち、被写体追跡処理は、実施形態1の被写体追跡処理と同様に、図3に示すように、被写体検出部5aが、撮像部1による被写体の撮像により生成された一の画像フレームの画像データ(YUVデータ)をメモリ4から取得した後(ステップS21)、当該画像フレームから事前にメモリ4に登録されている顔画像が含まれる顔領域F(図5(a)参照)を顔検出処理等の所定の画像認識技術を利用して検出する(ステップS22)。
次に、被写体検出部5aは、実施形態1の被写体追跡処理と同様に、顔検出処理の結果に応じて、顔領域Fの検出に成功したか否かを判定する(ステップS23)。
ここで、顔領域Fの検出に成功したと判定されると(ステップS23;Yes)、画像処理部5は、検出された顔領域Fを追跡対象として登録する画像登録処理を実行する(ステップS24;図8参照)。
以下に、画像登録処理について図8を参照して説明する。
図8に示すように、画像処理部5は、実施形態1の画像登録処理と同様に、被写体検出部5aにより検出された顔領域Fの画像データをトリミング部5iによりトリミングし、当該顔領域Fの画像データを追跡用データとしてメモリ4の所定の記憶領域に記憶させる(ステップS41)。
次に、画像処理部5は、顔領域Fを複数の分割態様に応じてそれぞれ二つの領域A1,A2に分割する(ステップS142)。具体的には、画像分割部5bは、実施形態1の画像登録処理と同様に、メモリ4に記憶された顔領域Fの画像データを取得した後、分割制御部5jは、当該顔領域Fを左右の目の中央を上下に通る線分で画像分割部5bに分割させ、当該顔領域F内に二つの矩形状の領域A1,A2(図7(a)参照)を設定する。そして、分割制御部5jは、設定された二つの領域A1,A2を基準領域とし、当該基準領域の略中心位置を軸として所定の角度(例えば、10°等)ずつ所定方向(例えば、右方向等)に回動させて、それぞれの角度に対応する二つの領域A1,A2をそれぞれ設定する(図7(a)〜図7(r)参照)。
続けて、特徴情報算出部5cは、複数の分割態様(例えば、18パターン)の各々で画像分割部5bにより分割された二つの領域A1,A2の各々について、各領域の輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値F1,F2を特徴情報として算出する(ステップS143)。また、特徴情報算出部5cは、算出した複数の分割態様(例えば、18パターン)の各々の二つの領域A1,A2の平均画素値F1,F2をメモリ4の所定の記憶領域に記憶させる。
次に、乖離度算出部5kは、複数の分割態様の各々について、分割された二つの領域A1,A2の平均画素値F1,F2に基づいて、当該二つの領域A1,A2間の平均画素値F1,F2の乖離度Riを所定の演算式に従って夫々算出する(ステップS144)。具体的には、乖離度算出部5kは、複数の分割態様の各々について、二つの領域A1,A2の平均画素値F1,F2をメモリ4から取得し、当該平均画素値F1,F2どうしの差分を算出して、その絶対値をとったものを乖離度Riとして夫々算出する。
そして、分割態様決定部5lは、乖離度算出部5kにより算出された複数の分割態様のうち、各々に係る乖離度Riどうしを比較して、乖離度Riが最大となっている分割態様を決定する(ステップS145)。例えば、光源が被写体(顔)に対して左右方向にある場合、顔領域Fを左右に分割する二つの領域A1,A2(図9(c)参照)の特徴情報(例えば、平均画素値Fi等)の乖離度Riが最大となることから、分割態様決定部5lは、当該顔領域Fを左右に分割する分割態様を乖離度Riが最大の分割態様として決定する。同様に、例えば、光源が被写体(顔)に対して上下方向にある場合、顔領域Fを上下に分割する二つの領域A1,A2(図10(c)参照)の特徴情報(例えば、平均画素値Fi等)の乖離度Riが最大となることから、分割態様決定部5lは、当該顔領域Fを上下に分割する分割態様を乖離度Riが最大の分割態様として決定する。
その後、画像処理部5は、分割態様決定部5lにより決定された最大の乖離度Riの分割態様で分割された二つの領域A1,A2を、被写体の顔領域の追跡処理に係る追跡領域として、当該二つの領域A1,A2の平均画素値F1,F2をメモリ4の所定の記憶領域に記憶させて(ステップS146)、画像登録処理を終了する。
図3に戻り、画像処理部5は、ステップS25以降の処理を、実施形態1の被写体追跡処理と同様に実行する。
即ち、ステップS25にて、被写体検出部5aは、処理対象の画像フレームの画像データをメモリ4から取得した後、ステップS26にて、顔領域Fの検出に成功したか否かを判定する。
ここで、顔領域Fの検出に成功していないと判定されると(ステップS26;No)、画像処理部5は、被写体の顔領域の追跡処理を開始し(ステップS28)、領域特定部5dは、特徴情報算出部5cにより算出された最大の乖離度Riの分割態様で分割された顔の二つの領域A1,A2の平均画素値F1,F2に基づいて、処理対象の画像フレームから顔の二つの各領域A1,A2に対応する対応領域を特定する(ステップS29)。
その後、ステップS30にて、領域特定部5dは、特定された各対応領域の位置を算出するとともに、特徴情報算出部5cは、対応領域の各々について、その輝度信号Y及び色差信号Cb,Cr(YUVデータ)の各々の平均画素値Fiを特徴情報として算出する。
そして、ステップS31にて、類似度算出部5eは、算出された各対応領域の輝度信号Y及び色差信号Cb,Crの各々の平均画素値Fiと、最大の乖離度Riの分割態様で分割された顔の二つの領域A1,A2の輝度信号Y及び色差信号Cb,Crの各々の平均画素値F1,F2とをそれぞれ比較して、類似度D1i,D2iを所定の演算式に従って算出する。
続けて、ステップS32にて、領域指定部5fは、算出された各対応領域に係る類似度D1i,D2iのうち、値の大きい方を類似度Diとして特定する(ステップS32)。
なお、ステップS33以降の処理は、実施形態1の被写体追跡処理と同様であり、その詳細な説明は省略する。
以上のように、実施形態2の撮像装置200によれば、複数の分割態様の各々で分割された複数の領域について算出された当該複数の領域間の特徴情報の乖離度Riのうち、最大の乖離度Riに係る分割態様を特定した後、最大の乖離度Riの分割態様で分割された複数の領域の各々の特徴情報に基づいて、対応領域を夫々特定し、各画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する。つまり、光源に対する被写体(例えば、顔)の向きによっては陰影の影響が生じ、この場合に対応領域の特定に係る複数の領域の各々がコントラスト変化の大きい領域に亘る(跨る)ように設定されると、被写体の追跡の際に陰影の影響を受け易くなって被写体の追跡精度の低下が生じてしまう。
そこで、複数の領域間の特徴情報の乖離度Riが最大となるように被写体領域の画像データを分割して複数の領域を設定することにより、当該複数の領域がコントラスト変化の大きい領域に亘る(跨る)ように設定されることを防止することができる。この結果、複数の画像フレームにおける被写体の追跡精度の向上を図ることができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、被写体の撮像の際に被写体検出部5aにより検出された後、メモリ4に記憶された顔領域Fを基準として被写体追跡処理を行うようにしたが、これに限られるものではなく、例えば、基準となる被写体の画像データは、被写体の撮像が開始される前に予めメモリ4に登録されたものであっても良い。
また、上記実施形態1、2では、被写体追跡処理後に、AF(自動合焦処理)やトリミング処理を実行するようにしたが、これらの処理は必ずしも行う必要はなく、当該処理を実行するか否かは適宜任意に変更可能である。
さらに、上記実施形態1、2では、画像分割部5bにより分割された被写体領域(顔領域F)の各領域をテンプレートとして、対応領域の特定や被写体の追跡を行うようにしたが、テンプレートの対象はこれに限られるものではない。例えば、分割された各領域内で特徴領域(例えば、左右の顔領域Fの場合には、左右の目や小鼻や口角等)を特定して、当該特徴領域の各々をテンプレートとして、対応領域の特定や被写体の追跡を行うようにしても良い。
さらに、撮像装置100、200の構成は、上記実施形態1、2に例示したものは一例であり、これに限られるものではない。例えば、被写体追跡装置として、撮像装置100、200を例示したが、これに限られるものではなく、本発明に係る所定の画像処理を実行可能なものであれば如何なる構成であっても良い。
加えて、上記実施形態1、2にあっては、分割手段、撮像手段、特定手段、追跡手段としての機能を、中央制御部10の制御下にて、撮像制御部2及び画像処理部5が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部10によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、分割処理ルーチン、撮像制御処理ルーチン、特定処理ルーチン及び追跡処理ルーチンを含むプログラムを記憶しておく。そして、分割処理ルーチンにより中央制御部10のCPUを、記憶手段に記憶された被写体の画像データを複数の領域に分割する分割手段として機能させるようにしても良い。また、撮像制御処理ルーチンにより中央制御部10のCPUを、撮像により画像フレームを逐次生成させる撮像制御手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部10のCPUを、分割手段により分割された複数の領域が有する各々の特徴情報に基づいて、撮像制御手段により逐次生成される画像フレームから、複数の領域の各領域に対応する対応領域を夫々特定する特定手段として機能させるようにしても良い。また、追跡処理ルーチンにより中央制御部10のCPUを、特定手段により特定された対応領域に基づいて、画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する追跡手段として機能させるようにしても良い。
同様に、画素値算出手段、類似度算出手段、指定手段、計数手段、検出手段、制御手段、トリミング手段、分割制御手段、乖離度算出手段、決定手段についても、中央制御部10のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
被写体の画像データを記憶する記憶手段と、
この記憶手段に記憶された被写体の画像データを複数の領域に分割する分割手段と、
撮像により画像フレームを逐次生成する撮像手段と、
前記分割手段により分割された複数の領域が有する各々の特徴情報に基づいて、前記撮像手段により逐次生成される画像フレームから、前記複数の領域の各領域に対応する対応領域を夫々特定する特定手段と、
この特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する追跡手段と、
を備えたことを特徴とする被写体追跡装置。
<請求項2>
前記被写体の画像データを予め定められた複数の分割態様で前記分割手段により複数の領域に分割させる分割制御手段と、
この分割制御手段により前記複数の分割態様の各々で分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を夫々算出する乖離度算出手段と、
この乖離度算出手段により前記乖離度がそれぞれ算出された前記複数の分割態様のうち、最大の乖離度の分割態様を決定する決定手段と、を更に備え、
前記特定手段は、前記決定手段により決定された前記最大の乖離度の分割態様で分割された複数の領域の各々の特徴情報に基づいて、前記対応領域を夫々特定することを特徴とする請求項1に記載の被写体追跡装置。
<請求項3>
前記各領域の平均画素値と前記対応領域の平均画素値とを夫々算出する画素値算出手段と、
この画素値算出手段により算出された前記各領域の平均画素値と前記対応領域の平均画素値とに基づいて、前記各領域と前記対応領域との類似度を算出する類似度算出手段と、
この類似度算出手段により算出された前記類似度が第1の所定値以上である前記対応領域を、前記追跡手段により追跡される前記追跡対象の追跡候補領域として指定する指定手段と、を更に備え、
前記追跡手段は、前記指定手段により指定された追跡候補領域に基づいて、前記画像フレームにて前記追跡対象となる画像領域を特定し、当該画像領域を追跡することを特徴とする請求項1又は2に記載の被写体追跡装置。
<請求項4>
前記特定手段は、前記画像フレームから前記各領域に対応する前記対応領域を複数特定し、
前記特定手段により特定された複数の対応領域の中で、前記算出手段により算出された前記類似度が第1の所定値以上である前記対応領域の個数を計数する計数手段を更に備え、
前記追跡手段は、前記計数手段により計数された前記対応領域の個数が第2の所定値以上である場合に、当該対応領域に基づいて前記画像領域を追跡することを特徴とする請求項3に記載の被写体追跡装置。
<請求項5>
前記撮像手段により逐次生成された画像フレームから被写体を検出する検出手段を更に備え、
前記追跡手段は、前記検出手段により被写体が検出されない場合に、前記画像フレームにおける前記画像領域を追跡対象として追跡することを特徴とする請求項1〜4の何れか一項に記載の被写体追跡装置。
<請求項6>
前記追跡手段による追跡結果に基づいて、前記撮像手段を制御する制御手段を更に備え、
この制御手段は、前記追跡手段による前記追跡対象である前記画像フレームにおける前記画像領域を合焦領域とするように前記撮像手段を制御することを特徴とする請求項1〜5の何れか一項に記載の被写体追跡装置。
<請求項7>
前記撮像手段により合焦された前記画像領域を被写体画像としてトリミングするトリミング手段を更に備えることを特徴とする請求項6に記載の被写体追跡装置。
<請求項8>
被写体の画像データを記憶する記憶手段を備える被写体追跡装置を用いた被写体追跡方法であって、
前記記憶手段に記憶された被写体の画像データを複数の領域に分割する分割ステップと、
撮像により画像フレームを逐次生成する撮像ステップと、
分割された複数の領域が有する各々の特徴情報に基づいて、逐次生成される画像フレームから、前記複数の領域の各領域に対応する対応領域を夫々特定する特定ステップと、
特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する追跡ステップと、
を含むことを特徴とする被写体追跡方法。
<請求項9>
被写体の画像データを記憶する記憶手段を備える被写体追跡装置のコンピュータを、
前記記憶手段に記憶された被写体の画像データを複数の領域に分割する分割手段、
撮像により画像フレームを逐次生成させる撮像制御手段、
前記分割手段により分割された複数の領域が有する各々の特徴情報に基づいて、前記撮像制御手段により逐次生成される画像フレームから、前記複数の領域の各領域に対応する対応領域を夫々特定する特定手段、
この特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を追跡対象として追跡する追跡手段、
として機能させることを特徴とするプログラム。
100、200 撮像装置
1 撮像部
2 撮像制御部
4 メモリ
5 画像処理部
5a 被写体検出部
5b 画像分割部
5c 特徴情報算出部
5d 領域特定部
5e 類似度算出部
5f 領域指定部
5g 計数部
5h 被写体追跡部
5i トリミング部
5j 分割制御部
5k 乖離度算出部
5l 分割態様決定部
10 中央制御部
M 記録媒体

Claims (12)

  1. 画像データを逐次取得する取得手段と、
    前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段と、
    前記検出手段により検出された所定の被写体の画像データを複数の領域に分割する分割手段と、
    前記検出手段により検出された所定の被写体の画像データが当該検出手段による検出後に取得された画像データに存在するか否かを判定する判定手段と、
    前記判定手段により所定の被写体が存在しないと判定された場合に、前記分割手段により分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定手段と、
    前記特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段と、
    を備えたことを特徴とする被写体追跡装置。
  2. 画像データを逐次取得する取得手段と、
    前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段と、
    前記検出手段により検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割手段と、
    前記分割手段により前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出手段と、
    前記乖離度算出手段により算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定手段と、
    前記決定手段により決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定手段と、
    前記特定手段により特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段と、
    を備えたことを特徴とする被写体追跡装置。
  3. 前記決定手段は、前記複数の分割態様から前記乖離度が最大の分割態様を前記特定の分割態様として決定することを特徴とする請求項2に記載の被写体追跡装置。
  4. 前記検出手段により検出された所定の被写体の画像データが当該検出手段による検出後の画像データに存在するか否かを判定する判定手段を更に備え、
    前記特定手段は、前記判定手段により所定の被写体が存在しないと判定された場合に、前記分割手段により分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定することを特徴とする請求項2又は3に記載の被写体追跡装置。
  5. 前記各領域の平均画素値と前記対応領域の平均画素値とを夫々算出する画素値算出手段と、
    前記画素値算出手段により算出された前記各領域の平均画素値と前記対応領域の平均画素値とに基づいて、前記各領域と前記対応領域との類似度を算出する類似度算出手段と、
    前記類似度算出手段により算出された前記類似度が第1の所定値以上である前記対応領域を、前記追跡手段により追跡される前記所定の被写体の追跡候補領域として指定する指定手段と、を更に備え、
    前記追跡手段は、前記指定手段により指定された追跡候補領域に基づいて、前記画像フレームにて前記所定の被写体となる画像領域を特定し、当該画像領域を追跡することを特徴とする請求項1〜4の何れか1項に記載の被写体追跡装置。
  6. 前記特定手段は、前記画像フレームから前記各領域に対応する前記対応領域を複数特定し、
    前記特定手段により特定された複数の対応領域の中で、前記類似度算出手段により算出された前記類似度が第1の所定値以上である前記対応領域の個数を計数する計数手段を更に備え、
    前記追跡手段は、前記計数手段により計数された前記対応領域の個数が第2の所定値以上である場合に、当該対応領域に基づいて前記画像領域を追跡することを特徴とする請求項5に記載の被写体追跡装置。
  7. 撮像手段と、
    前記追跡手段による追跡対象である前記画像フレームにおける前記画像領域を合焦領域とするように前記撮像手段を制御する制御手段を更に備え、
    前記取得手段は、前記撮像手段により出力された画像データを取得することを特徴とする請求項1〜6の何れか一項に記載の被写体追跡装置。
  8. 前記撮像手段により合焦された前記画像領域を被写体画像としてトリミングするトリミング手段を更に備えることを特徴とする請求項7に記載の被写体追跡装置。
  9. 被写体追跡装置を用いた被写体追跡方法であって、
    画像データを逐次取得する取得ステップと、
    取得された画像データから、所定の被写体の画像データを検出する検出ステップと、
    検出された所定の被写体の画像データを複数の領域に分割する分割ステップと、
    検出された前記所定の被写体の画像データが当該検出後に取得された画像データに存在するか否かを判定する判定ステップと、
    前記所定の被写体が存在しないと判定された場合に、分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定ステップと、
    特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡ステップと、
    を含むことを特徴とする被写体追跡方法。
  10. 画像データを逐次取得する取得ステップと、
    取得された画像データから、所定の被写体の画像データを検出する検出ステップと、
    検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割ステップと、
    前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出ステップと、
    算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定ステップと、
    決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得ステップにより逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定ステップと、
    特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡ステップと、
    を含むことを特徴とする被写体追跡方法。
  11. コンピュータを、
    画像データを逐次取得する取得手段、
    前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段、
    前記検出手段により検出された所定の被写体の画像データを複数の領域に分割する分割手段、
    前記検出手段により検出された所定の被写体の画像データが当該検出手段による検出後の画像データに存在するか否かを判定する判定手段、
    前記判定手段により所定の被写体が存在しないと判定された場合に、前記分割手段により分割された複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域中の何れかの領域に対応する対応領域を特定する特定手段、
    前記特定手段により特定された対応領域に基づいて、前記画像フレームにおける当該対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段、
    として機能させることを特徴とするプログラム。
  12. コンピュータを、
    画像データを逐次取得する取得手段、
    前記取得手段により取得された画像データから、所定の被写体の画像データを検出する検出手段、
    前記検出手段により検出された所定の被写体の画像データを複数種の分割態様中の分割態様毎に複数の領域に分割する分割手段、
    前記分割手段により前記分割態様毎に分割された複数の領域について、当該複数の領域間の特徴情報の乖離度を算出する乖離度算出手段、
    前記乖離度算出手段により算出された前記分割態様毎の乖離度に基づいて、前記複数の分割態様から特定の分割態様を決定する決定手段、
    前記決定手段により決定された分割態様における複数の領域中の何れかの領域が有する特徴情報に基づいて、前記取得手段により逐次取得される画像フレームから、前記複数の領域の何れかの領域に対応する対応領域を特定する特定手段、
    前記特定手段により特定された対応領域に基づいて、前記対応領域を有する画像領域を前記所定の被写体として追跡する追跡手段、
    として機能させることを特徴とするプログラム。
JP2011035595A 2010-05-10 2011-02-22 被写体追跡装置、被写体追跡方法及びプログラム Expired - Fee Related JP5625995B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011035595A JP5625995B2 (ja) 2010-05-10 2011-02-22 被写体追跡装置、被写体追跡方法及びプログラム
CN201110122343.1A CN102244728B (zh) 2010-05-10 2011-05-09 被摄体跟踪装置及被摄体跟踪方法
US13/104,231 US8878939B2 (en) 2010-05-10 2011-05-10 Apparatus and method for subject tracking, and recording medium storing program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010107928 2010-05-10
JP2010107928 2010-05-10
JP2011035595A JP5625995B2 (ja) 2010-05-10 2011-02-22 被写体追跡装置、被写体追跡方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2011258180A JP2011258180A (ja) 2011-12-22
JP2011258180A5 JP2011258180A5 (ja) 2014-03-27
JP5625995B2 true JP5625995B2 (ja) 2014-11-19

Family

ID=44901695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011035595A Expired - Fee Related JP5625995B2 (ja) 2010-05-10 2011-02-22 被写体追跡装置、被写体追跡方法及びプログラム

Country Status (3)

Country Link
US (1) US8878939B2 (ja)
JP (1) JP5625995B2 (ja)
CN (1) CN102244728B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103597817B (zh) * 2012-04-05 2018-05-08 松下电器(美国)知识产权公司 运动图像解析装置、运动图像解析方法及集成电路
CN104424634B (zh) * 2013-08-23 2017-05-03 株式会社理光 对象跟踪方法和装置
JP6032819B2 (ja) * 2014-06-13 2016-11-30 リズム時計工業株式会社 顔向き判別センサー装置
US9740918B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
US9740919B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
JP6641763B2 (ja) * 2015-08-03 2020-02-05 セイコーエプソン株式会社 表示システム
KR102476897B1 (ko) * 2016-10-05 2022-12-12 삼성전자주식회사 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
JP6916130B2 (ja) * 2018-03-02 2021-08-11 株式会社日立製作所 話者推定方法および話者推定装置
JP6972043B2 (ja) * 2019-01-11 2021-11-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP6743337B1 (ja) * 2019-06-04 2020-08-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、撮像システム、制御方法、及びプログラム
CN111178218B (zh) * 2019-12-23 2023-07-04 北京中广上洋科技股份有限公司 一种基于人脸识别的多特征联合视频追踪方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08167022A (ja) * 1994-12-12 1996-06-25 Toshiba Corp 画像監視装置
JP3279479B2 (ja) * 1996-05-31 2002-04-30 株式会社日立国際電気 映像監視方法及び装置
KR100474848B1 (ko) * 2002-07-19 2005-03-10 삼성전자주식회사 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
JP4281338B2 (ja) 2002-11-22 2009-06-17 ソニー株式会社 画像検出装置及び画像検出方法
CN1266656C (zh) * 2003-12-30 2006-07-26 上海交通大学 视频监控系统的智能化报警处理方法
JP4324030B2 (ja) * 2004-06-25 2009-09-02 キヤノン株式会社 カメラ制御装置、カメラ制御方法、及び記憶媒体
EP1742169B1 (en) * 2005-07-05 2012-02-22 Omron Corporation Tracking apparatus
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
JP4853707B2 (ja) * 2006-07-21 2012-01-11 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4807623B2 (ja) * 2006-07-25 2011-11-02 カシオ計算機株式会社 撮像装置、撮像方法及び撮像プログラム
US8130282B2 (en) * 2008-03-31 2012-03-06 Panasonic Corporation Image capture device
US20090290791A1 (en) 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video
JP2010028370A (ja) * 2008-07-17 2010-02-04 Ricoh Co Ltd 撮像装置
TWI382360B (zh) * 2008-08-01 2013-01-11 Univ Nat Taiwan Science Tech 物件偵測方法及其裝置
AU2009243528B2 (en) * 2009-12-04 2013-08-01 Canon Kabushiki Kaisha Location-based signature selection for multi-camera object tracking

Also Published As

Publication number Publication date
CN102244728A (zh) 2011-11-16
US20110273571A1 (en) 2011-11-10
JP2011258180A (ja) 2011-12-22
CN102244728B (zh) 2014-02-05
US8878939B2 (en) 2014-11-04

Similar Documents

Publication Publication Date Title
JP5625995B2 (ja) 被写体追跡装置、被写体追跡方法及びプログラム
JP4748244B2 (ja) 画像選択装置、画像選択方法及びプログラム
JP4862930B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP4947136B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20200023651A (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
US20110158551A1 (en) Image composition device, image composition method, and storage medium storing program
JP4868046B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5510287B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP2011191860A (ja) 撮像装置、撮像処理方法及びプログラム
RU2761187C1 (ru) Устройство обработки изображения и устройство захвата изображения
JP5131399B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6070098B2 (ja) 閾値設定装置、閾値設定方法及びプログラム
JP5565227B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5287965B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5740934B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP5644180B2 (ja) 撮像装置、撮像方法及びプログラム
JP2017108325A (ja) 画像処理装置、画像処理方法及びプログラム
JP5310361B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2014123991A (ja) 被写体検出装置、被写体検出方法及びプログラム
JP2012009980A (ja) 画像処理装置、画像処理方法及びプログラム
HK1251751B (zh) 预览画面虚化处理方法、装置及设备
JP2011175663A (ja) 撮像装置、画像処理方法及びプログラム
HK1145111B (en) Image selection device and method for selecting image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

R150 Certificate of patent or registration of utility model

Ref document number: 5625995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees