[go: up one dir, main page]

JP2011053951A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2011053951A
JP2011053951A JP2009202799A JP2009202799A JP2011053951A JP 2011053951 A JP2011053951 A JP 2011053951A JP 2009202799 A JP2009202799 A JP 2009202799A JP 2009202799 A JP2009202799 A JP 2009202799A JP 2011053951 A JP2011053951 A JP 2011053951A
Authority
JP
Japan
Prior art keywords
frame
area
face
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009202799A
Other languages
English (en)
Other versions
JP5578816B2 (ja
Inventor
Kotaro Yano
光太郎 矢野
Satoru Yashiro
哲 八代
Yasuhiro Ito
靖浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009202799A priority Critical patent/JP5578816B2/ja
Publication of JP2011053951A publication Critical patent/JP2011053951A/ja
Application granted granted Critical
Publication of JP5578816B2 publication Critical patent/JP5578816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】動画像における被写体の認識の精度を向上させることを目的とする。
【解決手段】
画像処理装置が、動画像に係る前フレーム(第1のフレーム)と前フレームに後続する後フレーム(第2のフレーム)との間で、画像情報が変化している領域を抽出し、前フレームでの被写体の検出に関する被写体領域と抽出した領域とに基づいて、後フレームの探索領域を設定し、設定した後フレームの探索領域内で被写体を判別することによって課題を解決する。
【選択図】図1

Description

本発明は、動画像に係る画像処理装置及び画像処理方法に関する。
従来、静止画像から特定の被写体パターンを自動的に検出する画像処理方法は、非常に有用であり、例えば人間の顔の判定に利用されている。このような画像処理方法は、通信会議、マン・マシン・インタフェース、セキュリティ、人間の顔を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用することができる。
近年、動画像からの被写体の検出が行われており、動画像に対して顔の検出を実時間に行うために、時間的に変化していない領域の判定を行い、その領域を顔の検出処理から除外する方法が開示されている(例えば、特許文献1参照)。
特開2005−174352号公報
しかしながら、上述した方法では、動画像における被写体の認識に係る画像処理時間の短縮には効果があるが、動画像における被写体の認識の精度を向上させることが困難である。
本発明はこのような問題点に鑑みなされたもので、動画像における被写体の認識の精度を向上させることを目的とする。
そこで、本発明は、動画像に係る第1のフレームと該第1のフレームに後続する第2のフレームとの間で、画像情報が変化している領域を抽出する抽出手段と、前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出手段で抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定手段と、前記設定手段で設定された前記第2のフレームの探索領域内で被写体を判別する判別手段と、を有することを特徴とする。
本発明によれば、動画像における被写体の認識の精度を向上させることができる。
画像処理装置の構成を示す図である。 初期フレームに関する処理に係るフローチャートを示す図である。 照合パターンの一例を示す図である。 後続フレームに関する処理に係るフローチャートを示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1の(a)は、本実施形態に係る画像処理装置のハードウェア構成を示す図である。画像処理装置は、CPU(Central Processing Unit)1、記憶装置2、入力装置3、出力装置4、及び撮像装置5を含んで構成される。なお、各装置は、互いに通信可能に構成され、バス等により接続されている。
CPU1は、画像処理装置の動作をコントロールし、記憶装置2に格納されたプログラムの実行等を行う。
記憶装置2は、磁気記憶装置、半導体メモリ等のストレージデバイスであり、CPU1の動作に基づき読み込まれたプログラム、長時間記憶しなくてはならないデータ等を記憶する。
本実施形態では、CPU1が、記憶装置2に格納されたプログラムの手順に従って処理を行うことによって、画像処理装置における機能及び後述するフローチャートに係る処理が実現される。
入力装置3は、マウス、キーボード、タッチパネルデバイス、ボタン等であり、各種の指示を入力する。
出力装置4は、液晶パネル、外部モニタ、スピーカ等であり、各種の情報を出力する。
撮像装置5は、カムコーダ等であり、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備える。なお、撮像装置5で撮像された動画像データは、記憶装置2等に記憶される。また、動画像は、一連の複数のフレームを含んで構成され、各フレームに対応する静止画像を有している。
なお、画像処理装置のハードウェア構成は、これに限られるものではない。例えば、画像処理装置は、各種の装置間で通信を行うためのI/O装置を備えてもよい。なお、I/O装置は、メモリーカード、USBケーブル等の入出力部、有線又は無線による送受信部等である。
図1の(b)は、本実施形態に係る画像処理装置の機能構成を示す図である。画像処理装置の処理及び機能は、画像入力部10、画像メモリ部20、画像縮小部30、照合パターン抽出部40、輝度補正部50、顔判別部60、顔確率分布統合部70、顔領域出力部80、変化領域抽出部90、及び探索領域設定部100により実現される。
画像入力部10は、撮像装置5により撮像された動画像データを読込み、動画像データからフレームごとに画像データを抽出し、抽出した画像データを画像メモリ部20に入力する。なお、画像入力部10は、動画像データを記憶する記憶媒体から動画像データを読み込む構成でもよい。また、画像入力部10は、インターネット等を介してサーバ等に記憶された動画像データを読み込む構成でもよい。
画像メモリ部20は、記憶装置2に設けられる記憶領域である。画像メモリ部20は、画像入力部10から出力された画像データを一時的に記憶する。なお、画像メモリ部20が動画像データを一時的に記憶する構成を採用してもよい。
画像縮小部30は、画像メモリ部20に記憶されている動画像データの各フレームに対応する画像データを所定の倍率に従って縮小し、大きさの異なる複数の縮小画像を出力する。
照合パターン抽出部40は、画像縮小部30で縮小された画像データから所定の部分領域を照合対象のパターン(いわゆる照合パターン)として抽出する。
輝度補正部50は、照合パターン抽出部40で抽出された照合パターンの輝度分布を補正する。
顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンであるか非顔パターンであるかを判別するための顔確率を出力する。
顔確率分布統合部70は、複数の縮小画像から抽出された各部分領域に対応した顔確率の分布を保持し、複数のフレーム間の顔確率の分布を統合する。
顔領域出力部80は、顔確率分布統合部70による統合の結果に基づいて顔と判別される照合パターンに対応する部分領域を出力装置4等に出力する。
変化領域抽出部90は、被写体の動きにより、フレーム間での画像データ(画像情報)が変化する領域(変化領域)を出力する。
探索領域設定部100は、前フレームにおける顔確率分布統合部70の結果及び変化領域抽出部90で抽出されたフレーム間の変化領域から後フレームにおける探索領域を設定する。
図2は、画像処理装置の処理に係るフローチャートを示す図である。図2を参照して、初期フレームにおける画像処理装置の動作について説明する。
まず、画像入力部10は、処理の対象とする画像データを画像メモリ部20に入力する(ステップS101)。
ここで、入力される画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがJPEG(Joint Photographic Experts Group)等の方式により圧縮されている場合は、圧縮に対応する解凍方式に従って画像データを解凍し、RGB各画素により構成される画像データとする。
さらに、本実施形態では、画像入力部10は、RGB各画素により構成される画像データに含まれる輝度データより、輝度成分からなる輝度画像データ(例えば、色差成分を排した画像データ)を生成し、以後の処理に適用する。なお、輝度画像データは、画像メモリ部20に記憶される。また、画像データとしてYCrCbのデータを入力する場合は、Y成分をそのまま輝度データとして採用し、輝度画像データが生成されてもよい。
次に、画像縮小部30は、輝度画像データを画像メモリ部20から読み込み、所定の倍率に縮小した輝度画像データ(いわゆる縮小輝度画像データ)を生成する(ステップS102)。本実施形態では、所定の倍率に縮小した輝度画像データを生成して、複数のサイズの輝度画像データに対して順次検出を行う構成(例えば、参考文献1を参照のこと。)を採用しているので、様々な大きさの顔を検出できる。例えば、画像縮小部30は、倍率が1.2倍程度異なる画像への縮小処理を複数回行う。
参考文献1:Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998
ここで、参考文献1では、ニューラルネットワークにより画像中の顔パターンを検出する方法が提案されている。以下、参考文献1による顔検出の方法について簡単に説明する。
まず、顔の検出を対象とする画像データがメモリに読み込まれ、顔と照合する所定の領域が読み込まれた画像から切り出される。そして、切り出された領域の画素値の分布を入力としてニューラルネットワークによる演算で一つの出力が得られる。このとき、ニューラルネットワークの重み及び閾値が、膨大な顔画像パターンと非顔画像パターンとにより予め学習されている。例えば、ニューラルネットワークの出力が0以上なら顔、それ以外は非顔であると判別される。そして、ニューラルネットワークの入力である顔と照合する画像パターンの切り出し位置が、例えば、画像全域から縦横順次に走査されていくことにより、画像中から顔が検出される。また、様々な大きさの顔の検出に対応するため、読み込んだ画像が所定の割合で順次縮小され、それに対して前述した顔検出の走査が行われるようにしている。
次に、照合パターン抽出部40は、縮小された輝度画像データから所定の大きさの部分領域を照合パターンとして抽出し、設定する(ステップS103)。
ここで、図3を参照して、照合パターンについて説明する。
図3に示すAの列は、画像縮小部30で縮小された夫々の縮小輝度画像を示し、ステップS103では、夫々の縮小輝度画像に対して所定の大きさの部分領域(例えば、矩形領域)が切り出される。すなわち、各縮小輝度画像には、同じ大きさの矩形領域が設定され、矩形領域が照合パターンとして順次抽出される。
また、図3に示すBの列は、夫々の縮小輝度画像から縦横順次に走査を繰り返していく途中の切り出しの様子を示している。図示するように、縮小率の大きな画像から照合パターンを切り出して顔の判別を行う場合には、画像に対して大きな領域において顔の検出を行うことになる。
次に、輝度補正部50は、照合パターン抽出部40で切り出された部分領域の輝度をその分布をもとに正規化する(ステップS104)。例えば、輝度補正部50は、ヒストグラム平滑化等の輝度補正を行う。撮像される被写体パターンがその照明条件によって輝度分布が変わるとしても、輝度を補正することにより、被写体における照合の精度が劣化するのを極力低減できる。
次に、顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターンが顔パターンであるか非顔パターンであるかを判別すると共に、顔パターンであるか否か示す指標として顔確率を算出する(ステップS105)。
ここで、顔判別の方法は、公知の方法(例えば、参考文献1、2、3を参照のこと。)を用いてもよい。
参考文献2:Schneiderman and Kanade, "A statistical method for 3D object detection applied to faces and cars", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR2000)
参考文献3:Viola and Jones, "Rapid Object Detection using Boosted Cascade of Simple Features", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
ここで、参考文献2では、照合パターンの顔確率を複数の見え方に関する統計的分布の統合モデルとして捉えて判別に係る処理を行っている。
また、参考文献3では、処理の高速化に着目し、AdaBoostを使って多くの弱判別器を有効に組合せて顔判別の精度を向上させる一方、夫々の弱判別器をHaarタイプの矩形特徴量で構成し、矩形特徴量の算出を、積分画像を利用して高速に行っている。また、AdaBoost学習によって得た判別器を直列に繋ぎ、カスケード型の顔検出器を構成するようにしている。このカスケード型の顔検出器は、まず前段の単純な判別器(すなわち計算量のより少ない判別器)を使って明らかに顔でないパターンの候補をその場で除去する。そして、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器(すなわち計算量のより多い判別器)を使って顔であるか否かの判定を行なう。このように、すべての候補に対して複雑な判定を行う必要がないので処理が高速となる。
例えば、本実施形態では、ニューラルネットワークの出力値を顔確率の値として出力するようにする。ただし、顔確率として出力する値の精度を上げるために、ニューラルネットワークの出力値そのものでなく、ニューラルネットワークの出力値と顔確率の値との関係をテーブルに予め記憶しておき、テーブルを参照して顔確率の値を出力するようにしてもよい。なお、テーブルは、十分な数の顔画像パターンを予め用意し、用意したパターンのニューラルネットワークの出力値の統計的分布に基づいて作成することができる。
また、顔判別部として複数の判別器によって顔の判別を行う場合には、複数の判別器の出力値の加重平均等を算出して顔確率の値を出力するようにしてもよい。
そして、顔確率分布統合部70は、顔判別部60で得た部分領域の顔確率を、予め記憶されている顔確率分布における対応する部分領域の値と統合して、顔確率分布を更新する(ステップS106)。
例えば、縮小倍率s、切り出し位置x、yにおける顔判別部60で得た顔確率をP(s,x,y)とする。ここで、顔確率分布における、縮小倍率s、切り出し位置x、yに対応する値(この場合、初期値で所定の値が設定されている)をPOLD(s,x,y)とすると、統合後の顔確率分布における値PNEW(s,x,y)は、以下の式(1)により算出される。ただし、αは、所定の統合パラメータであり、0<α<1を満たす。
PNEW(s,x,y)=α・P(s,x,y)+(1−α)・POLD(s,x,y)・・・(1)
ここで、ステップS103からステップS106までの処理が、画像縮小部30の出力である各縮小輝度画像に対して図3に示すように縦横順次に走査が繰り返される。また、倍率が異なる縮小処理が順次適用され、ステップS102からステップS106までの処理が繰り返される。
そして、顔領域出力部80は、予め定められた複数種類の倍率での全ての縮小輝度画像において探索が終了した後、顔確率分布統合部70によって更新された顔確率分布における値が所定の値以上で、かつ、顔確率分布内で極大値(局所的な極大値であってもよい。)をとる領域を顔領域(被写体領域)として出力装置4等に出力する(ステップS107)。換言するならば、顔確率分布が縮小輝度画像ごとに設けられているので、顔領域出力部80は、縮小輝度画像ごとに顔領域を出力装置4等に出力し得る。
次に、図4を参照して、初期フレームの検出結果を用いて行う後続フレームにおける画像処理装置の動作について説明する。
まず、画像入力部10は、初期フレーム(例えば、第1のフレーム)に後続する後続フレーム(例えば、第2のフレーム)に対応する輝度画像データを画像メモリ部20に入力する(ステップS201)。
次に、抽出手段の一例である変化領域抽出部90は、被写体の動きによってフレーム間で輝度データが変化する領域(変化領域)を出力する(ステップS202)。
例えば、変化領域抽出部90は、各フレームの輝度画像の輝度値の差分演算を行い、輝度値の差が所定の閾値を超える画素が含まれる領域を変化領域とする。
より詳細には、変化領域抽出部90は、変化領域の画素と変化領域以外の領域の画素とを識別するために2値化処理を行う。さらに、画像ノイズの影響を低減するために、変化領域抽出部90は、2値化処理後の輝度画像データを所定の近傍領域の輝度画像データをもとに平滑化処理を繰り返し、所定面積以上の変化領域に統合していく。なお、変化領域抽出部90は、例えば、2値化処理後の輝度画像データに対してモルフォロジー的オープニング処理を行って変化領域を算出するようにしてもよい。
また、変化領域抽出部90は、各フレームの輝度画像の輝度値の差分をもとに変化領域を算出する構成に加えて又は代えて、各フレームのカラー画像から肌色確率の分布を抽出し、各フレームにおける肌色確率の差分をもとに変化領域を算出するようにしてもよい。なお、肌色確率は、肌色の確率分布を表した混合ガウスモデルにより行う方法(例えば、参考文献4を参照のこと。)等を適用して算出する。
参考文献4:Jones and Rehg, "Statistical color models with application to skin detection", International Journal of Computer Vision, VOL.46, NO.1, JANUARY 2002
また、固定カメラによって撮影された動画像の場合は、以上の簡単な処理により変化領域の抽出が可能であるが、カメラが固定されていない場合には、変化領域が必ずしも動被写体領域に対応しないので、以下の処理によって領域を抽出するようにしてもよい。この場合、まず、変化領域抽出部90は、複数フレームの輝度画像データから画像全域で動きベクトルの抽出を行う。そして、変化領域抽出部90は、動きベクトルの分布をもとにカメラの運動パラメータを算出する。さらに、変化領域抽出部90は、動きベクトルの分布から算出したカメラの運動パラメータに相当する移動量の補正を行い、カメラの動きと分離した被写体の動きによる動き成分を抽出する。そして、変化領域抽出部90は、この被写体の動きによる動き成分が所定の値以上の領域を変化領域とする。さらに、変化領域抽出部90は、抽出された変化領域に対して、前述したような画像ノイズの影響を考慮した平滑化の処理を行う。
なお、複数フレームの輝度画像データから動きベクトルを抽出して、カメラの運動パラメータを算出する方法については、公知の方法(例えば、参考文献5を参照のこと。)を用いることができる。
参考文献5:武川、宮島,「時系列画像からの3次元運動と形状解析」,コンピュータビジョン技術評論と将来展望,新技術コミュニケーションズ(1998)
次に、設定手段の一例である探索領域設定部100は、前フレームにおける顔領域出力部80の結果(例えば顔領域)及び変化領域抽出部90で抽出されたフレーム間の変化領域から後フレームにおける探索領域を設定する(ステップS203)。
より具体的に説明すると、まず、探索領域設定部100は、顔領域出力部80で出力された領域を第1の探索領域として抽出する。そして、探索領域設定部100は、変化領域抽出部90で抽出されたフレーム間の変化領域を第2の探索領域として抽出する。ここで、縮小処理が行われている場合には、探索領域設定部100は、縮小処理により得られた輝度画像における領域に同様の縮小処理により変化領域を縮小した領域を設定し、第2の探索領域として抽出する。そして、探索領域設定部100は、第1の探索領域と第2の探索領域との論理和を探索領域として設定する。
なお、第1の探索領域として用いる領域(例えば顔領域)は、顔確率分布統合部70の出力である顔確率分布における値が所定の値以上の領域を全て用いるようにしてもよい。また、第1の探索領域は、顔領域に対する所定の近傍領域を含めた領域を出力するようにしてもよい。例えば、近傍領域は、顔領域に接する部分領域である。
次に、画像縮小部30は、輝度画像データを画像メモリ部20から読み込み、所定の倍率に縮小した輝度画像データを生成する(ステップS204)。
次に、照合パターン抽出部40は、縮小された輝度画像データから抽出する所定の大きさの部分領域を設定し(ステップS205)、探索領域設定部100で設定された探索領域に属する領域であるか否かを判定する(ステップS206)。ここで、探索領域に属する領域とは、探索領域の一部又は全部を含む部分領域をいう。
そして、ステップS205で設定した部分領域が探索領域に属する場合には、照合パターン抽出部40は、探索領域に属する部分領域を照合パターンとして抽出し、設定する(ステップS207)。ステップS205で設定した部分領域が探索領域に属さない場合には、ステップS205に処理が戻り、縦横順次に走査が繰り返される。なお、一の輝度画像又は一の縮小輝度画像について走査が終了した場合には、ステップS204に処理が戻る。
次に、輝度補正部50は、ステップS104の処理と同様に、照合パターン抽出部40で切り出された部分領域の輝度をその分布をもとに正規化する(ステップS208)。
次に、判別手段の一例である顔判別部60は、ステップS105の処理と同様に処理を行う(ステップS209)。すなわち顔判別部60は、照合パターン抽出部40で抽出され、輝度補正部50で補正された照合パターン(探索領域内で判別される被写体)が顔パターンであるか非顔パターンであるかを判別すると共に、顔確率を算出する。
そして、統合手段の一例である顔確率分布統合部70は、ステップS106の処理と同様に処理を行う(ステップS210)。すなわち顔確率分布統合部70は、顔確率(後フレームの探索領域内での被写体の判別結果)と前フレームまでで算出した顔確率分布の部分領域が対応する値(後フレームの探索領域に対応する領域での被写体の判別結果)と統合して顔確率分布を更新する。顔判別部60で得た顔確率をP(s,x,y)、顔確率分布における値(この場合、前フレームまでの顔確率分布の統合結果)をPOLD(s,x,y)とすると、統合後の顔確率分布における値PNEW(s,x,y)は、上述の式(1)により算出される。
以上、ステップS205からステップS210までの処理が、画像縮小部30の出力である各縮小輝度画像に対して縦横順次に走査が繰り返される。また、倍率が異なる縮小処理が順次適用され、ステップS204からステップS210までの処理が繰り返される。すなわち、縮小輝度画像ごとに探索領域として設定した領域内において顔パターンの探索が行われる。
そして、出力手段の一例である顔領域出力部80は、ステップS107の処理と同様に処理を行う(ステップS211)。すなわち、顔領域出力部80は、統合された結果に基づいて被写体に関する領域を出力する。より具体的には、顔領域出力部80は、顔確率分布統合部70によって更新された顔確率分布における値が所定の値以上で、かつ、顔確率分布内で極大値をとる領域を顔領域として出力装置4等に出力する。
なお、ステップS201からステップS211までの処理は、動画像データにおける全フレームにて終了するまで順次繰り返される。
なお、被写体の動きがフレーム間隔に比べ遅い場合には、必ずしも全フレームにおいて処理を行わなくてもよく、所定フレーム間隔で検出処理(例えば、参考文献6を参照のこと。)を行うようにしてもよい。
参考文献6:Mikolajczyk et al, "Face detection in a video sequence - a temporal approarch", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR'01)
ここで、参考文献6では、参考文献2に記載の手法をもとに、所定フレームの顔検出結果から次フレームの顔の状態を予測し、それに顔の判別処理を適用して顔検出結果を更新する方法を提案している。また、5フレームごとに全探索を行う方法等を提案している。
また、本実施形態では、被写体パターンとして人物の顔を検出するようにしたが、人物とは異なるその他の被写体のパターンを採用してもよい。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、動画像における被写体の認識の精度を向上させることができるようになる。
つまり、各実施形態の構成によれば、高速、高精度に動画像から所定の被写体を検出する装置を提供することができる。すなわち、被写体領域とフレーム間変化領域とに探索領域を絞ることにより高速化が実現できる。さらに、探索領域として被写体領域を含むため、フレーム間の時間的変化が小さい場合にも対応できる。また、探索領域としてフレーム間の変化領域も含むため、新しい被写体の出現にも対応できる。さらに、複数フレームでの検出結果を統合するので、フレームごとに被写体検出を行う場合に比べて安定して高精度の検出が行える。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 画像入力部、20 画像メモリ部、30 画像縮小部、40 照合パターン抽出部、50 輝度補正部、60 顔判別部、70 顔確率分布統合部、80 顔領域出力部、90 変化領域抽出部、100 探索領域設定部

Claims (4)

  1. 動画像に係る第1のフレームと該第1のフレームに後続する第2のフレームとの間で、画像情報が変化している領域を抽出する抽出手段と、
    前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出手段で抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定手段と、
    前記設定手段で設定された前記第2のフレームの探索領域内で被写体を判別する判別手段と、
    を有する、画像処理装置。
  2. 前記判別手段により前記第2のフレームの探索領域内で被写体が判別された結果と、前記第2のフレームの探索領域に対応する前記第1のフレームの領域で被写体が判別された結果と、を統合する統合手段と、
    前記統合手段で統合された結果に基づいて、前記第2のフレームでの被写体の検出に関する被写体領域を出力する出力手段と、
    を更に有する、請求項1記載の画像処理装置。
  3. 動画像に係る第1のフレームと該第1のフレームに後続する第2のフレームとの間で、画像情報が変化している領域を抽出する抽出ステップと、
    前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出ステップで抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定ステップと、
    前記設定ステップで設定された前記第2のフレームの探索領域内で被写体を判別する判別ステップと、
    を有する、画像処理方法。
  4. 動画像に係る第1のフレームと該第1のフレームに後続する第2のフレームとの間で、画像情報が変化している領域を抽出する抽出ステップと、
    前記第1のフレームでの被写体の検出に関する被写体領域と前記抽出ステップで抽出された領域とに基づいて、前記第2のフレームの探索領域を設定する設定ステップと、
    前記設定ステップで設定された前記第2のフレームの探索領域内で被写体を判別する判別ステップと、
    をコンピュータに実行させることを特徴とするプログラム。
JP2009202799A 2009-09-02 2009-09-02 画像処理装置 Active JP5578816B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009202799A JP5578816B2 (ja) 2009-09-02 2009-09-02 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202799A JP5578816B2 (ja) 2009-09-02 2009-09-02 画像処理装置

Publications (2)

Publication Number Publication Date
JP2011053951A true JP2011053951A (ja) 2011-03-17
JP5578816B2 JP5578816B2 (ja) 2014-08-27

Family

ID=43942881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202799A Active JP5578816B2 (ja) 2009-09-02 2009-09-02 画像処理装置

Country Status (1)

Country Link
JP (1) JP5578816B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5292505B1 (ja) * 2012-11-20 2013-09-18 株式会社東芝 行動推定装置、閾値算出装置、行動推定方法、行動推定プログラム
JP2014137629A (ja) * 2013-01-15 2014-07-28 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
JP2014142760A (ja) * 2013-01-23 2014-08-07 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
JP2014191471A (ja) * 2013-03-26 2014-10-06 Mega Chips Corp 物体検出装置
US9536137B2 (en) 2013-03-26 2017-01-03 Megachips Corporation Object detection apparatus
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法
JP2020005111A (ja) * 2018-06-27 2020-01-09 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2022087701A (ja) * 2020-12-01 2022-06-13 オムロン株式会社 情報処理装置および情報処理方法
WO2024161616A1 (ja) * 2023-02-02 2024-08-08 日本電信電話株式会社 推論装置、推論方法、及び推論プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0312788A (ja) * 1989-06-12 1991-01-21 Oki Electric Ind Co Ltd 移動体検出装置
JPH0922466A (ja) * 1995-07-05 1997-01-21 Hitachi Ltd 背景画像作成方法および画像処理装置
JPH0991439A (ja) * 1995-09-26 1997-04-04 Fuji Electric Co Ltd 物体監視装置
JP2004157879A (ja) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd 物体検出方法
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置
JP2005354578A (ja) * 2004-06-14 2005-12-22 Denso Corp 対象物体検出・追跡装置
JP2006113738A (ja) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd 物体検出装置および物体検出方法
JP2007156771A (ja) * 2005-12-05 2007-06-21 Sony Corp 画像検知追跡装置、画像検知追跡方法および画像検知追跡プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0312788A (ja) * 1989-06-12 1991-01-21 Oki Electric Ind Co Ltd 移動体検出装置
JPH0922466A (ja) * 1995-07-05 1997-01-21 Hitachi Ltd 背景画像作成方法および画像処理装置
JPH0991439A (ja) * 1995-09-26 1997-04-04 Fuji Electric Co Ltd 物体監視装置
JP2004157879A (ja) * 2002-11-07 2004-06-03 Matsushita Electric Works Ltd 物体検出方法
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置
JP2005354578A (ja) * 2004-06-14 2005-12-22 Denso Corp 対象物体検出・追跡装置
JP2006113738A (ja) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd 物体検出装置および物体検出方法
JP2007156771A (ja) * 2005-12-05 2007-06-21 Sony Corp 画像検知追跡装置、画像検知追跡方法および画像検知追跡プログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8924324B2 (en) 2012-11-20 2014-12-30 Kabushiki Kaisha Toshiba Behavior estimation apparatus, threshold calculation apparatus, behavior estimation method and non-transitory computer readable medium thereof
JP5292505B1 (ja) * 2012-11-20 2013-09-18 株式会社東芝 行動推定装置、閾値算出装置、行動推定方法、行動推定プログラム
JP2014137629A (ja) * 2013-01-15 2014-07-28 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
JP2014142760A (ja) * 2013-01-23 2014-08-07 Mega Chips Corp 画像検出装置及び制御プログラム並びに画像検出方法
US10223583B2 (en) 2013-03-26 2019-03-05 Megachips Corporation Object detection apparatus
JP2014191471A (ja) * 2013-03-26 2014-10-06 Mega Chips Corp 物体検出装置
US9536137B2 (en) 2013-03-26 2017-01-03 Megachips Corporation Object detection apparatus
JP2018195190A (ja) * 2017-05-19 2018-12-06 キヤノン株式会社 画像処理装置、画像処理方法
JP7012457B2 (ja) 2017-05-19 2022-01-28 キヤノン株式会社 画像処理装置、画像処理方法
JP2020005111A (ja) * 2018-06-27 2020-01-09 キヤノン株式会社 情報処理装置、制御方法及びプログラム
JP2022087701A (ja) * 2020-12-01 2022-06-13 オムロン株式会社 情報処理装置および情報処理方法
JP7424280B2 (ja) 2020-12-01 2024-01-30 オムロン株式会社 情報処理装置および情報処理方法
WO2024161616A1 (ja) * 2023-02-02 2024-08-08 日本電信電話株式会社 推論装置、推論方法、及び推論プログラム

Also Published As

Publication number Publication date
JP5578816B2 (ja) 2014-08-27

Similar Documents

Publication Publication Date Title
JP5578816B2 (ja) 画像処理装置
US9020195B2 (en) Object tracking device, object tracking method, and control program
US8213690B2 (en) Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses
US9036917B2 (en) Image recognition based on patterns of local regions
EP3910507B1 (en) Method and apparatus for waking up screen
US20110211233A1 (en) Image processing device, image processing method and computer program
CN111368666B (zh) 一种基于新型池化及注意力机制双流网络的活体检测方法
US20050129276A1 (en) Object detection
JP2011090413A (ja) 画像認識装置、その処理方法及びプログラム
JP5489340B2 (ja) 顔マスキング装置及び方法
US20050129275A1 (en) Object detection
CN118609061B (zh) 基于ai识别的安检设备控制方法、装置、设备及存储介质
CN109711384A (zh) 一种基于深度卷积神经网络的人脸识别方法
US20050128306A1 (en) Object detection
Amjad et al. Multiple face detection algorithm using colour skin modelling
CN113392820A (zh) 动态手势识别方法、装置、电子设备及可读存储介质
KR20070016849A (ko) 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치
JP5523053B2 (ja) 物体識別装置及び物体識別方法
CN111160240B (zh) 图像对象的识别处理方法、装置及智能设备、存储介质
US20110182497A1 (en) Cascade structure for classifying objects in an image
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
CN107423709A (zh) 一种融合可见光与远红外线的目标检测方法
CN106651918B (zh) 抖动背景下的前景提取方法
Chen et al. Head-shoulder detection using joint HOG features for people counting and video surveillance in library
CN111179301B (zh) 一种基于计算机视频的运动趋势分析方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140708

R151 Written notification of patent or utility model registration

Ref document number: 5578816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151