JP2004094518A - 人物追跡装置、人物追跡方法及びプログラム - Google Patents
人物追跡装置、人物追跡方法及びプログラム Download PDFInfo
- Publication number
- JP2004094518A JP2004094518A JP2002253833A JP2002253833A JP2004094518A JP 2004094518 A JP2004094518 A JP 2004094518A JP 2002253833 A JP2002253833 A JP 2002253833A JP 2002253833 A JP2002253833 A JP 2002253833A JP 2004094518 A JP2004094518 A JP 2004094518A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- tracking
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000012545 processing Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 16
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮影手段によって連続して撮影された画像の中から人物を検出し、その動きを追跡する際に、複数の人物が一つの領域単位の中に重なって存在する場合に、人物領域を特定することが難しくなり、人物の追跡が困難になるという問題を解決する。
【解決手段】撮影画像の中から抽出した人物領域を人体の各部位が映る画像毎に分割し、分割された人体の各部位が映る画像の中の一つをテンプレートとし、テンプレートと連続する撮影画像とを順次マッチング処理することによって、撮影画像の中から人物を検出し、その動きを追跡することを特徴とする。
【選択図】 図1
【解決手段】撮影画像の中から抽出した人物領域を人体の各部位が映る画像毎に分割し、分割された人体の各部位が映る画像の中の一つをテンプレートとし、テンプレートと連続する撮影画像とを順次マッチング処理することによって、撮影画像の中から人物を検出し、その動きを追跡することを特徴とする。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、例えば人物監視を行う際に、監視カメラによって撮影された画像の中から人物を検出し、その動きを追跡する人物追跡装置及び人物追跡方法に関する。
【0002】
【従来の技術】
監視カメラによって撮影された画像の中から人物を検出し、その動きを追跡する人物追跡装置として、例えば以下のようなものがある。
【0003】
すなわち、人物追跡装置は、監視カメラによって連続して撮影された各画像を複数のブロックに分割し、連続する2つの画像をブロック単位で対応付けする。これにより、対応付けたブロックの位置変化が検出される場合に、その領域を人物が映る領域(以下、人物領域という)と見なす。人物追跡装置は、このような動作を連続して実行することにより人物領域を特定し、人物領域の変化を検出することによって人物の動きを追跡する。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術は、複数の人物が一つの領域の中に重なって存在する場合に、その領域を人物領域として特定できないときがあった。それは、人物領域の特定が所定の大きさのブロック(例えば横256×縦240画素の全体画像のうちの、横4×縦4画素)単位によるマッチング処理によって行われるため、ブロック単位の類似度が所定の閾値以上である場合はそのブロックが人物領域であると判断できるが、ブロック単位の類似度が所定の閾値未満である場合はそのブロックが人物領域であるとは判断できないからである。
【0005】
【課題を解決するための手段】
上記課題を解決するために第1の発明に係る人物追跡装置は、撮影手段によって連続して撮影された各画像を記憶する記憶手段と、前記撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする。
【0006】
また、第2の発明に係る人物追跡装置は、複数の撮影手段によって連続して撮影された各画像を記憶する記憶手段と、前記複数の撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする。
【0007】
また、第3の発明に係る人物追跡装置は、第2の発明に加え、複数の撮影手段によって連続して撮影された各画像を、各撮影手段に固有のローカルな座標系で記憶し管理することを特徴とする。
【0008】
また、第4の発明に係る人物追跡装置は、第2の発明に加え、複数の撮影手段によって連続して撮影された各画像を、全撮影手段に共通する広域な座標系で記憶し管理することを特徴とする。
【0009】
また、第5の発明に係る人物追跡装置は、第1〜第4のいずれかの発明に加え、頭部が映るブロックをテンプレートに用いて順次マッチング処理を行うことを特徴とする。
【0010】
また、第6の発明に係る人物追跡装置は、第1〜第5のいずれかの発明に加え、前記撮影手段によって連続して撮影された各画像の中から人物が映る領域を抽出する人物領域抽出部と、人物が映る領域を人体の各部位が映るブロックに分割する人物領域分割部と、前記撮影手段によって連続して撮影された各画像に対し、分割されたブロックの中の一つをテンプレートに用いて順次マッチング処理することによって、各画像の中から人物を検出し、その動きを追跡する人物追跡部と、を有することを特徴とする。
【0011】
また、第7の発明に係る人物追跡装置は、第6の発明に加え、前記人物領域抽出部は、前記撮影手段によって撮影された画像とその背景となる画像とを比較し、差分となる領域を抽出する差分領域抽出部と、差分となる領域を2値化する際に閾値を演算する閾値演算部と、差分となる領域を2値化する2値化部と、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定する人物領域判定部と、からなることを特徴とする。
【0012】
また、第8の発明に係る人物追跡装置は、第7の発明に加え、前記人物領域判定部は、2値化された差分となる領域の縦幅、横幅、縦横比に基づいて、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定することを特徴とする。
【0013】
また、第9の発明に係る人物追跡装置は、第6の発明に加え、前記人物領域分割部は、人体のプロポーションに基づいて、人物が映る領域を、頭部の左右、上半身の左右、下半身の左右いずれかの部位が映るブロックに分割することを特徴とする。
【0014】
また、第10の発明に係る人物追跡装置は、第6の発明に加え、前記人物追跡部は、縮小、拡大、または回転処理を施したテンプレートを用いて順次マッチング処理を行うことを特徴とする。
【0015】
【発明の実施の形態】
本発明に係る人物追跡装置は、監視カメラによって撮影された画像(以下、撮影画像という)の中から人物領域を抽出し、人体のプロポーション(例えば頭部、上半身、下半身等の、人体の各部位のサイズ比率)に基づいて、人物領域を人体の各部位が映るブロックに分割し、分割されたブロックの中の一つ(例えば、頭部が映るブロック)をテンプレートとし、連続する各撮影画像をテンプレートと順次マッチング処理することによって、撮影画像の中から人物を検出し、その動きを追跡する。
【0016】
以下、図面を参照して本発明の実施の形態を説明する。なお、各図はこの発明を理解できる程度に概略的に示してあるにすぎない。また、各図において、共通する要素については、同一の符号を付し、説明を省略する。
【0017】
<第1の実施の形態>
図1は第1の実施の形態に係る人物追跡装置の構成を示す図である。
【0018】
人物追跡装置1は、様々な演算を実行する機能を有する装置であり、監視カメラ3や表示部5と接続される。監視カメラ3は、内部の図示しない結像素子に外部の光景を結像させて、撮影画像を取得する。表示部5は、撮影画像や、様々な処理が施された画像、演算結果、その他を表示する。
【0019】
人物追跡装置1は、A/D変換部11、現画像蓄積部13、背景画像蓄積部15、背景更新部17、差分領域抽出部19、閾値演算部21、2値化部23、人物領域判定部25、人物領域分割部27、人物追跡部29、表示合成部31を有する。
【0020】
アナログ/デジタル変換部(以下、A/D変換部という)11は、監視カメラ3からアナログ信号で受け取った撮影画像をデジタル信号に変換する。
【0021】
現画像蓄積部13は、A/D変換部11からデジタル信号化された撮影画像を受け取り蓄積する。
【0022】
背景画像蓄積部15は、撮影画像の背景となる画像(以下、背景画像という)を蓄積する。背景画像は、人物が存在しない状況における撮影画像が用いられるが、取得を簡単にするために、本実施の形態では、複数の撮影画像における平均画像(すなわち、複数の撮影画像を足し合わせてその枚数で平均化することにより生成した画像)を用いる。
【0023】
背景更新部17は、一定の条件に基づいて、背景画像蓄積部15に平均画像を生成させ、それを背景画像として更新させる。
【0024】
差分領域抽出部19は、現画像蓄積部13に蓄積された現在の撮影画像と背景画像蓄積部15に蓄積された背景画像とを比較し、その差分となる領域(以下、差分領域という)を抽出する。
【0025】
閾値演算部21は、差分領域を2値化する際に用いる閾値を演算する。
【0026】
2値化部23は、閾値演算部21により算出した閾値を用いて差分領域を2値化する。
【0027】
人物領域判定部25は、2値化された差分領域に対し、人物領域であるか否かを判定する。判定は、2値化された差分領域の縦幅、横幅、縦横比、人体のプロポーションに基づいてなされる。
【0028】
なお、差分領域抽出部19と閾値演算部21と2値化部23と人物領域判定部25は、撮影画像の中から人物領域を抽出する人物領域抽出部となる。
【0029】
人物領域分割部27は、人体のプロポーションに基づいて、人物領域を、人体の各部位が映るブロック(例えば、頭部の左右、上半身の左右、下半身の左右のいずれかの部位が映るブロック)に分割する。分割は、人物領域のX方向とY方向のサイズの比率と予め設定された人体の各部位のX方向とY方向のサイズの比率とを比較することによってなされる。
【0030】
人物追跡部29は、分割されたブロックの中の一つをテンプレートとし、連続する各撮影画像をテンプレートと順次マッチング処理することによって、各撮影画像の中から人物を検出し、その動きを追跡する。
【0031】
なお、テンプレートは、監視カメラが俯瞰して撮影するタイプの場合に、撮影画像の中から人物の頭部が隠れる確率が低いので、頭部が映るブロックを用いる。また、テンプレートは、縮小処理、拡大処理、回転処理等を施したものを用いることにより、マッチング処理における人物領域の検出精度を向上させることができる。
【0032】
表示合成部31は、A/D変換部11から撮影画像を受け取るとともに、人物追跡部29から様々な処理が施された画像や追跡結果情報(例えば、人物の動きに関する文字情報や軌跡情報、図柄情報)等を受け取り、これらを合成して表示部5に出力する。なお、表示合成部31は、A/D変換部11から受け取った撮影画像と、人物追跡部29から受け取った様々な処理が施された画像や追跡結果情報等を合成することなく、任意に表示部5に出力することも可能である。
【0033】
このような人物追跡装置1は、図1に示す構成を専用の筐体の中に組み込むことによって形成されるが、人物追跡装置として機能するプログラムをコンピュータにインストールすることによっても形成される。
【0034】
人物追跡装置1は、以下のように動作する。
【0035】
まず、人物追跡装置1は、監視カメラ3からアナログ信号で撮影画像を受け取る。
【0036】
人物追跡装置1のA/D変換部11は撮影画像をデジタル信号に変換し、現画像蓄積部13がそれを蓄積する。
【0037】
背景画像蓄積部15は、所定のタイミングで現画像蓄積部13から撮影画像を受け取り、複数の撮影画像における平均画像を生成する。そして、平均画像を背景画像として蓄積する。
【0038】
背景更新部17は、一定の条件に基づいて、背景画像蓄積部15に平均画像を生成させ、それを背景画像として更新させる。一定の条件は、例えば、背景画像蓄積部15が現画像蓄積部13から撮影画像を100枚受け取った場合等のように、一般的に単純なものが望ましい。
【0039】
差分領域抽出部19は、現画像蓄積部13に蓄積された現在の撮影画像と背景画像蓄積部15に蓄積された背景画像とを比較し、差分領域を抽出する。差分領域は、通常、複数個存在し、ここではN個とする。
【0040】
閾値演算部21は、差分領域を2値化する際に用いる閾値を演算する。なお、閾値の演算については、例えば、「FAための画像処理技術」(工学研究社発行、田村進一編著)の第85〜90頁等に開示されており、また、本発明の要旨ではないので、ここでは説明を省略する。
【0041】
2値化部23は、閾値演算部21によって算出された閾値を用いてN個の差分領域を2値化する。
【0042】
人物領域判定部25は、2値化部23からN個の2値化された差分領域を受け取り、各差分領域に対し、その形状に基づいて、人物が映っていると考えられる領域を抽出して、その領域が人物領域か否かを判定する。ここで、人物が映っていると考えられる領域には、人物が単体で映っている場合と、人物が複数で映っている場合、人物ではなく、ノイズが映っている場合とがある。そのため、人物領域判定部25は、図2に示すフローチャートに基づいて、人物が映っていると考えられる領域が人物領域か否かを判定する。
【0043】
図2は人物領域判定部の動作を示すフローチャートである。
【0044】
人物領域判定部25は、ステップ(以下、Sという)11において、2値化されたN個の差分領域に対し、それぞれに外接する矩形の領域を抽出し、各矩形に1番目〜N番目までの符号iを付して、それぞれの縦幅li、横幅wi、縦横比li/wiを算出する(ただし、iはi=1,2,…,Nとする)。
【0045】
S13において、人物領域判定部25は、差分領域の数を計数する図示しない計数器の値iに初期値として1を設定し、N個の各差分領域に対し、人物領域か否かを表すフラグ(以下、人物標識フラグという)human flag[i](ただし、iはi=1,2,…,Nとする)を付し、各人物標識フラグhuman flag[1,2,…,N]の値に初期値として0を設定する。すなわち、差分領域を(i,human flag[i])として表すものとした場合に、例えば、1番目の差分領域に対し、初期値として(1,0)を設定する。なお、人物標識フラグhuman flag[i]は、人物領域でない場合の値を0とし、人物領域である場合の値を1とする。
【0046】
S15において、人物領域判定部25は、計数器の値iと全差分領域の個数Nとを比較し、iがN以下か否かを判定する。iがN以下の場合に、人物領域判定処理を行う。すなわち、1番目〜N番目までの全差分領域に対し、順次人物領域判定処理を行う。iがNよりも大きい場合に、人物領域判定処理を終了する。
【0047】
S17において、人物領域判定部25は、監視カメラ3の設置パラメータ(取付位置や向き(水平方向角度、上下方向角度)、画角等)と監視カメラ3自身の光学パラメータ(焦点距離や倍率等)に基づいて、撮影画像の中に映る標準的な人体像のサイズ(すなわち、高さl画素、幅w画素)を推定する。具体的には、図3に示すように、撮影画像の中の座標位置を、共通して用いる座標位置に変換することによって行う。
【0048】
図3は人物領域の分割を示す図である。なお、以下の説明において、撮影画像の中の二次元の座標位置を表す座標系を画面座標系ξηといい、共通して用いる三次元の座標位置を表す座標系をグローバル座標系XYZという。
【0049】
図3に示すように、人物領域判定部25は、監視カメラ3の真下に位置する路面上の点をグローバル座標系XYZの原点とし、監視カメラ3の光軸の路面への垂直投影線をY軸、Y軸に対し原点を通って上方向に延びる垂線をZ軸、YZ平面の原点を通る垂線をX軸とする。次に、監視カメラ3の光軸を画面座標系ξηの原点とし、画面座標系ξηの原点を通りかつX軸と同方向の垂線をξ軸、画面座標系ξηの原点を通りかつYZ平面内の上方向への垂線をη軸とする。なお、ξとηの単位は画素とする。監視カメラ3の高さをH(m)、光軸の俯角をθ(度)とし、監視カメラ3の焦点距離をf(mm)とする。服を着た人体の平均身長をL(m)、平均幅をW(m)とし、足元の座標を(X,Y,0)とすると、足元の画面上の位置(ξ,η)、人体像の高さl(画素)、幅w(画素)は、それぞれ以下の式1〜4となる。
【0050】
ξ=f1(f,L,X,Y,θ,H) …(1)
η=f2(f,W,X,Y,θ,H) …(2)
l=f3(f,L,X,Y,θ,H) …(3)
w=f4(f,W,X,Y,θ,H) …(4)
式1〜4の関係を用いて、画面中の足元の位置が(ξ,η)である標準的な人体像のサイズに相当する領域サイズを算出する。なお、具体的な算出方法については、例えば特開平7−50525号(「人物動物監視システム」)等に開示されており、本発明の要旨ではないので、ここでは説明を省略する。
【0051】
この後、人物領域判定部25は、算出された標準的な人体像のサイズに相当する領域に対し、この領域に外接する矩形の領域(以下、標準差分領域という)と標準差分領域の縦幅ls(画素)、横幅ws(画素)、縦横比ls/wsを割り出す。
【0052】
S19において、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wの三つの値が、所定の範囲内、例えば標準差分領域の縦幅ls(画素)、ws(画素)、縦横比ls/wsの(1−α)〜(1+α)倍の範囲内にあるかを否かを判定する。これにより、差分領域が人物領域であるか否かを判定する。例えば、αを0.1に設定した場合に、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wのそれぞれの値が、0.9×ls〜1.1×ls、0.9×ws〜1.1×ws、0.9×ls/ws〜1.1×ls/wsの範囲内にあるとき、その差分領域を人物領域として判定し、処理をS21に進める。逆に、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wの値が、0.9×ls〜1.1×ls、0.9×ws〜1.1×ws、0.9×ls/ws〜1.1×ls/wsの範囲外にあるとき、その差分領域を人物領域として判定できない領域(すなわち、ノイズの領域か、または複数の人物が重なって存在する領域)と判定し、処理をS23に進めて次の差分領域に対する人物領域の判定処理を行う。
【0053】
S21において、人物領域として判定された差分領域に対し、初期値として0が設定されていた人物標識フラグhuman flag[i]の値を1に変更する。
【0054】
S23において、現処理における差分領域に付した番号iに1を加算して処理をS15に戻し、次の差分領域に対してS15以降の処理を実行する。
【0055】
人物領域判定部25は、撮影画像の中の全ての差分領域に対し、人物領域の判定を実行する。この後、人物領域として判定された差分領域を人物領域分割部27に出力する。
【0056】
人物領域分割部27は、図4に示すように動作して、人体のプロポーションに基づいて、人物領域として判定された差分領域を、人体の各部位(例えば、頭部の左右、上半身の左右、下半身の左右)が映るブロックに分割する。図4は人物領域分割部の動作を示すフローチャートである。
【0057】
人物領域分割部27は、S31において、差分領域の数を計数する計数器の値iを1に設定して初期化処理を行う。
【0058】
S33において、計数器の値iと全差分領域の個数Nとを比較する。iがN以下の場合に、処理をS35に進める。iがNよりも大きい場合に、人体の各部位が映るブロックの画像や分割情報を人物追跡部29に出力し、人物領域の判定処理を終了する。
【0059】
S35において、i番目の差分領域の人物標識フラグhuman flag[i]の値が1になっているか否かを判定する。人物標識フラグhuman flag[i]の値が1になっている場合は処理をS37に進め、値が1になっていない場合は処理をS39に進める。
【0060】
S37において、人体のプロポーションに基づいて、撮影画像の中から人体の各部位が映るブロックに分割する。例えば、頭部の高さL1、上半身の高さL2、下半身の高さL3、全身長L=L1+L2+L3とする場合に、頭部の高さ/全身長の比率L1/L(例えば、1/6)、上半身の高さ/全身長の比率L2/L(例えば、2/6)、下半身の高さ/全身長の比率L3/L(例えば、3/6)の比率に基づいて、撮影画像の中から人体の各部位が映るブロックに分割する。なお、このとき、分割は、頭部、上半身、下半身の上下方向だけでなく、図3に示すように、左右方向にも行うことができる。この後、人物領域分割部27は、人体の各部位のブロックを図示しないメモリに、テンプレートの候補として記憶する。
【0061】
S39において、現処理における差分領域に付した番号iに1を加算して処理をS33に戻し、次の差分領域に対してS33以降の処理を実行する。
【0062】
人物領域分割部27は、以上のようにして、人物標識フラグhuman flag[i]の値が1になっている全ての差分領域を、人体の各部位が映るブロックに分割する。そして、人体の各部位が映るブロックや分割情報を人物追跡部29に出力する。
【0063】
人物追跡部29は、図5に示すように動作して、人物の動きを追跡する。図5は人物追跡部の動作を示すフローチャートである。
【0064】
人物追跡部29は、S51において、連続する各撮影画像の中から同一の人物が映る領域として対応付けできる人物領域(以下、対応人物領域という)を抽出する。具体的には、まず、人体の各部位が映るブロックの中から、例えば頭部が映るブロックのように、人物の特徴的な部分を示す画像を一つ選択し、これをテンプレートとする。そして、連続した次の撮影画像をテンプレートとマッチング処理し、連続した次の撮影画像の中から対応人物領域を抽出する。
【0065】
なお、マッチング処理に際して、人物の各部位が映るブロックを効率よく抽出するために、人物の特徴的な部分を示す画像に任意の変形を施して複数のテンプレートを生成してこれらを一組(以下、テンプレートセットという)にして用いてもよい。具体的には、人物の特徴的な部分を示す画像に倍率a1,a2,a3をかけて、人物の特徴的な部分を示す画像を縮小または拡大するとともに、画像の中心を軸として人物の特徴的な部分を示す画像を−α°と0°とα°の3通りの方向に回転する。例えば、倍率a1を0.9、a2を1、a3を1.1に設定し、αを10に設定する。これによって9個のテンプレートを生成する。これら9個のテンプレートをテンプレートセットとし、連続した次の撮影画像を各テンプレートとマッチング処理し、連続した次の撮影画像の中から対応人物領域を抽出する。具体的には以下のように処理する。
【0066】
まず、人物追跡部29は、連続する各撮影画像の中から対応人物領域を抽出する範囲を、[ξ0±Δξ,η0±Δη]とする。ξ0とη0は、現在の撮影画像における人体の特徴的な部分を示す画像の位置座標である。ΔξとΔηは、各撮影画像間の撮影時間間隔や人物の移動速度を考慮して決められる許容値である。
【0067】
次に、人物追跡部29は、抽出範囲内で9個のテンプレートを1画素単位で移動させながら、連続した次の撮影画像を各テンプレートと順次マッチング処理し、連続した次の撮影画像と各テンプレートとの類似度を演算し、その最大値MAX1similar、MAX2similar、…、MAX9similarを算出する。さらに、これらの中から最大値MAX(MAX1similar、MAX2similar、…、MAX9similar)を選択し、その値を連続した次の撮影画像間における対応人物領域の類似度とする。
【0068】
類似度i(u,v)は以下の式5により算出される。
【0069】
i(u,v)=ΣΣ |f(ξ,η)−g(ξ,η;u,v)| …(5)
ここで、f(ξ,η)はテンプレート画像、g(ξ,η;u,v)は抽出範囲内(ξ,η)においてξ方向にu、η方向にvだけ平行移動された画像である。
【0070】
なお、人物追跡部29は、連続した次の撮影画像と各テンプレートとの類似度を演算する際に、図6に示すような、ブロックのマスク処理を行うことにより、演算精度を向上させることができる。
【0071】
図6は頭部ブロックのテンプレートにおけるマスク処理を示す図である。
【0072】
図6(a)は人物単体の2値画像、図6(b)は人物グループの2値画像、図6(c)は人物単体の多値画像、図6(d)は人物グループの多値画像、図6(e)は頭部が映るブロックを2値画像として表した頭部ブロックの2値画像、図6(f)は頭部が映るブロックを多値画像として表した頭部ブロックの多値画像、図6(g)は頭部が映るブロックをテンプレートとして表した頭部ブロックのテンプレートである。
【0073】
人物追跡部29は、図6に示すように、図6(a)の人物単体の2値画像または図6(b)の人物グループの2値画像から図6(e)の頭部ブロックの2値画像を抽出する。また、図6(c)の人物単体の多値画像または図6(d)の人物グループの多値画像から図6(f)の頭部ブロックの多値画像を抽出する。そして、図6(e)の頭部ブロックの2値画像を用いて、図6(f)の頭部ブロックの多値画像から背景領域を除外して、人体の特徴的な部分を示す画像(すなわち、図6(g))を生成し、これをテンプレートとする。具体的には、図6(e)の頭部ブロックの2値画像と図6(f)の頭部ブロックの多値画像とを対応付けし、図6(e)の画素値が0となっている領域に対応する図6(f)の領域をマスク処理し、図6(e)の画素値が1となっている領域に対応する図6(f)の領域のみを残す。これにより、図6(g)のような、図6(e)の画素値が1となっている領域に対応する図6(f)の領域のみからなる多値画像を生成し、これをテンプレートとする。
【0074】
人物追跡部29は、連続した次の撮影画像と各テンプレートとの類似度を演算する際に、図6(g)の頭部ブロックのテンプレートを用いることにより、演算精度を向上させることができる。
【0075】
人物追跡部29は、S53において、対応人物領域の類似度を予め決めた閾値と比較する。類似度が閾値よりも大きい場合は、対応人物領域があると判断して、処理をS55に進め、類似度が閾値以下の場合は、人物領域が検出できないと判断して、テンプレートを更新することなく、人物の追跡処理を終了する。なお、人物領域が検出できない場合として、対応人物領域が存在しないとき、または、複数の人物が重なっているとき等がある。
【0076】
人物追跡部29は、S55において、対応人物領域が差分領域内にあるか否かを判定する。このとき、対応人物領域と差分領域の面積の重なり具合がある程度以上の場合に(例えば、対応人物領域と差分画像の重なる面積が対応人物領域の80%以上になる場合に)、人物追跡部29は人物単体が対応人物領域内に存在するものと判定し、処理をS57に進める。また、重なり具合がある程度未満の場合に、人物追跡部29は人物単体が対応人物領域内に存在しないものと判定し、処理をS59に進める。
【0077】
人物追跡部29は、S57において、人体のプロポーションに基づいて、対応人物領域を人物の各部位が映るブロックに分割し、これによって得られる人体の特徴的な部分を示す画像を新しいテンプレートとして更新する。この後、全ての対応人物領域に対し、記憶されたテンプレートを用いて、図5の人物の追跡処理を繰り返し行う。
【0078】
S59において、対応人物領域をテンプレートとして更新する。このとき、テンプレートとして更新する人物領域は、S57のように人物の各部位が映るブロックに分割せずに、現在のテンプレートのサイズに合わせる。この後、人物追跡部29は、全ての対応人物領域に対し、更新されたテンプレートを用いて、図5の人物の追跡処理を行う。
【0079】
このようにして、人物追跡部29は、撮影画像の中に複数の人物が重なって存在する領域があっても、個々に分離して各人物を追跡することができ、追跡の精度を向上させることができる。
【0080】
この後、表示合成部31は、人物追跡部29から追跡結果を受け取り、撮影画像と追跡対象となる人物の情報(例えば、追跡対象となる人物の外接矩形と軌跡等)とを合成して合成画像を生成し、表示部5に出力する。
【0081】
表示部5は、表示合成部31が生成した合成画像を表示する。
【0082】
以上、本実施の形態に係る人物追跡装置1は、撮影画像の中の人物領域を人体の各部位が映るブロックに分割し、その中の一つ(特に、頭部が映るブロックのように、人体の特徴的な部分が映る画像)をテンプレートとして用いることにより、次フレームの撮影画像の中から容易に対応人物領域を検出することができる。そのため、追跡対象となる人物を容易に検出でき、その動きを解析して追跡できる。特に、複数の人物が同じ領域に重なって存在する場合に、各人物の動きを容易に追跡できる。
【0083】
<第2の実施の形態>
本実施の形態は、同時に複数の監視現場における人物の追跡処理を行うことができるようにするものである。
【0084】
図7は第2の実施の形態に係る人物追跡装置の構成を示す図である。
【0085】
図7に示す人物追跡装置1’は、各監視現場を撮影する複数の監視カメラ3−1、3−2、…、3−nと表示部5と接続される。人物追跡装置1’は、内部に、監視カメラ3−1、3−2、…、3−nによる各監視現場の撮影画像に基づいて追跡処理を行う複数のローカル追跡処理ノード41−1、41−2、…、41−nと、ローカル追跡処理ノード41−1、41−2、…、41−nの各人物追跡結果を記憶する人物追跡結果記憶部43と、表示合成部31を有する。人物追跡装置1’は、各監視カメラ3−1、3−2、…、3−nが独立して撮影した複数の監視現場の撮影画像に対し、同時に人物追跡処理を行うことができる。
【0086】
なお、ローカル追跡処理ノード41(41−1、41−2、…、41−n)は、図8に示すように構成されている。図8はローカル追跡処理ノード41の構成を示す図である。ローカル追跡処理ノード41−1、41−2、…、41−nの構成は、表示合成部31が除外されている以外は、図1に示す人物追跡装置1とほぼ同様の構成である。
【0087】
人物追跡装置1’は、以下のように動作する。
【0088】
各ローカル追跡処理ノード41−1、41−2、…、41−nは、複数の監視カメラ3−1、3−2、…、3−nからそれぞれの撮影画像を受け取り、各撮影画像から差分領域を抽出し、人物領域を判定する。そして、人物領域を人体の各部位が映るブロックに分割し、その中の一つをテンプレートとして用いて人物の追跡処理を行い、それぞれの追跡処理結果(例えば、カメラ番号、人物軌跡情報等)を人物追跡結果記憶部43に出力する。なお、人物軌跡情報は、対象人物毎に付された番号(人物軌跡番号)や、各撮影画像内における対象人物の座標位置(ローカル空間位置)、画像を撮影した時間(時間コード)等の情報からなる。
【0089】
人物追跡結果記憶部43は、ローカル追跡処理ノード41−1、41−2、…、41−nから各追跡処理結果を受け取り、それを記憶する。図9は人物追跡結果記憶部の記憶内容の一例を示す図である。図9に示すように、人物追跡結果記憶部43は、各人物の追跡処理結果を検索しやすいように、カメラ番号、人物軌跡番号、ローカル空間位置、時間コード等の情報(すなわち、「どのカメラ」に、「何番の軌跡」で、「どこ」に、「いつ」、現れた等の情報)をテキストデータの形式で記憶する。
【0090】
表示合成部31は、監視カメラ3−1、3−2、…、3−nからの各撮影画像とローカル追跡処理ノード41−1、41−2、…、41−nからの各人物の追跡処理結果とを合成して追跡結果画像を生成し、表示部5に出力する。
【0091】
表示部5は、表示合成部31によって生成された追跡結果画像を表示する。
【0092】
以上説明したように、本実施の形態は、複数の監視カメラ3−1〜3−nによる各監視現場の撮影画像によって、同時に複数の監視現場における人物の追跡処理を行うことができる。しかも、人物追跡結果記憶部43は、複数の監視現場における追跡処理結果を集中的に、しかも検索可能な形態で記憶しているので、後から、特定の人物に対する追跡処理結果の履歴分析や軌跡分析を容易に行うことができる。その結果、監視人員の数を減らすことが可能である。
【0093】
<第3の実施の形態>
本実施の形態は、ある監視現場にいる人物が他の監視現場に移動する場合であっても、その人物の追跡処理を行うことができるようにするものである。
【0094】
図10は第3の実施の形態に係る人物追跡装置の構成を示す図である。本実施の形態に係る人物追跡装置1”は、人物が複数の現場に跨って移動する場合に、その人物を追跡できるものである。その構成は、第2の実施の形態に係る人物追跡装置1’とほぼ同様であるが、広域追跡結果生成部51が設けられているとともに、人物追跡結果記憶部43の代わりに広域人物追跡結果記憶部53が設けられている。広域追跡結果生成部51は、複数の監視現場に跨って人物の追跡処理を行い、撮影画像の撮影位置を、各監視カメラ3−1〜3−n全体に共通する座標系で表した追跡結果を生成して広域人物追跡結果記憶部53に出力し、広域人物追跡結果記憶部53はこれを記憶する。
【0095】
人物追跡装置1”は、以下のように動作する。
【0096】
第2の実施の形態と同様に、各ローカル追跡処理ノード41−1、41−2、…、41−nは、複数の監視カメラ3−1、3−2、…、3−nからそれぞれの撮影画像を受け取り、各撮影画像から差分領域を抽出し、人物領域を判定する。そして、人物領域を人体の各部位が映るブロックに分割し、その中の一つをテンプレートとして用いて人物の追跡処理を行い、それぞれの追跡処理結果(例えば、カメラ番号、人物軌跡情報等)を広域人物追跡結果生成部51に出力する。なお、人物軌跡情報は、対象人物毎に付された番号(人物軌跡番号)や、各撮影画像内における対象人物の座標位置(ローカル空間位置)、画像を撮影した時間(時間コード)等の情報からなる。
【0097】
広域追跡結果生成部51は、ローカル追跡処理ノード41−1、41−2、…、41−nから各追跡処理結果を受け取る。そして、各追跡処理結果から、監視現場におけるローカルな座標系で表された位置座標を広域に渡って共通する座標系(以下、広域座標系という)で表された位置座標に変換して広域追跡処理結果を生成し、それを記憶する。
【0098】
図11は広域人物追跡結果記憶部の記憶内容の一例を示す図である。図11に示すように、広域人物追跡結果記憶部53は、軌跡番号、広域空間位置(すなわち、広域座標系の空間位置)、時間コード等の情報(すなわち、「何番の軌跡」で、「共通の座標系のどこ」に、「いつ」現れる等の情報)をテキストデータの形式で記憶する。これに対して、第2の実施の形態に係る人物追跡結果記憶部43は、図9に示すように、追跡処理結果をローカルな座標系で記憶する。
【0099】
なお、ローカルな座標系における空間位置座標を、広域座標系における空間位置座標に変換する具体的な手法は、例えば信学技報IE2001−15 2001−06の第13頁〜第19頁に開示されている。
【0100】
表示合成部31は、各監視カメラ3−1、3−2、…、3−nからの撮影画像と広域人物追跡結果生成部51からの広域追跡処理結果とを合成して広域追跡結果画像を生成し、表示部5に出力する。
【0101】
表示部5は、表示合成部31によって生成された広域追跡結果画像を表示する。
【0102】
以上説明したように、本実施の形態は、各監視現場の撮影画像に映る対象人物の位置座標を広域座標系に変換して管理する。これによって、ある監視現場にいる人物が他の監視現場に移動する場合であっても、広域に渡ってその人物の追跡を行うことができる。しかも、広域人物追跡結果記憶部53は、広域における追跡処理結果を集中的に、しかも検索可能な形態で記憶しているので、後から、広域における特定の人物に対する追跡処理結果の履歴分析や軌跡分析を容易に行うことができる。その結果、第2の実施の形態よりも、更に監視人員の数を減らすことが可能である。
【0103】
本発明は上記の実施の形態に限定されることなく、本発明の要旨を逸脱しない範囲で種々の応用及び変形が考えられる。例えば、表示部5は、運用によって追跡結果画像(または広域追跡結果画像)の全てまたは一部を選択して表示する構成にしてもよい。
【0104】
上述の第1〜第3の実施の形態において、監視カメラが俯瞰して撮影するタイプの場合、複数の人物の頭部が一つの領域単位内に重なる確率は他の部位よりも低いので、頭部が映るブロックをテンプレートとして用いるのが有効である。
【0105】
また、上述の第1〜第3の実施の形態の中で、複数の監視現場において複数の人物を同時に追跡し、追跡結果を集中保存する場合は、第2の実施の形態が適している。
【0106】
また、上述の第1〜第3の実施の形態の中で、複数カメラ間の相対的な空間関係が分かった場合に、広域監視現場にわたって広域な範囲で人物を追跡する場合は、第3の実施の形態が適している。
【0107】
また、第2及び第3の実施の形態は、追跡結果を記憶しているので、後日、追跡対象となる人物の動きを分析する場合等に適している。
【0108】
【発明の効果】
以上説明した本発明は、複数の人物が一つの領域単位の中に重なって存在する場合に、人物領域を特定することができ、容易に人物の追跡を行うことができる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る人物追跡装置の構成を示す図である。
【図2】人物領域判定部の動作を示すフローチャートである。
【図3】人物領域の分割を示す図である。
【図4】人物領域分割部の動作を示すフローチャートである。
【図5】人物追跡部の動作を示すフローチャートである。
【図6】頭部ブロックのテンプレートのマスク処理を示す図である。
【図7】第2の実施の形態に係る人物追跡装置の構成を示す図である。
【図8】ローカル追跡処理ノードの構成を示す図である。
【図9】人物追跡結果記憶部の記憶内容の一例を示す図である。
【図10】第3の実施の形態に係る人物追跡装置の構成を示す図である。
【図11】広域人物追跡結果記憶部の記憶内容の一例を示す図である。
【符号の説明】
1 人物追跡装置
3 監視カメラ
5 表示部
11 A/D変換部
13 現画像蓄積部
15 背景画像蓄積部
17 背景更新部
19 差分領域抽出部
21 閾値演算部
23 2値化部
25 人物領域判定部
27 人物領域分割部
29 人物追跡部
31 表示合成部
【発明の属する技術分野】
本発明は、例えば人物監視を行う際に、監視カメラによって撮影された画像の中から人物を検出し、その動きを追跡する人物追跡装置及び人物追跡方法に関する。
【0002】
【従来の技術】
監視カメラによって撮影された画像の中から人物を検出し、その動きを追跡する人物追跡装置として、例えば以下のようなものがある。
【0003】
すなわち、人物追跡装置は、監視カメラによって連続して撮影された各画像を複数のブロックに分割し、連続する2つの画像をブロック単位で対応付けする。これにより、対応付けたブロックの位置変化が検出される場合に、その領域を人物が映る領域(以下、人物領域という)と見なす。人物追跡装置は、このような動作を連続して実行することにより人物領域を特定し、人物領域の変化を検出することによって人物の動きを追跡する。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術は、複数の人物が一つの領域の中に重なって存在する場合に、その領域を人物領域として特定できないときがあった。それは、人物領域の特定が所定の大きさのブロック(例えば横256×縦240画素の全体画像のうちの、横4×縦4画素)単位によるマッチング処理によって行われるため、ブロック単位の類似度が所定の閾値以上である場合はそのブロックが人物領域であると判断できるが、ブロック単位の類似度が所定の閾値未満である場合はそのブロックが人物領域であるとは判断できないからである。
【0005】
【課題を解決するための手段】
上記課題を解決するために第1の発明に係る人物追跡装置は、撮影手段によって連続して撮影された各画像を記憶する記憶手段と、前記撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする。
【0006】
また、第2の発明に係る人物追跡装置は、複数の撮影手段によって連続して撮影された各画像を記憶する記憶手段と、前記複数の撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする。
【0007】
また、第3の発明に係る人物追跡装置は、第2の発明に加え、複数の撮影手段によって連続して撮影された各画像を、各撮影手段に固有のローカルな座標系で記憶し管理することを特徴とする。
【0008】
また、第4の発明に係る人物追跡装置は、第2の発明に加え、複数の撮影手段によって連続して撮影された各画像を、全撮影手段に共通する広域な座標系で記憶し管理することを特徴とする。
【0009】
また、第5の発明に係る人物追跡装置は、第1〜第4のいずれかの発明に加え、頭部が映るブロックをテンプレートに用いて順次マッチング処理を行うことを特徴とする。
【0010】
また、第6の発明に係る人物追跡装置は、第1〜第5のいずれかの発明に加え、前記撮影手段によって連続して撮影された各画像の中から人物が映る領域を抽出する人物領域抽出部と、人物が映る領域を人体の各部位が映るブロックに分割する人物領域分割部と、前記撮影手段によって連続して撮影された各画像に対し、分割されたブロックの中の一つをテンプレートに用いて順次マッチング処理することによって、各画像の中から人物を検出し、その動きを追跡する人物追跡部と、を有することを特徴とする。
【0011】
また、第7の発明に係る人物追跡装置は、第6の発明に加え、前記人物領域抽出部は、前記撮影手段によって撮影された画像とその背景となる画像とを比較し、差分となる領域を抽出する差分領域抽出部と、差分となる領域を2値化する際に閾値を演算する閾値演算部と、差分となる領域を2値化する2値化部と、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定する人物領域判定部と、からなることを特徴とする。
【0012】
また、第8の発明に係る人物追跡装置は、第7の発明に加え、前記人物領域判定部は、2値化された差分となる領域の縦幅、横幅、縦横比に基づいて、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定することを特徴とする。
【0013】
また、第9の発明に係る人物追跡装置は、第6の発明に加え、前記人物領域分割部は、人体のプロポーションに基づいて、人物が映る領域を、頭部の左右、上半身の左右、下半身の左右いずれかの部位が映るブロックに分割することを特徴とする。
【0014】
また、第10の発明に係る人物追跡装置は、第6の発明に加え、前記人物追跡部は、縮小、拡大、または回転処理を施したテンプレートを用いて順次マッチング処理を行うことを特徴とする。
【0015】
【発明の実施の形態】
本発明に係る人物追跡装置は、監視カメラによって撮影された画像(以下、撮影画像という)の中から人物領域を抽出し、人体のプロポーション(例えば頭部、上半身、下半身等の、人体の各部位のサイズ比率)に基づいて、人物領域を人体の各部位が映るブロックに分割し、分割されたブロックの中の一つ(例えば、頭部が映るブロック)をテンプレートとし、連続する各撮影画像をテンプレートと順次マッチング処理することによって、撮影画像の中から人物を検出し、その動きを追跡する。
【0016】
以下、図面を参照して本発明の実施の形態を説明する。なお、各図はこの発明を理解できる程度に概略的に示してあるにすぎない。また、各図において、共通する要素については、同一の符号を付し、説明を省略する。
【0017】
<第1の実施の形態>
図1は第1の実施の形態に係る人物追跡装置の構成を示す図である。
【0018】
人物追跡装置1は、様々な演算を実行する機能を有する装置であり、監視カメラ3や表示部5と接続される。監視カメラ3は、内部の図示しない結像素子に外部の光景を結像させて、撮影画像を取得する。表示部5は、撮影画像や、様々な処理が施された画像、演算結果、その他を表示する。
【0019】
人物追跡装置1は、A/D変換部11、現画像蓄積部13、背景画像蓄積部15、背景更新部17、差分領域抽出部19、閾値演算部21、2値化部23、人物領域判定部25、人物領域分割部27、人物追跡部29、表示合成部31を有する。
【0020】
アナログ/デジタル変換部(以下、A/D変換部という)11は、監視カメラ3からアナログ信号で受け取った撮影画像をデジタル信号に変換する。
【0021】
現画像蓄積部13は、A/D変換部11からデジタル信号化された撮影画像を受け取り蓄積する。
【0022】
背景画像蓄積部15は、撮影画像の背景となる画像(以下、背景画像という)を蓄積する。背景画像は、人物が存在しない状況における撮影画像が用いられるが、取得を簡単にするために、本実施の形態では、複数の撮影画像における平均画像(すなわち、複数の撮影画像を足し合わせてその枚数で平均化することにより生成した画像)を用いる。
【0023】
背景更新部17は、一定の条件に基づいて、背景画像蓄積部15に平均画像を生成させ、それを背景画像として更新させる。
【0024】
差分領域抽出部19は、現画像蓄積部13に蓄積された現在の撮影画像と背景画像蓄積部15に蓄積された背景画像とを比較し、その差分となる領域(以下、差分領域という)を抽出する。
【0025】
閾値演算部21は、差分領域を2値化する際に用いる閾値を演算する。
【0026】
2値化部23は、閾値演算部21により算出した閾値を用いて差分領域を2値化する。
【0027】
人物領域判定部25は、2値化された差分領域に対し、人物領域であるか否かを判定する。判定は、2値化された差分領域の縦幅、横幅、縦横比、人体のプロポーションに基づいてなされる。
【0028】
なお、差分領域抽出部19と閾値演算部21と2値化部23と人物領域判定部25は、撮影画像の中から人物領域を抽出する人物領域抽出部となる。
【0029】
人物領域分割部27は、人体のプロポーションに基づいて、人物領域を、人体の各部位が映るブロック(例えば、頭部の左右、上半身の左右、下半身の左右のいずれかの部位が映るブロック)に分割する。分割は、人物領域のX方向とY方向のサイズの比率と予め設定された人体の各部位のX方向とY方向のサイズの比率とを比較することによってなされる。
【0030】
人物追跡部29は、分割されたブロックの中の一つをテンプレートとし、連続する各撮影画像をテンプレートと順次マッチング処理することによって、各撮影画像の中から人物を検出し、その動きを追跡する。
【0031】
なお、テンプレートは、監視カメラが俯瞰して撮影するタイプの場合に、撮影画像の中から人物の頭部が隠れる確率が低いので、頭部が映るブロックを用いる。また、テンプレートは、縮小処理、拡大処理、回転処理等を施したものを用いることにより、マッチング処理における人物領域の検出精度を向上させることができる。
【0032】
表示合成部31は、A/D変換部11から撮影画像を受け取るとともに、人物追跡部29から様々な処理が施された画像や追跡結果情報(例えば、人物の動きに関する文字情報や軌跡情報、図柄情報)等を受け取り、これらを合成して表示部5に出力する。なお、表示合成部31は、A/D変換部11から受け取った撮影画像と、人物追跡部29から受け取った様々な処理が施された画像や追跡結果情報等を合成することなく、任意に表示部5に出力することも可能である。
【0033】
このような人物追跡装置1は、図1に示す構成を専用の筐体の中に組み込むことによって形成されるが、人物追跡装置として機能するプログラムをコンピュータにインストールすることによっても形成される。
【0034】
人物追跡装置1は、以下のように動作する。
【0035】
まず、人物追跡装置1は、監視カメラ3からアナログ信号で撮影画像を受け取る。
【0036】
人物追跡装置1のA/D変換部11は撮影画像をデジタル信号に変換し、現画像蓄積部13がそれを蓄積する。
【0037】
背景画像蓄積部15は、所定のタイミングで現画像蓄積部13から撮影画像を受け取り、複数の撮影画像における平均画像を生成する。そして、平均画像を背景画像として蓄積する。
【0038】
背景更新部17は、一定の条件に基づいて、背景画像蓄積部15に平均画像を生成させ、それを背景画像として更新させる。一定の条件は、例えば、背景画像蓄積部15が現画像蓄積部13から撮影画像を100枚受け取った場合等のように、一般的に単純なものが望ましい。
【0039】
差分領域抽出部19は、現画像蓄積部13に蓄積された現在の撮影画像と背景画像蓄積部15に蓄積された背景画像とを比較し、差分領域を抽出する。差分領域は、通常、複数個存在し、ここではN個とする。
【0040】
閾値演算部21は、差分領域を2値化する際に用いる閾値を演算する。なお、閾値の演算については、例えば、「FAための画像処理技術」(工学研究社発行、田村進一編著)の第85〜90頁等に開示されており、また、本発明の要旨ではないので、ここでは説明を省略する。
【0041】
2値化部23は、閾値演算部21によって算出された閾値を用いてN個の差分領域を2値化する。
【0042】
人物領域判定部25は、2値化部23からN個の2値化された差分領域を受け取り、各差分領域に対し、その形状に基づいて、人物が映っていると考えられる領域を抽出して、その領域が人物領域か否かを判定する。ここで、人物が映っていると考えられる領域には、人物が単体で映っている場合と、人物が複数で映っている場合、人物ではなく、ノイズが映っている場合とがある。そのため、人物領域判定部25は、図2に示すフローチャートに基づいて、人物が映っていると考えられる領域が人物領域か否かを判定する。
【0043】
図2は人物領域判定部の動作を示すフローチャートである。
【0044】
人物領域判定部25は、ステップ(以下、Sという)11において、2値化されたN個の差分領域に対し、それぞれに外接する矩形の領域を抽出し、各矩形に1番目〜N番目までの符号iを付して、それぞれの縦幅li、横幅wi、縦横比li/wiを算出する(ただし、iはi=1,2,…,Nとする)。
【0045】
S13において、人物領域判定部25は、差分領域の数を計数する図示しない計数器の値iに初期値として1を設定し、N個の各差分領域に対し、人物領域か否かを表すフラグ(以下、人物標識フラグという)human flag[i](ただし、iはi=1,2,…,Nとする)を付し、各人物標識フラグhuman flag[1,2,…,N]の値に初期値として0を設定する。すなわち、差分領域を(i,human flag[i])として表すものとした場合に、例えば、1番目の差分領域に対し、初期値として(1,0)を設定する。なお、人物標識フラグhuman flag[i]は、人物領域でない場合の値を0とし、人物領域である場合の値を1とする。
【0046】
S15において、人物領域判定部25は、計数器の値iと全差分領域の個数Nとを比較し、iがN以下か否かを判定する。iがN以下の場合に、人物領域判定処理を行う。すなわち、1番目〜N番目までの全差分領域に対し、順次人物領域判定処理を行う。iがNよりも大きい場合に、人物領域判定処理を終了する。
【0047】
S17において、人物領域判定部25は、監視カメラ3の設置パラメータ(取付位置や向き(水平方向角度、上下方向角度)、画角等)と監視カメラ3自身の光学パラメータ(焦点距離や倍率等)に基づいて、撮影画像の中に映る標準的な人体像のサイズ(すなわち、高さl画素、幅w画素)を推定する。具体的には、図3に示すように、撮影画像の中の座標位置を、共通して用いる座標位置に変換することによって行う。
【0048】
図3は人物領域の分割を示す図である。なお、以下の説明において、撮影画像の中の二次元の座標位置を表す座標系を画面座標系ξηといい、共通して用いる三次元の座標位置を表す座標系をグローバル座標系XYZという。
【0049】
図3に示すように、人物領域判定部25は、監視カメラ3の真下に位置する路面上の点をグローバル座標系XYZの原点とし、監視カメラ3の光軸の路面への垂直投影線をY軸、Y軸に対し原点を通って上方向に延びる垂線をZ軸、YZ平面の原点を通る垂線をX軸とする。次に、監視カメラ3の光軸を画面座標系ξηの原点とし、画面座標系ξηの原点を通りかつX軸と同方向の垂線をξ軸、画面座標系ξηの原点を通りかつYZ平面内の上方向への垂線をη軸とする。なお、ξとηの単位は画素とする。監視カメラ3の高さをH(m)、光軸の俯角をθ(度)とし、監視カメラ3の焦点距離をf(mm)とする。服を着た人体の平均身長をL(m)、平均幅をW(m)とし、足元の座標を(X,Y,0)とすると、足元の画面上の位置(ξ,η)、人体像の高さl(画素)、幅w(画素)は、それぞれ以下の式1〜4となる。
【0050】
ξ=f1(f,L,X,Y,θ,H) …(1)
η=f2(f,W,X,Y,θ,H) …(2)
l=f3(f,L,X,Y,θ,H) …(3)
w=f4(f,W,X,Y,θ,H) …(4)
式1〜4の関係を用いて、画面中の足元の位置が(ξ,η)である標準的な人体像のサイズに相当する領域サイズを算出する。なお、具体的な算出方法については、例えば特開平7−50525号(「人物動物監視システム」)等に開示されており、本発明の要旨ではないので、ここでは説明を省略する。
【0051】
この後、人物領域判定部25は、算出された標準的な人体像のサイズに相当する領域に対し、この領域に外接する矩形の領域(以下、標準差分領域という)と標準差分領域の縦幅ls(画素)、横幅ws(画素)、縦横比ls/wsを割り出す。
【0052】
S19において、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wの三つの値が、所定の範囲内、例えば標準差分領域の縦幅ls(画素)、ws(画素)、縦横比ls/wsの(1−α)〜(1+α)倍の範囲内にあるかを否かを判定する。これにより、差分領域が人物領域であるか否かを判定する。例えば、αを0.1に設定した場合に、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wのそれぞれの値が、0.9×ls〜1.1×ls、0.9×ws〜1.1×ws、0.9×ls/ws〜1.1×ls/wsの範囲内にあるとき、その差分領域を人物領域として判定し、処理をS21に進める。逆に、撮影画像の中の差分領域における縦幅l(画素)、横幅w(画素)、縦横比l/wの値が、0.9×ls〜1.1×ls、0.9×ws〜1.1×ws、0.9×ls/ws〜1.1×ls/wsの範囲外にあるとき、その差分領域を人物領域として判定できない領域(すなわち、ノイズの領域か、または複数の人物が重なって存在する領域)と判定し、処理をS23に進めて次の差分領域に対する人物領域の判定処理を行う。
【0053】
S21において、人物領域として判定された差分領域に対し、初期値として0が設定されていた人物標識フラグhuman flag[i]の値を1に変更する。
【0054】
S23において、現処理における差分領域に付した番号iに1を加算して処理をS15に戻し、次の差分領域に対してS15以降の処理を実行する。
【0055】
人物領域判定部25は、撮影画像の中の全ての差分領域に対し、人物領域の判定を実行する。この後、人物領域として判定された差分領域を人物領域分割部27に出力する。
【0056】
人物領域分割部27は、図4に示すように動作して、人体のプロポーションに基づいて、人物領域として判定された差分領域を、人体の各部位(例えば、頭部の左右、上半身の左右、下半身の左右)が映るブロックに分割する。図4は人物領域分割部の動作を示すフローチャートである。
【0057】
人物領域分割部27は、S31において、差分領域の数を計数する計数器の値iを1に設定して初期化処理を行う。
【0058】
S33において、計数器の値iと全差分領域の個数Nとを比較する。iがN以下の場合に、処理をS35に進める。iがNよりも大きい場合に、人体の各部位が映るブロックの画像や分割情報を人物追跡部29に出力し、人物領域の判定処理を終了する。
【0059】
S35において、i番目の差分領域の人物標識フラグhuman flag[i]の値が1になっているか否かを判定する。人物標識フラグhuman flag[i]の値が1になっている場合は処理をS37に進め、値が1になっていない場合は処理をS39に進める。
【0060】
S37において、人体のプロポーションに基づいて、撮影画像の中から人体の各部位が映るブロックに分割する。例えば、頭部の高さL1、上半身の高さL2、下半身の高さL3、全身長L=L1+L2+L3とする場合に、頭部の高さ/全身長の比率L1/L(例えば、1/6)、上半身の高さ/全身長の比率L2/L(例えば、2/6)、下半身の高さ/全身長の比率L3/L(例えば、3/6)の比率に基づいて、撮影画像の中から人体の各部位が映るブロックに分割する。なお、このとき、分割は、頭部、上半身、下半身の上下方向だけでなく、図3に示すように、左右方向にも行うことができる。この後、人物領域分割部27は、人体の各部位のブロックを図示しないメモリに、テンプレートの候補として記憶する。
【0061】
S39において、現処理における差分領域に付した番号iに1を加算して処理をS33に戻し、次の差分領域に対してS33以降の処理を実行する。
【0062】
人物領域分割部27は、以上のようにして、人物標識フラグhuman flag[i]の値が1になっている全ての差分領域を、人体の各部位が映るブロックに分割する。そして、人体の各部位が映るブロックや分割情報を人物追跡部29に出力する。
【0063】
人物追跡部29は、図5に示すように動作して、人物の動きを追跡する。図5は人物追跡部の動作を示すフローチャートである。
【0064】
人物追跡部29は、S51において、連続する各撮影画像の中から同一の人物が映る領域として対応付けできる人物領域(以下、対応人物領域という)を抽出する。具体的には、まず、人体の各部位が映るブロックの中から、例えば頭部が映るブロックのように、人物の特徴的な部分を示す画像を一つ選択し、これをテンプレートとする。そして、連続した次の撮影画像をテンプレートとマッチング処理し、連続した次の撮影画像の中から対応人物領域を抽出する。
【0065】
なお、マッチング処理に際して、人物の各部位が映るブロックを効率よく抽出するために、人物の特徴的な部分を示す画像に任意の変形を施して複数のテンプレートを生成してこれらを一組(以下、テンプレートセットという)にして用いてもよい。具体的には、人物の特徴的な部分を示す画像に倍率a1,a2,a3をかけて、人物の特徴的な部分を示す画像を縮小または拡大するとともに、画像の中心を軸として人物の特徴的な部分を示す画像を−α°と0°とα°の3通りの方向に回転する。例えば、倍率a1を0.9、a2を1、a3を1.1に設定し、αを10に設定する。これによって9個のテンプレートを生成する。これら9個のテンプレートをテンプレートセットとし、連続した次の撮影画像を各テンプレートとマッチング処理し、連続した次の撮影画像の中から対応人物領域を抽出する。具体的には以下のように処理する。
【0066】
まず、人物追跡部29は、連続する各撮影画像の中から対応人物領域を抽出する範囲を、[ξ0±Δξ,η0±Δη]とする。ξ0とη0は、現在の撮影画像における人体の特徴的な部分を示す画像の位置座標である。ΔξとΔηは、各撮影画像間の撮影時間間隔や人物の移動速度を考慮して決められる許容値である。
【0067】
次に、人物追跡部29は、抽出範囲内で9個のテンプレートを1画素単位で移動させながら、連続した次の撮影画像を各テンプレートと順次マッチング処理し、連続した次の撮影画像と各テンプレートとの類似度を演算し、その最大値MAX1similar、MAX2similar、…、MAX9similarを算出する。さらに、これらの中から最大値MAX(MAX1similar、MAX2similar、…、MAX9similar)を選択し、その値を連続した次の撮影画像間における対応人物領域の類似度とする。
【0068】
類似度i(u,v)は以下の式5により算出される。
【0069】
i(u,v)=ΣΣ |f(ξ,η)−g(ξ,η;u,v)| …(5)
ここで、f(ξ,η)はテンプレート画像、g(ξ,η;u,v)は抽出範囲内(ξ,η)においてξ方向にu、η方向にvだけ平行移動された画像である。
【0070】
なお、人物追跡部29は、連続した次の撮影画像と各テンプレートとの類似度を演算する際に、図6に示すような、ブロックのマスク処理を行うことにより、演算精度を向上させることができる。
【0071】
図6は頭部ブロックのテンプレートにおけるマスク処理を示す図である。
【0072】
図6(a)は人物単体の2値画像、図6(b)は人物グループの2値画像、図6(c)は人物単体の多値画像、図6(d)は人物グループの多値画像、図6(e)は頭部が映るブロックを2値画像として表した頭部ブロックの2値画像、図6(f)は頭部が映るブロックを多値画像として表した頭部ブロックの多値画像、図6(g)は頭部が映るブロックをテンプレートとして表した頭部ブロックのテンプレートである。
【0073】
人物追跡部29は、図6に示すように、図6(a)の人物単体の2値画像または図6(b)の人物グループの2値画像から図6(e)の頭部ブロックの2値画像を抽出する。また、図6(c)の人物単体の多値画像または図6(d)の人物グループの多値画像から図6(f)の頭部ブロックの多値画像を抽出する。そして、図6(e)の頭部ブロックの2値画像を用いて、図6(f)の頭部ブロックの多値画像から背景領域を除外して、人体の特徴的な部分を示す画像(すなわち、図6(g))を生成し、これをテンプレートとする。具体的には、図6(e)の頭部ブロックの2値画像と図6(f)の頭部ブロックの多値画像とを対応付けし、図6(e)の画素値が0となっている領域に対応する図6(f)の領域をマスク処理し、図6(e)の画素値が1となっている領域に対応する図6(f)の領域のみを残す。これにより、図6(g)のような、図6(e)の画素値が1となっている領域に対応する図6(f)の領域のみからなる多値画像を生成し、これをテンプレートとする。
【0074】
人物追跡部29は、連続した次の撮影画像と各テンプレートとの類似度を演算する際に、図6(g)の頭部ブロックのテンプレートを用いることにより、演算精度を向上させることができる。
【0075】
人物追跡部29は、S53において、対応人物領域の類似度を予め決めた閾値と比較する。類似度が閾値よりも大きい場合は、対応人物領域があると判断して、処理をS55に進め、類似度が閾値以下の場合は、人物領域が検出できないと判断して、テンプレートを更新することなく、人物の追跡処理を終了する。なお、人物領域が検出できない場合として、対応人物領域が存在しないとき、または、複数の人物が重なっているとき等がある。
【0076】
人物追跡部29は、S55において、対応人物領域が差分領域内にあるか否かを判定する。このとき、対応人物領域と差分領域の面積の重なり具合がある程度以上の場合に(例えば、対応人物領域と差分画像の重なる面積が対応人物領域の80%以上になる場合に)、人物追跡部29は人物単体が対応人物領域内に存在するものと判定し、処理をS57に進める。また、重なり具合がある程度未満の場合に、人物追跡部29は人物単体が対応人物領域内に存在しないものと判定し、処理をS59に進める。
【0077】
人物追跡部29は、S57において、人体のプロポーションに基づいて、対応人物領域を人物の各部位が映るブロックに分割し、これによって得られる人体の特徴的な部分を示す画像を新しいテンプレートとして更新する。この後、全ての対応人物領域に対し、記憶されたテンプレートを用いて、図5の人物の追跡処理を繰り返し行う。
【0078】
S59において、対応人物領域をテンプレートとして更新する。このとき、テンプレートとして更新する人物領域は、S57のように人物の各部位が映るブロックに分割せずに、現在のテンプレートのサイズに合わせる。この後、人物追跡部29は、全ての対応人物領域に対し、更新されたテンプレートを用いて、図5の人物の追跡処理を行う。
【0079】
このようにして、人物追跡部29は、撮影画像の中に複数の人物が重なって存在する領域があっても、個々に分離して各人物を追跡することができ、追跡の精度を向上させることができる。
【0080】
この後、表示合成部31は、人物追跡部29から追跡結果を受け取り、撮影画像と追跡対象となる人物の情報(例えば、追跡対象となる人物の外接矩形と軌跡等)とを合成して合成画像を生成し、表示部5に出力する。
【0081】
表示部5は、表示合成部31が生成した合成画像を表示する。
【0082】
以上、本実施の形態に係る人物追跡装置1は、撮影画像の中の人物領域を人体の各部位が映るブロックに分割し、その中の一つ(特に、頭部が映るブロックのように、人体の特徴的な部分が映る画像)をテンプレートとして用いることにより、次フレームの撮影画像の中から容易に対応人物領域を検出することができる。そのため、追跡対象となる人物を容易に検出でき、その動きを解析して追跡できる。特に、複数の人物が同じ領域に重なって存在する場合に、各人物の動きを容易に追跡できる。
【0083】
<第2の実施の形態>
本実施の形態は、同時に複数の監視現場における人物の追跡処理を行うことができるようにするものである。
【0084】
図7は第2の実施の形態に係る人物追跡装置の構成を示す図である。
【0085】
図7に示す人物追跡装置1’は、各監視現場を撮影する複数の監視カメラ3−1、3−2、…、3−nと表示部5と接続される。人物追跡装置1’は、内部に、監視カメラ3−1、3−2、…、3−nによる各監視現場の撮影画像に基づいて追跡処理を行う複数のローカル追跡処理ノード41−1、41−2、…、41−nと、ローカル追跡処理ノード41−1、41−2、…、41−nの各人物追跡結果を記憶する人物追跡結果記憶部43と、表示合成部31を有する。人物追跡装置1’は、各監視カメラ3−1、3−2、…、3−nが独立して撮影した複数の監視現場の撮影画像に対し、同時に人物追跡処理を行うことができる。
【0086】
なお、ローカル追跡処理ノード41(41−1、41−2、…、41−n)は、図8に示すように構成されている。図8はローカル追跡処理ノード41の構成を示す図である。ローカル追跡処理ノード41−1、41−2、…、41−nの構成は、表示合成部31が除外されている以外は、図1に示す人物追跡装置1とほぼ同様の構成である。
【0087】
人物追跡装置1’は、以下のように動作する。
【0088】
各ローカル追跡処理ノード41−1、41−2、…、41−nは、複数の監視カメラ3−1、3−2、…、3−nからそれぞれの撮影画像を受け取り、各撮影画像から差分領域を抽出し、人物領域を判定する。そして、人物領域を人体の各部位が映るブロックに分割し、その中の一つをテンプレートとして用いて人物の追跡処理を行い、それぞれの追跡処理結果(例えば、カメラ番号、人物軌跡情報等)を人物追跡結果記憶部43に出力する。なお、人物軌跡情報は、対象人物毎に付された番号(人物軌跡番号)や、各撮影画像内における対象人物の座標位置(ローカル空間位置)、画像を撮影した時間(時間コード)等の情報からなる。
【0089】
人物追跡結果記憶部43は、ローカル追跡処理ノード41−1、41−2、…、41−nから各追跡処理結果を受け取り、それを記憶する。図9は人物追跡結果記憶部の記憶内容の一例を示す図である。図9に示すように、人物追跡結果記憶部43は、各人物の追跡処理結果を検索しやすいように、カメラ番号、人物軌跡番号、ローカル空間位置、時間コード等の情報(すなわち、「どのカメラ」に、「何番の軌跡」で、「どこ」に、「いつ」、現れた等の情報)をテキストデータの形式で記憶する。
【0090】
表示合成部31は、監視カメラ3−1、3−2、…、3−nからの各撮影画像とローカル追跡処理ノード41−1、41−2、…、41−nからの各人物の追跡処理結果とを合成して追跡結果画像を生成し、表示部5に出力する。
【0091】
表示部5は、表示合成部31によって生成された追跡結果画像を表示する。
【0092】
以上説明したように、本実施の形態は、複数の監視カメラ3−1〜3−nによる各監視現場の撮影画像によって、同時に複数の監視現場における人物の追跡処理を行うことができる。しかも、人物追跡結果記憶部43は、複数の監視現場における追跡処理結果を集中的に、しかも検索可能な形態で記憶しているので、後から、特定の人物に対する追跡処理結果の履歴分析や軌跡分析を容易に行うことができる。その結果、監視人員の数を減らすことが可能である。
【0093】
<第3の実施の形態>
本実施の形態は、ある監視現場にいる人物が他の監視現場に移動する場合であっても、その人物の追跡処理を行うことができるようにするものである。
【0094】
図10は第3の実施の形態に係る人物追跡装置の構成を示す図である。本実施の形態に係る人物追跡装置1”は、人物が複数の現場に跨って移動する場合に、その人物を追跡できるものである。その構成は、第2の実施の形態に係る人物追跡装置1’とほぼ同様であるが、広域追跡結果生成部51が設けられているとともに、人物追跡結果記憶部43の代わりに広域人物追跡結果記憶部53が設けられている。広域追跡結果生成部51は、複数の監視現場に跨って人物の追跡処理を行い、撮影画像の撮影位置を、各監視カメラ3−1〜3−n全体に共通する座標系で表した追跡結果を生成して広域人物追跡結果記憶部53に出力し、広域人物追跡結果記憶部53はこれを記憶する。
【0095】
人物追跡装置1”は、以下のように動作する。
【0096】
第2の実施の形態と同様に、各ローカル追跡処理ノード41−1、41−2、…、41−nは、複数の監視カメラ3−1、3−2、…、3−nからそれぞれの撮影画像を受け取り、各撮影画像から差分領域を抽出し、人物領域を判定する。そして、人物領域を人体の各部位が映るブロックに分割し、その中の一つをテンプレートとして用いて人物の追跡処理を行い、それぞれの追跡処理結果(例えば、カメラ番号、人物軌跡情報等)を広域人物追跡結果生成部51に出力する。なお、人物軌跡情報は、対象人物毎に付された番号(人物軌跡番号)や、各撮影画像内における対象人物の座標位置(ローカル空間位置)、画像を撮影した時間(時間コード)等の情報からなる。
【0097】
広域追跡結果生成部51は、ローカル追跡処理ノード41−1、41−2、…、41−nから各追跡処理結果を受け取る。そして、各追跡処理結果から、監視現場におけるローカルな座標系で表された位置座標を広域に渡って共通する座標系(以下、広域座標系という)で表された位置座標に変換して広域追跡処理結果を生成し、それを記憶する。
【0098】
図11は広域人物追跡結果記憶部の記憶内容の一例を示す図である。図11に示すように、広域人物追跡結果記憶部53は、軌跡番号、広域空間位置(すなわち、広域座標系の空間位置)、時間コード等の情報(すなわち、「何番の軌跡」で、「共通の座標系のどこ」に、「いつ」現れる等の情報)をテキストデータの形式で記憶する。これに対して、第2の実施の形態に係る人物追跡結果記憶部43は、図9に示すように、追跡処理結果をローカルな座標系で記憶する。
【0099】
なお、ローカルな座標系における空間位置座標を、広域座標系における空間位置座標に変換する具体的な手法は、例えば信学技報IE2001−15 2001−06の第13頁〜第19頁に開示されている。
【0100】
表示合成部31は、各監視カメラ3−1、3−2、…、3−nからの撮影画像と広域人物追跡結果生成部51からの広域追跡処理結果とを合成して広域追跡結果画像を生成し、表示部5に出力する。
【0101】
表示部5は、表示合成部31によって生成された広域追跡結果画像を表示する。
【0102】
以上説明したように、本実施の形態は、各監視現場の撮影画像に映る対象人物の位置座標を広域座標系に変換して管理する。これによって、ある監視現場にいる人物が他の監視現場に移動する場合であっても、広域に渡ってその人物の追跡を行うことができる。しかも、広域人物追跡結果記憶部53は、広域における追跡処理結果を集中的に、しかも検索可能な形態で記憶しているので、後から、広域における特定の人物に対する追跡処理結果の履歴分析や軌跡分析を容易に行うことができる。その結果、第2の実施の形態よりも、更に監視人員の数を減らすことが可能である。
【0103】
本発明は上記の実施の形態に限定されることなく、本発明の要旨を逸脱しない範囲で種々の応用及び変形が考えられる。例えば、表示部5は、運用によって追跡結果画像(または広域追跡結果画像)の全てまたは一部を選択して表示する構成にしてもよい。
【0104】
上述の第1〜第3の実施の形態において、監視カメラが俯瞰して撮影するタイプの場合、複数の人物の頭部が一つの領域単位内に重なる確率は他の部位よりも低いので、頭部が映るブロックをテンプレートとして用いるのが有効である。
【0105】
また、上述の第1〜第3の実施の形態の中で、複数の監視現場において複数の人物を同時に追跡し、追跡結果を集中保存する場合は、第2の実施の形態が適している。
【0106】
また、上述の第1〜第3の実施の形態の中で、複数カメラ間の相対的な空間関係が分かった場合に、広域監視現場にわたって広域な範囲で人物を追跡する場合は、第3の実施の形態が適している。
【0107】
また、第2及び第3の実施の形態は、追跡結果を記憶しているので、後日、追跡対象となる人物の動きを分析する場合等に適している。
【0108】
【発明の効果】
以上説明した本発明は、複数の人物が一つの領域単位の中に重なって存在する場合に、人物領域を特定することができ、容易に人物の追跡を行うことができる。
【図面の簡単な説明】
【図1】第1の実施の形態に係る人物追跡装置の構成を示す図である。
【図2】人物領域判定部の動作を示すフローチャートである。
【図3】人物領域の分割を示す図である。
【図4】人物領域分割部の動作を示すフローチャートである。
【図5】人物追跡部の動作を示すフローチャートである。
【図6】頭部ブロックのテンプレートのマスク処理を示す図である。
【図7】第2の実施の形態に係る人物追跡装置の構成を示す図である。
【図8】ローカル追跡処理ノードの構成を示す図である。
【図9】人物追跡結果記憶部の記憶内容の一例を示す図である。
【図10】第3の実施の形態に係る人物追跡装置の構成を示す図である。
【図11】広域人物追跡結果記憶部の記憶内容の一例を示す図である。
【符号の説明】
1 人物追跡装置
3 監視カメラ
5 表示部
11 A/D変換部
13 現画像蓄積部
15 背景画像蓄積部
17 背景更新部
19 差分領域抽出部
21 閾値演算部
23 2値化部
25 人物領域判定部
27 人物領域分割部
29 人物追跡部
31 表示合成部
Claims (20)
- 撮影手段によって連続して撮影された各画像を記憶する記憶手段と、
前記撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする人物追跡装置。 - 複数の撮影手段によって連続して撮影された各画像を記憶する記憶手段と、
前記複数の撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する追跡手段とを有することを特徴とする人物追跡装置。 - 複数の撮影手段によって連続して撮影された各画像を、各撮影手段に固有のローカルな座標系で記憶し管理することを特徴とする請求項2に記載の人物追跡装置。
- 複数の撮影手段によって連続して撮影された各画像を、全撮影手段に共通する広域な座標系で記憶し管理することを特徴とする請求項2に記載の人物追跡装置。
- 頭部が映るブロックをテンプレートに用いて順次マッチング処理を行うことを特徴とする請求項1〜4のいずれか1項に記載の人物追跡装置。
- 前記撮影手段によって連続して撮影された各画像の中から人物が映る領域を抽出する人物領域抽出部と、
人物が映る領域を人体の各部位が映るブロックに分割する人物領域分割部と、
前記撮影手段によって連続して撮影された各画像に対し、分割されたブロックの中の一つをテンプレートに用いて順次マッチング処理することによって、各画像の中から人物を検出し、その動きを追跡する人物追跡部と、
を有することを特徴とする請求項1〜5のいずれか1項に記載の人物追跡装置。 - 前記人物領域抽出部は、
前記撮影手段によって撮影された画像とその背景となる画像とを比較し、差分となる領域を抽出する差分領域抽出部と、
差分となる領域を2値化する際に閾値を演算する閾値演算部と、
差分となる領域を2値化する2値化部と、
2値化された差分となる領域に対し、人物が映る領域であるか否かを判定する人物領域判定部と、
からなることを特徴とする請求項6に記載の人物追跡装置。 - 前記人物領域判定部は、2値化された差分となる領域の縦幅、横幅、縦横比に基づいて、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定することを特徴とする請求項7に記載の人物追跡装置。
- 前記人物領域分割部は、人体のプロポーションに基づいて、人物が映る領域を、頭部の左右、上半身の左右、下半身の左右いずれかの部位が映るブロックに分割することを特徴とする請求項6に記載の人物追跡装置。
- 前記人物追跡部は、縮小、拡大、または回転処理を施したテンプレートを用いて順次マッチング処理を行うことを特徴とする請求項6に記載の人物追跡装置。
- 記憶手段と追跡手段とを有し、人物の動きを追跡する人物追跡装置は、
前記記憶手段が撮影手段によって連続して撮影された各画像を記憶する工程と、
前記追跡手段が、前記撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する工程とを有することを特徴とする人物追跡方法。 - 記憶手段と追跡手段とを有し、人物の動きを追跡する人物追跡装置は、
前記記憶手段が複数の撮影手段によって連続して撮影された各画像を記憶する工程と、
前記追跡手段が、前記複数の撮影手段によって連続して撮影された各画像に対し、人体の特定部位が映るブロックをテンプレートに用いることによって、各画像の中から人物を検出し、その動きを追跡する工程とを有することを特徴とする人物追跡方法。 - 前記人物追跡装置は、複数の撮影手段によって連続して撮影された各画像を、各撮影手段に固有のローカルな座標系で記憶し管理することを特徴とする請求項12に記載の人物追跡方法。
- 前記人物追跡装置は、複数の撮影手段によって連続して撮影された各画像を、全撮影手段に共通する広域な座標系で記憶し管理することを特徴とする請求項12に記載の人物追跡方法。
- 前記人物追跡装置は、頭部が映るブロックをテンプレートに用いて順次マッチング処理を行うことを特徴とする請求項11〜14のいずれか1項に記載の人物追跡方法。
- 前記人物追跡装置は、前記撮影手段によって連続して撮影された各画像の中から人物が映る領域を抽出し、
人物が映る領域を人体の各部位が映るブロックに分割し、
前記撮影手段によって連続して撮影された各画像に対し、分割されたブロックの中の一つをテンプレートに用いて順次マッチング処理することによって、各画像の中から人物を検出し、その動きを追跡する
ことを特徴とする請求項11〜15のいずれか1項に記載の人物追跡方法。 - 前記人物追跡装置は、
前記撮影手段によって撮影された画像とその背景となる画像とを比較し、差分となる領域を抽出し、
差分となる領域を2値化する際に閾値を演算し、
差分となる領域を2値化し、
2値化された差分となる領域に対し、人物が映る領域であるか否かを判定する
ことを特徴とする請求項16に記載の人物追跡方法。 - 前記人物追跡装置は、2値化された差分となる領域の縦幅、横幅、縦横比に基づいて、2値化された差分となる領域に対し、人物が映る領域であるか否かを判定することを特徴とする請求項17に記載の人物追跡方法。
- 前記人物追跡装置は、人体のプロポーションに基づいて、人物が映る領域を、頭部の左右、上半身の左右、下半身の左右いずれかの部位が映るブロックに分割することを特徴とする請求項16に記載の人物追跡方法。
- 前記人物追跡装置は、縮小、拡大、または回転処理を施したテンプレートを用いて順次マッチング処理を行うことを特徴とする請求項16に記載の人物追跡方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002253833A JP2004094518A (ja) | 2002-08-30 | 2002-08-30 | 人物追跡装置、人物追跡方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002253833A JP2004094518A (ja) | 2002-08-30 | 2002-08-30 | 人物追跡装置、人物追跡方法及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004094518A true JP2004094518A (ja) | 2004-03-25 |
Family
ID=32059729
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002253833A Withdrawn JP2004094518A (ja) | 2002-08-30 | 2002-08-30 | 人物追跡装置、人物追跡方法及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004094518A (ja) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005326966A (ja) * | 2004-05-12 | 2005-11-24 | Mitsubishi Electric Corp | 人数カウント装置 |
| JP2007142527A (ja) * | 2005-11-15 | 2007-06-07 | Hitachi Ltd | 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置 |
| JP2009005089A (ja) * | 2007-06-21 | 2009-01-08 | Toshiba Corp | 画像識別表示装置及び画像識別表示方法 |
| JP2009117956A (ja) * | 2007-11-02 | 2009-05-28 | Hitachi Kokusai Electric Inc | 映像処理装置 |
| US8116534B2 (en) | 2006-05-29 | 2012-02-14 | Kabushiki Kaisha Toshiba | Face recognition apparatus and face recognition method |
| JP2016139172A (ja) * | 2015-01-26 | 2016-08-04 | 三菱電機株式会社 | 空港監視装置 |
| JP2017184025A (ja) * | 2016-03-30 | 2017-10-05 | 株式会社リコー | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム |
| JP2018093423A (ja) * | 2016-12-06 | 2018-06-14 | 富士通株式会社 | 画像処理プログラム、画像処理装置および画像処理方法 |
| US10026019B2 (en) | 2014-03-11 | 2018-07-17 | Mitsubishi Electric Corporation | Person detecting device and person detecting method |
| US10297040B2 (en) | 2016-08-10 | 2019-05-21 | Fujitsu Limited | Image processing method, image processing apparatus and medium storing image processing program |
| JP2020027463A (ja) * | 2018-08-13 | 2020-02-20 | セコム株式会社 | 画像処理装置 |
| US10827133B2 (en) | 2016-03-07 | 2020-11-03 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
| JP2021055266A (ja) * | 2019-09-27 | 2021-04-08 | 株式会社富士通アドバンストエンジニアリング | 石垣配置支援プログラム、石垣配置支援方法、及び、石垣配置支援装置 |
-
2002
- 2002-08-30 JP JP2002253833A patent/JP2004094518A/ja not_active Withdrawn
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005326966A (ja) * | 2004-05-12 | 2005-11-24 | Mitsubishi Electric Corp | 人数カウント装置 |
| JP2007142527A (ja) * | 2005-11-15 | 2007-06-07 | Hitachi Ltd | 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置 |
| US8116534B2 (en) | 2006-05-29 | 2012-02-14 | Kabushiki Kaisha Toshiba | Face recognition apparatus and face recognition method |
| JP2009005089A (ja) * | 2007-06-21 | 2009-01-08 | Toshiba Corp | 画像識別表示装置及び画像識別表示方法 |
| JP2009117956A (ja) * | 2007-11-02 | 2009-05-28 | Hitachi Kokusai Electric Inc | 映像処理装置 |
| US10026019B2 (en) | 2014-03-11 | 2018-07-17 | Mitsubishi Electric Corporation | Person detecting device and person detecting method |
| JP2016139172A (ja) * | 2015-01-26 | 2016-08-04 | 三菱電機株式会社 | 空港監視装置 |
| US10827133B2 (en) | 2016-03-07 | 2020-11-03 | Ricoh Company, Ltd. | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
| JP2017184025A (ja) * | 2016-03-30 | 2017-10-05 | 株式会社リコー | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム |
| US10297040B2 (en) | 2016-08-10 | 2019-05-21 | Fujitsu Limited | Image processing method, image processing apparatus and medium storing image processing program |
| JP2018093423A (ja) * | 2016-12-06 | 2018-06-14 | 富士通株式会社 | 画像処理プログラム、画像処理装置および画像処理方法 |
| JP2020027463A (ja) * | 2018-08-13 | 2020-02-20 | セコム株式会社 | 画像処理装置 |
| JP7101080B2 (ja) | 2018-08-13 | 2022-07-14 | セコム株式会社 | 画像処理装置 |
| JP2021055266A (ja) * | 2019-09-27 | 2021-04-08 | 株式会社富士通アドバンストエンジニアリング | 石垣配置支援プログラム、石垣配置支援方法、及び、石垣配置支援装置 |
| JP7268560B2 (ja) | 2019-09-27 | 2023-05-08 | 富士通株式会社 | 石垣配置支援プログラム、石垣配置支援方法、及び、石垣配置支援装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Kang et al. | Real-time video tracking using PTZ cameras | |
| US9317762B2 (en) | Face recognition using depth based tracking | |
| CN111881853B (zh) | 一种超大桥隧中异常行为识别方法和装置 | |
| US9633275B2 (en) | Pixel-level based micro-feature extraction | |
| Walia et al. | Recent advances on multicue object tracking: a survey | |
| Nam et al. | Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata | |
| JP2008192131A (ja) | 特徴レベル・セグメンテーションを実行するシステムおよび方法 | |
| JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
| JP2004094518A (ja) | 人物追跡装置、人物追跡方法及びプログラム | |
| CN113920585B (zh) | 行为识别方法及装置、设备和存储介质 | |
| JP4969291B2 (ja) | 移動物体追跡装置 | |
| CN115984318B (zh) | 一种基于特征最大关联概率的跨摄像头行人跟踪方法 | |
| Haggui et al. | Human detection in moving fisheye camera using an improved YOLOv3 framework | |
| CN114120165A (zh) | 枪球联动的目标跟踪方法、装置、电子装置和存储介质 | |
| WO2020095644A1 (ja) | 変状検出装置、変状検出方法、及びコンピュータ読み取り可能な記録媒体 | |
| CN107862713A (zh) | 针对轮询会场的摄像机偏转实时检测预警方法及模块 | |
| CN114511930B (zh) | 行为检测方法、装置、电子设备及计算机可读存储介质 | |
| Bhavani et al. | Human crime activity recognition and shooting weapon detection in video frames using the contour approximation algorithm, and FastDTW classifier | |
| JP4728795B2 (ja) | 人物オブジェクト判定装置及び人物オブジェクト判定プログラム | |
| JP3230509B2 (ja) | 動画像処理装置 | |
| Tang | Development of a multiple-camera tracking system for accurate traffic performance measurements at intersections | |
| JP6831396B2 (ja) | 映像監視装置 | |
| JP3502468B2 (ja) | 分散型監視装置 | |
| JPH11328365A (ja) | 画像監視装置及びその方法 | |
| JP2004258931A (ja) | 画像処理方法、画像処理装置、画像処理プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051101 |