JP4607394B2 - Person detection system and person detection program - Google Patents
Person detection system and person detection program Download PDFInfo
- Publication number
- JP4607394B2 JP4607394B2 JP2001297027A JP2001297027A JP4607394B2 JP 4607394 B2 JP4607394 B2 JP 4607394B2 JP 2001297027 A JP2001297027 A JP 2001297027A JP 2001297027 A JP2001297027 A JP 2001297027A JP 4607394 B2 JP4607394 B2 JP 4607394B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- shape image
- image
- time
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、カメラにより撮影された画像から人物の移動方向を検出する人物検出システム、及び人物検出プログラムに関する。
【0002】
【従来の技術】
従来、建物に出入りする人物を検出して、その人数等の計測を行うことは、マーケティング調査やビルの管理業務、集客施設での動向の解析などを行うために非常に重要ではあるものの、人手により実行されているのが現状である。
そこで、人手を介さず人物を計数するために、カメラにより撮影された画像から人物を検出して計数するものが幾つか提案されている。
これらの技術では、画像処理の基本情報検出段階で、時間または背景差分結果を利用することで人物の移動を検出したり、視差情報から求まる人物までの距離の変動を測定して人物の移動を検出する。
【0003】
【発明が解決しようとする課題】
しかし、上述の技術では、限定条件下では人物の検出を行うことができるものの、通行者によって混み合う交通状況下や通行者が交錯する交通状況下では、複数の人物が重なって移動していても、一人の人物が移動していると判断してしまうなど、人物の検出精度が上がらず正確な計数を行うことができないという問題があった。
【0004】
本発明は、上記問題点に鑑みてなされたもので、画像処理段階における情報検出の差別化を図ることで高精度に人物を検出し、その移動方向を推定できる人物検出システム、及び人物検出プログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】
上記問題点を解決するために、本発明は、人物検出システムであって、撮影する範囲の一部を連続させつつ異なる範囲をそれぞれ撮影する複数の撮像手段(例えば実施の形態のカメラ2a、2b、2c、2d)により撮影された時系列連続動画像中を、物体が移動することによって発生する前記時系列連続動画像の画素の輝度値の変化から、オプティカルフロー推定演算を用いて該画素の速度ベクトルを各時系列連続動画像毎に求めるベクトル計算手段(例えば実施の形態のベクトル計算部13)と、前記速度ベクトルを持つ画素の数を、該速度ベクトルが示す所定の方向毎に計数することにより、前記速度ベクトルによって前記各時系列連続動画像中の計測空間範囲に形成される前記各時系列連続動画像毎の速度場の分布状況を求める分布状況判別手段(例えば実施の形態の分布状況判別部14)と、前記速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲から当該速度ベクトルに基づいて識別される画素領域である人物形状画像であって前記時系列連続動画像中を移動する人物形状画像とその移動方向を検出する移動人物検出手段(例えば実施の形態の移動人物検出部15)と、前記人物形状画像の検出時刻と空間座標を比較して、前記各時系列連続動画像間において重複して検出した人物形状画像を排除する重複人物排除手段(例えば実施の形態の重複人物排除部19)とを備えることを特徴とする。以上の構成により、複数の撮像手段により撮影された各時系列連続動画像毎に、人物と推定できる画像範囲を人物形状画像として識別する。そして、各時系列連続動画像毎に識別された人物形状画像の検出時刻と空間座標を比較して、同じ検出時刻と空間座標を持つ人物形状画像を重複している人物形状画像と判断し、1つを残して他は排除する。これにより、複数の撮像手段によるパノラマ画像が生成される。
【0006】
本発明は、上述の人物検出システムにおいて、前記分布状況判別手段は、前記速度ベクトルを持つ画素の数を、該速度ベクトルのX方向及びY方向へそれぞれ計数することによってX方向のヒストグラムとY方向のヒストグラムを得て、前記移動人物検出手段は、前記X方向のヒストグラムと前記Y方向のヒストグラムのそれぞれの幅に基づいて定められる閉領域の画素領域を人物形状画像として得ることを特徴とする。
【0007】
本発明は、上述の人物検出システムにおいて、前記計測空間範囲における前記人物形状画像の空間占有率を求め、該空間占有率から該人物形状画像に含まれる人数を推定する人物分離手段(例えば実施の形態の人物分離部16)を備えることを特徴とする。以上の構成により、検出された人物形状画像が、実際には複数の人物が重なっているものを検出した結果である場合、計測空間範囲における人物形状画像の占有する空間面積は人物が1人の場合より大きくなるので、速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲の大きさの違いによって、検出された人物形状画像の空間占有率を判別する。そして、該空間占有率と予め見積もっている1人あたりの空間占有率との比較から、該人物形状画像に含まれる人数を推定する。
【0008】
本発明は、上述の人物検出システムにおいて、前記人物分離手段は、前記計測空間範囲における前記人物形状画像の空間占有率から前記人物形状画像に含まれる人数を推定する場合に、前記人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を学習して更新する学習更新手段を含むことを特徴とする。以上の構成により、撮像手段の撮影する画像の画角や撮影される人物の見え方が変化したとしても、いつでも人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を正確に保持していることができる。
【0009】
本発明は、上述の人物検出システムにおいて、前記計測空間範囲内に設定された所定の計測断面を通過する前記人物形状画像の数を計数して人数を求める人数計数手段(例えば実施の形態の人数計数部17)を備えることを特徴とする。以上の構成により、計測空間範囲内に所定の計測断面を設定し、この計測断面を通過する人物形状画像の数を計数することで、所定の場所を通過した人物の数を求める。
【0010】
本発明は、上述の人物検出システムにおいて、前記人数を通信網を介して該人数を表示可能な遠隔の操作表示手段(例えば実施の形態の操作表示端末3)と送受信する通信手段(例えば実施の形態の通信装置50)を備えることを特徴とする。以上の構成により、通信網に接続された操作表示手段に対して計数した人数を出力する。
【0011】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の移動方向を分類する移動方向分類手段(例えば実施の形態の移動方向分類部20)と、前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に警報を発する警報手段(例えば実施の形態の警報発生部22)とを備えることを特徴とする。以上の構成により、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、警報を発する。
【0012】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の前記計測断面の通過時刻を測定する通過時刻測定手段(例えば実施の形態の通過時刻測定部21)を備え、前記警報手段は、所定の時刻に所定の移動方向へ進む人物形状画像を発見した場合に警報を発することを特徴とする。以上の構成により、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、その時間帯によって人物の進む方向が正しいか否かを判断し、正しくない場合に警報を発する。
【0013】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の移動方向を分類する移動方向分類手段(例えば実施の形態の移動方向分類部20)と、前記人物形状画像の前記計測断面の通過時刻を測定する通過時刻測定手段(例えば実施の形態の通過時刻測定部21)と、前記人数と前記通過時刻、及び前記移動方向から該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める人物分布推定手段(例えば実施の形態の人物分布推定部23)とを備えることを特徴とする。以上の構成により、識別された人物形状画像がどの方向へ、いつ、何人移動したかを分類し、人物形状画像の挙動を推定して所定の場所または方向に対する人数分布を求める。
【0014】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の移動方向を分類する移動方向分類手段(例えば実施の形態の移動方向分類部20)と、前記人物形状画像の前記計測断面の通過時刻を測定する通過時刻測定手段(例えば実施の形態の通過時刻測定部21)と、前記人数と前記通過時刻、及び前記移動方向から該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める人物分布推定手段(例えば実施の形態の人物分布推定部23)と、前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に警報を発する警報手段(例えば実施の形態の警報発生部22)と、前記人物分布推定手段と前記警報手段とを切り替えて作動させる切り替え手段とを備えることを特徴とする。以上の構成により、識別された人物形状画像がどの方向へ、いつ、何人移動したかを分類し、人物形状画像の挙動を推定して所定の場所または方向に対する人数分布を求める機能と、進入禁止場所への侵入者を発見した場合に、これを検出して知らせる機能とを切り替えて利用する。
【0015】
本発明は、上述の人物検出システムにおいて、前記警報手段は、警報を発するとともに、警報の対象となった人物形状画像の人数または/及び画像を出力することを特徴とする。以上の構成により、警報を発するとともに、所定の移動方向へ進む人物形状画像の人数または/及び画像を出力する。
【0016】
本発明は、上述の人物検出システムにおいて、前記人数、前記移動方向、前記通過時刻、前記人数分布のいずれか1つ以上の情報に基づいて、所定の情報を報知する情報報知手段(例えば実施の形態の情報報知部24)を備えることを特徴とする。以上の構成により、求められた人数、移動方向、通過時刻、人数分布のいずれか1つ以上の情報に基づいて、周囲に対する警告や誘導、指示等の所定の情報を報知する。
【0017】
本発明は、上述の人物検出システムにおいて、前記人数分布に基づいて、交通制御用信号を制御する交通制御手段を備えることを特徴とする。以上の構成により、求められた人数分布に基づいて、交通制御用信号を制御する。
【0018】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の移動方向を分類する移動方向分類手段と、所定の動作が実行され、かつ前記移動方向分類手段において判定された人物形状画像の移動方向が所定の方向であった場合に、その人物の入退場を許可する入退場制御手段(例えば実施の形態の入退場制御部)とを備えることを特徴とする。以上の構成により、例えば非接触IDカードによるID番号の照合などの所定の動作と人物の移動方向によって、その人物の入退場の可否を判断する。
【0019】
本発明は、上述の人物検出システムにおいて、前記人物形状画像の移動方向を分類する移動方向分類手段(例えば実施の形態の移動方向分類部20)と、前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に所定の情報を報知する情報報知手段(例えば実施の形態の情報報知部24)とを備えることを特徴とする。以上の構成により、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、周囲に対する警告や誘導、指示等の所定の情報を報知する。
【0021】
本発明は、異なる範囲を撮影する複数の撮像手段により撮影された時系列連続動画像中を、物体が移動することによって発生する前記時系列連続動画像の画素の輝度値の変化から、オプティカルフロー推定演算を用いて該画素の速度ベクトルを各時系列連続動画像毎に求めるベクトル計算処理と、前記速度ベクトルを持つ画素の数を、該速度ベクトルが示す所定の方向毎に計数することにより、前記速度ベクトルによって前記各時系列連続動画像中の計測空間範囲に形成される前記各時系列連続動画像毎の速度場の分布状況を求める分布状況判別処理と、前記速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲から当該速度ベクトルに基づいて識別される画素領域である人物形状画像であって前記時系列連続動画像中を移動する人物形状画像とその移動方向を検出する移動人物検出処理と、前記人物形状画像の検出時刻と空間座標を比較して、前記各時系列連続動画像間において重複して検出した人物形状画像を排除する重複人物排除処理とをコンピュータに実行させるための人物検出プログラムである。
【0022】
本発明は、上述の人物検出プログラムにおいて、前記計測空間範囲における前記人物形状画像の空間占有率を求め、該空間占有率から該人物形状画像に含まれる人数を推定する人物分離処理をコンピュータに実行させることを特徴とする。
【0023】
本発明は、上述の人物検出プログラムにおいて、前記人物分離処理は、前記計測空間範囲における前記人物形状画像の空間占有率から前記人物形状画像に含まれる人数を推定する場合に、前記人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を学習して更新する学習更新処理をコンピュータに実行させることを特徴とする。
【0024】
本発明は、上述の人物検出プログラムにおいて、前記計測空間範囲内に設定された所定の計測断面を通過する前記人物形状画像の数を計数して人数を求める人数計数処理をコンピュータに実行させることを特徴とする。
【0025】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態による人物検出システムの構成を示す概要図である。本発明の第1の実施の形態は、1つの撮像手段により撮影された画像から人物を検出して計数する基本の構成例である。
図1において、本実施の形態の人物検出システムは、撮像手段により撮影された画像から人物検出処理を行う処理装置1と、撮像手段として処理装置1へ計測空間範囲の時系列連続動画像を供給するカメラ2と、処理装置1を操作するとともに処理装置1の出力する警報や情報を表示するための操作表示端末3と、処理装置1が出力する警報や情報を表示する表示装置4とから構成されている。
【0026】
ここで、カメラ2は、人物の往来する計測空間を上部から撮影し、平面空間における速度場ベクトルの分布状況を求めるために、天井に取り付け可能なドーム型カメラが用いられる。また、カメラ2で撮影された撮影画像の大きさは、例えば横方向が640画素(ライン)、縦方向が480画素(ドット)から構成される8ビット(256階調)のRGB画像である。なお、平面空間における速度場ベクトルの分布状況の求め方については詳細を後述する。
また、操作表示端末3は、処理装置1とのインタフェースと、処理装置1へ操作コマンドや設定データ等を入力できる入力操作部と、処理装置1から出力される警報や情報を音や画像によって表示する表示手段とが備えられた端末であればどのような端末であっても良い。
更に、表示装置4は、処理装置1から出力される警報や情報を、音や画像によって表示するものとする。但し、表示装置4は必ずしも設ける必要はない。
【0027】
次に、処理装置1の構成について、図面を用いて詳細に説明する。図2は、カメラ2により撮影された時系列連続動画像から人物検出処理を行う処理装置1の細部構成を示すブロック図である。
図2において、処理装置1は、カメラ2で撮影された時系列連続動画像の輝度、コントラスト等の画質を調整する画質調整部11と、画像を一時的に記憶する撮影画像記憶部12と、カメラ2により撮影された時系列連続動画像中を物体が移動することによって発生する時系列連続動画像の画素の輝度値の変化から、オプティカルフロー推定演算を用いて該画素の速度ベクトルを求めるベクトル計算部13とを備えている。
【0028】
また、求められた速度ベクトルを持つ画素の数を、該速度ベクトルが示す所定の方向毎に計数することにより、この速度ベクトルによって時系列連続動画像中の計測空間範囲に形成される速度場の分布状況を求める分布状況判別部14と、速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲に基づいて、時系列連続動画像中を移動する人物形状画像とその移動方向を検出する移動人物検出部15と、計測空間範囲における人物形状画像の空間占有率を求め、該空間占有率から該人物形状画像に含まれる人数を推定する人物分離部16と、計測空間範囲内に設定された所定の計測断面を通過する人物形状画像の数を計数して人数を求める人数計数部17と、人数計数部17において計数された人数を操作表示端末3または/及び表示装置4へ表示する表示処理部18とを備えている。
【0029】
以上が、1つの撮像手段により撮影された画像から人物を検出して計数する本発明の第1の実施の形態の人物検出システムの構成であるが、第1の実施の形態の人物検出システムの詳細な動作の説明は、以下に示す本発明の第2の実施の形態の人物検出システムの動作の説明とともに後述する。
【0030】
(第2の実施の形態)
次に、本発明の第2の実施の形態について説明する。
図3は、本発明の第2の実施の形態による人物検出システムの構成を示す概要図である。本発明の第2の実施の形態は、異なる範囲を撮影する複数の撮像手段により撮影された画像によって計測断面を拡張し、広範囲な計測空間範囲(パノラマ画像)から人物を検出して計数する構成例である。
図3において、本実施の形態の人物検出システムは、互いの画角をオーバラップさせながら異なる範囲を撮影する複数(本実施の形態では4台)のカメラ2a、2b、2c、2dと、カメラ2a、2b、2c、2dの撮影した時系列連続動画像を1つの画像に合成する非同期映像合成装置5と、非同期映像合成装置5が出力する画像から人物検出処理を行う処理装置6と、第1の実施の形態と同様の操作表示端末3及び表示装置4とから構成されている。
なお、非同期映像合成装置5は、例えば4台のカメラ2a、2b、2c、2dの撮影した時系列連続動画像を効率的に処理装置6へ伝送するために、図4に示すように、例えば横方向が640画素(ライン)、縦方向が480画素(ドット)から構成される8ビット(256階調)のRGB画像4つを、横方向が640画素(ライン)、縦方向が480画素(ドット)から構成されるRGB画像1つに合成する。
【0031】
次に、処理装置6の構成について、図面を用いて詳細に説明する。図5は、カメラ2a、2b、2c、2dにより撮影された複数の時系列連続動画像から人物検出処理を行う処理装置6の細部構成を示すブロック図である。
図5において、処理装置6は、画質調整部11と、撮影画像記憶部12と、ベクトル計算部13と、分布状況判別部14と、移動人物検出部15と、人物分離部16と、人数計数部17と、表示処理部18と、重複人物排除部19とを備えており、その構成は重複人物排除部19を除いて、他は第1の実施の形態で説明した処理装置1と同一である。動作において異なる部分は、画質調整部11と、撮影画像記憶部12と、ベクトル計算部13と、分布状況判別部14と、移動人物検出部15とが、入力される複数のカメラによる時系列連続動画像の数だけ、同じ処理を各画像毎に繰り返し行うことである。
また、重複人物排除部19は、移動人物検出部15において検出された人物形状画像の検出時刻と空間座標を比較して、各時系列連続動画像間において重複して検出した人物形状画像を排除する。
【0032】
次に、図6に示すフローチャートを用いて、第1及び第2の実施の形態の人物検出システムの処理装置1及び処理装置6の動作を説明する。
すなわち、まず最初に移動する人物を検出するための計測空間範囲の時系列連続動画像が撮影される(ステップS1)。
カメラ2、またはカメラ2a、2b、2c、2dで撮影された撮影画像は、一画素が赤成分、青成分、緑成分の3つの情報を有するRGB画像である。このRGB画像は、次に画質調整部11で色座標変換されて輝度情報だけからなる画像(以下、「Y画像」と称す。)が作成される。Y画像は、赤成分を30パーセント、青成分を11パーセント、緑成分を59パーセントの割合で混合することによって得ることができる。
【0033】
さらに、計測空間範囲において平均輝度とコントラストの幅等を求め、あらかじめ定められた標準画像と比較することによって、常に同一の画質を持つ画像に変換する(ステップS2)。この計測空間範囲は、人物検出システムを運用する前に利用者が操作表示端末3を用いてあらかじめ位置と大きさを設定しておくか、処理装置1または処理装置6に記憶させる処理プログラムにデータとして記憶させておく。
このようにして、測定場所の条件に左右されずに画質を同一にしたY画像を使用することで、人物検出のための処理を同一条件で行うことができる。
【0034】
上述した手順で画質が調整されたY画像は撮影画像記憶部12に一時的に保存される。
次に、保存されたY画像の微小時間Δtの間の輝度値の変化から、ベクトル計算部13において、オプティカルフロー推定演算を用いて画素の速度ベクトルを求める(ステップS3)。すなわち、Y画像の微小時間Δtの間の輝度値の変化は、時系列連続動画中を物体が移動することによって発生するのであって、この画素の輝度値の変化を利用して以下のように各画素毎の速度ベクトルを推定する。
【0035】
オプティカルフロー推定とは、観測者が感じる画面上にある物質の見かけ速度分布を求めるもので、それを決定する基本式は2つの仮定から導出される。1つ目は「対象となる物理点の持つ輝度値が運動に際して一定に保たれる」ということである。時刻tにおける画面上にある点(x,y)の輝度値をP(x,y,t)とし、微小時間Δt後に当該物理点が点(x+Δx,y+Δy)まで移動したときの、その輝度値をP(x+Δx,y+Δy,t+Δt)とする。このとき次式が成り立つ。
【数1】
この式(1)をテイラー展開し、Δtを0に限りなく近づけると次式が得られる。
【数2】
ここで、(u,v)は見かけ速度ベクトルであり、Px,Py,Ptはそれぞれx,y,tに対する偏微分である。
【0036】
もう一つの仮定は、「見かけ速度は滑らかに変化する」ことである。速度の滑らかさは、速度ベクトルのラプラシアンの和で評価され、次式のように表すことができる。
【数3】
しかし、実際の計算においては、(2)式のPx,Py,Ptは有限差分で近似するため誤差が発生する。また、(3)式も離散化する必要があるので、実際の計算においては、速度の滑らかさを次式で表す。
【数4】
ここで、上部にバーを付したu,vは、近傍速度ベクトルの平均値であり、次式で表すことができる。
【数5】
【0037】
さらに、滑らかさの重み係数α2を導入して、(4)式と(5)式を用いて次式のような誤差評価式が得られる。
【数6】
(8)式を用いることによって、誤差Eが最小値を取る条件で速度分布の計算式が得られる。そして、次式を反復して収束させることによって速度分布を求める。
【数7】
但し、kは反復回数とする。
【0038】
ベクトル計算部13では、このような方法で連続する2枚のY画像の計測空間範囲内の全画素についての推定速度ベクトル(u,v)を求める。
【0039】
なお、オプティカルフロー推定は、移動物体の完全剛性体と、移動に伴う輝度不変性で理想解とするが、通常の移動物体はあまり成立しない。また、該人物検出は、歩行者(移動する人物)の実速度の正確さを追求するのではなく、速度場の発生分布から人物の存在を判断する目的のため、厳密に速度ベクトルの信頼性解釈を必要としない。
【0040】
また、前方に歩行する人物の実態で発生する局所速度ベクトルは、頭部、手足、体を見ても複雑な動きとなる。更に、歩行中の手足の反動で生じる進行方向と明らかに異なる(反する)速度ベクトルも存在しており、小領域に偏在した速度ベクトルを削除する方式も可能ではあるが、移動人物全体で発生する局所(画素)速度ベクトルを全て精査すると、明らかに移動方向の速度ベクトル成分が圧倒的に多く存在することがわかる。
そこで、具体的には、オプティカルフロー推定を収束させるための反復計算の回数を30〜40回と少なくし、演算コストの低減を計り、動き成分のローパスフィルタ的効果となる滑らかさの重み係数を80〜150とする。更に、オプティカルフロー推定の速度ベクトルで小さい成分、すなわち低速度成分は削除する。
【0041】
次に、ベクトル計算部13において求められた推定速度ベクトルは、分布状況判別部14に入力され、分布状況判別部14は、推定速度ベクトルを持つ画素の数を、ベクトルのX方向及びY方向の2象限の方向へそれぞれ計数することによりヒストグラム化し、前記速度ベクトルによって時系列連続動画像中の計測空間範囲に形成される速度場の分布状況を求める(ステップS4)。
【0042】
図7は、分布状況判別部14による速度場の分布状況の求め方を示した図であって、図7(a)に示すように、まずベクトル計算部13において計測空間範囲の画素速度演算点の推定速度ベクトルが求められているとする。このとき、分布状況判別部14は、図7(b)に示すように計測空間範囲に設定された計測断面に対して、推定速度ベクトルが右運動と左運動のどちらに属するベクトルかを判別する。例えばここでは、推定速度ベクトルの角度がθ1からθ2の範囲に含まれる場合は右運動、θ3からθ4の範囲に含まれる場合は左運動とする。
このように推定ベクトルを右運動と左運動に分類したら、それぞれ右運動と左運動のベクトル毎に、そのベクトルを持つ画素の数を計数して速度場の分布状況を求める。例えば、図7(a)は右運動の推定速度ベクトルを持つ画素の数を、それぞれX方向及びY方向へ計数して、右運動X軸投射面と右運動Y軸投射面にそれぞれヒストグラムを求めた様子を示す。
【0043】
次に、移動人物検出部15は、分布状況判別部14により求められた速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲に基づいて、人物を示すと思われる画像に対する外接四角形を推定し、時系列連続動画像中を移動する人物形状画像とその移動方向を検出する(ステップS4)。
図8(a)は、分布状況判別部14により求められた速度場の分布状況を示す図であって、移動している人物101、102、103による画素の輝度値変化によって、左運動X軸投射面に幅Wa(画素)のヒストグラム、左運動Y軸投射面に幅Wb(画素)のヒストグラム、右運動X軸投射面に幅Wc(画素)のヒストグラム、右運動Y軸投射面に幅Wd(画素)のヒストグラムが形成されている。
【0044】
従って、図8(b)に示すように、それぞれのヒストグラムの幅を延長した閉領域を求め、これが予め記憶している人物1人あたりの領域の大きさ以上であれば、これを計測空間範囲を移動する人物の外接四角形を示す人物形状画像104、105として検出する。また、人物形状画像104は右運動の速度ベクトルを持つ画素のヒストグラムから求められたので右方向へ移動する人物の画像であって、人物形状画像105は左運動の速度ベクトルを持つ画素のヒストグラムから求められたので左方向へ移動する人物の画像であることがわかる。
【0045】
なお、上述したように、画質調整部11と、撮影画像記憶部12と、ベクトル計算部13と、分布状況判別部14と、移動人物検出部15は、第1の実施形態の人物検出システムの場合は入力される1つのカメラによる時系列連続動画像に対してのみ処理を行えば良いが、第2の実施形態の人物検出システムの場合は入力される複数のカメラによる時系列連続動画像の数だけ、同じ処理を各画像毎に繰り返し行う。
【0046】
移動人物検出部15において人物形状画像が検出されたら、次に第2の実施の形態の人物検出システムのみ、重複人物排除部19が、複数の時系列連続動画像毎に検出した人物形状画像の検出時刻と空間座標を比較して、重複する人物形状画像があるか否かを判定する(ステップS6)。
ステップS6において、重複する人物形状画像がある場合は(ステップS6のYES)、重複する人物形状画像の内の1つを残して他はすべて排除する(ステップS7)。
ステップS6において、重複する人物形状画像がない場合は(ステップS6のNO)、何もせずに次のステップS8へ進む。
また、第1の実施の形態の人物検出システムの場合は、ステップS5において人物形状画像が検出されたら、何もせずに次のステップS8へ進む。
【0047】
ステップS8では、人物分離部16が、計測空間範囲における人物形状画像の空間占有率を求め、空間占有率が1人以上の人物形状画像があるか否かを判定する(ステップS8)。
ステップS8において、空間占有率が1人以上の人物形状画像がある場合(ステップS8のYES)、該空間占有率と予め記憶している人物1人あたりの空間占有率との比較から該人物形状画像に含まれる人数を推定する(ステップS9)。例えば図8(b)に示す例では、人物形状画像104は空間占有率が大きく、人物101、102の2人が含まれていることを推定できる。
ステップS8において、空間占有率が1人以上の人物形状画像がない場合(ステップS8のNO)、何もせずに次のステップS10へ進む。
【0048】
ステップS10では、人数計数部17が、計測空間範囲に設定された計測断面を通過する人物形状画像の数を計数して人数を求める(ステップS10)。
図9は、人数計数部17における計数の方法を説明する図であって、人数計数部17は、人物106や人物107のように計測断面に交わる方向へ移動する人物形状画像が計測断面を通過する際に計数を行い、人物108のように計測断面と交わらない方向(計測断面と平行)に移動する人物形状画像については計数を行わない。
なお、人物分離部16において、含まれる人物の人数が複数と推定されている人物形状画像が計数断面を通過する際は、その推定されている人数分だけ人数の計数を行う。
そして、人数計数部17において計数された人数は、表示処理部18を介して操作表示端末3または/及び表示装置4へ表示される。
【0049】
なお、上述の第1、第2の実施の形態において、人物分離部16が、計測空間範囲における人物形状画像の空間占有率を求め、空間占有率が1人以上の人物形状画像があるか否かを判定する場合に、撮像手段であるカメラ2の設置場所や装着されているレンズの焦点距離によって、予め記憶している人物1人あたりの空間占有率を補正を必要とする場合がある。何故ならば、撮像手段であるカメラ2の設置場所や装着されているレンズの焦点距離によって撮影される画角、すなわち撮影面積が決定する。このことは、移動人物1名あたりの基準画像面積が、カメラ2の設置場所や装着されているレンズの焦点距離によって撮影される画角によって変化することにつながり、従って、混雑状況下において空間占有率から人数を推定するために必要な比較値である人物1人あたりの空間占有率を、設置場所や画角により補正する必要が生じる。
【0050】
そこで、人物分離部16に、計測前に学習校正を行うモードを設け、1名の人物が計測断面を何度か繰り返して通過し、その際に検出された人物形状画像の面積を平均し、その値を人物1人あたりの空間占有率とすると共に、計測中は、1名の人物と判断した人物形状画像の面積を移動平均演算し、随時比較値とする人物1人あたりの空間占有率を学習、更新する学習更新手段を設けても良い。
このようにすることで、前述の撮像手段であるカメラ2の設置場所や装着されているレンズの焦点距離による人物1人あたりの空間占有率の補正の他、屋外における日照角度の推移による移動人物の影の面積変化による空間占有率の変動にも追随できるようになる。
【0051】
(第3の実施の形態)
次に、本発明の第3の実施の形態について説明する。
本発明の第3の実施の形態は、第1、第2の人物検出システムに対して、更に人物の移動する方向毎に人数を計数する場合の構成例である。本発明の第3の実施の形態による人物検出システムの構成を示す概要図は、第1の実施の形態の概要図と第2の実施の形態の概要図のどちらでも良く、処理装置1または処理装置6が、以下に示す処理装置7に変更されれば良い。従って、概要図の説明はここでは省略する。
【0052】
次に、処理装置7の構成について、図面を用いて詳細に説明する。図10は、人物の移動する方向毎に人数を計数する処理装置7の細部構成を示すブロック図であって、ここでは第2の実施の形態のように複数のカメラにより撮影された時系列連続動画像から人数を計数する場合を一例として示す。
図10において、処理装置7は、画質調整部11と、撮影画像記憶部12と、ベクトル計算部13と、分布状況判別部14と、移動人物検出部15と、人物分離部16と、人数計数部17と、重複人物排除部19と、移動方向分類部20と、通過時刻測定部21と、警報発生部22とを備えている。その構成は、人数計数部17において人数の計数が行われた人物形状画像の移動方向を、所定の角度毎に分類する移動方向分類部20と、人物形状画像が計測空間範囲に設けられた計測断面を通過する際の通過時刻を測定する通過時刻測定部21と、移動方向分類部20において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に、操作表示端末3または/及び表示装置4へ警報を発する警報発生部22とを除いて、他は第2の実施の形態で説明した処理装置6と同一である。
【0053】
次に、図11に示すフローチャートを用いて、第3の実施の形態の人物検出システムの処理装置7の動作を説明する。
処理装置7の動作の中でステップS1からステップS10までは、上述の第2の実施の形態の処理装置6と同一であるので、ここでは説明を省略する。
処理装置7では、ステップS10において、人数計数部17が、計測空間範囲に設定された計測断面を通過する人物形状画像の数を計数して人数を求めたら、通過時刻測定部21が、計測空間範囲に設定された計測断面を人物形状画像が通過する時刻を測定する(ステップS11)。
一方、移動方向分類部20は、人数計数部17が計数した人物形状画像の移動方向を、予め処理装置7に設定された所定の角度毎に分類する(ステップS12)。
【0054】
移動方向分類部20において人物形状画像の移動方向の分類ができたら、警報発生部22は、分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像があるか否か、現在の時刻はその方向の移動を許可しているか否か等を判定し、警報を発する必要があるか否かを決定する(ステップS13)。
ステップS13において、警報を発する必要がある場合(ステップS13のYES)、警報発生部22は、警報を発するとともに、警報の対象となった人物形状画像の人数または/及び画像を操作表示端末3または/及び表示装置4へ出力する(ステップS14)。
【0055】
第3の実施の形態の人物検出システムは、以上の構成において、例えば移動方向分類部20における人物形状画像の移動方向の分類角度を、計数断面に対して0度から180度(例えば出入り口における入場を想定)と180度から360度(例えば出入り口における退場を想定)に設定し、どちらかの角度へ移動する人物形状画像を発見したときに警報を発するようにした場合、一方通行のみの出入り口や通路における人物の流れを監視して、流れに逆らう人物を発見することができるようになる。
また、大規模店舗や工場などの退出時間帯の従業員通路において、退出する従業員の流れは感知せずに、施設内に侵入しようとする人物のみを検知して警報を発するようにすることもできる。
【0056】
なお、警報とともに警報の対象となった人数を報告する必要がなければ、人数計数部17は具備しなくても良い。
また、人物検出対象の出入り口や通路において、時間によって通行の可否や通行を許可する方向を変更することがなければ、通過時刻測定部21は具備しなくても良い。
更に、人数の計数結果に基づいて周囲に所定の情報を報知する情報報知手段を設けても良い。この場合、例えば人物検出対象の出入り口や通路毎に本実施の形態の人物検出システムを設置し、出入り口や通路毎の人数計測を行い、空いている出入り口や通路へ人を誘導することができるようになる。なお、空いている出入り口や通路への誘導は、出入り口や通路毎に設置される人物検出システムに予め出入り口や通路で一度に許容できる人数を設定し、計数された人数がそれ以下の場合には、この出入り口や通路は空いているという情報を周囲に報知しても良いし、すべての出入り口や通路に設置された人物計数システムの情報を集中管理して空いている出入り口や通路の情報を周囲へ報知しても良い。このような人物検出システムを利用すると、避難誘導等において非常口に対する効率的な人の誘導を行うことができる。
【0057】
(第4の実施の形態)
次に、本発明の第4の実施の形態について説明する。
本発明の第4の実施の形態は、第1、第2の人物検出システムに対して、更に人物の移動する方向毎に人数を計数し、その方向や方向の先にある場所の人数分布を推定する場合の構成例である。本発明の第4の実施の形態による人物検出システムの構成を示す概要図は、第1の実施の形態の概要図と第2の実施の形態の概要図のどちらでも良く、処理装置1または処理装置6が、以下に示す処理装置8に変更されれば良い。従って、概要図の説明はここでは省略する。
【0058】
次に、処理装置8の構成について、図面を用いて詳細に説明する。図12は、人物の移動する方向毎に人数を計数し、その方向や方向の先にある場所の人数分布を推定する処理装置8の細部構成を示すブロック図であって、ここでは第2の実施の形態のように複数のカメラにより撮影された時系列連続動画像から人数を計数する場合を一例として示す。
図12において、処理装置8は、画質調整部11と、撮影画像記憶部12と、ベクトル計算部13と、分布状況判別部14と、移動人物検出部15と、人物分離部16と、人数計数部17と、重複人物排除部19と、移動方向分類部20と、通過時刻測定部21と、人物分布推定部23と、情報報知部24とを備えている。その構成は、第3の実施の形態の処理装置7における警報発生部22が、移動方向分類部20によって分類された人物形状画像の移動方向と通過時刻測定部21によって測定された人物形状画像の計測断面の通過時刻、更にはその人数とから該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める人物分布推定部23と、人数、移動方向、通過時刻、人数分布のいずれかの情報に基づいて、所定の情報を操作表示端末3または/及び表示装置4へ報知する情報報知部24とに置き換わっているだけで、他は第3の実施の形態で説明した処理装置7と同一である。
【0059】
次に、図13に示すフローチャートを用いて、第4の実施の形態の人物検出システムの処理装置8の動作を説明する。
処理装置8の動作の中でステップS1からステップS12までは、上述の第2、第3の実施の形態の処理装置6、7と同一であるので、ここでは説明を省略する。
処理装置8では、ステップS12において、移動方向分類部20が、計測空間範囲に設定された計測断面を通過する人物形状画像の移動方向を所定の角度毎に分類したら、人物分布推定部23が、人数と通過時刻、及び移動方向から該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める(ステップS15)。
【0060】
図14は、人物分布推定部23の動作を説明するための、人物検出システムを利用する応用例を示す図である。図14(a)に示すように、例えば店舗の出入り口に本実施の形態の人物検出システムを設置し、移動方向分類部20における人物形状画像の移動方向の分類角度を、計数断面に対して直進方向(直角方向)左手方向、右手方向の3種類に分類したときに、人物分布推定部23は、図14(b)に示すように、各分類された方向毎の人数を集計して人数分布を作成する。これにより、例えば図14(a)に示すように店舗の各売場A、B、C毎の集客状況を把握することができるようになる。また、通過時刻測定部21によって測定された人物形状画像の計測断面の通過時刻を併用することで、時間毎の人数分布を求めることもできる。従って、店舗の売場の集客情報等、比較的長い時間における人物分布の他に、避難誘導における避難状況(非常口に対する人の集中具合など)等、短時間における人物分布を求めることで、例えば非常口に対する避難誘導を効率的に行うことができるようになる。
【0061】
そして、人物分布推定部23により求められた人物分布に従って、情報報知部24は、所定の情報を操作表示端末3または/及び表示装置4を介して報知する(ステップS16)。なお、ここで報知する内容は、例えば店舗の各売場の集客情報であったり、集客情報に基づいて利用客を誘導するアナウンスであったり、避難誘導における警告や誘導、指示等の情報であり、それぞれ人物検出システムの利用方法によって異なる。
【0062】
また、上述の第4の実施の形態の人物検出システムに、例えば横断歩道の歩行者のための交通制御用信号を接続し、処理装置8に人物分布推定部23の推定する道路上の人物分布に基づいて、交通制御用信号を制御する交通制御手段を設けても良い。この場合、交通制御手段は、例えば横断歩道を渡ろうとする、あるいは渡っている歩行者の人物分布に従って、例えば歩行者が多い場合は信号の「青:横断可」の時間を長く、歩行者が少ない場合は信号の「青:横断可」の時間を短くするように制御する。
【0063】
また、上述の第3の実施の形態の警報発生部22と、第4の実施の形態の人物分布推定部23とを両方備え、この2つの機能を例えば時間で切り替えて作動させる切り替え手段を設け、昼は店舗の売場毎の集客情報を収集し、夜は店舗への侵入者に対する侵入センサとして利用するようにしても良い。
【0064】
(第5の実施の形態)
次に、本発明の第5の実施の形態を説明する。本発明の第5の実施の形態は、通行を許可された人物のみが出入りするために、条件が満たされた場合に出入り口の鍵を開錠する入退場制御装置であって、例えば非接触IDカードによるID番号の照合などの所定の動作と人物の移動方向によって、その人物の入退場の可否を判断する入退場制御装置の構成例である。
上述の第4の実施の形態では、図14(a)に示すように、計測空間範囲を(店舗)出入り口の内側に設定する場合を説明したが、第5の実施の形態では、計測空間範囲を出入り口の外側に設定し、図12に示す処理装置8において、人物分布推定部23の代わりに、例えば非接触IDカードによるID番号の照合などの所定の動作と人物の移動方向によって、その人物の入退場の可否を判断する入退場制御部(図示せず)を設ける。
【0065】
第5の実施の形態の人物検出システムは、以上の構成において、例えば移動方向分類部20における人物形状画像の移動方向の分類角度を、図9に示したように、人物106や人物107のように計測断面に交わる方向と、人物108のように計測断面と交わらない方向(計測断面と平行)に移動する方向とに分類して設定する。
この場合、入退場制御部は、計測断面に交わる方向へ進む人物形状画像を検出し、かつ所定の時間内に非接触IDカードによるID番号の照合などの所定の動作が行われた場合は、その人物の入退場を許可し出入り口の鍵を開錠する。また、計測断面に交わらない方向へ進む人物形状画像を検出し、かつ所定の時間内に非接触IDカードによるID番号の照合などの所定の動作が行われた場合は、その人物に出入り口を通行する意志は無いもの(入退場制御装置の前を横切っただけ)として、出入り口の鍵は開錠しない。
なお、情報報知部24は、人物の出入りを監視して、出入りした人数などの情報を操作表示端末3へ報告する。また、報告の必要がなければ、情報報知部24は設けなくても良い。
【0066】
従って、例えば非接触方式のIDカードを所持した人物が出入り口の前を横切っただけでID照合が実行され、入退場制御装置が入退場を許可する(入退場制御装置が出入り口の鍵を開錠してしまう)というような誤動作を防止することができるという効果が得られる。
【0067】
(第6の実施の形態)
次に、本発明の第6の実施の形態を説明する。本発明の第6の実施の形態は、本発明の第3の実施の形態が、第1、第2の人物検出システムに対して、更に人物の移動する方向毎に人数を計数し、この結果を元に警報発生部22から警報を発生させていたのに対し、人物の移動する方向毎に計数された人数を元に、周囲に対する警告や誘導、指示等の所定の情報を報知する場合の構成例である。
上述の第3の実施の形態では、図10に示すように、警報発生部22を備えた処理装置7を説明したが、第6の実施の形態では、処理装置7において、警報発生部22の代わりに、第4の実施の形態で説明した人数、移動方向、通過時刻、のいずれかの情報に基づいて(第6の実施の形態では人数分布は用いない)、所定の情報を操作表示端末3または/及び表示装置4へ報知する情報報知部24を設ける。
【0068】
第6の実施の形態の人物検出システムは、以上の構成において、例えば大規模店舗の入り口において、移動方向分類部20によって人物の進行方向を判断することで、入店する客と退店する客とをそれぞれ検知し、情報報知部24はそれに応じた情報を表示装置4へ出力することで、表示装置4は入店する客には「いらっしゃいませ。」、退店する客には「ありがとうございました。」などのアナウンスを出力することができる。
更に、入店後の客に対しては、客の進行方向をそれぞれ検知して、進行方向に応じた情報を表示装置4へ出力することで、表示装置4は「そちらは被服売場です。」「そちらは玩具売場です。」等々、進行方向の先にある売場アナウンスを出力することもできる。
また、通過時刻測定部21によって通行者の通過時刻を判断して、所定の情報を表示装置4へ出力することで、「おはようございます、いってらっしゃいませ。」「こんばんは。」等、時間の変化に応じたアナウンスを出力することができる。
【0069】
なお、第3の実施の形態と同様に、情報報知とともに報知の対象となった人数を報告する必要がなければ、人数計数部17は具備しなくても良い。また、人物検出対象の出入り口や通路において、時間によって報知する情報の内容を変更することがなければ、通過時刻測定部21は具備しなくても良い。
【0070】
なお、上述の第1から第6までの実施の形態では、処理装置1、6、7、8と操作表示端末3は直接接続されているように説明したが、例えば処理装置1を例にして図15を用いて説明するように、処理装置1、6、7、8に通信装置50を接続して、通信網51を介して計数した人数、警報やその内容、更には報知する情報を操作表示端末3と送受信するようにしても良い。ここで、通信網51は、例えばWAP(Wireless Application Protocol )による無線通信、WWW(World Wide Web)を利用したインターネット、あるいはPSTN(Public Switch Telephone Network)やISDN(Integrated Services Digital Network)等の公衆回線網を介した有線通信により情報の送受信を行う通信網を含むものとする。また、1台の操作表示端末3に対して処理装置を複数台接続し、複数の処理装置を1台の操作表示端末3により制御するようにしても良い。
【0071】
なお、上述の第1から第6の実施の形態における処理装置1、6、7、8の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより人物検出を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0072】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0073】
【発明の効果】
以上の如く、請求項1に記載の発明によれば、撮像手段により撮影された時系列連続動画像の計測空間範囲を物体が移動することによって発生する画素の速度ベクトルを求め、方向及び速度において所定の範囲の速度ベクトルを持つ画素の存在個数を、該速度ベクトルが示す所定の方向毎にヒストグラム化して速度場の分布状況とする。そして、この速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲から、この方向へ移動する人物と推定できる画像範囲を人物形状画像として識別する。
従って、ヒストグラムによって表される画素の範囲から、計測空間範囲内の人物の存在範囲を移動方向別に正確に推定し、人物の識別精度を向上することができるという効果が得られる。
【0074】
請求項2に記載の発明によれば、複数の撮像手段により撮影された各時系列連続動画像毎に、人物と推定できる画像範囲を人物形状画像として識別する。そして、各時系列連続動画像毎に識別された人物形状画像の識別時刻と空間座標を比較して、同じ識別時刻と空間座標を持つ人物形状画像を重複している人物形状画像と判断し、1つを残して他は排除する。
従って、複数の撮像手段を用いることにより、1つの撮像手段では得られなかったシームレスで広範囲な計測空間範囲(パノラマ画像)を得ることができるという効果が得られる。
【0075】
請求項3に記載の発明によれば、速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲の大きさの違いによって、検出された人物形状画像の空間占有率を判別する。そして、該空間占有率と予め見積もっている1人あたりの空間占有率との比較から、該人物形状画像に含まれる人数を推定する。
従って、従来、通行者によって混み合う交通状況下や通行者が交錯する交通状況下において、複数の人物が重なって移動していても、一人の人物が移動していると判断してしまうという問題を回避し、計測空間範囲を移動する人数の推定精度を向上することができるという効果が得られる。
【0076】
請求項4に記載の発明によれば、撮像手段の撮影する画像の画角や撮影される人物の見え方が変化したとしても、いつでも人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を正確に保持していることができる。
従って、撮像手段であるカメラ2の設置場所や装着されているレンズの焦点距離による人物1人あたりの空間占有率の補正の他、屋外における日照角度の推移による移動人物の影の面積変化による空間占有率の変動にも追随できるようになる。
請求項5に記載の発明によれば、計測空間範囲内に所定の計測断面を設定し、この計測断面を通過する人物形状画像の数を計数することで、所定の場所を通過した人物の数を求める。
従って、例えば建物等に出入りする人物を検出して、その人数の計測を正確に行うことができるという効果が得られる。
【0077】
請求項6に記載の発明によれば、通信網に接続された操作表示手段に対して計数した人数を出力する。
従って、例えば遠方の建物等に出入りする人物を検出して、その人数を手元の操作表示手段において正確に把握することができるという効果が得られる。
請求項7に記載の発明によれば、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、警報を発する。
従って、例えば入り口専用や出口専用等、一方通行の通路を逆行して進もうとする人物や進入禁止場所への侵入者等を発見した場合に、これを検出して知らせることができるという効果が得られる。
【0078】
請求項8に記載の発明によれば、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、その時間帯によって人物の進む方向が正しいか否かを判断し、正しくない場合に警報を発する。
従って、例えば時間別に通行方向の指定が変化する一方通行の通路を、指定に逆らって逆行して進もうとする人物等を発見した場合に、これを検出して知らせることができるという効果が得られる。
請求項9に記載の発明によれば、識別された人物形状画像がどの方向へ、いつ、何人移動したかを分類し、人物形状画像の挙動を推定して所定の場所または方向に対する人数分布を求める。
従って、例えば店舗における売り場毎の集客状況を集計したり、避難誘導において避難状況を把握したりすることができるという効果が得られる。
【0079】
請求項10に記載の発明によれば、識別された人物形状画像がどの方向へ、いつ、何人移動したかを分類し、人物形状画像の挙動を推定して所定の場所または方向に対する人数分布を求める機能と、進入禁止場所への侵入者を発見した場合に、これを検出して知らせる機能とを切り替えて利用する。
従って、例えば店舗の営業時間中は売り場の集客状況を集計し、店舗の営業時間外は店舗への侵入者を検出する侵入者センサとして利用することができるという効果が得られる。
請求項11に記載の発明によれば、警報を発するとともに、所定の移動方向へ進む人物形状画像の人数または/及び画像を出力する。
従って、警報とともに、その警報の原因となった状況も同時に知らせることができるという効果が得られる。
【0080】
請求項12に記載の発明によれば、求められた人数、移動方向、通過時刻、人数分布のいずれかの情報に基づいて、周囲に対する警告や誘導、指示等の所定の情報を報知する。
従って、例えば避難誘導などにおいて、出入り口に殺到する人数を正確に把握し、適切な指示を発することができるという効果が得られる。
請求項13に記載の発明によれば、求められた人数分布に基づいて、交通制御用信号を制御する。
従って、例えば交差点を横断する人数を正確に把握し、交通制御信号の横断許可時間や横断許可回数を制御して、円滑な交通制御を行うことができるという効果が得られる。
【0081】
請求項14に記載の発明によれば、例えば非接触IDカードによるID番号の照合などの所定の動作と人物の移動方向によって、その人物の入退場の可否を判断する。
従って、例えば非接触方式のIDカードを利用してID番号を照合することで入退場の可否を判断する入退場制御装置の前を、IDカードを所持した人物が横切っただけでID照合が実行され、入退場制御装置が入退場を許可するような誤動作を防止することができるという効果が得られる。
【0082】
請求項15に記載の発明によれば、識別された人物形状画像がどの方向へ移動しているかを分類し、所定の方向へ進む人物が存在する場合、周囲に対する警告や誘導、指示等の所定の情報を報知する。
従って、例えば通路の人物の移動方向に基づいて、適切な警告や誘導、指示等の所定の情報報知を行い、通路の人物の動作を制御することができるようなるという効果が得られる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態の人物検出システムの構成を示す概要図である。
【図2】 同実施の形態の人物検出システムの処理装置の細部構成を示すブロック図である。
【図3】 本発明の第2の実施の形態の人物検出システムの構成を示す概要図である。
【図4】 同実施の形態の人物検出システムの非同期映像合成装置の出力信号を説明する図である。
【図5】 同実施の形態の人物検出システムの処理装置の細部構成を示すブロック図である。
【図6】 第1及び第2の実施の形態の人物検出システムの処理装置の動作を示すフローチャートである。
【図7】 処理装置1または処理装置6の分布状況判別部の動作を説明するための図である。
【図8】 処理装置1または処理装置6の移動人物検出部の動作を説明するための図である。
【図9】 処理装置1または処理装置6の人数計数部の動作を説明するための図である。
【図10】 本発明の第3の実施の形態の人物検出システムの処理装置の細部構成を示すブロック図である。
【図11】 同実施の形態の人物検出システムの処理装置の動作を示すフローチャートである。
【図12】 本発明の第4の実施の形態の人物検出システムの処理装置の細部構成を示すブロック図である。
【図13】 同実施の形態の人物検出システムの処理装置の動作を示すフローチャートである。
【図14】 同実施の形態の人物検出システムを利用する応用例を示す図である。
【図15】 通信網を介して本発明の人物検出システムの遠隔操作を行う場合の構成を示す概要図である。
【符号の説明】
1 処理装置
2、2a、2b、2c、2d カメラ
3 操作表示端末
4 表示装置
5 非同期映像合成装置
6 処理装置
7 処理装置
8 処理装置
11 画質調整部
12 撮影画像記憶部
13 ベクトル計算部
14 分布状況判別部
15 移動人物検出部
16 人物分離部
17 人数計数部
18 表示処理部
19 重複人物排除部
20 移動方向分類部
21 通過時刻測定部
22 警報発生部
23 人物分布推定部
24 情報報知部
50 通信装置
51 通信網[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a person detection system and a person detection program for detecting a moving direction of a person from an image taken by a camera.
[0002]
[Prior art]
Conventionally, it is very important to detect people entering and exiting a building and measure the number of people, etc., for marketing research, building management, and analysis of trends at customer collection facilities. It is currently being executed by.
Therefore, in order to count a person without human intervention, there are some proposals for detecting and counting a person from an image taken by a camera.
In these technologies, at the basic information detection stage of image processing, the movement of the person is detected by detecting the movement of the person by using the time or background difference result, or by measuring the change in the distance to the person obtained from the parallax information. To detect.
[0003]
[Problems to be solved by the invention]
However, although the above-mentioned technique can detect a person under limited conditions, a plurality of persons move in a crowded traffic situation or a traffic situation where a passerby crosses. However, there is a problem that it is impossible to perform accurate counting because the detection accuracy of the person does not improve, such as determining that one person is moving.
[0004]
The present invention has been made in view of the above problems, and a person detection system and a person detection program that can detect a person with high accuracy by differentiating information detection in an image processing stage and estimate the moving direction thereof. The purpose is to provide.
[0005]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention is a human detection system, in which a plurality of imaging units (for example, the cameras 2a and 2b according to the embodiments) that respectively capture different ranges while continuing a part of the range to be captured. 2c, 2d), from the change of the luminance value of the pixel of the time-series continuous moving image generated by the movement of the object in the time-series continuous moving image, the optical flow estimation operation is used to calculate the pixel of the pixel. Vector calculation means for obtaining a velocity vector for each time-series continuous moving image (for example, the
[0006]
According to the present invention, in the above-described human detection system, the distribution state determination unit counts the number of pixels having the velocity vector in the X direction and the Y direction of the velocity vector, respectively, thereby determining the histogram in the X direction and the Y direction. The moving person detecting means obtains a pixel area of a closed area determined based on the widths of the histogram in the X direction and the histogram in the Y direction as a person shape image.
[0007]
BookThe inventionAboveIn the person detection system, a person separation unit (for example, the
[0008]
BookThe inventionAboveIn the person detection system, the person separating unit compares the space occupancy of the person shape image when estimating the number of persons included in the person shape image from the space occupancy of the person shape image in the measurement space range. And learning update means for learning and updating a necessary space occupancy per person. With the above configuration, even if the angle of view of the image captured by the imaging unit or the appearance of the captured person changes, the space occupancy required for each person to be compared with the space occupancy rate of the human shape image at any time The rate can be held accurately.
[0009]
BookThe inventionAboveThe person detection system includes a person counting means (for example, a
[0010]
BookThe inventionAboveCommunication means (for example, the
[0011]
BookThe inventionAboveIn the human detection system, a movement direction classification unit (for example, a movement
[0012]
BookThe inventionAboveIn the human detection system of the present invention, a passage time measuring unit (for example, a passage
[0013]
BookThe inventionAboveIn the human detection system, the moving direction classifying unit (for example, the moving
[0014]
BookThe inventionAboveIn the human detection system, the moving direction classifying unit (for example, the moving
[0015]
BookThe inventionAboveIn the person detection system, the alarm means outputs an alarm and outputs the number of persons and / or images of the person-shaped image that is the object of the alarm. With the above-described configuration, an alarm is issued and the number of people shape images and / or images of a person shape image traveling in a predetermined movement direction is output.
[0016]
BookThe inventionAboveIn the person detection system, information notifying means for notifying predetermined information based on any one or more of the number of people, the moving direction, the passing time, and the number of people distribution (for example, the information notifying unit of the embodiment) 24). With the above configuration, predetermined information such as a warning, guidance, or instruction to the surroundings is notified based on any one or more of the obtained number of people, moving direction, passage time, and number distribution.
[0017]
BookThe inventionAboveThe person detection system according to
[0018]
BookThe inventionAboveIn the human detection system, the movement direction classification means for classifying the movement direction of the person shape image, a predetermined operation is executed, and the movement direction of the person shape image determined by the movement direction classification means is a predetermined direction. If there is, an entrance / exit control means (for example, an entrance / exit control unit in the embodiment) that permits entry / exit of the person is provided. With the above configuration, for example, whether or not a person can enter and exit is determined based on a predetermined operation such as ID number verification using a non-contact ID card and the movement direction of the person.
[0019]
BookThe inventionAboveIn the human detection system, a movement direction classification unit (for example, a movement
[0021]
BookThe present invention provides optical flow estimation based on a change in luminance value of a pixel of the time-series continuous moving image generated by the movement of an object in a time-series continuous moving image captured by a plurality of imaging units that capture different ranges. A vector calculation process for calculating the velocity vector of the pixel for each time-series continuous moving image using an operation, and counting the number of pixels having the velocity vector for each predetermined direction indicated by the velocity vector, A distribution state determination process for obtaining a distribution state of a velocity field for each time-series continuous moving image formed in a measurement space range in each time-series continuous moving image by a velocity vector, and a direction indicated by the distribution state of the velocity field Range of pixels with different velocity vectorsA person shape image that is a pixel region identified based on the velocity vector,A person shape image that moves in the time series continuous moving image and a moving person detection process that detects the moving direction of the person shape image are compared between the detection time and spatial coordinates of the person shape image, It is a person detection program for causing a computer to execute duplicate person elimination processing for eliminating duplicated person shape images.
[0022]
BookAccording to the invention, in the above-described person detection program, the computer executes a person separation process for obtaining a space occupancy rate of the person shape image in the measurement space range and estimating the number of persons included in the person shape image from the space occupancy rate. It is characterized by that.
[0023]
BookThe present invention is the person detection program described above, wherein the person separation process is performed when the number of persons included in the person shape image is estimated from the space occupation ratio of the person shape image in the measurement space range. A learning update process for learning and updating a necessary space occupancy per person to be compared for occupancy is executed by a computer.
[0024]
BookThe invention is characterized in that, in the above-described person detection program, the computer executes a person counting process for calculating the number of persons by counting the number of the person shape images passing through the predetermined measurement section set in the measurement space range. And
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic diagram showing the configuration of the person detection system according to the first embodiment of the present invention. The first embodiment of the present invention is a basic configuration example in which a person is detected and counted from an image photographed by one imaging means.
In FIG. 1, the human detection system according to the present embodiment supplies a
[0026]
Here, the
In addition, the
Furthermore, the
[0027]
Next, the configuration of the
In FIG. 2, the
[0028]
In addition, by counting the number of pixels having the obtained velocity vector for each predetermined direction indicated by the velocity vector, the velocity field formed in the measurement space range in the time-series continuous moving image by the velocity vector. Based on a distribution
[0029]
The above is the configuration of the person detection system according to the first embodiment of the present invention that detects and counts a person from an image photographed by one imaging unit. The person detection system according to the first embodiment The detailed operation will be described later together with the following description of the operation of the human detection system according to the second embodiment of the present invention.
[0030]
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 3 is a schematic diagram showing a configuration of a person detection system according to the second embodiment of the present invention. The second embodiment of the present invention is configured to expand a measurement cross section with images captured by a plurality of imaging units that capture different ranges, and detect and count a person from a wide measurement space range (panoramic image). It is an example.
In FIG. 3, the human detection system according to the present embodiment includes a plurality of (four in the present embodiment)
As shown in FIG. 4, the asynchronous
[0031]
Next, the configuration of the
In FIG. 5, the
The duplicate
[0032]
Next, operations of the
That is, a time-series continuous moving image in the measurement space range for detecting a person who moves first is photographed (step S1).
The captured image captured by the
[0033]
Further, the average brightness, the width of contrast, etc. are obtained in the measurement space range and compared with a predetermined standard image, so that the image is always converted into an image having the same image quality (step S2). This measurement space range is stored in the processing program stored in the
In this way, by using Y images having the same image quality regardless of the conditions of the measurement location, it is possible to perform processing for person detection under the same conditions.
[0034]
The Y image whose image quality has been adjusted by the above-described procedure is temporarily stored in the captured
Next, the
[0035]
The optical flow estimation is to obtain an apparent velocity distribution of a substance on the screen that is felt by the observer, and a basic formula for determining the distribution is derived from two assumptions. The first is that “the luminance value of the target physical point is kept constant during movement”. The luminance value of the point (x, y) on the screen at time t is P (x, y, t), and the luminance value when the physical point moves to the point (x + Δx, y + Δy) after a minute time Δt. Is P (x + Δx, y + Δy, t + Δt). At this time, the following equation holds.
[Expression 1]
When this equation (1) is Taylor-expanded and Δt is made as close as possible to 0, the following equation is obtained.
[Expression 2]
Here, (u, v) is an apparent velocity vector, and Px, Py, Pt are partial differentials with respect to x, y, t, respectively.
[0036]
Another assumption is that “the apparent speed changes smoothly”. The smoothness of speed is evaluated by the sum of Laplacian of speed vectors, and can be expressed as the following equation.
[Equation 3]
However, in actual calculations, an error occurs because Px, Py, and Pt in the equation (2) are approximated by a finite difference. Further, since it is necessary to discretize the expression (3), the smoothness of the speed is expressed by the following expression in the actual calculation.
[Expression 4]
Here, u and v with a bar at the top are the average values of the neighboring velocity vectors and can be expressed by the following equations.
[Equation 5]
[0037]
In addition, smoothness weight coefficient α2Then, an error evaluation formula such as the following formula is obtained using formulas (4) and (5).
[Formula 6]
By using the equation (8), the equation for calculating the velocity distribution can be obtained under the condition that the error E takes the minimum value. Then, the velocity distribution is obtained by repeating the following equation to converge.
[Expression 7]
However, k is the number of iterations.
[0038]
The
[0039]
The optical flow estimation is an ideal solution because of the completely rigid body of the moving object and the luminance invariance accompanying the movement, but a normal moving object is not so established. In addition, the person detection does not pursue the accuracy of the actual speed of the pedestrian (moving person), but strictly determines the presence of the person from the generation distribution of the speed field, and strictly determines the reliability of the speed vector. Interpretation is not required.
[0040]
Further, the local velocity vector generated in the actual situation of the person walking forward becomes a complicated movement even when looking at the head, limbs, and body. Furthermore, there is also a velocity vector that is clearly different from (averse to) the direction of travel caused by the reaction of limbs during walking, and a method of deleting the velocity vector that is unevenly distributed in a small area is possible, but it occurs in the entire moving person If all the local (pixel) velocity vectors are scrutinized, it can be clearly seen that there are overwhelmingly many velocity vector components in the moving direction.
Therefore, specifically, the number of iterative calculations for converging the optical flow estimation is reduced to 30 to 40 times, the calculation cost is reduced, and a smoothing weighting coefficient that becomes a low-pass filter effect of the motion component is obtained. 80-150. Further, a small component, that is, a low velocity component is deleted from the velocity vector of the optical flow estimation.
[0041]
Next, the estimated velocity vector obtained by the
[0042]
FIG. 7 is a diagram showing how the distribution
When the estimated vectors are classified into right motion and left motion in this way, the number of pixels having the vector is counted for each of the right motion and the left motion, and the distribution state of the velocity field is obtained. For example, FIG. 7 (a) counts the number of pixels having an estimated velocity vector of right motion in the X direction and Y direction, respectively, and obtains histograms for the right motion X axis projection surface and the right motion Y axis projection surface, respectively. Shows how it was done.
[0043]
Next, the moving
FIG. 8A is a diagram showing the distribution state of the velocity field obtained by the distribution
[0044]
Accordingly, as shown in FIG. 8B, a closed region in which the width of each histogram is extended is obtained, and if this is greater than the size of the region per person stored in advance, this is measured in the measurement space range. Are detected as
[0045]
As described above, the image
[0046]
When the human figure image is detected by the moving
If there is an overlapping person shape image in step S6 (YES in step S6), one of the overlapping person shape images is left and all others are excluded (step S7).
In step S6, if there is no overlapping person shape image (NO in step S6), the process proceeds to the next step S8 without doing anything.
In the case of the person detection system according to the first embodiment, if a person shape image is detected in step S5, the process proceeds to the next step S8 without doing anything.
[0047]
In step S8, the
In step S8, when there is a person shape image having a space occupancy rate of one or more (YES in step S8), the person shape is determined by comparing the space occupancy rate with the preliminarily stored space occupancy rate per person. The number of people included in the image is estimated (step S9). For example, in the example shown in FIG. 8B, the person shape image 104 has a large space occupancy rate, and it can be estimated that two
In step S8, if there is no person shape image having a space occupancy of 1 or more (NO in step S8), the process proceeds to the next step S10 without doing anything.
[0048]
In step S10, the
FIG. 9 is a diagram for explaining a counting method in the
In addition, when the person shape image in which the number of persons included is estimated to be plural passes through the counting section, the
The number of people counted by the number of
[0049]
In the first and second embodiments described above, the
[0050]
Therefore, the
In this way, in addition to the correction of the space occupancy rate per person based on the installation location of the
[0051]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The third embodiment of the present invention is a configuration example in the case of counting the number of people for each direction in which a person moves with respect to the first and second person detection systems. The schematic diagram showing the configuration of the person detection system according to the third embodiment of the present invention may be either the schematic diagram of the first embodiment or the schematic diagram of the second embodiment. The
[0052]
Next, the configuration of the processing apparatus 7 will be described in detail with reference to the drawings. FIG. 10 is a block diagram showing a detailed configuration of the processing device 7 that counts the number of persons for each direction in which a person moves. Here, time-series continuous images taken by a plurality of cameras as in the second embodiment are shown. An example of counting the number of people from a moving image is shown as an example.
In FIG. 10, the processing device 7 includes an image
[0053]
Next, the operation of the processing device 7 of the person detection system according to the third embodiment will be described with reference to the flowchart shown in FIG.
Steps S1 to S10 in the operation of the processing device 7 are the same as those of the
In the processing device 7, when the
On the other hand, the movement
[0054]
When the movement
In step S13, when it is necessary to issue an alarm (YES in step S13), the
[0055]
In the human detection system according to the third embodiment, in the above configuration, for example, the classification angle in the movement direction of the human shape image in the movement
Also, in employee passages during leaving hours such as large-scale stores and factories, it is not possible to detect the flow of leaving employees, but to detect only those who are about to enter the facility and issue an alarm. You can also.
[0056]
In addition, if it is not necessary to report the number of persons who are the target of the alarm together with the alarm, the
In addition, the passage
Furthermore, information notifying means for notifying the surroundings of predetermined information based on the counting result of the number of people may be provided. In this case, for example, the person detection system of the present embodiment is installed for each entrance / exit of the person detection target, and the number of people for each entrance / exit / passage is measured, so that a person can be guided to an open entrance / exit. become. For guidance to vacant doorways and passages, set the number of people allowed at the doorway and passage in advance in the person detection system installed in each doorway and passage, and if the number of people counted is less than that , You may inform the surroundings that this doorway / passage is vacant, or centrally manage the information of the person counting system installed in all the doorways / passageways and vacant doorway / passage information May be notified. By using such a person detection system, it is possible to efficiently guide a person to an emergency exit in evacuation guidance or the like.
[0057]
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment of the present invention, the number of people is counted for each direction in which the person moves in the first and second person detection systems, and the distribution of the number of people ahead of the direction and direction is calculated. It is an example of a structure in the case of estimating. The schematic diagram showing the configuration of the person detection system according to the fourth embodiment of the present invention may be either the schematic diagram of the first embodiment or the schematic diagram of the second embodiment. The
[0058]
Next, the configuration of the
In FIG. 12, the
[0059]
Next, the operation of the
Steps S1 to S12 in the operation of the
In the
[0060]
FIG. 14 is a diagram illustrating an application example using the person detection system for explaining the operation of the person
[0061]
And according to the person distribution calculated | required by the person
[0062]
Further, for example, a traffic control signal for a pedestrian crossing pedestrian is connected to the person detection system of the fourth embodiment described above, and the person distribution on the road estimated by the person
[0063]
Further, the
[0064]
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described. The fifth embodiment of the present invention is an entrance / exit control device that unlocks an entrance / exit key when a condition is satisfied so that only a person permitted to pass can enter and exit. It is a configuration example of an entrance / exit control device that determines whether or not a person can enter and exit based on a predetermined operation such as verification of an ID number using a card and the movement direction of the person.
In the above-described fourth embodiment, as shown in FIG. 14A, the case where the measurement space range is set inside the (store) entrance / exit is described. However, in the fifth embodiment, the measurement space range is set. 12 in the
[0065]
In the person detection system according to the fifth embodiment, in the above configuration, for example, the movement direction classification angle of the human shape image in the movement
In this case, the entrance / exit control unit detects a person shape image that proceeds in a direction crossing the measurement section, and when a predetermined operation such as ID number collation by a non-contact ID card is performed within a predetermined time, Allow the person to enter and exit, and unlock the doorway. In addition, when a person-shaped image that goes in a direction that does not cross the measurement section is detected and a predetermined operation such as ID number collation using a non-contact ID card is performed within a predetermined time, the person passes through the doorway The doorway key is not unlocked as if there is no intention to do so (just across the entrance / exit control device).
Note that the
[0066]
Therefore, for example, ID verification is performed only when a person who has a contactless ID card crosses the entrance and exit, and the entrance / exit control device permits entry / exit (the entrance / exit control device unlocks the entrance / exit key. The effect that it is possible to prevent such a malfunction as described above is obtained.
[0067]
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described. In the sixth embodiment of the present invention, the third embodiment of the present invention further counts the number of persons in each direction in which the person moves with respect to the first and second person detection systems. In the case where the alarm is generated from the
In the above-described third embodiment, as shown in FIG. 10, the processing device 7 including the
[0068]
In the person detection system according to the sixth embodiment, in the above configuration, for example, at the entrance of a large-scale store, the direction of movement of the person is determined by the movement
Furthermore, for customers after entering the store, the direction of each customer is detected, and information corresponding to the direction of travel is output to the
Further, the passage
[0069]
Similar to the third embodiment, if it is not necessary to report the number of people who have been notified along with the information notification, the
[0070]
In the first to sixth embodiments described above, the
[0071]
The program for realizing the functions of the
[0072]
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
[0073]
【The invention's effect】
As described above, according to the first aspect of the present invention, the velocity vector of the pixel generated when the object moves in the measurement space range of the time-series continuous moving image captured by the imaging unit is obtained, and the direction and the velocity are determined. The number of pixels having a velocity vector in a predetermined range is plotted in a histogram for each predetermined direction indicated by the velocity vector to obtain a velocity field distribution state. Then, an image range that can be estimated as a person moving in this direction is identified as a person shape image from the range of pixels having velocity vectors for each direction indicated by the distribution state of the velocity field.
Therefore, it is possible to accurately estimate the existence range of the person in the measurement space range for each moving direction from the pixel range represented by the histogram, thereby improving the person identification accuracy.
[0074]
According to the second aspect of the present invention, an image range that can be estimated as a person is identified as a person shape image for each time-series continuous moving image captured by a plurality of imaging means. Then, comparing the identification time and spatial coordinates of the human shape image identified for each time-series continuous moving image, it is determined that the human shape images having the same identification time and spatial coordinates are overlapping human shape images, Leave one and exclude the others.
Therefore, by using a plurality of imaging means, an effect is obtained that a seamless and wide measurement space range (panoramic image) that cannot be obtained by one imaging means can be obtained.
[0075]
According to the third aspect of the present invention, the space occupancy rate of the detected human shape image is determined based on the difference in the size of the pixel range having the velocity vector for each direction indicated by the distribution state of the velocity field. Then, the number of persons included in the person shape image is estimated from a comparison between the space occupancy and the space occupancy per person estimated in advance.
Therefore, conventionally, in a traffic situation that is crowded with passers-by or a traffic situation in which passers-by are crossed, even if multiple people move overlapping, it is determined that one person is moving Thus, it is possible to improve the estimation accuracy of the number of persons who move in the measurement space range.
[0076]
According to the fourth aspect of the present invention, even if the angle of view of the image captured by the imaging means or the appearance of the captured person changes, one person who is the target of comparison of the space occupancy rate of the person shape image at any time It is possible to accurately maintain the space occupancy necessary for the area.
Therefore, in addition to the correction of the space occupancy rate per person based on the installation location of the
According to the invention described in
Therefore, for example, it is possible to detect a person entering / exiting a building or the like and accurately measure the number of persons.
[0077]
According to the sixth aspect of the invention, the counted number of persons is output to the operation display means connected to the communication network.
Therefore, for example, it is possible to detect a person who goes in and out of a distant building or the like and accurately grasp the number of persons on the operation display means at hand.
According to the seventh aspect of the present invention, the direction in which the identified person shape image is moving is classified, and if there is a person who proceeds in a predetermined direction, an alarm is issued.
Therefore, for example, when a person who tries to move backward in a one-way passage or an intruder to a place where entry is prohibited is detected, for example, only for an entrance or only for an exit, this can be detected and notified. can get.
[0078]
According to the eighth aspect of the present invention, the direction in which the identified person shape image is moving is classified, and when there is a person who moves in a predetermined direction, the person's moving direction is correct according to the time zone. If it is not correct, an alarm is issued.
Therefore, for example, when a person or the like who tries to move backward in the one-way passage where the designation of the direction of travel changes according to time is found against the designation, it can be detected and notified. It is done.
According to the ninth aspect of the present invention, the identified person shape image is classified in which direction, when and how many people have moved, the behavior of the person shape image is estimated, and the number distribution for a predetermined place or direction is obtained. Ask.
Therefore, for example, it is possible to obtain an effect that it is possible to totalize the situation of attracting customers for each sales floor in the store or to grasp the evacuation situation in the evacuation guidance.
[0079]
According to the tenth aspect of the present invention, it is classified into which direction, when and how many people the identified person shape image has moved, the behavior of the person shape image is estimated, and the number distribution for a predetermined place or direction is obtained. A function to be requested and a function to detect and notify when an intruder has been detected in a place where entry is prohibited are switched and used.
Therefore, for example, it is possible to obtain an effect that the sales situation of the sales floor can be totaled during the business hours of the store and used as an intruder sensor for detecting an intruder into the store outside the business hours of the store.
According to the eleventh aspect of the present invention, an alarm is issued and the number of people-shaped images and / or images of the person-shaped images that advance in the predetermined movement direction are output.
Therefore, it is possible to obtain an effect that, together with the alarm, the situation causing the alarm can be notified at the same time.
[0080]
According to the twelfth aspect of the present invention, predetermined information such as a warning, guidance, or instruction to the surroundings is notified based on any information of the obtained number of persons, moving direction, passage time, and number distribution.
Accordingly, for example, in evacuation guidance, the number of people rushing to the doorway can be accurately grasped and an appropriate instruction can be issued.
According to the invention described in
Therefore, for example, it is possible to accurately grasp the number of people crossing the intersection and control the traffic permission signal crossing permission time and the number of times of crossing permission to perform smooth traffic control.
[0081]
According to the fourteenth aspect of the present invention, whether or not a person can enter and leave is determined based on a predetermined operation such as ID number collation using a non-contact ID card and the movement direction of the person.
Therefore, for example, ID verification is performed just by the person holding the ID card crossing in front of the entrance / exit control device that determines whether entry / exit is possible by checking the ID number using a non-contact type ID card. Thus, it is possible to prevent the malfunction that the entrance / exit control device permits entry / exit.
[0082]
According to the invention described in
Therefore, for example, based on the moving direction of the person in the passage, predetermined information notification such as an appropriate warning, guidance, or instruction can be performed, and the operation of the person in the passage can be controlled.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a configuration of a person detection system according to a first embodiment of this invention.
FIG. 2 is a block diagram showing a detailed configuration of a processing device of the person detection system according to the embodiment;
FIG. 3 is a schematic diagram showing a configuration of a person detection system according to a second embodiment of the present invention.
FIG. 4 is a diagram for explaining an output signal of the asynchronous video composition device of the person detection system according to the embodiment;
FIG. 5 is a block diagram showing a detailed configuration of a processing device of the person detection system according to the embodiment;
FIG. 6 is a flowchart showing the operation of the processing device of the person detection system according to the first and second embodiments.
FIG. 7 is a diagram for explaining an operation of a distribution status determination unit of the
FIG. 8 is a diagram for explaining an operation of a moving person detection unit of the
FIG. 9 is a diagram for explaining the operation of the number counting unit of the
FIG. 10 is a block diagram illustrating a detailed configuration of a processing device of a person detection system according to a third embodiment of this invention.
FIG. 11 is a flowchart showing the operation of the processing device of the person detection system according to the embodiment;
FIG. 12 is a block diagram illustrating a detailed configuration of a processing device of a person detection system according to a fourth embodiment of this invention.
FIG. 13 is a flowchart showing the operation of the processing device of the person detection system according to the embodiment;
FIG. 14 is a diagram showing an application example using the person detection system of the embodiment.
FIG. 15 is a schematic diagram showing a configuration for performing a remote operation of the human detection system of the present invention via a communication network.
[Explanation of symbols]
1 Processing device
2, 2a, 2b, 2c, 2d camera
3 Operation display terminal
4 display devices
5 Asynchronous video composition device
6 processing equipment
7 Processing equipment
8 processing equipment
11 Image quality adjustment section
12 Captured image storage
13 Vector calculator
14 Distribution status discriminator
15 Moving person detection unit
16 Person separation part
17 Number counting section
18 Display processing section
19 Duplicate person exclusion section
20 Movement direction classification part
21 Passing time measurement unit
22 Alarm generator
23 Person Distribution Estimator
24 Information reporting unit
50 Communication device
51 communication network
Claims (19)
前記速度ベクトルを持つ画素の数を、該速度ベクトルが示す所定の方向毎に計数することにより、前記速度ベクトルによって前記各時系列連続動画像中の計測空間範囲に形成される前記各時系列連続動画像毎の速度場の分布状況を求める分布状況判別手段と、
前記速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲から当該速度ベクトルに基づいて識別される画素領域である人物形状画像であって前記時系列連続動画像中を移動する人物形状画像とその移動方向を検出する移動人物検出手段と、
前記人物形状画像の検出時刻と空間座標を比較して、前記各時系列連続動画像間において重複して検出した人物形状画像を排除する重複人物排除手段とを備えることを特徴とする人物検出システム。Luminance of pixels of the time-series continuous moving image generated by the movement of an object in a time-series continuous moving image captured by a plurality of imaging units that respectively capture different ranges while continuing a part of the range to be captured A vector calculation means for obtaining a velocity vector of the pixel for each time-series continuous moving image from a change in value using an optical flow estimation calculation;
By counting the number of pixels having the velocity vector for each predetermined direction indicated by the velocity vector, each time-series continuous formed by the velocity vector in the measurement space range in each time-series continuous moving image. A distribution status determination means for obtaining a distribution status of the velocity field for each moving image;
A human shape image that is a pixel region identified based on a speed vector from a range of pixels having direction-specific speed vectors indicated by the speed field distribution state, and that moves in the time-series continuous moving image A moving person detecting means for detecting an image and its moving direction;
A person detection system comprising: a duplicate person exclusion unit that compares a detection time of the person shape image with a spatial coordinate and eliminates a person shape image that is duplicated between the time-series continuous moving images. .
前記移動人物検出手段は、前記X方向のヒストグラムと前記Y方向のヒストグラムのそれぞれの幅に基づいて定められる閉領域の画素領域を人物形状画像として得ることを特徴とする人物検出システム。 The distribution situation determination means obtains a histogram in the X direction and a histogram in the Y direction by counting the number of pixels having the velocity vector in the X direction and the Y direction of the velocity vector,
The human detection system, wherein the moving person detection means obtains a pixel area of a closed area determined based on the width of each of the histogram in the X direction and the histogram in the Y direction as a person shape image .
前記計測空間範囲における前記人物形状画像の空間占有率から前記人物形状画像に含まれる人数を推定する場合に、前記人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を学習して更新する学習更新手段を含むことを特徴とする請求項3に記載の人物検出システム。The person separating means is
When estimating the number of persons included in the person shape image from the space occupancy rate of the person shape image in the measurement space range, the space occupancy required per person to be compared with the space occupancy rate of the person shape image The person detection system according to claim 3, further comprising learning update means for learning and updating the rate.
前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に警報を発する警報手段とを備えることを特徴とする請求項1から請求項6のいずれかに記載の人物検出システム。Movement direction classification means for classifying the movement direction of the person shape image;
2. An alarming unit for determining a moving direction of the person shape image classified by the moving direction classifying unit and issuing an alarm when a person shape image moving in a predetermined moving direction is found. The person detection system according to claim 6.
前記警報手段は、所定の時刻に所定の移動方向へ進む人物形状画像を発見した場合に警報を発することを特徴とする請求項7に記載の人物検出システム。Passage time measuring means for measuring the passage time of the measurement cross section of the person shape image,
8. The person detection system according to claim 7, wherein the warning means issues a warning when a person shape image that advances in a predetermined moving direction is found at a predetermined time.
前記人物形状画像の前記計測断面の通過時刻を測定する通過時刻測定手段と、
前記人数と前記通過時刻、及び前記移動方向から該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める人物分布推定手段とを備えることを特徴とする請求項1から請求項6のいずれかに記載の人物検出システム。Movement direction classification means for classifying the movement direction of the person shape image;
Passage time measuring means for measuring the passage time of the measurement cross section of the person shape image;
2. A person distribution estimation unit that estimates a behavior of the person shape image from the number of persons, the passage time, and the moving direction, and obtains a number distribution for a predetermined place or direction. 7. The person detection system according to any one of 6.
前記人物形状画像の前記計測断面の通過時刻を測定する通過時刻測定手段と、
前記人数と前記通過時刻、及び前記移動方向から該人物形状画像の挙動を推定し、所定の場所または方向に対する人数分布を求める人物分布推定手段と、
前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に警報を発する警報手段と、
前記人物分布推定手段と前記警報手段とを切り替えて作動させる切り替え手段とを備えることを特徴とする請求項1から請求項6のいずれかに記載の人物検出システム。Movement direction classification means for classifying the movement direction of the person shape image;
Passage time measuring means for measuring the passage time of the measurement cross section of the person shape image;
A person distribution estimating means for estimating the behavior of the person shape image from the number of persons and the passing time and the moving direction, and obtaining a number distribution for a predetermined place or direction;
A warning means for determining a movement direction of the person shape image classified by the movement direction classification means, and for issuing a warning when a person shape image traveling in a predetermined movement direction is found;
The person detection system according to claim 1, further comprising a switching unit that switches between the person distribution estimation unit and the warning unit to operate.
警報を発するとともに、警報の対象となった人物形状画像の人数または/及び画像を出力することを特徴とする請求項7、請求項8、請求項10のいずれかに記載の人物検出システム。The alarm means includes
The person detection system according to any one of claims 7, 8, and 10, wherein an alarm is issued and the number of people shape images and / or images of an alarm target are output.
所定の動作が実行され、かつ前記移動方向分類手段において判定された人物形状画像の移動方向が所定の方向であった場合に、その人物の入退場を許可する入退場制御手段とを備えることを特徴とする請求項1から請求項6のいずれかに記載の人物検出システム。Movement direction classification means for classifying the movement direction of the person shape image;
Entrance / exit control means for permitting entry / exit of the person when a predetermined operation is executed and the movement direction of the person shape image determined by the movement direction classification means is a predetermined direction. The person detection system according to any one of claims 1 to 6, characterized in that:
前記移動方向分類手段において分類された人物形状画像の移動方向を判定して、所定の移動方向へ進む人物形状画像を発見した場合に所定の情報を報知する情報報知手段とを備えることを特徴とする請求項1から請求項6のいずれかに記載の人物検出システム。Movement direction classification means for classifying the movement direction of the person shape image;
An information notifying unit for determining a moving direction of the person shape image classified by the moving direction classifying unit and notifying predetermined information when a person shape image moving in the predetermined moving direction is found. The person detection system according to any one of claims 1 to 6.
前記速度ベクトルを持つ画素の数を、該速度ベクトルが示す所定の方向毎に計数することにより、前記速度ベクトルによって前記各時系列連続動画像中の計測空間範囲に形成される前記各時系列連続動画像毎の速度場の分布状況を求める分布状況判別処理と、
前記速度場の分布状況が示す方向別の速度ベクトルを持つ画素の範囲から当該速度ベクトルに基づいて識別される画素領域である人物形状画像であって前記時系列連続動画像中を移動する人物形状画像とその移動方向を検出する移動人物検出処理と、
前記人物形状画像の検出時刻と空間座標を比較して、前記各時系列連続動画像間において重複して検出した人物形状画像を排除する重複人物排除処理とをコンピュータに実行させるための人物検出プログラム。Using the optical flow estimation calculation from the change in the luminance value of the pixel of the time-series continuous moving image generated by the movement of the object in the time-series continuous moving image captured by a plurality of imaging means for capturing different ranges. A vector calculation process for obtaining the velocity vector of the pixel for each time-series continuous moving image;
By counting the number of pixels having the velocity vector for each predetermined direction indicated by the velocity vector, each time-series continuous formed by the velocity vector in the measurement space range in each time-series continuous moving image. Distribution status determination processing for obtaining the distribution status of the velocity field for each moving image,
A human shape image that is a pixel region identified based on a speed vector from a range of pixels having direction-specific speed vectors indicated by the speed field distribution state, and that moves in the time-series continuous moving image A moving person detection process for detecting an image and its moving direction;
A person detection program for causing a computer to execute a duplicate person elimination process for comparing a detection time of the person shape image and a spatial coordinate and eliminating a person shape image detected redundantly between the time-series continuous moving images. .
前記計測空間範囲における前記人物形状画像の空間占有率から前記人物形状画像に含まれる人数を推定する場合に、前記人物形状画像の空間占有率の比較対象とする人物1名あたりに必要な空間占有率を学習して更新する学習更新処理をコンピュータに実行させるための請求項17に記載の人物検出プログラム。The person separation process is
When estimating the number of persons included in the person shape image from the space occupancy rate of the person shape image in the measurement space range, the space occupancy required per person to be compared with the space occupancy rate of the person shape image The person detection program according to claim 17 for causing a computer to execute a learning update process for learning and updating a rate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001297027A JP4607394B2 (en) | 2001-09-27 | 2001-09-27 | Person detection system and person detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001297027A JP4607394B2 (en) | 2001-09-27 | 2001-09-27 | Person detection system and person detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003109001A JP2003109001A (en) | 2003-04-11 |
JP4607394B2 true JP4607394B2 (en) | 2011-01-05 |
Family
ID=19118172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001297027A Expired - Fee Related JP4607394B2 (en) | 2001-09-27 | 2001-09-27 | Person detection system and person detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4607394B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074513A (en) * | 2004-09-02 | 2006-03-16 | Oki Electric Ind Co Ltd | Monitoring system and monitoring device |
JP4932161B2 (en) * | 2005-01-14 | 2012-05-16 | 三菱電機株式会社 | Viewer information measuring device |
JP2006338601A (en) * | 2005-06-06 | 2006-12-14 | Hitachi Plant Technologies Ltd | Work management support system |
JP5101429B2 (en) * | 2008-08-11 | 2012-12-19 | セコム株式会社 | Image monitoring device |
JP6017207B2 (en) * | 2012-07-13 | 2016-10-26 | ジョンソンコントロールズ ヒタチ エア コンディショニング テクノロジー(ホンコン)リミテッド | Air conditioner |
WO2016114134A1 (en) | 2015-01-14 | 2016-07-21 | 日本電気株式会社 | Motion condition estimation device, motion condition estimation method and program recording medium |
JP6579657B2 (en) * | 2015-12-17 | 2019-09-25 | Kddi株式会社 | Judgment device, program, and remote communication support device |
US10016896B2 (en) * | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
WO2018025831A1 (en) | 2016-08-04 | 2018-02-08 | 日本電気株式会社 | People flow estimation device, display control device, people flow estimation method, and recording medium |
JP6669977B2 (en) * | 2017-09-27 | 2020-03-18 | キヤノンマーケティングジャパン株式会社 | Image processing system, control method for image processing system, and program |
JP7162192B2 (en) * | 2018-05-02 | 2022-10-28 | パナソニックIpマネジメント株式会社 | Bionumber estimation device, bionumber estimation method, and program |
JP7344783B2 (en) * | 2019-12-09 | 2023-09-14 | 三菱電機エンジニアリング株式会社 | Monitoring devices, monitoring programs, and monitoring systems |
WO2024180665A1 (en) * | 2023-02-28 | 2024-09-06 | 日本電気株式会社 | Object tracking device, object tracking method, and recording medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH077449B2 (en) * | 1987-11-05 | 1995-01-30 | 三菱電機株式会社 | Object number detector |
JPH08185521A (en) * | 1994-12-28 | 1996-07-16 | Clarion Co Ltd | Mobile object counter |
JP3831112B2 (en) * | 1998-03-30 | 2006-10-11 | 東日本旅客鉄道株式会社 | Moving object measuring device |
JPH11283010A (en) * | 1998-03-31 | 1999-10-15 | Mitsubishi Electric Corp | Moving object detection device |
JP2000224571A (en) * | 1999-02-03 | 2000-08-11 | Mitsubishi Precision Co Ltd | System for sensing human |
JP4390897B2 (en) * | 1999-03-04 | 2009-12-24 | 三菱電機株式会社 | Heat exchange ventilator |
JP2002074369A (en) * | 2000-08-28 | 2002-03-15 | Ntt Data Corp | System and method for monitoring based on moving image and computer readable recording medium |
-
2001
- 2001-09-27 JP JP2001297027A patent/JP4607394B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003109001A (en) | 2003-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105844234B (en) | A method and device for people counting based on head and shoulders detection | |
JP5473801B2 (en) | Monitoring device | |
US20200226523A1 (en) | Realtime video monitoring applied to reduce customer wait times | |
KR101788269B1 (en) | Method and apparatus for sensing innormal situation | |
US7590261B1 (en) | Method and system for event detection by analysis of linear feature occlusion | |
WO2017122258A1 (en) | Congestion-state-monitoring system | |
JP4607394B2 (en) | Person detection system and person detection program | |
EP0878965A2 (en) | Method for tracking entering object and apparatus for tracking and monitoring entering object | |
US20070098222A1 (en) | Scene analysis | |
WO2016114134A1 (en) | Motion condition estimation device, motion condition estimation method and program recording medium | |
KR102434154B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
KR20080021804A (en) | Target detection and tracking by overhead video streams | |
JPH10285581A (en) | Automatic monitoring device | |
US10210392B2 (en) | System and method for detecting potential drive-up drug deal activity via trajectory-based analysis | |
Xu et al. | Segmentation and tracking of multiple moving objects for intelligent video analysis | |
KR100900494B1 (en) | Moving object tracking system and control method | |
KR101840042B1 (en) | Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System | |
JP2014197330A (en) | Security device, security method and program | |
CN106570440A (en) | People counting method and people counting device based on image analysis | |
JP2002245560A (en) | Monitoring system | |
KR101173786B1 (en) | System and method for automated measurement of crowd density using neural network | |
KR102397839B1 (en) | A captioning sensor apparatus based on image analysis and a method for operating it | |
KR20030018487A (en) | Method and apparatus for counting the number of entering people at the gate using image | |
KR20220064476A (en) | Method of providing security monitoring chatbot service based on AI image autonomous sensor | |
KR20220064213A (en) | Program for operation of security monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100907 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4607394 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131015 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees | ||
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |