JP2018067755A - 検出データ管理装置 - Google Patents
検出データ管理装置 Download PDFInfo
- Publication number
- JP2018067755A JP2018067755A JP2016203699A JP2016203699A JP2018067755A JP 2018067755 A JP2018067755 A JP 2018067755A JP 2016203699 A JP2016203699 A JP 2016203699A JP 2016203699 A JP2016203699 A JP 2016203699A JP 2018067755 A JP2018067755 A JP 2018067755A
- Authority
- JP
- Japan
- Prior art keywords
- data
- person
- detection
- result
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】各種センサ間で検出結果が出力される時間が異なる場合でも、比較的容易に同一の事象を検出したデータ間で関連付けを行い、時系列の検出データを集計、表示できるようにする。【解決手段】検出データ管理装置が、検出対象に関するデータを出力する少なくとも2つの検出器と、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理部と、前記データ関連付け処理部が関連付けを行ったデータを記憶する記憶部と、を備える。【選択図】図8
Description
本発明は、検出データ管理装置に関する。
不特定多数の来訪者が訪れる施設において防犯や安全のために監視カメラが設置されることがある。そのような施設には、例えば、店舗、通り、駐車場、列車、等がある。監視カメラが撮像した画像は、強盗や暴力行為などの犯罪の捜査など、事後的な検証のために用いられることがある。例えば、監視カメラが撮像した画像は、不審人物又は不審車両の発見などの目的に用いられることがある。
また、小売業者の店舗等では、監視カメラが撮像した画像から顧客の購買動向の分析と把握を行い、店舗の販売戦略に用いる取り組みが行われている。撮像された画像から、顧客入場者数や売り場間移動の動向、各売り場における滞在時間、人の流動等の情報が収集される。
また、小売業者の店舗等では、監視カメラが撮像した画像から顧客の購買動向の分析と把握を行い、店舗の販売戦略に用いる取り組みが行われている。撮像された画像から、顧客入場者数や売り場間移動の動向、各売り場における滞在時間、人の流動等の情報が収集される。
また、上記のような情報収集に関連して、カメラが撮像した画像からの情報の検出だけでなく、多数のセンサを用いる方法がある。例えば、人感センサや温度・湿度センサ、レーザーセンサなど多くのセンサデバイスがネットワークにつながり、その検出情報をビッグデータとして活用するためのモノのインターンネット(IoT:Internet Of Things)が提案されている。各種センサの情報を蓄積、集計し、マーケティング情報やセキュリティ予測、駅や建物の設計等に活用することができる。
また、特許文献1には、人物の位置検出追跡に属性推定を紐付ける人物追跡属性推定装置が記載されている。この人物追跡属性推定装置では、人物候補クラスタリング部は、レーザー測域センサの測定データから、所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する。人物候補追跡部は、測定データを走査フレーム間で比較し、距離差が所定の範囲内である点群を同一の人物候補として人物IDを付与し、人物IDと位置座標とを出力する。ビューポート変換部は、位置座標を2次元画像座標に変換する。上半身探索領域設定部は、2次元画像座標に基づいて、人物IDに対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する。顔検出属性推定部は、カメラの画像データから、上半身探索領域に基づいて顔検出を行い、人物属性を推定する。人物追跡属性判定部は、人物IDと位置座標、人物属性情報の対応付けを行う。
また、特許文献2には、視点が異なる複数のカメラにて被写体を撮像し時の同一人物を抽出する情報処理装置が記載されている。この情報処理装置では、撮像部は、被写体を撮像し、動き検出部は、前記撮像部によって撮像される前記被写体の動きの変化を検出する。データ生成部は、前記動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成する。受信部は、前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信する。判定部は、前記データ生成部によって生成された前記第1タイミングデータと前記受信部によって受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定する。
複数のセンサが個別に事象を検出してデータを出力する場合、出力されたデータと事象との対応付けが困難なことがある。例として、各種センサが一つのネットワークに通信接続し、センサ毎に個別に所定の事象(例えば人が室内に入室するなど)を検出し、個々のタイミングで検出結果をサーバへアップロードする場合が挙げられる。この場合、サーバ側で、各センサが出力するデータがどの事象に対応するものであるかが分からない可能性がある。これは、ある事象に対する各種センサの検出開始時間および検出に要する時間、センサ間の空間的な設置位置が異なることに起因する。特に事象が連続して起こる場合、上記のようにデータと事象との関連付けが困難となることが考えられる。
これに対し、特許文献1に記載の人物追跡属性推定装置では、レーザー測域センサの測定データとカメラ画像から検出した属性情報との紐付けを行う際、各センサで検出され人にそれぞれ人物IDを設け、その人物IDが一致する結果を関連付けている。しかし、特許文献1に記載の人物追跡属性推定装置では、複数人の人の並び方や順番、前の人の追い抜きが発生した場合などに同一人物に同じ人物IDが付加されず、同一人物の関連付けに失敗する可能性がある。
また、特許文献2に記載の情報処理装置では、撮像部が撮像した画像内の顔の動きを検出し、顔が動いたタイミングをもって、異なる撮像部が撮像した画像内の同一人物を関連付けている。しかし、特許文献2に記載の情報処理装置では、撮像画像内に複数の人が撮像され、複数の人物のうち2人以上が同一タイミングで同様の動きを行った場合に関連付けに失敗する可能性がある。特に、撮像画像内に多数の人が撮像されている場合、2人以上の人物が同一タイミングで同様の動きを行う可能性が高くなり、関連付けに失敗する可能性が高くなる。
さらに、特許文献2に記載の情報処理装置では、被写体が横や後ろに向けて顔を動かしている場合、ある撮像部では被写体の顔が撮像されているが、別の撮像部では同じタイミングで顔を撮像できない可能性がある。この場合、顔を撮像できなかった撮像部の画像からは、顔の動きによる人物の同一性の判定を行えず、同一人物の関連付けに失敗する可能性がある。
さらに、特許文献2に記載の情報処理装置では、被写体が横や後ろに向けて顔を動かしている場合、ある撮像部では被写体の顔が撮像されているが、別の撮像部では同じタイミングで顔を撮像できない可能性がある。この場合、顔を撮像できなかった撮像部の画像からは、顔の動きによる人物の同一性の判定を行えず、同一人物の関連付けに失敗する可能性がある。
本発明は、上記の点に鑑みてなされたものであり、各種センサ間で検出結果が出力される時間が異なる場合でも、比較的容易に同一の事象を検出したデータ間で関連付けを行い、時系列の検出データを集計、表示する検出データ管理装置を提供する。
本発明の第1の態様は、検出対象に関するデータを出力する少なくとも2つの検出器と、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理部と、前記データ関連付け処理部が関連付けを行ったデータを記憶する記憶部と、を備える検出データ管理装置である。
前記関連付け処理部は、前記少なくとも2つの検出器のうち、同一の検出対象に関連するデータを最後に出力する検出器がデータを出力する時刻を基準として、各データの出力時刻と基準の時刻との関係に基づいて前記データの関連付けを行うようにしてもよい。
前記関連付け処理部は、前記基準の時刻から所定の時間だけ前の時刻までに出力されたデータを対象として前記データの関連付けを行うようにしてもよい。
前記関連付け処理部は、前記検出器毎に、当該検出器が前記基準の時刻から所定の時間だけ前の時刻までに出力したデータ、かつ、未登録のデータのうち、出力時刻が最も古いデータを抽出して関連付けを行い、関連付けたデータを登録済にするようにしてもよい。
前記検出データ管理装置が、前記検出器が出力したデータを記憶する記憶部と、ユーザ操作を受け付ける操作入力部と、前記操作入力部が受けたユーザ操作に基づいて、前記記憶部からデータを読み出し、読み出したデータを集計して時系列のグラフにて表示装置に表示させるデータ集計処理部と、を備えるようにしてもよい。
本発明によれば、各種センサ間で検出結果が出力される時間が異なる場合でも、比較的容易に同一の事象を検出したデータ間で関連付けを行い、時系列の検出データを集計、表示することができる。
(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について説明する。以下の説明では、人感センサ、人数カウント装置、年齢・性別推定装置から取得したデータを関連付け、記録、伝送、読み出しを行う検出データ管理装置1である場合を例にする。
以下、図面を参照しながら本発明の第1の実施形態について説明する。以下の説明では、人感センサ、人数カウント装置、年齢・性別推定装置から取得したデータを関連付け、記録、伝送、読み出しを行う検出データ管理装置1である場合を例にする。
〔検出データ管理装置の配置例〕
図1は、本実施形態に係る検出データ管理装置1の配置例を表す斜視図である。
検出データ管理装置1は、人数カウント装置10−1と、年齢・性別推定装置10−2と、人感センサ10−3とを備える。人数カウント装置10−1、及び、年齢・性別推定装置10−2は、それぞれカメラ(撮像部)と、プロセッサと、伝送部とを含んで構成される。プロセッサは、カメラの撮像画像について画像処理を行う処理部として機能する。ここでいう画像は、動画像であってもよいし、静止画像であってもよい。
図1は、本実施形態に係る検出データ管理装置1の配置例を表す斜視図である。
検出データ管理装置1は、人数カウント装置10−1と、年齢・性別推定装置10−2と、人感センサ10−3とを備える。人数カウント装置10−1、及び、年齢・性別推定装置10−2は、それぞれカメラ(撮像部)と、プロセッサと、伝送部とを含んで構成される。プロセッサは、カメラの撮像画像について画像処理を行う処理部として機能する。ここでいう画像は、動画像であってもよいし、静止画像であってもよい。
プロセッサは、例えばCPU(Central Processing Unit、中央処理装置)であってもよい。伝送部は、画像処理によって得られた結果となる出力データを外部に伝送する。
また、人感センサ10−3は、赤外線センサとして、光を集光する光学系と、遠赤外線を受光する集電検出器と、電気信号の変化から人が居ることを検知する信号処理部と、検出結果を外部に伝送する伝送部とを含んで構成される。
また、人感センサ10−3は、赤外線センサとして、光を集光する光学系と、遠赤外線を受光する集電検出器と、電気信号の変化から人が居ることを検知する信号処理部と、検出結果を外部に伝送する伝送部とを含んで構成される。
図1に示されるX方向、Y方向及びZ方向は、人数カウント装置10−1のカメラの撮像領域及び年齢・性別推定装置10−2のカメラの撮像領域を含む実空間内の位置を表す3次元直交座標系において互いに直交する軸方向である。以下の説明では、この座標系を空間座標系と呼ぶことがある。図1に示す例では、部屋11は、直方体の形状を有する。部屋11の各辺の方向は、それぞれX方向、Y方向、Z方向に平行な方向である。空間座標系において、X方向は、水平面に平行であって部屋11の一辺に平行な方向である。Y方向は、鉛直方向である。Z方向は、水平面に平行であって部屋11の他の一辺に平行な方向である。以下の説明では、X方向を奥もしくは奥行方向、X軸の負方向を手前もしくは手前方向、Y方向を下もしくは下方、Y軸の負方向を上もしくは上方、Z方向を右もしくは右方、Z軸の負方向を左もしくは左方と呼ぶことがある。
部屋11のXY平面に平行な側面のうち、右側面には部屋11の出入り口としてドア13が設置されている。部屋11の天井18には、1個の人数カウント装置10−1と、2個の人感センサ10−3及び10−6とが備えられている。さらに、部屋11のYZ平面に平行な側面のうち、手前側には、1個の年齢・性別推定装置10−2が備えられている。
人数カウント装置10−1のカメラの向きは、その撮像方向が鉛直下向き(Y方向)となるように設置されている。人数カウント装置10−1の撮像方向は、光軸1011−1の方向に相当する。この配置により、部屋11の内部を示す画像が撮像される。従って、人数カウント装置10−1が画像を撮像する撮像面は、光軸1011−1に垂直に交わる2次元平面に平行である。人数カウント装置10−1のカメラでは、光学系を通って入射した画像光が撮像面に結像してなる画像が撮像画像として撮像される。図1に示す例では、撮像面は水平面に平行な平面(XZ平面)である。人数カウント装置10−1は、ドア13を出入りする人を検出し、その入室数、退出数、部屋内の人数、累計の入室数のいずれか、又はこれらの組み合わせなどの情報を出力する。
人数カウント装置10−1のカメラの向きは、その撮像方向が鉛直下向き(Y方向)となるように設置されている。人数カウント装置10−1の撮像方向は、光軸1011−1の方向に相当する。この配置により、部屋11の内部を示す画像が撮像される。従って、人数カウント装置10−1が画像を撮像する撮像面は、光軸1011−1に垂直に交わる2次元平面に平行である。人数カウント装置10−1のカメラでは、光学系を通って入射した画像光が撮像面に結像してなる画像が撮像画像として撮像される。図1に示す例では、撮像面は水平面に平行な平面(XZ平面)である。人数カウント装置10−1は、ドア13を出入りする人を検出し、その入室数、退出数、部屋内の人数、累計の入室数のいずれか、又はこれらの組み合わせなどの情報を出力する。
年齢・性別推定装置10−2のカメラの向きは、その撮像方向が水平(X方向)となるように設置されている。年齢・性別推定装置10−2の撮像方向は、光軸1011−2の方向に相当する。この配置により、部屋11内部のドア13周辺の画像が撮像される。従って、年齢・性別推定装置10−2が画像を撮像する撮像面は、光軸1011−2に垂直に交わる2次元平面に平行である。年齢・性別推定装置10−2のカメラでは、光学系を通って入射した画像光が撮像面に結像してなる画像が撮像画像として撮像される。図1に示す例では、撮像面は垂直面に平行な平面(YZ平面)である。年齢・性別推定装置10−2は、ドア13を出入りする人を検出し、その入室または退室した人の年齢、性別のいずれか、又はこれらの組み合わせを推定し、推定結果を出力する。年齢・性別推定装置10−2が推定する情報はこれらに限定されず、入退室者が誰であるかを特定する情報や身長、人種、眼鏡着用の有無や服装といった個人の特徴や属性を表す情報であっても良い。
人感センサ10−3、10−6が検出する領域の中心の向きは、その方向が鉛直下向き(Y方向)となるように設置されている。この検出領域は、検出方向の中心に対し、同心円状に広がる範囲を検出する。1つの人感センサが検出できる範囲が、部屋11の広さ及び床17から天井18までの高さに影響される。1つの人感センサで検出可能な範囲が、検出すべき範囲に対して不十分な場合は、複数の人感センサを設置する。図1の例では、部屋全体を検出範囲とするために2個の人感センサを天井18に設置している。人感センサ10−3及び10−6の組み合わせにて部屋全体を検出することによって、部屋11の内部に人が居るか居ないか、または部屋のどこにどれだけの人がいるかといった情報を検出し、出力することができる。
検出データ管理装置1は、図1のようにそれぞれ専用の装置単体として構成されてもよいし、主たる機能が前記各装置の機能である機器の一部として形成されてもよい。検出データ管理装置1は、例えば、照明機器、火災警報機、空調機等、必ずしも前記機能を主目的としない電気機器内に組み込まれて構成されてもよい。さらに、カメラ、プロセッサ及び伝送装置は、必ずしも一体化された単一の構成として形成(一体型)されなくてもよく、それらの全部もしくは一部は、個々に異なる構成(セパレート)として設置されてもよい。
人数カウント装置10−1は、人の標準的な身長(例えば、平均身長)よりも高い天井18から床17に向けて室内を撮像している。これにより、人数カウント装置10−1は、部屋11の右側面に設置されたドア13を開けて入室した入室者14を撮像することができる。人数カウント装置10−1は、撮像された撮像画像に対して、後述する処理を行うことにより入室者14の有無(すなわち、入室の有無)ならびに退室者15の有無(すなわち、退出の有無)を検出する。人数カウント装置10−1では、光軸1011−1を鉛直下向きにして設置された場合に、入室者14や退室者15のできるだけ多くの部分が撮像されるように、水平画角と垂直画角の一方又は両方が広いカメラが使用される。入室者14または退室者15が撮像される部分は、少なくとも頭部、好ましくは頭部と胴体を含む全身である。画角とは、撮像される光景の範囲を表す角度である。画角は、視野角と呼ばれることがある。カメラの撮像範囲を表す画角には、水平画角、垂直画角および対角画角がある。水平画角とは、カメラの撮像面、つまり撮像座標系の水平方向の画角である。垂直画角とは、カメラの撮像面の垂直方向の画角である。対角画角とは、カメラの撮像面の対角方向の画角である。なお、以下の説明では、水平画角ならびに垂直画角、または対角画角を含めた画角を単に画角と総称することがある。
人数カウント装置10−1、または年齢・性別推定装置10−2が備えるカメラは、例えば、光軸を中心とする水平画角が60度以上である広角カメラである。床17からの天井18の高さが十分高い場合の人数カウント装置10−1のカメラとして、標準的な水平画角(例えば、水平画角60度未満)を有するカメラが用いられる場合でも、入室者14または退室者15の頭部と胴体を撮像することができる可能性がある。一方、高さに制限がある空間、例えば、列車、バスなどの車両、地下鉄の駅などの天井18に人数カウント装置10−1を設置する場合には、撮像部として画角が十分に広いカメラを使用する。これにより、入室者14または退室者15の頭部と胴体を撮像することができる。特に、床17からの天井18の高さが低い空間、例えば、列車やバスなどの交通機関の客室では、通常の広角カメラより、画角が広い魚眼カメラ(例えば、水平画角180度)が使用される。その場合には、カメラ(撮像部)は入室者14または退室者15の全身を撮像することができる。同様に、年齢・性別推定装置10−2とドア13の距離が近い場合には、撮像部として画角が十分に広いカメラ(水平画角180度)が使用される。これにより、年齢・性別推定装置10−2とドア13の距離が十分に近い場合でも、入室者14または退室者15の身体や顔を撮像することができる。
また、人数カウント装置10−1のように、出入口(図1に示す例では、ドア13)の近くに設置される場合は、必ずしも画角の広いカメラを使用(選択)しなくても、入室者14または退室者15を検出する十分な領域を撮像することが可能なこともある。しかし、出入口の数が複数個ある場合には、出入口のそれぞれに人数カウント装置10−1を設置すると、設置台数および設置コストが増加するといった問題がある。そのため、人数カウント装置10−1が、1つの部屋11において複数個のドアの入退室者の全身を撮像できるように、人数カウント装置10−1のカメラとして画角が広いカメラが使用(選択)される。カメラの画角として、少なくとも人数カウント装置10−1の位置から部屋11への複数個の出入口が撮像領域に含まれる角度が設定される。年齢・性別推定装置10−2についても同様であり、画角が広いカメラを使用することで、複数個の出入口の人や顔を検出することができる。以下では、人数カウント装置10−1および年齢・性別推定装置10−2のカメラとして、魚眼カメラを使用する場合を例に説明する。
〔広角カメラ〕
次に、人数カウント装置10−1または年齢・性別推定装置10−2のカメラ(撮像部)として用いられる広角カメラについて説明する。広角カメラとは、一般的に広い範囲を撮像することができる画角が広いカメラのことを意味する。広角カメラは、例えば、水平画角、垂直画角および対角画角のいずれかが60°以上のカメラである。広角カメラには、魚眼カメラおよび超広角カメラも含まれる。魚眼カメラとは、自機の全周囲(画角180°)の画像を撮像することが可能なカメラである。超広角カメラとは、画角が180°を超える(例えば、画角200°)カメラである。
次に、人数カウント装置10−1または年齢・性別推定装置10−2のカメラ(撮像部)として用いられる広角カメラについて説明する。広角カメラとは、一般的に広い範囲を撮像することができる画角が広いカメラのことを意味する。広角カメラは、例えば、水平画角、垂直画角および対角画角のいずれかが60°以上のカメラである。広角カメラには、魚眼カメラおよび超広角カメラも含まれる。魚眼カメラとは、自機の全周囲(画角180°)の画像を撮像することが可能なカメラである。超広角カメラとは、画角が180°を超える(例えば、画角200°)カメラである。
広角カメラによって撮像される画像には、一般に中央付近の領域よりも周辺の領域において顕著な歪みが生じる。広角カメラの画像の歪みは、その要因により、次の2種類に分類される。1つは、広角カメラと撮像される被写体の位置関係が変わることによる歪みである。他の1つは、広角カメラのレンズ射影方式による歪みである。
前者の歪みは、広角カメラに正対した位置に置かれ、広角カメラに向けられた平面状の被写体であっても、被写体の画像が撮像された画像である撮像画像上に表される位置が光学中心に対応する中心点から離れることで生じる歪みである。この歪みにより撮像画像の中央付近の領域よりも周辺の領域における解像度が低下する。また、この歪みは広角カメラのレンズの射影方式に関わらず生じる。
前者の歪みは、広角カメラに正対した位置に置かれ、広角カメラに向けられた平面状の被写体であっても、被写体の画像が撮像された画像である撮像画像上に表される位置が光学中心に対応する中心点から離れることで生じる歪みである。この歪みにより撮像画像の中央付近の領域よりも周辺の領域における解像度が低下する。また、この歪みは広角カメラのレンズの射影方式に関わらず生じる。
後者の歪みは、射影方式に依存する歪みである。カメラの光学系で採用されている射影方式には、例えば、等距離射影方式と等立体角射影方式がある。等距離射影方式は、画面の中心からの被写体までの距離と被写体を表す画像の角度が比例するように、被写体からの画像光を撮像面に射影する射影方式である。等立体角射影方式は、被写体を表す画像の面積がその立体角に比例するように、被写体からの画像光を撮像面に射影する射影方式である。等距離射影方式が採用される場合には、撮像画像の中心付近の領域よりも周辺の領域に表される画像において、被写体の画像が圧縮される(つまり、解像度が低下する)歪みが発生する。但し、等立体角射影方式では、このような歪みは発生しない。
〔検出データ管理装置の構成例〕
次に、本実施形態に係る検出データ管理装置1の構成例について説明する。
図2は、本実施形態に係る検出データ管理装置1の構成例を示す概略ブロック図である。
検出データ管理装置1は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5、結果集計表示装置21、22、および結果蓄積DB(Database)211、221を含んで構成される。これら装置はそれぞれネットワークに通信接続され、相互に各種のデータを送受信することができる。
次に、本実施形態に係る検出データ管理装置1の構成例について説明する。
図2は、本実施形態に係る検出データ管理装置1の構成例を示す概略ブロック図である。
検出データ管理装置1は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5、結果集計表示装置21、22、および結果蓄積DB(Database)211、221を含んで構成される。これら装置はそれぞれネットワークに通信接続され、相互に各種のデータを送受信することができる。
人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、及び、温度センサ10−5は、同一の部屋に設置されてもよいし、それぞれ異なる部屋に設置されてもよい。またその設置位置も同一であってもよいし、異なる位置であってもよい。人数カウント装置10−1は、撮像画像に基づいてカウントした人数を示すデータを結果集計表示装置21、22の各々に送信する。年齢・性別推定装置10−2は、撮像画像に基づいて検出した人の年齢及び性別といった人の特徴を示すデータを結果集計表示装置21、22の各々に送信する。人感センサ10−3は、遠赤外線画像に基づいて検出エリアに人がいるか居ないか、検出エリア内のどこにどれだけ人がいるかといった密集度を検出し、検出結果を示すデータを結果集計表示装置21、22の各々に送信する。監視カメラ10−4は、撮像した画像を結果集計表示装置21、22の各々に送信する。温度センサ10−5は、センサが設置されている環境化の温度や湿度を示す結果データを結果集計表示装置21、22の各々に送信する。
以下では、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、及び、温度センサ10−5が結果集計表示装置21及び22に送信するデータを結果データと称する。
以下では、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、及び、温度センサ10−5が結果集計表示装置21及び22に送信するデータを結果データと称する。
人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5が、それぞれの環境を示す環境データを取得し、取得した環境データを結果集計表示装置21、22に送信するようにしてもよい。環境データの具体例については後述する。人数カウント装置10−1、年齢・性別推定装置10−2及び監視カメラ10−4が、撮像した画像を示す画像信号を結果集計表示装置21及び22に送信するようにしてもよい。結果集計表示装置21、22の各々が、これら受信した画像信号が示す画像を表示部(図示せず)に表示するようにしてもよい。
結果集計表示装置21、22の各々は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5から受信した結果データが示す情報を集計し、集計結果を表す表示用データを生成する。例えば、結果集計表示装置21、22の各々は、人数カウント装置10−1から、部屋毎の入室者数、退室者数及び各部毎の人数を示す結果データを受信する。また、結果集計表示装置21、22の各々は、年齢・性別推定装置10−2から、各在室者の年齢及び性別といった個人の特徴を示す結果データを受信する。また、結果集計表示装置21、22の各々は、人感センサ10−3から、部屋毎の在室者の有無、及び、在室者がいる場合は室内の領域毎の在室者数を示す結果データを受信する。また、結果集計表示装置21、22の各々は、監視カメラ10−4から、撮像画像(監視カメラ画像)の画像データを結果データとして受信する。また、また、結果集計表示装置21、22の各々は、温度センサ10−5から、温度及び湿度の測定値を示す結果データを受信する。そして、結果集計表示装置21、22の各々は、受信した結果データを集計し、例えば、部屋毎の人数の時間変化、部屋毎の在室者の年齢及び男女の割合などの集計結果を表す表示用データを生成する。
さらに、人数カウント装置10−1が、各部屋の在室者の身長及び服の色合いなどを検出し、各人に割り当てられる識別情報(以下、個人IDと称する)と対応づけ、結果データに含めて結果集計表示装置21、22の各々に送信するようにしてもよい。人数カウント装置10−1が、さらに各部屋の在室者の年齢及び性別を検出し、個人IDと対応づけ、結果データに含めて結果集計表示装置21、22の各々に送信するようにしてもよい。
結果集計表示装置21、22の各々は、生成した表示用データが示す情報を表示部に表示させるデータ表示制御部(図示せず)を備える。表示用データは、結果集計表示装置21及び22が結果データから検出した情報を、数値、グラフ、図のいずれか又はこれらの組み合わせなど、視認可能な態様で表示するためのデータを含む。
以下では、結果集計表示装置21及び22が結果データから検出した情報を検出情報と称する。検出情報の例として、出入口を通過した人数、建物又は車両内にいる人数、これら計測した人に関する情報のいずれか又はこれらの組み合わせを日付、時刻又は季節毎に示すデータ、及び、時刻毎の人数を挙げることができる。計測した人に関する情報の例として、年齢、性別、身長、服の色合い、個人IDなどのいずれか又はこれらの組み合わせを挙げることができる。
以下では、結果集計表示装置21及び22が結果データから検出した情報を検出情報と称する。検出情報の例として、出入口を通過した人数、建物又は車両内にいる人数、これら計測した人に関する情報のいずれか又はこれらの組み合わせを日付、時刻又は季節毎に示すデータ、及び、時刻毎の人数を挙げることができる。計測した人に関する情報の例として、年齢、性別、身長、服の色合い、個人IDなどのいずれか又はこれらの組み合わせを挙げることができる。
結果集計表示装置21及び22が、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5から受信する結果データには、各装置における環境を示す環境データが含まれることがある。環境データが示す情報には、例えば、画像データの撮像時刻、撮像場所、カメラID(Identifier)、天気、気温、湿度、明るさ、振動等のいずれか、またはそれらの所定の組み合わせが含まれ得る。結果集計表示装置22のデータ処理部(図示せず)は、各装置から受信した結果データ(人数カウントデータや画像データなど)と環境データを対応付けて、送信元の装置毎に結果蓄積DB221に蓄積するようにしてもよい。結果集計表示装置21についても同様である。
結果集計表示装置21、22それぞれのデータ処理部が、環境データを用いて結果データが示す情報を集計し、集計により得られる情報を表示部に表示させるようにしてもよい。データ処理部は、例えば、1つの店舗等に備えられた人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5からの結果データに基づいてデータを集計する。例えば、データ処理部が、出入口を通過した人の人数、年齢、性別等の個人の特徴を示すデータのいずれか又はこれらの組み合わせを、フロア毎、所定時間毎のいずれか又はこれらの組み合わせ毎に集計するようにしてもよい。そして、データ処理部が、フロア毎、時間毎いずれか又はこれらの組み合わせ毎の、来客数の変移、混雑度のいずれか又はこれらの組み合わせを算出するようにしてもよい。
データ処理部が、1つの装置からの結果データを集計するようにしてもよいし、2つ以上の装置からの結果データを集計するようにしてもよい。あるいは、結果集計表示装置21、22の各々が、いずれの装置からの結果データも集計に用いないようにしてもよい。また、データ処理部が、算出して得られた情報を表示もしくは図示するための表示用データを生成するようにしてもよいし、所定時間毎にリアルタイムで取得した人数を来客数として表す表示用データを生成するようにしてもよい。これらの表示用データは、例えば、商店における店員の配置を逐次に変化させる際に用いることができる。例えば、管理者は表示用データに係る表示を視認して、来客が比較的少ないコーナーから比較的多いコーナーに、店員を移動させるか否かを判定する。
結果集計表示装置21、22の各々は、専用の装置で構成されてもよいし、パーソナルコンピュータ、ワークステーション、サーバ装置、タブレット端末装置等、汎用の電子機器で構成されてもよい。結果集計表示装置21、22が汎用の電子機器で構成される場合、結果集計表示装置21、22の各々が備えるCPUが記憶デバイスから所定のプログラムを読み出して実行することで、結果集計表示装置21、22それぞれの機能を実現するようにしてもよい。図2に示す例で、結果集計表示装置22と結果蓄積DB221とが、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5と同一の建造物もしくは施設内に設置されていてもよい。結果集計表示装置21と結果蓄積DB211とが、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5の少なくともいずれから空間的に離れた遠隔地に設置されていてもよい。結果集計表示装置21が、例えば複数の支店の各々に設置された結果集計表示装置22、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5の結果データを集中的に処理するようにしてもよい。結果集計表示装置21が、これらの装置からのデータを蓄積、集計、抽出及び表示するようにしてもよい。この場合、結果集計表示装置21は、各支店のデータを集約する点で、本店としての機能を有することになる。例えば、デパート等の店舗の場合、店舗毎に結果集計表示装置22が備えられており、店舗毎に店舗の来客推移や売上推移を集約・表示するようにしてもよい。そして、結果集計表示装置21が、結果集計表示装置22の各々からデータを取得して、全店舗の来客推移や売上推移を集約・表示するようにしてもよい。
以上のように、結果集計表示装置21のユーザは、遠隔地において人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5の各々で得られる結果データを把握することができる。
また、結果集計表示装置21、22の各々が、ユーザからの操作に応じて、結果データ照会信号を生成するようにしてもよい。結果データ照会信号は、操作により指示された人数カウント装置ならびに時刻における人数や年齢、性別等を表す結果データを照会するための信号である。結果集計表示装置21、22の各々は、生成した結果データ照会信号を結果蓄積DB221に送信する。結果蓄積DB221は、結果集計表示装置21、22の少なくともいずれかから結果データ照会信号を受信した場合、当該結果データ照会信号が指示する人数カウント装置10−1及び時刻に係る結果データを、結果蓄積DB221自らの記憶部(図示せず)から読み出す。結果蓄積DB221は、読み出した結果データを結果データ照会信号の送信元の結果集計表示装置に送信する。結果集計表示装置21、22は、結果蓄積DB221から受信した結果データが示す情報を表示部に表示させる。
また、結果集計表示装置21、22の各々が、ユーザからの操作に応じて、結果データ照会信号を生成するようにしてもよい。結果データ照会信号は、操作により指示された人数カウント装置ならびに時刻における人数や年齢、性別等を表す結果データを照会するための信号である。結果集計表示装置21、22の各々は、生成した結果データ照会信号を結果蓄積DB221に送信する。結果蓄積DB221は、結果集計表示装置21、22の少なくともいずれかから結果データ照会信号を受信した場合、当該結果データ照会信号が指示する人数カウント装置10−1及び時刻に係る結果データを、結果蓄積DB221自らの記憶部(図示せず)から読み出す。結果蓄積DB221は、読み出した結果データを結果データ照会信号の送信元の結果集計表示装置に送信する。結果集計表示装置21、22は、結果蓄積DB221から受信した結果データが示す情報を表示部に表示させる。
結果蓄積DB221は、記憶部を備える。そして、結果蓄積DB221は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5の各々から受信した結果データを、送信元の装置毎、かつ、所定時間毎に、記憶部に記憶することにより蓄積する。結果蓄積DB221は、例えば、関係データベース管理装置である。
ネットワーク41を構成する通信ネットワークとして、いろいろな通信ネットワークを用いることができる。例えば、ネットワーク41は、ローカルエリアネットワーク(LAN:Local Area Network)、広域ネットワーク(WAN:Wide Area Network)のいずれか、または両者を含んで構成されてもよいが、これに限定されない。
例えば、結果集計表示装置22と結果蓄積DB221とが、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5と同一の建造物もしくは施設内にある場合、これら同一の建造物もしくは施設内にある各装置が、LANを用いて通信接続されてもよい。
また、結果集計表示装置21が、当該建造物もしくは施設から予め定めた距離内(例えば、20メートル(m)以内)にある場合も、結果集計表示装置21及び当該建造物もしくは施設内にある各装置が、LANを用いて通信接続されるようにしてもよい。
ネットワーク41を構成する通信ネットワークとして、いろいろな通信ネットワークを用いることができる。例えば、ネットワーク41は、ローカルエリアネットワーク(LAN:Local Area Network)、広域ネットワーク(WAN:Wide Area Network)のいずれか、または両者を含んで構成されてもよいが、これに限定されない。
例えば、結果集計表示装置22と結果蓄積DB221とが、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5と同一の建造物もしくは施設内にある場合、これら同一の建造物もしくは施設内にある各装置が、LANを用いて通信接続されてもよい。
また、結果集計表示装置21が、当該建造物もしくは施設から予め定めた距離内(例えば、20メートル(m)以内)にある場合も、結果集計表示装置21及び当該建造物もしくは施設内にある各装置が、LANを用いて通信接続されるようにしてもよい。
LANは、例えば、IEEE(Institute of Electrical and Electronics Engineers)802.3、IEEE802.11、IEEE802.15.1等、いずれの通信規格で規定された方式でもよい。
また、結果集計表示装置21、22、および結果蓄積DB221が、人数カウント装置10−1、年齢・性別推定装置10−2及び人感センサ10−3等と、WANを用いて通信接続されるようにしてもよい。
また、結果集計表示装置21、22、および結果蓄積DB221が、人数カウント装置10−1、年齢・性別推定装置10−2及び人感センサ10−3等と、WANを用いて通信接続されるようにしてもよい。
WANは、公衆通信網、インターネット、あるいはそれらの組み合わせであってもよい。公衆通信網は、光回線、ADSL(Asymmetric Digital Subscriber Line)などの固定網でもよいし、IMT−2000(International Mobile Telecommunication 2000)、LTE−Advanced(Long Term Evolution Advanced)などの移動網でもよい。
以上の構成により、結果集計表示装置21、22のいずれかを用いる観測者には、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5からの結果データが示す情報が提供される。ここでの観測者は、例えば店舗の店員である。観測者には、例えば、室内の人数、各人の年齢及び性別、各部屋の温度及び湿度、人が室内のどこにいるか、及び、画像データが示す画像などの情報が提供される。
上述したように、複数の異なる場所に設置された人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4及び温度センサ10−5からの結果データおよび画像データが、ネットワーク41を介して結果集計表示装置21、22または結果蓄積DB211、結果蓄積DB221に送信される。結果集計表示装置21、22の各々が、人数カウント装置10−1、年齢・性別推定装置10−2及び人感センサ10−3での人数カウント結果を集計し、集計により得られた情報を表示部に表示するようにしてもよい。
例えば、結果集計表示装置21、22が、店舗等への来客数を、時間毎、日付毎、季節毎、年毎及び天気毎など、環境の属性に応じて集計するようにしてもよい。結果集計表示装置21、22は、集計にて得られた情報を、表示部に表示する。ユーザは、集計された情報を参照して、適切な行動を行うことができる。例えば、集計された情報を、ユーザである店舗の店員が、製品及び品物の仕入れ数の計画、陳列の検討、及び、店員の人数及び配置の計画など、店舗における販売を促進するための戦略立案を行うのに役立てることができる。
結果集計表示装置21、22に通信接続される表示部は、ディスプレイ単体でもよいし、ディスプレイが組み込まれた他の電子機器であってもよい。例えば、結果集計表示装置21、22に通信接続される表示部は、テレビジョン受信装置、携帯電話機(スマートフォンを含む)、タブレット端末装置、又は、パーソナルコンピュータなどでもよい。
結果集計表示装置21、22に通信接続される表示部は、ディスプレイ単体でもよいし、ディスプレイが組み込まれた他の電子機器であってもよい。例えば、結果集計表示装置21、22に通信接続される表示部は、テレビジョン受信装置、携帯電話機(スマートフォンを含む)、タブレット端末装置、又は、パーソナルコンピュータなどでもよい。
〔検出データ管理装置の検出範囲〕
次に、本実施形態に係る検出データ管理装置1の構成例について説明する。
図3は、本実施形態に係る検出データ管理装置1が検出する検出範囲を示す図である。
人数カウント装置10−1のカメラ(撮像部)は、天井に鉛直下向きに設置されている。このカメラの光軸1011−1を中心とする撮像範囲内に、入室者14または退室者15の部屋11を入室したか(または退室したか)をカウントするための人数カウント境界401が設けられている。人数カウント境界401は、例えば、人数カウント装置10−1のカメラの撮像範囲内に、ドア13と平行にドアの横幅と同じ長さで設定された境界領域である。人数カウント装置10−1は、入室者14または退室者15が人数カウント境界401をまたいで超えた場合に、それぞれ入室のカウントを1加算、または退室のカウントを1加算し、その結果を出力する。
次に、本実施形態に係る検出データ管理装置1の構成例について説明する。
図3は、本実施形態に係る検出データ管理装置1が検出する検出範囲を示す図である。
人数カウント装置10−1のカメラ(撮像部)は、天井に鉛直下向きに設置されている。このカメラの光軸1011−1を中心とする撮像範囲内に、入室者14または退室者15の部屋11を入室したか(または退室したか)をカウントするための人数カウント境界401が設けられている。人数カウント境界401は、例えば、人数カウント装置10−1のカメラの撮像範囲内に、ドア13と平行にドアの横幅と同じ長さで設定された境界領域である。人数カウント装置10−1は、入室者14または退室者15が人数カウント境界401をまたいで超えた場合に、それぞれ入室のカウントを1加算、または退室のカウントを1加算し、その結果を出力する。
なお、上記説明では、人数カウント境界401は、光軸1011−1上にドア13と平行に設けられるとしたが、これに限定されない。人数カウント境界401は、人数カウント装置10−1のカメラの撮像範囲内であればどの位置に設けられていても良い。さらに、人数カウント境界401の向きはドア13と平行である必要はなく、入室者14または退室者15が通過したことを検知したい場所であれば前記撮像範囲のどこに設けられていてもよい。一方、人数カウント境界401が、入室者14または退室者15の移動方向と垂直となるように設けられていることによって、入室者14または退室者15は、人数カウント境界401を確実に早くまたぐことができる。これにより、カウントに掛かる時間を短縮し、カウントの誤検出を低減することができる。
図3では、入室者14の入室方向および退室者15の退室方向が人数カウント境界401に直交する一例を示している。人数カウント境界401は、図面奥行方向の(ドア13と平行の)境界線として設けられている。また、人数カウント境界401の図3の奥行方向の長さは、入室者及び退室者の通過を検出可能な長さに設定されていれば良く、ドア13の幅の長さである必要はない。
年齢・性別推定装置10−2は、部屋11のYZ平面に平行な壁のうち手前側の壁に設置されている。年齢・性別推定装置10−2のカメラ(撮像部)は、光軸を図3の奥行方向に向けて設置されている。
年齢・性別推定装置10−2が撮像する画像から、後述するように人の顔を検出する場合、年齢・性別推定装置10−2が横顔を撮像することで検出精度が低下してしまう可能性がある。そこで、1つのカメラで入室者および退室者の顔を検出する場合、撮像画像の右端の領域および左端の領域に顔を撮像するようにする。これにより、年齢・性別推定装置10−2が斜めから人の顔を撮像するようになり、横顔を撮像する場合よりも検出精度の向上が期待される。
年齢・性別推定装置10−2が撮像する画像から、後述するように人の顔を検出する場合、年齢・性別推定装置10−2が横顔を撮像することで検出精度が低下してしまう可能性がある。そこで、1つのカメラで入室者および退室者の顔を検出する場合、撮像画像の右端の領域および左端の領域に顔を撮像するようにする。これにより、年齢・性別推定装置10−2が斜めから人の顔を撮像するようになり、横顔を撮像する場合よりも検出精度の向上が期待される。
図3では入室者の顔を斜めから(なるべく正面寄りから)撮像するために、入室者の顔検出領域を図3上のドア13に近い側に設けている。同様に退室者の顔検出領域を、年齢・性別推定装置10−2から見てドア13と反対側に設けている。この位置関係となるように年齢・性別推定装置10−2を設置することで、入室者14および退室者15の顔をできるだけ正面の顔に近い向きで撮像する。これにより、顔、その人物の年齢、性別及び表情といった情報を比較的高精度に推定することが可能となる。さらに、年齢・性別推定装置10−2を、床17からの高さが人の顔の平均的な高さになるように設置する。これにより、年齢・性別推定装置10−2は、より確実に入室者または退室者の顔を顔検出可能領域内に撮像することができ、延いては年齢・性別等の検出精度を向上させることができる。
人感センサ10−3および10−6は、それぞれ部屋11の天井18にその検出方向を鉛直下向きに設置されている。人感センサ10−3及び10−6は、それぞれ、部屋11内に人がいるか、または部屋11内のどこにどれだけの人がいるかを検出する。
人感センサ10−3および10−6の検出範囲は、図3に灰色で示した検出外領域を除く領域である。部屋11の全体を網羅して検出する必要がある場合、部屋が広いときまたは天井が高いときは、1つの人感センサでは部屋全体を検出できない可能性がある。この場合、複数の人感センサを設置することで、部屋全体を検出し得る。図3では人感センサ10−3および10−6の2つのセンサを設置する場合の例について図示している。人感センサ10−3はドア13側の部屋半分を検出しており、人感センサ106は、ドア13と反対側(左側)の室内を検出している。それぞれの人感センサの検出範囲を重複するように設置することで、人が部屋のどこにいても検出することができる。
人感センサ10−3および10−6の検出範囲は、図3に灰色で示した検出外領域を除く領域である。部屋11の全体を網羅して検出する必要がある場合、部屋が広いときまたは天井が高いときは、1つの人感センサでは部屋全体を検出できない可能性がある。この場合、複数の人感センサを設置することで、部屋全体を検出し得る。図3では人感センサ10−3および10−6の2つのセンサを設置する場合の例について図示している。人感センサ10−3はドア13側の部屋半分を検出しており、人感センサ106は、ドア13と反対側(左側)の室内を検出している。それぞれの人感センサの検出範囲を重複するように設置することで、人が部屋のどこにいても検出することができる。
図3では、入室者14がドア13を通って入室した場合、人数カウント装置10−1が入室者を1人と計測し、年齢・性別推定装置10−2が、入室者の年齢および性別を推定する。さらに、人感センサ10−3及び10−6の組み合わせにて、入室者が部屋のどこにどれだけの時間滞在したかといった情報を検出することができる。また、退室者15についても同様に検出することで、退室者15が室内のどこにどれだけの時間滞在したか、いつ部屋を退室したか、退室者数は何人かといった情報を検出することができる。人数カウント装置10−1が計測した入室者数および退室者数を集計することにより、部屋11内に何人の人が滞在しているか、累計の入室者数は何人かといった情報を算出することが可能となる。人数カウント装置10−1、年齢・性別推定装置10−2、及び、人感センサ10−3、10−6は、これら検出データをその検出データの検出時間情報とともに、結果集計表示装置21および22に送信する。結果集計表示装置21及び22が、これら検出データを時系列のデータとしてグラフ等で表示することで、ユーザは、部屋11の利用状況を一目で確認することができる。
検出データ管理装置1を、幅広い分野でのマイニングデータ(例えば、マーケティングデータ)の取得に用いることができる。例えば、検出データ管理装置1を、店舗、公共交通機関、又は、テーマパークなどの施設内に設けるようにしてもよい。あるいは、検出データ管理装置1を、車両混雑状況や工場の不良率計測など、物体の個数を数える用途に用いるようにしてもよい。検出データ管理装置1を用いて、施設等の利用状況の傾向をつかむことができる。また、検出データ管理装置1を用いて得られた情報を解析することで、販売物の仕入れや売り場の検討、道路の混雑状況の把握、室内に残っている人の把握といったセキュリティの把握などを行うことが可能となる。さらには、検出データ管理装置1を用いて得られた情報の解析結果に基づいて、設備や運用の最適化を図ることができる。例えば、販売物の仕入れや売り場の検討結果に基づいて、仕入れ先、仕入れ量、仕入れ時期、売り場の配置等の最適化を図り、これによって利益率の向上を図ることができる。また、道路の混雑状況の解析結果に基づいて、道路整備計画における道路の配置及び規模、信号機など付帯設備の配置及び運用方法等の最適化を図り、これによって混雑の解消を図ることができる。
図4は、年齢・性別推定装置10−2の検出範囲の例を示す説明図である。図4では、年齢・性別推定装置10−2の検出範囲を、天井18側から床17側を見た図で示している。床17は、XZ平面に平行である。
年齢・性別推定装置10−2のカメラの光軸1011−2は、X軸と平行に図4の下から上に向っている。図3を参照して説明したのと同様、入室者の顔検出可能領域は、ドア13に近い側(右側)に設定されている。また、退室者の顔検出可能領域は、入室者の顔検出可能領域よりもドア13から遠い側(左側)に設定されている。図4でも、入室者の顔検出可能領域が右側(Z軸正方向)に示され、退室者の顔検出可能領域が左側(Z軸負方向)に示されている。
年齢・性別推定装置10−2のカメラの光軸1011−2は、X軸と平行に図4の下から上に向っている。図3を参照して説明したのと同様、入室者の顔検出可能領域は、ドア13に近い側(右側)に設定されている。また、退室者の顔検出可能領域は、入室者の顔検出可能領域よりもドア13から遠い側(左側)に設定されている。図4でも、入室者の顔検出可能領域が右側(Z軸正方向)に示され、退室者の顔検出可能領域が左側(Z軸負方向)に示されている。
人4−1〜4−8は、それぞれ天井側から見た人の頭部(頭及び顔)位置で、人の位置を表している。人(頭部)4−1〜4−8の各々は、円と、円に接している直線(線分)と、直線に垂直な矢印との組み合わせで表されている。人(頭部)4−1〜4−8の円は、頭部の位置の概略を表す。また、円に接している直線は、顔の向きを表している。具体的には、円で示される頭部の位置のうち、直線で示される向きに顔面があることを示している。この直線と垂直な矢印は、顔の正面の向きを表している。
人4−1は、入室者を示す人4−1〜4−5のうち、年齢・性別推定装置10−2の位置からドア13の方向(Z軸正方向)へ最も遠く、光軸1011−2の方向(X軸正方向)に最も遠い位置を通過している。Z軸正方向における人4−1〜4−3と年齢・性別推定装置10−2との距離はいずれも同一である。X軸正方向に関しては、年齢・性別推定装置10−2から近い順に人4−3、4−2、4−1となっている。
人4−1〜4−3の各々の顔の正面の向きと、顔の位置から年齢・性別推定装置10−2のカメラの位置への向きとのなす角度は、人4−1の場合が最も大きく、人4−2、4−3の順に小さくなる。このように、X軸正方向において人の通過位置が年齢・性別推定装置10−2に近いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなり、カメラの撮像画像では、より正面を向いた顔が撮像されることになる。そのため、X軸正方向の距離がカメラに近いほど、顔の検出および年齢、性別の検出精度が向上する。
X軸正方向における人4−2、4−4、4−5と年齢・性別推定装置10−2との距離はいずれも同一である。Z軸正方向の距離に関しては、年齢・性別推定装置10−2から近い順に人4−5、4−4、4−2となっている。
人4−2、4−4、4−5の各々の顔の正面の向きと、顔の位置から年齢・性別推定装置10−2のカメラの位置への向きとのなす角度は、人4−5の場合が最も大きく、人4−4、4−2の順に小さくなる。このように、Z軸正方向において、人の通過位置が年齢・性別推定装置10−2に遠いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなり、カメラの撮像画像では、より正面を向いた顔が撮像されることになる。
人4−2、4−4、4−5の各々の顔の正面の向きと、顔の位置から年齢・性別推定装置10−2のカメラの位置への向きとのなす角度は、人4−5の場合が最も大きく、人4−4、4−2の順に小さくなる。このように、Z軸正方向において、人の通過位置が年齢・性別推定装置10−2に遠いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなり、カメラの撮像画像では、より正面を向いた顔が撮像されることになる。
同様に、退室者の顔検出可能領域では、人4−7と4−8とでは、Z軸負方向における年齢・性別推定装置10−2のカメラとの距離は同一である。X軸正方向に関しては、人4−8の方が人4−7よりも年齢・性別推定装置10−2に近い。X軸正方向の距離が近いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなっている。
また、人4−7と4−6とでは、X軸正方向におけるカメラとの距離は同一である。Z軸負方向に関しては、人4−6の方が人4−7よりもカメラに近い。Z軸負方向の距離が遠いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなっている。
また、人4−7と4−6とでは、X軸正方向におけるカメラとの距離は同一である。Z軸負方向に関しては、人4−6の方が人4−7よりもカメラに近い。Z軸負方向の距離が遠いほど、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度は小さくなっている。
以上のような顔とカメラとの位置関係に基づいて、年齢・性別推定装置10−2における顔検出可能領域を、入室者、退室者それぞれについて予め設定しておく。年齢・性別推定装置10−2は、顔検出可能領域に位置する人の顔を撮像して年齢及び性別等を推定する。図4の例では、X軸方向に所定の範囲、かつ、Z軸方向に所定の範囲に、顔検出可能領域が設定されている。図4の例における顔検出可能領域は、カメラの撮像画像の右側および左側の領域となっており、撮像画像の中心の領域は顔検出可能領域から除外されている。撮像画像の中心の領域では、横顔に近くなってしまうからである。一方、カメラの撮像画像の右端に近いほど、または左端に近いほど、顔の正面に近い画像を撮像できる。
また、図4のX軸方向は、カメラから奥行方向(光軸1011−2の方向)となっている。X軸方向に顔検出可能領域の制限を設けることで、ある一定距離より奥側の距離の領域を顔検出可能領域から除外している。
また、図4のX軸方向は、カメラから奥行方向(光軸1011−2の方向)となっている。X軸方向に顔検出可能領域の制限を設けることで、ある一定距離より奥側の距離の領域を顔検出可能領域から除外している。
以上のように、年齢・性別推定装置10−2における顔検出可能領域を予め設定しておく。これにより、年齢・性別推定装置10−2は、入室者及び退室者がZ軸方向を向いている場合に、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度が所定の閾値以下となる撮像画像を得られる。特に、X軸方向に関しては人とカメラとの距離が近いほど、Z軸方向に関しては人とカメラとの距離が遠いほど、顔の正面に近い画像を撮像することができる。
図4に示すように、年齢・性別推定装置10−2のカメラの光軸1011−2の方向が入室者及び退室者の通過方向と垂直となる向きにカメラを設置する。そして、上記のように、カメラの撮像画像の端寄りの位置に入場者、退場者それぞれの顔を撮像するように顔検出可能領域を設定しておく。これにより、年齢・性別推定装置10−2は、1つのカメラで、通過方向が互いに反対の方向である入場者及び退場者のいずれも比較的正面に近い向きで撮像して、顔、年齢および性別といった情報を検出することができる。
年齢・性別推定装置10−2が備えるカメラが1つでよい点で、年齢・性別推定装置10−2の製造コスト、及び、カメラの設置コストを低減させることができる。また、カメラを1箇所に設置すればよい点で、カメラ設置の自由度を広げることができる。
また、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度が所定の閾値以下になるように顔検出可能領域を設定しておく。顔検出可能領域の設定により、年齢・性別推定装置10−2が顔等の検出のために顔を撮像する領域を限定する。これにより、出入り口の大きさ(例えば、ドア13の幅)に合わせて、最適な画像処理のための撮像領域を設定することができる。この点で、年齢・性別推定装置10−2が顔を検出する計算コストを低減させることができる。
また、顔の正面の向きと、顔の位置からカメラの位置への向きとのなす角度が所定の閾値以下になるように顔検出可能領域を設定しておく。顔検出可能領域の設定により、年齢・性別推定装置10−2が顔等の検出のために顔を撮像する領域を限定する。これにより、出入り口の大きさ(例えば、ドア13の幅)に合わせて、最適な画像処理のための撮像領域を設定することができる。この点で、年齢・性別推定装置10−2が顔を検出する計算コストを低減させることができる。
〔人数カウント方法〕
次に、本実施形態に係る人数カウント方法について説明する。
図5は、人数カウント装置10−1のカメラ(撮像部)が撮像した撮像画像の他の例を示す図である。図5は、ドア13から入室者14が部屋11に入室し、退室者15が部屋11からドア13を通過して退室しようとする状況を表す。
視野309内に、人数カウント境界401(斜線の領域)、入室動き検出領域501(破線の矩形領域)、及び退室動き検出領域502(実線の矩形領域)が設定されている。入室動き検出領域501、退室動き検出領域502は、それぞれ入室者14、退室者15の動きを検出するための領域である。
次に、本実施形態に係る人数カウント方法について説明する。
図5は、人数カウント装置10−1のカメラ(撮像部)が撮像した撮像画像の他の例を示す図である。図5は、ドア13から入室者14が部屋11に入室し、退室者15が部屋11からドア13を通過して退室しようとする状況を表す。
視野309内に、人数カウント境界401(斜線の領域)、入室動き検出領域501(破線の矩形領域)、及び退室動き検出領域502(実線の矩形領域)が設定されている。入室動き検出領域501、退室動き検出領域502は、それぞれ入室者14、退室者15の動きを検出するための領域である。
人数カウント境界401は、人数カウント装置10−1の人数カウント処理部102(後述)により、上述したように入室者14、退室者15の動きに基づいて入退室者数を計数する領域である。図5に示す例では、人数カウント境界401は、入室動き検出領域501と、退室動き検出領域502とが重なり合う領域である。
人数カウント装置10−1の動き検出部1021(後述)は、人数カウント処理に先立ち、入室動き検出領域501に含まれる入室者14の画像の動き、退室動き検出領域502に含まれる退室者15の画像の動きの一方または両方を検出する。そして、人数カウント装置10−1の動き検出部1021(後述)は、検出した人数カウント境界401内に表される画像に基づいて入室者14と退室者15の数をカウントする。なお、以下の説明では、入室及び退室を入退室と総称することがある。
人数カウント装置10−1の動き検出部1021(後述)は、人数カウント処理に先立ち、入室動き検出領域501に含まれる入室者14の画像の動き、退室動き検出領域502に含まれる退室者15の画像の動きの一方または両方を検出する。そして、人数カウント装置10−1の動き検出部1021(後述)は、検出した人数カウント境界401内に表される画像に基づいて入室者14と退室者15の数をカウントする。なお、以下の説明では、入室及び退室を入退室と総称することがある。
入室動き検出領域501、退室動き検出領域502は、それぞれ部屋11内に設定される3次元の領域である第1領域501’、第2領域502’(図示せず)を撮像画像に投影してなる2次元の領域である。図5に示す例では、入室動き検出領域501、退室動き検出領域502の形状は、それぞれ矩形であり、人数カウント境界401の水平方向の幅だけ重なり合うように、撮像画像の水平方向(特にZ方向)にずれた位置に配置されている。入室動き検出領域501、退室動き検出領域502の水平方向の辺の長さは、それぞれ動き検出部1021が人の動きを検出するのに要する時間内に入室者14、退室者15が進行する距離に相当する長さである。垂直方向の辺の長さは、それぞれドア13の幅に相当する長さである。
次に、入退室動き検出処理について説明する。
図6は、本実施形態に係る入退室動き検出処理を説明するための図である。図6は、図5に示す入室動き検出領域501、退室動き検出領域502、人数カウント境界401をいずれも含む拡大図である。動き検出部1021は、入室動き検出領域501、退室動き検出領域502のそれぞれで撮像された動画像における複数フレーム分の画像を用いてパターンマッチングによる動き検出を行う。動き検出部1021が、動画像の複数フレームに代えて、異なるタイミングで撮像された複数の静止画像を用いてパターンマッチングによる動き検出を行うようにしてもよい。
図6は、本実施形態に係る入退室動き検出処理を説明するための図である。図6は、図5に示す入室動き検出領域501、退室動き検出領域502、人数カウント境界401をいずれも含む拡大図である。動き検出部1021は、入室動き検出領域501、退室動き検出領域502のそれぞれで撮像された動画像における複数フレーム分の画像を用いてパターンマッチングによる動き検出を行う。動き検出部1021が、動画像の複数フレームに代えて、異なるタイミングで撮像された複数の静止画像を用いてパターンマッチングによる動き検出を行うようにしてもよい。
以下、動き検出部1021が行う入退室動き検出処理について、より詳細に説明する。
(1) まず、動き検出部1021は、入室動き検出領域501及び退室動き検出領域502を撮像した動画像の各フレーム(動画像を構成する各時刻の画像)から人の画像を検出する。具体的には、動き検出部1021は、各フレームのうち、入室動き検出領域501、退室動き検出領域502のそれぞれを撮像した部分の画像に対して、予め設定された参照パターンとパターンマッチングを行う。動き検出部1021は、パターンマッチングにより、各時刻の画像に含まれる入室動き検出領域501、退室動き検出領域502のそれぞれから参照パターンと一致または類似する部分に相当する人の画像を検出する。
(2) そして、動き検出部1021は、各フレームを時系列に参照して、各時刻において入室動き検出領域501、退室動き検出領域502のそれぞれから検出した人の画像の動きを検出し、検出した動きを示す動き情報を生成する。
(1) まず、動き検出部1021は、入室動き検出領域501及び退室動き検出領域502を撮像した動画像の各フレーム(動画像を構成する各時刻の画像)から人の画像を検出する。具体的には、動き検出部1021は、各フレームのうち、入室動き検出領域501、退室動き検出領域502のそれぞれを撮像した部分の画像に対して、予め設定された参照パターンとパターンマッチングを行う。動き検出部1021は、パターンマッチングにより、各時刻の画像に含まれる入室動き検出領域501、退室動き検出領域502のそれぞれから参照パターンと一致または類似する部分に相当する人の画像を検出する。
(2) そして、動き検出部1021は、各フレームを時系列に参照して、各時刻において入室動き検出領域501、退室動き検出領域502のそれぞれから検出した人の画像の動きを検出し、検出した動きを示す動き情報を生成する。
パターンマッチングにおいて、動き検出部1021は、各フレームの入室動き検出領域501、退室動き検出領域502の所定範囲内に配置された複数の代表領域のそれぞれについて、参照パターンと各代表領域を基準として撮像画像に設定された領域との類似度を示す指標値を算出する。この指標値は、値が小さいほど画像が参照パターンに類似することを示す。動き検出部1021は、所定範囲内に配置された代表領域のそれぞれについて算出した指標値のうち、最も類似することを示す指標値を選択する。動き検出部1021は、選択した指標値が所定の指標値の閾値以下である場合、人を検出できると判定する。その場合、動き検出部1021は、選択した指標値に係る代表領域の座標(例えば、中心座標)を特定する。一方、動き検出部1021は、選択した指標値が所定の指標値の閾値よりも大きい場合、人を検出できなかったと判定する。
動き検出部1021は、動きを検出する際、例えば、オプティカルフローによる動き検出(後述)を行う。動き検出部1021が、検出した移動量で移動方向に順次ずれて検出された人の画像を統合することによって、移動する人の軌跡を生成するようにしてもよい。なお、以下の説明では、軌跡とは、移動に伴って変化する被写体が占める領域の集合を意味する。軌跡は、例えば、フレーム時刻毎の被写体が占める領域内の座標のセットによって表わされる。また、軌道とは、被写体の移動を表す経路を意味する。軌道は、一定の領域の代表点(例えば、重心)の時刻毎の座標の時系列によって表される。一定の領域は、検出した人の画像に含まれる各マクロブロック(後述)であってもよいし、人の画像が表される領域全体であってもよい。
図6に示す例では、入室動き検出領域501、退室動き検出領域502に表される空間において、それぞれ入室者14、退室者15が、等速で進行している。入室者14の進行方向はドア13から離れる方向である。退室者15の進行方向は、ドア13に向かう方向である。人の進行方向は、この2通りである。そこで、動き検出部1021は、動き方向を検出するためのパターンマッチングにおいて、人の動きを表すモデルデータとして入室参照パターンと退出参照パターンの計2パターンを用いる。
入室参照パターン、退室参照パターンは、それぞれ人が入室、退室する動きを表す2次元の座標値を含んで構成される参照パターンである。ここでの座標値は、軌道の座標を示す。例えば、ここでの座標値は、フレーム時刻毎の参照パターンの代表点の座標の時系列を示す。入室参照パターンに含まれる軌道を示す各時刻のZ座標値は時間経過とともに減少する。一方、退室参照パターンに含まれる軌道を示す各時刻のZ座標値は時間経過とともに増加する。
Z座標値は、Z方向の座標値を意味する。なお、人の動きが等速直線運動であると仮定する場合、軌道の座標に代えてもしくは当該座標とともに、例えば、単位時間当たりのZ座標値の変化量と代表点の座標の初期値との組が入室参照パターン、退室参照パターンの各々に含まれていてもよい。
なお、入室参照パターン、退出参照パターンは、それぞれ複数個設定されていてもよい。複数の入室参照パターンの間もしくは複数の退室参照パターンの間では、例えば、移動速度と参照パターンの代表点の位置との一方または両方が異なる。
なお、入室参照パターン、退出参照パターンは、それぞれ複数個設定されていてもよい。複数の入室参照パターンの間もしくは複数の退室参照パターンの間では、例えば、移動速度と参照パターンの代表点の位置との一方または両方が異なる。
人数カウント装置10−1の特定方向動き情報検出部1023(後述)は、例えば、動き情報が示す人の画像の動きの時系列と一致または最も類似する軌道を示す入室参照パターンまたは退出参照パターンを選択する。特定方向動き情報検出部1023は、例えば、予め設定された入室参照パターン、退室参照パターンが示す軌道上を移動する画像の軌跡と、動き検出部1021により撮像画像から検出された動きに基づいて移動する人の画像の軌跡とのパターンマッチングを行う。
なお、以上では、動き検出部1021が動き検出の前にパターンマッチングを行う場合を例に説明したが、動き検出部1021が、動き検出の後にパターンマッチングを行うようにしてもよい。例えば、動き検出部1021は、画素単位のオプティカルフローで動きがあった領域を検出する。そして、動き検出部1021は、検出した領域(動きがあった領域)に対してパターンマッチングを行い、該当領域の画像が人の画像か否かを判定する。このように動き検出部1021が動き検出の後にパターンマッチングを行うことで、パターンマッチングの処理量の削減、及び、パターンマッチング精度の向上を図ることができる。
特定方向動き情報検出部1023は、それぞれ撮像画像が表す人の動きに最も類似する軌跡を表す入室参照パターン、退室参照パターンを選択する。特定方向動き情報検出部1023は、指標値として、例えば、SAD(Sum of Absolute Differences)、SSD(Sum of Squared Differences)などのいずれかを利用することができる。SAD、SSDは、いずれもその値が小さいほど類似度が高いことを示す指標値である。そして、特定方向動き情報検出部1023は、各参照パターンについて算出した指標値が最も小さい入室参照パターン、退室参照パターンを選択する。
特定方向動き情報検出部1023は、選択した入室参照パターン、退室参照パターンを用いて軌跡を構成する。なお、1つの撮像画像には、複数人の動きをそれぞれ示す軌跡が含まれることがある。人数カウント装置10−1の通過人数カウント部1025が、選択された入室参照パターン、退室参照パターンによって得られる軌跡群を、人数カウント境界401における入退室者数のカウント処理(後述)に用いるようにしてもよい。ここでいう軌跡群とは、直進する、右に曲がるといった軌跡パターンを示す各フレーム間の人の軌跡情報であり、1つ以上の軌跡情報から構成されるものである。
次に、入室者数のカウント処理について説明する。人数カウント装置10−1の通過人数カウント部1025は、退室者についても、入室者と同様のカウント処理を実行することによって退室者数をカウントすることができる。
図7は、本実施形態に係る入室者数のカウント処理を示す図である。入室者のカウント処理として、例えば、次の2通り(1)、(2)のいずれを実行するようにしてもよい。
図7は、本実施形態に係る入室者数のカウント処理を示す図である。入室者のカウント処理として、例えば、次の2通り(1)、(2)のいずれを実行するようにしてもよい。
カウント方法(1)は、上述の入退室動き検出処理で得られた軌跡群に基づく面積を用いて、入室者数をカウントする方法である。通過人数カウント部1025は、所定の時間t毎に、入室参照パターンと一致する撮影画像から得られた軌跡群に対応する入室者14の画像の面積のうち人数カウント境界401に含まれる部分の面積を求める。人数カウント装置10−1は、時間t毎に算出した面積が所定の大きさ以上である期間が、所定のフレーム数続く場合、一人の入室者14が通過したとして人数をカウントアップする。
同様に算出した面積が上記の所定の大きさの2倍である場合は、二人の入室者14が通過したとして、人数を2つカウントアップする。これは、入室者が人数カウント境界401に対し横に並んで入室したときである。同様に算出した面積が上記の所定の大きさのn倍である場合は、n人の入室者が通過したとして人数をnだけカウントアップする。
また、算出した面積が上記の所定のフレーム数の2倍続く場合は、二人の入室者14が順に通過したとして、人数を1ずつ2回カウントアップする。これは入室者が人数カウント境界301に対して縦に並んで順に入室したときである。同様に算出した面積が上記の所定のフレーム数のm倍続く場合は、m人の入室者14が順に通過したとして、人数を1ずつm回カウントアップする。
通過人数カウント部1025は、(1)のカウント方法により、1名又は複数名の入室者14が人数カウント境界401を通過したことを検出する。人数カウント装置10−1は、検出した入室者14の数だけ、部屋11内の人数を増加させる。
同様に算出した面積が上記の所定の大きさの2倍である場合は、二人の入室者14が通過したとして、人数を2つカウントアップする。これは、入室者が人数カウント境界401に対し横に並んで入室したときである。同様に算出した面積が上記の所定の大きさのn倍である場合は、n人の入室者が通過したとして人数をnだけカウントアップする。
また、算出した面積が上記の所定のフレーム数の2倍続く場合は、二人の入室者14が順に通過したとして、人数を1ずつ2回カウントアップする。これは入室者が人数カウント境界301に対して縦に並んで順に入室したときである。同様に算出した面積が上記の所定のフレーム数のm倍続く場合は、m人の入室者14が順に通過したとして、人数を1ずつm回カウントアップする。
通過人数カウント部1025は、(1)のカウント方法により、1名又は複数名の入室者14が人数カウント境界401を通過したことを検出する。人数カウント装置10−1は、検出した入室者14の数だけ、部屋11内の人数を増加させる。
図7に示す例において、塗りつぶしで表される領域は、時刻T−1において監視される入室者14の画像のうち人数カウント境界401内に含まれる部分を表す。通過人数カウント部1025は、この領域の面積が人数カウント境界401の面積に占める割合にも御づいて、入室者14のカウントを行うか否かを判定する。なお、人数カウント装置10−1は、入室参照パターンによって得られる軌跡に代えて、退室参照パターンに基づく軌跡に対して上記と同様の処理を実行することによって、退室者数をカウントすることができる。
但し、カウント方法(1)では、通過人数カウント部1025が、軌跡群を構成する画像の面積に着目するため、人数カウント境界401の面積が入室者14または退室者15に対応する画像の面積よりも大きい必要がある。そのため、人数カウント装置10−1のカメラ(撮像部)から被写体までの距離が小さい場合には、被写体全体が大きく撮影されるため、撮像画像における入室者14または退室者15の画像上の面積が人数カウント境界401の大きさと比較し相対的に大きくなる。反対に、撮像部から被写体までの距離が大きい場合は、被写体全体が小さく撮像されるため、入室者14または退室者15の画像上の面積が人数カウント境界401の大きさと比較し相対的に小さくなる。つまり、撮像部と入室者14または退室者15との距離によって人数カウント境界401の大きさを調整する必要が発生し、撮像部を設定する環境に合わせ、撮像部の設置者が都度、人数カウント境界401の大きさを設定し直す必要があるため、使い勝手が悪いといった問題がある。また、人数カウント境界401の大きさを固定とした場合は、撮像部の設置位置(高さ)によって、人の通過を正しく検出できないことがある。
そこで、カウント方法(2)は、人数カウント境界401の面積によらず、パターンマッチングで得られた軌跡群の重心を用いて、入室者数をカウントする方法である。通過人数カウント部1025において、人数カウント境界401のZ軸の正方向もしくは負方向の外縁である入室動き検出領域501または退室動き検出領域502に接する線を境界線として設定しておく。図7に示す例では、境界線として人数カウント境界401が退室動き検出領域502に外接する境界線を予め入室判定境界線511として設定しておく。通過人数カウント部1025は、入室参照パターンによって得られる軌跡に対応する入室者14の画像の重心を算出する。そして、通過人数カウント部1025は、算出した重心が入室判定境界線511を超えるとき、入室者14の人数としてカウントし、部屋11内の人数を1増加させる。
また、図7に例示されるように、通過人数カウント部1025において、人数カウント境界401が入室動き検出領域501に外接する線を予め退室判定境界線512として設定しておく。通過人数カウント部1025は、退室参照パターンによって得られる軌跡に対応する退室者15の画像の重心を算出する。そして、通過人数カウント部1025は、算出した重心が退室判定境界線512を超えるとき、退室者15の人数としてカウントし、部屋11内の人数を1減少させる。
以上、入退室者の画像の動きを認識するための手法について、パターンマッチングを用いて入退場者の軌跡群を求める場合を例に説明した。但し、動き検出部1021が、入退室者の画像の動きを示す軌跡群を取得する方法として、いろいろな方法を用いることができる。例えば、動き検出部1021が、オプティカルフロー又は機械学習を用いた人のトラッキングによって入退場者の軌跡群を求めるようにしてもよい。
また、図7に示す例では、人数カウント境界401は、少なくとも人の胴体部を含んだ大きさとなるように設定する必要がある。人数カウント境界401を、撮像画像の中央座標から離れて設定すればするほど、人の全身が撮影されるようになるため、斜めに撮影された人の胴体部の分だけ人数カウント境界401の大きさを大きくする必要がある。人数カウント境界401における撮像画像上の人の通過の検出に要する時間は、撮像部が撮像するフレームレートに依存する。そのため、人数カウント境界401の人の進行方向の幅、つまり図7上のZ軸方向の長さは、典型的な人の移動速度と撮像部のフレームレートに応じて、人の画像上の移動距離よりも大きくすることが必要である。
また、図7に示す例では、人数カウント境界401は、少なくとも人の胴体部を含んだ大きさとなるように設定する必要がある。人数カウント境界401を、撮像画像の中央座標から離れて設定すればするほど、人の全身が撮影されるようになるため、斜めに撮影された人の胴体部の分だけ人数カウント境界401の大きさを大きくする必要がある。人数カウント境界401における撮像画像上の人の通過の検出に要する時間は、撮像部が撮像するフレームレートに依存する。そのため、人数カウント境界401の人の進行方向の幅、つまり図7上のZ軸方向の長さは、典型的な人の移動速度と撮像部のフレームレートに応じて、人の画像上の移動距離よりも大きくすることが必要である。
〔検出データ管理装置の構成〕
次に本実施形態に係る人数カウント装置の構成について説明する。
図8は、本実施形態に係る検出データ管理装置1の機能構成を表す概略ブロック図である。
〔人数カウント装置の構成〕
人数カウント装置10−1は、撮像部101と、人数カウント処理部102と、カウント結果送信部103とを含んで構成される。なお、人数カウント装置10−1は、人数カウント処理部102とカウント結果送信部103とを含んで構成されていれば、撮像部101とは別体であってもよい。図8に示す検出データ管理装置1は、n個の人数カウント装置10−1(1)〜10−1(n)(nは、n≧1の予め定めた整数)を含んで構成されていても良い(図示はなし)。人数カウント装置10−1(1)〜10−1(n)の構成は、それぞれ人数カウント装置10−1と同様な構成を有する。人数カウント装置10−1(1)〜10−1(n)は、それぞれネットワーク41に通信接続され、相互にデータの送受信が可能である。従って、図8では、人数カウント装置10−1(1)〜10−1(n)は、それぞれカウントした人数を示す結果データをネットワーク41に通信接続された機器に送信することができる構成の一例を示している。
次に本実施形態に係る人数カウント装置の構成について説明する。
図8は、本実施形態に係る検出データ管理装置1の機能構成を表す概略ブロック図である。
〔人数カウント装置の構成〕
人数カウント装置10−1は、撮像部101と、人数カウント処理部102と、カウント結果送信部103とを含んで構成される。なお、人数カウント装置10−1は、人数カウント処理部102とカウント結果送信部103とを含んで構成されていれば、撮像部101とは別体であってもよい。図8に示す検出データ管理装置1は、n個の人数カウント装置10−1(1)〜10−1(n)(nは、n≧1の予め定めた整数)を含んで構成されていても良い(図示はなし)。人数カウント装置10−1(1)〜10−1(n)の構成は、それぞれ人数カウント装置10−1と同様な構成を有する。人数カウント装置10−1(1)〜10−1(n)は、それぞれネットワーク41に通信接続され、相互にデータの送受信が可能である。従って、図8では、人数カウント装置10−1(1)〜10−1(n)は、それぞれカウントした人数を示す結果データをネットワーク41に通信接続された機器に送信することができる構成の一例を示している。
撮像部101は、撮像画像を表す画像信号を生成し、生成した画像信号を人数カウント処理部102に出力する。撮像部101は、例えば、被写体から入射された光を焦点に集光するレンズを備えた光学系と、集光された光を電気信号に変換する撮像素子を備えるカメラである。撮像部101が備える撮像素子は、例えば、CCD(Charge Coupled Device)素子、又は、CMOS(Complementary Metal Oxide Semiconductor)素子である。なお、撮像部101が人数カウント処理部102に画像信号を送信する伝送方式は特定の方式に依存せず、いろいろな方式を用いることができる。
人数カウント処理部102は、撮像部101から入力された画像信号に基づいて人の画像を表す領域の動きを検出し、検出した動きが特定の移動方向に移動する領域を検出する。人数カウント処理部102は、検出した人の画像を表す領域が所定のカウント領域を通過するとき通過人数をカウントする。図5の例では人数カウント境界401が所定のカウント領域の例に該当する。
人数カウント処理部102は、例えば、撮像画像に変化がある領域を移動する人の画像が表された領域と判定する。さらに例えば、人数カウント処理部102は、画像信号が示す撮像された時刻の時系列順に複数の画像を比較する。そして、人数カウント処理部102は、複数の撮像画像の部分領域毎に動き量が所定の動き量よりも大きい領域を検出する。人数カウント処理部102は、検出した領域を、人の画像が表された領域と判定する。
次に、人数カウント処理部102は、所定時間内における移動する人の画像を表す領域を累積して、人の動きを表す軌跡を検出する。人数カウント処理部102は、人の画像を表す領域が、予め定められた領域を通過するときに、通過人数をカウントする。通過人数のカウントの際、人数カウント処理部102は、算出した動き情報から、特定の移動方向(例えば、出入口を示す境界線と垂直な方向)への動きを検出する。人数カウント処理部102は、検出した動きが所定のカウント領域を所定の時間の範囲内に通過したと判定したとき、通過人数をカウントする。人数カウント処理部102は、カウントした通過人数を示す検出情報をカウント結果送信部103に出力する。
なお、人数カウント処理部102が、撮像部101から入力された画像信号に基づき、人のいる位置及び動き量の検出、人の性別及び年齢の検出、個人の識別、人が向いている方向、移動方向及び表情等の検出を行うようにしてもよい。また、人数カウント処理部102が、人の行動の種類(例えば、直立、着座、睡眠、番組の視聴、読書などを含む)を検出するようにしてもよい。そして、人数カウント処理部102は、検出結果及び識別結果を示す検出情報を出力するようにしてもよい。
カウント結果送信部103は、人数カウント処理部102から入力される検出情報を人数カウント装置10−1からの出力情報としてネットワーク41に通信接続された機器に送信する。送信先の機器は、例えば、結果集計表示装置21及び22(図2)である。
〔ネットワーク41の構成〕
ネットワーク41は、機器間で各種のデータを伝送する。ネットワーク41は、LAN(Local Area Network)、WAN(Wide Area Network)、シリアル通信アーキテクチャ、のいずれか、またはこれらの任意の組み合わせであってもよい。ネットワーク41は、有線、無線、またはこれらの組み合わせであってもよい。
ネットワーク41は、機器間で各種のデータを伝送する。ネットワーク41は、LAN(Local Area Network)、WAN(Wide Area Network)、シリアル通信アーキテクチャ、のいずれか、またはこれらの任意の組み合わせであってもよい。ネットワーク41は、有線、無線、またはこれらの組み合わせであってもよい。
〔年齢・性別推定装置の構成〕
年齢・性別推定装置10−2は、撮像部101−2と、顔検出・年齢・性別推定処理部102−2と、推定結果送信部103−2とを含んで構成される。なお、年齢・性別推定装置10−2は、顔検出・年齢・性別推定処理部102−2と、推定結果送信部103−2とを含んで構成されていれば、撮像部101−2とは別体であってもよい。図8に示す検出データ管理装置1は、m個の年齢・性別推定装置10−2(1)〜10−2(m)(mは、m≧1の予め定められた整数)を含んで構成されても良い(図示はなし)。年齢・性別推定装置10−2(1)〜10−2(m)の構成は、それぞれ年齢・性別推定装置10−2と同様である。年齢・性別推定装置10−2(1)〜10−2(m)は、それぞれネットワーク41に通信接続され、相互にデータの送受信が可能である。すなわち図8では、年齢・性別推定装置10−2(1)〜10−2(m)が、それぞれ検出した人の年齢及び性別等の結果データをネットワーク41に通信接続された機器に送信することができる構成の一例を示している。
撮像部101−2については、前述の撮像部101と同様であるため、詳細な説明は省略する。
年齢・性別推定装置10−2は、撮像部101−2と、顔検出・年齢・性別推定処理部102−2と、推定結果送信部103−2とを含んで構成される。なお、年齢・性別推定装置10−2は、顔検出・年齢・性別推定処理部102−2と、推定結果送信部103−2とを含んで構成されていれば、撮像部101−2とは別体であってもよい。図8に示す検出データ管理装置1は、m個の年齢・性別推定装置10−2(1)〜10−2(m)(mは、m≧1の予め定められた整数)を含んで構成されても良い(図示はなし)。年齢・性別推定装置10−2(1)〜10−2(m)の構成は、それぞれ年齢・性別推定装置10−2と同様である。年齢・性別推定装置10−2(1)〜10−2(m)は、それぞれネットワーク41に通信接続され、相互にデータの送受信が可能である。すなわち図8では、年齢・性別推定装置10−2(1)〜10−2(m)が、それぞれ検出した人の年齢及び性別等の結果データをネットワーク41に通信接続された機器に送信することができる構成の一例を示している。
撮像部101−2については、前述の撮像部101と同様であるため、詳細な説明は省略する。
顔検出・年齢・性別推定処理部102−2は、撮像部101−2から入力された画像信号に基づいて画像から顔や人物を検出する。顔検出・年齢・性別推定処理部102−2は、検出した顔または人物の領域から抽出した特徴量を用いて、人の年齢、性別、個人ID、表情、人体の部位及び位置のうちいずれか又はこれらの組み合わせと言った情報を検出する。顔検出・年齢・性別推定処理部102−2は、検出した年齢及び性別といった人に関連する情報を推定結果送信部103−2に出力する。
推定結果送信部103−2は、顔検出・年齢・性別推定処理部102−2から入力される検出情報を年齢・性別推定装置10−2からの出力情報としてネットワーク41に通信接続された機器に送信する。送信先の機器は、例えば、結果集計表示装置21及び22(図2)である。
推定結果送信部103−2は、顔検出・年齢・性別推定処理部102−2から入力される検出情報を年齢・性別推定装置10−2からの出力情報としてネットワーク41に通信接続された機器に送信する。送信先の機器は、例えば、結果集計表示装置21及び22(図2)である。
〔人感センサの構成〕
人感センサとしてパッシブセンサを用いた一例を図8の人感センサ10−3に示す。パッシブセンサの動作原理は、集電検出器の集電効果を応用したものである。具体的には、パッシブセンサは、警戒対象の部屋などの空間領域の背景温度と侵入者の表面温度との差を、遠赤外線エネルギーの変化として集電検出器にて集光する。そして、パッシブセンサは、集電検出器にて電気的なエネルギーに変換された遠赤外線エネルギーを増幅及び信号処理して検出結果を出力する。
人感センサとしてパッシブセンサを用いた一例を図8の人感センサ10−3に示す。パッシブセンサの動作原理は、集電検出器の集電効果を応用したものである。具体的には、パッシブセンサは、警戒対象の部屋などの空間領域の背景温度と侵入者の表面温度との差を、遠赤外線エネルギーの変化として集電検出器にて集光する。そして、パッシブセンサは、集電検出器にて電気的なエネルギーに変換された遠赤外線エネルギーを増幅及び信号処理して検出結果を出力する。
つまり、パッシブセンサは、部屋の床や壁、家具などの部分的な数か所の表面温度の平均値(背景物体の放射率を加味した平均値)に相当する遠赤外線エネルギーを受けている。侵入者が検知エリアに侵入すると、それまでパッシブセンサが検知していた背景物体から放射される遠赤外線が侵入者で遮光され、代わりに侵入者の表面から放射される遠赤外線を受けることになる。このとき背景物体と侵入者の表面温度や放射率の差異から遠赤外線エネルギーの量的変化が発生し、その量に応じた電荷が集電検出器の集電体内で自発分極作用により誘起される。パッシブセンサは、この電荷を増幅し、所定の閾値以上に誘起されると、人が侵入したと検知することができる。
続いて、パッシブセンサを用いた人感センサの基本構成について説明する。図8に示すように人感センサ10−3は、光学系101−3と、集電検出器102−3と、信号処理部103−3と、検出結果送信部104−3とを含んで構成される。光学系101−3、は、光を集光する。集電検出器102−3は、遠赤外線を受ける。信号処理部103−3は、集電検出器102−3から出力される電気信号を増幅し、増幅された信号の変化から人が居ることを検知する。検出結果送信部104−3は、信号処理部103−3からの検出結果を送信する。遠赤外線はガラスを透過しないため、光学系101−3にガラス製のレンズは使用できない。そのため、光学系101−3にポリエチレン樹脂等によるフレネルレンズを用いて集光する。集電検出器102−3は、集電体を感熱素子として出力された電荷を電圧、または電流として取り出す。
〔人数カウント処理部〕
次に、人数カウント処理部102の構成について説明する。
図9は、本実施形態に係る人数カウント処理部102の機能構成を表す概略ブロック図である。
人数カウント処理部102は、動き検出部1021、画像メモリ1022、特定方向動き情報検出部1023、動き情報メモリ1024、および通過人数カウント部1025を含んで構成される。
次に、人数カウント処理部102の構成について説明する。
図9は、本実施形態に係る人数カウント処理部102の機能構成を表す概略ブロック図である。
人数カウント処理部102は、動き検出部1021、画像メモリ1022、特定方向動き情報検出部1023、動き情報メモリ1024、および通過人数カウント部1025を含んで構成される。
〔動き検出部〕
動き検出部1021は、撮像部101から入力されるその時点におけるフレームの画像(現在画像)を示す画像信号と、画像メモリ1022に記憶された過去のフレームの画像(過去画像)を示す画像信号とから人の動きを表す動き情報を検出する。動き情報を検出するための一手法として、オプティカルフローによる動き検出について説明する。
動き検出部1021は、撮像部101から入力されるその時点におけるフレームの画像(現在画像)を示す画像信号と、画像メモリ1022に記憶された過去のフレームの画像(過去画像)を示す画像信号とから人の動きを表す動き情報を検出する。動き情報を検出するための一手法として、オプティカルフローによる動き検出について説明する。
(オプティカルフローによる動き検出)
動き検出部1021は、図4及び5を用いて説明したように、入室動き検出領域501および退室動き検出領域502内に表された画像に基づいて動き情報を検出する。動き検出部1021が、オプティカルフローによる動き検出を行うことによって動き情報を検出するようにしてもよい。動き検出部1021は、各検出領域について、現在画像と過去画像との間でブロックマッチングを行う。
動き検出部1021は、図4及び5を用いて説明したように、入室動き検出領域501および退室動き検出領域502内に表された画像に基づいて動き情報を検出する。動き検出部1021が、オプティカルフローによる動き検出を行うことによって動き情報を検出するようにしてもよい。動き検出部1021は、各検出領域について、現在画像と過去画像との間でブロックマッチングを行う。
より具体的には、動き検出部1021は、ブロックマッチングにおいて過去画像の各検出領域に設定される第1のマクロブロック内の画像に一致又は最も近似する領域内の画像を表す第2のマクロブロックを、現在画像の対応する検出領域から探索する。マクロブロックは、各検出領域の一部の小領域である。マクロブロックに含まれる縦方向横方向の画素数は、例えば、8×8又は16×16である。類似度を示す指標値として、例えば、上述したSAD、SSDなどが利用可能である。SADは、2つのマクロブロック間で対応する画素毎の画素値の差分についての絶対値をマクロブロック内の画素間で合計して得られる合計値(絶対値和)である。SSDは、2つのマクロブロック間で対応する画素毎の画素値の差分についての二乗値をマクロブロック内の画素間で合計して得られる合計値(平方和)である。SADとSSDは、いずれも値が小さいほど類似することを示す指標値である。
一致または最も近似する領域の探索において、動き検出部1021は、現在画像の各検出領域においてマクロブロックの位置を、例えば、1画素ずつ水平方向または垂直方向にずらし、ずらしたマクロブロックのそれぞれについて指標値を算出する。動き検出部1021は、指標値が最小となり、予め定めた指標値の閾値よりも小さい現在画像のマクロブロックを、一致又は最も近似する領域として定める。動き検出部1021は、過去画像の各検出領域内で設定可能なマクロブロックのそれぞれについて、その代表点の座標から探索した現在画像のマクロブロックの代表点の座標までの移動量および移動方向を表す動き情報を生成する。マクロブロックの代表点として、例えばマクロブロックの重心点を用いることができる。動き検出部1021は、生成した動き情報を特定方向動き情報検出部1023に出力し、当該動き情報を動き情報メモリ1024に記憶する。以下の説明では、移動量、移動方向を、それぞれ動き量、動き方向と呼ぶことがある。
(顔または人物検出およびトラッキングによる動き検出)
また、動き検出部1021が、オプティカルフローによる動き検出に代えて、顔または人物検出およびトラッキングによる動き検出を行うようにしてもよい。ここで、動き検出部1021は、現在画像および過去画像から人の顔面が表される領域を検出し、検出した領域における代表点(例えば、重心点)の2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。あるいは、動き検出部1021が、検出した領域の上端、下端、左端、右端のいずれかの2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。顔面の領域を検出するために、動き検出部1021が、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された現在画像の画像信号から抽出するようにしてもよい。
また、動き検出部1021が、オプティカルフローによる動き検出に代えて、顔または人物検出およびトラッキングによる動き検出を行うようにしてもよい。ここで、動き検出部1021は、現在画像および過去画像から人の顔面が表される領域を検出し、検出した領域における代表点(例えば、重心点)の2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。あるいは、動き検出部1021が、検出した領域の上端、下端、左端、右端のいずれかの2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。顔面の領域を検出するために、動き検出部1021が、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された現在画像の画像信号から抽出するようにしてもよい。
なお、人間の顔面を表す濃淡(モノクロ)画像の画像信号を予め画像メモリ1022に記憶しておくようにしてもよい。動き検出部1021は、画像メモリ1022から読み出した濃淡画像の画像信号と入力された画像信号が示す現在画像との相関値を画像ブロック毎に算出する。そして、動き検出部1021は、算出した相関値が予め定められた閾値よりも大きい画像ブロックの領域を顔面の領域として検出する。画像ブロックは、1フレームの画像の一部の領域である。上述したマクロブロックも、画像ブロックの一種である。
動き検出部1021が、入力された画像信号が示す画像に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量について予め定めた処理(例えば、Adaboostアルゴリズム)を行って人物の領域を検出するようにしてもよい。人物の領域とは、人物の胴体、頭部またはこれらの組が表される領域である。
また、動き検出部1021が、入力された画像に基づいて所定の特徴量を算出して、上述した顔の領域の検出と同様に、予め定められた処理を行って、人物の領域を検出するようにしてもよい。所定の特徴量として、例えば、Histogram of Oriented Gradient特徴量を用いることができる。また、予め定められた処理として、例えば、AdaboostアルゴリズムやSupport Vector Machineアルゴリズムを用いることができる。
動き検出部1021が顔や人物の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔または人物の領域を検出する方法であればよい。
また、動き検出部1021が、入力された画像に基づいて所定の特徴量を算出して、上述した顔の領域の検出と同様に、予め定められた処理を行って、人物の領域を検出するようにしてもよい。所定の特徴量として、例えば、Histogram of Oriented Gradient特徴量を用いることができる。また、予め定められた処理として、例えば、AdaboostアルゴリズムやSupport Vector Machineアルゴリズムを用いることができる。
動き検出部1021が顔や人物の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔または人物の領域を検出する方法であればよい。
上述では、動き検出部1021が、画像上の顔を検出する方法について説明した。動き検出部1021が、顔に関する他の関連情報を、入力された画像を用いて識別するようにしてもよい。顔に関する他の関連情報の例として、その人の性別、年齢、顔が向いている方向、顔の表情(例えば、笑っている状態、怒っている状態、泣いている状態、等)のいずれか又はこれらの組み合わせを挙げることができる。
さらに例えば、動き検出部1021が、入力された画像から所定の特徴量を算出し、上述した顔の領域の検出と並行して、算出した特徴量について上述の処理を行って関連情報を識別するようにしてもよい。この場合、上述の処理によって算出した関連情報の識別に用いる識別データと、顔の領域の検出データとを、予め画像メモリ1022に記憶しておく。
さらに例えば、動き検出部1021が、入力された画像から所定の特徴量を算出し、上述した顔の領域の検出と並行して、算出した特徴量について上述の処理を行って関連情報を識別するようにしてもよい。この場合、上述の処理によって算出した関連情報の識別に用いる識別データと、顔の領域の検出データとを、予め画像メモリ1022に記憶しておく。
動き検出部1021が、予め特定の人物の顔画像から所定の特徴量を算出し、算出した所定の特徴量を画像メモリ1022に記憶しておくようにしてもよい。そして、動き検出部1021が、入力された画像信号が示す現在画像について算出される特徴量と画像メモリ1022に記憶した特徴量とを上述した処理で照合して、現在画像に表される顔画像が、いずれの登録者の顔画像であるかを識別するようにしてもよい。
動き検出部1021は、撮像部101から入力される画像信号が示す現在画像と、画像メモリ1022から読み出した画像信号が示す過去画像とに同一または類似する所定の顔または人物を追跡する。具体的には、動き検出部1021は、現在画像に表される顔の領域または人物の領域と、過去画像に表される顔の領域または人物の領域とに同一または類似する所定の顔または人物を追跡する。
動き検出部1021は、同一または類似する顔または人物を検出した場合、顔の領域または人物の領域の移動量および移動方向を表す動き情報を特定方向動き情報検出部1023に出力し、動き情報メモリ1024に記憶する。
動き検出部1021は、同一または類似する顔または人物を検出した場合、顔の領域または人物の領域の移動量および移動方向を表す動き情報を特定方向動き情報検出部1023に出力し、動き情報メモリ1024に記憶する。
〔画像メモリ〕
画像メモリ1022は、撮像部101から入力される画像信号(現在画像)をフレーム単位で順次記憶する記憶媒体もしくは記憶領域で構成される。画像メモリ1022が記憶する画像のフレーム数は、動き検出に十分な所定のフレーム数である。画像メモリ1022は、所定のフレーム数の画像を記憶し、動き検出部1021から要求されるフレームの画像が動き検出部1021に読み出される。所定のフレーム数は、例えば、画像信号のフレームレートが30fps(frames per second)である場合、1秒間に相当する30フレームである。
画像メモリ1022は、撮像部101から入力される画像信号(現在画像)をフレーム単位で順次記憶する記憶媒体もしくは記憶領域で構成される。画像メモリ1022が記憶する画像のフレーム数は、動き検出に十分な所定のフレーム数である。画像メモリ1022は、所定のフレーム数の画像を記憶し、動き検出部1021から要求されるフレームの画像が動き検出部1021に読み出される。所定のフレーム数は、例えば、画像信号のフレームレートが30fps(frames per second)である場合、1秒間に相当する30フレームである。
なお、動き検出部1021に読み出される画像は、動き検出部1021より指定された任意のフレームの画像でもよいし、撮像部101から入力された画像信号のフレームの画像からmフレーム(mは、m≧1の予め設定されたフレーム数を示す整数)遅延したフレームの画像でもよい。即ち、画像メモリ1022は、動き検出部1021から要求された過去のフレームの画像(過去画像)、または現在画像よりmフレーム遅延した過去画像を動き検出部1021に出力する。
〔特定方向動き情報検出部〕
特定方向動き情報検出部1023は、動き検出部1021から入力される現動き情報と、動き情報メモリ1024から読み出される過去動き情報とから、予め定めた動き方向と一致または最も近似する動き情報を検出する。現動き情報は、その時点で入力される最新の動き情報である。過去動き情報は、最新の動き情報が入力される時点よりも過去に取得された動き情報である。
特定方向動き情報検出部1023は、動き検出部1021から入力される現動き情報と、動き情報メモリ1024から読み出される過去動き情報とから、予め定めた動き方向と一致または最も近似する動き情報を検出する。現動き情報は、その時点で入力される最新の動き情報である。過去動き情報は、最新の動き情報が入力される時点よりも過去に取得された動き情報である。
特定方向動き情報検出部1023は、検出した動き情報を特定方向動き情報として、通過人数カウント部1025に出力する。特定方向動き情報検出部1023は、動き情報メモリ1024に記憶された少なくとも1つの過去動き情報から、予め定められた動き方向および動き量の組と一致または最も近似する動き方向および動き量の組を示す動き情報を探索する。特定方向動き情報検出部1023は、一致または最も近似する動き方向と動き量の組を示す動き情報が現動き情報に存在する場合、その動き情報を特定方向動き情報として通過人数カウント部1025に出力する。
予め定めた動き方向とは、例えば、室内の出入り口であるドア13の領域と直交する方向である。この方向は、出入り口に対する人の入室方向及び退室方向と一致または近似する。そのため、特定方向動き情報検出部1023は、動き情報を手がかりとして入退室する人の動きを抽出し、それ以外の人の動きを除外することができる。それ以外の人の動きには、例えば、出入り口のドアの面と平行となる方向への動き、出入り口の前を通過する動き、入退室をしない人の動き、出入り口付近に立ち止まっている状態、等が含まれる。
これにより、入退室する人の動きを表す特定方向動き情報が通過人数カウント部1025に提供されるので、通過人数カウント部1025における処理量が削減できるとともに、人数のカウント精度を向上させることができる。
なお、出入り口やドアの構成、部屋内の設置状況によっては、ドアに対して斜めの方向に人が出入りする場合がある。そのような場合には、予め定められたドアの主面に対する入射角度を、上述した予め定められた動き方向として特定方向動き情報検出部1023に設定しておいてもよい。これにより、特定方向動き情報検出部1023は、その方向に一致または近似する動き方向に係る動き情報を抽出することができる。
なお、出入り口やドアの構成、部屋内の設置状況によっては、ドアに対して斜めの方向に人が出入りする場合がある。そのような場合には、予め定められたドアの主面に対する入射角度を、上述した予め定められた動き方向として特定方向動き情報検出部1023に設定しておいてもよい。これにより、特定方向動き情報検出部1023は、その方向に一致または近似する動き方向に係る動き情報を抽出することができる。
〔動き情報メモリ〕
動き情報メモリ1024は、動き検出部1021から入力される現動き情報を順次記憶する。動き情報メモリ1024は、lフレーム(lは、l≧1の予め定められた整数)分の動き情報を記憶する。そして、動き情報メモリ1024は、特定方向動き情報検出部1023から要求される過去の動き情報を探索し、探索にて得られた過去の動き情報を特定方向動き情報検出部1023に出力する。なお、動き情報メモリ1024が出力する過去の動き情報は、特定方向動き情報検出部1023から要求される時刻の動き情報には限られない。動き情報メモリ1024が、動き情報を記憶した時刻の順に、現動き情報が入力される時刻から所定の遅延をもった動き情報を過去動き情報として出力してもよい。
動き情報メモリ1024は、動き検出部1021から入力される現動き情報を順次記憶する。動き情報メモリ1024は、lフレーム(lは、l≧1の予め定められた整数)分の動き情報を記憶する。そして、動き情報メモリ1024は、特定方向動き情報検出部1023から要求される過去の動き情報を探索し、探索にて得られた過去の動き情報を特定方向動き情報検出部1023に出力する。なお、動き情報メモリ1024が出力する過去の動き情報は、特定方向動き情報検出部1023から要求される時刻の動き情報には限られない。動き情報メモリ1024が、動き情報を記憶した時刻の順に、現動き情報が入力される時刻から所定の遅延をもった動き情報を過去動き情報として出力してもよい。
〔通過人数カウント部〕
通過人数カウント部1025は、特定方向動き情報検出部1023から入力される特定方向動き情報に基づいて、所定のカウント領域(例えば、図5及び6に示す人数カウント境界401)を通過した人の数をカウントする人数計測部である。通過人数カウント部1025は、カウント領域における人の通過を、特定方向動き情報に基づいて判定する。
通過人数カウント部1025は、特定方向動き情報検出部1023から入力される特定方向動き情報に基づいて、所定のカウント領域(例えば、図5及び6に示す人数カウント境界401)を通過した人の数をカウントする人数計測部である。通過人数カウント部1025は、カウント領域における人の通過を、特定方向動き情報に基づいて判定する。
通過人数カウント部1025は、予め定められた時間τより短い期間内に人がカウント領域を通過したと判定する場合は、人数をカウントする。ここで、通過人数カウント部1025は、カウント領域における人の通過を示す特定動き情報を1つ検出した場合は、人数のカウントを1増加させ、カウントした人数を含む検出情報をカウント結果としてカウント結果送信部103に出力する。
一方、通過人数カウント部1025は、予め定められた時間τ以上に長い期間に、人が通過したと判定した場合は、人数を変更しない。このような特定方向動き情報は、カウント領域において人が停止する状態を表している点で、人が入退室する行動が表されていると言えないためである。
通過人数カウント部1025が検出情報を出力するタイミングは、例えば、カウントした人数が変化するときである。
通過人数カウント部1025が検出情報を出力するタイミングは、例えば、カウントした人数が変化するときである。
カウント領域における同一方向の人の通過を示す特定方向動き情報が2つ検出される場合は、通過人数カウント部1025は、人数を2増加させ、カウントした人数を出力する。同様に、カウント領域における同一方向の人の通過を示す特定方向動き情報がk個検出された場合は、人数をk増加させ、カウントした人数を出力する。なお、通過人数カウント部1025が、入室に係る人数と退室に係る人数とを独立してカウントし、それぞれの人数をカウント結果として含む検出情報をカウント結果送信部103に出力するようにしてもよい。
〔顔検出・年齢・性別推定処理部〕
図10を用いて顔検出・年齢・性別推定処理部102−2の一構成例について説明する。
図10は、本実施形態に係る顔検出・年齢・性別推定処理部102−2の機能構成を示す概略ブロック図である。
顔検出・年齢・性別推定処理部102−2は、撮像部101−2から入力された画像信号に基づき人物の顔の検出を行う。さらに、顔検出・年齢・性別推定処理部102−2は、顔と検出した画像上の領域の動きを検出した場合、当該領域が人物を示すと判定する。室内に飾られた人物の写真等を実際の人物と誤検出することを回避するためである。このように、顔検出・年齢・性別推定処理部102−2は、人物がいるかどうかの検出を行い、その結果を認識情報として出力する。
図10を用いて顔検出・年齢・性別推定処理部102−2の一構成例について説明する。
図10は、本実施形態に係る顔検出・年齢・性別推定処理部102−2の機能構成を示す概略ブロック図である。
顔検出・年齢・性別推定処理部102−2は、撮像部101−2から入力された画像信号に基づき人物の顔の検出を行う。さらに、顔検出・年齢・性別推定処理部102−2は、顔と検出した画像上の領域の動きを検出した場合、当該領域が人物を示すと判定する。室内に飾られた人物の写真等を実際の人物と誤検出することを回避するためである。このように、顔検出・年齢・性別推定処理部102−2は、人物がいるかどうかの検出を行い、その結果を認識情報として出力する。
また、顔検出・年齢・性別推定処理部102−2は、検出した人物のいる位置及び動き量の検出、人物の性別や年齢の検出、人物がだれであるかの識別、顔の向いている方向及び表情等の検出、及び、検出した人物がどのような行動をしているかの検出を行う。顔検出・年齢・性別推定処理部102−2は、これら検出及び識別の結果を検出情報として出力する。
〔顔検出部〕
顔検出部115は、撮像部101−2から入力される複数の画像の各々から顔面または人物の画像を表す領域を検出する。顔検出部115は、検出した顔面(または人物)の領域における代表点(例えば、重心点)の2次元座標を表す2次元顔面領域情報を生成する。あるいは、顔検出部115が、検出した顔面(または人物)の領域の上端、下端、左端、右端のいずれかの2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。
顔検出部115は、撮像部101−2が撮像した複数の画像から生成した前述の2次元座標を組合せ、室内の3次元空間座標系の3次元座標に変換して、3次元の顔位置情報を生成する。ここで、顔検出部115が顔を検出できた場合に、年齢・性別推定装置10−2(例えば、顔検出部115)が、人物が室内に入室したと判定するようにしてもよい。この判定に基づき、年齢・性別推定装置10−2単体でも簡易的に人数のカウントを行うことができる。
顔検出部115は、撮像部101−2から入力される複数の画像の各々から顔面または人物の画像を表す領域を検出する。顔検出部115は、検出した顔面(または人物)の領域における代表点(例えば、重心点)の2次元座標を表す2次元顔面領域情報を生成する。あるいは、顔検出部115が、検出した顔面(または人物)の領域の上端、下端、左端、右端のいずれかの2次元座標を表す2次元顔面領域情報を生成するようにしてもよい。
顔検出部115は、撮像部101−2が撮像した複数の画像から生成した前述の2次元座標を組合せ、室内の3次元空間座標系の3次元座標に変換して、3次元の顔位置情報を生成する。ここで、顔検出部115が顔を検出できた場合に、年齢・性別推定装置10−2(例えば、顔検出部115)が、人物が室内に入室したと判定するようにしてもよい。この判定に基づき、年齢・性別推定装置10−2単体でも簡易的に人数のカウントを行うことができる。
顔面の領域を検出するために、顔検出部115は、例えば予め設定された顔面の色彩(例えば、肌色)の範囲にある画素を、入力された画像信号から抽出する。
なお、顔検出部115が、人間の顔面を表す濃淡(モノクロ)画像信号を予め記憶した記憶部を備えるようにしてもよい。顔検出部115は、記憶部から読み出した濃淡画像信号と入力された画像信号との相関値を複数の画素を含む画像ブロック毎に算出し、算出した相関値が予め定められた閾値よりも大きい画像ブロックを顔面の領域と検出する。
なお、顔検出部115が、人間の顔面を表す濃淡(モノクロ)画像信号を予め記憶した記憶部を備えるようにしてもよい。顔検出部115は、記憶部から読み出した濃淡画像信号と入力された画像信号との相関値を複数の画素を含む画像ブロック毎に算出し、算出した相関値が予め定められた閾値よりも大きい画像ブロックを顔面の領域と検出する。
また、顔検出部115が、入力された画像信号に基づいて特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて予め定めた処理(例えば、上述のAdaboostアルゴリズム)を行って顔面の領域を検出するようにしてもよい。顔検出部115が顔面の領域を検出する方法は、上述の方法に限られず、入力された画像信号から顔面の領域を検出する方法であればよい。
顔検出部115が、例えば、顔の性別、年齢、顔の向いている向き、笑っている、怒っている、泣いている等の顔の表情のうちいずれか又はこれらの組み合わせなど、検出した顔に関する情報を更に検出するようにしてもよい。例えば、笑っている顔の画像などサンプルの顔画像から特徴量を抽出し、情報DBに予め登録しておく。そして、顔検出部115は、撮像部101−2から入力された顔画像の特徴量を算出し、情報DBの特徴量と照合することにより、画像上の顔の検出や表情を推定する。
また、顔検出部115が、顔の向きを検出するようにしてもよい。例えば、上、下、横などの様々な方向を向いた顔画像から特徴量を抽出し、情報DBに予め登録しておく。顔検出部115は、撮像部101−2から入力された顔画像から算出した特徴量と情報DBに登録されている特徴量とを照合することによって、顔の向いている向きを検出する。
さらに、顔検出部115が、人物の特定を行うようにしてもよい。例えば、予め特定の人物の顔画像から特徴量を抽出し、その特徴量を情報DBに登録しておく。顔検出部115は、入力された顔画像と情報DBに登録されている特徴量とを前記アルゴリズムにて照合することによって、入力された顔画像が登録者のだれであるかを識別する。
顔検出部115が検出したこれら顔に関する情報は、人物情報として、ユーザ情報検出部112および結果出力部114に入力し、同時に検出情報として出力する。
さらに、顔検出部115が、人物の特定を行うようにしてもよい。例えば、予め特定の人物の顔画像から特徴量を抽出し、その特徴量を情報DBに登録しておく。顔検出部115は、入力された顔画像と情報DBに登録されている特徴量とを前記アルゴリズムにて照合することによって、入力された顔画像が登録者のだれであるかを識別する。
顔検出部115が検出したこれら顔に関する情報は、人物情報として、ユーザ情報検出部112および結果出力部114に入力し、同時に検出情報として出力する。
〔ユーザ情報検出部〕
次に、ユーザ情報検出部112の構成について説明する。
属性推定部1120は、顔検出部115が検出した人物情報と、人物の特徴量として予め登録されている情報DBのデータとを比較して、顔検出部115が検出した人物情報の年齢及び性別を推定する。また、表情推定部1121は、人物の笑いや泣く、怒りなどの表情を推定する。
次に、ユーザ情報検出部112の構成について説明する。
属性推定部1120は、顔検出部115が検出した人物情報と、人物の特徴量として予め登録されている情報DBのデータとを比較して、顔検出部115が検出した人物情報の年齢及び性別を推定する。また、表情推定部1121は、人物の笑いや泣く、怒りなどの表情を推定する。
人物識別部1122は、顔検出部115が検出した顔の器官の特徴量と、予め情報DBに登録されている人物の顔の器官の特徴量とを比較する。これにより、人物識別部1122は、顔検出部115が顔を検出した人物が被登録者(情報DBに登録されている人物)のだれと一致するかの照合を行い、人物を識別する。人物識別部1122は、顔検出部115が検出した顔の画像の特徴量と、登録者の特徴量とが一致した場合は、その人物の名前を識別結果として出力する。
一方、人物識別部1122は、顔検出部115が顔を検出した人物が被登録者の誰とも一致しない場合は、未知の人であることを示す識別結果を出力する。
位置検出部1123は、人物の画像上における位置を出力する。
人体部位検出部1124は、位置検出部1123が位置を検出した人物の頭、腕、手、足、胴体といった人体の部位を検出し、その画像中の位置情報及び大きさを出力する。
一方、人物識別部1122は、顔検出部115が顔を検出した人物が被登録者の誰とも一致しない場合は、未知の人であることを示す識別結果を出力する。
位置検出部1123は、人物の画像上における位置を出力する。
人体部位検出部1124は、位置検出部1123が位置を検出した人物の頭、腕、手、足、胴体といった人体の部位を検出し、その画像中の位置情報及び大きさを出力する。
〔結果出力部〕
結果出力部114は、顔検出部115またはユーザ情報検出部112から入力されるデータを検出結果(推定結果)の情報として推定結果送信部103−2に出力する。なお、結果出力部114が、推定結果の情報として、上記の検出結果だけでなく、撮像部101−2から入力される画像データ、または顔検出部115で検出した顔や人物の領域を切り出した画像データを出力するようにしてもよい。
結果出力部114は、顔検出部115またはユーザ情報検出部112から入力されるデータを検出結果(推定結果)の情報として推定結果送信部103−2に出力する。なお、結果出力部114が、推定結果の情報として、上記の検出結果だけでなく、撮像部101−2から入力される画像データ、または顔検出部115で検出した顔や人物の領域を切り出した画像データを出力するようにしてもよい。
〔結果集計表示装置〕
次に、本実施形態に係る結果集計表示装置21及び22について説明する。
図11は、本実施形態に係る結果集計表示装置22の機能構成を示す概略ブロック図である。結果集計表示装置21の機能構成も、図11に示す結果集計表示装置22の機能構成と同じである。
次に、本実施形態に係る結果集計表示装置21及び22について説明する。
図11は、本実施形態に係る結果集計表示装置22の機能構成を示す概略ブロック図である。結果集計表示装置21の機能構成も、図11に示す結果集計表示装置22の機能構成と同じである。
結果集計表示装置22は、結果データ解析部1221と、結果データ集計・抽出部1222と、ユーザ操作解析部1223とから構成され、結果蓄積DB221及び表示装置123と通信接続されている。
結果データ解析部1221は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5といった各種デバイス、検出装置、センサからの結果データを、ネットワークを介して取得する。結果データ解析部1221は、得られた結果データがどのようなデータであるかを判別し、結果データの内容に併せて、その検出時刻やデータ伝送時刻、検出装置の位置情報、検出結果データ、画像データといった情報を結果蓄積DBに登録する。さらに、人数カウント装置10−1のように、リアルタイムに検出される結果データについては、その計測結果をリアルタイムデータとして、結果データ集計・抽出部1222に出力する。
結果データ解析部1221は、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3、監視カメラ10−4、温度センサ10−5といった各種デバイス、検出装置、センサからの結果データを、ネットワークを介して取得する。結果データ解析部1221は、得られた結果データがどのようなデータであるかを判別し、結果データの内容に併せて、その検出時刻やデータ伝送時刻、検出装置の位置情報、検出結果データ、画像データといった情報を結果蓄積DBに登録する。さらに、人数カウント装置10−1のように、リアルタイムに検出される結果データについては、その計測結果をリアルタイムデータとして、結果データ集計・抽出部1222に出力する。
ユーザ操作解析部1223は、表示装置123に表示するデータの種類、表示方法、データの集計単位など、各種設定を行うためのユーザ入力を受け付ける。ユーザの入力の受付には、例えば、マウス、キーボード、タッチパネル、音声入力、カメラ及び距離センサを使ったジェスチャ入力のいずれか又はこれらの組み合わせによるユーザインターフェースを用いる。ユーザ操作解析部1223は、検出したユーザ入力の操作信号を結果データ集計・抽出部1222に出力する。
結果データ集計・抽出部1222は、結果データ解析部1221から出力された結果データを取得し、その結果データを表示装置123にリアルタイムに表示する。結果データ集計・抽出部1222は、人数カウント装置10−1の結果データの場合は、人数カウント装置10−1が人の入退室を検出して結果データを送信したタイミングで、その通過人数を表示装置123に表示させる。また、結果データ集計・抽出部1222は、年齢・性別推定装置10−2の結果データの場合は、年齢・性別推定装置10−2が、人の顔を検出し、その顔の年齢や性別情報を推定して結果データを送信したタイミングでその情報を表示装置123に表示させる。
さらに、結果データ集計・抽出部1222は、結果蓄積DB221に登録されている結果データまたは画像データからユーザが指定したデータ表示に必要なデータ(例えば、検出日時・時間の範囲やデータの種類、表示方法など)を抽出する。結果データ集計・抽出部1222は、抽出したデータを集計して、表示装置123に出力し表示させる。
結果データ集計・抽出部1222が表示装置123に表示させるデータの例として、人数カウント装置10−1が計測した入退室者数、室内にいる人数、入室した累計の人数、室内への入退室の履歴などのいずれか又はこれらの組み合わせが挙げられる。結果データ集計・抽出部1222は、例えばこれらの人数のデータを時系列のグラフにて表示装置123に表示させる。
結果データ集計・抽出部1222が表示装置123に表示させるデータの例として、人数カウント装置10−1が計測した入退室者数、室内にいる人数、入室した累計の人数、室内への入退室の履歴などのいずれか又はこれらの組み合わせが挙げられる。結果データ集計・抽出部1222は、例えばこれらの人数のデータを時系列のグラフにて表示装置123に表示させる。
さらに、結果データ集計・抽出部1222が表示装置123に表示させるデータの例として、年齢・性別推定装置10−2が検出した入退室者数の時間帯毎の累計又は全時間帯の合計に対する割合を年齢別又は性別に算出した入退室の履歴が挙げられる。例えばこのデータを時系列のグラフにて表示装置123に表示させる。
あるいは、結果データ集計・抽出部1222が、時間、性別、年齢層及び検出装置(結果データの送信元の装置)に合致するデータを抽出して表示装置123に表示させるようにしてもよい。例えば、結果データ集計・抽出部1222は、人数カウント装置10−1、又は、年齢・性別推定装置10−2による結果データのうち、ユーザが指定する時間、性別、年齢層、検出装置のいずれか、又はこれらの組み合わせに合致するデータを抽出する。そして、結果データ集計・抽出部1222は、抽出したデータを表示装置123にグラフ表示させる。
あるいは、結果データ集計・抽出部1222が、時間、性別、年齢層及び検出装置(結果データの送信元の装置)に合致するデータを抽出して表示装置123に表示させるようにしてもよい。例えば、結果データ集計・抽出部1222は、人数カウント装置10−1、又は、年齢・性別推定装置10−2による結果データのうち、ユーザが指定する時間、性別、年齢層、検出装置のいずれか、又はこれらの組み合わせに合致するデータを抽出する。そして、結果データ集計・抽出部1222は、抽出したデータを表示装置123にグラフ表示させる。
また、結果データ集計・抽出部1222が、人感センサ10−3、温度センサ10−5についても、ユーザが指定するデータの条件に合致するデータを表示装置123に表示させるようにしてもよい。例えば、結果データ集計・抽出部1222は、人感センサ10−3又は温度センサ10−5による結果データのうち、ユーザが指定するデータの条件に合致するデータを結果蓄積DB221から読み出す。そして、結果データ集計・抽出部1222は、読み出したデータを集計して、グラフや表などユーザの分かり易い情報に整形して、表示装置123に出力し表示させる。
また、結果データを検出した時間、場所、撮像方向の画像がある場合、結果データ集計・抽出部1222が、結果データに基づく上記の表示に併せてこれらの画像を表示装置123に表示させるようにしてもよい。
また、結果データ集計・抽出部1222が表示装置123に表示させる画像に、監視カメラ10−4が撮像した画像が含まれていてもよい。例えば、結果データ集計・抽出部1222が、ユーザが指定した撮像日時・時間、撮像場所、撮像方向の画像のいずれか、又はこれらの組み合わせを表示装置123に表示させるようにしてもよい。
上述のユーザが指定するデータの条件の指示方法は、GUIのプルダウンメニューやラジオボタンなどを用いて、予め登録されているキーワードを、ユーザが選択し指示しても良い。さらに、ユーザによる特定キーワードを文字入力できる領域(テキストボックスなど)を用意し、ユーザが指定した条件をキーワードとして入力し指示できるようにしても良い。
また、結果データ集計・抽出部1222が表示装置123に表示させる画像に、監視カメラ10−4が撮像した画像が含まれていてもよい。例えば、結果データ集計・抽出部1222が、ユーザが指定した撮像日時・時間、撮像場所、撮像方向の画像のいずれか、又はこれらの組み合わせを表示装置123に表示させるようにしてもよい。
上述のユーザが指定するデータの条件の指示方法は、GUIのプルダウンメニューやラジオボタンなどを用いて、予め登録されているキーワードを、ユーザが選択し指示しても良い。さらに、ユーザによる特定キーワードを文字入力できる領域(テキストボックスなど)を用意し、ユーザが指定した条件をキーワードとして入力し指示できるようにしても良い。
表示装置123は、結果データ集計・抽出部1222から出力されたリアルタイムデータまたは結果集計データを表示装置に表示する。
結果集計表示装置22は、各検出装置から出力される結果データや画像データ等を結果蓄積DB221に蓄積する。そして、結果集計表示装置22は、ユーザの見たい情報を受け付け、蓄積DB221に蓄積した結果データの中から検索、集計してユーザにその情報を提示する。
結果集計表示装置22は、各検出装置から出力される結果データや画像データ等を結果蓄積DB221に蓄積する。そして、結果集計表示装置22は、ユーザの見たい情報を受け付け、蓄積DB221に蓄積した結果データの中から検索、集計してユーザにその情報を提示する。
例えば、店舗に適用される場合、結果集計表示装置22は、各店舗のフロア毎又は販売スペース毎に顧客の流動情報を蓄積し、日単位、月単位、年単位またはリアルタイムにて表示装置123に表示させる。ユーザは表示されたデータを解析することができ、マーケット情報の解析として役立てることができる。
また、災害時のセキュリティ管理に用いられる場合、結果集計表示装置22は、建物のどのフロアのどの部屋に人がいるか、残っている人は子供か大人かといった情報をリアルタイムに表示装置123に表示させる。ユーザは、結果集計表示装置22が提示する情報を、被害を最小限に抑えることに役立てることができる。
また、公共交通機関に適用される場合、結果集計表示装置22は、顧客が利用する時間帯、領域などの流動量を時系列に表示装置123に表示させる。ユーザは、表示される情報を解析して、車両・駅・停留所などの設計や、ダイヤ改正などに役立てることができる。
また、災害時のセキュリティ管理に用いられる場合、結果集計表示装置22は、建物のどのフロアのどの部屋に人がいるか、残っている人は子供か大人かといった情報をリアルタイムに表示装置123に表示させる。ユーザは、結果集計表示装置22が提示する情報を、被害を最小限に抑えることに役立てることができる。
また、公共交通機関に適用される場合、結果集計表示装置22は、顧客が利用する時間帯、領域などの流動量を時系列に表示装置123に表示させる。ユーザは、表示される情報を解析して、車両・駅・停留所などの設計や、ダイヤ改正などに役立てることができる。
〔人数カウント処理〕
次に、本実施形態に係る人数カウント処理について説明する。
図12は、本実施形態に係る人数カウント処理を表すフローチャートである。
(ステップS100)
撮像部101は、光軸が鉛直下向きとなる向きに予め設置されている。撮像部101は、画像を撮像し、その時点の撮像画像である現在画像を示す画像信号を動き検出部1021に出力する。その後、ステップS101に進む。
(ステップS101)
撮像部101は現在画像を示す画像信号を画像メモリ1022に記憶する。また、画像メモリ1022は過去に記憶した過去画像を示す画像信号を動き検出部1021に出力する。その後、ステップS102に進む。
次に、本実施形態に係る人数カウント処理について説明する。
図12は、本実施形態に係る人数カウント処理を表すフローチャートである。
(ステップS100)
撮像部101は、光軸が鉛直下向きとなる向きに予め設置されている。撮像部101は、画像を撮像し、その時点の撮像画像である現在画像を示す画像信号を動き検出部1021に出力する。その後、ステップS101に進む。
(ステップS101)
撮像部101は現在画像を示す画像信号を画像メモリ1022に記憶する。また、画像メモリ1022は過去に記憶した過去画像を示す画像信号を動き検出部1021に出力する。その後、ステップS102に進む。
(ステップS102)
動き検出部1021は、撮像部101から入力された画像信号が示す現在画像と、画像メモリ1022からの画像信号が示す過去画像とから、動き領域を検出する。過去画像には、撮像時刻が異なる複数のフレームの撮像画像が含まれてもよい。動き領域とは、撮像画像上において、その領域に示される画像が縦方向または横方向に並進運動することによりその領域内の画素値が変化する領域である。動き検出部1021は、動き領域に示される画像の移動量および移動方向を算出する。移動量と移動方向とは、移動ベクトルで表される。さらに、動き検出部1021は、動き領域を検出する際、例えば、現在画像上の任意の領域が過去画像上の各領域内の画素値の分布と一致または類似する領域を現在画像からブロックマッチングを行って検索する。動き検出部1021が、現在画像上の領域と一致した過去画像上の領域の座標をそれぞれ算出することで、その移動量および移動方向、移動ベクトルを算出するようにしてもよい。
動き検出部1021は、撮像部101から入力された画像信号が示す現在画像と、画像メモリ1022からの画像信号が示す過去画像とから、動き領域を検出する。過去画像には、撮像時刻が異なる複数のフレームの撮像画像が含まれてもよい。動き領域とは、撮像画像上において、その領域に示される画像が縦方向または横方向に並進運動することによりその領域内の画素値が変化する領域である。動き検出部1021は、動き領域に示される画像の移動量および移動方向を算出する。移動量と移動方向とは、移動ベクトルで表される。さらに、動き検出部1021は、動き領域を検出する際、例えば、現在画像上の任意の領域が過去画像上の各領域内の画素値の分布と一致または類似する領域を現在画像からブロックマッチングを行って検索する。動き検出部1021が、現在画像上の領域と一致した過去画像上の領域の座標をそれぞれ算出することで、その移動量および移動方向、移動ベクトルを算出するようにしてもよい。
また、動き検出部1021が、上述したように現在画像から顔領域情報または人物領域情報を検出し、検出した顔領域情報または人物領域情報を複数フレーム間で追跡するようにしてもよい。動き検出部1021が、追跡により移動量、移動座標、及び移動ベクトルを現動き情報として算出し、算出した現動き情報を出力するようにしてもよい。
さらに、動き検出部1021が、撮像部101から入力された画像信号が示す現在画像から認識した情報を、表示装置123に表示させるようにしてもよい。例えば、動き検出部1021は、撮像部101から入力された画像信号が示す現在画像から人の顔領域を検出する。そして、動き検出部1021は、検出した顔領域から人の顔の位置、向き、表情、年齢、性別等のいずれかまたはそれらの組み合わせを認識する。動き検出部1021は、認識した情報を現動き情報に含めて出力して表示装置123に表示させる。
動き検出部1021は、算出した現動き情報を特定方向動き情報検出部1023と動き情報メモリ1024へ出力する。その後、ステップS103に進む。
さらに、動き検出部1021が、撮像部101から入力された画像信号が示す現在画像から認識した情報を、表示装置123に表示させるようにしてもよい。例えば、動き検出部1021は、撮像部101から入力された画像信号が示す現在画像から人の顔領域を検出する。そして、動き検出部1021は、検出した顔領域から人の顔の位置、向き、表情、年齢、性別等のいずれかまたはそれらの組み合わせを認識する。動き検出部1021は、認識した情報を現動き情報に含めて出力して表示装置123に表示させる。
動き検出部1021は、算出した現動き情報を特定方向動き情報検出部1023と動き情報メモリ1024へ出力する。その後、ステップS103に進む。
(ステップS103)
動き情報メモリ1024は、動き検出部1021から入力された現動き情報を記憶する。また、動き情報メモリ1024は、記憶している過去動き情報を特定方向動き情報検出部1023に出力する。その後、ステップS104に進む。
(ステップS104)
特定方向動き情報検出部1023は、動き検出部1021から入力された現動き情報と、動き情報メモリ1024に記憶された過去動き情報とから、特定方向に動く人の動きを示す特定方向動き情報を検出する。特定方向に動く人の動きには、例えば、出入り口の境界との直交方向に移動する人の動き、及び、店内への入退室や車内外へ乗降する人の動き、などがある。店内への入退室方向の人の動きを示す特定方向動き情報を検出することで、入退室せず、出入り口付近に立っている人や出入り口の境界と平行に移動する人の動きを除外し、入退室する人の動きを確実に検出することが可能となる。
ステップS104の後、ステップS105に進む。
動き情報メモリ1024は、動き検出部1021から入力された現動き情報を記憶する。また、動き情報メモリ1024は、記憶している過去動き情報を特定方向動き情報検出部1023に出力する。その後、ステップS104に進む。
(ステップS104)
特定方向動き情報検出部1023は、動き検出部1021から入力された現動き情報と、動き情報メモリ1024に記憶された過去動き情報とから、特定方向に動く人の動きを示す特定方向動き情報を検出する。特定方向に動く人の動きには、例えば、出入り口の境界との直交方向に移動する人の動き、及び、店内への入退室や車内外へ乗降する人の動き、などがある。店内への入退室方向の人の動きを示す特定方向動き情報を検出することで、入退室せず、出入り口付近に立っている人や出入り口の境界と平行に移動する人の動きを除外し、入退室する人の動きを確実に検出することが可能となる。
ステップS104の後、ステップS105に進む。
(ステップS105)
特定方向動き情報検出部1023は、検出した特定方向動き情報を通過人数カウント部1025に出力する。その後、ステップS106に進む。
(ステップS106)
通過人数カウント部1025は、特定方向動き情報検出部1023から入力された特定方向動き情報に基づき、出入り口から所定範囲内に設定したカウント領域を通過した人の数を入室方向、退室方向それぞれついてカウントする。通過人数カウント部1025は、カウントした入退室する人の数をカウント結果として計測する。
通過人数カウント部1025は、計測したカウント結果を、ネットワーク41を介して通信接続された結果集計表示装置22に出力する。その後、ステップS107に進む。
特定方向動き情報検出部1023は、検出した特定方向動き情報を通過人数カウント部1025に出力する。その後、ステップS106に進む。
(ステップS106)
通過人数カウント部1025は、特定方向動き情報検出部1023から入力された特定方向動き情報に基づき、出入り口から所定範囲内に設定したカウント領域を通過した人の数を入室方向、退室方向それぞれついてカウントする。通過人数カウント部1025は、カウントした入退室する人の数をカウント結果として計測する。
通過人数カウント部1025は、計測したカウント結果を、ネットワーク41を介して通信接続された結果集計表示装置22に出力する。その後、ステップS107に進む。
(ステップS107)
結果集計表示装置22は、人数カウント処理部102の通過人数カウント部1025からカウント結果を受信したか否かを監視する。カウント結果を受信したと判断した場合(ステップS107 YES)、ステップS108に進む。カウント結果を受信していないと判断した場合(ステップS107 NO)、ステップS107を繰り返す。これにより、人数カウント処理部102からのカウント結果が受信されるまで待機される。
結果集計表示装置22は、人数カウント処理部102の通過人数カウント部1025からカウント結果を受信したか否かを監視する。カウント結果を受信したと判断した場合(ステップS107 YES)、ステップS108に進む。カウント結果を受信していないと判断した場合(ステップS107 NO)、ステップS107を繰り返す。これにより、人数カウント処理部102からのカウント結果が受信されるまで待機される。
(ステップS108)
結果集計表示装置22は、受信したカウント結果を結果蓄積DB221に登録する。そして、ステップS109に進む。
(ステップS109)
結果集計表示装置22は、受信したカウント結果を集計する。また、結果集計表示装置22は、表示を指示するコマンドを示すコマンド入力操作を検出したか否かを判定する。結果集計表示装置22は、コマンド入力操作を検出したと判定した場合(ステップS109 YES)、ステップS110に進む。コマンド入力操作を検出していないと判定した場合(ステップS109 NO)、ステップS111に進む。
結果集計表示装置22は、受信したカウント結果を結果蓄積DB221に登録する。そして、ステップS109に進む。
(ステップS109)
結果集計表示装置22は、受信したカウント結果を集計する。また、結果集計表示装置22は、表示を指示するコマンドを示すコマンド入力操作を検出したか否かを判定する。結果集計表示装置22は、コマンド入力操作を検出したと判定した場合(ステップS109 YES)、ステップS110に進む。コマンド入力操作を検出していないと判定した場合(ステップS109 NO)、ステップS111に進む。
(ステップS110)
結果集計表示装置22は、カウント結果の集計及び表示をユーザが指示するコマンド入力操作を検出したと判定した場合に、結果蓄積DB221からカウント結果を読み出す。そして、結果集計表示装置22は、読み出したカウント結果を、所定時間、日付、季節、天気、等の時期別に集計する。結果集計表示装置22は、集計した時期毎のカウント結果を示す表示データを表示部(例えば、表示装置123)に出力する。表示部は、入力される表示データのうち、カウント結果を数値で表示し、時期毎に集計したカウント結果を図やグラフで表示する。
結果集計表示装置22は、カウント結果の集計及び表示をユーザが指示するコマンド入力操作を検出したと判定した場合に、結果蓄積DB221からカウント結果を読み出す。そして、結果集計表示装置22は、読み出したカウント結果を、所定時間、日付、季節、天気、等の時期別に集計する。結果集計表示装置22は、集計した時期毎のカウント結果を示す表示データを表示部(例えば、表示装置123)に出力する。表示部は、入力される表示データのうち、カウント結果を数値で表示し、時期毎に集計したカウント結果を図やグラフで表示する。
なお、結果集計表示装置22は、コマンド入力操作を検出するか否かにかかわらず、人数カウント処理部102から受信したカウント結果を結果蓄積DB221に記憶する。
結果集計表示装置22が、その時点(リアルタイム)で受信したカウント結果を表示部に出力し表示させるようにしてもよい。また、結果集計表示装置22が、結果蓄積DB221から読み出したカウント結果を表示データに含めて表示部に出力するようにしてもよい。
ステップS110の後、ステップS111に進む。
結果集計表示装置22が、その時点(リアルタイム)で受信したカウント結果を表示部に出力し表示させるようにしてもよい。また、結果集計表示装置22が、結果蓄積DB221から読み出したカウント結果を表示データに含めて表示部に出力するようにしてもよい。
ステップS110の後、ステップS111に進む。
(ステップS111)
人数カウント処理部102は、人数カウント処理を終了させるか否かを判定する。人数カウント処理部102は、例えば、電源オフを指示する操作を検出した場合、人数カウント処理を終了させると判定する。一方、電源オフを指示する操作を検出していない場合、人数カウント処理部102は、人数カウント処理を終了せずに継続すると判定する。人数カウント処理を継続すると判断した場合(ステップS111 NO)、ステップS100に進み、次の撮像画像を取得する。人数カウント処理を終了すると判断した場合(ステップS111 YES)、図12に示す処理を終了する。
人数カウント処理部102は、人数カウント処理を終了させるか否かを判定する。人数カウント処理部102は、例えば、電源オフを指示する操作を検出した場合、人数カウント処理を終了させると判定する。一方、電源オフを指示する操作を検出していない場合、人数カウント処理部102は、人数カウント処理を終了せずに継続すると判定する。人数カウント処理を継続すると判断した場合(ステップS111 NO)、ステップS100に進み、次の撮像画像を取得する。人数カウント処理を終了すると判断した場合(ステップS111 YES)、図12に示す処理を終了する。
以上に説明したように、本実施形態に係る人数カウント装置10−1は、所定の検出領域内の画像を撮像する撮像部が互いに異なる時刻に撮像した撮像画像の所定の第1領域に表される被写体の動きに関する動き情報を検出する動き検出部1021を備える。第1領域は、例えば、入室動き検出領域501、退室動き検出領域502のいずれか一方又は両方である。また、人数カウント装置10−1は、検出した動き情報から、所定の特定方向への動きに関する特定方向動き情報を検出する特定方向動き情報検出部1023を備える。また、人数カウント装置10−1は、検出した特定方向動き情報を用いて撮像画像の所定の第2領域に表される通過する被写体の数を計測する通過人数カウント部1025を備える。第2領域は、例えば人数カウント境界401である。そして、第1領域の一部もしくは全部および第2領域の一部もしくは全部の少なくとも一方は、撮像画像の中心から所定の範囲の領域である中央領域を除いた周辺領域に設定されることを特徴とする。
〔顔検出・年齢・性別推定処理〕
次に、本実施の形態に係る顔検出・年齢・性別推定処理について説明する。
図13は、本実施形態に係る顔検出・年齢・性別推定処理の流れを示すフローチャートである。
(ステップS200)
撮像部101−2が画像を撮像して画像データを取得する。次に、ステップS201に進む。
次に、本実施の形態に係る顔検出・年齢・性別推定処理について説明する。
図13は、本実施形態に係る顔検出・年齢・性別推定処理の流れを示すフローチャートである。
(ステップS200)
撮像部101−2が画像を撮像して画像データを取得する。次に、ステップS201に進む。
(ステップS201)
顔検出部115が、撮像部101−2で撮像された画像データから、画像データ内の人物を検出する。顔検出部115は、画像データ内から前述の方法により顔を検出する。顔の検出に成功した場合(すなわち、顔が存在した場合)、顔検出部115は、人物が存在したと判定する。
顔検出部115が、撮像部101−2で撮像された画像データから、画像データ内の人物を検出する。顔検出部115は、画像データ内から前述の方法により顔を検出する。顔の検出に成功した場合(すなわち、顔が存在した場合)、顔検出部115は、人物が存在したと判定する。
顔検出部115が、検出した顔の顔領域情報を情報DBに登録しておき、次のフレームの画像データから顔を検出する際に、情報DBに登録した顔領域情報を読み出して、検出した人物(顔)を追跡するようにしてもよい。これによって、顔検出部115が次のフレームでの人物を検出する精度の向上が可能となる。また、顔検出範囲を特定することにより顔検出部115の計算量の削減が可能となる。
顔検出部115は、画像中の人物の有無、画像内の人物の位置、顔の大きさ、顔の向き、顔器官の特徴量、人物の追跡結果といった人物情報を結果出力部114に出力し、情報DBに登録する。そして、ステップS202に進む。
顔検出部115は、画像中の人物の有無、画像内の人物の位置、顔の大きさ、顔の向き、顔器官の特徴量、人物の追跡結果といった人物情報を結果出力部114に出力し、情報DBに登録する。そして、ステップS202に進む。
(ステップS202)
ユーザ情報検出部112の属性推定部1120は、ステップS201で顔検出部115が算出した人物(顔)情報と、人物の特徴量として予め登録されている情報DBのデータとを比較して、この人物の年齢および性別を推定する。属性推定部1120は、推定結果を結果出力部114に出力し、情報DBに登録する。そして、ステップS203に進む。
ユーザ情報検出部112の属性推定部1120は、ステップS201で顔検出部115が算出した人物(顔)情報と、人物の特徴量として予め登録されている情報DBのデータとを比較して、この人物の年齢および性別を推定する。属性推定部1120は、推定結果を結果出力部114に出力し、情報DBに登録する。そして、ステップS203に進む。
(ステップS203)
表情推定部1121は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報と、情報DBに人物の特徴量として予め登録されているデータとを比較して、人物の表情を推定する。そして、表情推定部1121は、人物の笑い、泣く、怒りなど、推定された表情を示す表情情報を結果出力部114に出力し、情報DBに登録する。そして、ステップS204に進む。
表情推定部1121は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報と、情報DBに人物の特徴量として予め登録されているデータとを比較して、人物の表情を推定する。そして、表情推定部1121は、人物の笑い、泣く、怒りなど、推定された表情を示す表情情報を結果出力部114に出力し、情報DBに登録する。そして、ステップS204に進む。
(ステップS204)
人物識別部1122は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報における顔器官の特徴量と、予め情報DBに登録されている人物の顔器官の特徴量とを比較し、登録者のだれと一致するかの照合を行う。これにより、人物識別部1122は、画像に映された人物を識別する。人物識別部1122は、画像に映された人物がいずれかの登録者と一致した場合は、その人物の名前やIDなどの識別結果を結果出力部114に出力し、情報DBに登録する。一方、人物識別部1122は、画像に映された人物が、登録者の誰とも一致しなかった場合は、未知の人であることを示す識別結果を結果出力部114に出力し、情報DBに登録する。
ステップS204の後、ステップS205に進む。
人物識別部1122は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報における顔器官の特徴量と、予め情報DBに登録されている人物の顔器官の特徴量とを比較し、登録者のだれと一致するかの照合を行う。これにより、人物識別部1122は、画像に映された人物を識別する。人物識別部1122は、画像に映された人物がいずれかの登録者と一致した場合は、その人物の名前やIDなどの識別結果を結果出力部114に出力し、情報DBに登録する。一方、人物識別部1122は、画像に映された人物が、登録者の誰とも一致しなかった場合は、未知の人であることを示す識別結果を結果出力部114に出力し、情報DBに登録する。
ステップS204の後、ステップS205に進む。
(ステップS205)
位置検出部1123は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報に基づき、撮像部101−2の撮像画像における人物の画像の位置を検出する。そして、位置検出部1123は、検出結果を結果出力部114に出力し、情報DBに登録する。
また、人体部位検出部1124は、撮像部101−2の撮像画像から人物の頭、腕、手、足、胴体といった人体の部位を検出し、撮像画像における各部位の位置情報及び大きさを結果出力部114に出力し、情報DBに登録する。
ステップS205の後、ステップS206に進む。
位置検出部1123は、ユーザ情報検出部112がステップS201で算出した人物(顔)情報に基づき、撮像部101−2の撮像画像における人物の画像の位置を検出する。そして、位置検出部1123は、検出結果を結果出力部114に出力し、情報DBに登録する。
また、人体部位検出部1124は、撮像部101−2の撮像画像から人物の頭、腕、手、足、胴体といった人体の部位を検出し、撮像画像における各部位の位置情報及び大きさを結果出力部114に出力し、情報DBに登録する。
ステップS205の後、ステップS206に進む。
(ステップS206)
結果出力部114は、ステップS201からS205までで出力された人物情報である検出データまたは検出結果に対応する領域の切り出し画像を含む画像データを推定結果として推定結果送信部103−2に出力する。そして、ステップS107aに進む。
(ステップS107a〜S110a、S111)
ステップS107a〜S110aは、図12のステップS107〜S110のそれぞれに対し、「カウント結果」を「推定結果」に変更する以外は同じのため、詳細な説明は省略する。また、ステップS111は、図12のステップS111と同様であるため、詳細な説明は省略する。
結果出力部114は、ステップS201からS205までで出力された人物情報である検出データまたは検出結果に対応する領域の切り出し画像を含む画像データを推定結果として推定結果送信部103−2に出力する。そして、ステップS107aに進む。
(ステップS107a〜S110a、S111)
ステップS107a〜S110aは、図12のステップS107〜S110のそれぞれに対し、「カウント結果」を「推定結果」に変更する以外は同じのため、詳細な説明は省略する。また、ステップS111は、図12のステップS111と同様であるため、詳細な説明は省略する。
(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付してその説明を援用する。
〔各検出装置が出力する結果データタイミング〕
図14は、本実施形態に係る検出データ管理装置が処理を行う時間変化例を表す図である。図14の横軸は時刻を示す。また、入室者1および2が入室したタイミングを下向きの矢印で示している。また、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3のそれぞれの検出処理時間(検出に要する時間)を右向きの矢印で示している。検出処理時間は、検出開始時刻から検出結果出力時刻までの時間である。
以下、図面を参照しながら本発明の第2の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付してその説明を援用する。
〔各検出装置が出力する結果データタイミング〕
図14は、本実施形態に係る検出データ管理装置が処理を行う時間変化例を表す図である。図14の横軸は時刻を示す。また、入室者1および2が入室したタイミングを下向きの矢印で示している。また、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3のそれぞれの検出処理時間(検出に要する時間)を右向きの矢印で示している。検出処理時間は、検出開始時刻から検出結果出力時刻までの時間である。
入室者1がドア13から入室した際、最初に入室者1を検出するのが人感センサ10−3である。人感センサ10−3の検出処理にかかる時間は、図14に示す各装置のうちで最も短い。
次に、入室者1の顔が入室者の顔検出領域内に入り、年齢・性別推定装置10−2が処理を開始する。そして、入室者1が人数カウント境界401を超えると、人数カウント装置10−1が処理を開始する。従って、入室者1がドア13を超えると、人感センサ10−3、年齢・性別推定装置10−2、人数カウント装置10−1の順に、検出処理を開始する。
次に、入室者1の顔が入室者の顔検出領域内に入り、年齢・性別推定装置10−2が処理を開始する。そして、入室者1が人数カウント境界401を超えると、人数カウント装置10−1が処理を開始する。従って、入室者1がドア13を超えると、人感センサ10−3、年齢・性別推定装置10−2、人数カウント装置10−1の順に、検出処理を開始する。
図14に示す各装置のうち、人感センサ10−3、年齢・性別推定装置10−2、人数カウント装置10−1の順に、処理時間が長くかかる。このため、人感センサ10−3、年齢・性別推定装置10−2、人数カウント装置10−1の順に、検出結果を出力する。なお、人感センサ10−3は、部屋11内に人がいる場合は、常に検出結果を出力するため、図上でも入室者1が入室してから常に検出処理を行っている。
次に、入室者2が、入室者1の人数カウント装置10−1の検出結果が出力された後に入室している。入室者2についても、入室者1と同様の順番で検出結果が出力されている。
次に、入室者2が、入室者1の人数カウント装置10−1の検出結果が出力された後に入室している。入室者2についても、入室者1と同様の順番で検出結果が出力されている。
このように、同一の入室者に対する各検出装置の検出開始時刻、検出処理時間、検出結果出力時刻は統一されておらず、ばらばらである。このため、結果が得られた時刻でデータの関連性を検出すること(例えば、同一の入出者に対するデータ同士を関連付けること)は困難である。
本実施形態では、各装置が出力する検出結果の関連付けを行って、例えば入室者1に関連するデータを1つのデータとして管理する検出データ管理装置の一例について説明する。
本実施形態では、各装置が出力する検出結果の関連付けを行って、例えば入室者1に関連するデータを1つのデータとして管理する検出データ管理装置の一例について説明する。
〔検出結果データの関連付け〕
図15は、各検出装置が出力する検出結果を関連付ける方法を示す図である。図15に示す方法では、検出装置毎に、検出が開始される時刻および検出処理時間から結果が出力される時間を予め把握しておき、結果の出力が最も遅い装置がどれであるかを特定しておく。図15の場合は、人数カウント装置10−1が検出結果を出力する時刻が最も遅い。そこで、人数カウント装置10−1の検出結果出力時刻を基準の時刻とする。そして、各検出装置全体の中で処理結果の出力が一番遅い時刻と一番早い時刻の差分から、入室者1に関連する検出結果が出力される時間の範囲を求めておき、この範囲を基準に入室者1に関連するデータの時間の範囲を示すパラメータ(処理時間パラメータ)を決定する。図15では、ドットパタンで示す領域が処理時間パラメータとなる。検出結果を出力するのが最も遅い人数カウント装置10−1が出力する結果の時刻から、処理時間パラメータだけ遡った範囲内にある検出結果を同一の対象に対する検出結果(入室者1に関連する検出結果)と判定する。そして、同一の対象に対する検出結果を関連付けて結果蓄積DB211または221に登録する。このとき、入室者1の1つの検出結果のレコードとして、各装置の検出結果をまとめて記録するようにしても良い。あるいは、検出結果出力時刻に時系列順に各装置の検出結果を登録しておき、関連するデータについては、リンク情報を張る、または同一のIDを登録するといった情報を付加することにより、検出データの関連付けを行うようにしても良い。
図15は、各検出装置が出力する検出結果を関連付ける方法を示す図である。図15に示す方法では、検出装置毎に、検出が開始される時刻および検出処理時間から結果が出力される時間を予め把握しておき、結果の出力が最も遅い装置がどれであるかを特定しておく。図15の場合は、人数カウント装置10−1が検出結果を出力する時刻が最も遅い。そこで、人数カウント装置10−1の検出結果出力時刻を基準の時刻とする。そして、各検出装置全体の中で処理結果の出力が一番遅い時刻と一番早い時刻の差分から、入室者1に関連する検出結果が出力される時間の範囲を求めておき、この範囲を基準に入室者1に関連するデータの時間の範囲を示すパラメータ(処理時間パラメータ)を決定する。図15では、ドットパタンで示す領域が処理時間パラメータとなる。検出結果を出力するのが最も遅い人数カウント装置10−1が出力する結果の時刻から、処理時間パラメータだけ遡った範囲内にある検出結果を同一の対象に対する検出結果(入室者1に関連する検出結果)と判定する。そして、同一の対象に対する検出結果を関連付けて結果蓄積DB211または221に登録する。このとき、入室者1の1つの検出結果のレコードとして、各装置の検出結果をまとめて記録するようにしても良い。あるいは、検出結果出力時刻に時系列順に各装置の検出結果を登録しておき、関連するデータについては、リンク情報を張る、または同一のIDを登録するといった情報を付加することにより、検出データの関連付けを行うようにしても良い。
このように、各装置の検出結果の中で基準となる検出装置を予め決めておく。そして、関連する検出において、その検出にかかる時間から処理時間パラメータを決定し、基準となる検出装置が結果を出力した時刻を基準に処理時間パラメータの範囲にある検出結果を1つの関連するデータとしてまとめる。これにより、検出結果を出力する時刻がばらばらとなる場合でも、容易に検出結果の関連付けを行うことが可能となる。
さらに、検出結果を出力する時刻が一番遅い検出装置の結果データ(本実施例では人数カウント装置10−1の検出結果)の出力時刻を基準とすることで、過去に遡って関連するデータを検出することができる。これにより、処理の待ち時間が発生せず、この点で処理時間を低減させることができる。
さらに、検出結果を出力する時刻が一番遅い検出装置の結果データ(本実施例では人数カウント装置10−1の検出結果)の出力時刻を基準とすることで、過去に遡って関連するデータを検出することができる。これにより、処理の待ち時間が発生せず、この点で処理時間を低減させることができる。
〔連続して検出結果を出力する場合〕
図15の入室者3と4は、短い時間で連続して入室する入室者の例である。図15では、入室者4の検出結果出力時刻から処理時間パラメータだけ遡った範囲内に、入室者3と4の年齢・性別推定装置10−2の出力結果が2つある場合を示している。この場合、2つの検出結果のうち、1つを選択して関連づける必要がある。そこで、本実施形態では、処理時間パラメータの範囲内で検出された2つ以上の検出結果の中で、検出結出力時刻が一番古い検出結果を関連づける。
図15の入室者3と4は、短い時間で連続して入室する入室者の例である。図15では、入室者4の検出結果出力時刻から処理時間パラメータだけ遡った範囲内に、入室者3と4の年齢・性別推定装置10−2の出力結果が2つある場合を示している。この場合、2つの検出結果のうち、1つを選択して関連づける必要がある。そこで、本実施形態では、処理時間パラメータの範囲内で検出された2つ以上の検出結果の中で、検出結出力時刻が一番古い検出結果を関連づける。
入室者3及び4の例の場合、入室者3の人数カウント結果の結果出力時刻から処理時間パラメータだけ遡った時間の範囲内の一番古い年齢・性別推定装置10−2の検出結果を関連付けて結果蓄積DB221に登録する。そして、年齢・性別推定装置10−2の検出結果に登録済みを示す情報を付加する。
入室者4の人数カウント結果の出力時刻から処理時間パラメータだけ遡った範囲内で年齢・性別推定装置10−2の出力結果を検索する際、入室者3の結果は登録済みであるため入室者4の結果のみが検索される。このように、連続して入室者が入室した場合でも、正しく各検出結果を関連づけることができる。
このように、基準となる検出装置(結果出力が最も遅い装置)が結果を出力した時刻を基準に、処理時間パラメータだけ遡った時刻の範囲内で、未登録かつ一番古い時刻のその他検出結果(例えば、年齢・性別推定装置の推定結果、及び、人感センサの検出結果のうちいずれか一方又は両方)と関連付ける。これにより、連続して検出結果が出力される場合においても、比較的簡単な処理で適切に検出結果を関連付けることができる。
入室者4の人数カウント結果の出力時刻から処理時間パラメータだけ遡った範囲内で年齢・性別推定装置10−2の出力結果を検索する際、入室者3の結果は登録済みであるため入室者4の結果のみが検索される。このように、連続して入室者が入室した場合でも、正しく各検出結果を関連づけることができる。
このように、基準となる検出装置(結果出力が最も遅い装置)が結果を出力した時刻を基準に、処理時間パラメータだけ遡った時刻の範囲内で、未登録かつ一番古い時刻のその他検出結果(例えば、年齢・性別推定装置の推定結果、及び、人感センサの検出結果のうちいずれか一方又は両方)と関連付ける。これにより、連続して検出結果が出力される場合においても、比較的簡単な処理で適切に検出結果を関連付けることができる。
〔結果集計表示装置〕
次に、図16を用いて本実施形態における結果集計表示装置22aについて説明する。
図16は、結果集計表示装置22aの機能構成を示す概略ブロック図である。
図16の結果集計表示装置22aは、図11の結果集計表示装置22と結果データ関連付け部1224が追加されたことを除いては、同一の構成であるため詳細な説明は省略する。
図16の結果データ関連付け部1224は、結果データ解析部1221から出力される各検出装置の結果データを入力し、前述の方法により、各結果データの関連付けを行い、関連付けたデータを結果蓄積DB221に記録する。このとき、例えば入室者1の1つの検出結果のレコードとして、各装置の検出結果をまとめて記録するようにしても良い。あるいは、検出結果出力時刻の時系列順に各装置の検出結果を登録しておき、関連するデータについては、リンク情報を張る、または同一のIDを登録するといった情報を付加することにより、検出データの関連付けを行うようにしても良い。
次に、図16を用いて本実施形態における結果集計表示装置22aについて説明する。
図16は、結果集計表示装置22aの機能構成を示す概略ブロック図である。
図16の結果集計表示装置22aは、図11の結果集計表示装置22と結果データ関連付け部1224が追加されたことを除いては、同一の構成であるため詳細な説明は省略する。
図16の結果データ関連付け部1224は、結果データ解析部1221から出力される各検出装置の結果データを入力し、前述の方法により、各結果データの関連付けを行い、関連付けたデータを結果蓄積DB221に記録する。このとき、例えば入室者1の1つの検出結果のレコードとして、各装置の検出結果をまとめて記録するようにしても良い。あるいは、検出結果出力時刻の時系列順に各装置の検出結果を登録しておき、関連するデータについては、リンク情報を張る、または同一のIDを登録するといった情報を付加することにより、検出データの関連付けを行うようにしても良い。
また、結果データ関連付け部1224は、関連付けた結果データをリアルタイムデータとして、結果データ集計・抽出部1222に出力する。関連付けた結果データをリアルタイムデータとして出力することにより、例えば、部屋11のドア13に入室者1が入室した際、入室が1人であるとカウントして表示装置123に表示するとともに、入室者の性別、年齢を同時に表示することができる。
このように、各検出装置が検出した結果データを関連付けて、結果蓄積DB221に登録またはリアルタイムデータとして出力することによって、ユーザは部屋の入室者の傾向を分析する事が可能となる。このような分析結果を、例えば、店舗でのマーケティング情報として活用する、あるいは、公共交通機関の駅の設計やダイヤ改正等に役立てることができる。
このように、各検出装置が検出した結果データを関連付けて、結果蓄積DB221に登録またはリアルタイムデータとして出力することによって、ユーザは部屋の入室者の傾向を分析する事が可能となる。このような分析結果を、例えば、店舗でのマーケティング情報として活用する、あるいは、公共交通機関の駅の設計やダイヤ改正等に役立てることができる。
以上、図面を参照して本発明の実施形態について説明したが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更、例えば、組み合わせ、構成の一部の省略、等をすることが可能である。
なお、上述した実施形態における検出データ管理装置1の一部、例えば、人数カウント装置10−1をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、検出データ管理装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における検出データ管理装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。検出データ管理装置1等の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
なお、人数カウント装置10−1、年齢・性別推定装置10−2、人感センサ10−3及び10−6、監視カメラ10−4、温度センサ10−5の各々が、検出器の例に該当する。結果データ関連付け部1224が、データ関連付け処理部の例に該当する。結果蓄積DB221が、記憶部の例に該当する。ユーザ操作解析部1223が、操作入力部の例に該当する。結果データ集計・抽出部1222が、データ集計処理部の例に該当する。
但し、各部の構成はこれらに限定されない。
但し、各部の構成はこれらに限定されない。
本発明は、以下の態様で実施することができるが、これに限定されるものではない。
(付記1)検出対象に関するデータを出力する少なくとも2つの検出器と、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理部と、前記データ関連付け処理部が関連付けを行ったデータを記憶する記憶部と、を備える検出データ管理装置。
(付記2)前記関連付け処理部は、前記少なくとも2つの検出器のうち、いずれか1つの検出器がデータを出力する時刻を基準とし、各データの出力時刻と基準の時刻との関係に基づいて前記データの関連付けを行う、付記1に記載の検出データ管理装置。
(付記3)前記関連付け処理部は、前記少なくとも2つの検出器のうち、同一の検出対象に関連するデータを最後に出力する検出器がデータを出力する時刻を基準として、前記データの関連付けを行う、付記2に記載の検出データ管理装置。
(付記4)前記関連付け処理部は、前記基準の時刻から所定の時間だけ前の時刻までに出力されたデータを対象として前記データの関連付けを行う、付記3に記載の検出データ管理装置。
(付記5)前記関連付け処理部は、前記検出器毎に、当該検出器が前記基準の時刻から所定の時間だけ前の時刻までに出力したデータ、かつ、未登録のデータのうち、出力時刻が最も古いデータを抽出して関連付けを行い、関連付けたデータを登録済にする、付記4に記載の検出データ管理装置。
(付記6)前記検出器が出力したデータを記憶する記憶部と、ユーザ操作を受け付ける操作入力部と、前記操作入力部が受けたユーザ操作に基づいて、前記記憶部からデータを読み出し、読み出したデータを集計して時系列のグラフにて表示装置に表示させるデータ集計処理部と、を備える付記1から付記5のいずれか一つに記載の検出データ管理装置。
(付記7)前記データ集計処理部は、特定のキーワードで前記検知データを前記データベースから読み出し、キーワードの単位で前記関連付けられた前記検知したデータをグラフ情報としてデータの整形を行うことを特徴とする付記6に記載の検出データ管理装置。
(付記8)検出対象に関するデータを少なくとも2つの検出器から取得する取得ステップと、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理ステップと、前記データ関連付け処理ステップで関連付けを行ったデータを記憶する記憶ステップと、を含む検出データ管理方法。
(付記9)コンピュータに、検出対象に関するデータを少なくとも2つの検出器から取得する取得ステップと、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理ステップと、前記データ関連付け処理ステップで関連付けを行ったデータを記憶する記憶ステップと、を実行させるためのプログラム。
(付記10)コンピュータに、検出対象に関するデータを少なくとも2つの検出器から取得する取得ステップと、前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理ステップと、前記データ関連付け処理ステップで関連付けを行ったデータを記憶する記憶ステップと、を実行させるためのプログラムを記録したコンピュータ読取可能な記録媒体。
1…検出データ管理装置、10−1…人数カウント装置、10−2…年齢・性別推定装置、10−3,10−6…人感センサ、10−4…監視カメラ、10−5…温度センサ、21,22,22a…結果集計表示装置、101,101−2…撮像部、101−3…光学系、102…人数カウント処理部、102−2…顔検出・年齢・性別推定処理部、103…カウント結果送信部、103−2…推定結果送信部、103−3…信号処理部、104−3…検出結果送信部、112…ユーザ情報検出部、114…結果出力部、115…顔検出部、221,222…結果蓄積DB、1120…属性推定部、1121…表情推定部、1122…人物識別部、1123…位置検出部、1124…人体部位検出部、1221…結果データ解析部、1222…結果データ集計・抽出部、1223…ユーザ操作解析部、1224…結果データ関連付け部
Claims (5)
- 検出対象に関するデータを出力する少なくとも2つの検出器と、
前記検出器が同一の検出対象に関して出力したデータを、前記検出器が当該データを出力した時刻に基づいて関連付けるデータ関連付け処理部と、
前記データ関連付け処理部が関連付けを行ったデータを記憶する記憶部と、
を備える検出データ管理装置。 - 前記関連付け処理部は、前記少なくとも2つの検出器のうち、同一の検出対象に関連するデータを最後に出力する検出器がデータを出力する時刻を基準として、各データの出力時刻と基準の時刻との関係に基づいて前記データの関連付けを行う、
請求項1に記載の検出データ管理装置。 - 前記関連付け処理部は、前記基準の時刻から所定の時間だけ前の時刻までに出力されたデータを対象として前記データの関連付けを行う、請求項2に記載の検出データ管理装置。
- 前記関連付け処理部は、前記検出器毎に、当該検出器が前記基準の時刻から所定の時間だけ前の時刻までに出力したデータ、かつ、未登録のデータのうち、出力時刻が最も古いデータを抽出して関連付けを行い、関連付けたデータを登録済にする、請求項3に記載の検出データ管理装置。
- 前記検出器が出力したデータを記憶する記憶部と、
ユーザ操作を受け付ける操作入力部と、
前記操作入力部が受けたユーザ操作に基づいて、前記記憶部からデータを読み出し、読み出したデータを集計して時系列のグラフにて表示装置に表示させるデータ集計処理部と、
を備える請求項1から請求項4のいずれか一項に記載の検出データ管理装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016203699A JP2018067755A (ja) | 2016-10-17 | 2016-10-17 | 検出データ管理装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016203699A JP2018067755A (ja) | 2016-10-17 | 2016-10-17 | 検出データ管理装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018067755A true JP2018067755A (ja) | 2018-04-26 |
Family
ID=62087271
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016203699A Pending JP2018067755A (ja) | 2016-10-17 | 2016-10-17 | 検出データ管理装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018067755A (ja) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019244341A1 (ja) * | 2018-06-22 | 2019-12-26 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
| JPWO2020179730A1 (ja) * | 2019-03-04 | 2020-09-10 | ||
| JP2021029712A (ja) * | 2019-08-27 | 2021-03-01 | 株式会社島津製作所 | X線撮影装置 |
| JP2021033516A (ja) * | 2019-08-21 | 2021-03-01 | 三菱電機株式会社 | 人検知装置、システム、方法、及び、プログラム |
| JPWO2021166079A1 (ja) * | 2020-02-18 | 2021-08-26 | ||
| JP2021175112A (ja) * | 2020-04-27 | 2021-11-01 | 三菱電機ビルテクノサービス株式会社 | 監視制御装置及び監視制御システム |
| US20210397875A1 (en) * | 2018-11-08 | 2021-12-23 | DILAX Intelcom GmbH | Device and method for distinguishing and counting persons and objects |
| JP2022015871A (ja) * | 2020-07-10 | 2022-01-21 | アイリスオーヤマ株式会社 | 検出デバイスおよび表示システム |
| JP2022032672A (ja) * | 2020-08-13 | 2022-02-25 | キヤノン株式会社 | 画像解析装置、監視システム、画像解析方法及びプログラム |
| JP2022100214A (ja) * | 2020-12-23 | 2022-07-05 | パナソニックIpマネジメント株式会社 | 精算システムおよび精算方法 |
| CN115184951A (zh) * | 2022-06-23 | 2022-10-14 | 深圳市鸿逸达科技有限公司 | 基于激光雷达的实时检测人车流量的方法、设备和介质 |
| JP7391150B1 (ja) | 2022-08-02 | 2023-12-04 | 三菱電機株式会社 | 同定装置、同定方法及び同定プログラム |
| WO2024111474A1 (ja) * | 2022-11-21 | 2024-05-30 | コニカミノルタ株式会社 | 計数装置、計数システム、計数方法、およびプログラム |
| WO2024135342A1 (ja) * | 2022-12-20 | 2024-06-27 | パナソニックIpマネジメント株式会社 | 制御システム、制御方法及びプログラム |
| CN118485962A (zh) * | 2024-05-22 | 2024-08-13 | 深圳市神州云海智能科技有限公司 | 一种基于多摄像头的目标检测分析方法、装置、储存介质、系统和机器人 |
-
2016
- 2016-10-17 JP JP2016203699A patent/JP2018067755A/ja active Pending
Cited By (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2019244341A1 (ja) * | 2018-06-22 | 2021-07-26 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
| WO2019244341A1 (ja) * | 2018-06-22 | 2019-12-26 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
| JP7056737B2 (ja) | 2018-06-22 | 2022-04-19 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
| US20210397875A1 (en) * | 2018-11-08 | 2021-12-23 | DILAX Intelcom GmbH | Device and method for distinguishing and counting persons and objects |
| US12299991B2 (en) | 2019-03-04 | 2025-05-13 | Nec Corporation | Information processing apparatus, information processing method, and program |
| JP7540430B2 (ja) | 2019-03-04 | 2024-08-27 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| US12175761B2 (en) | 2019-03-04 | 2024-12-24 | Nec Corporation | Information processing apparatus, information processing method, and program |
| US12205375B2 (en) | 2019-03-04 | 2025-01-21 | Nec Corporation | Information processing apparatus, information processing method, and program |
| US12062238B2 (en) | 2019-03-04 | 2024-08-13 | Nec Corporation | Information processing apparatus, information processing method, and program |
| JPWO2020179730A1 (ja) * | 2019-03-04 | 2020-09-10 | ||
| JP2021033516A (ja) * | 2019-08-21 | 2021-03-01 | 三菱電機株式会社 | 人検知装置、システム、方法、及び、プログラム |
| JP7367392B2 (ja) | 2019-08-27 | 2023-10-24 | 株式会社島津製作所 | X線撮影装置 |
| JP2021029712A (ja) * | 2019-08-27 | 2021-03-01 | 株式会社島津製作所 | X線撮影装置 |
| JP7357757B2 (ja) | 2020-02-18 | 2023-10-06 | 三菱電機株式会社 | 空調統合コントローラ、空調制御システムおよび空調制御方法 |
| JPWO2021166079A1 (ja) * | 2020-02-18 | 2021-08-26 | ||
| JP7521251B2 (ja) | 2020-04-27 | 2024-07-24 | 三菱電機ビルソリューションズ株式会社 | 監視制御装置及び監視制御システム |
| JP2021175112A (ja) * | 2020-04-27 | 2021-11-01 | 三菱電機ビルテクノサービス株式会社 | 監視制御装置及び監視制御システム |
| JP2022015871A (ja) * | 2020-07-10 | 2022-01-21 | アイリスオーヤマ株式会社 | 検出デバイスおよび表示システム |
| JP2022032672A (ja) * | 2020-08-13 | 2022-02-25 | キヤノン株式会社 | 画像解析装置、監視システム、画像解析方法及びプログラム |
| JP7584943B2 (ja) | 2020-08-13 | 2024-11-18 | キヤノン株式会社 | 監視システム、情報処理装置、監視システムの制御方法及びプログラム |
| JP2022100214A (ja) * | 2020-12-23 | 2022-07-05 | パナソニックIpマネジメント株式会社 | 精算システムおよび精算方法 |
| CN115184951A (zh) * | 2022-06-23 | 2022-10-14 | 深圳市鸿逸达科技有限公司 | 基于激光雷达的实时检测人车流量的方法、设备和介质 |
| JP2024020678A (ja) * | 2022-08-02 | 2024-02-15 | 三菱電機株式会社 | 同定装置、同定方法及び同定プログラム |
| JP7391150B1 (ja) | 2022-08-02 | 2023-12-04 | 三菱電機株式会社 | 同定装置、同定方法及び同定プログラム |
| WO2024111474A1 (ja) * | 2022-11-21 | 2024-05-30 | コニカミノルタ株式会社 | 計数装置、計数システム、計数方法、およびプログラム |
| WO2024135342A1 (ja) * | 2022-12-20 | 2024-06-27 | パナソニックIpマネジメント株式会社 | 制御システム、制御方法及びプログラム |
| CN118485962A (zh) * | 2024-05-22 | 2024-08-13 | 深圳市神州云海智能科技有限公司 | 一种基于多摄像头的目标检测分析方法、装置、储存介质、系统和机器人 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018067755A (ja) | 検出データ管理装置 | |
| US10909695B2 (en) | System and process for detecting, tracking and counting human objects of interest | |
| US10733427B2 (en) | System and method for detecting, tracking, and counting human objects of interest using a counting system and a data capture device | |
| US12039803B2 (en) | Techniques for automatically identifying secondary objects in a stereo-optical counting system | |
| JP4852765B2 (ja) | 広域分散カメラ間の連結関係推定法および連結関係推定プログラム | |
| EP3355282B1 (en) | System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device | |
| CN112041848A (zh) | 人数统计和跟踪系统及方法 | |
| JP2022553088A (ja) | 画像追跡中のアクション検出 | |
| CN112513870B (zh) | 用于利用改进的高度计算对感兴趣的人类对象进行检测、跟踪和计数的系统和方法 | |
| JP2018173914A (ja) | 画像処理システム、撮像装置、学習モデル作成方法、情報処理装置 | |
| JPWO2012029518A1 (ja) | 挙動解析装置 | |
| WO2017135310A1 (ja) | 通過数カウント装置、通過数カウント方法、プログラムおよび記憶媒体 | |
| KR20170007070A (ko) | 방문객 출입 통계 분석 방법 및 장치 | |
| KR101355206B1 (ko) | 영상분석을 이용한 출입 계수시스템 및 그 방법 | |
| KR20240044162A (ko) | 자가학습 및 다중 카메라 기반 하이브리드 무인매장 관리 시스템 | |
| CN111652173B (zh) | 一种适合综合商场内人流管控的采集方法 | |
| JP6959300B2 (ja) | 情報処理装置、立ち入り判定方法、およびプログラム | |
| Wada et al. | A privacy-aware user tracking system using footprint data measured across multiple pressure sensor sheets | |
| JP2021168153A (ja) | 情報処理装置、判定方法、およびプログラム | |
| JP2022064118A (ja) | 情報処理装置、情報処理システムおよび情報処理プログラム |