JP2015069452A - Mobile object information management method, apparatus, and program - Google Patents
Mobile object information management method, apparatus, and program Download PDFInfo
- Publication number
- JP2015069452A JP2015069452A JP2013203615A JP2013203615A JP2015069452A JP 2015069452 A JP2015069452 A JP 2015069452A JP 2013203615 A JP2013203615 A JP 2013203615A JP 2013203615 A JP2013203615 A JP 2013203615A JP 2015069452 A JP2015069452 A JP 2015069452A
- Authority
- JP
- Japan
- Prior art keywords
- information
- attribute
- time
- flow line
- identifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、顧客の移動情報(動線)と顧客属性(年齢・性別)とを対応付ける方法及び装置並びにプログラムに関する。 The present invention relates to a method, apparatus, and program for associating customer movement information (flow lines) with customer attributes (age / gender).
近年、様々なセンサの低価格化やネットワークの進化に伴い、店舗内にカメラや位置測定装置を設置することで、店舗内で顧客がどのように回遊したかの情報を分析し、店舗の売上向上の施策を講じるといったことが行われている。特にどのような属性(年齢・性別)を持った顧客が、どのように店舗内を移動しているか(動線)を把握して分析することは、店舗改善を行う上で重要である。 In recent years, with the lower prices of various sensors and the evolution of networks, we installed cameras and position measurement devices in stores to analyze information about how customers traveled in stores and store sales. Some measures are being taken to improve it. In particular, it is important to understand and analyze how customers with different attributes (age / gender) are moving in the store (flow line) in order to improve the store.
例えば、下記の非特許文献1には、カメラ画像に映った顔を検出し、人物の属性(年齢・性別)を判定する方法が開示されている。店舗の出入口をカメラで撮影し、非特許文献1の技術を用いる事で、入店した顧客の属性を分析することが可能となる。
また、非特許文献2には、レーザ光線で周囲をスキャンして対象物までの距離を測定する装置が開示されている。前記装置を店舗内に設置することで、顧客が店舗内を時々刻々とどのように回遊しているかの情報が得られる。この情報を元に、店舗が意図した順路で顧客が回遊しているか(動線)などを分析することが可能となる。
また、下記の特許文献1には、顧客が所有しているカード(例えばポイントカード)に記録された属性情報を入店時等に読み取り、読み取った属性情報と動線とを対応づけるシステムについて開示されている。
For example, the following Non-Patent
Non-Patent
しかし特許文献1は、顧客がカードを所有していることを前提としており、ポイントカードを所持していない顧客、若しくはポイントカードがない店舗には適用できない。また、非特許文献1、非特許文献2は、それぞれ顧客の属性と動線とを取得する装置であり、属性と動線とを対応付ける具体的な方法を開示していない。
However,
本発明はこのような状況に鑑みてなされたものであり、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付ける方法及び装置を提供することを目的とするものである。 The present invention has been made in view of such a situation, and an object thereof is to provide a method and an apparatus for associating customer attribute information acquired by a camera with flow line information acquired by a range sensor. is there.
上記課題を解決するために、本発明に係る移動体情報管理方法は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを移動体情報管理装置によって対応付ける方法であって、
前記移動体情報管理装置が、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1のステップと、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2のステップと、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3のステップと、を備えることを特徴とする。
また、前記位置測定装置として測域センサを用いることを特徴とする。
また、前記第1のステップと前記第2のステップにおいて、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
In order to solve the above-mentioned problems, a mobile object information management method according to the present invention is obtained by analyzing person attribute information obtained by analyzing information photographed by a camera and information measured by a position measuring device. The moving body information management device associates the flow line information of a person to be obtained,
The mobile information management device is
A first step of calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in the attribute having the specific attribute identifier in the attribute information. When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Steps,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. And a step.
In addition, a range sensor is used as the position measuring device.
Further, in the first step and the second step, in addition to the y coordinate value y1 and the y coordinate value y2, information on the average height estimated from the gender and age of the person is added to estimate the estimated point e1. The point e2 is calculated.
本発明に係る移動体情報管理装置は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける装置であって、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段と、を備えることを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
The mobile body information management device according to the present invention includes person attribute information obtained by analyzing information photographed by a camera, and person flow information obtained by analyzing information measured by a position measurement device. A matching device,
First means for calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in an attribute having a specific attribute identifier in the attribute information When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Means,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. And means.
In addition, a range sensor is used as the position measuring device.
Further, in the first means and the second means, in addition to the y coordinate value y1 and the y coordinate value y2, information on the average height estimated from the gender and age of the person is added to estimate the estimated point e1. The point e2 is calculated.
In addition, a range sensor is used as the position measuring device.
Further, in the first means and the second means, in addition to the y coordinate value y1 and the y coordinate value y2, information on the average height estimated from the gender and age of the person is added to estimate the estimated point e1. The point e2 is calculated.
本発明に係るプログラムは、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける移動体情報管理で使用するプログラムであって、
前記移動体情報管理を、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。
A program according to the present invention relates to a moving object that associates attribute information of a person obtained by analyzing information photographed by a camera with flow line information of a person obtained by analyzing information measured by a position measuring device. A program used in information management,
The mobile information management
First means for calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in an attribute having a specific attribute identifier in the attribute information When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Means,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. A program characterized by functioning as a means.
本発明によれば、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付けることが可能となり、どのような属性を持った顧客がどのように店舗を回遊したかが把握できる。さらに、この情報を元にして店舗のレイアウト変更など店舗の売上向上などの施策を実施することが可能となる。 According to the present invention, it becomes possible to associate customer attribute information acquired by a camera with flow line information acquired by a range sensor, and what kind of attribute a customer has and how to travel around a store I can grasp. Furthermore, measures such as store sales improvement such as store layout change can be implemented based on this information.
以下、図面に基づいて、本発明の実施の形態を説明する。なお、本発明の実施態様は、後述する形態例に限定されるものではなく、その技術思想の範囲において、種々の変形が可能である。また、実施の形態を説明するための全図において、同一の機能を有する部材には同一または関連する符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment of the present invention is not limited to the embodiments described later, and various modifications can be made within the scope of the technical idea. In all the drawings for explaining the embodiments, members having the same function are denoted by the same or related reference numerals, and repeated description thereof is omitted.
図1は、本発明の実施形態に関わる移動体情報管理システム構成のブロック図である。
この実施形態の移動情報管理システムは、店舗101に設置されたカメラ102、位置測定装置103、移動体情報管理サーバ106で構成される。
FIG. 1 is a block diagram of a mobile information management system configuration according to an embodiment of the present invention.
The movement information management system of this embodiment includes a camera 102, a position measurement device 103, and a moving body
カメラ102は、店舗101の出入口105の方向を撮影し、映像をネットワーク107を介して移動体情報管理サーバ106に送信する。ここでは、カメラ102は出入口105の方向を撮影しているとしたが、撮影する領域は任意で良い。また、カメラも1台だけでなく複数台あってもよい。カメラとしては、店舗に設置された防犯カメラやウェブカメラが相当する。
The camera 102 captures the direction of the entrance / exit 105 of the
位置測定装置103は、店舗内を顧客が時々刻々とどのように移動したか(動線)の情報を記録する装置である。位置測定装置103としては、測域センサ、屋内GPS(Global Positioning System)、Wi-Fi電波強度による位置測定装置が該当する。例えば位置測定装置103が測域センサである場合、ある時刻における測域センサと店舗内の対象物との距離を測定し、対象物が人物の部分を分析して抽出することで、店舗内の動線を知ることができる。なお、図1には位置測定装置103を4つ示したが、台数は限定されない。 The position measuring device 103 is a device that records information on how the customer moved in the store from moment to moment (flow line). Examples of the position measuring device 103 include a range sensor, an indoor GPS (Global Positioning System), and a position measuring device based on Wi-Fi radio wave intensity. For example, when the position measuring device 103 is a range sensor, the distance between the range sensor and the object in the store at a certain time is measured, and the object is analyzed and extracted from the person portion. You can know the flow line. Although four position measuring apparatuses 103 are shown in FIG. 1, the number is not limited.
ネットワーク107は、カメラ102と位置測定装置103とが、移動体情報管理サーバ106に対して通信できるようにするためのものであり、例えばイーサネット(登録商標)、Wi-Fi(登録商標)、USB(Universal Serial Bus)等が相当するが、これらに限定されない。
The network 107 is used to enable the camera 102 and the position measurement device 103 to communicate with the mobile
なお、カメラ102、位置測定装置103は測定中にネットワーク107と必ずしも接続されている必要はない。例えば、カメラ102が撮影した映像をカメラ内に情報として記録し、店舗の閉店後にカメラ102内の情報を移動体情報管理サーバ106に送信してもよい。
Note that the camera 102 and the position measurement device 103 are not necessarily connected to the network 107 during measurement. For example, an image captured by the camera 102 may be recorded as information in the camera, and information in the camera 102 may be transmitted to the mobile
図2に、移動体情報管理サーバ106の構成を示す。
移動体情報管理サーバ106は、位置測定装置103から測定情報を取得して動線情報205を作成する移動情報管理部201と、カメラ102から映像を取得して分析することで、カメラに映った顧客の属性(年齢、性別等)を推測して属性情報206を作成する属性情報管理部202と、カメラ102の前を通過した顧客の動線と属性とを対応付けて動線属性対応情報207を作成する動線属性情報管理部203と、記憶部204と、
ネットワーク接続部208とで構成される。
FIG. 2 shows the configuration of the mobile
The moving body
And a
記憶部204には、動線情報205と、属性情報206と、動線属性対応情報207とが保存される。記憶部204としては、RAM、HDDなどが相当する。
The storage unit 204 stores flow
本実施形態の場合、移動体情報管理サーバ106は、サーバ、PC(Personal Computer)、仮想マシンなどを想定する。なお、移動体情報管理サーバ106には、図示しないが、CPU(Central Processing Unit)、メモリ、入力指示装置(キーボード、マウス)などが必要に応じて搭載されているものとする。
In this embodiment, the mobile
また、移動体情報管理サーバ106が設置されている場所については限定しない。店舗内に設置されていてもよいし、クラウド上にあってもよい。図2に移動体情報管理サーバ106の構成を示しているが、個々の構成要素は別々の移動体情報管理サーバ106にあってもよい。
Further, the place where the mobile
図3は属性情報206の構成を示す図である。
図3の属性情報206について、二行目の項目を例に取って説明する。
属性情報管理部202が、カメラ102が撮影した映像を解析して人物の顔を検出する。検出した顔毎に固有の識別子「1」をfield_id301として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00」をstart_time302とし、映像内の顔の中心座標の横成分「200」をstart_cx304、縦成分「300」をstart_cy305とする。
属性情報管理部202は、顔を検出した後に当該人物を追跡し、当該人物がカメラの撮影範囲から外れたり、顔が識別不能になった場合に追跡を終了する。
その際の終了時刻「2013-05-01T10:00:05.123+09:00」をend_time303とし、映像内の顔の中心座標の横成分「500」をend_cx306、縦成分「400」をend_cy307とする。
また、属性情報管理部202は、当該人物の年齢や性別を推定し、年齢「20」をage308、性別「男」をgender309とする。
FIG. 3 is a diagram showing a configuration of the
The
The attribute
The attribute
The end time “2013-05-01T10: 00: 05.123 + 09: 00” at that time is set as
Further, the attribute
ここで、例えば「2013-05-01T10:00:00.000+09:00」は、2013年5月1日10時00分00秒000ミリ秒(時差9時間)を意味するが、時刻の表現方法は限定しない。
なお、属性情報206は一例であり、年齢や性別以外の属性情報を含んでいてもよい。
Here, for example, “2013-05-01T10: 00: 00.000 + 09: 00” means May 1, 2013 10:00:00 000 milliseconds (9 hours time difference). Is not limited.
The
図4は動線情報205の構成を示す図である。
図4の動線情報205について、二行目の項目を例に取って説明する。
動線情報管理部201が、位置測定装置103が測定した情報を解析して店舗内の顧客の位置を検出する。検出した顧客毎に固有の識別子「1」をhuman_id401として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00 」をtime402とし、店舗内の顧客の座標の横成分「100」をx403、縦成分「200」をy404とする。
動線情報管理部201は、定期的若しくは非定期的に店舗内の顧客の位置情報を動線情報205として記録する。但し、human_id401については、以前に検出した顧客と同一人物と推定される場合には、その際に採番した識別子を用いる。
従って、例えば動線情報205からhuman_id401が「1」のものだけ取り出すと、human_id401が「1」と割り当てられた顧客が、どの時刻に店舗内のどこに存在したかの一連の情報が分かることになる。
FIG. 4 is a diagram showing the configuration of the
The
The flow line
The flow line
Therefore, for example, if only the
上記までは動線情報205と属性情報206とを別々に関連がないものとして説明した。しかし、店舗内でどのような属性(性別・年齢)をもった顧客が、どのような経路で買い回りをしているか、という情報が得られると、店舗の売上向上などの施策を打ち立てる際に、より価値の高い情報として利用できる。
So far, the
次に、店舗の出入口105から入店した顧客に対して割り当てられた属性と動線とを対応付ける方法について説明する。
まず、図6を用いて属性と動線との対応付けに必要となる基準線について説明する。ここでカメラ画像601は、カメラ102で出入口105を撮影した場合の一例である。
始点605、終点607は顧客の顔の中心を表している。ここでは仮想的に、顧客がカメラ102の前を始点605から終点607の位置まで移動した場合の始点605と終点607とを同一のカメラ画像601に図示している。
Next, a method for associating the attribute assigned to the customer who entered the store from the store entrance 105 with the flow line will be described.
First, reference lines necessary for associating attributes with flow lines will be described with reference to FIG. Here, the camera image 601 is an example when the entrance / exit 105 is photographed by the camera 102.
A start point 605 and an end point 607 represent the center of the customer's face. Here, the start point 605 and the end point 607 when the customer moves from the start point 605 to the end point 607 in front of the camera 102 are illustrated in the same camera image 601.
カメラ画像601で撮影した領域が店舗101内の実空間内のどの領域に対応するか決めるために、基準線602を設定する。ここで基準線602の左端を点P603、右端を点Q604とする。基準線602としては、例えば店舗の自動ドアや防犯ゲートの床面接地部分のように直線になっており、かつ点P603、点Q604が自動ドアの両端、防犯ゲートの両端のようにカメラ画像内の位置と、店舗内の実際の位置とが対応付けられるものが良い。
A reference line 602 is set in order to determine which area in the real space in the
<基準線からの距離の推定>
図6の始点605と終点607とを比較すると、顧客がカメラ102に近づくほど、顔の中心位置はカメラ画像601の下部に移動していくことが分かる。具体的に図6、図7を用いて説明をする。終点607から基準線602に垂直に引いた線との交点を交点E608とし、交点E608の実空間上の対応する点を図7の交点E'704とし、カメラ102の実空間上の設置位置を点O'706とすると、終点607を持つ人物は、実空間上では交点E'704と点O'706とを結ぶ直線上に存在することになる。交点E608と交点E'704との対応方法としては、交点E608が基準線602をm対nに内分したとすると、基準線701をm対nに内分するような点を交点E'704とする。
ここでカメラ画像601内の基準線602、点P603、点Q604は、実空間上では、基準線701、点P'702、点Q'703にそれぞれ対応するとする。
<Estimation of distance from reference line>
Comparing the start point 605 and the end point 607 in FIG. 6, it can be seen that as the customer approaches the camera 102, the center position of the face moves to the lower part of the camera image 601. This will be specifically described with reference to FIGS. The intersection point of the line drawn perpendicularly from the end point 607 to the reference line 602 is the intersection point E608, the corresponding point in the real space of the intersection point E608 is the intersection point E'704 in FIG. 7, and the installation position of the camera 102 in the real space is Assuming that the point is O ′ 706, the person having the end point 607 exists on the straight line connecting the intersection E ′ 704 and the point O ′ 706 in the real space. As a correspondence method between the intersection point E608 and the intersection point E′704, if the intersection point E608 internally divides the reference line 602 into m to n, a point that internally divides the reference line 701 into m to n is the intersection point E′704. And
Here, the reference line 602, the point P603, and the point Q604 in the camera image 601 correspond to the reference line 701, the point P′702, and the point Q′703 in the real space, respectively.
次に、当該人物の実空間上の存在位置を推定する方法を説明する。
推定された位置を推定点E'705とすると、推定点E'705は、基準線701から距離RE'706離れた距離に基準線701と平行に引いた直線L'707と交点E'704と点O'708との交点になる。したがって、カメラ画像601内の終点607から距離RE'706が推定できれば、推定点E'705が算出できることになる。
Next, a method for estimating the position of the person in the real space will be described.
Assuming that the estimated position is an estimated point E ′ 705, the estimated point E ′ 705 includes a straight line L ′ 707 drawn parallel to the reference line 701 at a distance away from the reference line 701 by a distance RE ′ 706 and an intersection point E ′ 704. It becomes an intersection with point O'708. Therefore, if the distance RE ′ 706 can be estimated from the end point 607 in the camera image 601, the estimated point E ′ 705 can be calculated.
距離RE'706の推定方法の一例を説明する。
例えば、カメラ画像601の縦幅を600ピクセルとし、人物が基準線602上に立った場合の顔の中心位置のy座標値をカメラ画像601の上部から測って200ピクセルであり、カメラ102前に立った場合に顔の中心位置のy座標値が600ピクセルだったとする。この場合、y座標値と基準線602からの距離を線形補間することで、y座標値が400であれば、基準線602とカメラ102との中間地点に人物が存在したと推定することができる。
An example of a method for estimating the distance RE ′ 706 will be described.
For example, the vertical width of the camera image 601 is 600 pixels, and the y-coordinate value of the center position of the face when a person stands on the reference line 602 is 200 pixels when measured from the top of the camera image 601, and before the camera 102 Assume that the y-coordinate value of the center position of the face is 600 pixels when standing. In this case, by linearly interpolating the y coordinate value and the distance from the reference line 602, if the y coordinate value is 400, it can be estimated that a person is present at an intermediate point between the reference line 602 and the camera 102. .
上記ではy座標値のみを用いたが、属性情報206には年齢・性別の情報も含まれることから、例えば年代別性別ごとの全国平均身長の情報を加味して距離RE'706を推定してもよい。例えば、子どもと大人では身長が子どもの方が一般に低いため、大人と子供が出入口に立った場合に、カメラ画像内のy座標値は子どもの方が大きくなる。これを踏まえた上で上記補間方法を変更することもできる。
In the above description, only the y-coordinate value is used. However, since the
<スコアの導入>
以下に、本発明の特徴となるスコアの概念について述べる。まず、店舗の出入口が狭いために同一時刻には一人しか入店できない場合や、出入口が広くても人の出入りが少ない場合を考える。この場合は、カメラ102に人が映った時刻と、位置測定装置103が出入口で人を検出した時刻とを対応させることで、動線と属性を簡単に対応付けることができる。
<Introduction of score>
Below, the concept of the score which becomes the characteristic of this invention is described. First, consider the case where only one person can enter the store at the same time because the store entrance is narrow, or the case where there are few people entering and exiting even though the entrance is wide. In this case, the flow line and the attribute can be easily associated by associating the time when the person is reflected on the camera 102 and the time when the position measuring device 103 detects the person at the entrance / exit.
しかし、例えば家族連れ顧客など複数人が同時に出入口から入店する場合は、カメラ102に人が映った時刻に、位置測定装置103は複数人検知するため、時刻のみではどの属性とどの動線とを対応付けてよいか判断できない。
そこで本発明では、顔が検出された時刻における推定点と、前記時刻における人の位置との距離をスコアとして、スコアを最小化する動線を抽出する。
図10を用いて、スコア最小化の意味を説明する。図10では、二人が出入口105から入店し、それぞれ動線A1001、動線B1002が位置測定装置103により得られた場合を想定する。また、カメラ102が入店者を検出して対応する属性情報206を作成した場合を想定する。この時のstart_time302の値を、仮に「時刻T」とする。
However, for example, when a plurality of people such as family customers enter the store from the entrance at the same time, the position measuring device 103 detects a plurality of people at the time when the person is reflected on the camera 102. Cannot be determined.
Therefore, in the present invention, a flow line that minimizes the score is extracted using the distance between the estimated point at the time when the face is detected and the position of the person at the time as a score.
The meaning of score minimization will be described with reference to FIG. In FIG. 10, it is assumed that two people enter the store through the entrance 105 and the flow line A 1001 and the flow line B 1002 are obtained by the position measuring device 103, respectively. Further, it is assumed that the camera 102 detects a store visitor and creates corresponding
上記想定のもと、前述の方法に従って「時刻T」における推定点1007を求める。次に、動線A1001・動線B1002のそれぞれについて「時刻T」に最も近い時刻における位置測定装置103が測定した位置を、それぞれ位置A1003、位置B1004とする。この時、位置A1003と推定点1007との距離を距離A1005、位置B1004と推定点1007との距離を距離B1006を求める。距離A1005と距離B1006とを比較すると、距離A1005の方が小さい。すなわち、「時刻T」においてカメラ102に映った顔の位置から推定された推定点1007に最も近い場所に存在したのが動線Aに対応する人だと判断できる。
このように、スコアを導入することで、複数人が出入口105から入店した場合においても、属性情報206と対応させるべき人を適切に選び出すことが可能となる。
Based on the above assumption, an estimated point 1007 at “time T” is obtained according to the method described above. Next, the positions measured by the position measurement device 103 at the time closest to “time T” for each of the flow line A1001 and the flow line B1002 are set as a position A1003 and a position B1004, respectively. At this time, the distance A1005 is obtained as the distance between the position A1003 and the estimated point 1007, and the distance B1006 is obtained as the distance between the position B1004 and the estimated point 1007. Comparing the distance A1005 and the distance B1006, the distance A1005 is smaller. That is, it can be determined that the person corresponding to the flow line A is present at the place closest to the estimated point 1007 estimated from the position of the face reflected on the camera 102 at “time T”.
In this way, by introducing the score, even when a plurality of people enter the store from the entrance / exit 105, it is possible to appropriately select a person to be associated with the
尚、上記では説明を簡単にするため、スコアとしてstart_time302に対応する推定点と前記時刻に最も近い時刻における人の位置との距離をスコアとしたが、左記に加えてend_time303に対応する推定点と前記時刻に最も近い時刻における人の位置との距離の合計値をスコアとした方が、より精度が高まる。
In addition, in order to simplify the description above, the score is the distance between the estimated point corresponding to
<動線と属性との対応方法>
以上に基づき、動線情報205と属性情報206とが与えられた場合に、動線属性情報管理部203が動線属性対応情報207を作成する方法について説明する。
動線属性対応情報207は図5に示すように、face_id301とhuman_id401とを対応付ける表で構成される。
<Correspondence method of flow line and attribute>
Based on the above, a description will be given of a method in which the flow line attribute
As shown in FIG. 5, the flow line
以下、図8と図9のフローチャートとを用いて、動線属性対応情報207を作成する手順を説明する。
まず、属性情報206から上から順に一行取り出す(ステップ901)。
次に、動線情報205の中の各human_id401毎に、ステップ901で取り出した属性のstart_time302、end_time303ぞれぞれに対して最も近いtime402を持つ行を探す(ステップ902)。例えば、human_id401が「1」のものが含まれていたとすると、図8の動線T'809に示すように、顧客が店舗を時々刻々と移動しているうち、前記start_time302に最も近いtime402の時に、位置S'804、同様に前記end_time303に最も近いtime402の時に、位置E'808に存在したということが分かる。
ここで、前記start_time302を始点、前記end_time303を終点とすると、カメラ画像601において、人物の顔の中心はそれぞれ始点605、終点607に対応することになる。
The procedure for creating the flow line
First, one line is extracted from the
Next, for each human_id 401 in the
Here, assuming that the
次に、上記で説明したように、カメラ画像内で始点605、終点607に対応する交点S606、交点E608を求め、実空間上で対応する交点S'801、交点E'805を求める。これらの情報を用い、ステップ901で取得した顔の中心位置のy座標値start_cy305、end_cy307から、推定点S'802、推定点E'806を推定する(ステップ903)。
さらに、各human_id毎に推定点S'802と位置S'804との距離RS'803、および推定点E'806と位置E'808との距離RE'807を求め、距離RS'803と距離RE'807との合計値をスコアとする(ステップ904)。
Next, as described above, the intersection point S606 and the intersection point E608 corresponding to the start point 605 and the end point 607 are obtained in the camera image, and the intersection point S′801 and the intersection point E′805 corresponding to the real space are obtained. Using these pieces of information, the estimated point S ′ 802 and the estimated point E ′ 806 are estimated from the y coordinate values start_cy 305 and
Further, a distance RS′803 between the estimated point S′802 and the position S′804 and a distance RE′807 between the estimated point E′806 and the position E′808 are obtained for each human_id, and the distance RS′803 and the distance RE are calculated. The total value of '807 is used as a score (step 904).
以上により、face_id301ひとつにつき、各human_id401とスコアとの組の情報が得られることになる。この中からスコアを最小とするhuman_id401を選ぶ(ステップ905)。これにより、face_id301に対応したhuman_id401をひとつ与えることができ、face_id301とhuman_id301との組を動線属性対応情報207として記録する(ステップ906)。
上述の手順を属性情報205の項目がなくなるまで繰り返し(ステップ907)、動線属性対応情報207の作成を終了する。
As described above, for each face_id 301, information on a set of each human_id 401 and score is obtained. The
The above procedure is repeated until there is no more item of attribute information 205 (step 907), and the creation of the flow line
以上のようにして店舗内でカメラ102と位置測定装置103との測定情報から得られた顧客の属性と動線とを、上記の手法で対応付けることにより、属性情報付きの動線が得られる。これを元にして、どの属性を持つ顧客が店舗内をどのように回遊しているかなどを分析することができ、店舗の売上向上の施策の計画に利用できる。 As described above, the customer attribute and the flow line obtained from the measurement information of the camera 102 and the position measuring device 103 in the store are associated with each other by the above method, thereby obtaining a flow line with the attribute information. Based on this, it is possible to analyze, for example, how customers with different attributes travel around the store, and it can be used for planning sales improvement measures in the store.
101…店舗
102…カメラ
103…位置測定装置
106…移動体情報管理サーバ
201…動線情報管理部
202…属性情報管理部
203…動線属性情報管理部
205…動線情報
206…属性情報
207…動線属性対応情報
DESCRIPTION OF
Claims (7)
位置測定装置で測定された情報を分析して得られる人物の動線情報とを移動体情報管理装置によって対応付ける方法であって、
前記移動体情報管理装置が、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1のステップと、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2のステップと、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3のステップと、を備えることを特徴とする移動体情報管理方法。 The attribute information of the person obtained by analyzing the information shot with the camera,
A method of associating the flow information of a person obtained by analyzing information measured by a position measuring device with a moving body information management device,
The mobile information management device is
A first step of calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in the attribute having the specific attribute identifier in the attribute information. When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Steps,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. A moving body information management method comprising the steps of:
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段と、を備えることを特徴とする移動体情報管理装置。 A device that associates attribute information of a person obtained by analyzing information photographed by a camera with flow line information of a person obtained by analyzing information measured by a position measuring device,
First means for calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in an attribute having a specific attribute identifier in the attribute information When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Means,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. A mobile information management apparatus comprising: means.
前記移動体情報管理を、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。 A program used in mobile body information management that associates attribute information of a person obtained by analyzing information photographed by a camera with flow line information of a person obtained by analyzing information measured by a position measurement device. There,
The mobile information management
First means for calculating an estimated point e1 where a person exists in real space from the y coordinate value y1 of the center position of the face in the camera image at time t1 included in an attribute having a specific attribute identifier in the attribute information When,
A second estimation point e2 where a person exists in real space is calculated from the y coordinate value y2 of the center position of the face in the camera image at time t2 included in the attribute having the specific attribute identifier in the attribute information. Means,
For each flow line identifier in the flow line information, the distance between the position in the real space at the time closest to the time t1 and the estimated point e1, and for each flow line identifier in the flow line information, A sum of the distance between the position in the real space at the time closest to time t2 and the estimated point e2 is used as a score, and a flow line identifier that minimizes the score is associated with the specific attribute identifier. A program characterized by functioning as a means.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013203615A JP6067527B2 (en) | 2013-09-30 | 2013-09-30 | Mobile object information management method, apparatus, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013203615A JP6067527B2 (en) | 2013-09-30 | 2013-09-30 | Mobile object information management method, apparatus, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015069452A true JP2015069452A (en) | 2015-04-13 |
| JP6067527B2 JP6067527B2 (en) | 2017-01-25 |
Family
ID=52836037
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013203615A Expired - Fee Related JP6067527B2 (en) | 2013-09-30 | 2013-09-30 | Mobile object information management method, apparatus, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6067527B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11023739B2 (en) | 2016-11-21 | 2021-06-01 | Nec Corporation | Flow line combining device, flow line combining method, and recording medium |
| JPWO2021260754A1 (en) * | 2020-06-22 | 2021-12-30 | ||
| JP2023093252A (en) * | 2021-12-22 | 2023-07-04 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
| JP2023093246A (en) * | 2021-12-22 | 2023-07-04 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030069685A1 (en) * | 2001-10-09 | 2003-04-10 | Rudd Michael L. | Systems and methods for providing information to users |
| JP2004348618A (en) * | 2003-05-26 | 2004-12-09 | Nec Soft Ltd | Customer information collection management method and system |
| JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
| JP2010206404A (en) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | Image monitoring device |
| JP2011192220A (en) * | 2010-03-16 | 2011-09-29 | Glory Ltd | Device, method and program for determination of same person |
| JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
-
2013
- 2013-09-30 JP JP2013203615A patent/JP6067527B2/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030069685A1 (en) * | 2001-10-09 | 2003-04-10 | Rudd Michael L. | Systems and methods for providing information to users |
| JP2004348618A (en) * | 2003-05-26 | 2004-12-09 | Nec Soft Ltd | Customer information collection management method and system |
| JP2010055594A (en) * | 2008-07-31 | 2010-03-11 | Nec Software Kyushu Ltd | Traffic line management system and program |
| JP2010206404A (en) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | Image monitoring device |
| JP2011192220A (en) * | 2010-03-16 | 2011-09-29 | Glory Ltd | Device, method and program for determination of same person |
| JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11023739B2 (en) | 2016-11-21 | 2021-06-01 | Nec Corporation | Flow line combining device, flow line combining method, and recording medium |
| JPWO2021260754A1 (en) * | 2020-06-22 | 2021-12-30 | ||
| WO2021260754A1 (en) * | 2020-06-22 | 2021-12-30 | 日本電気株式会社 | Matching device, sales promotion assistance system, matching method, and non-transitory computer-readable medium |
| JP7375932B2 (en) | 2020-06-22 | 2023-11-08 | 日本電気株式会社 | Verification device, sales promotion support system, verification method and program |
| JP2023093252A (en) * | 2021-12-22 | 2023-07-04 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
| JP2023093246A (en) * | 2021-12-22 | 2023-07-04 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
| US12437575B2 (en) | 2021-12-22 | 2025-10-07 | Toyota Jidosha Kabushiki Kaisha | Information processing system, information processing method, and non-transitory computer readable medium |
| US12439371B2 (en) | 2021-12-22 | 2025-10-07 | Toyota Jidosha Kabushiki Kaisha | Information processing system, information processing method, and non-transitory computer readable medium |
| JP7803116B2 (en) | 2021-12-22 | 2026-01-21 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
| JP7803115B2 (en) | 2021-12-22 | 2026-01-21 | トヨタ自動車株式会社 | Information processing system, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6067527B2 (en) | 2017-01-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Dong et al. | Marker-free monitoring of the grandstand structures and modal identification using computer vision methods | |
| US10891741B2 (en) | Human analytics using fusion of image and depth modalities | |
| CN107924461B (en) | Methods, circuits, devices, systems, and related computer-executable code for multi-factor image feature registration and tracking | |
| JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
| JP5853141B2 (en) | People counting device, people counting system, and people counting method | |
| JP6120404B2 (en) | Mobile body behavior analysis / prediction device | |
| US10638115B2 (en) | Calibration device | |
| KR102096230B1 (en) | Determining source lane of moving item merging into destination lane | |
| EP2450832A1 (en) | Image processing apparatus and image processing method | |
| JP2015001879A (en) | Information processing apparatus, information processing system, and program | |
| Gündüz et al. | A new YOLO-based method for social distancing from real-time videos | |
| JP6067527B2 (en) | Mobile object information management method, apparatus, and program | |
| JP2017083980A (en) | Behavior automatic analyzer and system and method | |
| CN109961472A (en) | Method, system, storage medium and electronic device for generating 3D heat map | |
| CN112513870A (en) | System and method for detecting, tracking and counting human objects of interest with improved altimetry | |
| CN106056030A (en) | Method and Apparatus for counting the number of person | |
| KR102550673B1 (en) | Method for visitor access statistics analysis and apparatus for the same | |
| JP6397706B2 (en) | Flow line editing apparatus, flow line editing method, and flow line editing program | |
| US20250232615A1 (en) | Management apparatus, management method, and non-transitory computer-readable medium | |
| US20250148830A1 (en) | Action evaluation system, action evaluation method, and non-transitory computer-readable medium | |
| JP7010030B2 (en) | In-store monitoring equipment, in-store monitoring methods, and in-store monitoring programs | |
| CN110717466A (en) | Method for returning position of safety helmet based on face detection frame | |
| JP2018060360A (en) | Person number estimation method, person number estimation device, person number estimation program and recording medium | |
| JP2018136832A (en) | Object image estimation device and object image determination device | |
| KR102506684B1 (en) | Method and apparatus for acquiring visitor's information |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150413 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20150420 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160209 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161116 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161213 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161221 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6067527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |