[go: up one dir, main page]

JP2017083980A - Behavior automatic analyzer and system and method - Google Patents

Behavior automatic analyzer and system and method Download PDF

Info

Publication number
JP2017083980A
JP2017083980A JP2015209557A JP2015209557A JP2017083980A JP 2017083980 A JP2017083980 A JP 2017083980A JP 2015209557 A JP2015209557 A JP 2015209557A JP 2015209557 A JP2015209557 A JP 2015209557A JP 2017083980 A JP2017083980 A JP 2017083980A
Authority
JP
Japan
Prior art keywords
action
flow line
measurement
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015209557A
Other languages
Japanese (ja)
Other versions
JP6756473B2 (en
Inventor
聡 笹谷
So Sasatani
聡 笹谷
誠也 伊藤
Seiya Ito
誠也 伊藤
敦士 澤山
Atsushi Sawayama
敦士 澤山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi INS Software Ltd
Original Assignee
Hitachi INS Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi INS Software Ltd filed Critical Hitachi INS Software Ltd
Priority to JP2015209557A priority Critical patent/JP6756473B2/en
Publication of JP2017083980A publication Critical patent/JP2017083980A/en
Application granted granted Critical
Publication of JP6756473B2 publication Critical patent/JP6756473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/009User recognition or proximity detection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F19/00Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
    • G07F19/20Automatic teller machines [ATMs]
    • G07F19/207Surveillance aspects at ATMs

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 人物行動分析装置において、人物行動の動線を欠落なく効率的に取得すること。【解決手段】 人物行動分析装置1は、計測装置2から人物の位置や行動を認識する検知領域を設定するエリア情報設定部6と、検知領域に基づき人物の位置や行動を認識する位置情報計測部4及び行動認識部5と、計測結果をログデータとして出力する行動ログ出力部7と、ログデータに基づき人物の動線を補完する動線補完部8と、を有する。【選択図】 図1PROBLEM TO BE SOLVED: To efficiently acquire a flow line of a person's behavior without omission in a person's behavior analysis device. SOLUTION: A person behavior analysis device 1 has an area information setting unit 6 for setting a detection area for recognizing a person's position and action from a measurement device 2, and a position information measurement for recognizing a person's position and action based on the detection area. It has a unit 4 and an action recognition unit 5, an action log output unit 7 that outputs the measurement result as log data, and a movement line complementing unit 8 that complements the movement line of a person based on the log data. [Selection diagram] Fig. 1

Description

本発明は、行動分析装置及びシステム及び方法に係り、特に、人物の行動や動向についての情報を分析する行動分析装置及びシステム及び方法に関するものである。   The present invention relates to a behavior analysis device, system, and method, and more particularly, to a behavior analysis device, system, and method for analyzing information about a person's behavior and trends.

スーパーマーケットなどの店舗において、店舗内の顧客の購買プロセスを把握することにより、店舗側では商品棚のレイアウト改善や、販促キャンペーンなどの効率的な販売促進対策を講じることができる。そのため、顧客の購買プロセスを取得してその購買行動や購買動向などの情報を分析する人物(顧客)行動分析装置へのニーズが高い。顧客行動を分析する手段として、従来ではPOSなどの業務データを利用してきたものの、本分析では顧客が購入した商品及び購入しなかった商品の情報しか取り扱うことができず、適切な販売施策を提案することがむずかしい場合がある。そこで、より効果的な販売施策を講じられるよう、計測装置を使用することで、商品購入に至るまでの顧客の移動ルートや商品購入に至らなかった際の顧客の行動などを認識して、顧客の詳細な購買プロセスを把握する技術に注目が集まっている。
例えば、特許文献1では、モバイルデバイスを利用して顧客の位置情報と購入した商品情報を取得することで、顧客の移動ルートと購買行動を紐付けている。また、特許文献2では、監視カメラなどにより顧客が商品を購入する様子を撮影し、そのカメラ映像に画像認識技術を適用することで、顧客の移動ルートだけでなく顧客の行動などを把握している。
By grasping the purchasing process of customers in a store such as a supermarket, the store can take efficient sales promotion measures such as improvement of the product shelf layout and sales promotion campaign. Therefore, there is a high need for a person (customer) behavior analysis device that acquires a customer's purchase process and analyzes information such as purchase behavior and purchase trends. As a means of analyzing customer behavior, business data such as POS has been used in the past, but this analysis can only handle information on products purchased by customers and products not purchased, and proposes appropriate sales measures. It may be difficult to do. Therefore, by using a measuring device so that more effective sales measures can be taken, the customer's movement route up to the purchase of the product and the behavior of the customer when the purchase is not achieved are recognized. Attention has been focused on the technology to grasp the detailed purchasing process.
For example, in Patent Document 1, a customer's travel route and purchase behavior are linked by acquiring customer location information and purchased product information using a mobile device. Patent Document 2 captures not only the customer's travel route but also the behavior of the customer by photographing how a customer purchases a product using a surveillance camera and applying image recognition technology to the camera image. Yes.

特開2014−052759号公報JP 2014-052759 A 国際公開第2015/033577号International Publication No. 2015/033577

特許文献1では、計測用のセンサとして特別なアプリケーションがインストールされたモバイルデバイスを使用している。そのため、顧客の位置情報を常に取得することにより移動ルートを把握することは可能であるものの、商品を手に取ったなどの顧客の行動を認識することができないという課題がある。また、計測準備としては、顧客にアプリケーションを自身のデバイスに直接インストールしてもらうか、あるいは店舗側でアプリケーションがインストール済みのデバイスを予め用意する必要がある。そのため、前者の方法では、顧客への負担があり分析対象となる顧客の年齢層などに制限が生じる場合があり、後者の方法では、コスト面などの理由から分析可能な顧客数が限られてしまうことが想定されるという課題がある。
特許文献2では、カメラを利用することで顧客の購買プロセスを認識しているため、取得した画像情報の解析によって顧客の追跡だけでなく行動の認識も可能となる。しかし、カメラ映像から顧客を追跡して移動ルートや購買行動を示す動線を抽出するためには、フレーム毎に常に対象の顧客を検出して同一人物であるか否かを判定し、その結果を保存し続ける必要がある。そのため、分析対象が広範囲である場合や、人物の画像検出率が低い場合は動線が途切れてしまう場合があるという課題や、動線が途切れずに取得できた場合でもデータ量が膨大となり効率的な分析が難しい場合があるという課題がある。
In Patent Document 1, a mobile device in which a special application is installed is used as a measurement sensor. Therefore, although it is possible to grasp a movement route by always acquiring customer position information, there is a problem that it is impossible to recognize customer behavior such as picking up a product. As preparation for measurement, it is necessary to have a customer install an application directly on his / her device, or to prepare a device on which the application is already installed at the store side. For this reason, the former method imposes a burden on customers and may limit the age group of customers to be analyzed. The latter method limits the number of customers that can be analyzed for reasons such as cost. There is a problem that it is assumed that the
In Patent Document 2, since the purchase process of the customer is recognized by using a camera, not only the customer can be tracked but also the action can be recognized by analyzing the acquired image information. However, in order to track the customer from the camera video and extract the flow line indicating the travel route and purchase behavior, the target customer is always detected for each frame to determine whether or not they are the same person. Need to keep saving. For this reason, there is a problem that the flow line may be interrupted when the analysis target is a wide range or when the human image detection rate is low, and even if the flow line can be acquired without being interrupted, the amount of data becomes enormous and efficient. There is a problem that a general analysis may be difficult.

本発明は、以上の点に鑑み、顧客等の人物(対象)の行動の動線を欠落なく効率的に取得することを目的とする。   In view of the above points, an object of the present invention is to efficiently acquire a flow line of behavior of a person (target) such as a customer without omission.

本発明の第1の解決手段によると、
行動分析装置であって、
計測装置の計測結果から取得した三次元情報から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
検知エリア毎の対象の行動を表す行動ログを作成する行動ログ出力部と、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する動線補完部と
を備えた行動分析装置が提供される。
According to the first solution of the present invention,
A behavior analysis device,
A position information measuring unit that measures the position of the object from the three-dimensional information acquired from the measurement result of the measuring device;
From the three-dimensional information acquired from the measurement result of the measurement device, an action recognition unit that recognizes one of the movement of the target and a predetermined action;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
An action log output unit that creates an action log representing the target action for each detection area;
A flow line complement unit for combining a plurality of flow line logs including a plurality of action logs of the same target according to predetermined action process information representing a series of actions performed by the target based on the plurality of action logs; A behavior analysis apparatus comprising:

本発明の第2の解決手段によると、
行動分析システムであって、
計測装置と、
前記計測装置から対象の三次元情報を取得する三次元情報取得部と、
行動分析装置と
を備え、
前記行動分析装置は、
前記計測装置の計測結果から取得した三次元情報から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
検知エリア毎の対象の行動を表す行動ログを作成する行動ログ出力部と、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する動線補完部と
を備えた行動分析システムが提供される。
According to the second solution of the present invention,
A behavior analysis system,
A measuring device;
A three-dimensional information acquisition unit that acquires target three-dimensional information from the measurement device;
A behavior analysis device,
The behavior analysis device includes:
A position information measuring unit that measures the position of the object from the three-dimensional information acquired from the measurement result of the measuring device;
From the three-dimensional information acquired from the measurement result of the measurement device, an action recognition unit that recognizes one of the movement of the target and a predetermined action;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
An action log output unit that creates an action log representing the target action for each detection area;
A flow line complement unit for combining a plurality of flow line logs including a plurality of action logs of the same target according to predetermined action process information representing a series of actions performed by the target based on the plurality of action logs; Is provided.

本発明の第3の解決手段によると、
行動分析方法であって、
計測装置の計測結果から取得した三次元情報から対象の位置を計測し、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識し、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定し、
検知エリア毎の対象の行動を表す行動ログを作成し、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する
行動分析方法が提供される。
According to the third solution of the present invention,
A behavior analysis method,
Measure the position of the target from the three-dimensional information obtained from the measurement results of the measuring device,
From the three-dimensional information acquired from the measurement result of the measurement device, recognize any one of the movement of the target and a predetermined action,
Set one or more detection areas to recognize the position and action of the target in the measurement range of the measurement device,
Create an action log that represents the target action for each detection area,
Based on multiple behavior logs, a behavior analysis method is provided that combines multiple flow-line logs containing multiple behavior logs for the same target according to predetermined behavior process information representing a series of actions performed by the target. Is done.

本発明の第4の解決手段によると、
行動分析装置であって、
計測装置の計測結果から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
を備えた行動分析装置が提供される。
According to the fourth solution of the present invention,
A behavior analysis device,
A position information measurement unit that measures the position of the target from the measurement result of the measurement device;
An action recognition unit for recognizing one of the movement of the target and a predetermined action from the measurement result of the measurement device;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
A behavior analysis apparatus comprising:

本発明によると、顧客等の人物(対象)の行動の動線を欠落なく効率的に取得することができる。   According to the present invention, it is possible to efficiently acquire a flow line of behavior of a person (target) such as a customer without omission.

本発明の実施例1の人物行動分析装置の機能ブロック図。1 is a functional block diagram of a human behavior analysis apparatus according to a first embodiment of the present invention. 三次元情報取得部3のフローを説明する図。The figure explaining the flow of the three-dimensional information acquisition part 3. FIG. 位置情報計測部4のフローを説明する図。The figure explaining the flow of the positional information measurement part 4. FIG. 行動認識部5により認識する顧客行動の一例の説明図。Explanatory drawing of an example of the customer action recognized by the action recognition part 5. FIG. エリア情報設定部6により設定する検知エリアの一例の説明図。Explanatory drawing of an example of the detection area set by the area information setting part 6. FIG. 行動ログ出力部7により出力する行動ログの一例の説明図。Explanatory drawing of an example of the action log output by the action log output part 7. FIG. 動線補完部8のフローを説明する図。The figure explaining the flow of the flow line complementation part 8. FIG. 動線補完部8の処理S1と処理S2により出力する行動ログと動線ログの一例の説明図。Explanatory drawing of an example of the action log output by process S1 and process S2 of the flow line complement part 8, and a flow line log. 動線補完部8により使用する行動プロセス情報の一例の説明図。Explanatory drawing of an example of the action process information used by the flow line complement part 8. FIG. 動線補完部8により出力する補完された動線ログの一例の説明図。Explanatory drawing of an example of the complemented flow line log output by the flow line complement part 8. FIG. 例えば性別の属性を反映した行動ログの一例の説明図を示す。For example, an explanatory diagram of an example of an action log reflecting gender attributes is shown. 分析結果出力部9により出力する結果の一例の説明図。Explanatory drawing of an example of the result output by the analysis result output part 9. FIG. 本発明の実施例2の人物行動分析装置の機能ブロック図。The functional block diagram of the person action analysis apparatus of Example 2 of this invention. 計測情報選定部93により使用する計測装置と選定する計測項目の対応表の一例の説明図。Explanatory drawing of an example of the corresponding | compatible table of the measurement item used by the measurement information selection part 93, and the measurement item to select. 共通マップ作成部94のフローを説明する図。The figure explaining the flow of the common map preparation part 94. FIG. 複数の計測装置の使用時におけるエリア情報設定部6により設定する検知エリアの一例の説明図。Explanatory drawing of an example of the detection area set by the area information setting part 6 at the time of use of a some measuring device. 図16に示した検知エリアの設定例に対して、エリア情報を付加した一例の説明図。FIG. 17 is an explanatory diagram of an example in which area information is added to the detection area setting example shown in FIG. 16.

以下、本発明の具体的な実施形態について、図面を参照しながら説明する。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施例1の人物行動分析装置のブロック構成図である。本実施例では、計測装置としてステレオカメラを使用して人物(対象)の位置情報の取得と行動の認識を実施した場合の例を説明するが、本実施例はこれら計測装置に限定されるものでは無い。なお、計測装置としては、例えば、単一のカメラ、三次元センサ、レーザセンサ(レーザレーダ)、赤外線タグ等の様々な計測装置を用いることができる。図1に示す人物行動分析装置1は、2台のカメラ2を隣接したステレオカメラを用いて、カメラ2(撮像装置)中の特定の対象の行動ログに基づき対象の動線を抽出し行動プロセスを分析する装置である。なお、図1において、ブロック3、4、5、6、7、8、9の各機能は、例えば、演算装置、主記憶装置、外部記憶装置を有するカメラ、あるいはカメラとは別に用意した計算機等により実現される。図1に示す各機能の概要をまず説明すると、三次元情報取得部3はステレオカメラから対象の三次元情報を取得する機能、位置情報計測部4は取得した三次元情報から対象の位置を計測する機能、行動認識部5は取得した三次元情報から、対象の位置と、対象の移動および購買等に関する行動を認識する機能、エリア情報設定部6はステレオカメラの計測範囲において対象の位置及び行動を認識する検知エリアを設定する機能、行動ログ出力部7は認識された検知エリア毎の対象の位置及び行動をログデータとして出力する機能、動線補完部8は出力された行動ログを整理して対象の動線を補完する機能、分析結果出力部9は取得した対象の動線情報を分析した結果を出力する機能である。以下、各機能の詳細について説明する。   FIG. 1 is a block diagram of the human behavior analysis apparatus according to the first embodiment of the present invention. In this embodiment, an example in which a stereo camera is used as a measurement device to acquire position information of a person (target) and recognition of an action will be described. However, this embodiment is limited to these measurement devices. Not. In addition, as a measuring device, various measuring devices, such as a single camera, a three-dimensional sensor, a laser sensor (laser radar), an infrared tag, can be used, for example. The human behavior analysis apparatus 1 shown in FIG. 1 uses a stereo camera in which two cameras 2 are adjacent to each other to extract a flow line of a target based on a behavior log of a specific target in the camera 2 (imaging device). It is a device that analyzes. In FIG. 1, each function of blocks 3, 4, 5, 6, 7, 8, and 9 is, for example, a computing device, a main storage device, a camera having an external storage device, a computer prepared separately from the camera, or the like. It is realized by. First, the outline of each function shown in FIG. 1 will be described. The three-dimensional information acquisition unit 3 acquires the target three-dimensional information from the stereo camera, and the position information measurement unit 4 measures the target position from the acquired three-dimensional information. The function and action recognition unit 5 recognizes the target position and the action related to the movement and purchase of the target from the acquired three-dimensional information, and the area information setting unit 6 sets the target position and action in the measurement range of the stereo camera. The action log output unit 7 functions to output the target position and action for each detected detection area as log data, and the flow line complementation unit 8 organizes the output action log. The function of complementing the target flow line, the analysis result output unit 9 is a function of outputting the result of analyzing the acquired target flow line information. Details of each function will be described below.

図2は、三次元情報取得部3によって、ステレオカメラから画像と距離の情報を含む三次元情報を取得するフローを示している。図2において、画像取得部10はカメラから画像を取得する機能、距離算出部11は画像取得部10によってカメラ2からそれぞれ取得した画像とカメラパラメータから画像中の対象とカメラとの距離を算出する機能である。
画像取得部10は、所定の時間周期で少なくとも1つ以上のカメラ2から取得した可視光をCCDやCMOS素子を介して電気信号に変換する手段である。デジタル方式の場合には、これに加えてデジタル変換も行う。以降では、画像取得部10から出力された画像を撮像画像と称する。
距離算出部11は、2台のカメラにより得た撮像画像と、各カメラにおいて予め公知のキャリブレーション技術により推定したカメラパラメータから、撮像画像中の物体とカメラとの距離を算出する。なお、距離の算出方法としては、例えば、カメラパラメータから求めた基礎行列Fによって視差を算出するステレオマッチングと呼ばれる一般的な手法を使用することができる。基礎行列Fは、2台のカメラの相対的な位置関係を示すパラメータ行列であり、以下の数式に示すような2台のカメラの内部パラメータK、Kと外部パラメータD、Dにより算出できる。なお、以下の数式において、内部パラメータK中のfは焦点距離、aはアスペクト比、sはスキュー、(v,u)は画像座標の中心座標を示し、外部パラメータD中の(r11、r12、r13、r21、r22、r23、r31、r32、r33)はカメラの向きを示し、(t、t、t)はカメラ設置位置を示す。
FIG. 2 shows a flow in which the 3D information acquisition unit 3 acquires 3D information including image and distance information from the stereo camera. In FIG. 2, the image acquisition unit 10 functions to acquire an image from the camera, and the distance calculation unit 11 calculates the distance between the target in the image and the camera from the image acquired from the camera 2 by the image acquisition unit 10 and the camera parameters. It is a function.
The image acquisition unit 10 is means for converting visible light acquired from at least one camera 2 at a predetermined time period into an electrical signal via a CCD or a CMOS element. In the case of a digital system, digital conversion is also performed in addition to this. Hereinafter, the image output from the image acquisition unit 10 is referred to as a captured image.
The distance calculation unit 11 calculates the distance between the object and the camera in the captured image from the captured images obtained by the two cameras and the camera parameters estimated in advance by a known calibration technique in each camera. As a distance calculation method, for example, a general method called stereo matching that calculates parallax using a basic matrix F obtained from camera parameters can be used. The basic matrix F is a parameter matrix indicating the relative positional relationship between the two cameras, and is expressed by the internal parameters K 0 and K 1 and the external parameters D 0 and D 1 of the two cameras as shown in the following formula. It can be calculated. In the following equation, f in the internal parameter K is the focal length, a is the aspect ratio, s is the skew, (v c , u c ) is the center coordinate of the image coordinates, and (r 11 , R 12 , r 13 , r 21 , r 22 , r 23 , r 31 , r 32 , r 33 ) indicate the direction of the camera, and (t x , t y , t z ) indicate the camera installation position.

Figure 2017083980
Figure 2017083980

図3は、位置情報計測部4によって、三次元情報取得部3から導出した距離情報を使用して対象を検出して位置を計測するフローの一例を示している。図3(a)において、計測対象の人物20a、20b、計測対象外の商品棚21、カメラから対象までの距離値を画素毎に示す視差画像22が示される。位置情報計測部4は、まず、図3(b)に示す背景差分処理によって人物の領域を抽出する。図3(b)において、予め取得しておいた背景視差画像23が示され、画像中には商品棚21のみ存在している。なお、このような背景視差画像23は、カメラにより予め撮影して記憶しておくことができる。そのため、位置情報計測部4は、人物が存在する入力の視差画像22と背景視差画像23との差分を取ることで、人物のみ存在する人物領域を示す視差画像24を作成することができる。次に、位置情報計測部4は、図3(c)に示す視点変換処理によって人物領域から人物を区別して、各人物の三次元情報を取得する。図3(c)において、視差画像24の画像座標と距離情報から推定した人物の三次元情報25、三次元情報25を真上の視点から見た俯瞰画像26が示される。なお、三次元情報とは特定の座標空間上にプロットされた三次元座標の点群の情報を示している。また、俯瞰画像の作成方法としては、カメラパラメータを用いた透視投影といった一般的な方法を使用する。そして、図3(c)に示すように、位置情報計測部4は、俯瞰画像における人物の三次元情報テンプレート27と、俯瞰画像26内の各人物の三次元情報の一致度合を算出し、一致度合により人物が存在するか否かを判定することで人物を検出する。次に、位置情報計測部4は、検出した人物の三次元情報から人物の位置情報を測定する。測定方法としては、例えば図3(d)に示すように、俯瞰画像26における各人物の三次元情報の重心座標28a、28bを人物の位置情報として決定する方法がある。なお、この方法以外にも三次元情報や画像情報を使用して人物を検出して位置を計測できる方法であれば、特に限定しない。   FIG. 3 shows an example of a flow in which the position information measurement unit 4 uses the distance information derived from the three-dimensional information acquisition unit 3 to detect a target and measure the position. In FIG. 3A, a person 20a, 20b to be measured, a product shelf 21 not to be measured, and a parallax image 22 showing the distance value from the camera to the object for each pixel are shown. The position information measuring unit 4 first extracts a person region by background difference processing shown in FIG. In FIG. 3B, a background parallax image 23 acquired in advance is shown, and only the product shelf 21 exists in the image. Note that such a background parallax image 23 can be captured and stored in advance by a camera. Therefore, the position information measurement unit 4 can create a parallax image 24 indicating a person region where only a person exists by taking the difference between the input parallax image 22 where the person exists and the background parallax image 23. Next, the position information measurement unit 4 distinguishes the person from the person area by the viewpoint conversion process shown in FIG. 3C, and acquires the three-dimensional information of each person. In FIG. 3C, a person's three-dimensional information 25 estimated from the image coordinates and distance information of the parallax image 24, and a bird's-eye view image 26 of the three-dimensional information 25 viewed from the viewpoint directly above are shown. Note that the three-dimensional information indicates information of a point group of three-dimensional coordinates plotted on a specific coordinate space. Moreover, as a method for creating a bird's-eye view image, a general method such as perspective projection using camera parameters is used. Then, as shown in FIG. 3C, the position information measuring unit 4 calculates the degree of coincidence between the 3D information template 27 of the person in the overhead image and the 3D information of each person in the overhead image 26. The person is detected by determining whether or not the person exists according to the degree. Next, the position information measuring unit 4 measures the position information of the person from the detected three-dimensional information of the person. As a measuring method, for example, as shown in FIG. 3D, there is a method of determining the barycentric coordinates 28a and 28b of the three-dimensional information of each person in the overhead image 26 as the position information of the person. In addition to this method, any method can be used as long as it can detect a person using three-dimensional information or image information to measure a position.

図4は、行動認識部5によって認識する対象の人物(顧客)の移動及び購買に関する行動の一例を示している。図4において、図4(a)は計測範囲へ顧客30が進入する行動、図4(b)は計測範囲から顧客30が退出する行動、図4(c)は顧客30が滞留する行動、図4(d)は顧客30が商品棚31から商品を手に取る行動、図4(e)は顧客30がカート32の中に商品を入れる行動、図4(f)は顧客30が店舗スタッフ33からの接客を受ける行動である。
図4(a)の「進入」、図4(b)の「退出」、図4(c)の「滞留」については、行動認識部5は、位置情報計測部4によって取得した人物の位置を利用し、例えば、あるエリアの外から中へ人物の位置が移動したときは進入、あるエリアの中から外へ人物の位置が移動したときは退出、一定時間の間人物の位置が変化しないときは滞留として認識する。図4(d)「商品を手に取る」、図4(e)「商品をカートに入れる」、図4(f)「接客」については、行動認識部5は、三次元情報取得部3から取得した三次元情報を利用して、例えば、一般的な三次元の点群解析や画像解析の技術により認識する。例えば、図4(d)「商品を手に取る」は、顧客の手を検出して、顧客の手と商品棚あるいは商品の三次元の点群情報同士が連結したか否か、図4(e)「商品をカートに入れる」は、顧客、商品、カートを別々に認識して、商品の三次元点群が顧客からカートへ移動したか否か、図4(f)「接客」は、顧客と店舗スタッフを別々に認識して、店舗スタッフと顧客の三次元点群情報同士が近接したか否か、などにより判定できる。なお、顧客と店舗スタッフの識別方法としては、例えば、計測範囲において最も長い時間の間又は予め定めた閾値より長い時間の間等に滞留行動を続ける人物を店舗スタッフと検出する方法、あるいは、予め特別な色や形の制服を店舗スタッフに着用してもらい画像情報から店舗スタッフを識別する方法など、特に限定しない。また、認識する顧客の行動としては、図4に示した行動以外にも「商品を見る」、「商品を棚に戻す」、「商品棚の前でうろうろする」などといった顧客の購買に関する行動プロセスを把握するために役立つ行動であれば良く、その認識方法についても三次元情報や画像情報を使用するものであれば特に限定しない。
FIG. 4 shows an example of behavior related to movement and purchase of a person (customer) to be recognized by the behavior recognition unit 5. 4A, FIG. 4A is an action in which the customer 30 enters the measurement range, FIG. 4B is an action in which the customer 30 leaves the measurement range, and FIG. 4C is an action in which the customer 30 stays. 4 (d) is an action in which the customer 30 picks up a product from the merchandise shelf 31, FIG. 4 (e) is an action in which the customer 30 puts the product into the cart 32, and FIG. 4 (f) is an action in which the customer 30 is the store staff 33. It is an action to receive customer service.
For “entrance” in FIG. 4A, “exit” in FIG. 4B, and “stay” in FIG. 4C, the action recognition unit 5 determines the position of the person acquired by the position information measurement unit 4. For example, when a person's position moves from outside to inside of a certain area, enter, when a person's position moves out of a certain area, leave, or when the person's position does not change for a certain period of time Is recognized as staying. As for FIG. 4 (d) “get the product”, FIG. 4 (e) “put the product into the cart”, and FIG. 4 (f) “customer service”, the action recognition unit 5 starts from the 3D information acquisition unit 3. Using the acquired three-dimensional information, for example, it is recognized by a general three-dimensional point cloud analysis or image analysis technique. For example, FIG. 4 (d) “Get a product” detects whether a customer's hand is detected and whether or not the customer's hand and the three-dimensional point cloud information of the product shelf or the product are connected to each other. e) “Put product in cart” means that the customer, the product, and the cart are recognized separately and the 3D point cloud of the product has moved from the customer to the cart. The customer and the store staff can be recognized separately, and whether or not the 3D point cloud information of the store staff and the customer are close to each other can be determined. In addition, as a method for identifying a customer and a store staff, for example, a method of detecting a person who continues a staying behavior for the longest time in a measurement range or a time longer than a predetermined threshold as a store staff, or in advance There is no particular limitation, such as a method of identifying the store staff from the image information by having the store staff wear a uniform of a special color or shape. In addition to the behaviors shown in FIG. 4, the customer behaviors to be recognized are behavior processes related to customer purchases such as “view products”, “return products to the shelf”, “roam in front of product shelves”, etc. The recognition method is not particularly limited as long as it uses three-dimensional information or image information.

図5は、エリア情報設定部6によって、計測範囲における顧客の行動を認識する検知エリアの設定例を示している。図5(a)は、計測範囲における検知エリアの設定値40が示される。図5(b)における、計測範囲の俯瞰図41では、商品棚42、顧客の「進入」と「退出」の行動を認識する検知エリア43a、43b、43c、43d、顧客の「滞留」の行動を認識する検知エリア44、顧客の「商品を手に取る」と「商品を棚に戻す」と「商品をカートに入れる」の行動を認識する検知エリア45、「接客」の行動を認識する検知エリア46を示す。エリア情報設定部6では、人物行動分析装置の利用者が計測範囲において認識したい顧客の行動を選択し、行動ごとの検知エリアの位置とエリアIDを設定する。顧客行動の選択や検知エリアの位置の設定方法としては、例えば、図5のように計測範囲を俯瞰的に見た図をPCのディスプレイなどに表示しGUIなどのインタフェースを利用して手動にて設定する方法以外にも、撮像画像や視差画像からシーン認識等により撮影範囲の環境を推定した後に自動で設定する方法や、カメラ映像をそのまま表示して映像中にGUIなどにより直接領域を描き設定する方法など、特に限定しない。なお、検知エリアの位置の設定方法としては、エリア形状は特に矩形に限らず楕円形・円形・三角形・多角形・ひし形などの各種形状を利用しても良く、各検知エリアの重複があっても良い。また、各検知エリアに設定する顧客行動は必ずしも1つではなく、複数以上の行動を設定しても良い。   FIG. 5 shows an example of setting a detection area in which the area information setting unit 6 recognizes customer behavior in the measurement range. FIG. 5A shows a detection area setting value 40 in the measurement range. In FIG. 5B, an overhead view 41 of the measurement range, the product shelf 42, detection areas 43 a, 43 b, 43 c, 43 d for recognizing the “entry” and “exit” behavior of the customer, and the “residence” behavior of the customer Detection area 44 for recognizing the customer, detection area 45 for recognizing the actions of the customer “take the product”, “return the product to the shelf” and “put the product into the cart”; Area 46 is shown. In the area information setting unit 6, the user of the human behavior analysis apparatus selects a customer's behavior that the user wants to recognize in the measurement range, and sets the position and area ID of the detection area for each behavior. As a method for selecting the customer behavior and setting the position of the detection area, for example, as shown in FIG. 5, a measurement view of the measurement range is displayed on a PC display or the like, and manually using an interface such as a GUI. In addition to the setting method, the camera area is automatically set after estimating the shooting range environment from the captured image or parallax image by scene recognition, etc., or the camera image is displayed as it is and the area is directly drawn and set in the GUI etc. There are no particular restrictions on the method used. As a method for setting the position of the detection area, the area shape is not limited to a rectangle, and various shapes such as an ellipse, a circle, a triangle, a polygon, and a rhombus may be used. Also good. Further, the customer behavior set in each detection area is not necessarily one, and a plurality of behaviors may be set.

図6は、行動ログ出力部7によって出力される行動ログと行動ログに記載されるエリアIDと行動IDの一覧表の一例を示している。図6は、行動ログ50、エリアIDの一覧表51、行動IDの一覧表52、を示す。行動ログ出力部7では、エリア情報設定部6により設定された検知エリア内において、行動認識部5によって特定の行動が認識された場合に、認識時間、エリアID、行動ID、人物IDが記載された行動ログを作成し、それを出力する。行動ログの詳細について説明すると、認識時間は行動が認識された瞬間の時間であり、エリアIDはエリア情報設定部6によって設定された検知エリアのID番号、行動IDは行動認識部5によって認識された顧客行動のID番号、人物IDは行動認識部5によって認識された対象の人物(顧客)のID番号である。人物IDの割当方法としては、例えば、位置情報計測部4によってフレーム毎に検出された人物において、前フレームと現在フレームにて同一人物が存在するか否かを判定して、存在する場合は同じ人物IDを割り当て、存在しない場合は新たな人物IDを割り当てるといった方法がある。なお、同一人物が存在するか否かを判断する手法としては、例えば、位置情報計測部4によって計測した位置の距離の差が一定の閾値以下であれば同一人物と判定する手法や、画像情報を用いた一般的な顔認識手法によって同一人物であるか否かを判定する手法などを利用する。また、本実施例では、この人物IDの割当が成功しなかった場合においても同一顧客の動線を取得できるため、必ずしも常に同一人物に同じ人物IDが割り当てられる必要は無く、人物IDの割当方法についても前述した方法以外に特に限定されるものではない。また、行動ログの出力方法としては、例えば、テキストファイルやエクセルファイルなど一般的な読み書きが可能な書式を利用するなど、特に限定しない。   FIG. 6 shows an example of an action log output by the action log output unit 7 and a list of area IDs and action IDs described in the action log. FIG. 6 shows an action log 50, an area ID list 51, and an action ID list 52. In the action log output unit 7, when a specific action is recognized by the action recognition unit 5 in the detection area set by the area information setting unit 6, the recognition time, area ID, action ID, and person ID are described. Create a behavior log and output it. The details of the action log will be described. The recognition time is the time when the action is recognized, the area ID is the ID number of the detection area set by the area information setting unit 6, and the action ID is recognized by the action recognition unit 5. The customer action ID number and the person ID are the ID numbers of the target person (customer) recognized by the action recognition unit 5. As a person ID assignment method, for example, in the person detected for each frame by the position information measuring unit 4, it is determined whether or not the same person exists in the previous frame and the current frame. There is a method of assigning a person ID, and assigning a new person ID if it does not exist. In addition, as a method for determining whether or not the same person exists, for example, a method for determining the same person if the difference in position distance measured by the position information measuring unit 4 is equal to or less than a certain threshold, or image information A method of determining whether or not they are the same person by a general face recognition method using the method is used. Further, in this embodiment, since the flow line of the same customer can be acquired even when the assignment of the person ID is not successful, it is not always necessary to assign the same person ID to the same person. There is no particular limitation on the method other than the method described above. The action log output method is not particularly limited, for example, using a general readable / writable format such as a text file or an Excel file.

図7は、動線補完部8の処理のフローを示している。動線補完部8は、まず全ての(又は処理対象の)行動ログを認識時間に応じて時系列に整列した後(S1)、整列された行動ログから同一の人物IDの行動ログを抽出して動線ログを作成する(S2)。次に、動線補完部8は、作成した各動線ログと、商品の購入/未購入に関する一連の顧客行動を表わした予め定められた行動プロセス情報とを比較し欠落があると考えられる動線ログ同士又は一連の行動と推定される動線ログ同士を連結して補完する(S3)。次に、動線補完部8は、補完した動線ログの動線信頼度を算出し(S4)、指定した閾値未満の信頼度であれば再度異なる動線ログ同士を組み合わせて動線ログを補完し、閾値以上の信頼度であれば最終の動線ログとして出力する(S5)。以下、動線補完部8の各処理について説明する。   FIG. 7 shows a processing flow of the flow line complementation unit 8. The flow line complementing unit 8 first arranges all (or processing target) action logs in time series according to the recognition time (S1), and then extracts action logs having the same person ID from the arranged action logs. A flow line log is created (S2). Next, the flow line complementation unit 8 compares each created flow line log with predetermined action process information representing a series of customer actions related to the purchase / non-purchase of goods, and the movement that is considered to be missing. The line logs or the flow line logs estimated as a series of actions are connected and complemented (S3). Next, the flow line complementing unit 8 calculates the flow line reliability of the complemented flow line log (S4), and if the reliability is less than the specified threshold value, the flow line logs are combined again with different flow line logs. If the reliability is equal to or higher than the threshold value, it is output as the final flow line log (S5). Hereinafter, each process of the flow line complementation unit 8 will be described.

図8は、動線補完部8の処理S1により時系列に整列された行動ログと処理S2によって抽出された同一の人物IDの動線ログの一例を示している。図8は、商品棚42が存在する計測範囲の俯瞰図60、行動IDの一覧表61、処理S1によって時系列にソートされた行動ログの一例62、処理S2により、時系列にソートされた行動ログの中から同一の人物IDを示す行動ログのみ抽出された動線ログの一例であり、順番に、個人ID10、個人ID11、個人ID12、個人ID13の動線ログ63a、63b、63c、63d、を示している。動線ログ63a、63b、63c、63dは同一と判定された人物の行動ログを整列したものであるため、行動ログの欠落が無い状況においてはこれらの動線ログ情報を辿ることで顧客の動線を把握することが可能となる。しかし、実際には位置計測や行動認識が失敗したり不可能なときなど行動ログに欠落が生じる場合があるため、動線補完部8は、以下に説明する処理S3と処理S4にて行動ログの欠落を補完して動線を作成する。   FIG. 8 shows an example of the action log arranged in time series by the process S1 of the flow line complementation unit 8 and the flow log of the same person ID extracted by the process S2. FIG. 8 is an overhead view 60 of the measurement range in which the product shelf 42 exists, a list 61 of action IDs, an example 62 of action logs sorted in time series by the process S1, and actions sorted in time series by the process S2. It is an example of a flow line log in which only action logs indicating the same person ID are extracted from the log, and in order, flow line logs 63a, 63b, 63c, 63d of personal ID 10, personal ID 11, personal ID 12, and personal ID 13; Is shown. Since the flow logs 63a, 63b, 63c, and 63d are obtained by arranging the action logs of the persons determined to be the same, in the situation where there is no missing action log, the flow of the customer can be traced by following these flow line log information. It becomes possible to grasp the line. However, since the action log may actually be missing, such as when position measurement or action recognition fails or is impossible, the flow line complementation unit 8 performs the action log in the processes S3 and S4 described below. Compensate for the lack of and create a flow line.

図9は、動線補完部8の処理S3にて使用する行動ID一覧表61に対応した行動プロセス情報の一例を示している。行動プロセス情報は、図9(a)のように複数の行列データのみ保持しても良く、あるいは行列データ群と図9(b)のような状態遷移図を組み合わせて保持しても良い。図9は、「商品棚に興味無し」を示す行動プロセス70、「商品棚に興味あり」を示す行動プロセス71、「商品購入」を示す行動プロセス72、「興味を示したが商品未購入」を示す行動プロセス73、についての行列データである。なお、行動ID一覧表と行動プロセス情報については、上述以外にも本システムの利用者が分析に必要なものを選定して良く、特に限定しない。例えば、行動ID一覧表に「接客」等、行動プロセスに「接客を受けず商品購入」、「接客を受け商品購入」、「接客を受けたものの商品未購入」等を加えることで、接客の有無による商品売上高の比較や接客サービスの品質比較などの分析が可能となる。   FIG. 9 shows an example of behavior process information corresponding to the behavior ID list 61 used in the process S3 of the flow line complementation unit 8. The behavior process information may be held only in a plurality of matrix data as shown in FIG. 9A, or may be held in combination with a matrix data group and a state transition diagram as shown in FIG. 9B. FIG. 9 shows an action process 70 indicating “not interested in product shelf”, an action process 71 indicating “interested in product shelf”, an action process 72 indicating “purchase product”, and “not shown but purchased product”. Is a matrix data for an action process 73 indicating In addition to the above, the action ID list and the action process information may be selected by the user of the present system for analysis, and are not particularly limited. For example, by adding “customer service without receiving customer service”, “purchase product without customer service”, “purchase product with customer service”, etc. to the behavior ID list, etc. Analysis of product sales by presence or absence and quality comparison of customer service is possible.

図10は、動線補完部8の処理S3により動線ログ63a、63b、63c、63dを行動プロセス情報を用いて結合して補完した動線ログ80、81を示している。本例では、最後の動線ログの行動IDが「商品を手に取る」である動線ログ63aと、最初の動線ログの行動IDが「商品を棚に戻す」である動線ログ63cを結合し、最後の動線ログの行動IDが「進入」である動線ログ63bと、最初の動線ログの行動IDが「退出」である動線ログ63dを結合することで、動線ログを補完している。なお、処理S3では、動線ログ同士を補完する際に行動プロセスに沿った結合先の動線ログが存在しない場合は、動線補完部8は、例えば、認識時間の間隔が最も短い動線ログを探索し、ある一定の閾値時間Tよりも短い場合はその動線ログと結合したものを出力、長い場合は結合せずに動線ログをそのまま出力することができる。例えば、顧客行動の認識に失敗することで動線ログ63cの最初の行動が「滞留終了」の場合、動線ログ63aは行動プロセスに適した動線ログを見つけることができない場合が想定される。そのため、動線補完部8は、不完全な動線ログの中で閾値時間T内において最も認識時間が短い動線ログを探索し見つかった場合は結合し、見つからない場合はそのまま結合せずに出力することができる。 FIG. 10 shows flow line logs 80 and 81 obtained by combining and complementing the flow line logs 63a, 63b, 63c, and 63d using the action process information by the process S3 of the flow line complementing unit 8. In this example, the action log of the last flow line log has a flow line log 63a whose action ID is “take a product” and the action line log 63c has an action ID of the first flow line log “return a product to the shelf”. And the flow line log 63b whose action ID of the last flow line log is “entry” and the flow line log 63d whose action ID of the first flow line log is “exit” The log is complemented. In addition, in process S3, when the flow line logs complement each other, and there is no flow line log of the connection destination along the action process, for example, the flow line complementation unit 8 sets the flow line with the shortest recognition time interval. The log is searched, and if it is shorter than a certain threshold time T s , the log combined with the flow log can be output, and if it is long, the log can be output as it is without combining. For example, when the first action of the flow line log 63c is “end of stay” due to failure to recognize the customer action, it is assumed that the flow line log 63a cannot find a flow line log suitable for the action process. . For this reason, the flow line complementing unit 8 searches for a flow line log having the shortest recognition time within the threshold time T s among the incomplete flow line logs and combines them, and if not found, combines them. Can be output.

動線補完部8では、処理S3により出力されたこれら全ての動線ログが正確であるか否かを判定するために、処理S4によって補完された各動線の動線信頼度を算出する。動線信頼度の算出方法として、例えば、以下の数式のように処理S3から出力された動線の総数と、計測範囲における通行者数との割合から求める方法がある。   The flow line complementing unit 8 calculates the flow line reliability of each flow line supplemented in the process S4 in order to determine whether or not all these flow line logs output in the process S3 are accurate. As a method of calculating the flow line reliability, for example, there is a method of obtaining from the ratio between the total number of flow lines output from the process S3 and the number of passers-by in the measurement range as in the following formula.

Figure 2017083980
ここで、計測範囲における通行者数とは計測範囲の近くを通過した人物の人数であり、例えば図8の俯瞰図60の場合では、エリア100とエリア101を合わせた領域の少し外側に更に大きな矩形のエリアを設定してそのエリアに進入する人数のみ別途計測することで取得できる。本手法では、動線補完部8は、上述の数式によって出力された動線信頼度が1に近い程、処理3によって出力された動線ログが正確であると判定し、動線信頼度が1よりも特定の閾値以上離れている場合は行動プロセスに沿わない動線ログ同士の結合を解除する、または結合の組み合わせパターンを変更する、または閾値時間Tの値を変更するなどの方法により、再度動線ログを作成して処理S4により動線信頼度を算出することができる。
Figure 2017083980
Here, the number of passers by in the measurement range is the number of persons who have passed near the measurement range. For example, in the case of the overhead view 60 in FIG. 8, the area 100 and area 101 are slightly larger outside the combined area. This can be obtained by setting a rectangular area and separately measuring only the number of people entering the area. In this method, the flow line complementation unit 8 determines that the flow line log output by the processing 3 is more accurate as the flow line reliability output by the above-described mathematical formula is closer to 1, and the flow line reliability is higher. When it is more than a specific threshold value apart from 1, the connection between the flow line logs that do not follow the behavior process is canceled, the combination pattern of the connection is changed, or the value of the threshold time T s is changed. The flow line log can be created again, and the flow line reliability can be calculated by the process S4.

その他の動線信頼度の算出方法としては、処理S3により出力される不完全な動線ログの数を動線信頼度とし、値が小さい程動線信頼度が高いと判定する方法がある。また、それ以外の方法としては、結合した動線同士の結合元の最後の動線ログ及び結合先の最初の動線ログの認識時間とエリアIDを比較し、算出した顧客のエリア間の移動速度を動線信頼度と設定することで、通常の歩行速度に比べ明らかに速いあるいは遅い場合は信頼度が低いと判定する方法などがある。この他にも、顔認識技術や属性推定技術を併用する手法もある。顔認識技術を併用した手法では、行動認識部5によって顧客の行動が認識される際に、画像特徴などを用いた一般的な顔認識技術により顧客の顔情報を数値化し、その値を行動ログや動線ログにも予め書き込んでおくようにしてもよい。そして、結合された動線ログの動線信頼度を算出する際にその数値化された顔情報の差を利用することで動線ログの信頼度を判定することができる。また、属性推定技術を併用した手法としては、行動認識部5によって認識された顧客の属性を予め推定してその属性情報を行動ログや動線ログに反映することで、結合された動線ログにおいて属性情報が同一か否かにより動線信頼度があるかどうかを判定する方法などがある。属性情報としては、年齢、性別、国籍などの他に、個人または集団、カートの使用者または未使用者などといった情報などを利用しても良い。
図11に、例えば性別の属性を反映した行動ログの一例の説明図を示す。
なお、処理S3にて出力された動線ログ全ての動線信頼度を算出する方法以外にも、行動プロセスと完全に一致した動線ログは対象から外すや、不完全な動線ログは使用しないといった方法を選択しても良い。
As another method for calculating the flow line reliability, there is a method of determining that the number of incomplete flow line logs output in step S3 is the flow line reliability, and that the smaller the value is, the higher the flow line reliability is. As another method, the movement time between the calculated customer's areas is compared by comparing the area ID with the recognition time of the last flow line log of the combined flow lines and the first flow line log of the combined destination. There is a method of determining that the reliability is low when the speed is set as the flow line reliability and the speed is obviously faster or slower than the normal walking speed. In addition to this, there is a method that uses face recognition technology and attribute estimation technology together. In the method using the face recognition technology, when the behavior recognition unit 5 recognizes the customer's behavior, the customer's face information is quantified by a general face recognition technology using image features and the value is recorded in the behavior log. Or may be written in advance in the flow line log. Then, when calculating the flow line reliability of the combined flow line log, the reliability of the flow line log can be determined by using the digitized difference of the face information. In addition, as a method using the attribute estimation technique in combination, the customer flow recognized by the behavior recognition unit 5 is estimated in advance, and the attribute information is reflected in the behavior log or the flow log, so that the combined flow log There is a method of determining whether or not there is a flow line reliability depending on whether or not the attribute information is the same. As attribute information, in addition to age, gender, nationality, etc., information such as an individual or group, a cart user or an unused user may be used.
FIG. 11 illustrates an example of an action log that reflects, for example, gender attributes.
In addition to the method of calculating the flow line reliability of all the flow line logs output in step S3, the flow line log that completely matches the action process is excluded from the target, or the incomplete flow line log is used. You may choose the method of not doing.

図12は、分析結果出力部9によって、動線補完部8から出力された顧客の動線ログの情報を分析した結果の出力例である。図12では、商品に興味を持った顧客における、接客の有無による商品購入率の比較を示しており、接客が行われたことで商品購入率が向上したことがわかる。本分析結果より、店舗側では接客サービスの効果を定量的に把握することができ、業務改善や広告、宣伝方法の見直しなど、効率的な販売促進対策を講じることができる。なお、本実施例は、顧客の動線を欠落無く取得する手法に特化しており、取得した動線を利用した分析方法や分析結果の出力方法などは、動線を入力とするシステムであれば、特に限定しない。   FIG. 12 is an output example of the result of analyzing the information of the customer flow line log output from the flow line complementation unit 8 by the analysis result output unit 9. FIG. 12 shows a comparison of product purchase rates depending on the presence or absence of customer service for customers who are interested in the product, and it can be seen that the product purchase rate has improved as a result of customer service. From this analysis result, the store side can quantitatively grasp the effect of customer service, and can take efficient sales promotion measures such as business improvement, advertisement, and review of advertising methods. Note that this example specializes in a method for acquiring the customer's flow line without omission, and the analysis method using the acquired flow line and the output method of the analysis result may be a system that uses the flow line as input. There is no particular limitation.

本発明の実施例1では以上説明した機能構成により、計測範囲において顧客行動に応じた検知エリアをひとつ又は複数設定して、認識された検知エリア毎の顧客行動を行動ログとして出力し、時系列情報や行動プロセス情報を用いて出力された行動ログを整理することで、顧客の動線を欠落なく効率的に取得することができる。
なお、実施例1において、計測装置としてカメラ2台を隣接したステレオカメラを使用する以外にも、カメラを1台利用して取得した画像情報から、または、カメラを3台以上利用して取得した画像情報と距離情報から、または、3Dセンサを使用して取得した画像情報や三次元情報から顧客の位置計測と行動認識を実施することで図1の一連のフローを実施しても良い。
In the first embodiment of the present invention, with the functional configuration described above, one or a plurality of detection areas corresponding to the customer behavior are set in the measurement range, and the customer behavior for each recognized detection area is output as an action log. By organizing the action log output using the information and the action process information, it is possible to efficiently acquire the flow line of the customer without omission.
In addition, in Example 1, in addition to using a stereo camera with two cameras adjacent to each other as a measuring device, it was acquired from image information acquired using one camera or using three or more cameras. The series of flows shown in FIG. 1 may be performed by performing position measurement and action recognition of a customer from image information and distance information, or from image information or 3D information acquired using a 3D sensor.

図13は、本発明の実施例2の人物行動分析装置のブロック構成図である。図13において、ブロック2、3、4、5、6,7,8,9の各機能は実施例1と同一である。複数の計測装置を用いた広範囲型人物行動分析装置91は、ステレオカメラ2の計測装置に加えて別の計測装置92を併用することで広範囲の人物の動線を取得する。各機能について説明すると、計測情報選定部93は、使用する計測装置の種類に基づき計測する項目を選定する機能を有する。計測情報選定部93は、ステレオカメラ2及び計測装置92に応じて計測項目を選定し、その選定内容に従い、位置情報計測部4による位置計測、行動認識部5による行動認識、あるいはその両方を実施する。共通マップ作成部94は計測装置92の計測結果とステレオカメラによる計測結果との位置情報の整合性を取るために予め共通マップを作成し、各計測結果を共通マップ上に反映できる変換情報を取得する機能を有する。また、計測結果変換部95は、計測情報選定部93により選定された項目を計測装置ごと(この例では、ステレオカメラ2と計測装置92)に計測し、その計測結果を共通マップ作成部94によって取得した情報により変換する機能を有する。以下、計測情報選定部93と、共通マップ作成部94と、人物計測部95の詳細について説明する。   FIG. 13 is a block diagram of the human behavior analysis apparatus according to the second embodiment of the present invention. In FIG. 13, the functions of blocks 2, 3, 4, 5, 6, 7, 8, and 9 are the same as those in the first embodiment. A wide-range human behavior analysis device 91 using a plurality of measuring devices acquires a wide range of human flow lines by using another measuring device 92 in addition to the measuring device of the stereo camera 2. Explaining each function, the measurement information selection unit 93 has a function of selecting an item to be measured based on the type of measurement device to be used. The measurement information selection unit 93 selects measurement items according to the stereo camera 2 and the measurement device 92, and performs position measurement by the position information measurement unit 4, action recognition by the action recognition unit 5, or both according to the selection contents. To do. The common map creation unit 94 creates a common map in advance in order to obtain consistency of position information between the measurement result of the measurement device 92 and the measurement result by the stereo camera, and obtains conversion information that can reflect each measurement result on the common map. It has the function to do. In addition, the measurement result conversion unit 95 measures the item selected by the measurement information selection unit 93 for each measurement device (in this example, the stereo camera 2 and the measurement device 92), and the measurement result is displayed by the common map creation unit 94. It has a function to convert according to the acquired information. Details of the measurement information selection unit 93, the common map creation unit 94, and the person measurement unit 95 will be described below.

図14は、計測装置の種類と、計測情報選定部93によって選定される計測項目との対応表の一例を示している。なお、計測装置としては、人物の位置計測、または人物の行動認識、あるいはその両方を実施できる装置であれば図14に示す以外の装置でも良く、特に限定しない。また、位置計測と行動認識の両方を実施できる計測装置においては、計測精度が高いと考えられる項目のみ選定するといった方法でも良い。   FIG. 14 shows an example of a correspondence table between the types of measurement devices and the measurement items selected by the measurement information selection unit 93. The measuring device is not particularly limited as long as it is a device capable of measuring the position of a person and / or recognizing a person's action, or both. In addition, in a measurement apparatus that can perform both position measurement and action recognition, a method of selecting only items that are considered to have high measurement accuracy may be used.

図15は、共通マップ作成部94のフローを説明する図である。共通マップ作成部94の処理は、例えば計測前等に予め行う処理である。共通マップ作成部94では、まず、図15(a)に示すような計測範囲における共通のマップ情報を取得する。そして、共通のマップ上において、予め地点100a、100b、100c、100dの4カ所にそれぞれ人物又は物体等の基準を配置して各計測装置により人物の位置を計測する。図15(b)は、計測装置92における人物の位置の計測結果を、ステレオカメラ2及び計測装置92等の各計測装置の計算処理内にて使用される二次元座標軸上にプロットした図である。図15(b)において、プロット101a、101b、101c、101dは、それぞれ図15(a)における地点100a、100b、100c、100dに対応している。そのため、4つの対応点を利用することで異なる二次元座標軸同士の透視変換行列を算出することができ、算出した行列により各計測装置にて計測されたプロット位置と共通マップ上の地点の対応付けが可能となる。この透視変換行列をステレオカメラ2及び計測装置2等の各計測装置において求めることで、異なる計測装置の計測結果の整合性を共通マップ上にて取ることができる。なお、本手法のように共通マップを利用して整合性を取る場合には、エリア情報設定部6では共通マップ上に検知エリアを設定することで検知エリアと計測結果との整合性を取ることが容易となる。また、共通マップの作成方法としては、図15(a)に示す商品棚42のように計測範囲において目印となるものを手動にて描写して作成する、あるいは三次元センサなどにより取得した空間の実情報を用いて自動的に作成しても良い。また、計測装置の座標軸と共通マップの座標軸の対応方法としては、上記で述べた一般的な透視変換以外の手法(例えば射影変換、アフィン変換等の適宜の変換手法)、を使用して変換行列を求めるようにしても良い。なお、異なる計測装置の計測結果の整合性を取る方法としては、共通マップを利用する以外にも、各計測装置の計測結果同士や、計測結果と検知エリアの整合を取ることができる方法であれば、特に限定しない。
計測情報選定部93によって選定された計測項目に従い、位置情報計測部4が人物の位置計測を実施及び/又は行動認識部5が人物の行動認識を実施した後、計測結果変換部95は、その計測結果の座標情報を共通マップ作成部94にて算出した透視変換行列等の変換行列によって変換した結果を出力する。変換後の結果を行動ログ出力部7に渡すことで、同じ座標軸上におけるステレオカメラ2と計測装置92の行動ログが出力することができる。
FIG. 15 is a diagram for explaining the flow of the common map creation unit 94. The process of the common map creation unit 94 is a process that is performed in advance before measurement, for example. The common map creation unit 94 first acquires common map information in the measurement range as shown in FIG. Then, on the common map, a reference of a person or an object is arranged in advance at four points 100a, 100b, 100c, and 100d, and the position of the person is measured by each measuring device. FIG. 15B is a diagram in which the measurement result of the position of the person in the measurement device 92 is plotted on the two-dimensional coordinate axes used in the calculation processing of each measurement device such as the stereo camera 2 and the measurement device 92. . In FIG. 15B, plots 101a, 101b, 101c, and 101d correspond to the points 100a, 100b, 100c, and 100d in FIG. 15A, respectively. Therefore, the perspective transformation matrix between different two-dimensional coordinate axes can be calculated by using the four corresponding points, and the plot position measured by each measuring device using the calculated matrix is associated with the point on the common map. Is possible. By obtaining this perspective transformation matrix in each measurement device such as the stereo camera 2 and the measurement device 2, consistency of measurement results of different measurement devices can be obtained on a common map. When consistency is obtained using a common map as in this method, the area information setting unit 6 sets the detection area on the common map to ensure consistency between the detection area and the measurement result. Becomes easy. In addition, as a method for creating a common map, a product that is used as a mark in the measurement range, such as a product shelf 42 shown in FIG. You may create automatically using real information. In addition, as a method of corresponding the coordinate axes of the measurement apparatus and the coordinate axes of the common map, a transformation matrix using a technique other than the general perspective transformation described above (for example, an appropriate transformation technique such as projective transformation or affine transformation). May be requested. In addition to using a common map, the method for obtaining consistency between the measurement results of different measurement devices is a method capable of matching the measurement results of each measurement device or between the measurement results and the detection area. There is no particular limitation.
In accordance with the measurement item selected by the measurement information selection unit 93, after the position information measurement unit 4 performs the position measurement of the person and / or the action recognition unit 5 performs the action recognition of the person, the measurement result conversion unit 95 A result obtained by converting the coordinate information of the measurement result using a transformation matrix such as a perspective transformation matrix calculated by the common map creation unit 94 is output. By passing the converted result to the action log output unit 7, the action logs of the stereo camera 2 and the measuring device 92 on the same coordinate axis can be output.

本発明の実施例2では以上説明した機能構成により、異なる2台の計測装置によって出力された行動ログを統合することで、広範囲の顧客の動線を欠落なく効率的に取得することができる。   In the second embodiment of the present invention, by integrating the action logs output by two different measuring devices with the functional configuration described above, it is possible to efficiently acquire a wide range of customer flow lines without omission.

図16に、複数の計測装置の使用時におけるエリア情報設定部6により設定する検知エリアの一例の説明図を示す。なお、実施例2において、計測装置は2台のみならず3台以上使用しても良く、例えば、計測装置として2台のステレオカメラと1台のレーザセンサを使用し、図16に示すような検知エリアを設定することで、より広範囲の顧客の動線を取得することができる。図16は、3つの商品棚42a、42bが存在する計測範囲における共通マップ110、商品棚42a付近の拡大図111、地点112aに設置したステレオカメラの検知エリア100、101、102、103、地点112bに設置したステレオカメラの検知エリア104、地点113に設置したレーザセンサの検知エリア200、201、202、203、各検知エリアにて認識する顧客行動の一覧表114、を示している。図16に示す設定方法により、商品棚42aにおける顧客の購買行動を詳細に取得できるだけでなく、共通マップ110に示す計測範囲全体の顧客の移動の流れを把握することができるため、分析結果から顧客の移動の流れがスムーズになるような棚レイアウト改善案の立案などのサービスを実現できる。なお、エリア情報設定部6において、図16の例では、異なる計測装置毎の検知エリアに重複が無かったものの、重複して検知エリアを設定しても良い。また、エリア情報設定部6において検知エリアを設定する際に、エリアIDに対して「商品棚」や「通路」などのエリア情報を付加することで、行動ログにエリア情報を反映しても良い。   FIG. 16 illustrates an example of a detection area set by the area information setting unit 6 when a plurality of measuring devices are used. In the second embodiment, not only two measuring apparatuses but also three or more measuring apparatuses may be used. For example, two stereo cameras and one laser sensor are used as the measuring apparatus, as shown in FIG. By setting the detection area, it is possible to acquire a wider range of customer flow lines. FIG. 16 shows a common map 110 in a measurement range in which three product shelves 42a and 42b exist, an enlarged view 111 in the vicinity of the product shelf 42a, and detection areas 100, 101, 102, and 103 of the stereo camera installed at the point 112a. 3 shows a detection area 104 of a stereo camera installed in FIG. 1, detection areas 200, 201, 202, and 203 of a laser sensor installed at a point 113, and a list 114 of customer actions recognized in each detection area. With the setting method shown in FIG. 16, not only the purchase behavior of the customer in the product shelf 42a can be acquired in detail, but also the flow of movement of the customer in the entire measurement range shown in the common map 110 can be grasped. Services such as planning a shelf layout improvement plan that makes the flow of movement smoother. In the area information setting unit 6, in the example of FIG. 16, although there is no overlap in the detection areas for different measurement devices, the detection areas may be set in duplicate. Further, when setting the detection area in the area information setting unit 6, the area information may be reflected in the action log by adding area information such as “product shelf” or “passage” to the area ID. .

図17は、図16に示した検知エリアの設定例に対して、エリア情報を付加した一例の説明図を示している。図17において、「商品棚A」は商品棚42a付近に設定されたエリア、「商品棚B」は商品棚42b付近に設定されたエリアを示しており、「通路」は通行者が通過するというエリア情報である。図17に示すようなエリア情報を行動ログに付加することで、動線補完部8により動線ログを結合する際の動線信頼度の算出や、分析結果出力部9により出力する分析結果にエリア情報を利用しても良い。例えば、エリア情報を利用して動線信頼度を算出する方法としては、結合した動線同士の結合元の最後の動線ログ及び結合先の最初の動線ログの認識時間とエリア情報を比較し、算出した顧客のエリア間の移動速度を動線信頼度と設定することで、通常の歩行速度に比べ明らかに速いあるいは遅い場合は信頼度が低いと判定する方法などがある。また、エリア情報を分析結果に利用する方法としては、「商品棚」のエリア情報毎に分析結果を出力することで商品棚別の分析を実施する方法などがある。   FIG. 17 shows an explanatory diagram of an example in which area information is added to the detection area setting example shown in FIG. In FIG. 17, “product shelf A” indicates an area set near the product shelf 42 a, “product shelf B” indicates an area set near the product shelf 42 b, and “passage” indicates that a passerby passes. Area information. By adding the area information as shown in FIG. 17 to the action log, the flow line complementing unit 8 calculates the flow line reliability when the flow line logs are combined, and the analysis result output unit 9 outputs the analysis result. Area information may be used. For example, as a method for calculating the flow line reliability using area information, the area information is compared with the recognition time of the last flow line log of the combined flow lines and the first flow line log of the combined destination. Then, by setting the calculated movement speed between customer areas as the flow line reliability, there is a method of determining that the reliability is low when it is clearly faster or slower than the normal walking speed. In addition, as a method of using area information as an analysis result, there is a method of performing analysis for each product shelf by outputting an analysis result for each area information of “product shelf”.

また、実施例2において、動線補完部8により動線ログを結合する際に利用する動線信頼度の算出方法として、計測装置の特性により信頼度を判定しても良い。例えば、計測装置としてステレオカメラとレーザセンサを使用して、「進入」、「退出」、「滞留」などの位置計測のみに関連する顧客行動の動線ログの場合、人物の重なりが少ない状況ではレーザセンサの位置計測精度が高く、人物の重なりが多い状況ではステレオカメラの位置計測精度が高くなる特性を利用して、計測時における人物の密集度合が低ければレーザセンサの動線ログの信頼度を高くし、密集度合が高ければステレオカメラの動線ログの信頼度を高くするという方法がある。その他の例としては、計測装置としてステレオカメラと三次元センサを使用して、「商品を手に持つ」、「商品を見る」などの人物の詳細な行動認識に関連する顧客高度の動線ログの場合、行動認識精度が高い三次元センサの動線ログの信頼度をステレオカメラの動線ログよりも高くする方法などがある。   In the second embodiment, as a method for calculating the flow line reliability used when the flow line logs are combined by the flow line complementation unit 8, the reliability may be determined based on the characteristics of the measuring device. For example, when using a stereo camera and a laser sensor as a measurement device, and in the case of a flow log of customer behavior related only to position measurement such as `` entrance '', `` exit '', `` stay '', etc. Using the characteristics that the position measurement accuracy of the laser camera is high and the position measurement accuracy of the stereo camera is high in situations where there are many people overlapping, if the density of people at the time of measurement is low, the reliability of the flow log of the laser sensor If the density is high, there is a method of increasing the reliability of the flow log of the stereo camera. As another example, using a stereo camera and a three-dimensional sensor as a measuring device, a flow log of customer height related to detailed behavior recognition of people such as “holding a product” and “viewing a product” In this case, there is a method of making the reliability of the flow line log of the three-dimensional sensor with high action recognition accuracy higher than the flow line log of the stereo camera.

[付記]

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれている。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
また、本発明の適用箇所としては上記した実施例に示す店舗などの商業施設に限定されるものではなく、工場、オフィス、物流、医療介護施設などの人物の行動や動向についての情報の分析に適用することが可能である。
[Appendix]

In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
In addition, the application location of the present invention is not limited to the commercial facilities such as the stores shown in the above-described embodiments, but is used to analyze information on the behavior and trends of persons such as factories, offices, logistics, medical care facilities, etc. It is possible to apply.

1 人物行動分析装置
2 カメラ
3 三次元情報取得部
4 位置情報計測部
5 行動認識部
6 エリア情報設定部
7 行動ログ出力部
8 動線補完部
9 分析結果出力部
DESCRIPTION OF SYMBOLS 1 Person action analysis apparatus 2 Camera 3 Three-dimensional information acquisition part 4 Position information measurement part 5 Action recognition part 6 Area information setting part 7 Action log output part 8 Flow line complement part 9 Analysis result output part

Claims (16)

行動分析装置であって、
計測装置の計測結果から取得した三次元情報から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
検知エリア毎の対象の行動を表す行動ログを作成する行動ログ出力部と、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する動線補完部と
を備えた行動分析装置。
A behavior analysis device,
A position information measuring unit that measures the position of the object from the three-dimensional information acquired from the measurement result of the measuring device;
From the three-dimensional information acquired from the measurement result of the measurement device, an action recognition unit that recognizes one of the movement of the target and a predetermined action;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
An action log output unit that creates an action log representing the target action for each detection area;
A flow line complement unit for combining a plurality of flow line logs including a plurality of action logs of the same target according to predetermined action process information representing a series of actions performed by the target based on the plurality of action logs; A behavior analysis device equipped with
請求項1に記載された行動分析装置において、
前記動線補完部が、時系列情報、行動パターンの情報、対象の属性情報の少なくとも1つ以上を利用して動線ログを補完することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 1,
The behavior analysis apparatus characterized in that the flow line complementing unit supplements a flow line log using at least one of time-series information, behavior pattern information, and target attribute information.
請求項2に記載された行動分析装置において、
前記動線補完部は、
複数の行動ログを認識時間に応じて時系列に整列し、
整列された複数の行動ログから同一の対象の行動ログを抽出して各動線ログを作成し、
各動線ログと行動プロセス情報を比較し、欠落があると推定される動線ログ同士又は一連の動作と推定される動線ログ同士を結合することで、対象の動線を補完する、
ことを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 2,
The flow line complement part is:
Arrange multiple action logs in time series according to recognition time,
Extract action logs of the same target from multiple arranged action logs to create each flow log,
Comparing each flow line log with the action process information and complementing the target flow line by combining the flow line logs estimated to be missing or by combining the flow line logs estimated to be a series of actions,
A behavior analysis device characterized by that.
請求項3に記載された行動分析装置において、
前記動線補完部は、結合して補完された動線ログが正確であるか否かの程度を表す動線信頼度を計算し、動線信頼度に基づき結合する複数の動線ログを選定することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 3,
The flow line complementing unit calculates a flow line reliability that indicates whether or not the combined flow line logs are accurate, and selects a plurality of flow line logs to be combined based on the flow line reliability. A behavior analysis device characterized by:
請求項4に記載された行動分析装置において、
前記動線補完部は、動線信頼度を、時系列情報、対象の位置情報、対象の属性情報の少なくとも1つ以上に基づき算出することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 4,
The flow line complementing unit calculates a flow line reliability based on at least one of time-series information, target position information, and target attribute information.
請求項4に記載された行動分析装置において、
前記動線補完部は、
さらに、補完した動線ログの動線信頼度を算出し、
予め定められた閾値未満の動線信頼度であれば再度異なる動線ログ同士を組み合わせて動線ログを補完し、予め定められた閾値以上の動線信頼度であれば補完した動線ログとして出力する
ことを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 4,
The flow line complement part is:
Furthermore, the flow line reliability of the complemented flow line log is calculated,
If the flow line reliability is less than a predetermined threshold, the flow line logs are complemented by combining different flow line logs again. If the flow line reliability is greater than a predetermined threshold, the flow line log is complemented. A behavior analysis device characterized by outputting.
請求項1に記載された行動分析装置において、
前記エリア情報設定部は、計測範囲における対象の行動を認識するひとつ又は複数の検知エリアと、各検知エリアにおける認識するひとつ又は複数の行動を予め設定することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 1,
The area information setting unit presets one or a plurality of detection areas for recognizing a target action in a measurement range, and one or a plurality of actions for recognition in each detection area.
請求項7に記載された行動分析装置において、
前記エリア情報設定部は、検知エリアの設定と認識する対象の行動を設定又は変更するインタフェースを有することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 7,
The area information setting unit includes an interface for setting or changing a target action to be recognized as setting of a detection area.
請求項1に記載された行動分析装置において、
前記計測装置を複数台使用して対象の行動を認識し、
複数の前記計測装置の計測結果を共通に使用できる動作ログとして出力する計測結果変換部を有することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 1,
Recognize target behavior using multiple measuring devices,
A behavior analysis device comprising a measurement result conversion unit that outputs measurement results of a plurality of the measurement devices as operation logs that can be used in common.
請求項9に記載された行動分析装置において、
複数の前記計測装置の認識結果の整合性を取るための共通マップの変換情報を作成する共通マップ作成部
を備え、
前記計測結果変換部は、共通マップの変換情報を使用して、複数の前記計測装置の認識結果を統合することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 9, wherein
A common map creating unit for creating conversion information of a common map for taking consistency of recognition results of the plurality of measuring devices;
The measurement result conversion unit integrates recognition results of the plurality of measurement devices using conversion information of a common map.
請求項1に記載された行動分析装置において、
前記計測装置を複数備え、
各前記計測装置の種類に基づき計測する項目を選定する計測情報選定部と、
各前記計測装置の計測結果の位置情報の整合性を取るための共通マップ上に反映するための変換情報を求める共通マップ作成部と、
前記計測情報選定部により選定された項目に従い、前記位置情報計測部が計測した対象の位置、及び/又は、前記行動認識部が認識した対象の行動を、前記共通マップ作成部によって求めた変換情報により変換して、複数の前記計測装置の計測結果の整合性を取る計測結果変換部と、
を備えたことを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 1,
A plurality of the measuring devices are provided,
A measurement information selection unit for selecting an item to be measured based on the type of each measurement device;
A common map creation unit for obtaining conversion information to be reflected on a common map for taking consistency of position information of measurement results of the measurement devices;
According to the item selected by the measurement information selection unit, the conversion information obtained by the common map creation unit for the target position measured by the position information measurement unit and / or the target behavior recognized by the behavior recognition unit And a measurement result conversion unit that converts the measurement results of the plurality of measurement devices, and
A behavior analysis apparatus comprising:
請求項1に記載された行動分析装置において、
行動ログが、認識された対象の行動、認識時間、検知エリア、対象のIDを含み、
前記行動ログ出力部は、行動ログを出力することを特徴とする行動分析装置。
The behavior analysis apparatus according to claim 1,
The action log includes the action of the recognized target, the recognition time, the detection area, and the target ID.
The behavior analysis apparatus characterized in that the behavior log output unit outputs a behavior log.
請求項1に記載された行動分析装置において、
取得した対象の動線ログを分析し、商品購入率又は他の分析結果を出力する分析結果出力部をさらに備えた行動分析装置。
The behavior analysis apparatus according to claim 1,
An action analysis apparatus further comprising an analysis result output unit that analyzes the acquired flow log of the target and outputs a product purchase rate or other analysis results.
行動分析システムであって、
計測装置と、
前記計測装置から対象の三次元情報を取得する三次元情報取得部と、
行動分析装置と
を備え、
前記行動分析装置は、
前記計測装置の計測結果から取得した三次元情報から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
検知エリア毎の対象の行動を表す行動ログを作成する行動ログ出力部と、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する動線補完部と
を備えた行動分析システム。
A behavior analysis system,
A measuring device;
A three-dimensional information acquisition unit that acquires target three-dimensional information from the measurement device;
A behavior analysis device,
The behavior analysis device includes:
A position information measuring unit that measures the position of the object from the three-dimensional information acquired from the measurement result of the measuring device;
From the three-dimensional information acquired from the measurement result of the measurement device, an action recognition unit that recognizes one of the movement of the target and a predetermined action;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
An action log output unit that creates an action log representing the target action for each detection area;
A flow line complement unit for combining a plurality of flow line logs including a plurality of action logs of the same target according to predetermined action process information representing a series of actions performed by the target based on the plurality of action logs; Behavior analysis system with
行動分析方法であって、
計測装置の計測結果から取得した三次元情報から対象の位置を計測し、
前記計測装置の計測結果から取得した三次元情報から、対象の移動及び予め定められた行動のうちのいずれかの行動を認識し、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定し、
検知エリア毎の対象の行動を表す行動ログを作成し、
複数の行動ログに基づき、対象によって遂行される一連の行動を表す予め定められた行動プロセス情報に応じて、同一の対象の複数の行動ログを含む動線ログを複数結合する
行動分析方法。
A behavior analysis method,
Measure the position of the target from the three-dimensional information obtained from the measurement results of the measuring device,
From the three-dimensional information acquired from the measurement result of the measurement device, recognize any one of the movement of the target and a predetermined action,
Set one or more detection areas to recognize the position and action of the target in the measurement range of the measurement device,
Create an action log that represents the target action for each detection area,
A behavior analysis method for combining a plurality of flow line logs including a plurality of behavior logs of the same target in accordance with predetermined behavior process information representing a series of behaviors performed by the target based on the plurality of behavior logs.
行動分析装置であって、
計測装置の計測結果から対象の位置を計測する位置情報計測部と、
前記計測装置の計測結果から対象の移動及び予め定められた行動のうちのいずれかの行動を認識する行動認識部と、
前記計測装置の計測範囲において対象の位置及び行動を認識するひとつ又は複数の検知エリアを設定するエリア情報設定部と、
を備えた行動分析装置。
A behavior analysis device,
A position information measurement unit that measures the position of the target from the measurement result of the measurement device;
An action recognition unit for recognizing one of the movement of the target and a predetermined action from the measurement result of the measurement device;
An area information setting unit for setting one or a plurality of detection areas for recognizing the position and action of the target in the measurement range of the measurement device;
A behavior analysis device equipped with
JP2015209557A 2015-10-26 2015-10-26 Behavior analyzers and systems and methods Active JP6756473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015209557A JP6756473B2 (en) 2015-10-26 2015-10-26 Behavior analyzers and systems and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209557A JP6756473B2 (en) 2015-10-26 2015-10-26 Behavior analyzers and systems and methods

Publications (2)

Publication Number Publication Date
JP2017083980A true JP2017083980A (en) 2017-05-18
JP6756473B2 JP6756473B2 (en) 2020-09-16

Family

ID=58712069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209557A Active JP6756473B2 (en) 2015-10-26 2015-10-26 Behavior analyzers and systems and methods

Country Status (1)

Country Link
JP (1) JP6756473B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019093291A1 (en) * 2017-11-07 2019-05-16 日本電気株式会社 Customer service assistance device, customer service assistance method, and computer-readable recording medium
WO2019093292A1 (en) * 2017-11-07 2019-05-16 日本電気株式会社 Customer service assistance device, customer service assistance method, and computer-readable storage medium
JP2019159656A (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
JP2020027313A (en) * 2018-08-09 2020-02-20 株式会社日立システムズ Information processing system, customer flow analysis method
JP6773389B1 (en) * 2020-03-18 2020-10-21 株式会社 テクノミライ Digital autofile security system, methods and programs
WO2021186751A1 (en) * 2020-03-18 2021-09-23 株式会社 テクノミライ Digital auto-filing security system, method, and program
JP2022042014A (en) * 2020-08-31 2022-03-11 株式会社エクサウィザーズ Control methods, programs, information processing devices, and information processing systems
CN114563009A (en) * 2020-11-27 2022-05-31 北京三快在线科技有限公司 Identification method of passing mode, navigation method, waybill display method and device
JP2022117996A (en) * 2018-03-27 2022-08-12 日本電気株式会社 Information processing device, data generation method, and program
JP2023020071A (en) * 2021-07-30 2023-02-09 日本電気通信システム株式会社 MOVEMENT MEASURING DEVICE, SYSTEM, METHOD AND PROGRAM
JP2023148253A (en) * 2022-03-30 2023-10-13 サクサ株式会社 Image processing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279853A (en) * 2006-04-03 2007-10-25 Ntt Docomo Inc Mobile terminal, content providing system, and content providing method
JP2009048229A (en) * 2007-08-13 2009-03-05 Toshiba Tec Corp Human behavior analysis apparatus, method and program
JP2011170563A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
WO2013128852A1 (en) * 2012-02-29 2013-09-06 日本電気株式会社 Movement line information generation system, movement line information generation method and movement line information generation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007279853A (en) * 2006-04-03 2007-10-25 Ntt Docomo Inc Mobile terminal, content providing system, and content providing method
JP2009048229A (en) * 2007-08-13 2009-03-05 Toshiba Tec Corp Human behavior analysis apparatus, method and program
JP2011170563A (en) * 2010-02-17 2011-09-01 Toshiba Tec Corp Traffic line connection method, device, and traffic line connection program
WO2013128852A1 (en) * 2012-02-29 2013-09-06 日本電気株式会社 Movement line information generation system, movement line information generation method and movement line information generation program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410216B2 (en) 2017-11-07 2022-08-09 Nec Corporation Customer service assistance apparatus, customer service assistance method, and computer-readable recording medium
WO2019093292A1 (en) * 2017-11-07 2019-05-16 日本電気株式会社 Customer service assistance device, customer service assistance method, and computer-readable storage medium
WO2019093291A1 (en) * 2017-11-07 2019-05-16 日本電気株式会社 Customer service assistance device, customer service assistance method, and computer-readable recording medium
JPWO2019093292A1 (en) * 2017-11-07 2020-11-19 日本電気株式会社 Customer service support equipment, customer service support methods, and programs
JP2019159656A (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
WO2019176281A1 (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
JP2022117996A (en) * 2018-03-27 2022-08-12 日本電気株式会社 Information processing device, data generation method, and program
JP7149761B2 (en) 2018-08-09 2022-10-07 株式会社日立システムズ Information processing system, customer flow line analysis method
JP2020027313A (en) * 2018-08-09 2020-02-20 株式会社日立システムズ Information processing system, customer flow analysis method
WO2021186751A1 (en) * 2020-03-18 2021-09-23 株式会社 テクノミライ Digital auto-filing security system, method, and program
JP6773389B1 (en) * 2020-03-18 2020-10-21 株式会社 テクノミライ Digital autofile security system, methods and programs
JP2022042014A (en) * 2020-08-31 2022-03-11 株式会社エクサウィザーズ Control methods, programs, information processing devices, and information processing systems
CN114563009A (en) * 2020-11-27 2022-05-31 北京三快在线科技有限公司 Identification method of passing mode, navigation method, waybill display method and device
CN114563009B (en) * 2020-11-27 2024-01-19 北京三快在线科技有限公司 Identification method, navigation method and waybill display method and device of passing mode
JP2023020071A (en) * 2021-07-30 2023-02-09 日本電気通信システム株式会社 MOVEMENT MEASURING DEVICE, SYSTEM, METHOD AND PROGRAM
JP2023148253A (en) * 2022-03-30 2023-10-13 サクサ株式会社 Image processing device and program

Also Published As

Publication number Publication date
JP6756473B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6756473B2 (en) Behavior analyzers and systems and methods
JP7251569B2 (en) Store device, store management method, program
JP6992874B2 (en) Self-registration system, purchased product management method and purchased product management program
JP4972491B2 (en) Customer movement judgment system
Liciotti et al. Shopper analytics: A customer activity recognition system using a distributed rgb-d camera network
Nguyen et al. When AI meets store layout design: a review
US11615430B1 (en) Method and system for measuring in-store location effectiveness based on shopper response and behavior analysis
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
Chiu et al. Comparison of depth cameras for three-dimensional reconstruction in medicine
CN108898109A (en) The determination methods, devices and systems of article attention rate
CA3014365C (en) System and method for gathering data related to quality of service in a customer service environment
JP6500374B2 (en) Image processing apparatus and image processing program
JPWO2019111501A1 (en) Image processing device
JP6648508B2 (en) Purchasing behavior analysis program, purchasing behavior analysis method, and purchasing behavior analysis device
JP2012088878A (en) Customer special treatment management system
JP2005309951A (en) Sales promotion support system
JP6565639B2 (en) Information display program, information display method, and information display apparatus
US20250362171A1 (en) Footfall detection method and apparatus
JP2017130061A (en) Image processing system, image processing method, and program
CN109074498A (en) Visitor Tracking Method and System for POS Areas
JP2023153148A (en) Self-register system, purchased commodity management method and purchased commodity management program
JP2017102564A (en) Display control program, display control method, and display control apparatus
JP7015430B2 (en) Prospect information collection system and its collection method
US20220122125A1 (en) Information processing device, information processing system, display control method, and recording medium
JP2018097412A (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181011

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200827

R150 Certificate of patent or registration of utility model

Ref document number: 6756473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250