JP2011070629A - Advertising effect measurement system and advertising effect measurement device - Google Patents
Advertising effect measurement system and advertising effect measurement device Download PDFInfo
- Publication number
- JP2011070629A JP2011070629A JP2010033410A JP2010033410A JP2011070629A JP 2011070629 A JP2011070629 A JP 2011070629A JP 2010033410 A JP2010033410 A JP 2010033410A JP 2010033410 A JP2010033410 A JP 2010033410A JP 2011070629 A JP2011070629 A JP 2011070629A
- Authority
- JP
- Japan
- Prior art keywords
- face
- state
- frame data
- face detection
- detection frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】デジタルサイネージを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,見失った人物の顔をトラッキングすることができるデジタルサイネージ広告効果測定システムを提供する。
【解決手段】デジタルサイネージ広告効果測定システム1の広告効果測定装置2は,ビデオカメラ4で撮影された映像のフレームから顔画像を検出する顔検出手段21と,顔検出手段22から出力される顔検出枠データをNフレームとN−1フレームで対応付けるトラッキング手段23と,トラッキング手段23で対応付けられないN−1フレームの顔検出枠データがある場合,動画解析手法を用い,該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する動画解析手段24と,顔検出枠データ毎に生成される顔オブジェクトの状態遷移を管理し,顔オブジェクトが閲覧状態にある時間を少なくとも記憶する状態遷移管理手段25を備える。
【選択図】図3A digital signage advertising effect measurement system capable of speeding up the process of tracking the face of a person browsing digital signage and tracking the face of a person who has lost sight.
An advertisement effect measuring device (2) of a digital signage advertisement effect measuring system (1) includes a face detection means (21) for detecting a face image from a frame of a video photographed by a video camera (4), and a face output from the face detection means (22). When there is tracking means 23 for associating the detection frame data with N frames and N-1 frames, and there is N-1 frame face detection frame data that is not associated with the tracking means 23, the moving image analysis method is used to detect the N-1 frames. Moving image analysis means 24 for detecting a face image corresponding to the face detection frame data from N frames, and managing state transitions of the face object generated for each face detection frame data, and at least a time during which the face object is in the browsing state State transition management means 25 for storing is provided.
[Selection] Figure 3
Description
本発明は,ディスプレイの広告効果を測定するための技術に関する。なお,ディスプレイとは、液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などを含む。 The present invention relates to a technique for measuring the advertising effectiveness of a display. The display includes a digital signage (Digital Signage), which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, as well as a show window, an advertisement signboard, a specific product display shelf in a store, and the like.
液晶ディスプレイやプロジェクタなどのディスプレイを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が,様々な場所に設置され始めている。
デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。
Digital signage, which is an advertising medium that displays advertisements using a display such as a liquid crystal display or a projector, has begun to be installed in various places.
By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently deliver advertisements according to the location of digital signage. Expansion is expected.
広告主がデジタルサイネージを導入するのにあたり,テレビの視聴率,新聞,雑誌の販売部数といったように,客観的な広告効果を広告主に提示することが必要になり,デジタルサイネージの広告効果に係わる発明としては,例えば,特許文献1が開示されている。
When an advertiser introduces digital signage, it is necessary to present an objective advertising effect to the advertiser, such as the TV audience rating, the number of copies of newspapers and magazines, etc. As an invention, for example,
特許文献1で開示されている表示装置は,電子看板(デジタルサイネージ)を見ている人を撮影するビデオカメラを備え,このビデオカメラにおける顔検出結果と,他の場所(会計コーナ)に設置されたカメラの顔検出結果を関連付けることで,電子看板で表示している広告の広告効果として広告と消費行動の関連性を求める装置である。
The display device disclosed in
上述した広告効果に加え,特許文献1で開示されている表示装置には,表示装置単体で得られる広告効果を算出するために統計解析モジュールが備えられ,この統計解析モジュールは,ビデオカメラが撮影した映像を解析し,該映像に含まれる個々の顔の数、性別データ、年齢カテゴリデータ、電子看板の方を向いていた時間である滞在時間などを算出する。
In addition to the advertising effect described above, the display device disclosed in
電子看板の方を向いていた時間である滞在時間など,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などようなディスプレイを閲覧している時間を人物毎に測定するためには,映像に含まれる人物の顔をトラッキングすることが必要になり,特許文献1においては,トラッキング手法として,色マッチング法及びカルマンフィルタリング法が記載されているが,これらの手法は,顔を見失った場合でもトラッキングを続けることができる等の利点があるものの,これらの手法の処理速度が遅く,全体の処理において律速になってしまう。 In addition to digital signage, which is an advertising medium that displays advertisements using liquid crystal displays and projectors, such as the staying time, which is the time when you are facing the digital signage, it is also possible to display specific information in the show window, advertising signage, and in the store. In order to measure the time of browsing a display such as a product display shelf for each person, it is necessary to track the face of the person included in the video. Although the matching method and Kalman filtering method are described, these methods have the advantage of being able to continue tracking even if the face is lost, but the processing speed of these methods is slow and the overall processing is It becomes rate-limiting.
そこで,本発明は,デジタルサイネージなどのディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することのでき,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供することを目的とする。 Therefore, the present invention can speed up the process of tracking the face of a person browsing a display such as digital signage, and can generate a log that can be used to measure the advertising effectiveness of the display. It is an object of the present invention to provide an advertisement effect measurement system that can track the face of a person.
上述した課題を解決する第1の発明は,ディスプレイの前にいる人物を撮影するカメラと,前記カメラが撮影した映像に含まれるフレームを解析することで,前記ディスプレイの広告効果を測定する広告効果測定装置とから少なくとも構成される広告効果測定システムであって,前記広告効果測定装置は,前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定システムである。 A first invention that solves the above-described problem is an advertising effect that measures the advertising effect of the display by analyzing a camera that captures a person in front of the display and a frame included in a video captured by the camera. An advertising effectiveness measuring system comprising at least a measuring device, wherein the advertising effectiveness measuring device detects a face image photographed in the frame transmitted from the camera, and for each detected face image, For each face detection frame data acquired from the face detection means that outputs the position / rectangular size of the face detection frame as face detection frame data, and for each face detection frame data acquired from the face detection means, the frame is acquired from the previous frame. An evaluation value indicating a position / rectangular size difference between the detected face detection frame data and the face detection frame data acquired from the frame processed by the face detection unit this time , Tracking means for associating the previous face detection frame data with the smallest evaluation value with each face detection frame data, and generating a face object for each face image newly detected by the face detection means, Referencing the previous and current face detection frame data correspondence results obtained from the tracking means, transitioning the state of the face object to the viewing state according to a predetermined state transition table, and advertising effect of the display An advertisement effect measurement system comprising: a state transition management unit that stores, for each face object, at least a time during which the state of the face object is in the browsing state as a log serving as an index of.
上述した第1の発明によれば,顔検出枠の位置・矩形サイズが利用され,今回の前記顔検出枠データには,位置・矩形サイズが近い一つ前の前記顔検出枠データが対応付けされることになるため,複雑な画像処理は行われず,この処理を高速に行うことができるようになる。また,前記広告効果測定装置に前記状態遷移管理手段を備えさせることで,ディスプレイの広告効果として,前記ディスプレイを閲覧している人の閲覧時間をログとして取得できるようになる。 According to the first aspect described above, the position / rectangular size of the face detection frame is used, and the face detection frame data of this time is associated with the face detection frame data of the previous position / rectangular size close to each other. Therefore, complicated image processing is not performed, and this processing can be performed at high speed. In addition, by providing the advertisement effect measuring device with the state transition management means, it is possible to acquire the browsing time of the person browsing the display as a log as the advertising effect of the display.
更に,第2の発明は,前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,第1の発明に記載の広告効果測定システムである。 Further, according to a second aspect of the present invention, the tracking means of the advertising effect measuring device includes two tracking values within a range obtained by adding a predetermined set value to the minimum value of the evaluation value for each face detection frame data. It is confirmed whether or not the evaluation value is included, and when there is the face detection frame data including two or more evaluation values, the face image included in the area of the face detection frame data and the previous one A value indicating the feature difference of the face image included in the face detection frame data image area is calculated and added to the evaluation value of the current face detection frame data, and then the previous face detection is performed. The advertising effect measurement system according to the first aspect is characterized in that a process of associating frame data with the current face detection frame data is executed.
上述した第2の発明によれば,今回の前記フレームにおいて顔検出枠が非常に近い場合は,顔が似ている方の顔検出枠に対応する一つ前の顔検出枠データが今回の顔検出枠データに対応付けることができるようになる。 According to the second aspect described above, when the face detection frame is very close in the current frame, the previous face detection frame data corresponding to the face detection frame with a similar face is the current face. It can be associated with the detection frame data.
更に,第3の発明は,前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,請求項1又は請求項2に記載の広告効果測定システムである。
Furthermore, in the third aspect of the present invention, when the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses a moving image analysis method. The advertisement effect measurement according to
第3の発明によれば,また,前記広告効果測定装置が前記動画解析手段を備えることで,顔検出枠を見失った場合,すなわち,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合でも対応を取ることができる。なお,前記動画解析手段が実行する手法としては,時系列パーティクルフィルタ,LK法またはCamSiftのいずれか又は全てを該利用することができる。 According to the third invention, when the advertisement effect measuring device includes the moving image analyzing unit, the face detection frame associated with the previous face detection frame data is lost when the face detection frame is lost. Even if data is not detected from the current frame, a response can be taken. As the method executed by the moving image analysis means, any or all of the time-series particle filter, the LK method, and CamShift can be used.
更に,第4の発明は,前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,第1の発明から第3の発明のいずれか一つに記載の広告効果測定システムである。 Further, according to a fourth aspect of the present invention, when there is no previous face detection frame data associated with the current face detection frame data, the state transition management unit of the advertisement effect measurement device is configured to detect the current face detection frame data. The state of the face object including the previous face detection frame data associated with the current face detection frame data is created by newly creating the face object including Is in the browsing state, the face object state is not changed, the face object position / size is updated to the face detection frame data position / size, and the current face detection frame data is not associated When the state of the face object including the previous face detection frame data is in the browsing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, When the face image is detected from the frame, the face object is updated to the detected position / size without changing the state of the face object, and the face image is updated. When it cannot be detected from the current frame, the operation of setting the face object in a non-browsing state is performed, and the time during which the face object is in the browsing state is stored as a log of the browsing time of the face object. The advertisement effect measurement system according to any one of the first to third inventions.
更に,第5の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,第1の発明から第4の発明のいずれか一つに記載の広告効果測定システムである。 Furthermore, in a fifth aspect of the present invention, the state transition management unit of the advertisement effect measuring device stores the position of the face detection frame data included in the face object as a log while the face object is in the browsing state. The advertisement effect measuring system according to any one of the first to fourth inventions, characterized in that
更に,第6の発明は,前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,第1の発明から第5の発明のいずれか一つに記載の広告効果測定システムである。 Further, the sixth invention is characterized in that the advertising effect measuring device comprises a person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image, The state transition management means causes the person attribute estimation means to analyze the face image corresponding to the newly generated face object, and stores it as a log indicating the attribute of the face image. To the advertisement effect measuring system according to any one of the fifth to fifth aspects of the invention.
更に,第7の発明は,前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,第1の発明から第6の発明のいずれか一つに記載の広告効果測定システムである。 Further, according to a seventh aspect of the present invention, the advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device displays the number of human bodies detected in front of the display. The advertisement effect measurement system according to any one of the first to sixth inventions, wherein at least a log of the number of persons in the store is stored.
第4の発明のように,前記顔オブジェクトの状態を遷移させれば,ディスプレイを閲覧した人物毎の閲覧時間をログとして記憶することができ,第5の発明によれば,ディスプレイを閲覧した人物毎に位置をログとして記憶することができるようになる。 If the state of the face object is changed as in the fourth aspect, the browsing time for each person who has viewed the display can be stored as a log. According to the fifth aspect, the person who has viewed the display The position can be stored as a log every time.
更に,第6の発明のように,前記広告効果測定装置に前記人物属性推定手段を備えさせれば,ディスプレイを閲覧した人物の人物属性(年齢・性別)をログとして記憶できるようになり,また,第7の発明のように,前記広告効果測定装置に前記人体検出手段を備えさせれば,ディスプレイの前にいる人の総人数をログとして記憶できるようになる。 Further, as in the sixth invention, if the advertisement effect measuring device is provided with the person attribute estimating means, the person attribute (age / gender) of the person who has viewed the display can be stored as a log, As in the seventh invention, if the advertising effect measuring apparatus is provided with the human body detecting means, the total number of people in front of the display can be stored as a log.
更に,第8の発明は,前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする第1の発明から第7の発明のいずれか一つに記載の広告効果測定システムである。 Further, according to an eighth aspect of the present invention, the advertising effect measurement device includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means are configured to remove a background image by the background removal means. The advertising effect measurement system according to any one of the first to seventh inventions, wherein the frame is analyzed.
第8の発明によれば,前記広告効果測定装置に前記背景除去手段を備えさせることで,顔検出・人体検出の精度を高めると共に処理速度を向上させることができるようになる。 According to the eighth invention, by providing the advertising effect measuring apparatus with the background removing means, the accuracy of face detection / human body detection can be improved and the processing speed can be improved.
更に,第9の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,第3の発明から第8の発明のいずれか一つに記載の広告効果測定システムである。 Further, according to a ninth aspect of the present invention, when the state transition management unit of the advertisement effect measuring apparatus newly creates the face object, the state of the face object is set to a candidate state before being set to a browsing state, When the state of the face object including the previous face detection frame data associated with the face detection frame data is a candidate state, the position / size of the face object is the position of the current face detection frame data. -A face object in a candidate state that is updated to size and increments a counter provided for the face object, and the counter value does not reach a predetermined number of times even if a predetermined set time elapses Cease to use the face object in the candidate state whose counter value has reached the predetermined number of times before the preset set time elapses. It characterized the door, an advertisement effect measurement system according to any one of the eighth aspect of the third invention.
更に,第10の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,第3の発明から第9の発明のいずれか一つに記載の広告効果測定システムである。 Furthermore, in the tenth aspect of the invention, the state transition management means of the advertisement effect measuring device causes the state of the face object to transition to a standby state before making the state of the face object non-browsing. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is not detected even after a predetermined time has elapsed, the state of the face object is changed to a non-viewing state. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the predetermined time has elapsed, the state of the face object is set to the browsing state. The advertisement effect measuring system according to any one of the third to ninth inventions, characterized in that state transition is performed.
第9の発明のように状態遷移させれば,前記顔検出手段が検出した顔画像がランダムに発生するノイズの場合,該顔画像をノイズとして扱うことができる,また,第10の発明のように状態遷移させれば,一時的に完全に見失ってもトラッキングを再開することができるようになる。 If the state transition is performed as in the ninth aspect, the face image detected by the face detection means can be handled as noise when the face image is randomly generated, or as in the tenth aspect. If the state transition is made to, tracking can be resumed even if it is temporarily completely lost.
更に,第11の発明は,ディスプレイの広告効果を測定する広告効果測定装置であって,前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定装置である。 Furthermore, an eleventh aspect of the invention is an advertising effectiveness measuring device for measuring advertising effectiveness of a display, wherein a facial image captured in a frame included in a video captured by a camera that captures a person in front of the display is displayed. For each detected face image, face detection means for outputting the position / rectangular size of the face detection frame as face detection frame data, and for each face detection frame data acquired from the face detection means, the face detection An evaluation value indicating a position / rectangular size difference between the face detection frame data acquired from the frame processed by the means before and the face detection frame data acquired from the frame processed by the face detection means this time is calculated. , Tracking means for associating the previous face detection frame data having the smallest evaluation value with each face detection frame data, and for each face image newly detected by the face detection means. Generating an object, referring to the previous and current face detection frame data correspondence results obtained from the tracking means, and transitioning the state of the face object to a browsing state according to a predetermined state transition table; An advertisement effect measuring apparatus comprising: a state transition management unit that stores at least a time for which each face object is in a browsing state as a log serving as an index of the advertisement effect of the display. It is.
更に,第12の発明は,前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする第11の発明に記載の広告効果測定装置である。 Further, according to a twelfth aspect of the present invention, the tracking means of the advertisement effect measuring apparatus includes two tracking values within a range obtained by adding a predetermined set value to the minimum value of the evaluation value for each face detection frame data. It is confirmed whether or not the evaluation value is included, and when there is the face detection frame data including two or more evaluation values, the face image included in the area of the face detection frame data and the previous one A value indicating the feature difference of the face image included in the face detection frame data image area is calculated and added to the evaluation value of the current face detection frame data, and then the previous face detection is performed. The advertising effect measuring apparatus according to the eleventh aspect is characterized in that a process of associating frame data with the current face detection frame data is executed.
更に,第13の発明は,前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,第11の発明又は第12の発明に記載の広告効果測定装置である。 Furthermore, in a thirteenth aspect of the present invention, when the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses a moving image analysis method. The advertisement according to the eleventh invention or the twelfth invention, further comprising a moving image analysis means for detecting the face image corresponding to the previous face detection frame data from the current frame. It is an effect measuring device.
更に,第14の発明は,前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする第13の発明に記載の広告効果測定装置である。 Further, according to a fourteenth aspect of the present invention, when the state transition management means of the advertisement effect measuring device has no previous face detection frame data associated with the current face detection frame data, the current face detection frame data The state of the face object including the previous face detection frame data associated with the current face detection frame data is created by newly creating the face object including Is in the browsing state, the face object state is not changed, the face object position / size is updated to the face detection frame data position / size, and the current face detection frame data is not associated When the state of the face object including the previous face detection frame data is the browsing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, When the face image is detected from the frame, the position and size of the face object are updated to the position and size of the detected face image without changing the state of the face object. When the face object cannot be detected from the current frame, the operation of setting the face object to the non-browsing state is performed, and the time during which the face object is in the browsing state is stored as a log of the browsing time of the face object. The advertising effect measuring apparatus according to the thirteenth aspect of the invention.
更に,第15の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする第11の発明から第14の発明のいずれか一つに記載の広告効果測定装置である。 Furthermore, in the fifteenth aspect of the invention, the state transition management means of the advertisement effect measuring device stores the position of the face detection frame data included in the face object as a log while the face object is in the browsing state. The advertisement effect measuring device according to any one of the eleventh to fourteenth inventions.
更に,第16の発明は,前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする第11の発明から第15の発明のいずれか一つに記載の広告効果測定装置である。 Furthermore, the sixteenth aspect of the invention is characterized in that the advertisement effect measuring device comprises person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image. From the eleventh invention, the state transition management means causes the person attribute estimation means to analyze the face image corresponding to the newly generated face object, and stores it as a log indicating the attribute of the face image. The advertising effect measurement device according to any one of the fifteenth inventions.
更に,第17の発明は,前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする第11の発明から第16の発明のいずれか一つに記載の広告効果測定装置である。 Further, according to a seventeenth aspect of the invention, the advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device indicates the number of human bodies detected in front of the display. The advertisement effect measuring device according to any one of the eleventh to sixteenth inventions, wherein at least a log of the number of persons in the store is stored.
更に,第18の発明は,前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする第11の発明から第17の発明のいずれか一つに記載の広告効果測定装置である。 Further, according to an eighteenth aspect of the present invention, the advertisement effect measuring apparatus includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means are configured to remove a background image by the background removal means. The advertising effect measuring apparatus according to any one of the eleventh to seventeenth aspects, wherein the frame is analyzed.
更に,第19の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする第11の発明から第18の発明のいずれか一つに記載の広告効果測定装置である。 Furthermore, in the nineteenth aspect of the invention, when the state transition management unit of the advertising effect measuring apparatus newly creates the face object, the state of the face object is set to a candidate state before the state is set to a browsing state. When the state of the face object including the previous face detection frame data associated with the face detection frame data is a candidate state, the position / size of the face object is the position of the current face detection frame data. -A face object in a candidate state that is updated to size and increments a counter provided for the face object, and the counter value does not reach a predetermined number of times even if a predetermined set time elapses Is stopped, and the face object in the candidate state whose counter value has reached the predetermined number of times before the set time elapses changes to the browsing state It is an advertisement effect measurement apparatus according to any one of the eighteenth aspect of the eleventh invention, wherein.
更に,第20の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする第11の発明から第19の発明のいずれか一つに記載の広告効果測定装置である。 Furthermore, in the twentieth invention, the state transition management means of the advertising effect measuring device causes the state of the face object to transition to a standby state before making the state of the face object non-browsing. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is not detected even after a predetermined time has elapsed, the state of the face object is changed to a non-viewing state. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the predetermined time has elapsed, the state of the face object is set to the browsing state. The advertisement effect measuring apparatus according to any one of the eleventh to nineteenth aspects, wherein the state is changed.
第11の発明から第20の発明は,第1の発明から第10の発明に記載の広告効果測定システムを構築するときに必要な広告効果測定装置の発明である。 The eleventh to twentieth inventions are inventions of an advertisement effect measuring device required when constructing the advertisement effect measuring system according to the first to tenth inventions.
上述した発明によれば,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などようなディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することのでき,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供できる。 According to the above-described invention, in addition to digital signage which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, a display such as a show window, an advertisement signboard, or a specific product display shelf in a store is provided. Advertising effect that can speed up the process of tracking the face of the person being viewed, can generate a log that can be used to measure the advertising effectiveness of the display, and can track the face of a person who has lost sight A measurement system can be provided.
ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。 From this, the embodiments of the present invention will be described to the extent that those skilled in the art of the present invention can understand the contents of the present invention and implement the present invention.
図1は,本実施形態における広告効果測定システム1の構成を説明する図,図2は,広告効果測定システム1を構成する広告効果測定装置2のハードウェアブロック図,図3は,広告効果測定装置2に実装されたコンピュータプログラムで実現される機能ブロック図である。
FIG. 1 is a diagram for explaining the configuration of an advertisement
図1で図示したように,広告効果測定システム1には,街頭や店舗などに設置され,ディスプレイ3a(図1ではディスプレイ)を用いて広告を表示する広告媒体であるデジタルサイネージ3が含まれる。
As shown in FIG. 1, the advertising
なお,デジタルサイネージ3には,広告映像を再生するディスプレイ3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。 The digital signage 3 includes a server for controlling the advertising video reproduced by the digital signage 3 in addition to the display 3a for reproducing the advertising video, but this server is not shown in FIG.
デジタルサイネージ3のディスプレイ3aには,ディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定され,ディスプレイ3aで再生されている広告映像を閲覧している人物を撮影するビデオカメラ4が設置されている。 An angle is set on the display 3a of the digital signage 3 so that the face of a person watching the advertisement video reproduced on the display 3a is photographed, and the advertisement video reproduced on the display 3a is viewed. A video camera 4 for photographing a person is installed.
このビデオカメラ4で撮影された映像は,USBポートなどを利用して広告効果測定装置2に入力され,広告効果測定装置2は,ビデオカメラ4から送信された映像に含まれるフレームを解析し,ディスプレイ3aの前にいる人物や,ディスプレイ3aで再生されている広告映像を閲覧した人物の顔を検出し,デジタルサイネージ3の広告効果の測定に利用可能なログ(例えば,デジタルサイネージ3の閲覧時間)を記憶する。
The video imaged by the video camera 4 is input to the advertising
図1で図示した広告効果測定システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,広告効果測定装置2は,従来技術にはない特徴を備えているため,ここから,広告効果測定装置2について詳細に説明する。
In the apparatus constituting the advertisement
広告効果測定装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを広告効果測定装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。
The advertisement
広告効果測定装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,広告効果測定装置2には図3で図示した手段が備えられる。
A computer program for operating the CPU 2a is installed in the
図3で図示したように,広告効果測定装置2の入力は,ビデオカメラ4によって撮影された映像で,広告効果測定装置2の出力は,デジタルサイネージの広告効果の測定に利用可能なデータが記憶されたログファイルである。
As shown in FIG. 3, the input of the advertisement
広告効果測定装置2は,ビデオカメラ4によって撮影された映像のフレームを解析する手段として,ビデオカメラ4によって撮影された映像のフレームの背景画像を除去する背景除去手段20と,背景除去手段20によって背景画像が除去されたフレームから人物の顔を検出する顔検出手段21と,背景除去手段20によって背景画像が除去されたフレームから人体を検出する人体検出手段22と,顔検出手段21が検出した顔を前後のフレームで対応付けるトラッキング手段23と,パーティクルフィルタなどの動画解析手法を用い,指定された顔画像をフレームから検出する動画解析手段24と,顔検出手段21が新規に検出した顔画像毎に顔オブジェクトを生成し,トラッキング手段23から得られる一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理手段25を備え,更に,本実施形態では,デジタルサイネージ3を閲覧した人物の属性(年齢や性別)をログデータに含ませるために,顔検出手段21が検出した顔画像から人物の人物属性(年齢や性別)を推定する人物属性推定手段26を備えている。
The advertisement
広告効果測定装置2が,ビデオカメラ4によって撮影された映像のフレームを時系列で解析することで,広告効果測定装置2のデータ記憶装置2dには,広告効果の測定に利用可能なログファイルとして,デジタルサイネージの閲覧時間が記憶される閲覧時間ログファイルと,デジタルサイネージを閲覧した人物の位置が記憶される位置ログファイルと,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)が記憶される人物属性ログファイルと,デジタルサイネージの前にいる人物の総人数,デジタルサイネージを閲覧していない人物の人数,デジタルサイネージを閲覧した人物の人数が記憶される人数ログファイルが記憶され,これらのログファイルを出力するログファイル出力手段27が広告効果測定装置2には備えられている。
As the advertisement
まず,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明しながら,ビデオカメラ4によって撮影された映像のフレームを解析するために備えられた各手段について説明する。
First, each means provided for analyzing the frame of the video photographed by the video camera 4 will be described while explaining the processing of the advertisement
図4は,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明するフロー図である。それぞれの処理の詳細は後述するが,広告効果測定装置2に映像の一つのフレームが入力されると,広告効果測定装置2は該フレームについて背景除去処理S1を行い,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行う。
FIG. 4 is a flowchart for explaining processing in which the advertisement
広告効果測定装置2は,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行った後,顔検出処理S2の結果を利用して,今回の処理対象となるフレームであるNフレームから検出された顔と,一つ前のフレームであるN−1フレームから検出された顔を対応付けるトラッキング処理S4を行い,トラッキング処理S4の結果を踏まえて顔オブジェクトの状態を遷移させる状態遷移管理処理S5を実行する。
The advertisement
まず,背景除去処理S1について説明する。背景除去処理S1を担う手段は,広告効果測定装置2の背景除去手段20である。広告効果測定装置2が背景除去処理S1を実行するのは,図1に図示しているように,デジタルサイネージ3のディスプレイ3aの上部に設けられたビデオカメラ4の位置・アングルは固定であるため,ビデオカメラ4が撮影した映像には変化しない背景画像が含まれることになり,この背景画像を除去することで,精度よく人体・顔を検出できるようにするためである。
First, the background removal process S1 will be described. The means responsible for the background removal processing S1 is the background removal means 20 of the advertisement
広告効果測定装置2の背景除去手段20が実行する背景除去処理としては既存技術を利用でき,ビデオカメラ4が撮影する映像は,例えば,朝,昼,夜で光が変化する場合があるので,背景の時間的な変化を考慮した動的背景更新法を用いることが好適である。
As the background removal processing executed by the background removal means 20 of the advertisement
背景の時間的な変化を考慮した動的背景更新法としては,例えば,「森田 真司, 山澤 一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)」に記載されている手法を用いることができる。 Examples of dynamic background update methods that take into account temporal changes in the background include "Shinji Morita, Kazumasa Yamazawa, Norihiko Terasawa, Naokazu Yokoya:" Network-enabled remote monitoring system using omnidirectional image sensors ", electronic The method described in the Journal of Information and Communication Engineers (D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5) can be used.
次に,広告効果測定装置2の顔検出手段21によって実行される顔検出処理S2について説明する。顔検出処理S2で実施する顔検出方法としては,特許文献1に記載されているような顔検出方法も含め,様々な顔検出方法が開示されているが,本実施形態では,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用している。なお,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については,「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」,「Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。
Next, the face detection process S2 executed by the face detection means 21 of the advertisement
弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を実行することで,フレームに含まれる顔画像毎に顔検出枠データが得られ,この顔検出枠データには,顔画像を検出したときに利用した顔検出枠の位置(例えば,左上隅の座標)・矩形サイズ(幅及び高さ)が含まれる。 Face detection frame data is obtained for each face image included in the frame by executing the face detection method by Adaboost algorithm using black and white Haar-Like features as weak classifiers. The position of the face detection frame used when detecting the image (for example, the coordinates of the upper left corner) and the rectangular size (width and height) are included.
次に,広告効果測定装置2の人体検出手段22によって実行される人体検出処理S3について説明する。人体を検出する手法としては赤外線センサを用い,人物の体温を利用して人体を検出する手法が良く知られているが,本実施形態では,人体検出処理S3で実施する人体検出方法に,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法を採用している。なお,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については,「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。
Next, the human body detection process S3 executed by the human
弱い識別器としてHOG特徴を用いたAdaboostアルゴリズムによる人体検出法を実行することで,フレームに含まれる人体毎に人体検出枠データが得られ,この人体検出枠データには,人体画像を検出したときに利用した人体検出枠の位置(例えば,人体検出枠の左上隅の座標)・矩形サイズ(幅及び高さ)が得られる。 Human body detection frame data is obtained for each human body included in the frame by executing the human body detection method based on the Adaboost algorithm using the HOG feature as a weak discriminator. The position (for example, the coordinates of the upper left corner of the human body detection frame) and the rectangular size (width and height) of the human body detection frame used in the above are obtained.
図8は,人体及び顔検出結果を説明するための図である。図8のフレーム7で撮影されている人物は,人物7a〜7fの合計6人が含まれ,広告効果測定装置2の人体検出手段22はそれぞれの人物7a〜7fを検出し,それぞれの人物7a〜7fに対応する人体検出枠データ70a〜70fを出力する。また,広告効果測定装置2の顔検出手段21は,両眼が撮影されている人物7a〜7cの顔を検出し,それぞれの顔に対応する顔検出枠データ71a〜71cを出力する。
FIG. 8 is a diagram for explaining the human body and face detection results. The person photographed in the
次に,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4について説明する。トラッキング処理S4では,広告効果測定装置2のトラッキング手段23によって,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける処理が実行される。
Next, the tracking process S4 executed by the
ここから,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理について詳細に説明する。図5は,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4を説明するためのフロー図である。
From here, the tracking process performed by the tracking means 23 of the advertisement
広告効果測定装置2のトラッキング手段23は,Nフレームをトラッキング処理S4するために,まず,Nフレームから得られた顔検出枠データ及び人体検出枠データをそれぞれ顔検出手段21及び人体検出手段22から取得する(S10)。
The tracking means 23 of the advertisement
なお,次回のトラッキング処理S4において,Nフレームから得られた顔検出枠データは,N−1フレームの顔検出枠データとして利用されるため,広告効果測定装置2のトラッキング手段23は,Nフレームから得られた顔検出枠データをRAM2cまたはデータ記憶装置2dに記憶する。
In the next tracking process S4, since the face detection frame data obtained from the N frame is used as the face detection frame data of the N-1 frame, the tracking means 23 of the advertisement
広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データ及び人体検出枠データを取得すると,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行う(S11)。
When the tracking means 23 of the advertisement
上述しているように,人体検出枠データには人体検出枠の位置及び矩形サイズが含まれ,顔検出枠データには顔検出枠の位置及び矩形サイズが含まれるため,顔検出枠が含まれる人体検出枠データは,デジタルサイネージ3を閲覧している人物の人体検出枠データと判定でき,また,顔検出枠が含まれない人体検出枠データは,デジタルサイネージ3を閲覧していない人物の人体検出枠データと判定できる。 As described above, the human body detection frame data includes the position and rectangular size of the human body detection frame, and the face detection frame data includes the face detection frame because the position and rectangular size of the face detection frame are included. The human body detection frame data can be determined as the human body detection frame data of the person who is browsing the digital signage 3, and the human body detection frame data not including the face detection frame is the human body of the person who is not browsing the digital signage 3. It can be determined as detection frame data.
広告効果測定装置2のトラッキング手段23は,このようにして,Nフレームの人体検出枠データ毎にデジタルサイネージの閲覧判定を行うと,Nフレームが撮影されたときの人数ログファイルとして,デジタルサイネージ3の前にいる人物の総人数,すなわち,人体検出手段22によって検出された人体検出枠データの数と,デジタルサイネージ3を閲覧していない人物の人数,すなわち,顔検出枠が含まれていない人体検出枠データの数と,デジタルサイネージ3を閲覧している人物の人数,すなわち,顔検出枠が含まれる人体検出枠データの数を記載した人数ログファイルを生成し,Nフレームのフレーム番号などを付与してデータ記憶装置2dに記憶する。
When the tracking means 23 of the advertisement
広告効果測定装置2のトラッキング手段23は,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行うと,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける顔検出枠データ対応付け処理S12を実行する。
When the tracking means 23 of the advertisement
図6は,顔検出枠データ対応付け処理S12を説明するためのフロー図で,本実施形態では,図6で図示したフローにおいて,以下に記述する数式1の評価関数を用いて得られる評価値を利用して,顔検出枠データの対応付けがなされる。
FIG. 6 is a flowchart for explaining the face detection frame data association processing S12. In this embodiment, the evaluation value obtained by using the evaluation function of
なお,数式1の評価関数f1()は,ニアレストネイバー法を用いた評価関数で,評価関数f1()で得られる評価値は,顔検出枠データの位置・矩形サイズの差を示した評価値になる。また,数式1の評価関数f2()で得られる評価値は,評価関数f1()から求められる評価値に,顔検出枠データで特定される顔検出枠に含まれる顔画像から得られ,顔画像の特徴を示すSURF特徴量の差が重み付けして加算された評価値になる。
N−1フレームから検出した顔検出枠データとNフレームから検出した顔検出枠データを対応付けるために,広告効果測定装置2のトラッキング手段23は,まず,Nフレームから得られた顔検出枠データの数だけループ処理L1を実行する。
In order to associate the face detection frame data detected from the N-1 frame with the face detection frame data detected from the N frame, the tracking means 23 of the advertisement
このループ処理L1において,広告効果測定装置2のトラッキング手段23は,まず,N−1フレームから検出された顔検出枠データの数だけループ処理L2を実行し,このループ処理L2では,ループ処理L1の処理対象となる顔検出枠データの位置・矩形サイズと,ループ処理L2の処理対象となる顔検出枠データの位置・矩形サイズが,数式1の評価関数f1()に代入して評価値を算出し(S120),ループ処理L1の対象となる顔検出枠データとの位置・サイズの差を示す評価値が,N−1フレームから検出された顔検出枠データ毎に算出される。
In this loop processing L1, the tracking means 23 of the advertisement
広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値を,N−1フレームから検出された顔検出枠データ毎に算出すると,該評価値の最小値を検索し(S121),該評価値の最小値と他の評価値との差分を算出した後(S122),閾値以下の該差分値があるか判定する(S123)。
The tracking means 23 of the advertisement
そして,広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値の最小値と他の評価値との差分の中に,閾値以下の差分がある場合,広告効果測定装置2のトラッキング手段23は,評価値が閾値以内である顔検出枠データを対象としてループ処理L3を実行する。
Then, the tracking means 23 of the advertisement
このループ処理L3では,ループ処理L1の処理対象となる顔検出枠データで特定される顔検出枠内の顔画像と,ループ処理L3の処理対象となるN−1フレームの顔検出枠データで特定される顔検出枠内の顔画像とのSURF特徴量の差が求められ,SURF特徴量の差が数式1の評価関数f2()に代入され,SURF特徴量の差を加算した評価値が算出される(S124)。
In this loop process L3, the face image in the face detection frame specified by the face detection frame data to be processed by the loop process L1 and the N-1 frame face detection frame data to be processed by the loop process L3 are specified. The difference of the SURF feature quantity from the face image in the face detection frame to be obtained is obtained, the difference of the SURF feature quantity is substituted into the evaluation function f2 () of
数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出するのは,ニアレストネイバー法のみを利用した評価関数f1()を用いて求められた評価値の最小値と他の評価値との差分値に閾値以下がある場合,サイズの似た顔検出枠が近接していると考えられ(例えば,図8の人物7a,b),ニアレストネイバー法の評価値からでは,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データが判定できないからである。
The evaluation value obtained by using the evaluation function f1 () using only the nearest neighbor method is used to calculate the evaluation value obtained by adding the difference of the SURF feature amount using the evaluation function f2 () expressed by the
数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出することで,顔の特徴が加味された評価値が算出されるので,該評価値を用いることで,サイズの似た顔検出枠が近接している場合は,顔が似ているN−1フレームの顔検出枠データがNフレームの顔検出枠データに対応付けられることになる。
By using the evaluation function f2 () shown in
そして,広告効果測定装置2のトラッキング手段23は,数式1の評価関数から得られた評価値が最小値であるN−1フレームの顔検出枠データを,ループ処理L1の対象となるNフレームの顔検出枠データに対応付ける処理を実行する(S125)。
なお,数式1で示した評価関数f2()を用いた評価値を算出していない場合,この処理で利用される評価値は,数式1で示した評価関数f1()から求められた値になり,数式1で示した評価関数f2()を用いた評価値を算出している場合,この処理で利用される評価値は,数式1で示した評価関数f2()から求められた値になる。
Then, the tracking means 23 of the advertisement
If the evaluation value using the evaluation function f2 () shown in
ループ処理L1が終了し,広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データとN−1フレームの顔検出枠データを対応付けすると,N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられていないか確認する(S126)。
When the loop processing L1 is completed and the tracking means 23 of the advertising
N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられている場合,広告効果測定装置2のトラッキング手段23は,重複して対応付けられているN−1フレームの顔検出枠データの評価値を参照し,評価値が小さい方を該Nフレームの顔検出枠データに対応付ける処理を再帰的に実行することで,最終的に,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データを決定する(S127)。
When the face detection frame data of the N-1 frame overlaps and is associated with the face detection frame data of the N frame, the
ここから,図5で図示したフローの説明に戻る。トラッキング処理S4が終了すると,広告効果測定装置2の状態遷移管理手段25によって,トラッキング処理S4から得られ,
一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理処理S5が実行され,この状態遷移管理処理S5で所定の状態遷移があると,該状態遷移に対応した所定のログファイルがデータ記憶装置2dに記憶される。
From here, it returns to description of the flow illustrated in FIG. When the tracking process S4 is completed, it is obtained from the tracking process S4 by the state transition management means 25 of the advertisement
State transition management processing that refers to the result of matching the previous and current face detection frame data, transitions the state of the face object according to a predetermined state transition table, and stores a log according to the state transition of the face object When S5 is executed and there is a predetermined state transition in the state transition management process S5, a predetermined log file corresponding to the state transition is stored in the
広告効果測定装置2の状態遷移管理手段25には,顔オブジェクトの状態遷移を管理するために,予め,顔オブジェクトの状態と該状態を状態遷移させるルールが定義された状態遷移表が定められており,広告効果測定装置2のトラッキング手段23は,この状態遷移表を参照し,顔検出枠対応付け処理の結果に基づき顔オブジェクトの状態を遷移させる。
In order to manage the state transition of the face object, the state
ここから,状態遷移表の一例を例示し,該状態遷移表の説明をしながら,広告効果測定装置2の状態遷移管理手段25によって実行される状態遷移管理処理S5について説明する。
From here, an example of the state transition table will be exemplified, and the state transition management process S5 executed by the state
図7は,本実施形態における状態遷移表6を説明する図である。図7で図示した状態遷移表6によって,顔オブジェクトの状態と,N−1フレームの状態からNフレームの状態への遷移が定義され,状態遷移表6の縦軸はN−1フレームの状態で,横軸はNフレームの状態で,縦軸と横軸が交差する箇所に状態遷移する条件が記述されている。なお,状態遷移表に「―」は不正な状態遷移を示している。 FIG. 7 is a diagram for explaining the state transition table 6 in the present embodiment. The state transition table 6 shown in FIG. 7 defines the face object state and the transition from the N-1 frame state to the N frame state. The vertical axis of the state transition table 6 indicates the N-1 frame state. , The horizontal axis is in the state of N frames, and conditions for state transition are described where the vertical axis and the horizontal axis intersect. In the state transition table, “-” indicates an illegal state transition.
図7で図示した状態遷移表6には,顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceが定義され,状態遷移表で定義された状態遷移を説明しながら,それぞれの状態について説明する。 In the state transition table 6 illustrated in FIG. 7, None, candidate face, current face, standby face, noise face, and end face are defined as face object states, and the state transitions defined in the state transition table are described. However, each state will be described.
顔オブジェクトの状態の一つであるNoneとは,顔オブジェクトが存在しない状態を意味し,N−1フレームの顔検出枠データが対応付けられなかったNフレームの顔検出枠データがある場合(図7の条件1),広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトを識別するためのID,該Nフレームの顔検出データ,顔オブジェクトに付与された状態に係わるデータなどを属性値と有する顔オブジェクトを新規に生成し,該顔オブジェクトの状態を候補Faceに設定する。
None, which is one of the face object states, means a state in which no face object exists, and there is N frame face detection frame data that is not associated with N-1 frame face detection frame data (see FIG. 7), the state transition management means 25 of the advertising
顔オブジェクトの状態の一つである候補Faceとは,新規に検出した顔画像がノイズである可能性がある状態を意味し,顔オブジェクトの状態の一つに候補Faceを設けているのは,複雑な背景の場合,背景除去処理を行っても顔画像の誤検出が発生し易く,新規に検出できた顔画像がノイズの可能性があるからである。 The candidate face that is one of the face object states means a state in which the newly detected face image may be a noise, and the candidate face is provided as one of the face object states. This is because in the case of a complex background, erroneous detection of a face image is likely to occur even if background removal processing is performed, and the newly detected face image may have noise.
候補Faceの状態である顔オブジェクトには,候補Faceの状態に係わるデータとして,候補Faceの状態であることを示す状態IDと,候補Faceへ状態遷移したときの日時及びカウンタが付与される。 The face object in the candidate face state is given, as data related to the candidate face state, a state ID indicating the candidate face state, a date and time when the state transition is made to the candidate face, and a counter.
候補Faceから状態遷移可能な状態は,候補Face,現在Face及びノイズFaceで,事前に定められた設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔画像が所定の数だけ連続してトラッキングできた場合(図7の条件2−2),該顔オブジェクトの状態は候補Faceから現在Faceに遷移する。 The states that can be changed from the candidate face are the candidate face, the current face, and the noise face, and a predetermined number of face images corresponding to the face objects in the candidate face state are consecutive within a predetermined set time. If the tracking is successful (condition 2-2 in FIG. 7), the state of the face object changes from the candidate face to the current face.
候補Faceの状態である顔オブジェクトの属性にカウンタを設けているのは,設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔検出枠を連続してトラッキングできた回数をカウントするためで,広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データが含まれている顔オブジェクトの状態が候補Faceの場合,該顔オブジェクトに付与されている顔検出枠データをNフレームの顔検出枠データに更新すると共に,該顔オブジェクトのカウンタをインクリメントする。
A counter is provided for the attribute of the face object in the candidate face state in order to count the number of times that the face detection frame corresponding to the face object in the candidate face state can be continuously tracked within the set time. Then, the state
そして,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を実行する際,候補Faceである顔オブジェクト毎に,候補Faceへ状態遷移したときの日時を参照し,設定時間以内に該カウンタの値が事前に定めた設定値に達している場合は,顔オブジェクトの状態を現在Faceに状態遷移させる。また,広告効果測定装置2の状態遷移管理手段25は,この時点で設定時間が経過しているが,該カウンタが設定値に達しなかった該顔オブジェクトの状態をノイズFaceに状態遷移させ(図7の条件2−3),該設定時間が経過していない該顔オブジェクトについては状態を状態遷移させない(図7の条件2−1)。
Then, when executing the state transition management process S5, the state
顔オブジェクトの状態の一つであるノイズFaceとは,広告効果測定装置2の顔検出手段21が検出した顔画像がノイズと判定された状態で,ノイズFaceに状態遷移した顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5に利用されない。
The noise face that is one of the states of the face object is a state in which the face image detected by the face detection means 21 of the advertisement
顔オブジェクトの状態の一つである現在Faceとは,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧状態と判定できる状態で,現在Faceの状態にある時間が,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧している時間となる。 The current face, which is one of the face object states, is a state in which a person corresponding to the face object can determine that the digital signage 3 is in the browsing state. It is time to browse the signage 3.
広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を候補Faceから現在Faceに状態遷移すると,該顔オブジェクトの顔検出枠データをNフレームの顔検出枠データに更新すると共に,現在Faceに係わるデータとして,現在Faceの状態であることを示す状態IDと現在Faceに状態遷移させたときの日時を顔オブジェクトに付与する。
When the state
また,デジタルサイネージを閲覧している人物の人物属性(例えば,年齢・性別)をログとして記憶するために,顔オブジェクトの状態を現在Faceに状態遷移すると,広告効果測定装置2の状態遷移管理手段25は人物属性推定手段26を作動させ,現在Faceに状態遷移させた顔オブジェクトの顔検出枠データで特定される顔検出枠内の画像を解析することで得られる人物属性を取得し,該顔オブジェクトのオブジェクトID,人物属性が記述された属性ログファイルをデータ記憶装置2dに記憶する。
In addition, when the state of the face object is changed to “Face” in order to store the person attribute (for example, age / gender) of the person who is viewing the digital signage as a log, the state transition management unit of the advertisement
なお,広告効果測定装置2に備えられた人物属性推定手段26については詳細な記載はしないが,人物の顔画像から人物の人物属性(年齢・性別)を自動で識別することは,タバコの自動販売機などでも広く利用されており,例えば,特開2007―080057号公報の技術を利用できる。
Although the detailed description of the person attribute estimating means 26 provided in the advertisement
更に,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を現在Faceに状態遷移すると,デジタルサイネージ3を閲覧している人物の位置を時系列で記憶するための位置ログファイルをデータ記憶装置2dに新規に生成する。生成時の位置ログファイルには,現在Faceに状態遷移した顔オブジェクトのオブジェクトIDと,現在Faceに状態遷移した顔オブジェクトに含まれる顔検出枠データが付与される
Furthermore, when the state
現在Faceの状態から状態遷移可能な状態は,現在Face及び待機Faceである。広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データを含む顔オブジェクトの状態が現在Faceの場合(条件3−1),該顔オブジェクトに付与されている顔検出枠データをNフレームにおける顔検出枠データに更新すると共に,該顔検出枠データを,該顔オブジェクトのオブジェクトIDで特定される位置ログファイルに追加する。
The states that can be changed from the current face state are the current face and the standby face. The state
また,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を行う際,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データが付与されている顔オブジェクトの状態が現在Faceの場合,動画解析手段24を作動させて,動画解析手法により, 動画解析手法により、該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する処理を実施する。
Further, when the state
本実施形態において,広告効果測定装置2の動画解析手段24は,まず,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データと既に対応付けられているNフレームの顔検出枠データの間で、オクルージョン状態の判定を行い,対象となる人物の顔が完全に隠れた状態のオクルージョンであるか確認する。
In the present embodiment, the moving
広告効果測定装置2の動画解析手段24は,この時点で存在し,現在Face,候補Face及び待機Faceの状態である全ての顔オブジェクトについて,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行する。
広告効果測定装置2の動画解析手段24は,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行すると,判定結果に基づき処理を分岐する。
When the moving
トラッキング対象である人物が完全に隠れた状態のオクルージョンである可能性が高いと判断できた場合(数式2の判定基準1に該当する場合)、パーティクルフィルタによるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,パーティクルフィルタについては,「加藤丈和: 「パーティクルフィルタとその実装法」, 情報処理学会研究報告, CVIM-157, pp.161-168 (2007).」など数多くの文献で述べられている。
When it is determined that there is a high possibility that the person to be tracked is an occlusion in a completely hidden state (when the
また、トラッキング対象である人物が半分隠れた状態のオクルージョンで可能性が高いと判断できた場合(数式2の判定基準2に該当する場合)、LK法(Lucus-Kanadeアルゴリズム)によるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,LK法については,「Lucas, B.D. and Kanade, T.:" An Iterative Image Registration Technique with an Application to Stereo Vision”,Proc.DARPA Image Understanding Workshop,pp.121-130,1981.」で述べられている。
In addition, when it is determined that the possibility is high due to occlusion in which the person to be tracked is half-hidden (when it corresponds to the
そして,トラッキング対象である人物にオクルージョンはない可能性が高いと判定できた場合(数式3の判定基準3に該当する場合),広告効果測定装置2の動画解析手段24は,CamShift手法を用いたトラッキングを行い,対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,CamShift手法については,「G. R. Bradski: "Computer vision face tracking foruse in a perceptual user interface," Intel Technology Journal, Q2, 1998.」で述べられている。
When it is determined that there is a high possibility that the person to be tracked does not have occlusion (when the criterion 3 of Expression 3 is satisfied), the video analysis means 24 of the advertisement
広告効果測定装置2の状態遷移管理手段25は,これらのいずれかの手法で対象となる顔画像がNフレームから検出できた場合,現在Faceの状態である顔オブジェクトの顔検出データを,これらの手法で検出された位置・矩形サイズに更新し,これらのいずれかの手法でも対象となる顔画像がトラッキングできなかった場合,現在Faceの状態である顔オブジェクトの状態を待機Faceに状態遷移させる(図7の条件3−2)。
When the target face image can be detected from N frames by any of these methods, the state
顔オブジェクトの状態の一つである待機Faceとは,広告効果測定装置2に備えられた動画解析手段24を用いても,顔オブジェクトに対応する顔画像を検出できなくなった状態である。
The standby face, which is one of the states of the face object, is a state in which a face image corresponding to the face object can no longer be detected even using the moving image analysis means 24 provided in the advertisement
また,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を待機Faceに状態遷移する際,顔オブジェクトの顔検出枠データは更新せず,待機Faceに係わるデータとして,待機Faceの状態であることを示す状態IDと,該顔オブジェクトが現在Faceに状態遷移したときの日時と,該顔オブジェクトが待機Faceに状態遷移したときの日時を顔オブジェクトに付与する。
Further, when the state
待機Faceから状態遷移可能な状態は,現在Faceまたは終了Faceである。広告効果測定装置2の状態遷移管理手段25は,待機Faceに状態遷移してからの時間が所定時間経過する前に,Nフレームの顔検出枠データを含む顔オブジェクトを検索し,該顔オブジェクトの状態が待機Faceであった場合,該顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる(図7の条件4−1)。
The state in which state transition is possible from the standby face is the current face or the end face. The state transition management means 25 of the advertisement
なお,顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる際,広告効果測定装置2の状態遷移管理手段25は,該顔オブジェクトが現在Faceに状態遷移したときの日時は,待機Faceの状態のときに顔オブジェクトに付与されていた該日時を利用する。
When the state of the face object is changed from the standby face to the current face, the state
また,広告効果測定装置2のトラッキング手段23は,顔オブジェクトの状態遷移を管理する処理を実行する際,待機Faceに状態遷移してからの時間が所定時間経過した顔オブジェクトの状態を終了Faceに状態遷移させ(図7の条件4−3),該設定時間が経過していない該顔オブジェクトについては状態を遷移させない(図7の条件4−2)。
Further, when the tracking means 23 of the advertising
顔オブジェクトの状態の一つである終了Faceとは,広告効果測定装置2が検出できなくなった人物に対応する状態で,状態が終了Faceになった顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5で利用されない。
The end face, which is one of the face object states, is a state corresponding to a person who can no longer be detected by the advertisement
なお,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を終了Faceに状態遷移する前に,該顔オブジェクトのオブジェクトID,該顔オブジェクトが現在Faceに状態遷移したときの日時である閲覧開始時刻,該顔オブジェクトが待機Faceに状態遷移したときの日時である閲覧終了時刻を記述した閲覧時間ログファイルを生成しデータ記憶装置2dに記憶させる。
Note that the state
以上詳しく説明したように、広告効果測定装置2は,顔検出手段21が検出した顔毎に生成する顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceの5つを状態遷移表6で定義し,顔オブジェクトに対応する顔のトラッキング結果に従い,顔オブジェクトの状態を遷移させることで,顔オブジェクトの状態遷移に従い,デジタルサイネージ3の閲覧時間をログとして記憶することが可能になる。
As described above in detail, the advertisement
上述した内容に従えば,顔オブジェクトの状態が現在Faceである間は,顔オブジェクトに対応する顔を連続して検出できたことになるため,現在Faceの状態にあった時間は,デジタルサイネージ3の閲覧時間になる。 According to the above description, while the face object state is currently Face, the face corresponding to the face object can be continuously detected. Therefore, the time in the Face state is the digital signage 3 It will be browsing time.
また,顔オブジェクトの状態として候補Faceを定義しておくことで,ノイズによって顔を誤検出した場合でも,デジタルサイネージ3の閲覧時間への影響はなくなる。また,顔オブジェクトの状態として待機Faceを定義しておくことで,顔を見失った後に,同じ顔を検出した場合でも,同じ顔として取り扱うことができるようになる。 Also, by defining the candidate Face as the face object state, even if a face is erroneously detected due to noise, the viewing time of the digital signage 3 is not affected. Also, by defining the standby face as the state of the face object, even if the same face is detected after losing sight of the face, it can be handled as the same face.
1 広告効果測定システム
2 広告効果測定装置
20 背景除去手段
21 顔検出手段
22 人体検出手段
23 トラッキング手段
24 動画解析手段
25 状態遷移管理手段
26 人物属性推定手段
27 ログファイル出力手段
3 デジタルサイネージ
3a ディスプレイ
4 ビデオカメラ
5 ネットワーク
6 状態遷移表
DESCRIPTION OF
Claims (20)
前記広告効果測定装置は,
前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定システム。 An advertisement effect measurement system comprising at least a camera for photographing a person in front of a display and an advertisement effect measurement device for measuring the advertisement effect of the display by analyzing a frame included in a video photographed by the camera Because
The advertising effectiveness measuring device includes:
A face detection means for detecting a face image photographed in the frame transmitted from the camera and outputting the position / rectangular size of the face detection frame as face detection frame data for each detected face image;
For each face detection frame data acquired from the face detection means, the face detection frame data acquired from the frame processed by the face detection means one time ago and the face detection means acquired from the frame processed this time A tracking means for calculating an evaluation value indicating a position / rectangular size difference from the face detection frame data, and associating the previous face detection frame data with the smallest evaluation value with each face detection frame data;
A face object is generated for each face image newly detected by the face detection means, and the state transition determined in advance is referred to by referring to the result of association between the previous and current face detection frame data obtained from the tracking means. State transition management that changes the state of the face object to the browsing state according to the table, and stores at least the time during which the state of the face object was in the browsing state as a log serving as an index of the advertising effect of the display Equipped with means,
An advertising effect measurement system characterized by that.
前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定装置。 An advertising effectiveness measuring device for measuring advertising effectiveness of a display,
A face image captured in a frame included in a video captured by a camera that captures a person in front of the display is detected, and the position / rectangular size of the face detection frame is determined for each detected face image. Face detection means for outputting as data,
For each face detection frame data acquired from the face detection means, the face detection frame data acquired from the frame processed by the face detection means one time ago and the face detection means acquired from the frame processed this time A tracking means for calculating an evaluation value indicating a position / rectangular size difference from the face detection frame data, and associating the previous face detection frame data with the smallest evaluation value with each face detection frame data;
A face object is generated for each face image newly detected by the face detection means, and the state transition determined in advance is referred to by referring to the result of association between the previous and current face detection frame data obtained from the tracking means. State transition management that changes the state of the face object to the browsing state according to the table, and stores at least the time during which the state of the face object was in the browsing state as a log serving as an index of the advertising effect of the display Equipped with means,
An advertising effect measuring device characterized by that.
The state transition management means of the advertisement effect measuring device causes the face object to transition to a standby state before the face object is set to a non-viewing state, and a predetermined time has elapsed. If the face detection frame data matching the face detection frame data included in the face object in the standby state is not detected, the state of the face object is changed to the non-viewing state, and a predetermined time is When the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the passage, the state of the face object is changed to the browsing state. The advertisement effect measuring device according to any one of claims 11 to 19.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010033410A JP2011070629A (en) | 2009-08-25 | 2010-02-18 | Advertising effect measurement system and advertising effect measurement device |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009194371 | 2009-08-25 | ||
| JP2010033410A JP2011070629A (en) | 2009-08-25 | 2010-02-18 | Advertising effect measurement system and advertising effect measurement device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2011070629A true JP2011070629A (en) | 2011-04-07 |
| JP2011070629A5 JP2011070629A5 (en) | 2012-11-29 |
Family
ID=44015810
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010033410A Pending JP2011070629A (en) | 2009-08-25 | 2010-02-18 | Advertising effect measurement system and advertising effect measurement device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011070629A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232876A (en) * | 2010-04-26 | 2011-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Content attention degree calculation device, content attention degree calculation method, and content attention degree calculation program |
| JP2013054739A (en) * | 2011-08-31 | 2013-03-21 | Nielsen Co (Us) Llc | Methods and apparatus to count people in images |
| US10417666B2 (en) | 2017-08-10 | 2019-09-17 | Toyota Jidosha Kabushiki Kaisha | Digital signage control device, digital signage control method, and recording medium |
| JP2020514922A (en) * | 2017-03-21 | 2020-05-21 | ケロッグ カンパニー | Media content tracking |
| JPWO2021038800A1 (en) * | 2019-08-29 | 2021-03-04 | ||
| JP2022526347A (en) * | 2020-02-18 | 2022-05-24 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | Image processing methods, equipment, electronic devices and computer program products |
| JP2022542668A (en) * | 2019-09-18 | 2022-10-06 | ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | Target object matching method and device, electronic device and storage medium |
| JP2025060966A (en) * | 2013-06-28 | 2025-04-10 | 日本電気株式会社 | Image processing system, image processing method, and image processing program |
| US12549678B2 (en) | 2013-06-28 | 2026-02-10 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognition method and object tracking monitoring device |
| JP2005277726A (en) * | 2004-03-24 | 2005-10-06 | Toshiba Corp | Image monitoring device |
| JP2007181071A (en) * | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | Apparatus and method for evaluating attention paid to contents |
| JP2007272436A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Object tracking device, abnormal state detection device, and object tracking method |
| JP2009077064A (en) * | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Monitoring method and monitoring device |
| JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measurement system, and display effect measurement method |
-
2010
- 2010-02-18 JP JP2010033410A patent/JP2011070629A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognition method and object tracking monitoring device |
| JP2005277726A (en) * | 2004-03-24 | 2005-10-06 | Toshiba Corp | Image monitoring device |
| JP2007181071A (en) * | 2005-12-28 | 2007-07-12 | Shunkosha:Kk | Apparatus and method for evaluating attention paid to contents |
| JP2007272436A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Object tracking device, abnormal state detection device, and object tracking method |
| JP2009077064A (en) * | 2007-09-19 | 2009-04-09 | Fujifilm Corp | Monitoring method and monitoring device |
| JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measurement system, and display effect measurement method |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011232876A (en) * | 2010-04-26 | 2011-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Content attention degree calculation device, content attention degree calculation method, and content attention degree calculation program |
| JP2013054739A (en) * | 2011-08-31 | 2013-03-21 | Nielsen Co (Us) Llc | Methods and apparatus to count people in images |
| US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
| US9237379B2 (en) | 2011-08-31 | 2016-01-12 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
| US12542864B2 (en) | 2013-06-28 | 2026-02-03 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
| US12549678B2 (en) | 2013-06-28 | 2026-02-10 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
| JP2025060966A (en) * | 2013-06-28 | 2025-04-10 | 日本電気株式会社 | Image processing system, image processing method, and image processing program |
| JP7764941B2 (en) | 2013-06-28 | 2025-11-06 | 日本電気株式会社 | Image processing system, image processing method, and image processing program |
| JP2020514922A (en) * | 2017-03-21 | 2020-05-21 | ケロッグ カンパニー | Media content tracking |
| US11227307B2 (en) | 2017-03-21 | 2022-01-18 | Kellogg Company | Media content tracking of users' gazing at screens |
| US10417666B2 (en) | 2017-08-10 | 2019-09-17 | Toyota Jidosha Kabushiki Kaisha | Digital signage control device, digital signage control method, and recording medium |
| JPWO2021038800A1 (en) * | 2019-08-29 | 2021-03-04 | ||
| JP2023016848A (en) * | 2019-08-29 | 2023-02-02 | 富士通株式会社 | ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE |
| JP7265202B2 (en) | 2019-08-29 | 2023-04-26 | 富士通株式会社 | ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE |
| JP7262659B2 (en) | 2019-09-18 | 2023-04-21 | ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | Target object matching method and device, electronic device and storage medium |
| JP2022542668A (en) * | 2019-09-18 | 2022-10-06 | ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | Target object matching method and device, electronic device and storage medium |
| JP7235892B2 (en) | 2020-02-18 | 2023-03-08 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | Image processing method, apparatus, electronic equipment and computer program product |
| JP2022526347A (en) * | 2020-02-18 | 2022-05-24 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | Image processing methods, equipment, electronic devices and computer program products |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2011070629A (en) | Advertising effect measurement system and advertising effect measurement device | |
| US10204264B1 (en) | Systems and methods for dynamically scoring implicit user interaction | |
| JP2011070629A5 (en) | ||
| JP4702877B2 (en) | Display device | |
| RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
| JP2011210238A (en) | Advertisement effect measuring device and computer program | |
| CN106663196B (en) | Method, system, and computer-readable storage medium for identifying a subject | |
| JP6589321B2 (en) | System, search method and program | |
| CN113766330A (en) | Method and device for generating recommendation information based on video | |
| US8947600B2 (en) | Methods, systems, and computer-readable media for detecting scene changes in a video | |
| WO2016187888A1 (en) | Keyword notification method and device based on character recognition, and computer program product | |
| US20130290108A1 (en) | Selection of targeted content based on relationships | |
| CN112001886A (en) | A temperature detection method, device, terminal and readable storage medium | |
| JP2011060026A (en) | System and device for analyzing face detection result, and computer program | |
| CN103428406B (en) | Monitoring video analysis method and device | |
| JP2021114771A (en) | Information processing device, control method, and program | |
| US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
| JP2012217165A (en) | Method and device for detecting camera motion type in video | |
| KR101513180B1 (en) | System for a real-time cashing event summarization in surveillance images and the method thereof | |
| JP2010211485A (en) | Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded | |
| JP5850188B2 (en) | Image display system | |
| JP2013195725A (en) | Image display system | |
| JP5776471B2 (en) | Image display system | |
| JP5962383B2 (en) | Image display system and image processing apparatus | |
| JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121015 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121015 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20130823 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130906 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140415 |