[go: up one dir, main page]

JP2011070629A - Advertising effect measurement system and advertising effect measurement device - Google Patents

Advertising effect measurement system and advertising effect measurement device Download PDF

Info

Publication number
JP2011070629A
JP2011070629A JP2010033410A JP2010033410A JP2011070629A JP 2011070629 A JP2011070629 A JP 2011070629A JP 2010033410 A JP2010033410 A JP 2010033410A JP 2010033410 A JP2010033410 A JP 2010033410A JP 2011070629 A JP2011070629 A JP 2011070629A
Authority
JP
Japan
Prior art keywords
face
state
frame data
face detection
detection frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010033410A
Other languages
Japanese (ja)
Other versions
JP2011070629A5 (en
Inventor
Satoshi Tabata
聡 田端
Yasuhisa Matsuba
靖寿 松葉
Kazumasa Koizumi
和真 小泉
Tetsutaro Ono
徹太郎 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010033410A priority Critical patent/JP2011070629A/en
Publication of JP2011070629A publication Critical patent/JP2011070629A/en
Publication of JP2011070629A5 publication Critical patent/JP2011070629A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】デジタルサイネージを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,見失った人物の顔をトラッキングすることができるデジタルサイネージ広告効果測定システムを提供する。
【解決手段】デジタルサイネージ広告効果測定システム1の広告効果測定装置2は,ビデオカメラ4で撮影された映像のフレームから顔画像を検出する顔検出手段21と,顔検出手段22から出力される顔検出枠データをNフレームとN−1フレームで対応付けるトラッキング手段23と,トラッキング手段23で対応付けられないN−1フレームの顔検出枠データがある場合,動画解析手法を用い,該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する動画解析手段24と,顔検出枠データ毎に生成される顔オブジェクトの状態遷移を管理し,顔オブジェクトが閲覧状態にある時間を少なくとも記憶する状態遷移管理手段25を備える。
【選択図】図3
A digital signage advertising effect measurement system capable of speeding up the process of tracking the face of a person browsing digital signage and tracking the face of a person who has lost sight.
An advertisement effect measuring device (2) of a digital signage advertisement effect measuring system (1) includes a face detection means (21) for detecting a face image from a frame of a video photographed by a video camera (4), and a face output from the face detection means (22). When there is tracking means 23 for associating the detection frame data with N frames and N-1 frames, and there is N-1 frame face detection frame data that is not associated with the tracking means 23, the moving image analysis method is used to detect the N-1 frames. Moving image analysis means 24 for detecting a face image corresponding to the face detection frame data from N frames, and managing state transitions of the face object generated for each face detection frame data, and at least a time during which the face object is in the browsing state State transition management means 25 for storing is provided.
[Selection] Figure 3

Description

本発明は,ディスプレイの広告効果を測定するための技術に関する。なお,ディスプレイとは、液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などを含む。   The present invention relates to a technique for measuring the advertising effectiveness of a display. The display includes a digital signage (Digital Signage), which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, as well as a show window, an advertisement signboard, a specific product display shelf in a store, and the like.

液晶ディスプレイやプロジェクタなどのディスプレイを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が,様々な場所に設置され始めている。
デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。
Digital signage, which is an advertising medium that displays advertisements using a display such as a liquid crystal display or a projector, has begun to be installed in various places.
By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently deliver advertisements according to the location of digital signage. Expansion is expected.

広告主がデジタルサイネージを導入するのにあたり,テレビの視聴率,新聞,雑誌の販売部数といったように,客観的な広告効果を広告主に提示することが必要になり,デジタルサイネージの広告効果に係わる発明としては,例えば,特許文献1が開示されている。   When an advertiser introduces digital signage, it is necessary to present an objective advertising effect to the advertiser, such as the TV audience rating, the number of copies of newspapers and magazines, etc. As an invention, for example, Patent Document 1 is disclosed.

特許文献1で開示されている表示装置は,電子看板(デジタルサイネージ)を見ている人を撮影するビデオカメラを備え,このビデオカメラにおける顔検出結果と,他の場所(会計コーナ)に設置されたカメラの顔検出結果を関連付けることで,電子看板で表示している広告の広告効果として広告と消費行動の関連性を求める装置である。   The display device disclosed in Patent Document 1 includes a video camera that takes a picture of a person looking at a digital signage (digital signage), and is installed at a face detection result and other places (accounting corner). By associating camera face detection results with each other, it is a device that obtains the relationship between the advertisement and the consumption behavior as the advertisement effect of the advertisement displayed on the electronic signboard.

上述した広告効果に加え,特許文献1で開示されている表示装置には,表示装置単体で得られる広告効果を算出するために統計解析モジュールが備えられ,この統計解析モジュールは,ビデオカメラが撮影した映像を解析し,該映像に含まれる個々の顔の数、性別データ、年齢カテゴリデータ、電子看板の方を向いていた時間である滞在時間などを算出する。   In addition to the advertising effect described above, the display device disclosed in Patent Document 1 includes a statistical analysis module for calculating the advertising effect obtained by the display device alone, and this statistical analysis module is captured by a video camera. The video is analyzed, and the number of individual faces included in the video, gender data, age category data, the staying time that is the time facing the electronic signboard, and the like are calculated.

特開2005-251170号公報JP 2005-251170 A

電子看板の方を向いていた時間である滞在時間など,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などようなディスプレイを閲覧している時間を人物毎に測定するためには,映像に含まれる人物の顔をトラッキングすることが必要になり,特許文献1においては,トラッキング手法として,色マッチング法及びカルマンフィルタリング法が記載されているが,これらの手法は,顔を見失った場合でもトラッキングを続けることができる等の利点があるものの,これらの手法の処理速度が遅く,全体の処理において律速になってしまう。   In addition to digital signage, which is an advertising medium that displays advertisements using liquid crystal displays and projectors, such as the staying time, which is the time when you are facing the digital signage, it is also possible to display specific information in the show window, advertising signage, and in the store. In order to measure the time of browsing a display such as a product display shelf for each person, it is necessary to track the face of the person included in the video. Although the matching method and Kalman filtering method are described, these methods have the advantage of being able to continue tracking even if the face is lost, but the processing speed of these methods is slow and the overall processing is It becomes rate-limiting.

そこで,本発明は,デジタルサイネージなどのディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することのでき,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供することを目的とする。   Therefore, the present invention can speed up the process of tracking the face of a person browsing a display such as digital signage, and can generate a log that can be used to measure the advertising effectiveness of the display. It is an object of the present invention to provide an advertisement effect measurement system that can track the face of a person.

上述した課題を解決する第1の発明は,ディスプレイの前にいる人物を撮影するカメラと,前記カメラが撮影した映像に含まれるフレームを解析することで,前記ディスプレイの広告効果を測定する広告効果測定装置とから少なくとも構成される広告効果測定システムであって,前記広告効果測定装置は,前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定システムである。   A first invention that solves the above-described problem is an advertising effect that measures the advertising effect of the display by analyzing a camera that captures a person in front of the display and a frame included in a video captured by the camera. An advertising effectiveness measuring system comprising at least a measuring device, wherein the advertising effectiveness measuring device detects a face image photographed in the frame transmitted from the camera, and for each detected face image, For each face detection frame data acquired from the face detection means that outputs the position / rectangular size of the face detection frame as face detection frame data, and for each face detection frame data acquired from the face detection means, the frame is acquired from the previous frame. An evaluation value indicating a position / rectangular size difference between the detected face detection frame data and the face detection frame data acquired from the frame processed by the face detection unit this time , Tracking means for associating the previous face detection frame data with the smallest evaluation value with each face detection frame data, and generating a face object for each face image newly detected by the face detection means, Referencing the previous and current face detection frame data correspondence results obtained from the tracking means, transitioning the state of the face object to the viewing state according to a predetermined state transition table, and advertising effect of the display An advertisement effect measurement system comprising: a state transition management unit that stores, for each face object, at least a time during which the state of the face object is in the browsing state as a log serving as an index of.

上述した第1の発明によれば,顔検出枠の位置・矩形サイズが利用され,今回の前記顔検出枠データには,位置・矩形サイズが近い一つ前の前記顔検出枠データが対応付けされることになるため,複雑な画像処理は行われず,この処理を高速に行うことができるようになる。また,前記広告効果測定装置に前記状態遷移管理手段を備えさせることで,ディスプレイの広告効果として,前記ディスプレイを閲覧している人の閲覧時間をログとして取得できるようになる。   According to the first aspect described above, the position / rectangular size of the face detection frame is used, and the face detection frame data of this time is associated with the face detection frame data of the previous position / rectangular size close to each other. Therefore, complicated image processing is not performed, and this processing can be performed at high speed. In addition, by providing the advertisement effect measuring device with the state transition management means, it is possible to acquire the browsing time of the person browsing the display as a log as the advertising effect of the display.

更に,第2の発明は,前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,第1の発明に記載の広告効果測定システムである。   Further, according to a second aspect of the present invention, the tracking means of the advertising effect measuring device includes two tracking values within a range obtained by adding a predetermined set value to the minimum value of the evaluation value for each face detection frame data. It is confirmed whether or not the evaluation value is included, and when there is the face detection frame data including two or more evaluation values, the face image included in the area of the face detection frame data and the previous one A value indicating the feature difference of the face image included in the face detection frame data image area is calculated and added to the evaluation value of the current face detection frame data, and then the previous face detection is performed. The advertising effect measurement system according to the first aspect is characterized in that a process of associating frame data with the current face detection frame data is executed.

上述した第2の発明によれば,今回の前記フレームにおいて顔検出枠が非常に近い場合は,顔が似ている方の顔検出枠に対応する一つ前の顔検出枠データが今回の顔検出枠データに対応付けることができるようになる。   According to the second aspect described above, when the face detection frame is very close in the current frame, the previous face detection frame data corresponding to the face detection frame with a similar face is the current face. It can be associated with the detection frame data.

更に,第3の発明は,前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,請求項1又は請求項2に記載の広告効果測定システムである。   Furthermore, in the third aspect of the present invention, when the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses a moving image analysis method. The advertisement effect measurement according to claim 1 or 2, further comprising moving image analysis means for detecting the face image corresponding to the previous face detection frame data from the current frame. System.

第3の発明によれば,また,前記広告効果測定装置が前記動画解析手段を備えることで,顔検出枠を見失った場合,すなわち,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合でも対応を取ることができる。なお,前記動画解析手段が実行する手法としては,時系列パーティクルフィルタ,LK法またはCamSiftのいずれか又は全てを該利用することができる。   According to the third invention, when the advertisement effect measuring device includes the moving image analyzing unit, the face detection frame associated with the previous face detection frame data is lost when the face detection frame is lost. Even if data is not detected from the current frame, a response can be taken. As the method executed by the moving image analysis means, any or all of the time-series particle filter, the LK method, and CamShift can be used.

更に,第4の発明は,前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,第1の発明から第3の発明のいずれか一つに記載の広告効果測定システムである。   Further, according to a fourth aspect of the present invention, when there is no previous face detection frame data associated with the current face detection frame data, the state transition management unit of the advertisement effect measurement device is configured to detect the current face detection frame data. The state of the face object including the previous face detection frame data associated with the current face detection frame data is created by newly creating the face object including Is in the browsing state, the face object state is not changed, the face object position / size is updated to the face detection frame data position / size, and the current face detection frame data is not associated When the state of the face object including the previous face detection frame data is in the browsing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, When the face image is detected from the frame, the face object is updated to the detected position / size without changing the state of the face object, and the face image is updated. When it cannot be detected from the current frame, the operation of setting the face object in a non-browsing state is performed, and the time during which the face object is in the browsing state is stored as a log of the browsing time of the face object. The advertisement effect measurement system according to any one of the first to third inventions.

更に,第5の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,第1の発明から第4の発明のいずれか一つに記載の広告効果測定システムである。   Furthermore, in a fifth aspect of the present invention, the state transition management unit of the advertisement effect measuring device stores the position of the face detection frame data included in the face object as a log while the face object is in the browsing state. The advertisement effect measuring system according to any one of the first to fourth inventions, characterized in that

更に,第6の発明は,前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,第1の発明から第5の発明のいずれか一つに記載の広告効果測定システムである。   Further, the sixth invention is characterized in that the advertising effect measuring device comprises a person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image, The state transition management means causes the person attribute estimation means to analyze the face image corresponding to the newly generated face object, and stores it as a log indicating the attribute of the face image. To the advertisement effect measuring system according to any one of the fifth to fifth aspects of the invention.

更に,第7の発明は,前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,第1の発明から第6の発明のいずれか一つに記載の広告効果測定システムである。   Further, according to a seventh aspect of the present invention, the advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device displays the number of human bodies detected in front of the display. The advertisement effect measurement system according to any one of the first to sixth inventions, wherein at least a log of the number of persons in the store is stored.

第4の発明のように,前記顔オブジェクトの状態を遷移させれば,ディスプレイを閲覧した人物毎の閲覧時間をログとして記憶することができ,第5の発明によれば,ディスプレイを閲覧した人物毎に位置をログとして記憶することができるようになる。   If the state of the face object is changed as in the fourth aspect, the browsing time for each person who has viewed the display can be stored as a log. According to the fifth aspect, the person who has viewed the display The position can be stored as a log every time.

更に,第6の発明のように,前記広告効果測定装置に前記人物属性推定手段を備えさせれば,ディスプレイを閲覧した人物の人物属性(年齢・性別)をログとして記憶できるようになり,また,第7の発明のように,前記広告効果測定装置に前記人体検出手段を備えさせれば,ディスプレイの前にいる人の総人数をログとして記憶できるようになる。   Further, as in the sixth invention, if the advertisement effect measuring device is provided with the person attribute estimating means, the person attribute (age / gender) of the person who has viewed the display can be stored as a log, As in the seventh invention, if the advertising effect measuring apparatus is provided with the human body detecting means, the total number of people in front of the display can be stored as a log.

更に,第8の発明は,前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする第1の発明から第7の発明のいずれか一つに記載の広告効果測定システムである。   Further, according to an eighth aspect of the present invention, the advertising effect measurement device includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means are configured to remove a background image by the background removal means. The advertising effect measurement system according to any one of the first to seventh inventions, wherein the frame is analyzed.

第8の発明によれば,前記広告効果測定装置に前記背景除去手段を備えさせることで,顔検出・人体検出の精度を高めると共に処理速度を向上させることができるようになる。   According to the eighth invention, by providing the advertising effect measuring apparatus with the background removing means, the accuracy of face detection / human body detection can be improved and the processing speed can be improved.

更に,第9の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,第3の発明から第8の発明のいずれか一つに記載の広告効果測定システムである。   Further, according to a ninth aspect of the present invention, when the state transition management unit of the advertisement effect measuring apparatus newly creates the face object, the state of the face object is set to a candidate state before being set to a browsing state, When the state of the face object including the previous face detection frame data associated with the face detection frame data is a candidate state, the position / size of the face object is the position of the current face detection frame data. -A face object in a candidate state that is updated to size and increments a counter provided for the face object, and the counter value does not reach a predetermined number of times even if a predetermined set time elapses Cease to use the face object in the candidate state whose counter value has reached the predetermined number of times before the preset set time elapses. It characterized the door, an advertisement effect measurement system according to any one of the eighth aspect of the third invention.

更に,第10の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,第3の発明から第9の発明のいずれか一つに記載の広告効果測定システムである。   Furthermore, in the tenth aspect of the invention, the state transition management means of the advertisement effect measuring device causes the state of the face object to transition to a standby state before making the state of the face object non-browsing. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is not detected even after a predetermined time has elapsed, the state of the face object is changed to a non-viewing state. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the predetermined time has elapsed, the state of the face object is set to the browsing state. The advertisement effect measuring system according to any one of the third to ninth inventions, characterized in that state transition is performed.

第9の発明のように状態遷移させれば,前記顔検出手段が検出した顔画像がランダムに発生するノイズの場合,該顔画像をノイズとして扱うことができる,また,第10の発明のように状態遷移させれば,一時的に完全に見失ってもトラッキングを再開することができるようになる。   If the state transition is performed as in the ninth aspect, the face image detected by the face detection means can be handled as noise when the face image is randomly generated, or as in the tenth aspect. If the state transition is made to, tracking can be resumed even if it is temporarily completely lost.

更に,第11の発明は,ディスプレイの広告効果を測定する広告効果測定装置であって,前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えていることを特徴とする広告効果測定装置である。   Furthermore, an eleventh aspect of the invention is an advertising effectiveness measuring device for measuring advertising effectiveness of a display, wherein a facial image captured in a frame included in a video captured by a camera that captures a person in front of the display is displayed. For each detected face image, face detection means for outputting the position / rectangular size of the face detection frame as face detection frame data, and for each face detection frame data acquired from the face detection means, the face detection An evaluation value indicating a position / rectangular size difference between the face detection frame data acquired from the frame processed by the means before and the face detection frame data acquired from the frame processed by the face detection means this time is calculated. , Tracking means for associating the previous face detection frame data having the smallest evaluation value with each face detection frame data, and for each face image newly detected by the face detection means. Generating an object, referring to the previous and current face detection frame data correspondence results obtained from the tracking means, and transitioning the state of the face object to a browsing state according to a predetermined state transition table; An advertisement effect measuring apparatus comprising: a state transition management unit that stores at least a time for which each face object is in a browsing state as a log serving as an index of the advertisement effect of the display. It is.

更に,第12の発明は,前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする第11の発明に記載の広告効果測定装置である。   Further, according to a twelfth aspect of the present invention, the tracking means of the advertisement effect measuring apparatus includes two tracking values within a range obtained by adding a predetermined set value to the minimum value of the evaluation value for each face detection frame data. It is confirmed whether or not the evaluation value is included, and when there is the face detection frame data including two or more evaluation values, the face image included in the area of the face detection frame data and the previous one A value indicating the feature difference of the face image included in the face detection frame data image area is calculated and added to the evaluation value of the current face detection frame data, and then the previous face detection is performed. The advertising effect measuring apparatus according to the eleventh aspect is characterized in that a process of associating frame data with the current face detection frame data is executed.

更に,第13の発明は,前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,第11の発明又は第12の発明に記載の広告効果測定装置である。   Furthermore, in a thirteenth aspect of the present invention, when the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses a moving image analysis method. The advertisement according to the eleventh invention or the twelfth invention, further comprising a moving image analysis means for detecting the face image corresponding to the previous face detection frame data from the current frame. It is an effect measuring device.

更に,第14の発明は,前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする第13の発明に記載の広告効果測定装置である。   Further, according to a fourteenth aspect of the present invention, when the state transition management means of the advertisement effect measuring device has no previous face detection frame data associated with the current face detection frame data, the current face detection frame data The state of the face object including the previous face detection frame data associated with the current face detection frame data is created by newly creating the face object including Is in the browsing state, the face object state is not changed, the face object position / size is updated to the face detection frame data position / size, and the current face detection frame data is not associated When the state of the face object including the previous face detection frame data is the browsing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, When the face image is detected from the frame, the position and size of the face object are updated to the position and size of the detected face image without changing the state of the face object. When the face object cannot be detected from the current frame, the operation of setting the face object to the non-browsing state is performed, and the time during which the face object is in the browsing state is stored as a log of the browsing time of the face object. The advertising effect measuring apparatus according to the thirteenth aspect of the invention.

更に,第15の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする第11の発明から第14の発明のいずれか一つに記載の広告効果測定装置である。   Furthermore, in the fifteenth aspect of the invention, the state transition management means of the advertisement effect measuring device stores the position of the face detection frame data included in the face object as a log while the face object is in the browsing state. The advertisement effect measuring device according to any one of the eleventh to fourteenth inventions.

更に,第16の発明は,前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする第11の発明から第15の発明のいずれか一つに記載の広告効果測定装置である。   Furthermore, the sixteenth aspect of the invention is characterized in that the advertisement effect measuring device comprises person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image. From the eleventh invention, the state transition management means causes the person attribute estimation means to analyze the face image corresponding to the newly generated face object, and stores it as a log indicating the attribute of the face image. The advertising effect measurement device according to any one of the fifteenth inventions.

更に,第17の発明は,前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする第11の発明から第16の発明のいずれか一つに記載の広告効果測定装置である。   Further, according to a seventeenth aspect of the invention, the advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device indicates the number of human bodies detected in front of the display. The advertisement effect measuring device according to any one of the eleventh to sixteenth inventions, wherein at least a log of the number of persons in the store is stored.

更に,第18の発明は,前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする第11の発明から第17の発明のいずれか一つに記載の広告効果測定装置である。   Further, according to an eighteenth aspect of the present invention, the advertisement effect measuring apparatus includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means are configured to remove a background image by the background removal means. The advertising effect measuring apparatus according to any one of the eleventh to seventeenth aspects, wherein the frame is analyzed.

更に,第19の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする第11の発明から第18の発明のいずれか一つに記載の広告効果測定装置である。   Furthermore, in the nineteenth aspect of the invention, when the state transition management unit of the advertising effect measuring apparatus newly creates the face object, the state of the face object is set to a candidate state before the state is set to a browsing state. When the state of the face object including the previous face detection frame data associated with the face detection frame data is a candidate state, the position / size of the face object is the position of the current face detection frame data. -A face object in a candidate state that is updated to size and increments a counter provided for the face object, and the counter value does not reach a predetermined number of times even if a predetermined set time elapses Is stopped, and the face object in the candidate state whose counter value has reached the predetermined number of times before the set time elapses changes to the browsing state It is an advertisement effect measurement apparatus according to any one of the eighteenth aspect of the eleventh invention, wherein.

更に,第20の発明は,前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする第11の発明から第19の発明のいずれか一つに記載の広告効果測定装置である。   Furthermore, in the twentieth invention, the state transition management means of the advertising effect measuring device causes the state of the face object to transition to a standby state before making the state of the face object non-browsing. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is not detected even after a predetermined time has elapsed, the state of the face object is changed to a non-viewing state. If the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the predetermined time has elapsed, the state of the face object is set to the browsing state. The advertisement effect measuring apparatus according to any one of the eleventh to nineteenth aspects, wherein the state is changed.

第11の発明から第20の発明は,第1の発明から第10の発明に記載の広告効果測定システムを構築するときに必要な広告効果測定装置の発明である。   The eleventh to twentieth inventions are inventions of an advertisement effect measuring device required when constructing the advertisement effect measuring system according to the first to tenth inventions.

上述した発明によれば,液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などようなディスプレイを閲覧している人物の顔をトラッキングする処理を高速化でき,かつ,ディスプレイの広告効果の測定に利用できるログを生成することのでき,更に,見失った人物の顔をトラッキングすることができる広告効果測定システムを提供できる。   According to the above-described invention, in addition to digital signage which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, a display such as a show window, an advertisement signboard, or a specific product display shelf in a store is provided. Advertising effect that can speed up the process of tracking the face of the person being viewed, can generate a log that can be used to measure the advertising effectiveness of the display, and can track the face of a person who has lost sight A measurement system can be provided.

広告効果測定システムの構成を説明する図。The figure explaining the structure of an advertising effectiveness measurement system. 広告効果測定装置のハードウェアブロック図。The hardware block diagram of an advertisement effect measuring apparatus. 広告効果測定装置の機能ブロック図。The functional block diagram of an advertisement effect measuring apparatus. 広告効果測定装置がフレームを解析する処理を説明するフロー図。The flowchart explaining the process which an advertising effectiveness measurement apparatus analyzes a flame | frame. トラッキング処理を説明するためのフロー図。The flowchart for demonstrating a tracking process. 顔検出枠データ対応付け処理を説明するためのフロー図。The flowchart for demonstrating face detection frame data matching processing. 本実施形態における状態遷移表を説明する図。The figure explaining the state transition table in this embodiment. 人体及び顔検出結果を説明するための図。The figure for demonstrating a human body and a face detection result.

ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。   From this, the embodiments of the present invention will be described to the extent that those skilled in the art of the present invention can understand the contents of the present invention and implement the present invention.

図1は,本実施形態における広告効果測定システム1の構成を説明する図,図2は,広告効果測定システム1を構成する広告効果測定装置2のハードウェアブロック図,図3は,広告効果測定装置2に実装されたコンピュータプログラムで実現される機能ブロック図である。   FIG. 1 is a diagram for explaining the configuration of an advertisement effect measurement system 1 according to the present embodiment, FIG. 2 is a hardware block diagram of an advertisement effect measurement device 2 constituting the advertisement effect measurement system 1, and FIG. 3 is an advertisement effect measurement. 3 is a functional block diagram realized by a computer program installed in the apparatus 2. FIG.

図1で図示したように,広告効果測定システム1には,街頭や店舗などに設置され,ディスプレイ3a(図1ではディスプレイ)を用いて広告を表示する広告媒体であるデジタルサイネージ3が含まれる。   As shown in FIG. 1, the advertising effect measurement system 1 includes a digital signage 3 that is installed in a street or a store and displays an advertisement using a display 3a (display in FIG. 1).

なお,デジタルサイネージ3には,広告映像を再生するディスプレイ3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。   The digital signage 3 includes a server for controlling the advertising video reproduced by the digital signage 3 in addition to the display 3a for reproducing the advertising video, but this server is not shown in FIG.

デジタルサイネージ3のディスプレイ3aには,ディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定され,ディスプレイ3aで再生されている広告映像を閲覧している人物を撮影するビデオカメラ4が設置されている。   An angle is set on the display 3a of the digital signage 3 so that the face of a person watching the advertisement video reproduced on the display 3a is photographed, and the advertisement video reproduced on the display 3a is viewed. A video camera 4 for photographing a person is installed.

このビデオカメラ4で撮影された映像は,USBポートなどを利用して広告効果測定装置2に入力され,広告効果測定装置2は,ビデオカメラ4から送信された映像に含まれるフレームを解析し,ディスプレイ3aの前にいる人物や,ディスプレイ3aで再生されている広告映像を閲覧した人物の顔を検出し,デジタルサイネージ3の広告効果の測定に利用可能なログ(例えば,デジタルサイネージ3の閲覧時間)を記憶する。   The video imaged by the video camera 4 is input to the advertising effect measurement device 2 using a USB port or the like, and the advertising effect measurement device 2 analyzes the frame included in the video image transmitted from the video camera 4, A log that can be used for measuring the advertising effect of the digital signage 3 by detecting the face of the person in front of the display 3a or the face of the person who has viewed the advertisement video reproduced on the display 3a (for example, the viewing time of the digital signage 3) ) Is memorized.

図1で図示した広告効果測定システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,広告効果測定装置2は,従来技術にはない特徴を備えているため,ここから,広告効果測定装置2について詳細に説明する。   In the apparatus constituting the advertisement effect measurement system 1 illustrated in FIG. 1, commercially available apparatuses can be used for the digital signage 3 and the video camera 4, but the advertisement effect measurement apparatus 2 has features that are not found in the prior art. From here, the advertisement effect measuring apparatus 2 will be described in detail.

広告効果測定装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを広告効果測定装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。   The advertisement effect measuring device 2 can be realized by using a general-purpose computer. The advertisement effect measuring device 2 includes hardware similar to that of a general-purpose computer. In FIG. 2, as the hardware, a CPU 2a (CPU: Central: Processing Unit), ROM 2b (ROM: Read-Only Memory) in which BIOS is mounted, RAM 2c (RAM: Random Access Memory) which is a main memory of a computer, and a large-capacity data storage device 2d (for example, an external storage device) , Hard disk), input / output interface 2e for data communication with external devices, network interface 2f for network communication, display device 2g (for example, liquid crystal display), and character input device 2h (for example, keyboard) , Pointing device 2i (eg mouse) To have.

広告効果測定装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,広告効果測定装置2には図3で図示した手段が備えられる。   A computer program for operating the CPU 2a is installed in the data storage device 2d of the advertisement effect measuring device 2, and the advertisement effect measuring device 2 is provided with the means shown in FIG. 3 by this computer program.

図3で図示したように,広告効果測定装置2の入力は,ビデオカメラ4によって撮影された映像で,広告効果測定装置2の出力は,デジタルサイネージの広告効果の測定に利用可能なデータが記憶されたログファイルである。   As shown in FIG. 3, the input of the advertisement effect measuring device 2 is an image taken by the video camera 4, and the output of the advertisement effect measuring device 2 stores data that can be used for measuring the advertising effect of digital signage. Log file.

広告効果測定装置2は,ビデオカメラ4によって撮影された映像のフレームを解析する手段として,ビデオカメラ4によって撮影された映像のフレームの背景画像を除去する背景除去手段20と,背景除去手段20によって背景画像が除去されたフレームから人物の顔を検出する顔検出手段21と,背景除去手段20によって背景画像が除去されたフレームから人体を検出する人体検出手段22と,顔検出手段21が検出した顔を前後のフレームで対応付けるトラッキング手段23と,パーティクルフィルタなどの動画解析手法を用い,指定された顔画像をフレームから検出する動画解析手段24と,顔検出手段21が新規に検出した顔画像毎に顔オブジェクトを生成し,トラッキング手段23から得られる一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理手段25を備え,更に,本実施形態では,デジタルサイネージ3を閲覧した人物の属性(年齢や性別)をログデータに含ませるために,顔検出手段21が検出した顔画像から人物の人物属性(年齢や性別)を推定する人物属性推定手段26を備えている。   The advertisement effect measuring apparatus 2 includes a background removing unit 20 that removes a background image of a frame of the video shot by the video camera 4 and a background removing unit 20 as means for analyzing the frame of the video shot by the video camera 4. Face detection means 21 for detecting a human face from the frame from which the background image has been removed, human body detection means 22 for detecting a human body from the frame from which the background image has been removed by the background removal means 20, and the face detection means 21 have detected. For each face image newly detected by the face detection means 21, the tracking means 23 for associating the face with the previous and next frames, the moving picture analysis means 24 for detecting the specified face image from the frame using a moving picture analysis technique such as a particle filter, etc. A face object is generated and the previous and current face detection frame data obtained from the tracking means 23 are A state transition management means 25 that refers to the result of attachment, changes the state of the face object in accordance with a predetermined state transition table, and stores a log corresponding to the state transition of the face object. In order to include in the log data the attributes (age and gender) of the person who has viewed the digital signage 3, the person attribute estimation means 26 for estimating the person attributes (age and gender) of the person from the face image detected by the face detection means 21 It has.

広告効果測定装置2が,ビデオカメラ4によって撮影された映像のフレームを時系列で解析することで,広告効果測定装置2のデータ記憶装置2dには,広告効果の測定に利用可能なログファイルとして,デジタルサイネージの閲覧時間が記憶される閲覧時間ログファイルと,デジタルサイネージを閲覧した人物の位置が記憶される位置ログファイルと,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)が記憶される人物属性ログファイルと,デジタルサイネージの前にいる人物の総人数,デジタルサイネージを閲覧していない人物の人数,デジタルサイネージを閲覧した人物の人数が記憶される人数ログファイルが記憶され,これらのログファイルを出力するログファイル出力手段27が広告効果測定装置2には備えられている。   As the advertisement effect measuring device 2 analyzes the frames of the video taken by the video camera 4 in time series, the data storage device 2d of the advertisement effect measuring device 2 has a log file that can be used for measuring the advertisement effect. , The browsing time log file that stores the browsing time of digital signage, the location log file that stores the position of the person who viewed the digital signage, and the person attributes (for example, age and gender) of the person who viewed the digital signage A person attribute log file that is stored, a total number of persons who are in front of digital signage, a number of persons who are not browsing digital signage, and a number log file that stores the number of persons who have viewed digital signage are stored, A log file output means 27 for outputting these log files is provided in the advertisement effect measuring apparatus 2. It has been.

まず,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明しながら,ビデオカメラ4によって撮影された映像のフレームを解析するために備えられた各手段について説明する。   First, each means provided for analyzing the frame of the video photographed by the video camera 4 will be described while explaining the processing of the advertisement effect measuring apparatus 2 analyzing the frame of the video transmitted from the video camera 4. .

図4は,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明するフロー図である。それぞれの処理の詳細は後述するが,広告効果測定装置2に映像の一つのフレームが入力されると,広告効果測定装置2は該フレームについて背景除去処理S1を行い,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行う。   FIG. 4 is a flowchart for explaining processing in which the advertisement effect measuring device 2 analyzes the frame of the video transmitted from the video camera 4. Although details of each process will be described later, when one frame of video is input to the advertisement effect measuring apparatus 2, the advertisement effect measuring apparatus 2 performs background removal processing S1 on the frame, and after the background removal processing S1 is performed. Face detection processing S2 and human body detection processing S3 are performed on the frame.

広告効果測定装置2は,背景除去処理S1した後のフレームについて,顔検出処理S2及び人体検出処理S3を行った後,顔検出処理S2の結果を利用して,今回の処理対象となるフレームであるNフレームから検出された顔と,一つ前のフレームであるN−1フレームから検出された顔を対応付けるトラッキング処理S4を行い,トラッキング処理S4の結果を踏まえて顔オブジェクトの状態を遷移させる状態遷移管理処理S5を実行する。   The advertisement effect measuring apparatus 2 performs the face detection process S2 and the human body detection process S3 on the frame after the background removal process S1, and then uses the result of the face detection process S2 to determine the frame to be processed this time. A tracking process S4 that associates a face detected from a certain N frame with a face detected from the N-1 frame that is the previous frame, and changes the state of the face object based on the result of the tracking process S4 The transition management process S5 is executed.

まず,背景除去処理S1について説明する。背景除去処理S1を担う手段は,広告効果測定装置2の背景除去手段20である。広告効果測定装置2が背景除去処理S1を実行するのは,図1に図示しているように,デジタルサイネージ3のディスプレイ3aの上部に設けられたビデオカメラ4の位置・アングルは固定であるため,ビデオカメラ4が撮影した映像には変化しない背景画像が含まれることになり,この背景画像を除去することで,精度よく人体・顔を検出できるようにするためである。   First, the background removal process S1 will be described. The means responsible for the background removal processing S1 is the background removal means 20 of the advertisement effect measuring apparatus 2. The advertisement effect measuring device 2 executes the background removal processing S1 because the position and angle of the video camera 4 provided on the upper part of the display 3a of the digital signage 3 are fixed as shown in FIG. This is because the video captured by the video camera 4 includes a background image that does not change, and by removing this background image, the human body / face can be detected with high accuracy.

広告効果測定装置2の背景除去手段20が実行する背景除去処理としては既存技術を利用でき,ビデオカメラ4が撮影する映像は,例えば,朝,昼,夜で光が変化する場合があるので,背景の時間的な変化を考慮した動的背景更新法を用いることが好適である。   As the background removal processing executed by the background removal means 20 of the advertisement effect measuring device 2, the existing technology can be used, and the video taken by the video camera 4 may change in the morning, noon, and night, for example. It is preferable to use a dynamic background update method that takes into account temporal changes in the background.

背景の時間的な変化を考慮した動的背景更新法としては,例えば,「森田 真司, 山澤 一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)」に記載されている手法を用いることができる。   Examples of dynamic background update methods that take into account temporal changes in the background include "Shinji Morita, Kazumasa Yamazawa, Norihiko Terasawa, Naokazu Yokoya:" Network-enabled remote monitoring system using omnidirectional image sensors ", electronic The method described in the Journal of Information and Communication Engineers (D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5) can be used.

次に,広告効果測定装置2の顔検出手段21によって実行される顔検出処理S2について説明する。顔検出処理S2で実施する顔検出方法としては,特許文献1に記載されているような顔検出方法も含め,様々な顔検出方法が開示されているが,本実施形態では,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用している。なお,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については,「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」,「Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。   Next, the face detection process S2 executed by the face detection means 21 of the advertisement effect measuring apparatus 2 will be described. Various face detection methods including the face detection method described in Patent Document 1 are disclosed as face detection methods performed in the face detection process S2, but in this embodiment, weak face discriminators are used. The face detection method by Adaboost algorithm using black and white Haar-Like feature is adopted. For the face detection method by Adaboost algorithm using black and white Haar-Like features as weak classifiers, see “Paul Viola and Michael J. Jones,“ Rapid Object Detection using a Boosted Cascade of Simple Features ”, IEEE CVPR, 2001. ", Rainer Lienhart and Jochen Maydt," An Extended Set of Haar-like Features for Rapid Object Detection ", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.

弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を実行することで,フレームに含まれる顔画像毎に顔検出枠データが得られ,この顔検出枠データには,顔画像を検出したときに利用した顔検出枠の位置(例えば,左上隅の座標)・矩形サイズ(幅及び高さ)が含まれる。   Face detection frame data is obtained for each face image included in the frame by executing the face detection method by Adaboost algorithm using black and white Haar-Like features as weak classifiers. The position of the face detection frame used when detecting the image (for example, the coordinates of the upper left corner) and the rectangular size (width and height) are included.

次に,広告効果測定装置2の人体検出手段22によって実行される人体検出処理S3について説明する。人体を検出する手法としては赤外線センサを用い,人物の体温を利用して人体を検出する手法が良く知られているが,本実施形態では,人体検出処理S3で実施する人体検出方法に,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法を採用している。なお,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については,「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。   Next, the human body detection process S3 executed by the human body detection unit 22 of the advertisement effect measuring apparatus 2 will be described. As a technique for detecting a human body, an infrared sensor is used and a technique for detecting a human body using the body temperature of a person is well known. However, in this embodiment, the human body detection method implemented in the human body detection process S3 is weak. A human body detection method based on the Adaboost algorithm using HOG (Histogram of Oriented Gradients) features is adopted as a discriminator. For the human body detection method using the Adaboost algorithm using the HOG (Histogram of Oriented Gradients) feature as a weak classifier, see “N. Dalal and B. Triggs,” Histograms of Oriented Gradientstional Conference on Computer Vision, pp. 734-741. , 2003. "

弱い識別器としてHOG特徴を用いたAdaboostアルゴリズムによる人体検出法を実行することで,フレームに含まれる人体毎に人体検出枠データが得られ,この人体検出枠データには,人体画像を検出したときに利用した人体検出枠の位置(例えば,人体検出枠の左上隅の座標)・矩形サイズ(幅及び高さ)が得られる。   Human body detection frame data is obtained for each human body included in the frame by executing the human body detection method based on the Adaboost algorithm using the HOG feature as a weak discriminator. The position (for example, the coordinates of the upper left corner of the human body detection frame) and the rectangular size (width and height) of the human body detection frame used in the above are obtained.

図8は,人体及び顔検出結果を説明するための図である。図8のフレーム7で撮影されている人物は,人物7a〜7fの合計6人が含まれ,広告効果測定装置2の人体検出手段22はそれぞれの人物7a〜7fを検出し,それぞれの人物7a〜7fに対応する人体検出枠データ70a〜70fを出力する。また,広告効果測定装置2の顔検出手段21は,両眼が撮影されている人物7a〜7cの顔を検出し,それぞれの顔に対応する顔検出枠データ71a〜71cを出力する。   FIG. 8 is a diagram for explaining the human body and face detection results. The person photographed in the frame 7 of FIG. 8 includes a total of six persons 7a to 7f, and the human body detection means 22 of the advertisement effect measuring apparatus 2 detects each person 7a to 7f, and each person 7a Human body detection frame data 70a to 70f corresponding to ˜7f are output. The face detection means 21 of the advertisement effect measuring apparatus 2 detects the faces of the persons 7a to 7c whose both eyes are photographed, and outputs face detection frame data 71a to 71c corresponding to each face.

次に,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4について説明する。トラッキング処理S4では,広告効果測定装置2のトラッキング手段23によって,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける処理が実行される。   Next, the tracking process S4 executed by the tracking unit 23 of the advertisement effect measuring apparatus 2 will be described. In the tracking process S4, the face detection frame data detected by the face detection unit 21 from the N-1 frame and the face detection frame data detected by the face detection unit 21 from the N frame are associated with each other by the tracking unit 23 of the advertisement effect measuring apparatus 2. Processing is executed.

ここから,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理について詳細に説明する。図5は,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S4を説明するためのフロー図である。   From here, the tracking process performed by the tracking means 23 of the advertisement effect measuring apparatus 2 will be described in detail. FIG. 5 is a flowchart for explaining the tracking process S4 executed by the tracking unit 23 of the advertisement effect measuring apparatus 2.

広告効果測定装置2のトラッキング手段23は,Nフレームをトラッキング処理S4するために,まず,Nフレームから得られた顔検出枠データ及び人体検出枠データをそれぞれ顔検出手段21及び人体検出手段22から取得する(S10)。   The tracking means 23 of the advertisement effect measuring apparatus 2 performs the tracking process S4 on the N frame, first, the face detection frame data and the human body detection frame data obtained from the N frame are respectively received from the face detection means 21 and the human body detection means 22. Obtain (S10).

なお,次回のトラッキング処理S4において,Nフレームから得られた顔検出枠データは,N−1フレームの顔検出枠データとして利用されるため,広告効果測定装置2のトラッキング手段23は,Nフレームから得られた顔検出枠データをRAM2cまたはデータ記憶装置2dに記憶する。   In the next tracking process S4, since the face detection frame data obtained from the N frame is used as the face detection frame data of the N-1 frame, the tracking means 23 of the advertisement effect measuring apparatus 2 starts from the N frame. The obtained face detection frame data is stored in the RAM 2c or the data storage device 2d.

広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データ及び人体検出枠データを取得すると,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行う(S11)。   When the tracking means 23 of the advertisement effect measuring apparatus 2 acquires the face detection frame data and the human body detection frame data of N frames, it performs a digital signage browsing determination for each human body detection frame data of N frames (S11).

上述しているように,人体検出枠データには人体検出枠の位置及び矩形サイズが含まれ,顔検出枠データには顔検出枠の位置及び矩形サイズが含まれるため,顔検出枠が含まれる人体検出枠データは,デジタルサイネージ3を閲覧している人物の人体検出枠データと判定でき,また,顔検出枠が含まれない人体検出枠データは,デジタルサイネージ3を閲覧していない人物の人体検出枠データと判定できる。   As described above, the human body detection frame data includes the position and rectangular size of the human body detection frame, and the face detection frame data includes the face detection frame because the position and rectangular size of the face detection frame are included. The human body detection frame data can be determined as the human body detection frame data of the person who is browsing the digital signage 3, and the human body detection frame data not including the face detection frame is the human body of the person who is not browsing the digital signage 3. It can be determined as detection frame data.

広告効果測定装置2のトラッキング手段23は,このようにして,Nフレームの人体検出枠データ毎にデジタルサイネージの閲覧判定を行うと,Nフレームが撮影されたときの人数ログファイルとして,デジタルサイネージ3の前にいる人物の総人数,すなわち,人体検出手段22によって検出された人体検出枠データの数と,デジタルサイネージ3を閲覧していない人物の人数,すなわち,顔検出枠が含まれていない人体検出枠データの数と,デジタルサイネージ3を閲覧している人物の人数,すなわち,顔検出枠が含まれる人体検出枠データの数を記載した人数ログファイルを生成し,Nフレームのフレーム番号などを付与してデータ記憶装置2dに記憶する。   When the tracking means 23 of the advertisement effect measuring apparatus 2 performs the digital signage browsing determination for each human body detection frame data of N frames in this way, the digital signage 3 is used as a person log file when the N frames are photographed. The total number of persons in front of the person, that is, the number of human body detection frame data detected by the human body detection means 22, and the number of persons who are not browsing the digital signage 3, that is, the human body not including the face detection frame Generate a number log file that describes the number of detection frame data and the number of people browsing the digital signage 3, that is, the number of human body detection frame data including the face detection frame, To be stored in the data storage device 2d.

広告効果測定装置2のトラッキング手段23は,Nフレームの人体検出枠データ毎に,デジタルサイネージの閲覧判定を行うと,顔検出手段21がN−1フレームから検出した顔検出枠データと,顔検出手段21がNフレームから検出した顔検出枠データを対応付ける顔検出枠データ対応付け処理S12を実行する。   When the tracking means 23 of the advertisement effect measuring apparatus 2 performs browsing judgment of digital signage for each human body detection frame data of N frames, the face detection frame data detected by the face detection means 21 from the N-1 frame and face detection. The face detection frame data association process S12 for associating the face detection frame data detected from the N frames by the means 21 is executed.

図6は,顔検出枠データ対応付け処理S12を説明するためのフロー図で,本実施形態では,図6で図示したフローにおいて,以下に記述する数式1の評価関数を用いて得られる評価値を利用して,顔検出枠データの対応付けがなされる。   FIG. 6 is a flowchart for explaining the face detection frame data association processing S12. In this embodiment, the evaluation value obtained by using the evaluation function of Equation 1 described below in the flow shown in FIG. Is used to associate the face detection frame data.

なお,数式1の評価関数f1()は,ニアレストネイバー法を用いた評価関数で,評価関数f1()で得られる評価値は,顔検出枠データの位置・矩形サイズの差を示した評価値になる。また,数式1の評価関数f2()で得られる評価値は,評価関数f1()から求められる評価値に,顔検出枠データで特定される顔検出枠に含まれる顔画像から得られ,顔画像の特徴を示すSURF特徴量の差が重み付けして加算された評価値になる。

Figure 2011070629
Note that the evaluation function f1 () of Equation 1 is an evaluation function using the nearest neighbor method, and the evaluation value obtained by the evaluation function f1 () is an evaluation indicating the difference between the position / rectangular size of the face detection frame data. Value. Further, the evaluation value obtained by the evaluation function f2 () of Expression 1 is obtained from the face image included in the face detection frame specified by the face detection frame data to the evaluation value obtained from the evaluation function f1 (). The difference between the SURF feature amounts indicating the features of the image becomes an evaluation value added by weighting.
Figure 2011070629

N−1フレームから検出した顔検出枠データとNフレームから検出した顔検出枠データを対応付けるために,広告効果測定装置2のトラッキング手段23は,まず,Nフレームから得られた顔検出枠データの数だけループ処理L1を実行する。   In order to associate the face detection frame data detected from the N-1 frame with the face detection frame data detected from the N frame, the tracking means 23 of the advertisement effect measuring apparatus 2 first calculates the face detection frame data obtained from the N frame. The loop processing L1 is executed by the number.

このループ処理L1において,広告効果測定装置2のトラッキング手段23は,まず,N−1フレームから検出された顔検出枠データの数だけループ処理L2を実行し,このループ処理L2では,ループ処理L1の処理対象となる顔検出枠データの位置・矩形サイズと,ループ処理L2の処理対象となる顔検出枠データの位置・矩形サイズが,数式1の評価関数f1()に代入して評価値を算出し(S120),ループ処理L1の対象となる顔検出枠データとの位置・サイズの差を示す評価値が,N−1フレームから検出された顔検出枠データ毎に算出される。   In this loop processing L1, the tracking means 23 of the advertisement effect measuring apparatus 2 first executes the loop processing L2 by the number of face detection frame data detected from the N−1 frame. In this loop processing L2, the loop processing L1 The position / rectangular size of the face detection frame data to be processed and the position / rectangular size of the face detection frame data to be processed by the loop processing L2 are substituted into the evaluation function f1 () of Equation 1 to obtain the evaluation value. An evaluation value is calculated (S120), and an evaluation value indicating a difference in position and size from the face detection frame data to be subjected to the loop processing L1 is calculated for each face detection frame data detected from the N-1 frame.

広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値を,N−1フレームから検出された顔検出枠データ毎に算出すると,該評価値の最小値を検索し(S121),該評価値の最小値と他の評価値との差分を算出した後(S122),閾値以下の該差分値があるか判定する(S123)。   The tracking means 23 of the advertisement effect measuring apparatus 2 calculates an evaluation value indicating a position / size difference from the face detection frame data to be processed by the loop processing L1 for each face detection frame data detected from the N-1 frame. When calculated, the minimum value of the evaluation value is searched (S121), and after calculating the difference between the minimum value of the evaluation value and another evaluation value (S122), it is determined whether there is the difference value equal to or less than the threshold value (S122). S123).

そして,広告効果測定装置2のトラッキング手段23は,ループ処理L1の処理対象となる顔検出枠データとの位置・サイズの差を示す評価値の最小値と他の評価値との差分の中に,閾値以下の差分がある場合,広告効果測定装置2のトラッキング手段23は,評価値が閾値以内である顔検出枠データを対象としてループ処理L3を実行する。   Then, the tracking means 23 of the advertisement effect measuring apparatus 2 includes the difference between the minimum value of the evaluation value indicating the position / size difference from the face detection frame data to be processed by the loop processing L1 and the other evaluation values. When there is a difference equal to or smaller than the threshold, the tracking unit 23 of the advertisement effect measuring apparatus 2 executes the loop process L3 for the face detection frame data whose evaluation value is within the threshold.

このループ処理L3では,ループ処理L1の処理対象となる顔検出枠データで特定される顔検出枠内の顔画像と,ループ処理L3の処理対象となるN−1フレームの顔検出枠データで特定される顔検出枠内の顔画像とのSURF特徴量の差が求められ,SURF特徴量の差が数式1の評価関数f2()に代入され,SURF特徴量の差を加算した評価値が算出される(S124)。   In this loop process L3, the face image in the face detection frame specified by the face detection frame data to be processed by the loop process L1 and the N-1 frame face detection frame data to be processed by the loop process L3 are specified. The difference of the SURF feature quantity from the face image in the face detection frame to be obtained is obtained, the difference of the SURF feature quantity is substituted into the evaluation function f2 () of Formula 1, and the evaluation value obtained by adding the difference of the SURF feature quantity is calculated (S124).

数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出するのは,ニアレストネイバー法のみを利用した評価関数f1()を用いて求められた評価値の最小値と他の評価値との差分値に閾値以下がある場合,サイズの似た顔検出枠が近接していると考えられ(例えば,図8の人物7a,b),ニアレストネイバー法の評価値からでは,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データが判定できないからである。   The evaluation value obtained by using the evaluation function f1 () using only the nearest neighbor method is used to calculate the evaluation value obtained by adding the difference of the SURF feature amount using the evaluation function f2 () expressed by the mathematical formula 1. If the difference value between the minimum value and other evaluation values is equal to or smaller than the threshold value, it is considered that face detection frames having similar sizes are close to each other (for example, person 7a, b in FIG. 8), and the nearest neighbor method This is because the N-1 frame face detection frame data associated with the N frame face detection frame data cannot be determined from the above evaluation values.

数式1で示した評価関数f2()を用い,SURF特徴量の差を加算した評価値を算出することで,顔の特徴が加味された評価値が算出されるので,該評価値を用いることで,サイズの似た顔検出枠が近接している場合は,顔が似ているN−1フレームの顔検出枠データがNフレームの顔検出枠データに対応付けられることになる。   By using the evaluation function f2 () shown in Equation 1 and calculating an evaluation value obtained by adding the difference between the SURF feature values, an evaluation value in consideration of facial features is calculated. When face detection frames having similar sizes are close to each other, the N-1 frame face detection frame data having a similar face is associated with the N frame face detection frame data.

そして,広告効果測定装置2のトラッキング手段23は,数式1の評価関数から得られた評価値が最小値であるN−1フレームの顔検出枠データを,ループ処理L1の対象となるNフレームの顔検出枠データに対応付ける処理を実行する(S125)。
なお,数式1で示した評価関数f2()を用いた評価値を算出していない場合,この処理で利用される評価値は,数式1で示した評価関数f1()から求められた値になり,数式1で示した評価関数f2()を用いた評価値を算出している場合,この処理で利用される評価値は,数式1で示した評価関数f2()から求められた値になる。
Then, the tracking means 23 of the advertisement effect measuring apparatus 2 uses the N-1 frame face detection frame data whose evaluation value obtained from the evaluation function of Equation 1 is the minimum value as the N frame of the loop processing L1. A process of associating with the face detection frame data is executed (S125).
If the evaluation value using the evaluation function f2 () shown in Equation 1 is not calculated, the evaluation value used in this process is the value obtained from the evaluation function f1 () shown in Equation 1. Thus, when the evaluation value using the evaluation function f2 () shown in Equation 1 is calculated, the evaluation value used in this process is the value obtained from the evaluation function f2 () shown in Equation 1. Become.

ループ処理L1が終了し,広告効果測定装置2のトラッキング手段23は,Nフレームの顔検出枠データとN−1フレームの顔検出枠データを対応付けすると,N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられていないか確認する(S126)。   When the loop processing L1 is completed and the tracking means 23 of the advertising effect measuring apparatus 2 associates the face detection frame data of the N frame with the face detection frame data of the N-1 frame, the face detection frame data of the N-1 frame is obtained. It is confirmed whether or not it is duplicated and associated with N frames of face detection frame data (S126).

N−1フレームの顔検出枠データが重複して,Nフレームの顔検出枠データに対応付けられている場合,広告効果測定装置2のトラッキング手段23は,重複して対応付けられているN−1フレームの顔検出枠データの評価値を参照し,評価値が小さい方を該Nフレームの顔検出枠データに対応付ける処理を再帰的に実行することで,最終的に,Nフレームの顔検出枠データに対応付けるN−1フレームの顔検出枠データを決定する(S127)。   When the face detection frame data of the N-1 frame overlaps and is associated with the face detection frame data of the N frame, the tracking unit 23 of the advertisement effect measuring device 2 performs the N- By referring to the evaluation value of the face detection frame data of one frame and recursively executing the process of associating the smaller evaluation value with the face detection frame data of the N frame, the face detection frame of the N frame is finally obtained. N-1 frame face detection frame data to be associated with the data is determined (S127).

ここから,図5で図示したフローの説明に戻る。トラッキング処理S4が終了すると,広告効果測定装置2の状態遷移管理手段25によって,トラッキング処理S4から得られ,
一つ前と今回の顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い顔オブジェクトの状態を遷移させ,顔オブジェクトの状態遷移に応じたログを記憶する状態遷移管理処理S5が実行され,この状態遷移管理処理S5で所定の状態遷移があると,該状態遷移に対応した所定のログファイルがデータ記憶装置2dに記憶される。
From here, it returns to description of the flow illustrated in FIG. When the tracking process S4 is completed, it is obtained from the tracking process S4 by the state transition management means 25 of the advertisement effect measuring device 2,
State transition management processing that refers to the result of matching the previous and current face detection frame data, transitions the state of the face object according to a predetermined state transition table, and stores a log according to the state transition of the face object When S5 is executed and there is a predetermined state transition in the state transition management process S5, a predetermined log file corresponding to the state transition is stored in the data storage device 2d.

広告効果測定装置2の状態遷移管理手段25には,顔オブジェクトの状態遷移を管理するために,予め,顔オブジェクトの状態と該状態を状態遷移させるルールが定義された状態遷移表が定められており,広告効果測定装置2のトラッキング手段23は,この状態遷移表を参照し,顔検出枠対応付け処理の結果に基づき顔オブジェクトの状態を遷移させる。   In order to manage the state transition of the face object, the state transition management unit 25 of the advertisement effect measuring device 2 has a state transition table in which the state of the face object and rules for making the state transition are defined in advance. The tracking means 23 of the advertisement effect measuring apparatus 2 refers to this state transition table and changes the state of the face object based on the result of the face detection frame association processing.

ここから,状態遷移表の一例を例示し,該状態遷移表の説明をしながら,広告効果測定装置2の状態遷移管理手段25によって実行される状態遷移管理処理S5について説明する。   From here, an example of the state transition table will be exemplified, and the state transition management process S5 executed by the state transition management unit 25 of the advertisement effect measuring device 2 will be described while explaining the state transition table.

図7は,本実施形態における状態遷移表6を説明する図である。図7で図示した状態遷移表6によって,顔オブジェクトの状態と,N−1フレームの状態からNフレームの状態への遷移が定義され,状態遷移表6の縦軸はN−1フレームの状態で,横軸はNフレームの状態で,縦軸と横軸が交差する箇所に状態遷移する条件が記述されている。なお,状態遷移表に「―」は不正な状態遷移を示している。   FIG. 7 is a diagram for explaining the state transition table 6 in the present embodiment. The state transition table 6 shown in FIG. 7 defines the face object state and the transition from the N-1 frame state to the N frame state. The vertical axis of the state transition table 6 indicates the N-1 frame state. , The horizontal axis is in the state of N frames, and conditions for state transition are described where the vertical axis and the horizontal axis intersect. In the state transition table, “-” indicates an illegal state transition.

図7で図示した状態遷移表6には,顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceが定義され,状態遷移表で定義された状態遷移を説明しながら,それぞれの状態について説明する。   In the state transition table 6 illustrated in FIG. 7, None, candidate face, current face, standby face, noise face, and end face are defined as face object states, and the state transitions defined in the state transition table are described. However, each state will be described.

顔オブジェクトの状態の一つであるNoneとは,顔オブジェクトが存在しない状態を意味し,N−1フレームの顔検出枠データが対応付けられなかったNフレームの顔検出枠データがある場合(図7の条件1),広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトを識別するためのID,該Nフレームの顔検出データ,顔オブジェクトに付与された状態に係わるデータなどを属性値と有する顔オブジェクトを新規に生成し,該顔オブジェクトの状態を候補Faceに設定する。   None, which is one of the face object states, means a state in which no face object exists, and there is N frame face detection frame data that is not associated with N-1 frame face detection frame data (see FIG. 7), the state transition management means 25 of the advertising effect measurement device 2 uses the ID value for identifying the face object, the face detection data of the N frame, the data related to the state assigned to the face object, etc. Is newly generated, and the state of the face object is set as a candidate Face.

顔オブジェクトの状態の一つである候補Faceとは,新規に検出した顔画像がノイズである可能性がある状態を意味し,顔オブジェクトの状態の一つに候補Faceを設けているのは,複雑な背景の場合,背景除去処理を行っても顔画像の誤検出が発生し易く,新規に検出できた顔画像がノイズの可能性があるからである。   The candidate face that is one of the face object states means a state in which the newly detected face image may be a noise, and the candidate face is provided as one of the face object states. This is because in the case of a complex background, erroneous detection of a face image is likely to occur even if background removal processing is performed, and the newly detected face image may have noise.

候補Faceの状態である顔オブジェクトには,候補Faceの状態に係わるデータとして,候補Faceの状態であることを示す状態IDと,候補Faceへ状態遷移したときの日時及びカウンタが付与される。   The face object in the candidate face state is given, as data related to the candidate face state, a state ID indicating the candidate face state, a date and time when the state transition is made to the candidate face, and a counter.

候補Faceから状態遷移可能な状態は,候補Face,現在Face及びノイズFaceで,事前に定められた設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔画像が所定の数だけ連続してトラッキングできた場合(図7の条件2−2),該顔オブジェクトの状態は候補Faceから現在Faceに遷移する。   The states that can be changed from the candidate face are the candidate face, the current face, and the noise face, and a predetermined number of face images corresponding to the face objects in the candidate face state are consecutive within a predetermined set time. If the tracking is successful (condition 2-2 in FIG. 7), the state of the face object changes from the candidate face to the current face.

候補Faceの状態である顔オブジェクトの属性にカウンタを設けているのは,設定時間内において,候補Faceの状態である顔オブジェクトに対応する顔検出枠を連続してトラッキングできた回数をカウントするためで,広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データが含まれている顔オブジェクトの状態が候補Faceの場合,該顔オブジェクトに付与されている顔検出枠データをNフレームの顔検出枠データに更新すると共に,該顔オブジェクトのカウンタをインクリメントする。   A counter is provided for the attribute of the face object in the candidate face state in order to count the number of times that the face detection frame corresponding to the face object in the candidate face state can be continuously tracked within the set time. Then, the state transition management unit 25 of the advertisement effect measuring device 2 determines that the state of the face object including the N-1 frame face detection data associated with the N frame face detection frame data is the candidate face. The face detection frame data attached to the face object is updated to N frame face detection frame data, and the counter of the face object is incremented.

そして,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を実行する際,候補Faceである顔オブジェクト毎に,候補Faceへ状態遷移したときの日時を参照し,設定時間以内に該カウンタの値が事前に定めた設定値に達している場合は,顔オブジェクトの状態を現在Faceに状態遷移させる。また,広告効果測定装置2の状態遷移管理手段25は,この時点で設定時間が経過しているが,該カウンタが設定値に達しなかった該顔オブジェクトの状態をノイズFaceに状態遷移させ(図7の条件2−3),該設定時間が経過していない該顔オブジェクトについては状態を状態遷移させない(図7の条件2−1)。   Then, when executing the state transition management process S5, the state transition management unit 25 of the advertisement effect measuring device 2 refers to the date and time when the state transition to the candidate face is performed for each face object that is the candidate face, and within the set time If the value of the counter has reached a preset value, the state of the face object is changed to the current face. Further, the state transition management unit 25 of the advertisement effect measuring apparatus 2 causes the state of the face object that has not reached the set value at this time to transition to the noise Face (see FIG. 7), the state of the face object for which the set time has not elapsed is not changed (condition 2-1 in FIG. 7).

顔オブジェクトの状態の一つであるノイズFaceとは,広告効果測定装置2の顔検出手段21が検出した顔画像がノイズと判定された状態で,ノイズFaceに状態遷移した顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5に利用されない。   The noise face that is one of the states of the face object is a state in which the face image detected by the face detection means 21 of the advertisement effect measuring apparatus 2 is determined to be noise, and the face object that has transitioned to the noise face has disappeared. It is regarded and is not used for the subsequent state transition management processing S5.

顔オブジェクトの状態の一つである現在Faceとは,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧状態と判定できる状態で,現在Faceの状態にある時間が,顔オブジェクトに対応する人物がデジタルサイネージ3を閲覧している時間となる。   The current face, which is one of the face object states, is a state in which a person corresponding to the face object can determine that the digital signage 3 is in the browsing state. It is time to browse the signage 3.

広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を候補Faceから現在Faceに状態遷移すると,該顔オブジェクトの顔検出枠データをNフレームの顔検出枠データに更新すると共に,現在Faceに係わるデータとして,現在Faceの状態であることを示す状態IDと現在Faceに状態遷移させたときの日時を顔オブジェクトに付与する。   When the state transition management unit 25 of the advertisement effect measuring apparatus 2 changes the state of the face object from the candidate face to the current face, the face transition frame data of the face object is updated to N frame face detection frame data, As data related to the face, a state ID indicating the current face state and a date and time when the state is changed to the current face are given to the face object.

また,デジタルサイネージを閲覧している人物の人物属性(例えば,年齢・性別)をログとして記憶するために,顔オブジェクトの状態を現在Faceに状態遷移すると,広告効果測定装置2の状態遷移管理手段25は人物属性推定手段26を作動させ,現在Faceに状態遷移させた顔オブジェクトの顔検出枠データで特定される顔検出枠内の画像を解析することで得られる人物属性を取得し,該顔オブジェクトのオブジェクトID,人物属性が記述された属性ログファイルをデータ記憶装置2dに記憶する。   In addition, when the state of the face object is changed to “Face” in order to store the person attribute (for example, age / gender) of the person who is viewing the digital signage as a log, the state transition management unit of the advertisement effect measuring apparatus 2 25 activates the person attribute estimating means 26 to acquire the person attribute obtained by analyzing the image in the face detection frame specified by the face detection frame data of the face object whose state has been changed to “Face”. An attribute log file in which the object ID and person attribute of the object are described is stored in the data storage device 2d.

なお,広告効果測定装置2に備えられた人物属性推定手段26については詳細な記載はしないが,人物の顔画像から人物の人物属性(年齢・性別)を自動で識別することは,タバコの自動販売機などでも広く利用されており,例えば,特開2007―080057号公報の技術を利用できる。   Although the detailed description of the person attribute estimating means 26 provided in the advertisement effect measuring device 2 is not made, it is not possible to automatically identify the person attribute (age / gender) of the person from the face image of the person. For example, the technology disclosed in Japanese Patent Application Laid-Open No. 2007-080057 can be used.

更に,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を現在Faceに状態遷移すると,デジタルサイネージ3を閲覧している人物の位置を時系列で記憶するための位置ログファイルをデータ記憶装置2dに新規に生成する。生成時の位置ログファイルには,現在Faceに状態遷移した顔オブジェクトのオブジェクトIDと,現在Faceに状態遷移した顔オブジェクトに含まれる顔検出枠データが付与される   Furthermore, when the state transition management unit 25 of the advertisement effect measuring apparatus 2 changes the state of the face object to “Face”, a position log file for storing the position of the person browsing the digital signage 3 in time series is generated. It is newly generated in the data storage device 2d. The position log file at the time of generation is given the object ID of the face object that has made a transition to the current Face and the face detection frame data included in the face object that has made a transition to the current Face.

現在Faceの状態から状態遷移可能な状態は,現在Face及び待機Faceである。広告効果測定装置2の状態遷移管理手段25は,Nフレームの顔検出枠データに対応付けられたN−1フレームの顔検出データを含む顔オブジェクトの状態が現在Faceの場合(条件3−1),該顔オブジェクトに付与されている顔検出枠データをNフレームにおける顔検出枠データに更新すると共に,該顔検出枠データを,該顔オブジェクトのオブジェクトIDで特定される位置ログファイルに追加する。   The states that can be changed from the current face state are the current face and the standby face. The state transition management unit 25 of the advertisement effect measuring apparatus 2 is configured to execute the case where the state of the face object including the face detection data of the N-1 frame associated with the face detection frame data of the N frame is currently Face (condition 3-1) The face detection frame data attached to the face object is updated to face detection frame data in N frames, and the face detection frame data is added to the position log file specified by the object ID of the face object.

また,広告効果測定装置2の状態遷移管理手段25は,状態遷移管理処理S5を行う際,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データが付与されている顔オブジェクトの状態が現在Faceの場合,動画解析手段24を作動させて,動画解析手法により, 動画解析手法により、該N−1フレームの顔検出枠データに対応する顔画像をNフレームから検出する処理を実施する。   Further, when the state transition management unit 25 of the advertisement effect measuring apparatus 2 performs the state transition management process S5, N-1 frame face detection frame data that is not associated with the N frame face detection frame data is added. When the state of the face object is currently “Face”, the moving image analyzing unit 24 is activated, and the moving image analyzing method detects the face image corresponding to the N−1 frame face detection frame data from the N frame. Perform the process.

本実施形態において,広告効果測定装置2の動画解析手段24は,まず,Nフレームの顔検出枠データが対応付けられなかったN−1フレームの顔検出枠データと既に対応付けられているNフレームの顔検出枠データの間で、オクルージョン状態の判定を行い,対象となる人物の顔が完全に隠れた状態のオクルージョンであるか確認する。   In the present embodiment, the moving image analysis unit 24 of the advertisement effect measuring apparatus 2 first has N frames that are already associated with N-1 frame face detection frame data that has not been associated with N frame face detection frame data. The occlusion state is determined between the face detection frame data of the two, and it is confirmed whether the target person's face is completely occluded.

広告効果測定装置2の動画解析手段24は,この時点で存在し,現在Face,候補Face及び待機Faceの状態である全ての顔オブジェクトについて,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行する。

Figure 2011070629
The moving image analysis means 24 of the advertisement effect measuring device 2 performs processing for determining the occlusion state of the face object according to Equation 2 for all face objects that exist at this time and are currently in the face, candidate face, and standby face states. Execute.
Figure 2011070629

広告効果測定装置2の動画解析手段24は,数式2に従い,顔オブジェクトのオクルージョン状態を判定する処理を実行すると,判定結果に基づき処理を分岐する。   When the moving image analysis unit 24 of the advertisement effect measuring apparatus 2 executes the process of determining the occlusion state of the face object according to Equation 2, the process branches based on the determination result.

トラッキング対象である人物が完全に隠れた状態のオクルージョンである可能性が高いと判断できた場合(数式2の判定基準1に該当する場合)、パーティクルフィルタによるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,パーティクルフィルタについては,「加藤丈和: 「パーティクルフィルタとその実装法」, 情報処理学会研究報告, CVIM-157, pp.161-168 (2007).」など数多くの文献で述べられている。   When it is determined that there is a high possibility that the person to be tracked is an occlusion in a completely hidden state (when the criterion 1 of Expression 2 is satisfied), tracking by the particle filter is performed, and the position of the target face object・ Detect the rectangle size. The particle filter is described in many literatures such as “Takekazu Kato:“ Particle Filter and its Implementation ”, IPSJ Research Report, CVIM-157, pp.161-168 (2007).” .

また、トラッキング対象である人物が半分隠れた状態のオクルージョンで可能性が高いと判断できた場合(数式2の判定基準2に該当する場合)、LK法(Lucus-Kanadeアルゴリズム)によるトラッキング行い、対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,LK法については,「Lucas, B.D. and Kanade, T.:" An Iterative Image Registration Technique with an Application to Stereo Vision”,Proc.DARPA Image Understanding Workshop,pp.121-130,1981.」で述べられている。   In addition, when it is determined that the possibility is high due to occlusion in which the person to be tracked is half-hidden (when it corresponds to the criterion 2 of Formula 2), tracking is performed by the LK method (Lucus-Kanade algorithm) The position / rectangular size of the face object is detected. The LK method is described in “Lucas, BD and Kanade, T .:“ An Iterative Image Registration Technique with an Application to Stereo Vision ”, Proc. DARPA Image Understanding Workshop, pp. 121-130, 1981.” ing.

そして,トラッキング対象である人物にオクルージョンはない可能性が高いと判定できた場合(数式3の判定基準3に該当する場合),広告効果測定装置2の動画解析手段24は,CamShift手法を用いたトラッキングを行い,対象となる顔オブジェクトの位置・矩形サイズを検出する。なお,CamShift手法については,「G. R. Bradski: "Computer vision face tracking foruse in a perceptual user interface," Intel Technology Journal, Q2, 1998.」で述べられている。   When it is determined that there is a high possibility that the person to be tracked does not have occlusion (when the criterion 3 of Expression 3 is satisfied), the video analysis means 24 of the advertisement effect measuring apparatus 2 uses the CamShift method. Tracking is performed to detect the position and rectangular size of the target face object. The CamShift method is described in “G. R. Bradski:“ Computer vision face tracking for use in a perceptual user interface, ”Intel Technology Journal, Q2, 1998.”.

広告効果測定装置2の状態遷移管理手段25は,これらのいずれかの手法で対象となる顔画像がNフレームから検出できた場合,現在Faceの状態である顔オブジェクトの顔検出データを,これらの手法で検出された位置・矩形サイズに更新し,これらのいずれかの手法でも対象となる顔画像がトラッキングできなかった場合,現在Faceの状態である顔オブジェクトの状態を待機Faceに状態遷移させる(図7の条件3−2)。   When the target face image can be detected from N frames by any of these methods, the state transition management unit 25 of the advertisement effect measuring apparatus 2 uses the face detection data of the face object currently in the face state as When the position / rectangular size detected by the method is updated and the target face image cannot be tracked by any of these methods, the state of the face object that is currently in the face state is changed to the standby face ( Condition 3-2 in FIG.

顔オブジェクトの状態の一つである待機Faceとは,広告効果測定装置2に備えられた動画解析手段24を用いても,顔オブジェクトに対応する顔画像を検出できなくなった状態である。   The standby face, which is one of the states of the face object, is a state in which a face image corresponding to the face object can no longer be detected even using the moving image analysis means 24 provided in the advertisement effect measuring apparatus 2.

また,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を待機Faceに状態遷移する際,顔オブジェクトの顔検出枠データは更新せず,待機Faceに係わるデータとして,待機Faceの状態であることを示す状態IDと,該顔オブジェクトが現在Faceに状態遷移したときの日時と,該顔オブジェクトが待機Faceに状態遷移したときの日時を顔オブジェクトに付与する。   Further, when the state transition management unit 25 of the advertisement effect measuring apparatus 2 changes the state of the face object to the standby face, the face detection frame data of the face object is not updated, and the data of the standby face is used as data related to the standby face. A state ID indicating a state, a date and time when the face object is changed to the current face, and a date and time when the face object is changed to the standby face are assigned to the face object.

待機Faceから状態遷移可能な状態は,現在Faceまたは終了Faceである。広告効果測定装置2の状態遷移管理手段25は,待機Faceに状態遷移してからの時間が所定時間経過する前に,Nフレームの顔検出枠データを含む顔オブジェクトを検索し,該顔オブジェクトの状態が待機Faceであった場合,該顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる(図7の条件4−1)。   The state in which state transition is possible from the standby face is the current face or the end face. The state transition management means 25 of the advertisement effect measuring device 2 searches for a face object including face detection frame data of N frames before the predetermined time has elapsed since the state transition to the standby face, and When the state is the standby face, the state of the face object is changed from the standby face to the current face (condition 4-1 in FIG. 7).

なお,顔オブジェクトの状態を待機Faceから現在Faceに状態遷移させる際,広告効果測定装置2の状態遷移管理手段25は,該顔オブジェクトが現在Faceに状態遷移したときの日時は,待機Faceの状態のときに顔オブジェクトに付与されていた該日時を利用する。   When the state of the face object is changed from the standby face to the current face, the state transition management unit 25 of the advertisement effect measuring apparatus 2 indicates the date and time when the face object has changed to the current face in the state of the standby face. The date and time assigned to the face object at the time of is used.

また,広告効果測定装置2のトラッキング手段23は,顔オブジェクトの状態遷移を管理する処理を実行する際,待機Faceに状態遷移してからの時間が所定時間経過した顔オブジェクトの状態を終了Faceに状態遷移させ(図7の条件4−3),該設定時間が経過していない該顔オブジェクトについては状態を遷移させない(図7の条件4−2)。   Further, when the tracking means 23 of the advertising effect measuring apparatus 2 executes the process for managing the state transition of the face object, the state of the face object after a predetermined time has elapsed from the transition to the standby face to the end face. The state is changed (condition 4-3 in FIG. 7), and the state of the face object for which the set time has not passed is not changed (condition 4-2 in FIG. 7).

顔オブジェクトの状態の一つである終了Faceとは,広告効果測定装置2が検出できなくなった人物に対応する状態で,状態が終了Faceになった顔オブジェクトは消滅したと見なされ,これ以降の状態遷移管理処理S5で利用されない。   The end face, which is one of the face object states, is a state corresponding to a person who can no longer be detected by the advertisement effect measuring apparatus 2, and the face object whose state is the end face is considered to have disappeared. It is not used in the state transition management process S5.

なお,広告効果測定装置2の状態遷移管理手段25は,顔オブジェクトの状態を終了Faceに状態遷移する前に,該顔オブジェクトのオブジェクトID,該顔オブジェクトが現在Faceに状態遷移したときの日時である閲覧開始時刻,該顔オブジェクトが待機Faceに状態遷移したときの日時である閲覧終了時刻を記述した閲覧時間ログファイルを生成しデータ記憶装置2dに記憶させる。   Note that the state transition management unit 25 of the advertisement effect measuring device 2 uses the object ID of the face object and the date and time when the face object is currently transitioned to Face before the state transition of the face object to end Face. A browsing time log file that describes a browsing start time and a browsing end time that is the date and time when the face object changes to the standby face is generated and stored in the data storage device 2d.

以上詳しく説明したように、広告効果測定装置2は,顔検出手段21が検出した顔毎に生成する顔オブジェクトの状態として,None,候補Face,現在Face,待機Face,ノイズFace及び終了Faceの5つを状態遷移表6で定義し,顔オブジェクトに対応する顔のトラッキング結果に従い,顔オブジェクトの状態を遷移させることで,顔オブジェクトの状態遷移に従い,デジタルサイネージ3の閲覧時間をログとして記憶することが可能になる。   As described above in detail, the advertisement effect measuring apparatus 2 has five states, None, Candidate Face, Current Face, Standby Face, Noise Face, and End Face, as the state of the face object generated for each face detected by the face detection means 21. The state transition table 6 is defined, and the state of the face object is transitioned according to the tracking result of the face corresponding to the face object, and the browsing time of the digital signage 3 is stored as a log according to the state transition of the face object. Is possible.

上述した内容に従えば,顔オブジェクトの状態が現在Faceである間は,顔オブジェクトに対応する顔を連続して検出できたことになるため,現在Faceの状態にあった時間は,デジタルサイネージ3の閲覧時間になる。   According to the above description, while the face object state is currently Face, the face corresponding to the face object can be continuously detected. Therefore, the time in the Face state is the digital signage 3 It will be browsing time.

また,顔オブジェクトの状態として候補Faceを定義しておくことで,ノイズによって顔を誤検出した場合でも,デジタルサイネージ3の閲覧時間への影響はなくなる。また,顔オブジェクトの状態として待機Faceを定義しておくことで,顔を見失った後に,同じ顔を検出した場合でも,同じ顔として取り扱うことができるようになる。   Also, by defining the candidate Face as the face object state, even if a face is erroneously detected due to noise, the viewing time of the digital signage 3 is not affected. Also, by defining the standby face as the state of the face object, even if the same face is detected after losing sight of the face, it can be handled as the same face.

1 広告効果測定システム
2 広告効果測定装置
20 背景除去手段
21 顔検出手段
22 人体検出手段
23 トラッキング手段
24 動画解析手段
25 状態遷移管理手段
26 人物属性推定手段
27 ログファイル出力手段
3 デジタルサイネージ
3a ディスプレイ
4 ビデオカメラ
5 ネットワーク
6 状態遷移表
DESCRIPTION OF SYMBOLS 1 Advertisement effect measuring system 2 Advertising effect measuring apparatus 20 Background removal means 21 Face detection means 22 Human body detection means 23 Tracking means 24 Moving image analysis means 25 State transition management means 26 Person attribute estimation means 27 Log file output means 3 Digital signage 3a Display 4 Video camera 5 Network 6 State transition table

Claims (20)

ディスプレイの前にいる人物を撮影するカメラと,前記カメラが撮影した映像に含まれるフレームを解析することで,前記ディスプレイの広告効果を測定する広告効果測定装置とから少なくとも構成される広告効果測定システムであって,
前記広告効果測定装置は,
前記カメラから送信された前記フレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定システム。
An advertisement effect measurement system comprising at least a camera for photographing a person in front of a display and an advertisement effect measurement device for measuring the advertisement effect of the display by analyzing a frame included in a video photographed by the camera Because
The advertising effectiveness measuring device includes:
A face detection means for detecting a face image photographed in the frame transmitted from the camera and outputting the position / rectangular size of the face detection frame as face detection frame data for each detected face image;
For each face detection frame data acquired from the face detection means, the face detection frame data acquired from the frame processed by the face detection means one time ago and the face detection means acquired from the frame processed this time A tracking means for calculating an evaluation value indicating a position / rectangular size difference from the face detection frame data, and associating the previous face detection frame data with the smallest evaluation value with each face detection frame data;
A face object is generated for each face image newly detected by the face detection means, and the state transition determined in advance is referred to by referring to the result of association between the previous and current face detection frame data obtained from the tracking means. State transition management that changes the state of the face object to the browsing state according to the table, and stores at least the time during which the state of the face object was in the browsing state as a log serving as an index of the advertising effect of the display Equipped with means,
An advertising effect measurement system characterized by that.
前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,請求項1に記載の広告効果測定システム。   The tracking means of the advertisement effect measuring device includes two or more evaluation values within a range in which a predetermined set value is added to the minimum value of the evaluation value for each face detection frame data of this time. If there is the face detection frame data including two or more evaluation values, the face image included in the face detection frame data region and the previous face detection frame data image region After calculating a value indicating the feature difference of the included face image and adding it to the evaluation value of the current face detection frame data, the previous face detection frame data is converted to the current face detection frame data. The advertisement effect measuring system according to claim 1, wherein processing associated with frame data is executed. 前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,請求項1又は請求項2に記載の広告効果測定システム。   When the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses the moving image analysis method to detect the previous face detection. The advertisement effect measurement system according to claim 1 or 2, further comprising a moving image analysis unit that detects the face image corresponding to frame data from the current frame. 前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,請求項3に記載の広告効果測定システム。   When there is no previous face detection frame data to be associated with the current face detection frame data, the state transition management unit of the advertisement effect measuring apparatus newly adds the face object including the current face detection frame data. When the state of the face object including the previous face detection frame data associated with the current face detection frame data is in the browsing state, the operation is performed and the state of the face object is changed to the browsing state. Update the position / size of the face object to the position / size of the face detection frame data without changing the state of the object, and the previous face detection frame not associated with the current face detection frame data When the state of the face object including data is a viewing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, and from the current frame When the image is detected, the face object is updated to the detected position / size without changing the state of the face object, and the face image is updated from the current frame. An operation for setting the state of the face object to a non-browsing state when it cannot be detected, and storing the time during which the face object is in the browsing state as a log of the browsing time of the face object. 3. The advertising effectiveness measurement system according to 3. 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,請求項1から請求項4のいずれか一つに記載の広告効果測定システム。   2. The state transition management unit of the advertisement effect measuring apparatus stores the position of the face detection frame data included in the face object as a log while the face object is in a browsing state. The advertising effectiveness measurement system according to any one of claims 1 to 4. 前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,請求項1から請求項5のいずれか一つに記載の広告効果測定システム。   The advertisement effect measuring device includes person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image, and the state transition managing means of the advertisement effect measuring device is newly 6. The face image corresponding to the generated face object is analyzed by the person attribute estimating means and stored as a log indicating the attribute of the face image. The advertising effectiveness measurement system described in 1. 前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,請求項1から請求項6のいずれか一つに記載の広告効果測定システム。   The advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device displays the number of human bodies detected as a log of the number of persons in front of the display. The advertisement effect measuring system according to any one of claims 1 to 6, wherein at least the information is stored. 前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする請求項1から請求項7のいずれか一つに記載の広告効果測定システム。   The advertisement effect measuring apparatus includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means analyze the frame from which the background image has been removed by the background removal means. The advertisement effect measurement system according to any one of claims 1 to 7, wherein the advertisement effect measurement system according to any one of claims 1 to 7 is characterized. 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,請求項1から請求項8のいずれか一つに記載の広告効果測定システム。   When the state transition management unit of the advertisement effect measuring apparatus newly creates the face object, the state transition management unit sets the state of the face object to a candidate state before entering the viewing state, and associates the current face detection frame data with the current state. When the state of the face object including the previous face detection frame data is a candidate state, the position / size of the face object is updated to the position / size of the current face detection frame data, and Executes the process of incrementing the counter provided for the face object, stops the use of the face object in the candidate state where the counter value does not reach the predetermined number of times even if the predetermined set time elapses. The candidate face object whose counter value has reached a predetermined number of times before the set time has elapsed is transitioned to a browsing state. Advertisement effect measurement system according to any one of claims 8 to claim 1. 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,請求項1から請求項9のいずれか一つに記載の広告効果測定システム。   The state transition management means of the advertisement effect measuring device causes the face object to transition to a standby state before the face object is set to a non-viewing state, and a predetermined time has elapsed. If the face detection frame data matching the face detection frame data included in the face object in the standby state is not detected, the state of the face object is changed to the non-viewing state, and a predetermined time is When the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the passage, the state of the face object is changed to the browsing state. The advertisement effect measurement system according to any one of claims 1 to 9. ディスプレイの広告効果を測定する広告効果測定装置であって,
前記ディスプレイの前にいる人物を撮影するカメラが撮影した映像に含まれるフレームに撮影されている顔画像を検出し,検出した前記顔画像毎に,顔検出枠の位置・矩形サイズを顔検出枠データとして出力する顔検出手段と,
前記顔検出手段から取得した前記顔検出枠データ毎に,前記顔検出手段が一つ前に処理したフレームから取得した前記顔検出枠データと,前記顔検出手段が今回処理したフレームから取得した前記顔検出枠データとの位置・矩形サイズ差を示す評価値を算出し,前記評価値の最も小さい一つ前の前記顔検出枠データを今回の前記顔検出枠データ毎に対応付けるトラッキング手段と,
前記顔検出手段が新規に検出した顔画像毎に顔オブジェクトを生成し,前記トラッキング手段から得られる一つ前と今回の前記顔検出枠データの対応付け結果を参照し,事前に定めた状態遷移表に従い前記顔オブジェクトの状態を閲覧状態に遷移させ,前記ディスプレイの広告効果の指標となるログとして,前記顔オブジェクトの状態が閲覧状態であった時間を前記顔オブジェクト毎に少なくとも記憶する状態遷移管理手段を備えている,
ことを特徴とする広告効果測定装置。
An advertising effectiveness measuring device for measuring advertising effectiveness of a display,
A face image captured in a frame included in a video captured by a camera that captures a person in front of the display is detected, and the position / rectangular size of the face detection frame is determined for each detected face image. Face detection means for outputting as data,
For each face detection frame data acquired from the face detection means, the face detection frame data acquired from the frame processed by the face detection means one time ago and the face detection means acquired from the frame processed this time A tracking means for calculating an evaluation value indicating a position / rectangular size difference from the face detection frame data, and associating the previous face detection frame data with the smallest evaluation value with each face detection frame data;
A face object is generated for each face image newly detected by the face detection means, and the state transition determined in advance is referred to by referring to the result of association between the previous and current face detection frame data obtained from the tracking means. State transition management that changes the state of the face object to the browsing state according to the table, and stores at least the time during which the state of the face object was in the browsing state as a log serving as an index of the advertising effect of the display Equipped with means,
An advertising effect measuring device characterized by that.
前記広告効果測定装置の前記トラッキング手段は,今回の前記顔検出枠データ毎に,事前に定めた設定値を前記評価値の最小値に加えた範囲内に2つ以上の前記評価値が含まれるか確認し,2つ以上の前記評価値が含まれる前記顔検出枠データがある場合,該顔検出枠データの領域に含まれる前記顔画像と一つ前の前記顔検出枠データ画像の領域に含まれる前記顔画像の特徴差を示す値を算出し,該今回の前記顔検出枠データの前記評価値に加算する処理を実行した後,一つ前の顔検出枠データを該今回の顔検出枠データに対応付けする処理を実行することを特徴とする,請求項11に記載の広告効果測定装置。   The tracking means of the advertisement effect measuring device includes two or more evaluation values within a range in which a predetermined set value is added to the minimum value of the evaluation value for each face detection frame data of this time. If there is the face detection frame data including two or more evaluation values, the face image included in the face detection frame data region and the previous face detection frame data image region After calculating a value indicating the feature difference of the included face image and adding it to the evaluation value of the current face detection frame data, the previous face detection frame data is converted to the current face detection frame data. The advertisement effect measuring apparatus according to claim 11, wherein a process associated with frame data is executed. 前記広告効果測定装置は,一つ前の前記顔検出枠データに対応付ける前記顔検出枠データが今回の前記フレームから検出されなかった場合,動画解析手法を用いて,該一つ前の前記顔検出枠データに対応する前記顔画像を今回の前記フレームから検出する動画解析手段を備えていることを特徴とする,請求項11又は請求項12に記載の広告効果測定装置。   When the face detection frame data associated with the previous face detection frame data is not detected from the current frame, the advertisement effect measuring device uses the moving image analysis method to detect the previous face detection. The advertisement effect measuring device according to claim 11 or 12, further comprising a moving image analyzing means for detecting the face image corresponding to frame data from the current frame. 前記広告効果測定装置の前記状態遷移管理手段は,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データが無い場合,該今回の顔検出枠データを含む前記顔オブジェクトを新規に作成し,該顔オブジェクトの状態を閲覧状態にする動作を行い,今回の前記顔検出枠データに対応付ける一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記顔オブジェクトの状態を遷移せず,該顔オブジェクトの位置・サイズを該顔検出枠データの位置・サイズに更新し,今回の前記顔検出枠データが対応付けられなかった一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が閲覧状態の場合,前記動画解析手段を用いて,該顔オブジェクトに対応する前記顔画像を検出し,今回の前記フレームから該顔画像が検出できたときは,該顔オブジェクトの状態を遷移させずに,該顔オブジェクトの位置・サイズを検出された該顔画像の位置・サイズに更新し,該顔画像を今回の前記フレームから検出できないときは,該顔オブジェクトの状態を非閲覧状態にする動作を行い,前記顔オブジェクトが閲覧状態にある時間を,前記顔オブジェクトの閲覧時間のログとして記憶することを特徴とする,請求項13に記載の広告効果測定装置。   When there is no previous face detection frame data to be associated with the current face detection frame data, the state transition management unit of the advertisement effect measuring apparatus newly adds the face object including the current face detection frame data. When the state of the face object including the previous face detection frame data associated with the current face detection frame data is in the browsing state, the operation is performed and the state of the face object is changed to the browsing state. Update the position / size of the face object to the position / size of the face detection frame data without changing the state of the object, and the previous face detection frame not associated with the current face detection frame data When the state of the face object including data is a viewing state, the moving image analyzing unit is used to detect the face image corresponding to the face object, and from the current frame When the image is detected, the face object is updated to the detected position / size without changing the state of the face object, and the face image is updated from the current frame. An operation for setting the state of the face object to a non-browsing state is performed when the face object cannot be detected, and the time during which the face object is in the browsing state is stored as a log of the browsing time of the face object. 13. The advertising effectiveness measuring device according to 13. 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトが閲覧状態にある間,該顔オブジェクトに含まれる前記顔検出枠データの位置をログとして記憶することを特徴とする,請求項11から請求項14のいずれか一つに記載の広告効果測定装置。   12. The state transition management means of the advertisement effect measuring apparatus stores the position of the face detection frame data included in the face object as a log while the face object is in a browsing state. The advertising effectiveness measuring device according to any one of claims 14 to 14. 前記広告効果測定装置は,前記顔画像を解析することで,前記顔画像に対応する人物の属性を推定する人物属性推定手段を備え,前記広告効果測定装置の前記状態遷移管理手段は,新規に生成した前記顔オブジェクトに対応する前記顔画像を前記人物属性推定手段に解析させ,該顔画像の属性を示すログとして記憶することを特徴とする,請求項11から請求項15のいずれか一つに記載の広告効果測定装置。   The advertisement effect measuring device includes person attribute estimating means for estimating the attribute of a person corresponding to the face image by analyzing the face image, and the state transition managing means of the advertisement effect measuring device is newly 16. The face image corresponding to the generated face object is analyzed by the person attribute estimating means and stored as a log indicating the attribute of the face image. The advertising effectiveness measuring device described in 1. 前記広告効果測定装置は,前記フレームに撮影された人体を検出する人体検出手段を備え,前記広告効果測定装置は,前記人体検出した人体の数を前記ディスプレイの前にいる人物の人数のログとして少なくとも記憶することを特徴とする,請求項11から請求項16のいずれか一つに記載の広告効果測定装置。   The advertising effect measuring device includes a human body detecting unit that detects a human body photographed in the frame, and the advertising effect measuring device uses the number of human bodies detected as a log of the number of persons in front of the display. The advertisement effect measuring device according to any one of claims 11 to 16, wherein at least the information is stored. 前記広告効果測定装置は,前記フレームの背景画像を除去する背景除去手段を備え,前記顔検出手段及び前記人体検出手段は,前記背景除去手段によって背景画像が除去された前記フレームを解析することを特徴とする請求項11から請求項17のいずれか一つに記載の広告効果測定装置。   The advertisement effect measuring device includes background removal means for removing a background image of the frame, and the face detection means and the human body detection means analyze the frame from which the background image has been removed by the background removal means. The advertisement effect measuring device according to any one of claims 11 to 17, characterized in that 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトを新規に作成すると,該顔オブジェクトの状態を閲覧状態にする前に候補状態に設定し,今回の前記顔検出枠データが対応付けられた一つ前の前記顔検出枠データを含む前記顔オブジェクトの状態が候補状態であるとき,該顔オブジェクトの位置・サイズを該今回の顔検出枠データの位置・サイズに更新すると共に,該顔オブジェクトに設けたカウンタをインクリメントする処理を実行し,事前に定めた設定時間が経過してもカウンタの値が事前に定めた回数に達しない候補状態の顔オブジェクトの利用を中止し,事前に定めた設定時間が経過する前にカウンタの値が事前に定めた回数に達した候補状態の顔オブジェクトを閲覧状態に状態遷移することを特徴とする,請求項11から請求項18のいずれか一つに記載の広告効果測定装置。   When the state transition management unit of the advertisement effect measuring apparatus newly creates the face object, the state transition management unit sets the state of the face object to a candidate state before entering the viewing state, and associates the current face detection frame data with the current state. When the state of the face object including the previous face detection frame data is a candidate state, the position / size of the face object is updated to the position / size of the current face detection frame data, and Executes the process of incrementing the counter provided for the face object, stops the use of the face object in the candidate state where the counter value does not reach the predetermined number of times even if the predetermined set time elapses. The candidate face object whose counter value has reached a predetermined number of times before the set time has elapsed is transitioned to a browsing state. Advertisement effect measurement apparatus according to any one of claims 18 to claim 11. 前記広告効果測定装置の前記状態遷移管理手段は,前記顔オブジェクトの状態を非閲覧状態にする前に,該顔オブジェクトの状態を待機状態に状態遷移させ,事前に定めた時間が経過しても,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出されなかった場合,前記顔オブジェクトの状態を非閲覧状態に状態遷移させ,事前に定めた時間が経過する前に,待機状態の前記顔オブジェクトに含まれる前記顔検出枠データと一致する前記顔検出枠データが検出された場合,該顔オブジェクトの状態を閲覧状態に状態遷移させることを特徴とする,請求項11から請求項19のいずれか一つに記載の広告効果測定装置。
The state transition management means of the advertisement effect measuring device causes the face object to transition to a standby state before the face object is set to a non-viewing state, and a predetermined time has elapsed. If the face detection frame data matching the face detection frame data included in the face object in the standby state is not detected, the state of the face object is changed to the non-viewing state, and a predetermined time is When the face detection frame data that matches the face detection frame data included in the face object in the standby state is detected before the passage, the state of the face object is changed to the browsing state. The advertisement effect measuring device according to any one of claims 11 to 19.
JP2010033410A 2009-08-25 2010-02-18 Advertising effect measurement system and advertising effect measurement device Pending JP2011070629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010033410A JP2011070629A (en) 2009-08-25 2010-02-18 Advertising effect measurement system and advertising effect measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009194371 2009-08-25
JP2010033410A JP2011070629A (en) 2009-08-25 2010-02-18 Advertising effect measurement system and advertising effect measurement device

Publications (2)

Publication Number Publication Date
JP2011070629A true JP2011070629A (en) 2011-04-07
JP2011070629A5 JP2011070629A5 (en) 2012-11-29

Family

ID=44015810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010033410A Pending JP2011070629A (en) 2009-08-25 2010-02-18 Advertising effect measurement system and advertising effect measurement device

Country Status (1)

Country Link
JP (1) JP2011070629A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232876A (en) * 2010-04-26 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> Content attention degree calculation device, content attention degree calculation method, and content attention degree calculation program
JP2013054739A (en) * 2011-08-31 2013-03-21 Nielsen Co (Us) Llc Methods and apparatus to count people in images
US10417666B2 (en) 2017-08-10 2019-09-17 Toyota Jidosha Kabushiki Kaisha Digital signage control device, digital signage control method, and recording medium
JP2020514922A (en) * 2017-03-21 2020-05-21 ケロッグ カンパニー Media content tracking
JPWO2021038800A1 (en) * 2019-08-29 2021-03-04
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products
JP2022542668A (en) * 2019-09-18 2022-10-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Target object matching method and device, electronic device and storage medium
JP2025060966A (en) * 2013-06-28 2025-04-10 日本電気株式会社 Image processing system, image processing method, and image processing program
US12549678B2 (en) 2013-06-28 2026-02-10 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognition method and object tracking monitoring device
JP2005277726A (en) * 2004-03-24 2005-10-06 Toshiba Corp Image monitoring device
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
JP2007272436A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Object tracking device, abnormal state detection device, and object tracking method
JP2009077064A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Monitoring method and monitoring device
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measurement system, and display effect measurement method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognition method and object tracking monitoring device
JP2005277726A (en) * 2004-03-24 2005-10-06 Toshiba Corp Image monitoring device
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
JP2007272436A (en) * 2006-03-30 2007-10-18 Univ Of Electro-Communications Object tracking device, abnormal state detection device, and object tracking method
JP2009077064A (en) * 2007-09-19 2009-04-09 Fujifilm Corp Monitoring method and monitoring device
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measurement system, and display effect measurement method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232876A (en) * 2010-04-26 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> Content attention degree calculation device, content attention degree calculation method, and content attention degree calculation program
JP2013054739A (en) * 2011-08-31 2013-03-21 Nielsen Co (Us) Llc Methods and apparatus to count people in images
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9237379B2 (en) 2011-08-31 2016-01-12 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US12542864B2 (en) 2013-06-28 2026-02-03 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
US12549678B2 (en) 2013-06-28 2026-02-10 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
JP2025060966A (en) * 2013-06-28 2025-04-10 日本電気株式会社 Image processing system, image processing method, and image processing program
JP7764941B2 (en) 2013-06-28 2025-11-06 日本電気株式会社 Image processing system, image processing method, and image processing program
JP2020514922A (en) * 2017-03-21 2020-05-21 ケロッグ カンパニー Media content tracking
US11227307B2 (en) 2017-03-21 2022-01-18 Kellogg Company Media content tracking of users' gazing at screens
US10417666B2 (en) 2017-08-10 2019-09-17 Toyota Jidosha Kabushiki Kaisha Digital signage control device, digital signage control method, and recording medium
JPWO2021038800A1 (en) * 2019-08-29 2021-03-04
JP2023016848A (en) * 2019-08-29 2023-02-02 富士通株式会社 ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE
JP7265202B2 (en) 2019-08-29 2023-04-26 富士通株式会社 ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE
JP7262659B2 (en) 2019-09-18 2023-04-21 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Target object matching method and device, electronic device and storage medium
JP2022542668A (en) * 2019-09-18 2022-10-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Target object matching method and device, electronic device and storage medium
JP7235892B2 (en) 2020-02-18 2023-03-08 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing method, apparatus, electronic equipment and computer program product
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products

Similar Documents

Publication Publication Date Title
JP2011070629A (en) Advertising effect measurement system and advertising effect measurement device
US10204264B1 (en) Systems and methods for dynamically scoring implicit user interaction
JP2011070629A5 (en)
JP4702877B2 (en) Display device
RU2607774C2 (en) Control method in image capture system, control apparatus and computer-readable storage medium
JP2011210238A (en) Advertisement effect measuring device and computer program
CN106663196B (en) Method, system, and computer-readable storage medium for identifying a subject
JP6589321B2 (en) System, search method and program
CN113766330A (en) Method and device for generating recommendation information based on video
US8947600B2 (en) Methods, systems, and computer-readable media for detecting scene changes in a video
WO2016187888A1 (en) Keyword notification method and device based on character recognition, and computer program product
US20130290108A1 (en) Selection of targeted content based on relationships
CN112001886A (en) A temperature detection method, device, terminal and readable storage medium
JP2011060026A (en) System and device for analyzing face detection result, and computer program
CN103428406B (en) Monitoring video analysis method and device
JP2021114771A (en) Information processing device, control method, and program
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP2012217165A (en) Method and device for detecting camera motion type in video
KR101513180B1 (en) System for a real-time cashing event summarization in surveillance images and the method thereof
JP2010211485A (en) Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP5850188B2 (en) Image display system
JP2013195725A (en) Image display system
JP5776471B2 (en) Image display system
JP5962383B2 (en) Image display system and image processing apparatus
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121015

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140415