JP2011210238A - Advertisement effect measuring device and computer program - Google Patents
Advertisement effect measuring device and computer program Download PDFInfo
- Publication number
- JP2011210238A JP2011210238A JP2011032870A JP2011032870A JP2011210238A JP 2011210238 A JP2011210238 A JP 2011210238A JP 2011032870 A JP2011032870 A JP 2011032870A JP 2011032870 A JP2011032870 A JP 2011032870A JP 2011210238 A JP2011210238 A JP 2011210238A
- Authority
- JP
- Japan
- Prior art keywords
- rectangular area
- human body
- tracking
- human
- advertisement effect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は,ディスプレイの広告効果を測定するための技術に関する。なお,ディスプレイとは、液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などを含む。 The present invention relates to a technique for measuring the advertising effectiveness of a display. The display includes a digital signage (Digital Signage), which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, as well as a show window, an advertisement signboard, a specific product display shelf in a store, and the like.
液晶ディスプレイやプロジェクタなどのディスプレイを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が,様々な場所に設置され始めている。デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。 Digital signage, which is an advertising medium that displays advertisements using a display such as a liquid crystal display or a projector, has begun to be installed in various places. By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently deliver advertisements according to the location of digital signage. Expansion is expected.
広告主がデジタルサイネージを導入するのにあたり,テレビの視聴率,新聞,雑誌の販売部数といったように,客観的な広告効果を広告主に提示することが必要になり,デジタルサイネージの広告効果に係わる発明としては,例えば,特許文献1及び特許文献2が開示されている。
When an advertiser introduces digital signage, it is necessary to present an objective advertising effect to the advertiser, such as the TV audience rating, the number of copies of newspapers and magazines, etc. As inventions, for example,
特許文献1で開示されている発明では,デジタルサイネージが設置されているエリアの映像に存在する人物の顔矩形領域を認識し、認識した顔矩形領域から人物の視線方向を抽出することで,デジタルサイネージの広告効果として,広告表示装置を閲覧している閲覧者の人数と、認識した顔矩形領域から得られる閲覧者の属性(例えば,性別,年齢)が測定される。
In the invention disclosed in
特許文献2で開示されている発明は,閲覧者の顔矩形領域を認識することなく,デジタルサイネージが設置されているエリアにいた人物をトラッキングし,該エリア内に滞在した滞在時間から広告表示装置に注目した人数を計測する発明である。
The invention disclosed in
広告効果の重要な指標の一つとして,ディスプレイの前にいる人のうち,ディスプレイを閲覧した人の割合を示す視認率が考えられるが,特許文献1で開示されている発明では,人物の顔のみを検出しているため視認率を測定することはできない。
One of the important indicators of the advertising effect is a view rate indicating the percentage of people who are viewing the display among the people in front of the display. In the invention disclosed in
また,特許文献2で開示されている発明では,人物を頭上から撮影し、髪の毛と顔の明るさや目・口の特徴から人物が向いている方向を推定しているため,人がうつむき加減になっていると,正確な閲覧者数を特定できず,広告効果として計測される視認率などの指標の信憑性がなくなってしまう問題がある。
In the invention disclosed in
そこで、本発明は、ディスプレイを閲覧した人数だけでなく、ディスプレイの前にいる人数も計測することにより、何人中何人見ていたかという視認率を精度よく測定することのできる広告効果測定装置及びコンピュータプログラムを提供することを目的とする。 Therefore, the present invention provides an advertisement effect measuring device and a computer that can accurately measure the number of people who are watching the display by measuring not only the number of people viewing the display but also the number of people in front of the display. The purpose is to provide a program.
上述した課題を解決する第1の発明は, ディスプレイの前にいる人物を撮影するカメラが撮影した映像を構成するフレームから、人体矩形領域の位置・サイズを検出する人体検出手段と,前記人体矩形領域内の画像から顔矩形領域の位置・サイズを検出する顔検出手段と,前記人体矩形領域内の画像の特徴量を用いて前後の前記フレームにおける前記人体矩形領域を対応付けることで前記人体矩形領域をトラッキングし,前記人体矩形領域の位置・サイズ,前記フレームが撮影された日時及び前記顔矩形領域の検出結果を含むトラッキングログを,トラッキング対象としている前記人体矩形領域毎に記憶するトラッキング手段と,前記トラッキングログを集計することで,トラッキング対象となった前記人体矩形領域の総数と,前記顔矩形領域が検出された前記人体矩形領域の数を求め,広告効果に係わる指標として視認率を出力する広告効果測定手段を備えたことを特徴とする広告効果測定装置である。 According to a first aspect of the present invention for solving the above-described problem, a human body detecting means for detecting a position / size of a human body rectangular area from a frame constituting an image captured by a camera that captures a person in front of a display, and the human body rectangle The human body rectangular area by associating the human body rectangular area in the preceding and succeeding frames with the face detection means for detecting the position and size of the face rectangular area from the image in the area, and using the feature amount of the image in the human body rectangular area Tracking means for storing the tracking log including the position / size of the human rectangular area, the date and time when the frame was captured, and the detection result of the facial rectangular area for each human rectangular area to be tracked, By counting the tracking logs, the total number of the human body rectangular areas to be tracked and the face rectangular area An advertisement effect measuring device comprising an advertisement effect measuring means for obtaining the number of the human body rectangular regions in which an area is detected and outputting a visual recognition rate as an index related to the advertisement effect.
第1の発明によれば,前記広告効果測定装置に前記人体検出手段と前記顔検出手段を備えさせることで,前記広告効果測定装置が,前記フレームに含まれる人物毎に,この人物が前記ディスプレイを閲覧したか否かを示す前記トラッキングログを記憶することができ,前記トラッキングログを集計すれば,前記ディスプレイを閲覧した人数だけでなく、前記ディスプレイの前にいる人数も計測することにより、何人中何人見ていたかという視認率を測定することができる。 According to the first invention, the advertisement effect measuring device includes the human body detecting means and the face detecting means, so that the advertisement effect measuring device can display the person for each person included in the frame. The tracking log indicating whether or not the user has browsed can be stored. If the tracking logs are aggregated, not only the number of people who have browsed the display but also the number of people in front of the display can be measured. You can measure the visibility of how many people were watching.
また,前記人体矩形領域内の画像から正面の前記顔矩形領域を検出するようにすることで,背景画像の一部を正面の前記顔矩形領域として誤検出することを防止でき,視認率の精度を高められるばかりか,顔検出に必要な処理時間も短縮することができる。 Further, by detecting the front face rectangular area from the image in the human body rectangular area, it is possible to prevent a part of the background image from being erroneously detected as the front face rectangular area, and accuracy of the visibility rate is reduced. As well as the processing time required for face detection.
更に,第2の発明は,第1の発明に記載の広告効果測定装置であって,前記トラッキング手段は,色特徴量を利用する第1のトラッキング手法及び局所特徴量を利用する第2のトラッキング手法に対応し,前記第1のトラッキング手法により前記人体矩形領域をトラッキングした後,前記第1のトラッキング手法によりトラッキングできなかった前記人体矩形領域を前記第2のトラッキング手法によりトラッキングすることを特徴とする。 Further, the second invention is the advertising effect measuring device according to the first invention, wherein the tracking means uses a first tracking method using a color feature and a second tracking using a local feature. Corresponding to a technique, and after tracking the human rectangular area by the first tracking technique, the human rectangular area that could not be tracked by the first tracking technique is tracked by the second tracking technique. To do.
第2の発明によれば,前記第2のトラッキング手法を用いることで物体の形状を認識できるため,オクルージョンが発生し前記第1のトラッキング手法により前記人体矩形領域をトラッキングができなくなっても,トラッキング手法を前記第2のトラッキング手法によりトラッキングすることで,前記人体矩形領域をトラッキングできるようになる。 According to the second invention, since the shape of the object can be recognized by using the second tracking method, even if the occlusion occurs and the human body rectangular area cannot be tracked by the first tracking method, the tracking is not performed. By tracking the method by the second tracking method, the human body rectangular region can be tracked.
更に,第3の発明は,第1の発明又は第2の発明に記載の広告効果測定装置であって,前記フレームと背景画像の差分を求めることで,前記背景画像以外の前景領域を示す前景マスクを生成する前景マスク生成手段を備え,前記人体検出手段は,前記フレームから検出した前記人体矩形領域毎に,前記人体矩形領域に対応する前記前景マスクの領域内における前記前景領域の割合を求め,前記割合が閾値未満の前記人体矩形領域を誤検出として扱い,前記トラッキング手段は,前記前景マスクを用いてマスク処理した後の前記フレームから前記人体矩形領域内の画像の特徴量を算出することを特徴とする。 Furthermore, a third invention is the advertising effect measurement device according to the first invention or the second invention, wherein a foreground indicating a foreground region other than the background image is obtained by obtaining a difference between the frame and the background image. Foreground mask generation means for generating a mask, and the human body detection means obtains a ratio of the foreground area in the foreground mask area corresponding to the human body rectangular area for each human body rectangular area detected from the frame. The human body rectangular area whose ratio is less than a threshold is treated as a false detection, and the tracking means calculates a feature amount of an image in the human body rectangular area from the frame after mask processing using the foreground mask. It is characterized by.
ディスプレイの前にいる人物を撮影するカメラの位置・アングルは固定で,カメラが撮影した映像には,時間的に移動しない背景画像が含まれることになり,第3の発明のように,前記前景マスクを用いて前記フレームから背景画像を除去できれば,精度よく人体矩形領域や顔矩形領域を検出できるようになる。 The position and angle of the camera that shoots the person in front of the display is fixed, and the video captured by the camera includes a background image that does not move in time. As in the third invention, the foreground If the background image can be removed from the frame using a mask, the human body rectangular area and the face rectangular area can be accurately detected.
更に、第4の発明は、第3の発明に記載の広告効果測定装置であって、前記人体検出手段は、指定のクラスタリング手法により、誤検出として扱わない前記人体矩形領域をクラスタに切り分けて、同じクラスタに属する該人体矩形領域を一つに統合する統合処理を実行することを特徴とする。 Further, a fourth invention is the advertising effect measurement device according to the third invention, wherein the human body detecting means divides the human rectangular area not treated as a false detection into clusters by a designated clustering method, An integration process for integrating the human rectangular regions belonging to the same cluster into one is executed.
上述した第4の発明によれば、一人の人物に対して複数の人体矩形領域が検出された場合であっても、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合できる。なお、第3の発明では、前景マスクを用いて前記人体矩形領域をクラスタに切り分けているため、同じクラスタに属する該人体矩形領域を一つに統合しても、人物の形状と類似しているオブジェクト(例えば、脚立、柱等)を人物と誤検出した領域が統合されることはない。 According to the fourth invention described above, a plurality of human body rectangular areas that can be determined as the same person are integrated into a single human body rectangular area even when a plurality of human body rectangular areas are detected for one person. it can. In the third invention, since the human rectangular area is divided into clusters using a foreground mask, even if the human rectangular areas belonging to the same cluster are integrated into one, it is similar to the shape of a person. A region in which an object (for example, a stepladder, a pillar, or the like) is erroneously detected as a person is not integrated.
更に,第5の発明は,第1の発明から第4の発明のいずれか一つに記載の広告効果測定装置であって,前記顔検出手段は,前記人体矩形領域内の画像を所定のサイズに正規化した後に前記顔矩形領域を検出することを特徴とする。 Furthermore, a fifth invention is the advertising effectiveness measuring device according to any one of the first to fourth inventions, wherein the face detecting means converts the image in the human body rectangular area to a predetermined size. The face rectangular area is detected after normalizing to.
上述した第5の発明によれば,検出された前記顔矩形領域のサイズが小さい場合であっても,前記人体矩形領域内の画像を所定サイズに正規化することで、顔検出対象領域が小さい場合は拡大処理されるため前記顔矩形領域を検出しやすくなる。 According to the fifth aspect described above, even when the size of the detected face rectangular area is small, the face detection target area is small by normalizing the image in the human body rectangular area to a predetermined size. In this case, since the enlargement process is performed, the face rectangular area can be easily detected.
更に、第6の発明は、第5の発明に記載の広告効果測定装置であって、前記顔検出手段は、前記人体矩形領域内の画像を所定のサイズに正規化した後、正規化した後の前記人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを決定することを特徴とする。 Further, a sixth invention is the advertising effect measurement device according to the fifth invention, wherein the face detection means normalizes the image in the human body rectangular area after normalizing to a predetermined size. The search size at the start of face detection is determined according to the size of the human body rectangular area.
更に、第6の発明によれば、正規化する前の人体矩形領域のサイズが分かるため、そのサイズに応じて顔検出開始時の探索サイズを決定するようにすると、顔検出の処理速度の向上や、顔検出の誤検出を防止する効果が得られる。 Furthermore, according to the sixth aspect of the invention, since the size of the human rectangular area before normalization is known, if the search size at the start of face detection is determined according to the size, the processing speed of face detection is improved. In addition, an effect of preventing erroneous detection of the face can be obtained.
更に,第7の発明は,第1の発明から第6の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域をトラッキングしていた時間を求め,広告効果に係わる指標として滞留時間を前記人体矩形領域毎に出力することを特徴とする。 Furthermore, a seventh invention is the advertising effect measuring device according to any one of the first to sixth inventions, wherein the advertising effect measuring means stores the tracking log for each human body rectangular region. The total time is obtained by tracking the human rectangular area, and the residence time is output for each human rectangular area as an index related to the advertising effect.
更に,第8の発明は,第1の発明から第7の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域から前記顔矩形領域を検出できた時間を求め,広告効果に係わる指標として閲覧時間を前記人体矩形領域毎に出力することを特徴とする。 Further, an eighth invention is the advertising effectiveness measuring device according to any one of the first invention to the seventh invention, wherein the advertising effectiveness measuring means records the tracking log for each human body rectangular area. By counting, the time during which the face rectangular area can be detected from the human rectangular area is obtained, and browsing time is output for each human rectangular area as an index related to the advertising effect.
更に,第9の発明は,第1の発明から第8の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として前記人体矩形領域の位置を前記人体矩形領域毎に出力することを特徴とする。 Furthermore, a ninth invention is the advertising effect measuring device according to any one of the first to eighth inventions, wherein the advertising effect measuring means stores the tracking log for each human body rectangular region. By counting, the position of the human body rectangular area is output for each human body rectangular area as an index related to the advertising effect.
更に,第10の発明は,第1の発明から第9の発明のいずれか一つに記載の広告効果測定装置であって,前記顔検出手段が検出した前記顔矩形領域から人物属性を特定する人物属性特定手段を備え,前記トラッキング手段は,前記顔矩形領域が検出できた前記人体矩形領域の前記トラッキングログに前記人物属性を含ませ、前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として人物属性を前記人体矩形領域毎に出力することを特徴とする。 Furthermore, the tenth invention is the advertising effect measurement device according to any one of the first invention to the ninth invention, wherein the person attribute is specified from the face rectangular area detected by the face detecting means. Human attribute specifying means, wherein the tracking means includes the person attribute in the tracking log of the human body rectangular area where the face rectangular area has been detected, and the advertising effectiveness measuring means includes the tracking log as the human body rectangle. By summing up for each area, a person attribute is output for each of the human body rectangular areas as an index related to the advertising effect.
また,広告効果に係わる指標としては,視認率ばかりでなく,第8の発明から第10の発明のように,滞留時間,閲覧時間,人体矩形領域の位置及びディスプレイを閲覧している人の人物属性(年齢・性別など)を出力できるようにすることが望ましい。 In addition, as an index related to the advertising effect, not only the viewing rate but also the dwell time, the viewing time, the position of the human body rectangular area, and the person of the person viewing the display as in the eighth to tenth inventions It is desirable to be able to output attributes (age, gender, etc.).
更に,第11の発明は,第1の発明から第10の発明のいずれか一つに記載の広告効果測定装置として,コンピュータを機能させるためのコンピュータプログラムである。 Furthermore, an eleventh aspect of the invention is a computer program for causing a computer to function as the advertisement effect measuring apparatus according to any one of the first to tenth aspects of the invention.
なお、第11の発明は,コンピュータプログラムに係わる発明である。 The eleventh invention relates to a computer program.
上述した発明によれば,ビデオカメラが撮影した映像に含まれる人体や顔を精度良く検出することのできる広告効果測定装置及びコンピュータプログラムを提供できる。 According to the above-described invention, it is possible to provide an advertisement effect measuring apparatus and a computer program that can accurately detect a human body and a face included in an image captured by a video camera.
ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。 From this, the embodiments of the present invention will be described to the extent that those skilled in the art of the present invention can understand the contents of the present invention and implement the present invention.
本実施形態は,街頭などに設置されるデジタルサイネージ3の広告効果の測定に本発明を適用した形態で,図1は,広告効果測定装置2が設置された広告効果測定システム1の構成を説明する図である。
In the present embodiment, the present invention is applied to the measurement of the advertising effect of the
図1で図示したように,広告効果測定システム1には,街頭や店舗などに設置され,ディスプレイ3a(図1ではディスプレイ)を用いて広告映像を表示する広告媒体であるデジタルサイネージ3が含まれる。なお,デジタルサイネージ3には,広告映像を再生するディスプレイ3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。
As shown in FIG. 1, the advertisement
デジタルサイネージ3のディスプレイ3a上には,ディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定されたビデオカメラ4が設置されている。
On the display 3a of the
このビデオカメラ4で撮影された映像は,USBポートなどを利用して広告効果測定装置2に入力され,広告効果測定装置2は,ビデオカメラ4から送信された映像に含まれるフレームを所定の間隔で解析し,フレームから人体矩形領域を検出し,更に,人体矩形領域から顔矩形領域を検出することで,デジタルサイネージ3の広告効果の指標(例えば,デジタルサイネージ3の視認率)を出力する。
The video shot by the
図1で図示した広告効果測定システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,広告効果測定装置2は,従来技術にはない特徴を備えているため,ここから,広告効果測定装置2について詳細に説明する。
In the apparatus constituting the advertisement
図2は,広告効果測定システム1を構成する広告効果測定装置2のハードウェアブロック図,そして,図3は,広告効果測定装置2の機能ブロック図である。
FIG. 2 is a hardware block diagram of the advertisement
広告効果測定装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを広告効果測定装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。
The advertisement
広告効果測定装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,広告効果測定装置2には図3で図示した手段が備えられる。
A computer program for operating the
図3で図示したように,広告効果測定装置2の入力は,ビデオカメラ4によって撮影された映像で,広告効果測定装置2の出力は,デジタルサイネージの広告効果の指標が記憶されたログファイルになる。
As shown in FIG. 3, the input of the advertising
広告効果測定装置2には,ビデオカメラ4が撮影した映像のフレームを解析する手段として,処理対象となるフレームから背景画像を除去することで,処理対象となるフレームと背景画像の差分を求め,背景画像以外の領域である前景領域を示す前景マスクを生成する前景マスク生成手段20と,フレームから人体矩形領域を検出する人体検出手段21と,人体検出手段21が検出した人体矩形領域に含まれる正面の顔矩形領域を検出する顔検出手段22と,人体矩形領域内の画像から得られる特徴量を用いて人体矩形領域をトラッキングし,トラッキングの結果を示すトラッキングログを記憶するトラッキング手段23を備えている。
The advertisement
更に,本実施形態において,広告効果測定装置2は,デジタルサイネージ3を閲覧した人物の属性(年齢や性別)を得るために,顔矩形領域に含まれる画像から人物属性(年齢や性別)を推定する人物属性算出手段24を備えている。
Furthermore, in this embodiment, the advertising
また,広告効果測定装置2には,デジタルサイネージ3の広告効果を測定するために,トラッキング手段23が記憶したトラッキングログの結果を集計したログファイルを出力する広告効果測定手段25を備えている。本実施形態では,広告効果測定装置2の広告効果測定手段25は,トラッキングログの結果を集計したログファイルとして,デジタルサイネージ3の視認率が記される視認率ログファイルと,デジタルサイネージ3の閲覧時間が記される閲覧時間ログファイルと,人体矩形領域の位置の軌跡が記される位置ログファイルと,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)が記される人物属性ログファイルを出力する。
Further, the advertisement
まず,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明しながら,ビデオカメラ4が撮影した映像のフレームを解析するために広告効果測定装置2に備えられた各手段について説明する。
First, the advertisement
図4は,広告効果測定装置2がフレームを解析する処理を説明するフロー図である。広告効果測定装置2は,ビデオカメラ4の映像を一定間隔毎に解析する処理を実行し,広告効果測定装置2は,ビデオカメラ4の映像を解析するとき,まず,処理対象となるNフレームにおける前景マスクを生成する前景マスク生成処理S1を実行する。
FIG. 4 is a flowchart for explaining processing in which the advertisement
広告効果測定装置2は,前景マスク生成処理S1を実行すると,前景マスクを利用して,Nフレームから人体矩形領域を検出する人体検出処理S2を実行した後,人体検出処理S2で検出された人体矩形領域から顔矩形領域を検出する顔検出処理S3を実行する。
When the foreground mask generation process S1 is executed, the advertisement
そして,広告効果測定装置2は,顔検出処理S3を実行すると,顔検出処理S3で検出した顔矩形領域の人物属性を求める人物属性算出処理S4を実行した後,前景マスクを利用して,Nフレームの人体検出結果に基づき人体矩形領域の位置・サイズを更新することで人体矩形領域をトラッキングし,トラッキング結果を示すトラッキングログを記憶するトラッキング処理S5を実行し,この手順を終了する。
Then, after executing the face detection process S3, the advertisement
まず,前景マスク生成処理S1について説明する。前景マスク生成処理S1を担う手段は,広告効果測定装置2の前景マスク生成手段20である。広告効果測定装置2が前景マスク生成処理S1を実行するのは,図1に図示しているように,デジタルサイネージ3のディスプレイ3aの上部に設けられたビデオカメラ4の位置・アングルは固定であるため,ビデオカメラ4が撮影した映像には,時間的に移動しない背景画像が含まれることになり,処理対象となるフレームから背景画像を除去できれば,精度よく人体矩形領域や顔矩形領域を検出できるようになるからである。
First, the foreground mask generation process S1 will be described. The means responsible for the foreground mask generation processing S1 is the foreground mask generation means 20 of the advertisement
本実施形態において,広告効果測定装置2の背景除去手段20は,既存の技術である動的背景差分法を利用してNフレームと背景画像の差分を求めることで,Nフレームにおいて背景画像ではない前景領域が示された前景マスクを生成する。
In the present embodiment, the
図5は,前景マスクを模式的に説明する図で,図5(a)は背景画像の一例,図5(b)はNフレームの一例,そして,図5(c)は前景マスクの一例である。図5(c)で図示した前景マスク5cを生成する際,図5(b)で図示したNフレーム5bにおいて,図5(a)で図示した背景画像5aではない領域が前景領域5dとして求められ,図5(c)で図示した前景マスク5cが生成される。
FIG. 5 is a diagram schematically illustrating the foreground mask. FIG. 5A is an example of a background image, FIG. 5B is an example of an N frame, and FIG. 5C is an example of a foreground mask. is there. When the foreground mask 5c illustrated in FIG. 5C is generated, an area other than the background image 5a illustrated in FIG. 5A is obtained as the foreground area 5d in the
次に,広告効果測定装置2の人体検出手段21によって実行される人体検出処理S2について説明する。Nフレームから人体矩形領域を検出する人体検出方法としては様々な方法が考案されており,人体検出方法は任意に選択可能であるが,本実施形態では,一例として,人体検出手段21が実施する人体検出方法に,HOG(Histogram of Oriented Gradients)特徴量を用いたAdaboostアルゴリズムによる人体検出法を採用している。
Next, the human body detection process S2 executed by the human body detection means 21 of the advertisement
HOG特徴量を用いたAdaboostアルゴリズムによる人体検出法では,矩形の人体検出枠の位置や矩形サイズをNフレーム内で変更しながら,人体検出枠を複数に分割するセル毎にエッジの勾配方向ヒストグラムであるHOG特徴量を求め,弱識別器を組み合わせて構成される識別器にこのHOG特徴量を代入し,識別器のスコアが閾値以上になる人体検出枠の位置・矩形サイズが人体矩形領域として求められる。なお,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については,「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。 In the human body detection method using the Adaboost algorithm using the HOG feature amount, the position and rectangular size of the rectangular human body detection frame are changed within the N frame, and the edge gradient direction histogram is displayed for each cell that divides the human body detection frame into a plurality of cells. A certain HOG feature value is obtained, and this HOG feature value is assigned to a classifier configured by combining weak classifiers, and the position / rectangular size of the human body detection frame where the score of the classifier is equal to or greater than a threshold is obtained as a human body rectangular area It is done. For the human body detection method using the Adaboost algorithm using the HOG (Histogram of Oriented Gradients) feature as a weak classifier, see “N. Dalal and B. Triggs,” Histograms of Oriented Gradientstional Conference on Computer Vision, pp. 734-741. , 2003. "
なお,人体検出処理S2において,前景マスク生成処理S1によって得られた前景マスクは,広告効果測定装置2の人体検出手段21が,背景の一部を人体矩形領域として誤検出していないか確認するために利用される。
In the human body detection process S2, the foreground mask obtained by the foreground mask generation process S1 confirms whether or not the human body detection means 21 of the advertisement
広告効果測定装置2の人体検出手段21は,背景の一部の画像を人体矩形領域として誤検出していないか確認するとき,前景マスク処理S1で得られた前景マスクを参照し,Nフレームから検出された人体矩形領域毎に,前景マスクと人体矩形領域が重なり合う領域である前景領域の割合を特定し,前景領域の割合が閾値未満の人体矩形領域は誤検出であったと判断し,前景領域の割合が閾値未満の人体矩形領域はこれ以降の処理で利用されない。
The human body detecting means 21 of the advertising
図6は,人体矩形領域の誤検出を説明する図である。図6(a)はNフレームの一例で,図6(a)で図示したNフレーム6aには2本の柱6bが含まれ,柱6bの形状は人体の形状と似ているため,図6(a)で図示したNフレーム6aにおいて,広告効果測定装置2の人体検出手段21はこの柱6bを人体矩形領域6cとして誤検出している。
FIG. 6 is a diagram for explaining erroneous detection of the human body rectangular area. FIG. 6A is an example of an N frame. The N frame 6a illustrated in FIG. 6A includes two pillars 6b, and the shape of the pillar 6b is similar to the shape of a human body. In the N frame 6a shown in (a), the human body detecting means 21 of the advertising
図6(b)は前景マスクの一例で,図6(b)の前景マスク6dにおいて,Nフレーム6aの柱6bの人体矩形領域6cに対応する領域6eには前景領域が含まれていないため,広告効果測定装置2の人体検出手段21は,柱6bに対応する人体矩形領域柱6cを誤検出として取り扱うことになる。
FIG. 6B is an example of the foreground mask. In the foreground mask 6d of FIG. 6B, the region 6e corresponding to the human body rectangular region 6c of the column 6b of the N frame 6a does not include the foreground region. The human body detecting means 21 of the advertising
次に,広告効果測定装置2の顔検出手段22によって実行される顔検出処理S3について説明する。広告効果測定装置2の顔検出手段22は,広告効果測定装置2の人体検出手段21がNフレームから得た人体矩形領域毎に,人体矩形領域内の画像から正面の顔矩形領域を検出する処理を実行し,検出した顔矩形領域毎に,顔矩形領域の位置・矩形サイズが得られる。
Next, the face detection process S3 executed by the
このように,人体矩形領域内の画像から正面の顔矩形領域を検出すると,背景の一部を正面の顔矩形領域として誤検出することを防止できるばかりか,顔検出処理S3に必要な処理時間も短縮することができる。 Thus, if the front face rectangular area is detected from the image in the human body rectangular area, it is possible not only to prevent erroneous detection of a part of the background as the front face rectangular area, but also the processing time required for the face detection process S3. Can also be shortened.
本実施形態では,広告効果測定装置2の顔検出手段22が実施する顔検出方法に,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用し,広告効果測定装置2の顔検出手段22は,人体矩形領域内の画像から顔矩形領域を検出する際,人体矩形領域の画像のサイズを所定のサイズ(画素数で定められるサイズ)に正規化する処理を実行した後、識別器を用いて顔を検出する領域のサイズである探索サイズを予め決定されたサイズから開始し、識別器を用いて探索サイズの領域内から顔を検出する処理を、正規化後の人体矩形領域内で探索サイズの領域の位置を移動させながら行うことで、正規化した画像から探索サイズに対応する大きさの顔矩形領域を検出し、さらに探索サイズを徐々に大きくして、探索サイズを所定の最大サイズとするまでこれを繰り返すことにより、正規化後の人体矩形領域から様々な大きさの顔矩形領域をもれなく検出するなお,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については,「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」,「Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。
In the present embodiment, the face detection method performed by the face detection means 22 of the advertisement
人体矩形領域の画像を所定サイズに正規化するのは,顔検出の未検出を少なくするためである。ビデオカメラ4から遠くにいる人物の顔矩形領域のサイズは,ビデオカメラ4の近くにいる人物の顔矩形領域のサイズよりも小さくなるため,顔矩形領域を検出しにくいが,人体矩形領域内の画像を所定サイズに正規化することで,ビデオカメラ4から遠くにいる人物の顔矩形領域のサイズは大きくなり,顔矩形領域を検出しやすくなるし,また,人体矩形領域に対して、明らかに小さいサイズを顔の探索対象から除外することができるため,安定して顔矩形領域を検出できるようになる。
The reason for normalizing the image of the human rectangular area to a predetermined size is to reduce the number of undetected faces. Since the size of the face rectangle area of the person far from the
なお,広告効果測定装置2の顔検出手段22は,人体矩形領域内から顔矩形領域を検出できたとき,この人体矩形領域に対応する人物はデジタルサイネージ3を閲覧していたと判断できるため,この人体矩形領域に閲覧フラグを関連付けておく。
The face detection means 22 of the advertisement
次に,広告効果測定装置2に備えられた人物属性算出手段24によって実行される人物属性算出処理S4ついて説明する。人物属性算出処理S4において,広告効果測定装置2に備えられた人物属性算出手段24は,顔検出処理S3で得られた顔矩形領域毎に,所定のアルゴリズムに従い顔矩形領域内の画像を解析することで人物属性(年齢・性別)を算出し,算出した人物属性を顔画像が検出された人体矩形領域に関連付けておく。
Next, the person attribute calculation process S4 executed by the person attribute calculation means 24 provided in the advertisement
顔矩形領域から人物属性(年齢・性別)を推定する手法は,タバコの自動販売機などでも広く採用されており,例えば,特開2007―080057号公報の技術を利用できる。 A method for estimating a person attribute (age / gender) from a face rectangular area is widely used in cigarette vending machines and the like, and for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-080057 can be used.
次に,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S5について説明する。
Next, the tracking process S5 executed by the
人体矩形領域のトラッキング手法としては様々な手法が考案されているが,本実施形態において,広告効果測定装置2のトラッキング手段23は,人体矩形領域内の画像から算出される特徴量として色特徴量を利用する第1のトラッキング手法と,局所特徴量を利用する第2のトラッキング手法を組み合わせて人体矩形領域のトラッキングを行う。
Various methods have been devised as tracking methods for a human body rectangular area. In this embodiment, the tracking means 23 of the advertisement
色特徴量を利用する第1のトラッキング手法と,局所特徴量を利用する第2のトラッキング手法を組み合わせて,人体矩形領域のトラッキングを行うのは,人体同士が重なり合うオクルージョンが発生すると人体矩形領域を検出することができないため,色特徴量を利用する第1のトラッキング手法のみでは,オクルージョンが発生すると人体矩形領域を見失ってしまうからである。 The tracking of the human body rectangular area is performed by combining the first tracking method that uses the color feature amount and the second tracking method that uses the local feature amount. When the occlusion where the human bodies overlap is generated, This is because detection cannot be performed, and only the first tracking method using the color feature amount loses sight of the human body rectangular area when occlusion occurs.
本実施形態において,前後のフレームにおける人体矩形領域を対応付けするために,広告効果測定装置2のトラッキング手段23によって,トラッキング対象となる人体矩形領域毎にHumanオブジェクトが生成され, このHumanオブジェクトの属性値には,Humanオブジェクトを識別するために付与されるHumanIDと,Humanオブジェクトに対応する人体矩形領域の位置・サイズと,人体色特徴量が少なくとも含まれる。
In the present embodiment, in order to associate the human body rectangular areas in the previous and subsequent frames, the tracking means 23 of the advertising
図7は,トラッキング処理S4の詳細を説明する図である。処理対象となるNフレームを処理するとき,広告効果測定装置2のトラッキング手段23は,まず,前景マスク生成処理S1で得られたNフレームの前景マスクを用いてNフレームにマスクをかけるマスク処理(S10)を実行する。
FIG. 7 is a diagram for explaining the details of the tracking process S4. When processing the N frame to be processed, the
図8は,マスク処理(S10)を説明する図である。図8(a)ではNフレームを例示し,図8(b)ではNフレームの前景マスクを模式的に例示し,図8(c)ではマスク処理後のNフレームを例示している。 FIG. 8 is a diagram for explaining the mask processing (S10). 8A illustrates an N frame, FIG. 8B schematically illustrates an N frame foreground mask, and FIG. 8C illustrates an N frame after mask processing.
図8(b)で図示した前景マスク7bを用いて,図8(a)で図示したNフレーム7aにマスク処理をかけることで,Nフレーム7aの背景画像が除去され,人体画像のみが抽出され,図8で図示したマスク処理後のNフレーム7cが得られる。なお,図8において点線で図示している矩形は人体矩形領域を示し,ビデオカメラ4で撮影された絵柄ではない。
By applying a mask process to the N frame 7a shown in FIG. 8A using the foreground mask 7b shown in FIG. 8B, the background image of the N frame 7a is removed and only the human body image is extracted. , The N frame 7c after the mask processing shown in FIG. 8 is obtained. In addition, the rectangle illustrated by the dotted line in FIG. 8 indicates a human body rectangular area, and is not a picture taken by the
広告効果測定装置2のトラッキング手段23は,マスク処理(S10)を実行すると,マスク処理後のNフレームを用いて,色特徴量を用いる第1のトラッキング手法による第1のトラッキング処理を実行する(S11)。
When executing the mask process (S10), the
色特徴量を用いる第1のトラッキング手法による第1のトラッキング処理では,Nフレームで検出された人体矩形領域内の画像から算出された色特徴量を用いて,Nフレームの時点で既に生成されているHumanオブジェクトにNフレームで検出された人体矩形領域を対応付ける処理が行われる。 In the first tracking process by the first tracking method using the color feature amount, the color feature amount calculated from the image in the human body rectangular area detected in the N frame is already generated at the time of the N frame. A process of associating the human body rectangular area detected in the N frame with the Human object is performed.
第1のトラッキング処理において,Nフレームで検出された人体矩形領域が対応付けられHumanオブジェクトに関しては,Humanオブジェクトに対応付けられた人体矩形領域の位置・サイズに,Humanオブジェクトの位置・サイズが更新され,更に,Humanオブジェクトに対応付けられた人体矩形領域の切り出し画像から得られる色特徴量に,Humanオブジェクトの色特徴量を更新する処理が実行される。 In the first tracking processing, the position and size of the Human object are updated to the position and size of the human body rectangular area associated with the Human object for the Human object associated with the human body rectangular area detected in the N frame. Further, a process of updating the color feature amount of the Human object to the color feature amount obtained from the cut-out image of the human rectangular area associated with the Human object is executed.
なお,色特徴量を用いて前後のフレームにおける人体矩形領域を対応付けするとき,人体矩形領域の色ヒストグラムを求めヒストグラムマッチングにより,前後のフレームにおける人体矩形領域を対応付けするとよい。ヒストグラムマッチングするときの指標としては,相関、カイ二乗、交差などが挙げられるが、数式1で示されるBhattacharyya距離をこの指標として採用すると,マッチング精度が高くなる。
Bhattacharyya距離を利用するとき,色特徴量として色ヒストグラムが用いられ,Nフレームの時点で既に生成されているHumanオブジェクト毎に,Nフレームから検出された人体矩形領域から算出された色ヒストグラムとHumanオブジェクトの色ヒストグラム間の類似度を表すBhattacharyya距離を求め,Bhattacharyya距離が最も小さいHumanオブジェクトに人体矩形領域を対応付けする。 When using the Bhattacharyya distance, a color histogram is used as a color feature, and for each Human object already generated at the time of N frames, a color histogram calculated from a human body rectangular area detected from the N frame and a Human object The Bhattacharyya distance representing the similarity between the color histograms is obtained, and the human rectangular area is associated with the Human object having the smallest Bhattacharyya distance.
色特徴量を用いた第1のトラッキング手法による第1のトラッキング処理(S11)を行うと,広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理の結果を示すトラッキングログを記憶する(S12)。
When the first tracking process (S11) by the first tracking method using the color feature amount is performed, the
広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理の結果を示すトラッキングログを,第1のトラッキング処理において位置・サイズが更新されたHumanオブジェクト毎に生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,更新後のHumanオブジェクトの位置・矩形サイズを含ませる。
The tracking means 23 of the advertisement
また,第1のトラッキング処理において,Humanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。 In the first tracking process, when a viewing flag is associated with the human body rectangular area associated with the Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.
第1のトラッキング処理の結果を示すトラッキングログを記憶すると,広告効果測定装置2のトラッキング手段23は, 第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトがあるか確認し(S13),第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトがあれば,広告効果測定装置2のトラッキング手段23は,局所特徴量を用いる第2のトラッキング手法にトラッキング手法を切り替え,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトを対象として,第2のトラッキング手法による第2のトラッキング処理を実行する(S14)。
When the tracking log indicating the result of the first tracking process is stored, the tracking means 23 of the advertisement
なお,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトが無ければ,第2のトラッキング処理を実行することなく,図7のS16に進む。 If there is no Human object whose position / size has not been updated in the first tracking process, the process proceeds to S16 in FIG. 7 without executing the second tracking process.
図9は,第2のトラッキング手法を説明する図で,図9(a)にN−1フレームの一例を図示し,図9(b)にNフレームの一例を図示している。なお,図9(a)で図示したN−1フレーム8aでは5人の人物が人体検出されているが,図9(b)で図示したNフレーム8bでは,真ん中の人物がおじぎをしている格好になっているため,真ん中の人物が人体検出されていない。 FIG. 9 is a diagram for explaining the second tracking method. FIG. 9A illustrates an example of the N-1 frame, and FIG. 9B illustrates an example of the N frame. In the N-1 frame 8a illustrated in FIG. 9A, five human bodies are detected, but in the N frame 8b illustrated in FIG. 9B, the middle person is bowing. The middle person is not detected because of the appearance.
局所特徴量を用いる第2のトラッキング手法としては,上述したHOG特徴量を用いたトラッキング手法を利用することが望ましい。HOG特徴量を用いたトラッキング手法を第2のトラッキング手法に利用するとき,Nフレーム内において、第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応する人体矩形領域は、Nフレームにおいては該Humanオブジェクトの位置の近傍にあるとの仮定に基づき、該Humanオブジェクトのサイズに等しい探索窓8eを設定し,該Humanオブジェクトの位置(図9(a),(b)の位置8c)を探索窓8eの始点として、探索窓8eの始点から得られる所定の探索領域8d内で探索窓8eの位置を変更しながら,該Humanオブジェクトに対応する人体矩形領域を探索する。 As the second tracking method using the local feature amount, it is desirable to use the tracking method using the HOG feature amount described above. When the tracking method using the HOG feature amount is used for the second tracking method, the human body rectangular region corresponding to the Human object whose position / size has not been updated by the first tracking process in N frames is N frames. Is set in the vicinity of the position of the Human object, a search window 8e equal to the size of the Human object is set, and the position of the Human object (position 8c in FIGS. 9A and 9B). Is searched for a human body rectangular area corresponding to the Human object while changing the position of the search window 8e within a predetermined search area 8d obtained from the start point of the search window 8e.
図10は,第2のトラッキング手法の説明を補足する図である。図10(a)は,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応するN−1フレームの人体矩形領域から求められた輝度勾配9a,HOG特徴量9b及び勾配ヒストグラム9cを図示し,図10(b)は,該Humanオブジェクトの近傍にある探索窓8e内から求められた輝度勾配9d,HOG特徴量9e及び勾配ヒストグラム9fを図示している。 FIG. 10 is a diagram supplementing the description of the second tracking method. FIG. 10A shows a luminance gradient 9a, a HOG feature amount 9b, and a gradient histogram 9c obtained from the human body rectangular area of the N-1 frame corresponding to the Human object whose position and size have not been updated in the first tracking process. FIG. 10B shows the luminance gradient 9d, the HOG feature amount 9e, and the gradient histogram 9f obtained from the search window 8e in the vicinity of the Human object.
図10(a),(b)の輝度勾配9a,9dを比較すればわかるように,図10(a),(b)では人体の頭部では差があるものの,人体の胴部では差が少なく無く,人体の胴部のHOG特徴量9b,9e及び勾配ヒストグラム9c,9fにも差は少ない。 As can be seen by comparing the luminance gradients 9a and 9d in FIGS. 10 (a) and 10 (b), there is a difference in the human head in FIGS. 10 (a) and 10 (b), but there is a difference in the torso of the human body. There are not a few differences between the HOG feature values 9b and 9e and the gradient histograms 9c and 9f of the human torso.
そこで,探索領域8d内で探索窓8eの位置を変更しながら,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応する人体矩形領域を探索するとき,広告効果測定装置2のトラッキング手段23は,相関、カイ二乗、交差, Bhattacharyya距離などを指標として,探索窓8eに含まれるセルごとにHOG特徴量から得られる勾配ヒストグラムの類似度を求め、探索窓8e内における類似度の値を合算した値が閾値を越える位置を探索とする。なお、探索窓8e内における類似度の値を合算した値が閾値を越える位置が一つの場合は,その位置をNフレーム8bにおける人体矩形領域の位置とし,また,探索範囲内にて閾値を越えた箇所が複数ある場合、その中で最も高い類似度が求められた位置をNフレーム8bにおける人体矩形領域の位置とする。
Therefore, when searching for a human body rectangular area corresponding to a Human object whose position / size has not been updated in the first tracking process while changing the position of the search window 8e in the search area 8d, the advertisement
そして,第2のトラッキング手法を用いてNフレームにおける人体矩形領域の位置を検索できた場合は,広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトの位置のみをこの検索窓の位置に更新し,Humanオブジェクトのサイズ及び色特徴量は更新しない。
When the position of the human body rectangular area in the N frame can be searched using the second tracking method, the tracking means 23 of the advertisement
局所特徴量を用いる第2のトラッキング手法による第2のトラッキング処理を行うと,広告効果測定装置2のトラッキング手段23は,第2のトラッキング処理の結果を示すトラッキングログを記憶する(S15)。
When the second tracking process by the second tracking method using the local feature amount is performed, the
広告効果測定装置2のトラッキング手段23は,第2のトラッキング処理の結果を示すトラッキングログを,第2のトラッキング処理において位置・サイズが更新されたHumanオブジェクト毎に生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,更新後のHumanオブジェクトの位置・矩形サイズを含ませる。
The tracking means 23 of the advertisement
また,第2のトラッキング処理において,Humanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。 In the second tracking process, when a viewing flag is associated with the human body rectangular area associated with the Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.
なお,第1のトラッキング処理及び第2のトラッキング処理を実行しても,Nフレームの人体矩形領域が対応付けられなかったHumanオブジェクトがあれば,このHumanオブジェクトに対応する人体矩形領域は,ビデオカメラ4の撮影領域外に移動したと判断し,トラッキング対象外とする。 Even if the first tracking process and the second tracking process are executed, if there is a Human object that is not associated with the human body rectangular area of N frames, the human body rectangular area corresponding to this Human object is displayed on the video camera. 4 is determined to have moved out of the shooting area, and is excluded from tracking.
第2のトラッキング処理の結果を示すトラッキングログを記憶すると,Humanオブジェクトに対応付けられなかった人体矩形領域がNフレームにあるか確認し(S16),この人体矩形領域があれば,この人体矩形領域に対応するHumanオブジェクトを新規に生成し,この人体矩形領域をトラッキング対象に新規に追加する(S17)。 When the tracking log indicating the result of the second tracking process is stored, it is checked whether there is a human body rectangular area that is not associated with the Human object in the N frame (S16). A human object corresponding to is newly generated, and this human body rectangular area is newly added to the tracking target (S17).
なお,新規に生成したHumanオブジェクトの位置・矩形サイズには,新規に生成したHumanオブジェクトに対応付けられた人体矩形領域の位置・矩形サイズが用いられる。また,広告効果測定装置2のトラッキング手段23は,Humanオブジェクトに対応付けられなかった人体矩形領域内の画像から色特徴量を求め,新規に生成したHumanオブジェクトに付与する。
Note that the position / rectangular size of the human rectangular area associated with the newly generated Human object is used as the position / rectangular size of the newly generated Human object. Further, the tracking means 23 of the advertisement
広告効果測定装置2のトラッキング手段23は,新規にHumanオブジェクトを生成すると,新規に生成したHumanオブジェクトのトラッキングログを記憶した後(S18),図7の手順は終了する。
When the
広告効果測定装置2のトラッキング手段23は,新規に生成したHumanオブジェクト毎にトラッキングログを生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,Humanオブジェクトの位置・矩形サイズを含ませる。
The tracking means 23 of the advertisement
また,新規に生成したHumanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。 When a viewing flag is associated with a human body rectangular area associated with a newly generated Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.
なお,図7のS16において,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトが無ければ,新規にHumanオブジェクトを生成することなく,図7の手順は終了する。 If there is no Human object whose position / size has not been updated in the first tracking process in S16 of FIG. 7, the procedure of FIG. 7 ends without generating a new Human object.
最後に,広告効果測定装置2の広告効果測定手段25について説明する。広告効果測定装置2の広告効果測定手段25は,トラッキング手段23によって記憶されたトラッキングログを集計処理し,集計処理の結果を記したログファイルを出力する手段である。
Finally, the advertisement effect measuring means 25 of the advertisement
本実施形態では,広告効果測定装置2の広告効果測定手段25は,デジタルサイネージ3の視認率を出力する集計処理1と,デジタルサイネージ3の前にいる滞留時間を出力する集計処理2と,デジタルサイネージ3の閲覧時間を出力する集計処理3と,人体矩形領域の位置の軌跡を出力する集計処理4と,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)を出力する集計処理5に対応している。
In this embodiment, the advertisement effect measuring means 25 of the advertisement
デジタルサイネージ3の視認率を出力する集計処理1は,一定期間(例えば,1時間)が経過する毎に実行され,広告効果測定装置2の広告効果測定手段25は,日時が一定期間に含まれるトラッキングログを対象とし,デジタルサイネージ3の前にいた総人数と,デジタルサイネージ3の閲覧者の人数と,閲覧者の人数を総人数で除算した視認率を含む視認率ログファイルを出力する。
The
デジタルサイネージ3の前にいた総人数は,対象となるトラッキングログに記されたHumanIDの数を,HumanIDが重複することなくカウントすることで得られる。また,デジタルサイネージ3の閲覧者の人数は,閲覧フラグが含まれるトラッキングログのみを対象とし,トラッキングログに記されたHumanIDの数を,HumanIDが重複することなくカウントすることで得られる。
The total number of people in front of the
デジタルサイネージ3の前にいる滞留時間を出力する集計処理2は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanID,トラッキング開始日時及びトラッキング終了日時が含まれる滞留時間ログファイルを出力する。
The
この集計処理2では,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログの日時が参照され,最も古い日時がトラッキング開始日時とし利用され,最も新しい日時がトラッキング終了日時として利用される。
In the
デジタルサイネージ3の閲覧時間を出力する集計処理3は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanID,閲覧開始日時及び閲覧終了日時が含まれる滞留時間ログファイルを出力する。
The
この集計処理3では,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログの中から,閲覧フラグが含まれるトラッキングログが対象とされ,このトラッキングログに含まれる日時の中から,最も古い日時が閲覧開始日時とし利用され,最も新しい日時が閲覧終了日時とし利用される。
In this
人体矩形領域の位置の軌跡を出力する集計処理4は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログを一つにまとめた位置ログファイルを出力する。
The
デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)を出力する集計処理5は,一定期間(例えば,1日)が経過する毎に実行され,広告効果測定装置2の広告効果測定手段25は,日時が一定期間に含まれるトラッキングログに含まれるHumanIDと人物属性の対を含む人物属性ログファイルを出力する。
The
この集計処理5では,日時が一定期間に含まれるトラッキングログの中から,閲覧フラグを含むトラッキングログが対象とされ,このトラッキングログに含まれるHumanIDと人物属性の対が,HumanIDが重複したものを除いて抽出される。
In this
(変形例1)
ここから、上述した実施形態の変形例について説明する。図4の人体検出処理S2において、一人の人物に対して複数の人体矩形領域が検出されるケースがあるため、変形例1は、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合するようにした実施形態である。
(Modification 1)
From here, the modification of embodiment mentioned above is demonstrated. In the human body detection process S2 of FIG. 4, there are cases where a plurality of human body rectangular areas are detected for a single person. Therefore, in the first modification, a plurality of human body rectangular areas that can be determined as the same person are represented by one human body rectangle. This is an embodiment that is integrated into a region.
同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合するようにした変形例1においては、上述した実施形態と、図4の人体検出処理S2の内容が異なるため、変形例1における人体検出処理について説明する。 In the first modification in which a plurality of human body rectangular areas that can be determined as the same person are integrated into one human body rectangular area, the contents of the human body detection process S2 in FIG. 1 will be described.
まず、変形例1における人体検出処理について説明する。図11は、変形例1における人体検出処理を説明するフロー図である。変形例1における人体検出処理において、変形例1に係る広告効果測定装置2の人体検出手段21は、人体検出処理を実行する際、まず、上述した実施形態と同様に、HOG特徴量を用いたAdaboostアルゴリズムによる人体検出法により、Nフレーム内における人体矩形領域を全て検出する(S20)。
First, the human body detection process in the first modification will be described. FIG. 11 is a flowchart for explaining the human body detection process in the first modification. In the human body detection process according to the first modification, the human
次に、変形1に係る広告効果測定装置2の人体検出手段21は、上述した実施形態と同様に、図4の前景マスク処理S1で得られた前景マスクを参照し,Nフレームから検出された人体矩形領域の中から、誤検出して扱う人体矩形領域を特定する処理を行い(S21)、誤検出して扱う人体矩形領域はこれ以降の処理で利用しない。
Next, the human body detecting means 21 of the advertising
次に、変形例1に係る広告効果測定装置2の人体検出手段21は、指定のクラスタリング手法により、誤検出して扱われない複数の人体矩形領域をクラスタに切り分けて、同じクラスタに属する該人体矩形領域を一つに統合する統合処理を実行して(S22)、図11のフローは終了する。
Next, the human body detecting means 21 of the advertising
統合処理において、変形例に係る広告効果測定装置2の人体検出手段21は、同一の人物と判定できる複数の人体矩形領域をクラスタリングする手法として、数式2で示したMeanShiftクラスタリングを用い、誤検出と特定されなかった人体矩形領域それぞれについて、該人体矩形領域の中心座標からMeanShift Vectorを算出することで、該人体矩形領域をMeanShiftクラスタリングし、クラスタリングした後の該人体矩形領域それぞれの重心を求める。
そして、変形例1に係る広告効果測定装置2の人体検出手段21は、誤検出と特定されなかった人体矩形領域それぞれについてクラスタリングした後の重心を求めると、Nearest Neighbor法(最近傍決定則)により、該重心を統合する処理を行うことで、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合する。なお、統合された後の人体矩形領域の位置は、Nearest Neighbor法により重心が統合された位置になり、人体矩形領域の矩形サイズは、重心が統合された人体矩形領域の矩形サイズを統合した矩形サイズになる。
Then, the human body detecting means 21 of the advertising
図11で図示したフローにおいて、誤検出として扱う人体矩形領域を特定する処理を行った後に、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合する統合処理を実行することで、人物の形状と類似しているオブジェクト(例えば、梯子、柱等)を人体矩形領域と誤検出した際、該オブジェクトに係る領域が統合されるのを防止できる効果が得られる。 In the flow illustrated in FIG. 11, after performing a process of specifying a human body rectangular area to be treated as a false detection, an integration process for integrating a plurality of human body rectangular areas that can be determined as the same person into one human body rectangular area is performed. Thus, when an object similar to the shape of a person (for example, a ladder, a pillar, etc.) is erroneously detected as a human body rectangular area, it is possible to prevent the areas related to the object from being integrated.
図12は、変形例1の効果を説明する図である。図12(a)は、図11の人体検出処理において検出された人体矩形領域を図示している。図12(a)では、人物の形状と類似しているオブジェクトとして脚立10dを図示し、図12(a)には、人物10a〜cを検出した人体矩形領域11a〜cと、脚立10dを誤検出した人体矩形領域11dが含まれている。 FIG. 12 is a diagram for explaining the effect of the first modification. FIG. 12A illustrates a human body rectangular area detected in the human body detection process of FIG. In FIG. 12A, a stepladder 10d is illustrated as an object similar to the shape of a person. In FIG. The detected human body rectangular area 11d is included.
図12(b)は、図12(a)の状態で統合処理を行ったときの図で、図12(a)の状態から統合処理を行うと、図12の人物10cに関しては、人物10cと脚立10dの距離が近いため、人物10cに係る人体矩形領域11cと脚立10dに係る人体矩形領域11dが含むように人体矩形領域が統合されてしまう。 12B is a diagram when the integration process is performed in the state of FIG. 12A, and when the integration process is performed from the state of FIG. 12A, the person 10c in FIG. Since the distance of the stepladder 10d is short, the human body rectangular area is integrated so that the human body rectangular area 11c related to the person 10c and the human body rectangular area 11d related to the stepladder 10d are included.
図12(c)は、誤検出として扱われない人体矩形領域を図示している。脚立10dに係る人体矩形領域11dにおいては、前景マスクと人体矩形領域が重なり合う領域である前景領域の割合が少なくなるため、脚立10dに係る人体矩形領域11dは誤検出として扱われることになり、誤検出として扱われない人体矩形領域は、人物10a〜cを検出した人体矩形領域11a〜cになるため、統合処理を行ったとしても、人物の形状と類似しているオブジェクトの影響を受けずに済むようになる。 FIG. 12C illustrates a human body rectangular region that is not treated as a false detection. In the human rectangular area 11d related to the stepladder 10d, the ratio of the foreground area, which is an area where the foreground mask and the human rectangular area overlap, is reduced, so that the human rectangular area 11d related to the stepladder 10d is treated as a false detection. Since the human body rectangular area that is not treated as detection becomes the human body rectangular areas 11a to 11c in which the persons 10a to 10c are detected, even if the integration process is performed, the human body rectangular area is not affected by an object similar to the shape of the person. It will be over.
(変形例2)
次に、変形例2について説明する。変形例2は、正規化した後の人体矩形領域のサイズが分かるため、正規化した後の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを決定するようにした実施形態である。
(Modification 2)
Next,
上述した実施形態では、人体矩形領域の画像を所定サイズに正規化してから顔検出を行い、顔検出開始時の探索サイズを大幅に変更する必要をなくしているが、システムを設置する際、システムの設置状況に合わせて正規化した後の人体矩形領域のサイズは調整されるため、正規化した後の人体矩形領域のサイズに応じて顔検出開始時の探索サイズを自動的に決定できるようにすると、顔検出の処理速度の向上や、顔検出の誤検出を防止する効果が期待できる。 In the embodiment described above, face detection is performed after normalizing the image of the human body rectangular area to a predetermined size, and it is not necessary to significantly change the search size at the start of face detection. Since the size of the human rectangular area after normalization is adjusted according to the installation status of the human body, the search size at the start of face detection can be automatically determined according to the size of the human rectangular area after normalization Then, an effect of improving the processing speed of face detection and preventing erroneous detection of face detection can be expected.
図13は、変形例2における顔検出処理のフローを説明する図である。変形例2においても、上述した実施形態と同様に、変形例2に係る広告効果測定装置2の顔検出手段22は、顔検出の対象となる人体矩形領域を所定サイズに正規化する処理を実行した後(S30)、正規化した後の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを演算する(S31)。例えば、正規化した後の人体矩形領域のサイズと顔検出開始時の探索サイズの比率を予め設定しておき、正規化した後の人体矩形領域のサイズに該比率を乗算することで、顔検出を開始する際の探索サイズの最低サイズを演算できる。そして、変形例2に係る広告効果測定装置2の顔検出手段22は、顔検出開始時の探索サイズを演算すると、演算したサイズの探索サイズから開始して、正規化した人物矩形領域から顔矩形領域を検出する(S32)。
FIG. 13 is a diagram illustrating a flow of face detection processing in the second modification. Also in the second modification, as in the above-described embodiment, the
図14は、変形例2の効果を説明する図で、顔検出開始時の識別器のサイズを演算する処理の有無に応じた処理速度を示している。図14は、1280×280の画像中において、5名の被写体を等間隔に並ばせ、カメラより6mの位置から、徐々に近づいてくる映像に対して処理をした結果である。図14に図示したように、正規化する前の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを演算することで、1秒間に処理できるフレーム数が約2倍になる効果が得られた。 FIG. 14 is a diagram for explaining the effect of the second modification, and shows the processing speed according to the presence / absence of processing for calculating the size of the discriminator at the start of face detection. FIG. 14 shows the result of processing a video approaching gradually from a position 6 m away from the camera by arranging five subjects at equal intervals in a 1280 × 280 image. As shown in FIG. 14, the number of frames that can be processed per second is approximately doubled by calculating the search size at the start of face detection according to the size of the human body rectangular area before normalization. Obtained.
1 広告効果測定システム
2 広告効果測定装置
20 背景除去手段
21 人体検出手段
22 顔検出手段
23 トラッキング手段
24 人物属性算出手段
25 広告効果測定手段
3 デジタルサイネージ
3a ディスプレイ
4 ビデオカメラ
DESCRIPTION OF
Claims (11)
A computer program for causing a computer to function as the advertisement effect measuring device according to any one of claims 1 to 10.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011032870A JP2011210238A (en) | 2010-03-10 | 2011-02-18 | Advertisement effect measuring device and computer program |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010053838 | 2010-03-10 | ||
| JP2010053838 | 2010-03-10 | ||
| JP2011032870A JP2011210238A (en) | 2010-03-10 | 2011-02-18 | Advertisement effect measuring device and computer program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011210238A true JP2011210238A (en) | 2011-10-20 |
Family
ID=44941170
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011032870A Pending JP2011210238A (en) | 2010-03-10 | 2011-02-18 | Advertisement effect measuring device and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011210238A (en) |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013114536A (en) * | 2011-11-30 | 2013-06-10 | Seiko Epson Corp | Safety support apparatus and safety support method |
| KR101411058B1 (en) | 2012-06-25 | 2014-06-27 | 인텔 코오퍼레이션 | Video analytics test system |
| JP2015524098A (en) * | 2012-06-26 | 2015-08-20 | インテル・コーポレーション | Method and apparatus for measuring audience size for digital signs |
| US9413925B2 (en) | 2013-10-30 | 2016-08-09 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| JP2016224953A (en) * | 2015-05-29 | 2016-12-28 | ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation | Cross-spectral feature correlation for navigation adjustment |
| US20170140421A1 (en) * | 2012-06-25 | 2017-05-18 | Google Inc. | System and method for deploying ads based on a content exposure interval |
| JP2018060360A (en) * | 2016-10-05 | 2018-04-12 | 日本電信電話株式会社 | Person number estimation method, person number estimation device, person number estimation program and recording medium |
| US10013978B1 (en) | 2016-12-30 | 2018-07-03 | Google Llc | Sequence dependent operation processing of packet based data message transmissions |
| JP2018106282A (en) * | 2016-12-22 | 2018-07-05 | セコム株式会社 | Object detection device |
| JP2018205870A (en) * | 2017-05-31 | 2018-12-27 | Kddi株式会社 | Object tracking method and apparatus |
| US10417666B2 (en) | 2017-08-10 | 2019-09-17 | Toyota Jidosha Kabushiki Kaisha | Digital signage control device, digital signage control method, and recording medium |
| US10614801B2 (en) | 2012-06-25 | 2020-04-07 | Google Llc | Protocol based computer network exposure interval content item transmission |
| JP2020514922A (en) * | 2017-03-21 | 2020-05-21 | ケロッグ カンパニー | Media content tracking |
| US10957002B2 (en) | 2010-08-06 | 2021-03-23 | Google Llc | Sequence dependent or location based operation processing of protocol based data message transmissions |
| KR102289892B1 (en) * | 2020-03-24 | 2021-08-13 | (주)디비퍼스트 | Method of calculating the exposure number for truck ads |
| US11218434B2 (en) | 2013-06-12 | 2022-01-04 | Google Llc | Audio data packet status determination |
| WO2022180766A1 (en) * | 2021-02-26 | 2022-09-01 | 日本電気株式会社 | Video data processing apparatus, method, and non-transitory computer-readable medium |
| WO2023047645A1 (en) * | 2021-09-21 | 2023-03-30 | ソニーグループ株式会社 | Information processing device, image processing method, and program |
| CN116964645A (en) * | 2022-02-23 | 2023-10-27 | 京东方科技集团股份有限公司 | Traffic statistics method and device |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1048008A (en) * | 1996-08-02 | 1998-02-20 | Omron Corp | Attention information measuring method and apparatus, and various systems using the same |
| JP2005228042A (en) * | 2004-02-13 | 2005-08-25 | Honda Motor Co Ltd | Face identification device, face identification method, and face identification program |
| JP2006065447A (en) * | 2004-08-25 | 2006-03-09 | Nippon Telegr & Teleph Corp <Ntt> | Classifier setting device, attention level measuring device, classifier setting method, attention level measuring method, and program |
| JP2007172052A (en) * | 2005-12-19 | 2007-07-05 | Toyota Motor Corp | Mobile object recognition device |
| JP2008537815A (en) * | 2005-03-17 | 2008-09-25 | 本田技研工業株式会社 | Pose estimation based on critical point analysis |
| JP2008305379A (en) * | 2007-06-11 | 2008-12-18 | Mitsubishi Electric Research Laboratories Inc | Method for selecting advertisement and system for obtaining amount of time when consumer views advertising display |
| JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device |
| JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measurement system, and display effect measurement method |
| JP2010003177A (en) * | 2008-06-20 | 2010-01-07 | Secom Co Ltd | Image processing device |
-
2011
- 2011-02-18 JP JP2011032870A patent/JP2011210238A/en active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1048008A (en) * | 1996-08-02 | 1998-02-20 | Omron Corp | Attention information measuring method and apparatus, and various systems using the same |
| JP2005228042A (en) * | 2004-02-13 | 2005-08-25 | Honda Motor Co Ltd | Face identification device, face identification method, and face identification program |
| JP2006065447A (en) * | 2004-08-25 | 2006-03-09 | Nippon Telegr & Teleph Corp <Ntt> | Classifier setting device, attention level measuring device, classifier setting method, attention level measuring method, and program |
| JP2008537815A (en) * | 2005-03-17 | 2008-09-25 | 本田技研工業株式会社 | Pose estimation based on critical point analysis |
| JP2007172052A (en) * | 2005-12-19 | 2007-07-05 | Toyota Motor Corp | Mobile object recognition device |
| JP2008305379A (en) * | 2007-06-11 | 2008-12-18 | Mitsubishi Electric Research Laboratories Inc | Method for selecting advertisement and system for obtaining amount of time when consumer views advertising display |
| JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device |
| JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measurement system, and display effect measurement method |
| JP2010003177A (en) * | 2008-06-20 | 2010-01-07 | Secom Co Ltd | Image processing device |
Non-Patent Citations (2)
| Title |
|---|
| 南竹俊介: "歩行者の注視情報と移動軌跡を利用したデジタル広告への視聴率測定", 第72回(平成22年)全国大会講演論文集(3), JPN6014042000, 8 March 2010 (2010-03-08), JP, pages 3 - 323, ISSN: 0002909874 * |
| 山内悠嗣: "Boostingに基づく特徴量の共起表現による人検出", 電子情報通信学会論文誌, vol. 第J92−D巻,第8巻, JPN6014042001, 1 August 2009 (2009-08-01), JP, pages 1125 - 1134, ISSN: 0002909875 * |
Cited By (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10957002B2 (en) | 2010-08-06 | 2021-03-23 | Google Llc | Sequence dependent or location based operation processing of protocol based data message transmissions |
| JP2013114536A (en) * | 2011-11-30 | 2013-06-10 | Seiko Epson Corp | Safety support apparatus and safety support method |
| US20170140421A1 (en) * | 2012-06-25 | 2017-05-18 | Google Inc. | System and method for deploying ads based on a content exposure interval |
| US20170293936A1 (en) * | 2012-06-25 | 2017-10-12 | Google Inc. | Content exposure interval based content item deployment |
| US10614801B2 (en) | 2012-06-25 | 2020-04-07 | Google Llc | Protocol based computer network exposure interval content item transmission |
| KR101411058B1 (en) | 2012-06-25 | 2014-06-27 | 인텔 코오퍼레이션 | Video analytics test system |
| US10740788B2 (en) | 2012-06-25 | 2020-08-11 | Google Llc | Content exposure interval based content item deployment |
| US9767479B2 (en) * | 2012-06-25 | 2017-09-19 | Google Inc. | System and method for deploying ads based on a content exposure interval |
| JP2015524098A (en) * | 2012-06-26 | 2015-08-20 | インテル・コーポレーション | Method and apparatus for measuring audience size for digital signs |
| JP2016103292A (en) * | 2012-06-26 | 2016-06-02 | インテル・コーポレーション | Method and apparatus for measuring audience size for digital sign |
| US11218434B2 (en) | 2013-06-12 | 2022-01-04 | Google Llc | Audio data packet status determination |
| US9413925B2 (en) | 2013-10-30 | 2016-08-09 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| JP2016224953A (en) * | 2015-05-29 | 2016-12-28 | ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation | Cross-spectral feature correlation for navigation adjustment |
| JP2018060360A (en) * | 2016-10-05 | 2018-04-12 | 日本電信電話株式会社 | Person number estimation method, person number estimation device, person number estimation program and recording medium |
| JP2018106282A (en) * | 2016-12-22 | 2018-07-05 | セコム株式会社 | Object detection device |
| US10013978B1 (en) | 2016-12-30 | 2018-07-03 | Google Llc | Sequence dependent operation processing of packet based data message transmissions |
| US10854198B2 (en) | 2016-12-30 | 2020-12-01 | Google Llc | Sequence dependent operation processing of packet based data message transmissions |
| US11227307B2 (en) | 2017-03-21 | 2022-01-18 | Kellogg Company | Media content tracking of users' gazing at screens |
| JP2020514922A (en) * | 2017-03-21 | 2020-05-21 | ケロッグ カンパニー | Media content tracking |
| JP2018205870A (en) * | 2017-05-31 | 2018-12-27 | Kddi株式会社 | Object tracking method and apparatus |
| US10417666B2 (en) | 2017-08-10 | 2019-09-17 | Toyota Jidosha Kabushiki Kaisha | Digital signage control device, digital signage control method, and recording medium |
| KR102289892B1 (en) * | 2020-03-24 | 2021-08-13 | (주)디비퍼스트 | Method of calculating the exposure number for truck ads |
| WO2022180766A1 (en) * | 2021-02-26 | 2022-09-01 | 日本電気株式会社 | Video data processing apparatus, method, and non-transitory computer-readable medium |
| WO2023047645A1 (en) * | 2021-09-21 | 2023-03-30 | ソニーグループ株式会社 | Information processing device, image processing method, and program |
| JPWO2023047645A1 (en) * | 2021-09-21 | 2023-03-30 | ||
| CN116964645A (en) * | 2022-02-23 | 2023-10-27 | 京东方科技集团股份有限公司 | Traffic statistics method and device |
| US12530897B2 (en) | 2022-02-23 | 2026-01-20 | Boe Technology Group Co., Ltd. | Traffic statistics collection method and apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2011210238A (en) | Advertisement effect measuring device and computer program | |
| US9176987B1 (en) | Automatic face annotation method and system | |
| Ejaz et al. | Efficient visual attention based framework for extracting key frames from videos | |
| CN104573706B (en) | A kind of subject image recognition methods and its system | |
| CN102087702B (en) | Image processing device, image processing method | |
| US8805123B2 (en) | System and method for video recognition based on visual image matching | |
| US10956753B2 (en) | Image processing system and image processing method | |
| CN106663196B (en) | Method, system, and computer-readable storage medium for identifying a subject | |
| WO2021051545A1 (en) | Behavior identification model-based fall-down action determining method and apparatus, computer device, and storage medium | |
| CN113766330A (en) | Method and device for generating recommendation information based on video | |
| JP2013058060A (en) | Person attribute estimation device, person attribute estimation method and program | |
| CN111209897B (en) | Video processing method, device and storage medium | |
| WO2016187888A1 (en) | Keyword notification method and device based on character recognition, and computer program product | |
| WO2022188315A1 (en) | Video detection method and apparatus, electronic device, and storage medium | |
| CN103428406B (en) | Monitoring video analysis method and device | |
| WO2020135756A1 (en) | Video segment extraction method, apparatus and device, and computer-readable storage medium | |
| JP2011070629A5 (en) | ||
| JP2011070629A (en) | Advertising effect measurement system and advertising effect measurement device | |
| CN114067248A (en) | Behavior detection method, device, electronic device and storage medium | |
| US20120038602A1 (en) | Advertisement display system and method | |
| Xue et al. | Feature design for aesthetic inference on photos with faces | |
| A Alashbi et al. | Deep-Learning-CNN for detecting covered faces with Niqab | |
| Li et al. | A dataset and evaluation methodology for visual saliency in video | |
| JP5850188B2 (en) | Image display system | |
| CN111666976A (en) | Feature fusion method and device based on attribute information and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20130823 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131226 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140827 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141007 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150224 |