[go: up one dir, main page]

JP2011210238A - Advertisement effect measuring device and computer program - Google Patents

Advertisement effect measuring device and computer program Download PDF

Info

Publication number
JP2011210238A
JP2011210238A JP2011032870A JP2011032870A JP2011210238A JP 2011210238 A JP2011210238 A JP 2011210238A JP 2011032870 A JP2011032870 A JP 2011032870A JP 2011032870 A JP2011032870 A JP 2011032870A JP 2011210238 A JP2011210238 A JP 2011210238A
Authority
JP
Japan
Prior art keywords
rectangular area
human body
tracking
human
advertisement effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011032870A
Other languages
Japanese (ja)
Inventor
Yasuhisa Matsuba
靖寿 松葉
Kazumasa Koizumi
和真 小泉
Satoshi Tabata
聡 田端
Daishi Sei
大志 瀬井
Takahiro Okamoto
隆浩 岡本
Katsuhiro Umeumi
勝浩 梅海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011032870A priority Critical patent/JP2011210238A/en
Publication of JP2011210238A publication Critical patent/JP2011210238A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an advertisement effect measuring device capable of accurately measuring an audience rate for the number of persons viewing a display by measuring not only the number of persons browsing the display but also the number of persons in front of the display.SOLUTION: The advertisement effect measuring device 2 outputs at least an audience rate of a digital signage 3 as an index of the advertisement effect of the digital signage 3 by analyzing a frame contained in an image transmitted from a video camera 4 at predetermined time intervals, detecting a human body area from the frame, and further detecting a face area from the human body area.

Description

本発明は,ディスプレイの広告効果を測定するための技術に関する。なお,ディスプレイとは、液晶ディスプレイやプロジェクタを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)の他、ショーウインドウ、広告看板、店舗内の特定の商品陳列棚などを含む。   The present invention relates to a technique for measuring the advertising effectiveness of a display. The display includes a digital signage (Digital Signage), which is an advertising medium for displaying an advertisement using a liquid crystal display or a projector, as well as a show window, an advertisement signboard, a specific product display shelf in a store, and the like.

液晶ディスプレイやプロジェクタなどのディスプレイを用いて広告を表示する広告媒体であるデジタルサイネージ(Digital Signage)が,様々な場所に設置され始めている。デジタルサイネージを用いることで,動画や音声を用いた豊かなコンテンツの提供が可能になるばかりか,デジタルサイネージの設置場所に応じた効率的な広告配信が可能になるため,今後,デジタルサイネージのマーケット拡大が期待されている。   Digital signage, which is an advertising medium that displays advertisements using a display such as a liquid crystal display or a projector, has begun to be installed in various places. By using digital signage, not only will it be possible to provide rich content using video and audio, but it will also be possible to efficiently deliver advertisements according to the location of digital signage. Expansion is expected.

広告主がデジタルサイネージを導入するのにあたり,テレビの視聴率,新聞,雑誌の販売部数といったように,客観的な広告効果を広告主に提示することが必要になり,デジタルサイネージの広告効果に係わる発明としては,例えば,特許文献1及び特許文献2が開示されている。   When an advertiser introduces digital signage, it is necessary to present an objective advertising effect to the advertiser, such as the TV audience rating, the number of copies of newspapers and magazines, etc. As inventions, for example, Patent Literature 1 and Patent Literature 2 are disclosed.

特許文献1で開示されている発明では,デジタルサイネージが設置されているエリアの映像に存在する人物の顔矩形領域を認識し、認識した顔矩形領域から人物の視線方向を抽出することで,デジタルサイネージの広告効果として,広告表示装置を閲覧している閲覧者の人数と、認識した顔矩形領域から得られる閲覧者の属性(例えば,性別,年齢)が測定される。   In the invention disclosed in Patent Document 1, a human face rectangular area existing in an image of an area where digital signage is installed is recognized, and a person's line-of-sight direction is extracted from the recognized face rectangular area. As the advertisement effect of signage, the number of viewers browsing the advertisement display device and the attributes (for example, sex, age) of the viewer obtained from the recognized face rectangular area are measured.

特許文献2で開示されている発明は,閲覧者の顔矩形領域を認識することなく,デジタルサイネージが設置されているエリアにいた人物をトラッキングし,該エリア内に滞在した滞在時間から広告表示装置に注目した人数を計測する発明である。   The invention disclosed in Patent Document 2 tracks an individual who has been in an area where digital signage is installed without recognizing the rectangular area of the viewer's face, and displays an advertisement display device based on the stay time in the area. It is an invention for measuring the number of people who pay attention to.

特開2008-112401号公報JP 2008-112401 A 特許第3800257号公報Japanese Patent No. 3800257

広告効果の重要な指標の一つとして,ディスプレイの前にいる人のうち,ディスプレイを閲覧した人の割合を示す視認率が考えられるが,特許文献1で開示されている発明では,人物の顔のみを検出しているため視認率を測定することはできない。   One of the important indicators of the advertising effect is a view rate indicating the percentage of people who are viewing the display among the people in front of the display. In the invention disclosed in Patent Document 1, the face of a person is considered. It is impossible to measure the visibility rate because only the detection is detected.

また,特許文献2で開示されている発明では,人物を頭上から撮影し、髪の毛と顔の明るさや目・口の特徴から人物が向いている方向を推定しているため,人がうつむき加減になっていると,正確な閲覧者数を特定できず,広告効果として計測される視認率などの指標の信憑性がなくなってしまう問題がある。   In the invention disclosed in Patent Document 2, a person is photographed from above and the direction in which the person is facing is estimated from the brightness of hair and face and the characteristics of eyes and mouth. If this is the case, there is a problem that it is impossible to specify the exact number of viewers and the credibility of indicators such as the viewing rate measured as the advertising effect is lost.

そこで、本発明は、ディスプレイを閲覧した人数だけでなく、ディスプレイの前にいる人数も計測することにより、何人中何人見ていたかという視認率を精度よく測定することのできる広告効果測定装置及びコンピュータプログラムを提供することを目的とする。   Therefore, the present invention provides an advertisement effect measuring device and a computer that can accurately measure the number of people who are watching the display by measuring not only the number of people viewing the display but also the number of people in front of the display. The purpose is to provide a program.

上述した課題を解決する第1の発明は, ディスプレイの前にいる人物を撮影するカメラが撮影した映像を構成するフレームから、人体矩形領域の位置・サイズを検出する人体検出手段と,前記人体矩形領域内の画像から顔矩形領域の位置・サイズを検出する顔検出手段と,前記人体矩形領域内の画像の特徴量を用いて前後の前記フレームにおける前記人体矩形領域を対応付けることで前記人体矩形領域をトラッキングし,前記人体矩形領域の位置・サイズ,前記フレームが撮影された日時及び前記顔矩形領域の検出結果を含むトラッキングログを,トラッキング対象としている前記人体矩形領域毎に記憶するトラッキング手段と,前記トラッキングログを集計することで,トラッキング対象となった前記人体矩形領域の総数と,前記顔矩形領域が検出された前記人体矩形領域の数を求め,広告効果に係わる指標として視認率を出力する広告効果測定手段を備えたことを特徴とする広告効果測定装置である。   According to a first aspect of the present invention for solving the above-described problem, a human body detecting means for detecting a position / size of a human body rectangular area from a frame constituting an image captured by a camera that captures a person in front of a display, and the human body rectangle The human body rectangular area by associating the human body rectangular area in the preceding and succeeding frames with the face detection means for detecting the position and size of the face rectangular area from the image in the area, and using the feature amount of the image in the human body rectangular area Tracking means for storing the tracking log including the position / size of the human rectangular area, the date and time when the frame was captured, and the detection result of the facial rectangular area for each human rectangular area to be tracked, By counting the tracking logs, the total number of the human body rectangular areas to be tracked and the face rectangular area An advertisement effect measuring device comprising an advertisement effect measuring means for obtaining the number of the human body rectangular regions in which an area is detected and outputting a visual recognition rate as an index related to the advertisement effect.

第1の発明によれば,前記広告効果測定装置に前記人体検出手段と前記顔検出手段を備えさせることで,前記広告効果測定装置が,前記フレームに含まれる人物毎に,この人物が前記ディスプレイを閲覧したか否かを示す前記トラッキングログを記憶することができ,前記トラッキングログを集計すれば,前記ディスプレイを閲覧した人数だけでなく、前記ディスプレイの前にいる人数も計測することにより、何人中何人見ていたかという視認率を測定することができる。   According to the first invention, the advertisement effect measuring device includes the human body detecting means and the face detecting means, so that the advertisement effect measuring device can display the person for each person included in the frame. The tracking log indicating whether or not the user has browsed can be stored. If the tracking logs are aggregated, not only the number of people who have browsed the display but also the number of people in front of the display can be measured. You can measure the visibility of how many people were watching.

また,前記人体矩形領域内の画像から正面の前記顔矩形領域を検出するようにすることで,背景画像の一部を正面の前記顔矩形領域として誤検出することを防止でき,視認率の精度を高められるばかりか,顔検出に必要な処理時間も短縮することができる。   Further, by detecting the front face rectangular area from the image in the human body rectangular area, it is possible to prevent a part of the background image from being erroneously detected as the front face rectangular area, and accuracy of the visibility rate is reduced. As well as the processing time required for face detection.

更に,第2の発明は,第1の発明に記載の広告効果測定装置であって,前記トラッキング手段は,色特徴量を利用する第1のトラッキング手法及び局所特徴量を利用する第2のトラッキング手法に対応し,前記第1のトラッキング手法により前記人体矩形領域をトラッキングした後,前記第1のトラッキング手法によりトラッキングできなかった前記人体矩形領域を前記第2のトラッキング手法によりトラッキングすることを特徴とする。   Further, the second invention is the advertising effect measuring device according to the first invention, wherein the tracking means uses a first tracking method using a color feature and a second tracking using a local feature. Corresponding to a technique, and after tracking the human rectangular area by the first tracking technique, the human rectangular area that could not be tracked by the first tracking technique is tracked by the second tracking technique. To do.

第2の発明によれば,前記第2のトラッキング手法を用いることで物体の形状を認識できるため,オクルージョンが発生し前記第1のトラッキング手法により前記人体矩形領域をトラッキングができなくなっても,トラッキング手法を前記第2のトラッキング手法によりトラッキングすることで,前記人体矩形領域をトラッキングできるようになる。   According to the second invention, since the shape of the object can be recognized by using the second tracking method, even if the occlusion occurs and the human body rectangular area cannot be tracked by the first tracking method, the tracking is not performed. By tracking the method by the second tracking method, the human body rectangular region can be tracked.

更に,第3の発明は,第1の発明又は第2の発明に記載の広告効果測定装置であって,前記フレームと背景画像の差分を求めることで,前記背景画像以外の前景領域を示す前景マスクを生成する前景マスク生成手段を備え,前記人体検出手段は,前記フレームから検出した前記人体矩形領域毎に,前記人体矩形領域に対応する前記前景マスクの領域内における前記前景領域の割合を求め,前記割合が閾値未満の前記人体矩形領域を誤検出として扱い,前記トラッキング手段は,前記前景マスクを用いてマスク処理した後の前記フレームから前記人体矩形領域内の画像の特徴量を算出することを特徴とする。   Furthermore, a third invention is the advertising effect measurement device according to the first invention or the second invention, wherein a foreground indicating a foreground region other than the background image is obtained by obtaining a difference between the frame and the background image. Foreground mask generation means for generating a mask, and the human body detection means obtains a ratio of the foreground area in the foreground mask area corresponding to the human body rectangular area for each human body rectangular area detected from the frame. The human body rectangular area whose ratio is less than a threshold is treated as a false detection, and the tracking means calculates a feature amount of an image in the human body rectangular area from the frame after mask processing using the foreground mask. It is characterized by.

ディスプレイの前にいる人物を撮影するカメラの位置・アングルは固定で,カメラが撮影した映像には,時間的に移動しない背景画像が含まれることになり,第3の発明のように,前記前景マスクを用いて前記フレームから背景画像を除去できれば,精度よく人体矩形領域や顔矩形領域を検出できるようになる。   The position and angle of the camera that shoots the person in front of the display is fixed, and the video captured by the camera includes a background image that does not move in time. As in the third invention, the foreground If the background image can be removed from the frame using a mask, the human body rectangular area and the face rectangular area can be accurately detected.

更に、第4の発明は、第3の発明に記載の広告効果測定装置であって、前記人体検出手段は、指定のクラスタリング手法により、誤検出として扱わない前記人体矩形領域をクラスタに切り分けて、同じクラスタに属する該人体矩形領域を一つに統合する統合処理を実行することを特徴とする。   Further, a fourth invention is the advertising effect measurement device according to the third invention, wherein the human body detecting means divides the human rectangular area not treated as a false detection into clusters by a designated clustering method, An integration process for integrating the human rectangular regions belonging to the same cluster into one is executed.

上述した第4の発明によれば、一人の人物に対して複数の人体矩形領域が検出された場合であっても、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合できる。なお、第3の発明では、前景マスクを用いて前記人体矩形領域をクラスタに切り分けているため、同じクラスタに属する該人体矩形領域を一つに統合しても、人物の形状と類似しているオブジェクト(例えば、脚立、柱等)を人物と誤検出した領域が統合されることはない。   According to the fourth invention described above, a plurality of human body rectangular areas that can be determined as the same person are integrated into a single human body rectangular area even when a plurality of human body rectangular areas are detected for one person. it can. In the third invention, since the human rectangular area is divided into clusters using a foreground mask, even if the human rectangular areas belonging to the same cluster are integrated into one, it is similar to the shape of a person. A region in which an object (for example, a stepladder, a pillar, or the like) is erroneously detected as a person is not integrated.

更に,第5の発明は,第1の発明から第4の発明のいずれか一つに記載の広告効果測定装置であって,前記顔検出手段は,前記人体矩形領域内の画像を所定のサイズに正規化した後に前記顔矩形領域を検出することを特徴とする。   Furthermore, a fifth invention is the advertising effectiveness measuring device according to any one of the first to fourth inventions, wherein the face detecting means converts the image in the human body rectangular area to a predetermined size. The face rectangular area is detected after normalizing to.

上述した第5の発明によれば,検出された前記顔矩形領域のサイズが小さい場合であっても,前記人体矩形領域内の画像を所定サイズに正規化することで、顔検出対象領域が小さい場合は拡大処理されるため前記顔矩形領域を検出しやすくなる。   According to the fifth aspect described above, even when the size of the detected face rectangular area is small, the face detection target area is small by normalizing the image in the human body rectangular area to a predetermined size. In this case, since the enlargement process is performed, the face rectangular area can be easily detected.

更に、第6の発明は、第5の発明に記載の広告効果測定装置であって、前記顔検出手段は、前記人体矩形領域内の画像を所定のサイズに正規化した後、正規化した後の前記人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを決定することを特徴とする。   Further, a sixth invention is the advertising effect measurement device according to the fifth invention, wherein the face detection means normalizes the image in the human body rectangular area after normalizing to a predetermined size. The search size at the start of face detection is determined according to the size of the human body rectangular area.

更に、第6の発明によれば、正規化する前の人体矩形領域のサイズが分かるため、そのサイズに応じて顔検出開始時の探索サイズを決定するようにすると、顔検出の処理速度の向上や、顔検出の誤検出を防止する効果が得られる。   Furthermore, according to the sixth aspect of the invention, since the size of the human rectangular area before normalization is known, if the search size at the start of face detection is determined according to the size, the processing speed of face detection is improved. In addition, an effect of preventing erroneous detection of the face can be obtained.

更に,第7の発明は,第1の発明から第6の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域をトラッキングしていた時間を求め,広告効果に係わる指標として滞留時間を前記人体矩形領域毎に出力することを特徴とする。   Furthermore, a seventh invention is the advertising effect measuring device according to any one of the first to sixth inventions, wherein the advertising effect measuring means stores the tracking log for each human body rectangular region. The total time is obtained by tracking the human rectangular area, and the residence time is output for each human rectangular area as an index related to the advertising effect.

更に,第8の発明は,第1の発明から第7の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域から前記顔矩形領域を検出できた時間を求め,広告効果に係わる指標として閲覧時間を前記人体矩形領域毎に出力することを特徴とする。   Further, an eighth invention is the advertising effectiveness measuring device according to any one of the first invention to the seventh invention, wherein the advertising effectiveness measuring means records the tracking log for each human body rectangular area. By counting, the time during which the face rectangular area can be detected from the human rectangular area is obtained, and browsing time is output for each human rectangular area as an index related to the advertising effect.

更に,第9の発明は,第1の発明から第8の発明のいずれか一つに記載の広告効果測定装置であって,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として前記人体矩形領域の位置を前記人体矩形領域毎に出力することを特徴とする。   Furthermore, a ninth invention is the advertising effect measuring device according to any one of the first to eighth inventions, wherein the advertising effect measuring means stores the tracking log for each human body rectangular region. By counting, the position of the human body rectangular area is output for each human body rectangular area as an index related to the advertising effect.

更に,第10の発明は,第1の発明から第9の発明のいずれか一つに記載の広告効果測定装置であって,前記顔検出手段が検出した前記顔矩形領域から人物属性を特定する人物属性特定手段を備え,前記トラッキング手段は,前記顔矩形領域が検出できた前記人体矩形領域の前記トラッキングログに前記人物属性を含ませ、前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として人物属性を前記人体矩形領域毎に出力することを特徴とする。   Furthermore, the tenth invention is the advertising effect measurement device according to any one of the first invention to the ninth invention, wherein the person attribute is specified from the face rectangular area detected by the face detecting means. Human attribute specifying means, wherein the tracking means includes the person attribute in the tracking log of the human body rectangular area where the face rectangular area has been detected, and the advertising effectiveness measuring means includes the tracking log as the human body rectangle. By summing up for each area, a person attribute is output for each of the human body rectangular areas as an index related to the advertising effect.

また,広告効果に係わる指標としては,視認率ばかりでなく,第8の発明から第10の発明のように,滞留時間,閲覧時間,人体矩形領域の位置及びディスプレイを閲覧している人の人物属性(年齢・性別など)を出力できるようにすることが望ましい。   In addition, as an index related to the advertising effect, not only the viewing rate but also the dwell time, the viewing time, the position of the human body rectangular area, and the person of the person viewing the display as in the eighth to tenth inventions It is desirable to be able to output attributes (age, gender, etc.).

更に,第11の発明は,第1の発明から第10の発明のいずれか一つに記載の広告効果測定装置として,コンピュータを機能させるためのコンピュータプログラムである。   Furthermore, an eleventh aspect of the invention is a computer program for causing a computer to function as the advertisement effect measuring apparatus according to any one of the first to tenth aspects of the invention.

なお、第11の発明は,コンピュータプログラムに係わる発明である。   The eleventh invention relates to a computer program.

上述した発明によれば,ビデオカメラが撮影した映像に含まれる人体や顔を精度良く検出することのできる広告効果測定装置及びコンピュータプログラムを提供できる。   According to the above-described invention, it is possible to provide an advertisement effect measuring apparatus and a computer program that can accurately detect a human body and a face included in an image captured by a video camera.

広告効果測定システムの構成を説明する図。The figure explaining the structure of an advertising effectiveness measurement system. 広告効果測定装置のハードウェアブロック図。The hardware block diagram of an advertisement effect measuring apparatus. 広告効果測定装置の機能ブロック図。The functional block diagram of an advertisement effect measuring apparatus. 広告効果測定装置がフレームを解析する処理を説明するフロー図。The flowchart explaining the process which an advertising effectiveness measurement apparatus analyzes a flame | frame. 前景マスクを模式的に説明する図。The figure which illustrates a foreground mask typically. 人体矩形領域の誤検出を説明する図。The figure explaining the false detection of a human body rectangular area. トラッキング処理の詳細を説明する図。The figure explaining the detail of a tracking process. マスク処理を説明する図。The figure explaining a mask process. 第2のトラッキング手法を説明する図。The figure explaining the 2nd tracking method. 第2のトラッキング手法の説明を補足する図。The figure which supplements description of a 2nd tracking method. 変形例1における人体検出処理を説明するフロー図。The flowchart explaining the human body detection process in the modification 1. 変形例1の効果を説明する図。The figure explaining the effect of the modification 1. FIG. 変形例2における顔検出処理のフローを説明する図。The figure explaining the flow of the face detection process in the modification 2. 変形例2の効果を説明する図。The figure explaining the effect of the modification 2. FIG.

ここから,本願発明の実施形態について,本願発明の技術分野に係わる当業者が,本願発明の内容を理解し,本願発明を実施できる程度に説明する。   From this, the embodiments of the present invention will be described to the extent that those skilled in the art of the present invention can understand the contents of the present invention and implement the present invention.

本実施形態は,街頭などに設置されるデジタルサイネージ3の広告効果の測定に本発明を適用した形態で,図1は,広告効果測定装置2が設置された広告効果測定システム1の構成を説明する図である。   In the present embodiment, the present invention is applied to the measurement of the advertising effect of the digital signage 3 installed on the street or the like. FIG. 1 illustrates the configuration of the advertising effect measuring system 1 in which the advertising effect measuring device 2 is installed. It is a figure to do.

図1で図示したように,広告効果測定システム1には,街頭や店舗などに設置され,ディスプレイ3a(図1ではディスプレイ)を用いて広告映像を表示する広告媒体であるデジタルサイネージ3が含まれる。なお,デジタルサイネージ3には,広告映像を再生するディスプレイ3aの他に,デジタルサイネージ3で再生する広告映像を制御するサーバが含まれるが,該サーバは図1には図示していない。   As shown in FIG. 1, the advertisement effect measurement system 1 includes a digital signage 3 that is installed in a street or a store and displays an advertisement video using a display 3a (display in FIG. 1). . The digital signage 3 includes a server for controlling the advertising video reproduced by the digital signage 3 in addition to the display 3a for reproducing the advertising video, but this server is not shown in FIG.

デジタルサイネージ3のディスプレイ3a上には,ディスプレイ3aで再生されている広告映像を見ている人物の顔が撮影されるようにアングルが設定されたビデオカメラ4が設置されている。   On the display 3a of the digital signage 3, a video camera 4 having an angle set so that a face of a person who is watching an advertisement image reproduced on the display 3a is photographed is installed.

このビデオカメラ4で撮影された映像は,USBポートなどを利用して広告効果測定装置2に入力され,広告効果測定装置2は,ビデオカメラ4から送信された映像に含まれるフレームを所定の間隔で解析し,フレームから人体矩形領域を検出し,更に,人体矩形領域から顔矩形領域を検出することで,デジタルサイネージ3の広告効果の指標(例えば,デジタルサイネージ3の視認率)を出力する。   The video shot by the video camera 4 is input to the advertisement effect measuring device 2 using a USB port or the like, and the advertising effect measuring device 2 uses the frames included in the video transmitted from the video camera 4 at predetermined intervals. And detecting a human body rectangular area from the frame, and further detecting a face rectangular area from the human body rectangular area, thereby outputting an advertisement effect index of the digital signage 3 (for example, the visibility of the digital signage 3).

図1で図示した広告効果測定システム1を構成する装置において,デジタルサイネージ3及びビデオカメラ4は市販の装置を利用できるが,広告効果測定装置2は,従来技術にはない特徴を備えているため,ここから,広告効果測定装置2について詳細に説明する。   In the apparatus constituting the advertisement effect measurement system 1 illustrated in FIG. 1, commercially available apparatuses can be used for the digital signage 3 and the video camera 4, but the advertisement effect measurement apparatus 2 has features that are not found in the prior art. From here, the advertisement effect measuring apparatus 2 will be described in detail.

図2は,広告効果測定システム1を構成する広告効果測定装置2のハードウェアブロック図,そして,図3は,広告効果測定装置2の機能ブロック図である。   FIG. 2 is a hardware block diagram of the advertisement effect measuring device 2 constituting the advertisement effect measuring system 1, and FIG. 3 is a functional block diagram of the advertisement effect measuring device 2.

広告効果測定装置2は汎用のコンピュータを利用して実現することができ,汎用のコンピュータと同様なハードウェアを広告効果測定装置2は備え,図2では,該ハードウェアとして,CPU2a(CPU: Central Processing Unit)と、BIOSが実装されるROM2b(ROM: Read-Only Memory)と、コンピュータのメインメモリであるRAM2c(RAM: Random Access Memory)と、外部記憶装置として大容量のデータ記憶装置2d(例えば,ハードディスク)と,外部デバイスとデータ通信するための入出力インターフェース2eと、ネットワーク通信するためのネットワークインターフェース2fと、表示デバイス2g(例えば,液晶ディスプレイ)と,文字入力デバイス2h(例えば,キーボード)と,ポインティングデバイス2i(例えば,マウス)を記載している。   The advertisement effect measuring device 2 can be realized by using a general-purpose computer. The advertisement effect measuring device 2 includes hardware similar to that of a general-purpose computer. In FIG. 2, as the hardware, a CPU 2a (CPU: Central: Processing Unit), ROM 2b (ROM: Read-Only Memory) in which BIOS is mounted, RAM 2c (RAM: Random Access Memory) which is a main memory of a computer, and a large-capacity data storage device 2d (for example, an external storage device) , Hard disk), input / output interface 2e for data communication with external devices, network interface 2f for network communication, display device 2g (for example, liquid crystal display), and character input device 2h (for example, keyboard) , Pointing device 2i (eg mouse) To have.

広告効果測定装置2のデータ記憶装置2dには,CPU2aを動作させるためのコンピュータプログラムが実装され,このコンピュータプログラムによって,広告効果測定装置2には図3で図示した手段が備えられる。   A computer program for operating the CPU 2a is installed in the data storage device 2d of the advertisement effect measuring device 2, and the advertisement effect measuring device 2 is provided with the means shown in FIG. 3 by this computer program.

図3で図示したように,広告効果測定装置2の入力は,ビデオカメラ4によって撮影された映像で,広告効果測定装置2の出力は,デジタルサイネージの広告効果の指標が記憶されたログファイルになる。   As shown in FIG. 3, the input of the advertising effectiveness measuring device 2 is an image taken by the video camera 4, and the output of the advertising effectiveness measuring device 2 is stored in a log file in which an index of the advertising effectiveness of digital signage is stored. Become.

広告効果測定装置2には,ビデオカメラ4が撮影した映像のフレームを解析する手段として,処理対象となるフレームから背景画像を除去することで,処理対象となるフレームと背景画像の差分を求め,背景画像以外の領域である前景領域を示す前景マスクを生成する前景マスク生成手段20と,フレームから人体矩形領域を検出する人体検出手段21と,人体検出手段21が検出した人体矩形領域に含まれる正面の顔矩形領域を検出する顔検出手段22と,人体矩形領域内の画像から得られる特徴量を用いて人体矩形領域をトラッキングし,トラッキングの結果を示すトラッキングログを記憶するトラッキング手段23を備えている。   The advertisement effect measuring device 2 obtains a difference between the frame to be processed and the background image by removing the background image from the frame to be processed as means for analyzing the frame of the video captured by the video camera 4. Included in the foreground mask generation means 20 for generating a foreground mask indicating a foreground area that is an area other than the background image, a human body detection means 21 for detecting a human body rectangular area from the frame, and a human body rectangular area detected by the human body detection means 21 Face detection means 22 for detecting a front face rectangular area, and tracking means 23 for tracking a human body rectangular area using a feature amount obtained from an image in the human body rectangular area and storing a tracking log indicating a tracking result. ing.

更に,本実施形態において,広告効果測定装置2は,デジタルサイネージ3を閲覧した人物の属性(年齢や性別)を得るために,顔矩形領域に含まれる画像から人物属性(年齢や性別)を推定する人物属性算出手段24を備えている。   Furthermore, in this embodiment, the advertising effectiveness measuring device 2 estimates the person attributes (age and gender) from the image included in the face rectangular area in order to obtain the attributes (age and gender) of the person who viewed the digital signage 3. A person attribute calculating means 24 is provided.

また,広告効果測定装置2には,デジタルサイネージ3の広告効果を測定するために,トラッキング手段23が記憶したトラッキングログの結果を集計したログファイルを出力する広告効果測定手段25を備えている。本実施形態では,広告効果測定装置2の広告効果測定手段25は,トラッキングログの結果を集計したログファイルとして,デジタルサイネージ3の視認率が記される視認率ログファイルと,デジタルサイネージ3の閲覧時間が記される閲覧時間ログファイルと,人体矩形領域の位置の軌跡が記される位置ログファイルと,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)が記される人物属性ログファイルを出力する。   Further, the advertisement effect measuring device 2 includes an advertisement effect measuring means 25 for outputting a log file obtained by counting the results of the tracking log stored by the tracking means 23 in order to measure the advertisement effect of the digital signage 3. In the present embodiment, the advertisement effect measuring means 25 of the advertisement effect measuring device 2 includes a visibility log file in which the visibility of the digital signage 3 is recorded and a browsing of the digital signage 3 as log files obtained by summing up the results of the tracking log. A browsing time log file in which time is recorded, a position log file in which the locus of the position of the human rectangular area is recorded, and a person attribute log in which the personal attributes (for example, age and gender) of the person who viewed the digital signage are recorded Output a file.

まず,ビデオカメラ4から送信された映像のフレームを広告効果測定装置2が解析する処理を説明しながら,ビデオカメラ4が撮影した映像のフレームを解析するために広告効果測定装置2に備えられた各手段について説明する。   First, the advertisement effect measuring apparatus 2 is provided to analyze the frame of the video captured by the video camera 4 while explaining the process of the advertising effect measuring apparatus 2 analyzing the frame of the video transmitted from the video camera 4. Each means will be described.

図4は,広告効果測定装置2がフレームを解析する処理を説明するフロー図である。広告効果測定装置2は,ビデオカメラ4の映像を一定間隔毎に解析する処理を実行し,広告効果測定装置2は,ビデオカメラ4の映像を解析するとき,まず,処理対象となるNフレームにおける前景マスクを生成する前景マスク生成処理S1を実行する。   FIG. 4 is a flowchart for explaining processing in which the advertisement effect measuring apparatus 2 analyzes a frame. The advertisement effect measuring device 2 executes processing for analyzing the video of the video camera 4 at regular intervals, and when the advertising effect measuring device 2 analyzes the video of the video camera 4, first, in the N frame to be processed. Foreground mask generation processing S1 for generating a foreground mask is executed.

広告効果測定装置2は,前景マスク生成処理S1を実行すると,前景マスクを利用して,Nフレームから人体矩形領域を検出する人体検出処理S2を実行した後,人体検出処理S2で検出された人体矩形領域から顔矩形領域を検出する顔検出処理S3を実行する。   When the foreground mask generation process S1 is executed, the advertisement effect measuring apparatus 2 uses the foreground mask to execute the human body detection process S2 for detecting the human body rectangular area from the N frames, and then detects the human body detected in the human body detection process S2. A face detection process S3 for detecting a face rectangular area from the rectangular area is executed.

そして,広告効果測定装置2は,顔検出処理S3を実行すると,顔検出処理S3で検出した顔矩形領域の人物属性を求める人物属性算出処理S4を実行した後,前景マスクを利用して,Nフレームの人体検出結果に基づき人体矩形領域の位置・サイズを更新することで人体矩形領域をトラッキングし,トラッキング結果を示すトラッキングログを記憶するトラッキング処理S5を実行し,この手順を終了する。   Then, after executing the face detection process S3, the advertisement effect measuring apparatus 2 executes the person attribute calculation process S4 for obtaining the person attribute of the face rectangular area detected in the face detection process S3, and then uses the foreground mask to A tracking process S5 for tracking the human body rectangular area by updating the position / size of the human body rectangular area based on the human body detection result of the frame and storing a tracking log indicating the tracking result is executed, and this procedure is terminated.

まず,前景マスク生成処理S1について説明する。前景マスク生成処理S1を担う手段は,広告効果測定装置2の前景マスク生成手段20である。広告効果測定装置2が前景マスク生成処理S1を実行するのは,図1に図示しているように,デジタルサイネージ3のディスプレイ3aの上部に設けられたビデオカメラ4の位置・アングルは固定であるため,ビデオカメラ4が撮影した映像には,時間的に移動しない背景画像が含まれることになり,処理対象となるフレームから背景画像を除去できれば,精度よく人体矩形領域や顔矩形領域を検出できるようになるからである。   First, the foreground mask generation process S1 will be described. The means responsible for the foreground mask generation processing S1 is the foreground mask generation means 20 of the advertisement effect measuring apparatus 2. The advertisement effect measuring device 2 executes the foreground mask generation processing S1 as shown in FIG. 1 in which the position and angle of the video camera 4 provided at the upper portion of the display 3a of the digital signage 3 are fixed. Therefore, the video captured by the video camera 4 includes a background image that does not move with time, and if the background image can be removed from the frame to be processed, the human body rectangular area and the face rectangular area can be detected with high accuracy. Because it becomes like this.

本実施形態において,広告効果測定装置2の背景除去手段20は,既存の技術である動的背景差分法を利用してNフレームと背景画像の差分を求めることで,Nフレームにおいて背景画像ではない前景領域が示された前景マスクを生成する。   In the present embodiment, the background removal unit 20 of the advertisement effect measuring apparatus 2 uses the dynamic background subtraction method that is an existing technology to obtain the difference between the N frame and the background image, and is not a background image in the N frame. A foreground mask indicating the foreground region is generated.

図5は,前景マスクを模式的に説明する図で,図5(a)は背景画像の一例,図5(b)はNフレームの一例,そして,図5(c)は前景マスクの一例である。図5(c)で図示した前景マスク5cを生成する際,図5(b)で図示したNフレーム5bにおいて,図5(a)で図示した背景画像5aではない領域が前景領域5dとして求められ,図5(c)で図示した前景マスク5cが生成される。   FIG. 5 is a diagram schematically illustrating the foreground mask. FIG. 5A is an example of a background image, FIG. 5B is an example of an N frame, and FIG. 5C is an example of a foreground mask. is there. When the foreground mask 5c illustrated in FIG. 5C is generated, an area other than the background image 5a illustrated in FIG. 5A is obtained as the foreground area 5d in the N frame 5b illustrated in FIG. 5B. , The foreground mask 5c illustrated in FIG. 5C is generated.

次に,広告効果測定装置2の人体検出手段21によって実行される人体検出処理S2について説明する。Nフレームから人体矩形領域を検出する人体検出方法としては様々な方法が考案されており,人体検出方法は任意に選択可能であるが,本実施形態では,一例として,人体検出手段21が実施する人体検出方法に,HOG(Histogram of Oriented Gradients)特徴量を用いたAdaboostアルゴリズムによる人体検出法を採用している。   Next, the human body detection process S2 executed by the human body detection means 21 of the advertisement effect measuring device 2 will be described. Various methods have been devised as a human body detection method for detecting a human body rectangular area from N frames, and the human body detection method can be arbitrarily selected. However, in this embodiment, the human body detection means 21 is implemented as an example. As a human body detection method, a human body detection method based on an Adaboost algorithm using HOG (Histogram of Oriented Gradients) features is adopted.

HOG特徴量を用いたAdaboostアルゴリズムによる人体検出法では,矩形の人体検出枠の位置や矩形サイズをNフレーム内で変更しながら,人体検出枠を複数に分割するセル毎にエッジの勾配方向ヒストグラムであるHOG特徴量を求め,弱識別器を組み合わせて構成される識別器にこのHOG特徴量を代入し,識別器のスコアが閾値以上になる人体検出枠の位置・矩形サイズが人体矩形領域として求められる。なお,弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法については,「N. Dalal and B. Triggs,"Histograms of Oriented Gradientstional Conference on Computer Vision,pp. 734-741,2003.」で述べれられている。   In the human body detection method using the Adaboost algorithm using the HOG feature amount, the position and rectangular size of the rectangular human body detection frame are changed within the N frame, and the edge gradient direction histogram is displayed for each cell that divides the human body detection frame into a plurality of cells. A certain HOG feature value is obtained, and this HOG feature value is assigned to a classifier configured by combining weak classifiers, and the position / rectangular size of the human body detection frame where the score of the classifier is equal to or greater than a threshold is obtained as a human body rectangular area It is done. For the human body detection method using the Adaboost algorithm using the HOG (Histogram of Oriented Gradients) feature as a weak classifier, see “N. Dalal and B. Triggs,” Histograms of Oriented Gradientstional Conference on Computer Vision, pp. 734-741. , 2003. "

なお,人体検出処理S2において,前景マスク生成処理S1によって得られた前景マスクは,広告効果測定装置2の人体検出手段21が,背景の一部を人体矩形領域として誤検出していないか確認するために利用される。   In the human body detection process S2, the foreground mask obtained by the foreground mask generation process S1 confirms whether or not the human body detection means 21 of the advertisement effect measuring apparatus 2 has erroneously detected a part of the background as a human body rectangular area. Used for.

広告効果測定装置2の人体検出手段21は,背景の一部の画像を人体矩形領域として誤検出していないか確認するとき,前景マスク処理S1で得られた前景マスクを参照し,Nフレームから検出された人体矩形領域毎に,前景マスクと人体矩形領域が重なり合う領域である前景領域の割合を特定し,前景領域の割合が閾値未満の人体矩形領域は誤検出であったと判断し,前景領域の割合が閾値未満の人体矩形領域はこれ以降の処理で利用されない。   The human body detecting means 21 of the advertising effect measuring apparatus 2 refers to the foreground mask obtained in the foreground mask processing S1 when checking whether a partial image of the background is erroneously detected as a human body rectangular area, and from the N frame. For each detected human rectangular area, the ratio of the foreground area, which is an area where the foreground mask and the human rectangular area overlap, is specified, and it is determined that a human rectangular area whose ratio of the foreground area is less than the threshold is a false detection. The human body rectangular area whose ratio is less than the threshold is not used in the subsequent processing.

図6は,人体矩形領域の誤検出を説明する図である。図6(a)はNフレームの一例で,図6(a)で図示したNフレーム6aには2本の柱6bが含まれ,柱6bの形状は人体の形状と似ているため,図6(a)で図示したNフレーム6aにおいて,広告効果測定装置2の人体検出手段21はこの柱6bを人体矩形領域6cとして誤検出している。   FIG. 6 is a diagram for explaining erroneous detection of the human body rectangular area. FIG. 6A is an example of an N frame. The N frame 6a illustrated in FIG. 6A includes two pillars 6b, and the shape of the pillar 6b is similar to the shape of a human body. In the N frame 6a shown in (a), the human body detecting means 21 of the advertising effect measuring apparatus 2 erroneously detects this pillar 6b as the human body rectangular area 6c.

図6(b)は前景マスクの一例で,図6(b)の前景マスク6dにおいて,Nフレーム6aの柱6bの人体矩形領域6cに対応する領域6eには前景領域が含まれていないため,広告効果測定装置2の人体検出手段21は,柱6bに対応する人体矩形領域柱6cを誤検出として取り扱うことになる。   FIG. 6B is an example of the foreground mask. In the foreground mask 6d of FIG. 6B, the region 6e corresponding to the human body rectangular region 6c of the column 6b of the N frame 6a does not include the foreground region. The human body detecting means 21 of the advertising effect measuring apparatus 2 treats the human body rectangular area column 6c corresponding to the column 6b as a false detection.

次に,広告効果測定装置2の顔検出手段22によって実行される顔検出処理S3について説明する。広告効果測定装置2の顔検出手段22は,広告効果測定装置2の人体検出手段21がNフレームから得た人体矩形領域毎に,人体矩形領域内の画像から正面の顔矩形領域を検出する処理を実行し,検出した顔矩形領域毎に,顔矩形領域の位置・矩形サイズが得られる。   Next, the face detection process S3 executed by the face detection unit 22 of the advertisement effect measuring apparatus 2 will be described. The face detection means 22 of the advertising effect measurement device 2 detects the front face rectangular area from the image in the human body rectangular area for each human body rectangular area obtained from the N frame by the human body detection means 21 of the advertising effect measurement apparatus 2. , And the position / rectangular size of the face rectangular area is obtained for each detected face rectangular area.

このように,人体矩形領域内の画像から正面の顔矩形領域を検出すると,背景の一部を正面の顔矩形領域として誤検出することを防止できるばかりか,顔検出処理S3に必要な処理時間も短縮することができる。   Thus, if the front face rectangular area is detected from the image in the human body rectangular area, it is possible not only to prevent erroneous detection of a part of the background as the front face rectangular area, but also the processing time required for the face detection process S3. Can also be shortened.

本実施形態では,広告効果測定装置2の顔検出手段22が実施する顔検出方法に,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を採用し,広告効果測定装置2の顔検出手段22は,人体矩形領域内の画像から顔矩形領域を検出する際,人体矩形領域の画像のサイズを所定のサイズ(画素数で定められるサイズ)に正規化する処理を実行した後、識別器を用いて顔を検出する領域のサイズである探索サイズを予め決定されたサイズから開始し、識別器を用いて探索サイズの領域内から顔を検出する処理を、正規化後の人体矩形領域内で探索サイズの領域の位置を移動させながら行うことで、正規化した画像から探索サイズに対応する大きさの顔矩形領域を検出し、さらに探索サイズを徐々に大きくして、探索サイズを所定の最大サイズとするまでこれを繰り返すことにより、正規化後の人体矩形領域から様々な大きさの顔矩形領域をもれなく検出するなお,弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法については,「Paul Viola and Michael J. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", IEEE CVPR, 2001.」,「Rainer Lienhart and Jochen Maydt, "An Extended Set of Haar-like Features for Rapid Object Detection", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」で述べられている。   In the present embodiment, the face detection method performed by the face detection means 22 of the advertisement effect measuring device 2 employs a face detection method based on the Adaboost algorithm using a black and white Haar-Like feature as a weak discriminator. When detecting the face rectangular area from the image in the human body rectangular area, the face detecting means 2 of 2 performs processing for normalizing the size of the image of the human body rectangular area to a predetermined size (size determined by the number of pixels). After that, the search size, which is the size of the area for detecting the face using the classifier, is started from a predetermined size, and the process for detecting the face from within the area of the search size using the classifier is performed after normalization. By moving the position of the search size area within the human body rectangular area, the face rectangular area corresponding to the search size is detected from the normalized image, and the search size is gradually increased to search By repeating this until the noise becomes the predetermined maximum size, all face rectangle areas of various sizes are detected from the normalized human body rectangle area. The black and white Haar-Like feature was used as a weak classifier. For face detection using the Adaboost algorithm, see “Paul Viola and Michael J. Jones,“ Rapid Object Detection using a Boosted Cascade of Simple Features ”, IEEE CVPR, 2001.”, “Rainer Lienhart and Jochen Maydt,“ An Extended Set of Haar-like Features for Rapid Object Detection ", IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002."

人体矩形領域の画像を所定サイズに正規化するのは,顔検出の未検出を少なくするためである。ビデオカメラ4から遠くにいる人物の顔矩形領域のサイズは,ビデオカメラ4の近くにいる人物の顔矩形領域のサイズよりも小さくなるため,顔矩形領域を検出しにくいが,人体矩形領域内の画像を所定サイズに正規化することで,ビデオカメラ4から遠くにいる人物の顔矩形領域のサイズは大きくなり,顔矩形領域を検出しやすくなるし,また,人体矩形領域に対して、明らかに小さいサイズを顔の探索対象から除外することができるため,安定して顔矩形領域を検出できるようになる。   The reason for normalizing the image of the human rectangular area to a predetermined size is to reduce the number of undetected faces. Since the size of the face rectangle area of the person far from the video camera 4 is smaller than the size of the face rectangle area of the person near the video camera 4, it is difficult to detect the face rectangle area. By normalizing the image to a predetermined size, the size of the face rectangular area of the person far away from the video camera 4 becomes large, and it becomes easy to detect the face rectangular area. Since the small size can be excluded from the search target of the face, the face rectangular area can be detected stably.

なお,広告効果測定装置2の顔検出手段22は,人体矩形領域内から顔矩形領域を検出できたとき,この人体矩形領域に対応する人物はデジタルサイネージ3を閲覧していたと判断できるため,この人体矩形領域に閲覧フラグを関連付けておく。   The face detection means 22 of the advertisement effect measuring apparatus 2 can detect that the person corresponding to the human body rectangular area is browsing the digital signage 3 when the face rectangular area can be detected from within the human body rectangular area. A viewing flag is associated with the human body rectangular area.

次に,広告効果測定装置2に備えられた人物属性算出手段24によって実行される人物属性算出処理S4ついて説明する。人物属性算出処理S4において,広告効果測定装置2に備えられた人物属性算出手段24は,顔検出処理S3で得られた顔矩形領域毎に,所定のアルゴリズムに従い顔矩形領域内の画像を解析することで人物属性(年齢・性別)を算出し,算出した人物属性を顔画像が検出された人体矩形領域に関連付けておく。   Next, the person attribute calculation process S4 executed by the person attribute calculation means 24 provided in the advertisement effect measuring apparatus 2 will be described. In the person attribute calculation process S4, the person attribute calculation means 24 provided in the advertising effect measurement device 2 analyzes the image in the face rectangle area according to a predetermined algorithm for each face rectangle area obtained in the face detection process S3. Thus, the person attribute (age / gender) is calculated, and the calculated person attribute is associated with the human body rectangular area where the face image is detected.

顔矩形領域から人物属性(年齢・性別)を推定する手法は,タバコの自動販売機などでも広く採用されており,例えば,特開2007―080057号公報の技術を利用できる。   A method for estimating a person attribute (age / gender) from a face rectangular area is widely used in cigarette vending machines and the like, and for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2007-080057 can be used.

次に,広告効果測定装置2のトラッキング手段23によって実行されるトラッキング処理S5について説明する。   Next, the tracking process S5 executed by the tracking unit 23 of the advertisement effect measuring apparatus 2 will be described.

人体矩形領域のトラッキング手法としては様々な手法が考案されているが,本実施形態において,広告効果測定装置2のトラッキング手段23は,人体矩形領域内の画像から算出される特徴量として色特徴量を利用する第1のトラッキング手法と,局所特徴量を利用する第2のトラッキング手法を組み合わせて人体矩形領域のトラッキングを行う。   Various methods have been devised as tracking methods for a human body rectangular area. In this embodiment, the tracking means 23 of the advertisement effect measuring apparatus 2 uses a color feature quantity as a feature quantity calculated from an image in the human body rectangular area. The human body rectangular region is tracked by combining the first tracking method using the second tracking method and the second tracking method using the local feature amount.

色特徴量を利用する第1のトラッキング手法と,局所特徴量を利用する第2のトラッキング手法を組み合わせて,人体矩形領域のトラッキングを行うのは,人体同士が重なり合うオクルージョンが発生すると人体矩形領域を検出することができないため,色特徴量を利用する第1のトラッキング手法のみでは,オクルージョンが発生すると人体矩形領域を見失ってしまうからである。   The tracking of the human body rectangular area is performed by combining the first tracking method that uses the color feature amount and the second tracking method that uses the local feature amount. When the occlusion where the human bodies overlap is generated, This is because detection cannot be performed, and only the first tracking method using the color feature amount loses sight of the human body rectangular area when occlusion occurs.

本実施形態において,前後のフレームにおける人体矩形領域を対応付けするために,広告効果測定装置2のトラッキング手段23によって,トラッキング対象となる人体矩形領域毎にHumanオブジェクトが生成され, このHumanオブジェクトの属性値には,Humanオブジェクトを識別するために付与されるHumanIDと,Humanオブジェクトに対応する人体矩形領域の位置・サイズと,人体色特徴量が少なくとも含まれる。   In the present embodiment, in order to associate the human body rectangular areas in the previous and subsequent frames, the tracking means 23 of the advertising effect measuring apparatus 2 generates a Human object for each human body rectangular area to be tracked, and attributes of this Human object The value includes at least a Human ID given to identify a Human object, the position / size of a human body rectangular area corresponding to the Human object, and a human body color feature amount.

図7は,トラッキング処理S4の詳細を説明する図である。処理対象となるNフレームを処理するとき,広告効果測定装置2のトラッキング手段23は,まず,前景マスク生成処理S1で得られたNフレームの前景マスクを用いてNフレームにマスクをかけるマスク処理(S10)を実行する。   FIG. 7 is a diagram for explaining the details of the tracking process S4. When processing the N frame to be processed, the tracking unit 23 of the advertising effect measuring apparatus 2 first performs a mask process for masking the N frame using the N frame foreground mask obtained in the foreground mask generation process S1 ( S10) is executed.

図8は,マスク処理(S10)を説明する図である。図8(a)ではNフレームを例示し,図8(b)ではNフレームの前景マスクを模式的に例示し,図8(c)ではマスク処理後のNフレームを例示している。   FIG. 8 is a diagram for explaining the mask processing (S10). 8A illustrates an N frame, FIG. 8B schematically illustrates an N frame foreground mask, and FIG. 8C illustrates an N frame after mask processing.

図8(b)で図示した前景マスク7bを用いて,図8(a)で図示したNフレーム7aにマスク処理をかけることで,Nフレーム7aの背景画像が除去され,人体画像のみが抽出され,図8で図示したマスク処理後のNフレーム7cが得られる。なお,図8において点線で図示している矩形は人体矩形領域を示し,ビデオカメラ4で撮影された絵柄ではない。   By applying a mask process to the N frame 7a shown in FIG. 8A using the foreground mask 7b shown in FIG. 8B, the background image of the N frame 7a is removed and only the human body image is extracted. , The N frame 7c after the mask processing shown in FIG. 8 is obtained. In addition, the rectangle illustrated by the dotted line in FIG. 8 indicates a human body rectangular area, and is not a picture taken by the video camera 4.

広告効果測定装置2のトラッキング手段23は,マスク処理(S10)を実行すると,マスク処理後のNフレームを用いて,色特徴量を用いる第1のトラッキング手法による第1のトラッキング処理を実行する(S11)。   When executing the mask process (S10), the tracking unit 23 of the advertisement effect measuring apparatus 2 executes the first tracking process by the first tracking method using the color feature amount using the N frame after the mask process ( S11).

色特徴量を用いる第1のトラッキング手法による第1のトラッキング処理では,Nフレームで検出された人体矩形領域内の画像から算出された色特徴量を用いて,Nフレームの時点で既に生成されているHumanオブジェクトにNフレームで検出された人体矩形領域を対応付ける処理が行われる。   In the first tracking process by the first tracking method using the color feature amount, the color feature amount calculated from the image in the human body rectangular area detected in the N frame is already generated at the time of the N frame. A process of associating the human body rectangular area detected in the N frame with the Human object is performed.

第1のトラッキング処理において,Nフレームで検出された人体矩形領域が対応付けられHumanオブジェクトに関しては,Humanオブジェクトに対応付けられた人体矩形領域の位置・サイズに,Humanオブジェクトの位置・サイズが更新され,更に,Humanオブジェクトに対応付けられた人体矩形領域の切り出し画像から得られる色特徴量に,Humanオブジェクトの色特徴量を更新する処理が実行される。   In the first tracking processing, the position and size of the Human object are updated to the position and size of the human body rectangular area associated with the Human object for the Human object associated with the human body rectangular area detected in the N frame. Further, a process of updating the color feature amount of the Human object to the color feature amount obtained from the cut-out image of the human rectangular area associated with the Human object is executed.

なお,色特徴量を用いて前後のフレームにおける人体矩形領域を対応付けするとき,人体矩形領域の色ヒストグラムを求めヒストグラムマッチングにより,前後のフレームにおける人体矩形領域を対応付けするとよい。ヒストグラムマッチングするときの指標としては,相関、カイ二乗、交差などが挙げられるが、数式1で示されるBhattacharyya距離をこの指標として採用すると,マッチング精度が高くなる。

Figure 2011210238
When the human body rectangular areas in the preceding and following frames are associated with each other using the color feature amount, the human body rectangular areas in the preceding and following frames may be associated by obtaining a color histogram of the human body rectangular area and performing histogram matching. As indices for histogram matching, correlation, chi-square, intersection, and the like can be mentioned. If the Bhattacharyya distance expressed by Equation 1 is adopted as this index, matching accuracy is increased.
Figure 2011210238

Bhattacharyya距離を利用するとき,色特徴量として色ヒストグラムが用いられ,Nフレームの時点で既に生成されているHumanオブジェクト毎に,Nフレームから検出された人体矩形領域から算出された色ヒストグラムとHumanオブジェクトの色ヒストグラム間の類似度を表すBhattacharyya距離を求め,Bhattacharyya距離が最も小さいHumanオブジェクトに人体矩形領域を対応付けする。   When using the Bhattacharyya distance, a color histogram is used as a color feature, and for each Human object already generated at the time of N frames, a color histogram calculated from a human body rectangular area detected from the N frame and a Human object The Bhattacharyya distance representing the similarity between the color histograms is obtained, and the human rectangular area is associated with the Human object having the smallest Bhattacharyya distance.

色特徴量を用いた第1のトラッキング手法による第1のトラッキング処理(S11)を行うと,広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理の結果を示すトラッキングログを記憶する(S12)。   When the first tracking process (S11) by the first tracking method using the color feature amount is performed, the tracking unit 23 of the advertisement effect measuring apparatus 2 stores a tracking log indicating the result of the first tracking process ( S12).

広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理の結果を示すトラッキングログを,第1のトラッキング処理において位置・サイズが更新されたHumanオブジェクト毎に生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,更新後のHumanオブジェクトの位置・矩形サイズを含ませる。   The tracking means 23 of the advertisement effect measuring device 2 generates a tracking log indicating the result of the first tracking process for each Human object whose position and size are updated in the first tracking process. The Human ID of this Human object, the date and time when the N frame was photographed, and the position and rectangle size of the updated Human object are included.

また,第1のトラッキング処理において,Humanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。   In the first tracking process, when a viewing flag is associated with the human body rectangular area associated with the Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.

第1のトラッキング処理の結果を示すトラッキングログを記憶すると,広告効果測定装置2のトラッキング手段23は, 第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトがあるか確認し(S13),第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトがあれば,広告効果測定装置2のトラッキング手段23は,局所特徴量を用いる第2のトラッキング手法にトラッキング手法を切り替え,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトを対象として,第2のトラッキング手法による第2のトラッキング処理を実行する(S14)。   When the tracking log indicating the result of the first tracking process is stored, the tracking means 23 of the advertisement effect measuring apparatus 2 checks whether there is a Human object whose position / size has not been updated in the first tracking process (S13). If there is a Human object whose position / size has not been updated in the first tracking process, the tracking means 23 of the advertisement effect measuring apparatus 2 switches the tracking method to the second tracking method using the local feature quantity, The second tracking process by the second tracking method is executed on the Human object whose position / size has not been updated in the tracking process (S14).

なお,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトが無ければ,第2のトラッキング処理を実行することなく,図7のS16に進む。   If there is no Human object whose position / size has not been updated in the first tracking process, the process proceeds to S16 in FIG. 7 without executing the second tracking process.

図9は,第2のトラッキング手法を説明する図で,図9(a)にN−1フレームの一例を図示し,図9(b)にNフレームの一例を図示している。なお,図9(a)で図示したN−1フレーム8aでは5人の人物が人体検出されているが,図9(b)で図示したNフレーム8bでは,真ん中の人物がおじぎをしている格好になっているため,真ん中の人物が人体検出されていない。   FIG. 9 is a diagram for explaining the second tracking method. FIG. 9A illustrates an example of the N-1 frame, and FIG. 9B illustrates an example of the N frame. In the N-1 frame 8a illustrated in FIG. 9A, five human bodies are detected, but in the N frame 8b illustrated in FIG. 9B, the middle person is bowing. The middle person is not detected because of the appearance.

局所特徴量を用いる第2のトラッキング手法としては,上述したHOG特徴量を用いたトラッキング手法を利用することが望ましい。HOG特徴量を用いたトラッキング手法を第2のトラッキング手法に利用するとき,Nフレーム内において、第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応する人体矩形領域は、Nフレームにおいては該Humanオブジェクトの位置の近傍にあるとの仮定に基づき、該Humanオブジェクトのサイズに等しい探索窓8eを設定し,該Humanオブジェクトの位置(図9(a),(b)の位置8c)を探索窓8eの始点として、探索窓8eの始点から得られる所定の探索領域8d内で探索窓8eの位置を変更しながら,該Humanオブジェクトに対応する人体矩形領域を探索する。   As the second tracking method using the local feature amount, it is desirable to use the tracking method using the HOG feature amount described above. When the tracking method using the HOG feature amount is used for the second tracking method, the human body rectangular region corresponding to the Human object whose position / size has not been updated by the first tracking process in N frames is N frames. Is set in the vicinity of the position of the Human object, a search window 8e equal to the size of the Human object is set, and the position of the Human object (position 8c in FIGS. 9A and 9B). Is searched for a human body rectangular area corresponding to the Human object while changing the position of the search window 8e within a predetermined search area 8d obtained from the start point of the search window 8e.

図10は,第2のトラッキング手法の説明を補足する図である。図10(a)は,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応するN−1フレームの人体矩形領域から求められた輝度勾配9a,HOG特徴量9b及び勾配ヒストグラム9cを図示し,図10(b)は,該Humanオブジェクトの近傍にある探索窓8e内から求められた輝度勾配9d,HOG特徴量9e及び勾配ヒストグラム9fを図示している。   FIG. 10 is a diagram supplementing the description of the second tracking method. FIG. 10A shows a luminance gradient 9a, a HOG feature amount 9b, and a gradient histogram 9c obtained from the human body rectangular area of the N-1 frame corresponding to the Human object whose position and size have not been updated in the first tracking process. FIG. 10B shows the luminance gradient 9d, the HOG feature amount 9e, and the gradient histogram 9f obtained from the search window 8e in the vicinity of the Human object.

図10(a),(b)の輝度勾配9a,9dを比較すればわかるように,図10(a),(b)では人体の頭部では差があるものの,人体の胴部では差が少なく無く,人体の胴部のHOG特徴量9b,9e及び勾配ヒストグラム9c,9fにも差は少ない。   As can be seen by comparing the luminance gradients 9a and 9d in FIGS. 10 (a) and 10 (b), there is a difference in the human head in FIGS. 10 (a) and 10 (b), but there is a difference in the torso of the human body. There are not a few differences between the HOG feature values 9b and 9e and the gradient histograms 9c and 9f of the human torso.

そこで,探索領域8d内で探索窓8eの位置を変更しながら,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトに対応する人体矩形領域を探索するとき,広告効果測定装置2のトラッキング手段23は,相関、カイ二乗、交差, Bhattacharyya距離などを指標として,探索窓8eに含まれるセルごとにHOG特徴量から得られる勾配ヒストグラムの類似度を求め、探索窓8e内における類似度の値を合算した値が閾値を越える位置を探索とする。なお、探索窓8e内における類似度の値を合算した値が閾値を越える位置が一つの場合は,その位置をNフレーム8bにおける人体矩形領域の位置とし,また,探索範囲内にて閾値を越えた箇所が複数ある場合、その中で最も高い類似度が求められた位置をNフレーム8bにおける人体矩形領域の位置とする。   Therefore, when searching for a human body rectangular area corresponding to a Human object whose position / size has not been updated in the first tracking process while changing the position of the search window 8e in the search area 8d, the advertisement effect measuring apparatus 2 The tracking means 23 obtains the similarity of the gradient histogram obtained from the HOG feature value for each cell included in the search window 8e, using correlation, chi-square, intersection, Bhattacharyya distance, etc. as an index, and calculates the similarity in the search window 8e. A search is made for a position where the sum of the values exceeds the threshold. If there is one position where the sum of the similarity values in the search window 8e exceeds the threshold, that position is set as the position of the human body rectangular area in the N frame 8b, and exceeds the threshold in the search range. If there are a plurality of locations, the position where the highest similarity is obtained is set as the position of the human body rectangular area in the N frame 8b.

そして,第2のトラッキング手法を用いてNフレームにおける人体矩形領域の位置を検索できた場合は,広告効果測定装置2のトラッキング手段23は,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトの位置のみをこの検索窓の位置に更新し,Humanオブジェクトのサイズ及び色特徴量は更新しない。   When the position of the human body rectangular area in the N frame can be searched using the second tracking method, the tracking means 23 of the advertisement effect measuring device 2 has not been updated in position and size in the first tracking process. Only the position of the Human object is updated to the position of this search window, and the size and color feature of the Human object are not updated.

局所特徴量を用いる第2のトラッキング手法による第2のトラッキング処理を行うと,広告効果測定装置2のトラッキング手段23は,第2のトラッキング処理の結果を示すトラッキングログを記憶する(S15)。   When the second tracking process by the second tracking method using the local feature amount is performed, the tracking unit 23 of the advertisement effect measuring apparatus 2 stores a tracking log indicating the result of the second tracking process (S15).

広告効果測定装置2のトラッキング手段23は,第2のトラッキング処理の結果を示すトラッキングログを,第2のトラッキング処理において位置・サイズが更新されたHumanオブジェクト毎に生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,更新後のHumanオブジェクトの位置・矩形サイズを含ませる。   The tracking means 23 of the advertisement effect measuring apparatus 2 generates a tracking log indicating the result of the second tracking process for each Human object whose position and size have been updated in the second tracking process. The Human ID of this Human object, the date and time when the N frame was photographed, and the position and rectangle size of the updated Human object are included.

また,第2のトラッキング処理において,Humanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。   In the second tracking process, when a viewing flag is associated with the human body rectangular area associated with the Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.

なお,第1のトラッキング処理及び第2のトラッキング処理を実行しても,Nフレームの人体矩形領域が対応付けられなかったHumanオブジェクトがあれば,このHumanオブジェクトに対応する人体矩形領域は,ビデオカメラ4の撮影領域外に移動したと判断し,トラッキング対象外とする。   Even if the first tracking process and the second tracking process are executed, if there is a Human object that is not associated with the human body rectangular area of N frames, the human body rectangular area corresponding to this Human object is displayed on the video camera. 4 is determined to have moved out of the shooting area, and is excluded from tracking.

第2のトラッキング処理の結果を示すトラッキングログを記憶すると,Humanオブジェクトに対応付けられなかった人体矩形領域がNフレームにあるか確認し(S16),この人体矩形領域があれば,この人体矩形領域に対応するHumanオブジェクトを新規に生成し,この人体矩形領域をトラッキング対象に新規に追加する(S17)。   When the tracking log indicating the result of the second tracking process is stored, it is checked whether there is a human body rectangular area that is not associated with the Human object in the N frame (S16). A human object corresponding to is newly generated, and this human body rectangular area is newly added to the tracking target (S17).

なお,新規に生成したHumanオブジェクトの位置・矩形サイズには,新規に生成したHumanオブジェクトに対応付けられた人体矩形領域の位置・矩形サイズが用いられる。また,広告効果測定装置2のトラッキング手段23は,Humanオブジェクトに対応付けられなかった人体矩形領域内の画像から色特徴量を求め,新規に生成したHumanオブジェクトに付与する。   Note that the position / rectangular size of the human rectangular area associated with the newly generated Human object is used as the position / rectangular size of the newly generated Human object. Further, the tracking means 23 of the advertisement effect measuring apparatus 2 obtains the color feature amount from the image in the human body rectangular area that is not associated with the Human object, and gives it to the newly generated Human object.

広告効果測定装置2のトラッキング手段23は,新規にHumanオブジェクトを生成すると,新規に生成したHumanオブジェクトのトラッキングログを記憶した後(S18),図7の手順は終了する。   When the tracking unit 23 of the advertisement effect measuring apparatus 2 newly generates a Human object, after storing the tracking log of the newly generated Human object (S18), the procedure of FIG. 7 ends.

広告効果測定装置2のトラッキング手段23は,新規に生成したHumanオブジェクト毎にトラッキングログを生成し,このトラッキングログには,このHumanオブジェクトのHumanID,Nフレームが撮影された日時,Humanオブジェクトの位置・矩形サイズを含ませる。   The tracking means 23 of the advertisement effect measuring apparatus 2 generates a tracking log for each newly generated Human object. The tracking log includes the HumanID of the Human object, the date and time when the N frame was shot, the position of the Human object, Include rectangle size.

また,新規に生成したHumanオブジェクトに対応付けられた人体矩形領域に閲覧フラグが関連付けられているとき,このHumanオブジェクトのトラッキングログに閲覧フラグと人物属性を含ませる。   When a viewing flag is associated with a human body rectangular area associated with a newly generated Human object, the viewing flag and the person attribute are included in the tracking log of the Human object.

なお,図7のS16において,第1のトラッキング処理で位置・サイズが更新されなかったHumanオブジェクトが無ければ,新規にHumanオブジェクトを生成することなく,図7の手順は終了する。   If there is no Human object whose position / size has not been updated in the first tracking process in S16 of FIG. 7, the procedure of FIG. 7 ends without generating a new Human object.

最後に,広告効果測定装置2の広告効果測定手段25について説明する。広告効果測定装置2の広告効果測定手段25は,トラッキング手段23によって記憶されたトラッキングログを集計処理し,集計処理の結果を記したログファイルを出力する手段である。   Finally, the advertisement effect measuring means 25 of the advertisement effect measuring device 2 will be described. The advertisement effect measuring means 25 of the advertisement effect measuring device 2 is a means for summing up the tracking logs stored by the tracking means 23 and outputting a log file describing the result of the summing process.

本実施形態では,広告効果測定装置2の広告効果測定手段25は,デジタルサイネージ3の視認率を出力する集計処理1と,デジタルサイネージ3の前にいる滞留時間を出力する集計処理2と,デジタルサイネージ3の閲覧時間を出力する集計処理3と,人体矩形領域の位置の軌跡を出力する集計処理4と,デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)を出力する集計処理5に対応している。   In this embodiment, the advertisement effect measuring means 25 of the advertisement effect measuring device 2 includes a totaling process 1 for outputting the visual recognition rate of the digital signage 3, a totaling process 2 for outputting the staying time before the digital signage 3, and a digital Aggregation process 3 for outputting the viewing time of signage 3, aggregation process 4 for outputting the locus of the position of the human body rectangular area, and aggregation process 5 for outputting the personal attributes (for example, age and sex) of the person who has viewed the digital signage It corresponds to.

デジタルサイネージ3の視認率を出力する集計処理1は,一定期間(例えば,1時間)が経過する毎に実行され,広告効果測定装置2の広告効果測定手段25は,日時が一定期間に含まれるトラッキングログを対象とし,デジタルサイネージ3の前にいた総人数と,デジタルサイネージ3の閲覧者の人数と,閲覧者の人数を総人数で除算した視認率を含む視認率ログファイルを出力する。   The aggregation process 1 for outputting the visual recognition rate of the digital signage 3 is executed every time a certain period (for example, 1 hour) elapses, and the advertisement effect measuring means 25 of the advertisement effect measuring device 2 includes the date and time in the certain period. For the tracking log, the total number of people who were in front of the digital signage 3, the number of viewers of the digital signage 3, and the visibility log file including the visibility that is obtained by dividing the number of viewers by the total number of people is output.

デジタルサイネージ3の前にいた総人数は,対象となるトラッキングログに記されたHumanIDの数を,HumanIDが重複することなくカウントすることで得られる。また,デジタルサイネージ3の閲覧者の人数は,閲覧フラグが含まれるトラッキングログのみを対象とし,トラッキングログに記されたHumanIDの数を,HumanIDが重複することなくカウントすることで得られる。   The total number of people in front of the digital signage 3 can be obtained by counting the number of HumanIDs recorded in the target tracking log without overlapping HumanIDs. The number of viewers of the digital signage 3 can be obtained by counting only the tracking log including the browsing flag and counting the number of Human IDs recorded in the tracking log without duplication of Human IDs.

デジタルサイネージ3の前にいる滞留時間を出力する集計処理2は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanID,トラッキング開始日時及びトラッキング終了日時が含まれる滞留時間ログファイルを出力する。   The aggregation process 2 for outputting the staying time in front of the digital signage 3 is executed every time a human object that is not tracked is generated, and the advertisement effect measuring means 25 of the advertisement effect measuring device 2 A residence time log file including the HumanID, tracking start date and time and tracking end date and time of the resulting Human object is output.

この集計処理2では,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログの日時が参照され,最も古い日時がトラッキング開始日時とし利用され,最も新しい日時がトラッキング終了日時として利用される。   In the counting process 2, the date and time of the tracking log including the HumanID of the Human object that is not tracked is referred to, the oldest date and time is used as the tracking start date and time, and the latest date and time is used as the tracking end date and time.

デジタルサイネージ3の閲覧時間を出力する集計処理3は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanID,閲覧開始日時及び閲覧終了日時が含まれる滞留時間ログファイルを出力する。   The aggregation process 3 for outputting the browsing time of the digital signage 3 is executed every time a Human object that is not tracked is generated, and the advertisement effect measuring means 25 of the advertisement effect measuring device 2 is used for the Human that is not tracked. A residence time log file including the HumanID, browsing start date and browsing end date and time of the object is output.

この集計処理3では,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログの中から,閲覧フラグが含まれるトラッキングログが対象とされ,このトラッキングログに含まれる日時の中から,最も古い日時が閲覧開始日時とし利用され,最も新しい日時が閲覧終了日時とし利用される。   In this aggregation process 3, the tracking log including the viewing flag is selected from the tracking logs including the HumanID of the Human object that is not tracked, and the oldest date and time is included among the dates and times included in the tracking log. Is used as the browsing start date and time, and the latest date and time is used as the browsing end date and time.

人体矩形領域の位置の軌跡を出力する集計処理4は,トラッキング対象外となったHumanオブジェクトが発生する毎に実行され,広告効果測定装置2の広告効果測定手段25は,トラッキング対象外となったHumanオブジェクトのHumanIDを含むトラッキングログを一つにまとめた位置ログファイルを出力する。   The aggregation process 4 for outputting the locus of the position of the human body rectangular area is executed every time a human object that is not tracked is generated, and the advertisement effect measuring means 25 of the advertisement effect measuring device 2 is not tracked. A location log file in which tracking logs including the Human object's HumanID are collected together is output.

デジタルサイネージを閲覧した人物の人物属性(例えば,年齢・性別)を出力する集計処理5は,一定期間(例えば,1日)が経過する毎に実行され,広告効果測定装置2の広告効果測定手段25は,日時が一定期間に含まれるトラッキングログに含まれるHumanIDと人物属性の対を含む人物属性ログファイルを出力する。   The tabulation process 5 for outputting the person attributes (for example, age and sex) of the person who has viewed the digital signage is executed every time a certain period (for example, one day) elapses, and the advertisement effect measuring unit of the advertisement effect measuring device 2 25 outputs a person attribute log file including a pair of HumanID and person attribute included in the tracking log including a certain date and time.

この集計処理5では,日時が一定期間に含まれるトラッキングログの中から,閲覧フラグを含むトラッキングログが対象とされ,このトラッキングログに含まれるHumanIDと人物属性の対が,HumanIDが重複したものを除いて抽出される。   In this counting process 5, a tracking log including a browsing flag is targeted from tracking logs including a certain date and time, and a pair of HumanID and person attribute included in this tracking log is a duplicate of HumanID. It is extracted except.

(変形例1)
ここから、上述した実施形態の変形例について説明する。図4の人体検出処理S2において、一人の人物に対して複数の人体矩形領域が検出されるケースがあるため、変形例1は、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合するようにした実施形態である。
(Modification 1)
From here, the modification of embodiment mentioned above is demonstrated. In the human body detection process S2 of FIG. 4, there are cases where a plurality of human body rectangular areas are detected for a single person. Therefore, in the first modification, a plurality of human body rectangular areas that can be determined as the same person are represented by one human body rectangle. This is an embodiment that is integrated into a region.

同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合するようにした変形例1においては、上述した実施形態と、図4の人体検出処理S2の内容が異なるため、変形例1における人体検出処理について説明する。   In the first modification in which a plurality of human body rectangular areas that can be determined as the same person are integrated into one human body rectangular area, the contents of the human body detection process S2 in FIG. 1 will be described.

まず、変形例1における人体検出処理について説明する。図11は、変形例1における人体検出処理を説明するフロー図である。変形例1における人体検出処理において、変形例1に係る広告効果測定装置2の人体検出手段21は、人体検出処理を実行する際、まず、上述した実施形態と同様に、HOG特徴量を用いたAdaboostアルゴリズムによる人体検出法により、Nフレーム内における人体矩形領域を全て検出する(S20)。  First, the human body detection process in the first modification will be described. FIG. 11 is a flowchart for explaining the human body detection process in the first modification. In the human body detection process according to the first modification, the human body detection unit 21 of the advertising effect measurement device 2 according to the first modification first uses the HOG feature amount as in the above-described embodiment when executing the human body detection process. All the human body rectangular areas in the N frame are detected by the human body detection method using the Adaboost algorithm (S20).

次に、変形1に係る広告効果測定装置2の人体検出手段21は、上述した実施形態と同様に、図4の前景マスク処理S1で得られた前景マスクを参照し,Nフレームから検出された人体矩形領域の中から、誤検出して扱う人体矩形領域を特定する処理を行い(S21)、誤検出して扱う人体矩形領域はこれ以降の処理で利用しない。   Next, the human body detecting means 21 of the advertising effect measuring apparatus 2 according to the modification 1 is detected from the N frame with reference to the foreground mask obtained in the foreground mask processing S1 of FIG. 4 as in the above-described embodiment. A process of specifying a human body rectangular area that is erroneously detected and handled from among the human body rectangular areas is performed (S21), and the human body rectangular area that is erroneously detected and handled is not used in the subsequent processes.

次に、変形例1に係る広告効果測定装置2の人体検出手段21は、指定のクラスタリング手法により、誤検出して扱われない複数の人体矩形領域をクラスタに切り分けて、同じクラスタに属する該人体矩形領域を一つに統合する統合処理を実行して(S22)、図11のフローは終了する。   Next, the human body detecting means 21 of the advertising effectiveness measuring device 2 according to the first modification cuts a plurality of human body rectangular areas that are not detected and handled into clusters by a designated clustering method, and the human bodies belonging to the same cluster An integration process for integrating the rectangular areas into one is executed (S22), and the flow of FIG. 11 ends.

統合処理において、変形例に係る広告効果測定装置2の人体検出手段21は、同一の人物と判定できる複数の人体矩形領域をクラスタリングする手法として、数式2で示したMeanShiftクラスタリングを用い、誤検出と特定されなかった人体矩形領域それぞれについて、該人体矩形領域の中心座標からMeanShift Vectorを算出することで、該人体矩形領域をMeanShiftクラスタリングし、クラスタリングした後の該人体矩形領域それぞれの重心を求める。

Figure 2011210238
In the integration process, the human body detection means 21 of the advertising effect measurement device 2 according to the modification uses the MeanShift clustering expressed by Equation 2 as a method for clustering a plurality of human body rectangular areas that can be determined as the same person, and performs false detection. For each human rectangular area that has not been specified, a MeanShift Vector is calculated from the center coordinates of the human rectangular area, whereby the human rectangular area is subjected to MeanShift clustering, and the center of gravity of each human rectangular area after clustering is obtained.
Figure 2011210238

そして、変形例1に係る広告効果測定装置2の人体検出手段21は、誤検出と特定されなかった人体矩形領域それぞれについてクラスタリングした後の重心を求めると、Nearest Neighbor法(最近傍決定則)により、該重心を統合する処理を行うことで、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合する。なお、統合された後の人体矩形領域の位置は、Nearest Neighbor法により重心が統合された位置になり、人体矩形領域の矩形サイズは、重心が統合された人体矩形領域の矩形サイズを統合した矩形サイズになる。  Then, the human body detecting means 21 of the advertising effect measuring device 2 according to the modified example 1 obtains the center of gravity after clustering for each of the human body rectangular areas that are not identified as false detections, by the Nearest Neighbor method (nearest neighbor determination rule). By integrating the centers of gravity, a plurality of human body rectangular areas that can be determined as the same person are integrated into one human body rectangular area. The position of the human rectangular area after integration is the position where the center of gravity is integrated by the Nearest Neighbor method, and the rectangular size of the human body rectangular area is a rectangle obtained by integrating the rectangular size of the human rectangular area where the center of gravity is integrated. It becomes size.

図11で図示したフローにおいて、誤検出として扱う人体矩形領域を特定する処理を行った後に、同一の人物と判定できる複数の人体矩形領域を一つの人体矩形領域に統合する統合処理を実行することで、人物の形状と類似しているオブジェクト(例えば、梯子、柱等)を人体矩形領域と誤検出した際、該オブジェクトに係る領域が統合されるのを防止できる効果が得られる。   In the flow illustrated in FIG. 11, after performing a process of specifying a human body rectangular area to be treated as a false detection, an integration process for integrating a plurality of human body rectangular areas that can be determined as the same person into one human body rectangular area is performed. Thus, when an object similar to the shape of a person (for example, a ladder, a pillar, etc.) is erroneously detected as a human body rectangular area, it is possible to prevent the areas related to the object from being integrated.

図12は、変形例1の効果を説明する図である。図12(a)は、図11の人体検出処理において検出された人体矩形領域を図示している。図12(a)では、人物の形状と類似しているオブジェクトとして脚立10dを図示し、図12(a)には、人物10a〜cを検出した人体矩形領域11a〜cと、脚立10dを誤検出した人体矩形領域11dが含まれている。  FIG. 12 is a diagram for explaining the effect of the first modification. FIG. 12A illustrates a human body rectangular area detected in the human body detection process of FIG. In FIG. 12A, a stepladder 10d is illustrated as an object similar to the shape of a person. In FIG. The detected human body rectangular area 11d is included.

図12(b)は、図12(a)の状態で統合処理を行ったときの図で、図12(a)の状態から統合処理を行うと、図12の人物10cに関しては、人物10cと脚立10dの距離が近いため、人物10cに係る人体矩形領域11cと脚立10dに係る人体矩形領域11dが含むように人体矩形領域が統合されてしまう。  12B is a diagram when the integration process is performed in the state of FIG. 12A, and when the integration process is performed from the state of FIG. 12A, the person 10c in FIG. Since the distance of the stepladder 10d is short, the human body rectangular area is integrated so that the human body rectangular area 11c related to the person 10c and the human body rectangular area 11d related to the stepladder 10d are included.

図12(c)は、誤検出として扱われない人体矩形領域を図示している。脚立10dに係る人体矩形領域11dにおいては、前景マスクと人体矩形領域が重なり合う領域である前景領域の割合が少なくなるため、脚立10dに係る人体矩形領域11dは誤検出として扱われることになり、誤検出として扱われない人体矩形領域は、人物10a〜cを検出した人体矩形領域11a〜cになるため、統合処理を行ったとしても、人物の形状と類似しているオブジェクトの影響を受けずに済むようになる。   FIG. 12C illustrates a human body rectangular region that is not treated as a false detection. In the human rectangular area 11d related to the stepladder 10d, the ratio of the foreground area, which is an area where the foreground mask and the human rectangular area overlap, is reduced, so that the human rectangular area 11d related to the stepladder 10d is treated as a false detection. Since the human body rectangular area that is not treated as detection becomes the human body rectangular areas 11a to 11c in which the persons 10a to 10c are detected, even if the integration process is performed, the human body rectangular area is not affected by an object similar to the shape of the person. It will be over.

(変形例2)
次に、変形例2について説明する。変形例2は、正規化した後の人体矩形領域のサイズが分かるため、正規化した後の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを決定するようにした実施形態である。
(Modification 2)
Next, Modification 2 will be described. Modification 2 is an embodiment in which the size of the human rectangular area after normalization is known, and therefore the search size at the start of face detection is determined according to the size of the human rectangular area after normalization. .

上述した実施形態では、人体矩形領域の画像を所定サイズに正規化してから顔検出を行い、顔検出開始時の探索サイズを大幅に変更する必要をなくしているが、システムを設置する際、システムの設置状況に合わせて正規化した後の人体矩形領域のサイズは調整されるため、正規化した後の人体矩形領域のサイズに応じて顔検出開始時の探索サイズを自動的に決定できるようにすると、顔検出の処理速度の向上や、顔検出の誤検出を防止する効果が期待できる。  In the embodiment described above, face detection is performed after normalizing the image of the human body rectangular area to a predetermined size, and it is not necessary to significantly change the search size at the start of face detection. Since the size of the human rectangular area after normalization is adjusted according to the installation status of the human body, the search size at the start of face detection can be automatically determined according to the size of the human rectangular area after normalization Then, an effect of improving the processing speed of face detection and preventing erroneous detection of face detection can be expected.

図13は、変形例2における顔検出処理のフローを説明する図である。変形例2においても、上述した実施形態と同様に、変形例2に係る広告効果測定装置2の顔検出手段22は、顔検出の対象となる人体矩形領域を所定サイズに正規化する処理を実行した後(S30)、正規化した後の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを演算する(S31)。例えば、正規化した後の人体矩形領域のサイズと顔検出開始時の探索サイズの比率を予め設定しておき、正規化した後の人体矩形領域のサイズに該比率を乗算することで、顔検出を開始する際の探索サイズの最低サイズを演算できる。そして、変形例2に係る広告効果測定装置2の顔検出手段22は、顔検出開始時の探索サイズを演算すると、演算したサイズの探索サイズから開始して、正規化した人物矩形領域から顔矩形領域を検出する(S32)。  FIG. 13 is a diagram illustrating a flow of face detection processing in the second modification. Also in the second modification, as in the above-described embodiment, the face detection unit 22 of the advertising effect measurement apparatus 2 according to the second modification performs a process of normalizing a human body rectangular area to be face-detected to a predetermined size. After that (S30), the search size at the start of face detection is calculated according to the normalized size of the human body rectangular area (S31). For example, the ratio between the normalized human body rectangular area size and the search size at the start of face detection is set in advance, and the normalized human body rectangular area size is multiplied by the ratio to thereby detect the face. It is possible to calculate the minimum search size when starting. Then, when the face detection means 22 of the advertising effect measurement device 2 according to the modified example 2 calculates the search size at the start of face detection, the face detection unit 22 starts from the search size of the calculated size, and starts from the normalized person rectangle region. A region is detected (S32).

図14は、変形例2の効果を説明する図で、顔検出開始時の識別器のサイズを演算する処理の有無に応じた処理速度を示している。図14は、1280×280の画像中において、5名の被写体を等間隔に並ばせ、カメラより6mの位置から、徐々に近づいてくる映像に対して処理をした結果である。図14に図示したように、正規化する前の人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを演算することで、1秒間に処理できるフレーム数が約2倍になる効果が得られた。   FIG. 14 is a diagram for explaining the effect of the second modification, and shows the processing speed according to the presence / absence of processing for calculating the size of the discriminator at the start of face detection. FIG. 14 shows the result of processing a video approaching gradually from a position 6 m away from the camera by arranging five subjects at equal intervals in a 1280 × 280 image. As shown in FIG. 14, the number of frames that can be processed per second is approximately doubled by calculating the search size at the start of face detection according to the size of the human body rectangular area before normalization. Obtained.

1 広告効果測定システム
2 広告効果測定装置
20 背景除去手段
21 人体検出手段
22 顔検出手段
23 トラッキング手段
24 人物属性算出手段
25 広告効果測定手段
3 デジタルサイネージ
3a ディスプレイ
4 ビデオカメラ
DESCRIPTION OF SYMBOLS 1 Advertisement effect measuring system 2 Advertising effect measuring apparatus 20 Background removal means 21 Human body detection means 22 Face detection means 23 Tracking means 24 Person attribute calculation means 25 Advertising effect measurement means 3 Digital signage 3a Display 4 Video camera

Claims (11)

ディスプレイの前にいる人物を撮影するカメラが撮影した映像を構成するフレームから、人体矩形領域の位置・サイズを検出する人体検出手段と,前記人体矩形領域内の画像から顔矩形領域の位置・サイズを検出する顔検出手段と,前記人体矩形領域内の画像の特徴量を用いて前後の前記フレームにおける前記人体矩形領域を対応付けることで前記人体矩形領域をトラッキングし,前記人体矩形領域の位置・サイズ,前記フレームが撮影された日時及び前記顔矩形領域の検出結果を含むトラッキングログを,トラッキング対象としている前記人体矩形領域毎に記憶するトラッキング手段と,前記トラッキングログを集計することで,トラッキング対象となった前記人体矩形領域の総数と,前記顔矩形領域が検出された前記人体矩形領域の数を求め,広告効果に係わる指標として視認率を出力する広告効果測定手段を備えたことを特徴とする広告効果測定装置。   Human body detection means for detecting the position and size of the human rectangular area from the frame constituting the video taken by the camera that shoots the person in front of the display, and the position and size of the face rectangular area from the image in the human rectangular area The human body rectangular area is tracked by associating the human body rectangular area in the preceding and succeeding frames using the face detection means for detecting the image and the feature amount of the image in the human body rectangular area, and the position / size of the human body rectangular area Tracking means for storing a tracking log including the date and time when the frame was captured and the detection result of the face rectangular area for each of the human body rectangular areas to be tracked; The total number of the human body rectangular areas and the number of the human body rectangular areas in which the face rectangular area is detected. Because, characterized by comprising the advertisement effect measurement means for outputting a visual index as an index related to the advertisement effect advertisement effect measurement device. 前記トラッキング手段は,色特徴量を利用する第1のトラッキング手法及び局所特徴量を利用する第2のトラッキング手法に対応し,前記第1のトラッキング手法により前記人体矩形領域をトラッキングした後,前記第1のトラッキング手法によりトラッキングできなかった前記人体矩形領域を前記第2のトラッキング手法によりトラッキングすることを特徴とする,請求項1に記載の広告効果測定装置。   The tracking means corresponds to a first tracking method that uses a color feature amount and a second tracking method that uses a local feature amount, and after tracking the human body rectangular region by the first tracking method, The advertisement effect measuring apparatus according to claim 1, wherein the human body rectangular area that cannot be tracked by the first tracking method is tracked by the second tracking method. 前記フレームと背景画像の差分を求めることで,前記背景画像以外の前景領域を示す前景マスクを生成する前景マスク生成手段を備え,前記人体検出手段は,前記フレームから検出した前記人体矩形領域毎に,前記人体矩形領域に対応する前記前景マスクの領域内における前記前景領域の割合を求め,前記割合が閾値未満の前記人体矩形領域を誤検出として扱い,前記トラッキング手段は,前記前景マスクを用いてマスク処理した後の前記フレームから前記人体矩形領域内の画像の特徴量を算出することを特徴とする,請求項1又は請求項2に記載の広告効果測定装置。   Foreground mask generation means for generating a foreground mask indicating a foreground area other than the background image by obtaining a difference between the frame and the background image, the human body detection means for each human body rectangular area detected from the frame , Determining a ratio of the foreground area in the foreground mask area corresponding to the human body rectangular area, treating the human body rectangular area with the ratio less than a threshold as a false detection, and the tracking means uses the foreground mask. 3. The advertisement effect measuring apparatus according to claim 1, wherein a feature amount of the image in the human body rectangular area is calculated from the frame after the mask processing. 前記人体検出手段は、指定のクラスタリング手法により、誤検出として扱わない前記人体矩形領域をクラスタに切り分けて、同じクラスタに属する該人体矩形領域を一つに統合する統合処理を実行することを特徴とする、請求項3に記載の広告効果測定装置。   The human body detection means is configured to perform an integration process in which the human body rectangular area that is not treated as a false detection is divided into clusters by a designated clustering method, and the human body rectangular areas belonging to the same cluster are integrated into one. The advertisement effect measuring device according to claim 3. 前記顔検出手段は,前記人体矩形領域内の画像を所定のサイズに正規化した後に前記顔矩形領域を検出することを特徴とする,請求項1から請求項4のいずれか一つに記載の広告効果測定装置。   5. The face detection unit according to claim 1, wherein the face detection unit detects the face rectangular area after normalizing an image in the human rectangular area to a predetermined size. 6. Advertising effect measurement device. 前記顔検出手段は、前記人体矩形領域内の画像を所定のサイズに正規化した後、正規化した後の前記人体矩形領域のサイズに応じて、顔検出開始時の探索サイズを決定することを特徴とする、請求項5に記載の広告効果測定装置。   The face detecting means normalizes an image in the human body rectangular area to a predetermined size, and then determines a search size at the start of face detection according to the size of the human body rectangular area after normalization. The advertisement effect measuring apparatus according to claim 5, wherein 前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域をトラッキングしていた時間を求め,広告効果に係わる指標として滞留時間を前記人体矩形領域毎に出力することを特徴とする,請求項1から請求項6のいずれか一つに記載の広告効果測定装置。   The advertisement effect measuring means obtains the time during which the human rectangular area was tracked by aggregating the tracking log for each human rectangular area, and the residence time as an index related to the advertising effect is obtained for each human rectangular area. The advertisement effect measuring apparatus according to claim 1, wherein the advertisement effect measuring apparatus outputs the advertisement effect. 前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,前記人体矩形領域から前記顔矩形領域を検出できた時間を求め,広告効果に係わる指標として閲覧時間を前記人体矩形領域毎に出力することを特徴とする,請求項1から請求項7のいずれか一つに記載の広告効果測定装置。   The advertisement effect measuring means obtains a time during which the face rectangular area can be detected from the human body rectangular area by aggregating the tracking log for each human body rectangular area, and uses the viewing time as an index related to the advertisement effect. The advertisement effect measuring apparatus according to claim 1, wherein the advertisement effect measuring apparatus outputs the information for each rectangular area. 前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として前記人体矩形領域の位置を前記人体矩形領域毎に出力することを特徴とする,請求項1から請求項8のいずれか一つに記載の広告効果測定装置。   The advertisement effect measuring means outputs the position of the human body rectangular area for each of the human body rectangular areas as an index related to the advertisement effect by counting the tracking log for each of the human body rectangular areas. The advertisement effect measuring device according to any one of claims 1 to 8. 前記顔検出手段が検出した前記顔矩形領域から人物属性を特定する人物属性特定手段を備え,前記トラッキング手段は,前記顔矩形領域が検出できた前記人体矩形領域の前記トラッキングログに前記人物属性を含ませ,前記広告効果測定手段は,前記トラッキングログを前記人体矩形領域毎に集計することで,広告効果に係わる指標として人物属性を前記人体矩形領域毎に出力することを特徴とする,請求項1から請求項9のいずれか一つに記載の広告効果測定装置。   Human attribute specifying means for specifying a person attribute from the face rectangular area detected by the face detecting means is provided, and the tracking means adds the person attribute to the tracking log of the human rectangular area from which the face rectangular area has been detected. The advertisement effect measuring means includes the tracking log for each human rectangular area, and outputs a person attribute for each human rectangular area as an index related to the advertising effect. The advertising effectiveness measuring device according to any one of claims 1 to 9. 請求項1から請求項10のいずれか一つに記載の広告効果測定装置として,コンピュータを機能させるためのコンピュータプログラム。
A computer program for causing a computer to function as the advertisement effect measuring device according to any one of claims 1 to 10.
JP2011032870A 2010-03-10 2011-02-18 Advertisement effect measuring device and computer program Pending JP2011210238A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011032870A JP2011210238A (en) 2010-03-10 2011-02-18 Advertisement effect measuring device and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010053838 2010-03-10
JP2010053838 2010-03-10
JP2011032870A JP2011210238A (en) 2010-03-10 2011-02-18 Advertisement effect measuring device and computer program

Publications (1)

Publication Number Publication Date
JP2011210238A true JP2011210238A (en) 2011-10-20

Family

ID=44941170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032870A Pending JP2011210238A (en) 2010-03-10 2011-02-18 Advertisement effect measuring device and computer program

Country Status (1)

Country Link
JP (1) JP2011210238A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114536A (en) * 2011-11-30 2013-06-10 Seiko Epson Corp Safety support apparatus and safety support method
KR101411058B1 (en) 2012-06-25 2014-06-27 인텔 코오퍼레이션 Video analytics test system
JP2015524098A (en) * 2012-06-26 2015-08-20 インテル・コーポレーション Method and apparatus for measuring audience size for digital signs
US9413925B2 (en) 2013-10-30 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2016224953A (en) * 2015-05-29 2016-12-28 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Cross-spectral feature correlation for navigation adjustment
US20170140421A1 (en) * 2012-06-25 2017-05-18 Google Inc. System and method for deploying ads based on a content exposure interval
JP2018060360A (en) * 2016-10-05 2018-04-12 日本電信電話株式会社 Person number estimation method, person number estimation device, person number estimation program and recording medium
US10013978B1 (en) 2016-12-30 2018-07-03 Google Llc Sequence dependent operation processing of packet based data message transmissions
JP2018106282A (en) * 2016-12-22 2018-07-05 セコム株式会社 Object detection device
JP2018205870A (en) * 2017-05-31 2018-12-27 Kddi株式会社 Object tracking method and apparatus
US10417666B2 (en) 2017-08-10 2019-09-17 Toyota Jidosha Kabushiki Kaisha Digital signage control device, digital signage control method, and recording medium
US10614801B2 (en) 2012-06-25 2020-04-07 Google Llc Protocol based computer network exposure interval content item transmission
JP2020514922A (en) * 2017-03-21 2020-05-21 ケロッグ カンパニー Media content tracking
US10957002B2 (en) 2010-08-06 2021-03-23 Google Llc Sequence dependent or location based operation processing of protocol based data message transmissions
KR102289892B1 (en) * 2020-03-24 2021-08-13 (주)디비퍼스트 Method of calculating the exposure number for truck ads
US11218434B2 (en) 2013-06-12 2022-01-04 Google Llc Audio data packet status determination
WO2022180766A1 (en) * 2021-02-26 2022-09-01 日本電気株式会社 Video data processing apparatus, method, and non-transitory computer-readable medium
WO2023047645A1 (en) * 2021-09-21 2023-03-30 ソニーグループ株式会社 Information processing device, image processing method, and program
CN116964645A (en) * 2022-02-23 2023-10-27 京东方科技集团股份有限公司 Traffic statistics method and device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method and apparatus, and various systems using the same
JP2005228042A (en) * 2004-02-13 2005-08-25 Honda Motor Co Ltd Face identification device, face identification method, and face identification program
JP2006065447A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Classifier setting device, attention level measuring device, classifier setting method, attention level measuring method, and program
JP2007172052A (en) * 2005-12-19 2007-07-05 Toyota Motor Corp Mobile object recognition device
JP2008537815A (en) * 2005-03-17 2008-09-25 本田技研工業株式会社 Pose estimation based on critical point analysis
JP2008305379A (en) * 2007-06-11 2008-12-18 Mitsubishi Electric Research Laboratories Inc Method for selecting advertisement and system for obtaining amount of time when consumer views advertising display
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measurement system, and display effect measurement method
JP2010003177A (en) * 2008-06-20 2010-01-07 Secom Co Ltd Image processing device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1048008A (en) * 1996-08-02 1998-02-20 Omron Corp Attention information measuring method and apparatus, and various systems using the same
JP2005228042A (en) * 2004-02-13 2005-08-25 Honda Motor Co Ltd Face identification device, face identification method, and face identification program
JP2006065447A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Classifier setting device, attention level measuring device, classifier setting method, attention level measuring method, and program
JP2008537815A (en) * 2005-03-17 2008-09-25 本田技研工業株式会社 Pose estimation based on critical point analysis
JP2007172052A (en) * 2005-12-19 2007-07-05 Toyota Motor Corp Mobile object recognition device
JP2008305379A (en) * 2007-06-11 2008-12-18 Mitsubishi Electric Research Laboratories Inc Method for selecting advertisement and system for obtaining amount of time when consumer views advertising display
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measurement system, and display effect measurement method
JP2010003177A (en) * 2008-06-20 2010-01-07 Secom Co Ltd Image processing device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
南竹俊介: "歩行者の注視情報と移動軌跡を利用したデジタル広告への視聴率測定", 第72回(平成22年)全国大会講演論文集(3), JPN6014042000, 8 March 2010 (2010-03-08), JP, pages 3 - 323, ISSN: 0002909874 *
山内悠嗣: "Boostingに基づく特徴量の共起表現による人検出", 電子情報通信学会論文誌, vol. 第J92−D巻,第8巻, JPN6014042001, 1 August 2009 (2009-08-01), JP, pages 1125 - 1134, ISSN: 0002909875 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957002B2 (en) 2010-08-06 2021-03-23 Google Llc Sequence dependent or location based operation processing of protocol based data message transmissions
JP2013114536A (en) * 2011-11-30 2013-06-10 Seiko Epson Corp Safety support apparatus and safety support method
US20170140421A1 (en) * 2012-06-25 2017-05-18 Google Inc. System and method for deploying ads based on a content exposure interval
US20170293936A1 (en) * 2012-06-25 2017-10-12 Google Inc. Content exposure interval based content item deployment
US10614801B2 (en) 2012-06-25 2020-04-07 Google Llc Protocol based computer network exposure interval content item transmission
KR101411058B1 (en) 2012-06-25 2014-06-27 인텔 코오퍼레이션 Video analytics test system
US10740788B2 (en) 2012-06-25 2020-08-11 Google Llc Content exposure interval based content item deployment
US9767479B2 (en) * 2012-06-25 2017-09-19 Google Inc. System and method for deploying ads based on a content exposure interval
JP2015524098A (en) * 2012-06-26 2015-08-20 インテル・コーポレーション Method and apparatus for measuring audience size for digital signs
JP2016103292A (en) * 2012-06-26 2016-06-02 インテル・コーポレーション Method and apparatus for measuring audience size for digital sign
US11218434B2 (en) 2013-06-12 2022-01-04 Google Llc Audio data packet status determination
US9413925B2 (en) 2013-10-30 2016-08-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2016224953A (en) * 2015-05-29 2016-12-28 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Cross-spectral feature correlation for navigation adjustment
JP2018060360A (en) * 2016-10-05 2018-04-12 日本電信電話株式会社 Person number estimation method, person number estimation device, person number estimation program and recording medium
JP2018106282A (en) * 2016-12-22 2018-07-05 セコム株式会社 Object detection device
US10013978B1 (en) 2016-12-30 2018-07-03 Google Llc Sequence dependent operation processing of packet based data message transmissions
US10854198B2 (en) 2016-12-30 2020-12-01 Google Llc Sequence dependent operation processing of packet based data message transmissions
US11227307B2 (en) 2017-03-21 2022-01-18 Kellogg Company Media content tracking of users' gazing at screens
JP2020514922A (en) * 2017-03-21 2020-05-21 ケロッグ カンパニー Media content tracking
JP2018205870A (en) * 2017-05-31 2018-12-27 Kddi株式会社 Object tracking method and apparatus
US10417666B2 (en) 2017-08-10 2019-09-17 Toyota Jidosha Kabushiki Kaisha Digital signage control device, digital signage control method, and recording medium
KR102289892B1 (en) * 2020-03-24 2021-08-13 (주)디비퍼스트 Method of calculating the exposure number for truck ads
WO2022180766A1 (en) * 2021-02-26 2022-09-01 日本電気株式会社 Video data processing apparatus, method, and non-transitory computer-readable medium
WO2023047645A1 (en) * 2021-09-21 2023-03-30 ソニーグループ株式会社 Information processing device, image processing method, and program
JPWO2023047645A1 (en) * 2021-09-21 2023-03-30
CN116964645A (en) * 2022-02-23 2023-10-27 京东方科技集团股份有限公司 Traffic statistics method and device
US12530897B2 (en) 2022-02-23 2026-01-20 Boe Technology Group Co., Ltd. Traffic statistics collection method and apparatus

Similar Documents

Publication Publication Date Title
JP2011210238A (en) Advertisement effect measuring device and computer program
US9176987B1 (en) Automatic face annotation method and system
Ejaz et al. Efficient visual attention based framework for extracting key frames from videos
CN104573706B (en) A kind of subject image recognition methods and its system
CN102087702B (en) Image processing device, image processing method
US8805123B2 (en) System and method for video recognition based on visual image matching
US10956753B2 (en) Image processing system and image processing method
CN106663196B (en) Method, system, and computer-readable storage medium for identifying a subject
WO2021051545A1 (en) Behavior identification model-based fall-down action determining method and apparatus, computer device, and storage medium
CN113766330A (en) Method and device for generating recommendation information based on video
JP2013058060A (en) Person attribute estimation device, person attribute estimation method and program
CN111209897B (en) Video processing method, device and storage medium
WO2016187888A1 (en) Keyword notification method and device based on character recognition, and computer program product
WO2022188315A1 (en) Video detection method and apparatus, electronic device, and storage medium
CN103428406B (en) Monitoring video analysis method and device
WO2020135756A1 (en) Video segment extraction method, apparatus and device, and computer-readable storage medium
JP2011070629A5 (en)
JP2011070629A (en) Advertising effect measurement system and advertising effect measurement device
CN114067248A (en) Behavior detection method, device, electronic device and storage medium
US20120038602A1 (en) Advertisement display system and method
Xue et al. Feature design for aesthetic inference on photos with faces
A Alashbi et al. Deep-Learning-CNN for detecting covered faces with Niqab
Li et al. A dataset and evaluation methodology for visual saliency in video
JP5850188B2 (en) Image display system
CN111666976A (en) Feature fusion method and device based on attribute information and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150224