[go: up one dir, main page]

JP2010211485A - Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded - Google Patents

Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded Download PDF

Info

Publication number
JP2010211485A
JP2010211485A JP2009056582A JP2009056582A JP2010211485A JP 2010211485 A JP2010211485 A JP 2010211485A JP 2009056582 A JP2009056582 A JP 2009056582A JP 2009056582 A JP2009056582 A JP 2009056582A JP 2010211485 A JP2010211485 A JP 2010211485A
Authority
JP
Japan
Prior art keywords
face
detection
gaze
feature amount
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009056582A
Other languages
Japanese (ja)
Inventor
Shingo Ando
慎吾 安藤
Akira Suzuki
章 鈴木
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009056582A priority Critical patent/JP2010211485A/en
Publication of JP2010211485A publication Critical patent/JP2010211485A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】同一人物のダブルカウントを解消し、注視度合を正確に算出する技術を提供する。
【解決手段】顔領域検出部12は、入力された各フレームから顔領域を検出し、検出顔の検出位置等の検出顔データを取得する。顔姿勢推定部13は顔姿勢のパラメータを推定する。状態判別部14は、前フレームと現フレームの間でパラメータをもって顔領域を対応付け、その状態を判別する。検出ID等付与部は、現フレームの顔領域に検出ID・注視時間を付与し、顔特徴量を記憶部に記憶させる。照合処理部16は、現フレームと過去フレームとで特徴量が合致すれば、現フレームの検出IDを置換え、注視時間を加算し、記憶手段の記憶データを更新する。注目者数集計部20は、検出顔データ・記憶データのログから注目者数を求め、各注視者の平均注視時間を算出する。
【選択図】図1
A technique for accurately calculating a gaze degree by eliminating double counting of the same person.
A face area detection unit 12 detects a face area from each input frame, and acquires detected face data such as a detection position of a detected face. The face posture estimation unit 13 estimates a face posture parameter. The state determination unit 14 associates a face area with a parameter between the previous frame and the current frame, and determines the state. The detection ID etc. assigning unit assigns a detection ID and a gaze time to the face area of the current frame, and stores the face feature amount in the storage unit. When the feature amount matches between the current frame and the past frame, the matching processing unit 16 replaces the detection ID of the current frame, adds the gaze time, and updates the storage data of the storage unit. The number-of-interests counting unit 20 obtains the number of attentions from the log of detected face data / stored data, and calculates the average gaze time of each gaze person.
[Selection] Figure 1

Description

本発明は、人物顔検出・姿勢推定技術を応用して撮像画像から注視対象物の注視度合いを測定する技術に関する。   The present invention relates to a technique for measuring a gaze degree of a gaze target from a captured image by applying a human face detection / posture estimation technique.

周知のように、広告、画像、絵画、工芸品(彫刻、陶器など)、人物(芸能人や政治家など)、風景などの分野では人物の注視度合を測定して、大衆の趣向・興味を調査することが少なくない。   As is well known, in the fields of advertisements, images, paintings, crafts (sculptures, pottery, etc.), people (entertainers, politicians, etc.), landscapes, etc., measure the degree of gaze of people and investigate the interests and interests of the public. There are many things to do.

特に、近年“ディジタルサイネージ”と呼ばれる、屋外や店頭でエレクトリックな表示機器を用いて映像を発信する広告メディアが急速に普及し、様々な注目度合の測定技術が提案されている。   In particular, in recent years, advertising media called “digital signage”, which transmits images using electric display devices outdoors or in stores, has rapidly spread, and various techniques for measuring the degree of attention have been proposed.

この新しい広告形態は、ネットワークと連携することで広告主が最新情報をリアルタイムに発信・更新できるため、従来の広告メディアより費用対効果が高いと考えられている。   This new advertising form is considered to be more cost-effective than conventional advertising media because advertisers can send and update the latest information in real time by cooperating with the network.

広告効果を客観的に測定する方法として、特許文献1の広告効果確認システムが知られている。この測定方法は、メディア側にカメラを設置し、カメラに映った人物を輪郭情報等に基づき抽出して、その抽出された人数をメディアへの注目度合いとして評価しその評価値を集計するものである。この測定方法に非特許文献1の顔検出技術などを組み合わせることで、より精確な注視度合いを計測できる。その際の注視度合として、“一定時間内に広告を注視した人数”や“各人が広告を注視した時間(以下、注視時間とする。)の平均値”などが考えられる。   As a method for objectively measuring the advertisement effect, the advertisement effect confirmation system of Patent Document 1 is known. This measurement method is to install a camera on the media side, extract the person reflected in the camera based on the contour information, etc., evaluate the extracted number of people as the degree of attention to the media, and total the evaluation values. is there. By combining this measurement method with the face detection technique of Non-Patent Document 1, a more accurate gaze degree can be measured. As the degree of gazing at that time, “the number of people who gazed at the advertisement within a certain period of time” or “the average value of the time when each person gazed at the advertisement (hereinafter referred to as gazing time)” can be considered.

特開平11−153977JP-A-11-153777

三田雄志,金子敏充,堀修,”個体差のある対象の画像照合に適した確率的増分符号相関” 電子情報通信学会論文誌 D−II Vol.J88−D−II No.8 pp.1614−1623,(社)電子情報通信学会 2005Yuji Mita, Toshimitsu Kaneko, Osamu Hori, “Probabilistic Incremental Code Correlation Suitable for Image Matching of Individual Differences” IEICE Transactions D-II Vol. J88-D-II No. 8 pp. 1614-1623, The Institute of Electronics, Information and Communication Engineers 2005 安藤慎吾,草地良規,鈴木章,荒川賢一,”サポートベクトル回帰を用いた三次元物体の姿勢推定法”,電子情報通信学会論文誌 D Vol.J89−D No.8 pp.1840−1847,(社)電子情報通信学会 2006Shingo Ando, Yoshinori Kusachi, Akira Suzuki, Kenichi Arakawa, “Pose Estimation Method for 3D Objects Using Support Vector Regression”, IEICE Transactions D Vol. J89-D No. 8 pp. 1840-1847, The Institute of Electronics, Information and Communication Engineers 2006 堀田一弘,三島健稔,栗田多喜男,梅山伸二 ”Gaber特徴の情報量による重みづけマッチングを用いた顔認識”,信学技報 HIP2000−5(2000−5),社団法人電子情報通信学会Kazuhiro Hotta, Kengo Mishima, Takio Kurita, Shinji Umeyama “Face Recognition Using Weighted Matching Based on Information Amount of Gaber Features”, IEICE Technical Report HIP2000-5 (2000-5), The Institute of Electronics, Information and Communication Engineers

しかしながら、カメラに対して正面を向いていた顔が一時的に後ろを向いてまた正面を向き直した場合に、同一人物の顔であるにもかかわらず別の人物として判断されるおそれがある。これでは同一人物がダブルカウントされてしまうため、精確な注視度合の計測が困難である。   However, when the face facing the front of the camera temporarily turns back and turns the front again, there is a possibility that it is determined as a different person regardless of the face of the same person. In this case, since the same person is counted twice, it is difficult to accurately measure the gaze degree.

また、同一人物が広告を見てから一時的にその場所から離れ、その後に再び広告を見るケースも生じうる。この場合も、やはり同一人物であるにもかかわらずダブルカウントされてしまう。   In addition, the same person may temporarily leave the place after seeing the advertisement and then see the advertisement again. Even in this case, the same person is counted twice.

本発明は、上述のような問題点を解決するためになされたものであり、同一人物のダブルカウントを解消し、注視度合を正確に算出する技術を提供することを解決課題とする。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a technique for eliminating the double count of the same person and accurately calculating the degree of gaze.

そこで、本発明は、前記課題を解決すべく、追跡している人物顔がロスト後に新たに検出されると、検出された人物顔の顔特徴量と過去フレームの顔特徴量とを照合する。この照合の結果、顔特徴量が合致すれば同一人物と認識し、ダブルカウントを防止する。   Therefore, in order to solve the above-described problem, the present invention collates the face feature amount of the detected human face with the face feature amount of the past frame when a tracking human face is newly detected after being lost. As a result of this collation, if the facial feature values match, it is recognized as the same person and double counting is prevented.

本発明の一態様は、注視対象物の周囲を撮像した画像から、該注視対象物の注視度合を測定する装置であって、前記撮像装置から時系列に入力されたフレーム中、顔の存在する領域を順次に検出し、検出顔データとして検出位置・大きさ・顔らしさの類似度・検出時刻を取得する顔領域検出手段と、前記顔領域検出手段の検出した顔領域の顔姿勢を表すパラメータを推定する顔姿勢推定手段と、連続する前フレームと現フレームとの間で顔領域を、前記検出顔データおよび前記パラメータをもって対応付けて、現フレームの顔領域の状態を判別する状態判別手段と、前記状態判別手段にて判別された顔領域の検出ID・注視時間を、対応付けられた前フレームでの検出ID・注視時間に基づき付与し、該顔領域の顔特徴量を記憶手段に記憶させる検出ID等付与手段と、現フレームの顔特徴量が、現フレームと不連続の過去フレームの顔特徴量に合致すれば、該顔特徴量を持つ顔領域の検出IDを過去フレームの検出IDに置換え、置換えた検出IDの注視時間を現フレームの顔領域の注視時間に加算し、前記記憶手段の記憶データを更新させる照合処理手段と、前記検出顔データおよび前記記憶データのログから注目者数を求め、該各注視者の平均注視時間を算出する注目者数集計手段と、を備える。   One aspect of the present invention is an apparatus for measuring the degree of gaze of a gaze object from an image obtained by imaging the periphery of the gaze object, and a face is present in a frame input in time series from the imaging apparatus. Face area detecting means for sequentially detecting areas and acquiring detection position / size / similarity of face-likeness / detection time as detected face data, and a parameter representing the face posture of the face area detected by the face area detecting means A face posture estimation means for estimating a face area between a continuous previous frame and a current frame, and a state determination means for determining the state of the face area of the current frame by associating the face area with the detected face data and the parameter The detection ID and the gaze time of the face area determined by the state determination means are given based on the detection ID and the gaze time in the associated previous frame, and the face feature amount of the face area is stored in the storage means The If the face feature quantity of the current frame matches the face feature quantity of the discontinuous past frame with the current frame, the detection ID of the face area having the face feature quantity is detected as the past frame detection ID. The matching processing means for adding the gaze time of the replaced detection ID to the gaze time of the face area of the current frame and updating the storage data of the storage means, and the attention from the log of the detected face data and the storage data A number-of-interests counting means for calculating a number and calculating an average gaze time of each gaze person.

本発明の他の態様は、注視対象物の周囲を撮像した画像から、該注視対象物の注視度合を測定する方法であって、顔領域検出手段が、前記撮像装置から時系列に入力されたフレーム中、顔の存在する領域を順次に検出し、検出顔データとして検出位置・大きさ・顔らしさの類似度・検出時刻を取得する第1ステップと、顔姿勢推定手段が、前記顔領域検出手段の検出した顔領域の顔姿勢を表すパラメータを推定する第2ステップと、状態判別部が、連続する前フレームと現フレームとの間で顔領域を、前記検出顔データおよび前記パラメータをもって対応付けて、現フレームの顔領域の状態を判別する第3ステップと、検出ID等付与手段が、前記第3ステップにて判別された顔領域の検出ID・注視時間を、対応付けられた前フレームでの検出ID・注視時間に基づき付与し、該顔領域の顔特徴量を記憶手段に記憶させる第4ステップと、照合処理手段が、現フレームの顔特徴量と現フレームに不連続の過去フレームの顔特徴量とが合致すれば、該顔特徴量を持つ顔領域の検出IDを過去フレームの検出IDに置換え、置換えた検出IDの注視時間を現フレームの顔領域の注視時間に加算し、前記記憶手段の記憶データを更新させる第5ステップと、注目者数集計手段が、前記検出顔データおよび前記記憶データのログから注目者数を求め、該各注視者の平均注視時間を算出する第6ステップと、を有する。   Another aspect of the present invention is a method of measuring a gaze degree of a gaze object from an image obtained by imaging the periphery of the gaze object, wherein the face area detection means is input in time series from the imaging device. A first step of sequentially detecting a region where a face is present in the frame and acquiring a detection position / size / similarity of face-likeness / detection time as detected face data, and a face posture estimation unit includes the face region detection A second step of estimating a parameter representing the face posture of the face area detected by the means, and the state determination unit associates the face area between the continuous previous frame and the current frame with the detected face data and the parameter Then, the third step for determining the state of the face area of the current frame, and the detection ID etc. assigning means determine the detection ID and the gaze time of the face area determined in the third step in the associated previous frame. of A fourth step which is given based on the outgoing ID and the gaze time and stores the facial feature quantity of the face area in the storage means; and the matching processing means is the face feature quantity of the current frame and the face of the past frame discontinuous to the current frame If the feature quantity matches, the detection ID of the face area having the face feature quantity is replaced with the detection ID of the past frame, the gaze time of the replaced detection ID is added to the gaze time of the face area of the current frame, and the memory A fifth step of updating the storage data of the means, and a sixth step in which the number-of-interests counting unit calculates the number of attentions from the detected face data and the log of the storage data, and calculates an average gazing time of each gazing person And having.

なお、本発明は、前記装置としてコンピュータを機能させる注視度合測定プログラムの態様としてもよく、また該プログラムを記録した記録媒体の態様で提供してもよい。   The present invention may be in the form of a gaze degree measurement program that causes a computer to function as the apparatus, or may be provided in the form of a recording medium that records the program.

本発明によれば、同一人物のダブルカウントが解消されるため、注視度合が正確に算出される。   According to the present invention, since the double count of the same person is eliminated, the gaze degree is accurately calculated.

本発明の実施形態に係る装置の概略構成図。1 is a schematic configuration diagram of an apparatus according to an embodiment of the present invention. 同 検出ID等付与・顔特徴量記憶部の詳細図。FIG. 5 is a detailed view of the detection ID and the like / face feature amount storage unit. (a)は注目者ログを記録する処理フロー図、(b)は注目者ログを集計・出力する処理フロー図。(A) is a process flow diagram which records an attention log, (b) is a process flow figure which totals and outputs an attention log. 同 状態判別処理の説明図。Explanatory drawing of the same state discrimination | determination process. (a)は前フレームの検出結果例を示す図、(b)は状態判別前における現フレームの検出結果例を示す図、(c)は状態判別後における現フレームの検出結果例を示す図。(A) is a figure which shows the example of a detection result of a previous frame, (b) is a figure which shows the example of a detection result of the present frame before state discrimination, (c) is a figure which shows the example of the detection result of the present frame after state discrimination.

本発明によれば、注視対象物の注視度合を測定するときに人物の顔をロストしてから一定時間は、その顔の特徴量が記憶装置に記憶される。ここでは注視対象物は、広告、画像、絵画、工芸品(彫刻、陶器など)、建物、人物(芸能人、政治家など)、風景など注視度合の測定を必要とする各種対象を含むものとする。   According to the present invention, when a gaze degree of a gaze object is measured, a feature amount of the face is stored in the storage device for a certain time after the face of the person is lost. Here, gaze objects include various objects that require measurement of the degree of gaze, such as advertisements, images, paintings, crafts (sculptures, ceramics, etc.), buildings, people (celebrities, politicians, etc.), and landscapes.

そして、新たに人物の顔が検出されたときに該検出顔から抽出された特徴量と、記憶装置に現在記憶している検出顔の特徴量(過去の検出顔から抽出したもの)とが合致すれば同一人物と認識する(以下、この処理を照合処理とする。)。この照合処理をもって同一人物のダブルカウントを防止している。   Then, the feature amount extracted from the detected face when a new human face is detected matches the feature amount of the detected face currently stored in the storage device (extracted from the past detected face). Then, they are recognized as the same person (hereinafter, this process is referred to as a collation process). This matching process prevents double counting of the same person.

もっとも、検出された顔の特徴量を全て保存していくと記憶装置の容量を圧迫し、破綻を招くおそれがあるので、追跡している一つの検出顔に対し特徴量は一つに限定する態様が望ましい。   However, if all the feature values of the detected face are saved, the capacity of the storage device may be compressed and there is a risk of failure, so the feature value is limited to one for one detected face being tracked. Embodiments are desirable.

また、顔の特徴量は一般に顔の向きに対し変動が激しいことから、追跡している顔の中で最も正面向きに近い顔画像から特徴量を抽出して、記憶装置に記憶する態様がさらに望ましい。顔特徴量を記憶装置に記憶する際には、その顔向きの角度(yaw角,pitch角)情報も一緒に記憶する。   In addition, since the face feature amount generally fluctuates greatly with respect to the face direction, there is a mode in which the feature amount is extracted from a face image closest to the front face of the face being tracked and stored in the storage device. desirable. When the face feature quantity is stored in the storage device, the face orientation angle (yaw angle, pitch angle) information is also stored together.

前記照合処理は、好ましくは照合する二つの顔の顔向き角度の差が指定範囲内に収まっているときだけ実行される。これにより全体の処理が効率化され、照合処理が安定的に行える。   The collation process is preferably executed only when the difference between the face orientation angles of the two faces to be collated is within the specified range. As a result, the overall processing becomes efficient, and the collation process can be performed stably.

ここでは新たに顔が検出されたときに、その検出顔が過去の検出顔のいずれかと合致したか否かを示すフラグ(初期値OFF)を割り当て、該フラグを適宜確認することで照合処理を実行するか否かを決めてもよい。すなわち、過去の検出顔と一度合致すれば前記フラグをONに切り替え、その検出顔は以後の照合処理を行わないことで全体処理が一層効率化される。   Here, when a new face is detected, a flag (initial value OFF) indicating whether or not the detected face matches any of the past detected faces is assigned, and the matching process is performed by appropriately checking the flag. It may be decided whether or not to execute. In other words, once matching with a past detected face is performed, the flag is turned on, and the detected face is not subjected to subsequent collation processing, thereby further improving the overall processing efficiency.

また、検出顔の向き角度が一度も指定範囲内に入らなかった場合は記憶装置に特徴量を記憶させない設定にすれば、さらに全体の処理を効率化させることができる。こられは顔検出処理、顔姿勢推定処理、照合処理を画像処理から行うことで全て実現することができる。以下、本発明の実施形態を図面に基づき具体的に説明する。   In addition, if the orientation angle of the detected face never falls within the specified range, the entire process can be made more efficient by setting the storage device so that the feature amount is not stored. This can be realized by performing face detection processing, face posture estimation processing, and collation processing from image processing. Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.

(1)実施形態の構成例
図1は、本発明の実施形態の構成例を示している。ここでは本発明の注視度合測定装置は、広告メディアの注視度合を測定する広告効果測定装置10に応用されている。この広告効果測定装置10は、注視度合を”一定時間内に広告メディアを見た人数”と”注視時間の平均値”として事後集計している。
(1) Configuration Example of Embodiment FIG. 1 shows a configuration example of the embodiment of the present invention. Here, the gaze degree measuring device of the present invention is applied to the advertisement effect measuring device 10 that measures the gaze degree of advertising media. This advertising effect measuring apparatus 10 performs post hoc aggregation of the degree of gaze as “the number of people who have seen the advertising media within a certain time” and “the average value of the gaze time”.

前記広告効果測定装置10は、広告メディアの周囲を撮像する図外の撮像装置(例えばデジタルカメラやビデオカメラなど)とネットワーク経由で接続されているものとする。この撮像装置は、広告メディア掲示位置の近傍(例えばディスプレイの上部など)に設置されているものとする。なお、広告メディアには、ディジタルサイネージ以外にも通常のポスター広告や一般家庭テレビ放送のCM(コマーシャル)も含まれる。   It is assumed that the advertisement effect measuring apparatus 10 is connected to an imaging apparatus (not shown) (for example, a digital camera or a video camera) that captures the surroundings of the advertising media via a network. This imaging device is assumed to be installed in the vicinity of the advertisement media posting position (for example, the upper part of the display). In addition to the digital signage, the advertising media includes ordinary poster advertisements and general home TV broadcast commercials (commercials).

具体的には、前記広告効果測定装置10は、コンピュータにより構成され、通常のコンピュータのハードウェア資源、即ちCPU(Central Processor Unit),メモリ(RAM)やハードディスクドライブ装置などの記憶装置,通信インタフェース,ディスプレイなどの表示手段,キーボード・マウスなどの入力手段を備えている。   Specifically, the advertisement effect measuring device 10 is configured by a computer, and is a normal computer hardware resource, that is, a storage device such as a CPU (Central Processor Unit), a memory (RAM) or a hard disk drive device, a communication interface, Display means such as a display and input means such as a keyboard and a mouse are provided.

このハードウェア資源とソフトウェアとの協働の結果、前記広告効果測定装置10は、画像入力部11,顔検出部12,顔姿勢推定手段13,状態判別部14,検出ID等付与・顔特徴量記憶部15,顔特徴量照合部16,顔特徴量削除部17,前検出状態記憶部18,注目者ログ記憶部19,注目者数集計部20,結果出力部21として機能している。ここでは前記画像入力部11は、前記通信インタフェースをもって実現されている。   As a result of the cooperation between the hardware resource and the software, the advertisement effect measuring apparatus 10 is provided with the image input unit 11, the face detection unit 12, the face posture estimation unit 13, the state determination unit 14, the detection ID, etc. It functions as a storage unit 15, face feature amount matching unit 16, face feature amount deletion unit 17, previous detection state storage unit 18, attention log storage unit 19, attention number totaling unit 20, and result output unit 21. Here, the image input unit 11 is realized by the communication interface.

ずなわち、前記画像入力部11には、前記撮像装置で撮像されたデジタルデータの画像がネットワーク経由で時系列に入力されている。前記顔検出部12は前記入力画像から人物の顔領域を検出し、前記顔姿勢推定部13は検出された顔領域をもとに顔の姿勢を表す顔姿勢パラメータを推定する。   That is, digital image images captured by the imaging device are input to the image input unit 11 in time series via a network. The face detection unit 12 detects a human face area from the input image, and the face posture estimation unit 13 estimates a face posture parameter representing the face posture based on the detected face region.

前記状態判別部14は、連続する前フレームと現フレームとの間で顔領域を、前記顔姿勢パラメータなどを利用して対応付け、現フレームの顔領域の状態を事前に用意したタイプに応じて判別する。   The state determination unit 14 associates the face area between the continuous previous frame and the current frame using the face posture parameter or the like, and according to the type prepared in advance for the state of the face area of the current frame. Determine.

前記検出ID等付与・顔特徴量記憶部15は、図2に示すように、前記顔領域に検出IDを付与する検出ID等付与部15aと、該検出IDを付与された現フレームの顔領域から顔特徴量を抽出する特徴量抽出部15bと、前記検出IDおよび前記顔特徴量を記憶する顔特徴量記憶部15cとを有する。この顔特徴量記憶部15cには、検出IDを付与されたフレーム毎に顔領域の顔特徴量が順次に記憶され、各過去フレームの顔特徴量が蓄積されている。   As shown in FIG. 2, the detection ID etc. assigning / face feature quantity storage unit 15 includes a detection ID etc. adding unit 15a for giving a detection ID to the face area, and a face area of the current frame to which the detection ID is given. A feature amount extraction unit 15b that extracts a face feature amount from the image, and a face feature amount storage unit 15c that stores the detection ID and the face feature amount. In the face feature amount storage unit 15c, the face feature amounts of the face area are sequentially stored for each frame to which the detection ID is assigned, and the face feature amounts of each past frame are accumulated.

前記顔特徴量照合部16は、現フレームの顔領域の顔特徴量と、前記顔特徴量記憶部15cに記憶された過去フレームの顔領域の顔特徴量とを照合する。ここで照合される過去フレームは、現フレームと不連続のフレームが該当する。照合の結果、顔特徴量が合致すれば現フレームの検出IDを欠番IDログとして前記注目者ログ記録部19に記録する。   The face feature amount matching unit 16 compares the face feature amount of the face area of the current frame with the face feature amount of the face area of the past frame stored in the face feature amount storage unit 15c. The past frame to be collated here corresponds to a discontinuous frame with the current frame. As a result of the collation, if the facial feature amounts match, the detection ID of the current frame is recorded in the attention log recording unit 19 as a missing ID log.

この記録後に現フレームの顔領域の検出IDを過去フレームの検出IDに置換え、該置換えた検出IDの注視時間を現フレームの顔領域の注視時間に加算する。これにより前記顔特徴量記憶部15cの記録データが更新される。ここで過去フレームの顔特徴量に合致した現フレームの顔特徴量は、次フレーム以降の照合処理にあたっては照合対象とはならない。   After this recording, the detection ID of the face area of the current frame is replaced with the detection ID of the past frame, and the gaze time of the replaced detection ID is added to the gaze time of the face area of the current frame. Thereby, the recording data of the face feature amount storage unit 15c is updated. Here, the face feature amount of the current frame that matches the face feature amount of the past frame is not subject to collation in the collation processing in the subsequent frames.

前記顔特徴量削除部17は、前記特徴量記憶部15cに記憶されている顔特徴量を一定時間経過後に削除する。ここでは併せて顔特徴量の関連情報(検出ID,注視時間,姿勢パラメータ,消失時刻など)を削除する。   The face feature amount deletion unit 17 deletes the face feature amount stored in the feature amount storage unit 15c after a predetermined time has elapsed. Here, the related information (detection ID, gaze time, posture parameter, disappearance time, etc.) of the face feature is also deleted.

前記前検出状態記憶部18には、次フレーム以降の処理に利用するために、前記各部12.14.15aの処理結果が記録される。前記注目者ログ記憶部19には、前記顔検出部12の検出データおよび前記顔特徴量記憶部15cの記憶データが注目者ログとして蓄積される。   In the pre-detection state storage unit 18, the processing results of the respective units 12.14.15a are recorded for use in the processing after the next frame. The attention log storage unit 19 stores detection data of the face detection unit 12 and storage data of the face feature amount storage unit 15c as attention logs.

前記注目者数集計部20は、前記注視者ログ記録部19の記録データから対象期間内の注視者数を計数し、該各注視者の平均注視時間を算出する。ここでは前記欠番IDログを参照し、欠番IDを除外して平均注視時が算出される。前記結果出力部21は、前記注目者数集計部20の計測結果を出力する。なお、前記各記憶部15c.18.19は、メモリ(RAM)やハードディスクドライブ装置などの記憶装置をもって実現されている。   The number-of-interests counting unit 20 counts the number of viewers within the target period from the recorded data of the viewer's log recording unit 19, and calculates the average watching time of each viewer. Here, with reference to the missing ID log, the average gaze time is calculated by excluding the missing ID. The result output unit 21 outputs the measurement result of the number-of-interests counting unit 20. Each storage unit 15c. 18.19 is realized with a storage device such as a memory (RAM) or a hard disk drive.

以下、前記各機能ブロック11〜21の具体的な処理内容を、図3の処理フローに基づき説明する。この処理内容は、図3(a)の前記撮像装置に映った注目者ログを取得するステップ(S11〜S19)と、図3(b)の注目者ログを集計出力するステップ(S20.S21)とに大別される。   Hereinafter, specific processing contents of the functional blocks 11 to 21 will be described based on the processing flow of FIG. The contents of this process are the steps (S11 to S19) of acquiring the attention log shown in the imaging device of FIG. 3 (a), and the steps of counting and outputting the attention logs of FIG. 3 (b) (S20.S21). It is roughly divided into

(2)注目者ログの取得ステップ
図3(a)中、S11〜S20の処理ステップは、前記撮像装置から画像フレームが入力されている限り繰り返して行われる。
(2) Step of Acquiring Interest Log In FIG. 3A, the processing steps of S11 to S20 are repeated as long as an image frame is input from the imaging device.

S11:前記画像入力部11は、前記撮像装置から連続的に入力される画像フレームを受け付ける(S11)。ここで入力された画像フレームは、前記顔検出部12に伝送される。   S11: The image input unit 11 receives image frames continuously input from the imaging device (S11). The input image frame is transmitted to the face detection unit 12.

S12:前記顔検出部12では、前記画像入力部11から伝送された各画像フレームから顔のある領域を検出する。ここでは例えば非特許文献1に記載された確率的増分符号相関などの統計的手法を利用して高速に検出することが可能である。   S12: The face detection unit 12 detects a region with a face from each image frame transmitted from the image input unit 11. Here, for example, it is possible to detect at high speed using a statistical method such as stochastic incremental code correlation described in Non-Patent Document 1.

このとき検出に用いられた照合評価値、即ち顔らしさを示す類似度は状態判定部14の処理に使用される。また、顔検出部12は、前記類似度と併せて顔領域の検出位置・大きさ・検出時刻などを検出顔情報として測定・取得する。   At this time, the collation evaluation value used for detection, that is, the similarity indicating the face-likeness is used for the processing of the state determination unit 14. Further, the face detection unit 12 measures and acquires the detection position / size / detection time of the face area as detected face information together with the similarity.

S13:前記顔姿勢推定部13では、S12で検出された顔領域(以下、検出顔とする。)の明度パターンを入力として、顔の姿勢を高精度に推定する。ここでは例えば非特許文献2に記載の主成分分析とサポートベクトル回帰を組み合わせたパラメータ推定法などが適用可能である。   S13: The face posture estimation unit 13 estimates the face posture with high accuracy by using the brightness pattern of the face region (hereinafter referred to as a detected face) detected in S12. Here, for example, a parameter estimation method combining principal component analysis and support vector regression described in Non-Patent Document 2 is applicable.

この顔の姿勢を表すパラメータには、yaw角(左右方向の角度),pitch角(上下方向の角度)の2種類が用いられている。なお、前記撮像装置から見て正面向きをyaw角=0度,pitch各=0度とする。   Two types of parameters representing the posture of the face are used: a yaw angle (horizontal angle) and a pitch angle (vertical angle). The front direction when viewed from the imaging device is set to yaw angle = 0 degrees and pitch = 0 degrees.

S14:前記状態判別部14では、前記前検出状態記憶部16を参照して前フレームにおける検出顔の検出位置・大きさとその状態を読み込み、現フレームでの各検出顔の状態を判別する。ここでは現フレームをフレーム(n:n=1.2.3...k)とし、前フレームをフレーム(n−1)とする。このS14で判別する検出顔の状態は以下の3種類とプログラムに定義されているものとする。   S14: The state determination unit 14 reads the detection position / size and the state of the detected face in the previous frame with reference to the previous detection state storage unit 16, and determines the state of each detection face in the current frame. Here, the current frame is a frame (n: n = 1.2.3..k), and the previous frame is a frame (n-1). Assume that the detected face states determined in S14 are defined in the following three types and programs.

状態1:仮検出結果
状態2:正検出結果
状態3:正検出結果、且つ注視状態
具体的には、まず、現フレームの各検出顔を、顔らしさを表す類似度でソートする。つぎに、類似度の高いものから順番に、検出位置と大きさとを用いて、前フレームの検出顔と対応付けていく。この対応付けは1対1に行われ、以下の2条件を両方満たすものと対応付けられるものとする。
State 1: Temporary detection result State 2: Positive detection result State 3: Positive detection result and gaze state Specifically, first, each detected face of the current frame is sorted by the degree of similarity representing the likelihood of a face. Next, in order from the one with the highest similarity, the detection position and the size are used to associate with the detection face of the previous frame. This association is performed on a one-to-one basis, and is associated with a condition that satisfies both of the following two conditions.

条件1:現フレームにおける検出顔の大きさを「s」とした場合、前フレーム検出顔の大きさ「spre」が以下の式(1)に当てはまること。 Condition 1: When the size of the detected face in the current frame is “s”, the size “s pre ” of the previous frame detected face is applied to the following equation (1).

Figure 2010211485
Figure 2010211485

条件2:現フレームにおける検出顔の中心位置を(x,y)とした場合、前フレームにおける検出顔の中心位置(xpre,ypre)が以下の式(2)に当てはまること。 Condition 2: When the center position of the detected face in the current frame is (x, y), the center position (x pre , y pre ) of the detected face in the previous frame is applied to the following equation (2).

Figure 2010211485
Figure 2010211485

式(1)(2)において「kmin」,「kmax」,「lmin」,「lmax」,「mmin」,「mmax」は、あらかじめ与えられる定数である。また、該当するものが2個以上ある場合、中心位置どうしの距離が最も小さいものを採用することとする。そして、現フレームの全ての検出顔が前フレームの検出顔と対応付けられた後に、図4に示す処理に基づいてそれらの状態を決定する。なお、式(1)(2)はプログラムに定義されているものとする。 In Expressions (1) and (2), “k min ”, “k max ”, “l min ”, “l max ”, “m min ”, and “m max ” are constants given in advance. When there are two or more corresponding items, the one having the smallest distance between the center positions is adopted. Then, after all the detected faces in the current frame are associated with the detected faces in the previous frame, their states are determined based on the processing shown in FIG. Expressions (1) and (2) are defined in the program.

図4中、前フレームの検出結果(検出顔の判別結果)が“状態1”のときは、現フレームに対応付けられた検出結果、即ち式(1)(2)の条件を満たす前フレームの検出結果が存在するか否かを判別し(S14a)、存在しない場合は現フレームの検出結果を“検出なし”とする。   In FIG. 4, when the detection result of the previous frame (detected face discrimination result) is “state 1”, the detection result associated with the current frame, that is, the previous frame that satisfies the conditions of equations (1) and (2) It is determined whether or not a detection result exists (S14a). If there is no detection result, the detection result of the current frame is set to “no detection”.

前フレームの検出結果が“状態2”あるいは“状態3”のときも、同様に現フレームに対応付けられた検出結果、即ち式(1)(2)の条件を満たす前フレームの検出顔が存在するか否かを判別する(S14b)。存在しない場合は現フレームの検出結果を“状態1”とする。この場合は、前フレームの検出位置、大きさを継承して現フレームの検出結果に反映する。   Similarly, when the detection result of the previous frame is “state 2” or “state 3”, the detection result associated with the current frame, that is, the detection face of the previous frame that satisfies the conditions of equations (1) and (2) exists. It is determined whether or not to perform (S14b). If it does not exist, the detection result of the current frame is set to “state 1”. In this case, the detection position and size of the previous frame are inherited and reflected in the detection result of the current frame.

ステップS14a.S14bにおいて、対応付けられた検出結果が存在する場合は、姿勢が指定範囲内であるか否かを判別する(S14c)。判別結果が指定範囲内ではない場合は、現フレームの検出結果を“状態2”とする一方、指定範囲内である場合は“状態3”とする。ここで指定範囲内とは、現フレームにおける検出顔の姿勢パラメータ(yaw角,pitch角)が以下の式(3)を満たす場合を指す。   Step S14a. If there is an associated detection result in S14b, it is determined whether or not the posture is within the specified range (S14c). If the determination result is not within the specified range, the detection result of the current frame is set to “state 2”, whereas if it is within the specified range, “state 3” is set. Here, “within the designated range” refers to a case where the posture parameters (yaw angle, pitch angle) of the detected face in the current frame satisfy the following expression (3).

Figure 2010211485
Figure 2010211485

式(3)中、「ymin」,「ymax」,「pmin」,「pmax」は、あらかじめ与えられる定数である。これらの定数値を適切に設定することで、前記撮像装置と広告メディアとの相対的な位置関係にある程度の自由度を持たせることができる。例えば、ななめ横から撮像するような状態にも対応可能である。なお、式(3)もプログラムに定義されているものとする。 In Expression (3), “y min ”, “y max ”, “p min ”, and “p max ” are constants given in advance. By appropriately setting these constant values, a certain degree of freedom can be given to the relative positional relationship between the imaging device and the advertising media. For example, it is possible to cope with a state where an image is picked up from the side of the slant. Note that equation (3) is also defined in the program.

前フレームの検出結果が“検出なし”のときは、現フレームに前フレームのどの結果とも対応付けられなかったものが残存するか否かを判別し(ステップS14d)、残存する場合は現フレームの検出結果を“状態1”とする。ここで検出された現フレームの検出結果は、前記前検出状態記憶部18に記録される。なお、状態判別の結果例を、図5(前フレーム−現フレーム:1sec)に示しておく。   When the detection result of the previous frame is “no detection”, it is determined whether or not the current frame that is not associated with any result of the previous frame remains (step S14d). The detection result is “state 1”. The detection result of the current frame detected here is recorded in the previous detection state storage unit 18. An example of the result of state determination is shown in FIG. 5 (previous frame-current frame: 1 sec).

S15:前記検出ID等付与部15aでは、それぞれの検出顔の状態と対応付けられた前フレームの検出顔が持つ検出ID情報および注視時間情報に基づき、現フレームでの検出ID等の情報を付与する。   S15: In the detection ID etc. adding section 15a, information such as the detection ID in the current frame is given based on the detection ID information and gaze time information of the detection face of the previous frame associated with each detected face state. To do.

このとき顔特徴量抽出部15bが、所定の条件に応じて検出顔の顔特徴量を抽出し、前記顔特徴量記憶部15cに記憶させる。なお、前記顔特徴量記憶部15cには、検出IDを付与されたフレーム毎に顔領域の顔特徴量が順次に記憶されている。この意味で前記顔特徴量記憶部15cには各過去フレームの検出顔の顔特徴量が蓄積されている。具体的な処理方法を以下に示す。   At this time, the face feature quantity extraction unit 15b extracts the face feature quantity of the detected face according to a predetermined condition and stores it in the face feature quantity storage unit 15c. The face feature amount storage unit 15c sequentially stores face feature amounts of face areas for each frame to which a detection ID is assigned. In this sense, the face feature value storage unit 15c stores the face feature values of the detected face of each past frame. A specific processing method is shown below.

現フレームの検出顔が”状態1”であり、かつ前フレームに対応する検出顔が存在しない場合は、新規の検出IDが発行・付与され、注視時間0秒とする。例えば図5(c)中の検出顔(ID:14)が該当する。   When the detected face of the current frame is “state 1” and there is no detected face corresponding to the previous frame, a new detection ID is issued and assigned, and the gaze time is 0 second. For example, the detected face (ID: 14) in FIG.

ここでは、y’min,y’max,p’min,p’maxのそれぞれに指定した数値を代入する(これらは、顔特徴量を前記顔特徴量記憶部15cに保存するか否か判定する際に使用し、以後更新の可能性もあるため、検出IDごとに固有に持つものとする)。例えば前述した定数を利用して、
y’min←ymin,y’max←ymax,p’min←pmin,p’max←pmax
と指定してもよく、全く異なる数値を入れてもよい。また、”状態2”あるいは”状態3”と判別されたか否かを示すフラグFlg1、および過去フレームの顔特徴量と合致したか否かを示すフラグFlg2をOFFにする(これらも検出IDごとに固有に持つ)。ここでは過去フレームはフレーム(n−2.3.4...k)とする。
Here, the designated numerical values are substituted for each of y ′ min , y ′ max , p ′ min , and p ′ max (these determine whether or not to store the face feature amount in the face feature amount storage unit 15c. It is used in the event that it may be updated later, so it must be unique for each detection ID). For example, using the constants described above,
y ′ min ← y min , y ′ max ← y max , p ′ min ← p min , p ′ max ← p max
May be specified, or a completely different value may be entered. Further, the flag Flg1 indicating whether or not it has been determined as “state 2” or “state 3” and the flag Flg2 indicating whether or not the face feature amount of the past frame is matched are turned off (these are also detected for each detection ID). Inherently). Here, the past frame is assumed to be a frame (n-2.3.4... K).

現フレームの検出顔が”状態1”であり、かつ前フレームに対応する検出顔が存在する場合は、検出IDおよび注視時間情報を対応する前フレーム検出顔からそのまま継承する。例えば図5(c)中の検出顔(ID:10)が該当する。   When the detected face of the current frame is “state 1” and there is a detected face corresponding to the previous frame, the detection ID and gaze time information are inherited from the corresponding previous frame detected face as they are. For example, the detected face (ID: 10) in FIG.

そして、前フレームの検出顔のFlg1がONの場合には、前記特徴量記憶部15cに記憶された同一IDの顔特徴量の属性情報として消失時刻を記録する(OFFの場合は、一度も記憶していないため、同一IDの顔特徴量が存在しない)。その際、顔がフレームから消失した否かを示すFlg’1をONにする。この点も前記消失時刻と同様、前記特徴量記憶部15cに記憶された顔特徴量の属性情報とする。   When Flg1 of the detected face of the previous frame is ON, the disappearance time is recorded as the attribute information of the face feature amount with the same ID stored in the feature amount storage unit 15c (if it is OFF, it is stored once. No face feature amount with the same ID exists). At this time, Flg′1 indicating whether the face has disappeared from the frame is turned ON. This point is also the face feature value attribute information stored in the feature value storage unit 15c, similar to the disappearance time.

”状態2”の場合には、検出IDおよび注視時間情報を対応する前フレームの検出顔からそのまま継承する。例えば図5(c)中の検出顔(ID:11)が該当する。ここでは現フレームの検出顔の姿勢パラメータ(yaw角、pitch角)が式(4)の条件を満たすとき、顔特徴量を前記顔特徴量記憶部15cに記憶する処理を実行する。   In the case of “state 2”, the detection ID and the gaze time information are directly inherited from the detection face of the corresponding previous frame. For example, the detected face (ID: 11) in FIG. Here, when the posture parameters (yaw angle, pitch angle) of the detected face of the current frame satisfy the condition of Expression (4), processing for storing the face feature amount in the face feature amount storage unit 15c is executed.

Figure 2010211485
Figure 2010211485

ここではy’min、y’max、p’min、p’maxの値を、以下のように順次更新していくものとする。 Here, it is assumed that the values of y ′ min , y ′ max , p ′ min , and p ′ max are sequentially updated as follows.

y’min←−|yaw|,y’max←|yaw|
p’min←−|pitch|,p’max←|pitch|
顔特徴量は照合に適したものが選択され、代表例としては非特許文献3のgabor特徴が挙げられる。検出顔の顔特徴量の抽出後に、検出ID・注視時間・姿勢パラメータ(yaw角,pitch角)とともに前記顔特徴量記憶部15cに記憶し、フラグFlg1をONにする。また、検出顔がフレームから消失したか否かを示すFlg’1をOFFにする。ここでは前記顔特徴量記憶部15c内に同じ検出IDが存在する場合は以前のものを上書きする。以上の更新処理を行うことで、同一検出IDについては、より正面向きに近い顔の特徴量が記憶部15に記憶され、顔の向き変動に柔軟に対応している。
y ′ min ← − | yaw |, y ′ max ← | yaw |
p ′ min ← − | pitch |, p ′ max ← | pitch |
A face feature amount suitable for collation is selected, and a typical example is the gabor feature of Non-Patent Document 3. After extraction of the facial feature amount of the detected face, it is stored in the facial feature amount storage unit 15c together with the detection ID, gaze time, and posture parameters (yaw angle, pitch angle), and the flag Flg1 is turned on. Also, Flg′1 indicating whether or not the detected face has disappeared from the frame is turned OFF. Here, if the same detection ID exists in the face feature amount storage unit 15c, the previous one is overwritten. By performing the above update processing, for the same detection ID, the face feature amount closer to the front direction is stored in the storage unit 15, and the face direction variation is flexibly dealt with.

”状態3”の場合には、検出IDを前フレームからそのまま継承し、注視時間を、(対応する前フレームの検出顔が持つ注視時間情報)+(前フレーム−現フレーム間の経過時間)とする。例えば図5(c)の検出顔(ID:13)が該当する。この検出顔(ID:13)の注視時間は3secと算出されている。   In the case of “state 3”, the detection ID is inherited from the previous frame as it is, and the gaze time is expressed as (gaze time information of the detection face of the corresponding previous frame) + (elapsed time between the previous frame and the current frame). To do. For example, the detected face (ID: 13) in FIG. The gaze time of this detected face (ID: 13) is calculated as 3 sec.

ここでは”状態2”の場合と同様に所定の条件を満たす場合は顔特徴量・検出ID・注視時間・姿勢パラメータ(yaw角,pitch角)を前記顔特徴量記憶部15cに記憶する。併せてFlg1をONに、Flg’1をOFFにする。   Here, as in the case of “state 2”, when a predetermined condition is satisfied, the face feature quantity, detection ID, gaze time, and posture parameters (yaw angle, pitch angle) are stored in the face feature quantity storage unit 15c. At the same time, Flg1 is turned on and Flg'1 is turned off.

S16:前記顔特徴量照合部16は、数フレーム間で未検出の顔領域が現フレームにおいて新たに検出された場合、前記顔特徴量記憶部15cに記憶された過去フレームの顔特徴量との照合処理を行う。   S16: When a face area that has not been detected in several frames is newly detected in the current frame, the face feature amount matching unit 16 determines whether the face feature amount comparison unit 16c compares the face feature amount of the past frame stored in the face feature amount storage unit 15c. Perform verification processing.

例えば、過去フレーム(n−4)で”状態2”あるいは”状態3”の検出顔は、過去フレーム(n−3)で未検出の場合に、図4中のS14b.S14cに示すように”状態1”と判別される。この検出顔は、過去フレーム(n−2)で未検出の場合、S14aに示すように、”検出なし”と判別され、該検出顔をロストする。   For example, if the detected face of “state 2” or “state 3” in the past frame (n−4) is not detected in the past frame (n−3), S14b. As shown in S14c, it is determined as “state 1”. If this detected face is not detected in the past frame (n−2), it is determined as “no detection” as shown in S14a, and the detected face is lost.

ところが、前フレーム(n−1)で同一の顔領域が新たに検出された場合には、S14dに示すように、新規IDが付与され、ダブルカウントが生じる。この検出顔は、さらに現フレーム(n)では、S14b.S14cに従って”状態2”あるいは”状態3”と判定されるおそれがある。   However, when the same face area is newly detected in the previous frame (n-1), a new ID is assigned and double counting occurs as shown in S14d. This detected face is further displayed in S14b. According to S14c, there is a risk of being determined as “state 2” or “state 3”.

そこで、前記顔特徴量照合部16では、過去フレームの顔特徴量と合致するか否かを示すFlg2を参照し、OFFの場合に前記顔特徴量記憶部15cに記憶された過去フレームの顔特徴量との照合処理を行う。具体的には、まず、現フレームの検出位置から切出された顔画像から特徴量を抽出する(前記顔特徴量記憶部15cで既に抽出された顔特徴量があればそれを流用してもよい。)。   Therefore, the face feature amount matching unit 16 refers to Flg2 indicating whether or not the face feature amount of the past frame matches, and when it is OFF, the face feature of the past frame stored in the face feature amount storage unit 15c. Check the amount. Specifically, first, a feature amount is extracted from a face image cut out from the detection position of the current frame (if there is a face feature amount already extracted by the face feature amount storage unit 15c, it may be reused). Good.)

つぎに前記顔特徴量記憶部15cに記憶された顔特徴量(検出顔がフレームから消失したか否かを示すフラグFlg’1がONであるもの限る。)と、現フレームの検出顔から抽出された特徴量の照合を行う。ここでは前記顔特徴量記憶部15cに記憶された顔特徴量の姿勢パラメータと、現フレーム検出顔の姿勢パラメータとの差が指定範囲内の場合にのみ照合を行うものとする。   Next, it is extracted from the face feature value stored in the face feature value storage unit 15c (only if the flag Flg′1 indicating whether or not the detected face has disappeared from the frame is ON) and the detected face of the current frame. Matched feature values are checked. Here, collation is performed only when the difference between the posture parameter of the face feature amount stored in the face feature amount storage unit 15c and the posture parameter of the current frame detected face is within the specified range.

照合の結果、特徴量が合致した場合は、現フレーム検出顔の検出IDを、欠番IDログとして前記注目者ログ記憶部19に記録する(欠番IDログは追記方式で記録される。)。ここで記録した検出IDに該当する顔特徴量が前記顔特徴量記憶部15に存在する場合は、その特徴量と関連する情報(検出ID、注視時間、姿勢パラメータ、消失時刻、Flg’1)を該記憶部15から除外する。   If the feature values match as a result of the collation, the detection ID of the current frame detection face is recorded as the missing ID log in the attention log storage unit 19 (the missing ID log is recorded by the appending method). When the face feature amount corresponding to the detection ID recorded here exists in the face feature amount storage unit 15, information related to the feature amount (detection ID, gaze time, posture parameter, disappearance time, Flg'1) Are excluded from the storage unit 15.

そして、現フレームの検出顔の検出IDを、先程合致した前記顔特徴量記憶部15c内の顔特徴量が持つ検出IDに置き換える。これにより同一の検出顔は、顔特徴量などが一つに限定され、前記顔特徴量記憶部15cの記憶容量の圧迫が抑制される。このとき先程合致した前記顔特徴量記憶部15c内の顔特徴量が持つ注視時間を現フレームの検出顔の注視時間に加算する。すなわち、現フレームの検出顔の注視時間は、前記顔特徴量記憶部15c内の顔特徴量が持つ注視時間を加算した数値に更新される。   Then, the detection ID of the detected face of the current frame is replaced with the detection ID of the face feature quantity in the face feature quantity storage unit 15c that has been matched. As a result, the same detected face is limited to one face feature amount and the like, and the compression of the storage capacity of the face feature amount storage unit 15c is suppressed. At this time, the gaze time of the face feature amount in the face feature amount storage unit 15c that matches the previous time is added to the gaze time of the detected face of the current frame. That is, the gaze time of the detected face in the current frame is updated to a value obtained by adding the gaze time of the face feature amount in the face feature amount storage unit 15c.

また、検出顔がフレームから消失したか否か示すフラグFlg’1をOFFに切り替え、過去フレームの顔特徴量と合致したか否かを示すフラグFlg2をONに切り替える。したがって、過去フレームの検出顔の顔特徴と一度でも合致した場合、その顔特徴の照合処理は再度行われない。これらの処理を現フレームで検出された”状態2”あるいは”状態3”の検出顔に対しそれぞれ適用する。   Further, the flag Flg′1 indicating whether or not the detected face has disappeared from the frame is switched OFF, and the flag Flg2 indicating whether or not the detected face matches the face feature amount of the past frame is switched ON. Therefore, when the face feature of the detected face in the past frame matches even once, the face feature matching process is not performed again. These processes are applied to the detected faces in “state 2” or “state 3” detected in the current frame.

S17:前記顔特徴量削除部17では、前記顔特徴量記憶部15cの記憶データのうち、検出顔がフレームから消失したか否かを示すフラグFlg’1がONで、かつ消失時刻が現在時刻より一定時間以前(あらかじめプログラムに設定しておく。)の顔特徴量をピックアップする。   S17: In the face feature value deletion unit 17, the flag Flg′1 indicating whether or not the detected face has disappeared from the frame is ON in the stored data of the face feature value storage unit 15c, and the disappearance time is the current time. Pick up facial features before a certain time (set in the program in advance).

ここでピックアップされた顔特徴量に関する情報(顔特徴量、検出ID、注視時間、姿勢パラメータ、消失時刻、Flg’1)を顔特徴量記憶部15cから除外する。   The information (face feature value, detection ID, gaze time, posture parameter, disappearance time, Flg′1) regarding the face feature value picked up here is excluded from the face feature value storage unit 15c.

S18:前検出状態記録部18には、S12.S14.S15の処理結果、即ち現フレーム中のすべての検出顔について、顔検出時刻、位置、大きさ、状態、検出ID、注視時間、y’min、y’max、p’min、p’max、Flg1、Flg2が記録される。その際、前回記録した分は消去する。 S18: The pre-detection state recording unit 18 includes S12. S14. Processing result of S15, that is, face detection time, position, size, state, detection ID, gaze time, y ′ min , y ′ max , p ′ min , p ′ max , Flg1 for all detected faces in the current frame , Flg2 is recorded. At that time, the previously recorded data is deleted.

S19:注目者ログ記憶部19には、S12.S15.S16の処理結果、即ち顔検出部12の検出した現フレームのすべての検出顔の検出時刻、前記顔特徴量記憶部15cに記憶された検出IDおよび注視時間(S15〜S17の処理後のもの)が注目者ログとして時系列に記録される。その際に前回記録した分は消去せず、追記のかたちで蓄積される。   S19: The attention log storage unit 19 includes S12. S15. Processing result of S16, that is, detection times of all detected faces of the current frame detected by the face detection unit 12, detection IDs and gaze times stored in the face feature amount storage unit 15c (after processing of S15 to S17) Are recorded in chronological order as the attention log. At that time, the previously recorded amount is not erased but is accumulated in the form of additional writing.

なお、S19の処理後にも画像フレームが入力されている場合にはS11に戻って次フレームの処理を開始する。この場合には前検出状態記録部18の記録情報は前フレームの検出顔情報として状態判別部14.検出ID等付与部・顔特徴量記憶部15に伝送される。一方、画像フレームの入力が無い場合には注目者ログの取得工程を終了する。   If an image frame has been input even after the process of S19, the process returns to S11 to start the process of the next frame. In this case, the recorded information of the previous detection state recording unit 18 is detected as state detection unit 14. This is transmitted to the detection ID etc. assigning unit / face feature amount storage unit 15. On the other hand, if there is no input of an image frame, the attention log acquisition process is terminated.

(3)出力ステップ
S20:前記注目指標集計部20では、注目者ログ記憶部19に記録された注目者ログ,ユーザ指定の対象期間,ユーザ指定の注視時間しきい値を入力とし、”一定時間内に広告メディアを注視した人数”を計測する。
(3) Output step S20: In the attention index totaling unit 20, the attention log recorded in the attention log storage unit 19, the target period specified by the user, and the gaze time threshold specified by the user are inputted, and “fixed time” The number of people who watched the advertising media within.

具体的には、まず前記注目者ログ記憶部20から対象期間内の注目者ログを読み込む。このとき対象期間は、ユーザが入力手段などをもって指定するものであるが、ディジタルサイネージやテレビコマーシャル等では対象広告が一部時間帯に限定されている場合もありうる。その場合は、対象広告メディアのタイムスケジュール情報を入力し、広告表示されている時間帯でさらに絞り込む。   Specifically, first, an attention log within a target period is read from the attention log storage unit 20. At this time, the target period is specified by the user with an input means or the like, but the target advertisement may be limited to a part of the time zone in digital signage, television commercials, and the like. In that case, the time schedule information of the target advertising media is input, and further narrowed down by the time zone in which the advertisement is displayed.

つぎに検出時刻が最も遅いものから順に参照しつつ、検出IDの異なる検出顔情報(ここでは検出時刻,検出ID,注視時間)を一つずつピックアップしていく。この操作により、同一検出IDの検出顔情報は注視時間情報が最大のものだけが唯一つ残されることになる。しかし、この中には途中から同一人物として認識された顔のログも混ざっている。そこで、前述した欠番IDログを参照し、欠番IDのものを除外する。   Next, detection face information with different detection IDs (here, detection time, detection ID, gaze time) is picked up one by one while referring to the detection time from the latest detection time. As a result of this operation, only the detected face information with the same detection ID is left with the largest gaze time information. However, the log of the face recognized as the same person from the middle is also mixed. Therefore, with reference to the aforementioned missing ID log, those with missing IDs are excluded.

さらに、注視時間情報が注視時間しきい値より小さいものを除外する(この処理は省略してもよい)。最終的に残った検出顔数を集計して、”一定時間内に広告を注視した人数”が求められる。また、最終的に残った検出顔の注視時間の合計を検出顔数で割れば”注視時間の平均値”が算出される。   Furthermore, information whose gaze time information is smaller than the gaze time threshold is excluded (this process may be omitted). The total number of detected faces remaining in the end is totaled, and the “number of people who watched the advertisement within a certain time” is obtained. Further, the “average value of the gaze time” is calculated by dividing the total of the gaze time of the remaining detected faces by the number of detected faces.

S21:前記結果出力部21では、S20で得られた集計結果を出力する。この出力はディスプレイなどの表示手段に映してもよく、またプリンタなどで出力してもよい。   S21: The result output unit 21 outputs the counting result obtained in S20. This output may be displayed on display means such as a display, or may be output by a printer or the like.

このように広告効果測定装置10によれば、数フレーム分間で未検出の顔領域が現フレームで検出された場合に、顔特徴量記憶部15に記憶された過去フレームの顔特徴量との照合処理が行われ、同一人物のダブルカウントが防止される。   As described above, according to the advertisement effect measuring apparatus 10, when an undetected face area is detected in the current frame for several frames, it is compared with the face feature amount of the past frame stored in the face feature amount storage unit 15. Processing is performed and double counting of the same person is prevented.

このとき照合処理は、両フレーム間で検出顔の姿勢パラメータ差が指定範囲内の場合に限定されていることから、照合対象が限られ、全体の処理が効率化し、処理が安定化する。   At this time, the collation process is limited to the case where the detected face posture parameter difference is within the specified range between both frames, so the collation target is limited, the entire process becomes efficient, and the process is stabilized.

また、両フレーム間で顔特徴量が合致するとフラグFlg’1がOFFに切り替えられ、フラグFlg2がONに切り替えられることから、過去フレームの検出顔の顔特徴と一度でも合致したフレームの顔特徴量は、以後の照合処理に利用されることがなく、照合処理の処理対象がさらに限定され、全体の処理効率が向上する。さらに、各フレームの特徴量は、顔姿勢パラメータが式(4)の条件満たさない場合には顔特徴量記憶部15cに記憶されないことから、この点でも照合対象が限定されている。   In addition, when the face feature amount matches between both frames, the flag Flg'1 is switched to OFF and the flag Flg2 is switched to ON. Therefore, the face feature amount of the frame that matches the detected face feature of the past frame even once. Are not used in the subsequent collation processing, the processing target of the collation processing is further limited, and the overall processing efficiency is improved. Further, since the feature amount of each frame is not stored in the face feature amount storage unit 15c when the face posture parameter does not satisfy the condition of the expression (4), the collation target is also limited in this respect.

なお、本発明は、前記広告効果測定装置としてコンピュータを機能させるプログラムとしても構築することができる。このプログラムは、S11〜S21の全てのステップをコンピュータに実行させるものでもよく、あるいはS11〜S19などの一部のステップのみを実行させるものでもよい。   The present invention can also be constructed as a program that causes a computer to function as the advertisement effect measuring device. This program may cause the computer to execute all steps S11 to S21, or may execute only some steps such as S11 to S19.

このプログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体10に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置(光学ドライブなど)を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。   This program can be provided through a network such as a website or e-mail. The program is recorded in a recording medium 10 such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, Blu-ray Disk (registered trademark). It can also be stored and distributed. This recording medium is read using a recording medium driving device (such as an optical drive), and the program code itself realizes the processing of the above-described embodiment, so that the recording medium also constitutes the present invention.

10…広告効果測定装置(注視度合測定装置)
11…画像入力部
12…顔検出部(顔検出手段)
13…顔姿勢推定部(顔姿勢推定手段)
14…状態判別部(状態判別手段)
15…検出ID等・顔特徴量記憶部
15a…検出ID等付与部(検出ID等付与手段)
15b…顔特徴量抽出部
15c…顔特徴量記憶部(記憶手段)
16…顔特徴量照合部(照合処理手段)
17…顔特徴量削除部
18…前検出状態記憶部
19…注目者ログ記憶部
20…注目者数集計部(注視者数集計手段)
21…結果出力部
10 ... Advertising effect measuring device (gazing degree measuring device)
DESCRIPTION OF SYMBOLS 11 ... Image input part 12 ... Face detection part (face detection means)
13. Face orientation estimation unit (face orientation estimation means)
14: State determination unit (state determination means)
15 ... Detection ID etc./Facial feature amount storage unit 15a ... Detection ID etc. granting unit
15b ... face feature amount extraction unit 15c ... face feature amount storage unit (storage means)
16: Face feature amount matching unit (matching processing means)
Reference numeral 17: Facial feature amount deletion unit 18: Previous detection state storage unit 19 ... Attention log storage unit 20 ... Attention number totaling unit
21 ... Result output section

Claims (10)

注視対象物の周囲を撮像した画像から、該注視対象物の注視度合を測定する装置であって、
前記撮像装置から時系列に入力されたフレーム中、顔の存在する領域を順次に検出し、検出顔データとして検出位置・大きさ・顔らしさの類似度・検出時刻を取得する顔領域検出手段と、
前記顔領域検出手段の検出した顔領域の顔姿勢を表すパラメータを推定する顔姿勢推定手段と、
連続する前フレームと現フレームとの間で顔領域を、前記検出顔データおよび前記パラメータをもって対応付けて、現フレームの顔領域の状態を判別する状態判別手段と、
前記状態判別手段にて判別された顔領域の検出ID・注視時間を、対応付けられた前フレームでの検出ID・注視時間に基づき付与し、該顔領域の顔特徴量を記憶手段に記憶させる検出ID等付与手段と、
現フレームの顔特徴量が、現フレームと不連続の過去フレームの顔特徴量に合致すれば、該顔特徴量を持つ顔領域の検出IDを過去フレームの検出IDに置換え、置換えた検出IDの注視時間を現フレームの顔領域の注視時間に加算し、前記記憶手段の記憶データを更新させる照合処理手段と、
前記検出顔データおよび前記記憶データのログから注目者数を求め、該各注視者の平均注視時間を算出する注目者数集計手段と、
を備えることを特徴とする注視度合測定装置。
A device that measures the degree of gaze of the gaze object from an image obtained by imaging the periphery of the gaze object,
A face area detecting unit that sequentially detects a region where a face exists in a frame input in time series from the imaging apparatus, and obtains a detection position, a size, a similarity of face-likeness, and a detection time as detected face data; ,
Face posture estimation means for estimating a parameter representing the face posture of the face area detected by the face area detection means;
A state determination means for determining a state of the face area of the current frame by associating a face area between the continuous previous frame and the current frame with the detected face data and the parameter;
The detection ID / gaze time of the face area determined by the state determination unit is assigned based on the detection ID / gaze time in the associated previous frame, and the facial feature amount of the face area is stored in the storage unit A granting means such as detection ID;
If the face feature amount of the current frame matches the face feature amount of the past frame that is discontinuous with the current frame, the detection ID of the face area having the face feature amount is replaced with the detection ID of the past frame, and the detection ID of the replaced detection ID Collation processing means for adding the gaze time to the gaze time of the face area of the current frame and updating the storage data of the storage means;
Number-of-interests counting means for obtaining the number of attentions from the log of the detected face data and the stored data, and calculating an average attention time for each of the attentions;
A gaze degree measuring device comprising:
前記照合処理手段は、両フレーム間の顔領域において前記パラメータの差が指定範囲内のときに顔特徴量が合致すると判定し、
前記判定は、いずれかの過去フレームにおける顔領域の顔特徴量と一度合致すれば以後行われない
ことを特徴とする請求項1記載の注視度合測定装置。
The matching processing unit determines that the face feature amount matches when the difference in the parameter is within a specified range in the face area between both frames,
The gaze degree measurement apparatus according to claim 1, wherein the determination is not performed after a match with a facial feature amount of a facial region in any past frame.
前記検出ID等付与手段は、顔領域の前記パラメータが指定範囲内のときに限り、顔特徴量を前記記憶手段に記憶させる
ことを特徴とする請求項1または2のいずれか1項に記載の注視度合測定装置。
The said detection ID etc. provision means stores a face feature-value in the said memory | storage means, only when the said parameter of a face area is in the designated range, The said storage means is characterized by the above-mentioned. Gaze degree measuring device.
前記検出ID等付与手段は、前記パラメータの表す顔姿勢が最も正面に近い顔領域の顔特徴量を前記記憶憶手段に記憶させる
ことを特徴とする請求項1〜3のいずれか1項に記載の注視度合測定装置。
The said detection ID etc. provision means memorize | stores the face feature-value of the face area | region where the face attitude | position which the said parameter represents closest to the front in the said memory | storage memory means. Gaze degree measuring device.
注視対象物の周囲を撮像した画像から、該注視対象物の注視度合を測定する方法であって、
顔領域検出手段が、前記撮像装置から時系列に入力されたフレーム中、顔の存在する領域を順次に検出し、検出顔データとして検出位置・大きさ・顔らしさの類似度・検出時刻を取得する第1ステップと、
顔姿勢推定手段が、前記顔領域検出手段の検出した顔領域の顔姿勢を表すパラメータを推定する第2ステップと、
状態判別部が、連続する前フレームと現フレームとの間で顔領域を、前記検出顔データおよび前記パラメータをもって対応付けて、現フレームの顔領域の状態を判別する第3ステップと、
検出ID等付与手段が、前記第3ステップにて判別された顔領域の検出ID・注視時間を、対応付けられた前フレームでの検出ID・注視時間に基づき付与し、該顔領域の顔特徴量を記憶手段に記憶させる第4ステップと、
照合処理手段が、現フレームの顔特徴量と現フレームに不連続の過去フレームの顔特徴量とが合致すれば、該顔特徴量を持つ顔領域の検出IDを過去フレームの検出IDに置換え、置換えた検出IDの注視時間を現フレームの顔領域の注視時間に加算し、前記記憶手段の記憶データを更新させる第5ステップと、
注目者数集計手段が、前記検出顔データおよび前記記憶データのログから注目者数を求め、該各注視者の平均注視時間を算出する第6ステップと、
を有することを特徴とする注視度合測定方法。
A method for measuring the degree of gaze of the gaze object from an image obtained by imaging the periphery of the gaze object,
The face area detecting means sequentially detects the area where the face exists in the frames input in time series from the imaging device, and obtains the detected position / size / similarity / detection time as detected face data. A first step to:
A second step in which the face posture estimation means estimates a parameter representing the face posture of the face area detected by the face area detection means;
A third step of determining a state of the face area of the current frame by associating a face area between the continuous previous frame and the current frame with the detected face data and the parameter;
A detection ID and the like assigning unit assigns the detection ID and the gaze time of the face area determined in the third step based on the detection ID and the gaze time in the associated previous frame, and the facial features of the face area A fourth step of storing the amount in the storage means;
When the face processing amount of the current frame matches the face feature amount of the discontinuous past frame in the current frame, the matching processing means replaces the detection ID of the face area having the face feature amount with the detection ID of the past frame, A fifth step of adding the gaze time of the replaced detection ID to the gaze time of the face area of the current frame and updating the storage data of the storage means;
A sixth step in which a number-of-interests counting unit obtains the number of attentions from the log of the detected face data and the stored data, and calculates an average gaze time of each of the viewers;
A gaze degree measuring method characterized by comprising:
前記第5ステップにおいて、両フレーム間の顔領域において前記パラメータの差が指定範囲内のときに顔特徴量が合致すると判定し、
前記判定は、いずれかの過去フレームにおける顔領域の顔特徴量と一度合致すれば以後行われない
ことを特徴とする請求項5記載の注視度合測定方法。
In the fifth step, when the difference between the parameters is within a specified range in the face area between both frames, it is determined that the face feature amount matches,
The gaze degree measurement method according to claim 5, wherein the determination is not performed thereafter once the facial feature amount of the face area in any past frame is matched.
前記第4ステップにおいて、顔領域の前記パラメータが指定範囲内のときに限り、顔特徴量を前記記憶手段に記憶させる
ことを特徴とする請求項5または6のいずれか1項に記載の注視度合測定方法。
7. The gaze degree according to claim 5, wherein, in the fourth step, the facial feature amount is stored in the storage unit only when the parameter of the face region is within a specified range. Measuring method.
前記第4ステップにおいて、前記パラメータの表す顔姿勢が最も正面に近い顔領域の顔特徴量を前記記憶憶手段に記憶させる
ことを特徴とする請求項5〜7のいずれか1項に記載の注視度合測定方法。
The gaze according to any one of claims 5 to 7, wherein, in the fourth step, a face feature amount of a face region whose face posture represented by the parameter is closest to the front is stored in the storage means. Degree measurement method.
請求項1〜4のいずれか1項に記載の注視度合測定装置の各手段としてコンピュータを機能させるための注視度合測定プログラム。   A gaze degree measurement program for causing a computer to function as each means of the gaze degree measurement apparatus according to any one of claims 1 to 4. 請求項9に記載された注視度合測定プログラムを記録した記録媒体。   The recording medium which recorded the gaze degree measurement program described in Claim 9.
JP2009056582A 2009-03-10 2009-03-10 Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded Pending JP2010211485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009056582A JP2010211485A (en) 2009-03-10 2009-03-10 Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009056582A JP2010211485A (en) 2009-03-10 2009-03-10 Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded

Publications (1)

Publication Number Publication Date
JP2010211485A true JP2010211485A (en) 2010-09-24

Family

ID=42971577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009056582A Pending JP2010211485A (en) 2009-03-10 2009-03-10 Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded

Country Status (1)

Country Link
JP (1) JP2010211485A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248141A (en) * 2011-05-31 2012-12-13 Mitsubishi Electric Corp Gazer detection device
US20130050395A1 (en) * 2011-08-29 2013-02-28 DigitalOptics Corporation Europe Limited Rich Mobile Video Conferencing Solution for No Light, Low Light and Uneven Light Conditions
CN103024338A (en) * 2011-04-08 2013-04-03 数字光学欧洲有限公司 Display device with image capture and analysis module
US8878967B2 (en) 2007-03-05 2014-11-04 DigitalOptics Corporation Europe Limited RGBW sensor array
JP2015185139A (en) * 2014-03-26 2015-10-22 株式会社ドッドウエル ビー・エム・エス Advertisement distribution device, advertisement distribution system and advertisement distribution method
JP2017211731A (en) * 2016-05-24 2017-11-30 リズム時計工業株式会社 Head-count counting system, head-count counting method, and head-count counting result browsing method
JP2020088618A (en) * 2018-11-27 2020-06-04 株式会社リコー Video conferencing system, communication terminal, and method of controlling microphone of communication terminal
JPWO2021153207A1 (en) * 2020-01-27 2021-08-05

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163655A (en) * 2000-11-24 2002-06-07 Omron Corp Personal authentication device
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measuring device and attention level measuring system
JP2008112462A (en) * 2007-12-21 2008-05-15 Toshiba Corp Face area-tracing method by using face image, and device therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163655A (en) * 2000-11-24 2002-06-07 Omron Corp Personal authentication device
JP2007181071A (en) * 2005-12-28 2007-07-12 Shunkosha:Kk Apparatus and method for evaluating attention paid to contents
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measuring device and attention level measuring system
JP2008112462A (en) * 2007-12-21 2008-05-15 Toshiba Corp Face area-tracing method by using face image, and device therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNH200900126005; 久保田 英俊: 'SpursEngine搭載AVノートPC技術' 東芝レビュー 第63巻 第11号 第63巻, 20081101, 第54-57ページ, 株式会社東芝 *
JPN6012020932; 久保田 英俊: 'SpursEngine搭載AVノートPC技術' 東芝レビュー 第63巻 第11号 第63巻, 20081101, 第54-57ページ, 株式会社東芝 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8878967B2 (en) 2007-03-05 2014-11-04 DigitalOptics Corporation Europe Limited RGBW sensor array
CN103024338A (en) * 2011-04-08 2013-04-03 数字光学欧洲有限公司 Display device with image capture and analysis module
JP2012248141A (en) * 2011-05-31 2012-12-13 Mitsubishi Electric Corp Gazer detection device
US20130050395A1 (en) * 2011-08-29 2013-02-28 DigitalOptics Corporation Europe Limited Rich Mobile Video Conferencing Solution for No Light, Low Light and Uneven Light Conditions
JP2015185139A (en) * 2014-03-26 2015-10-22 株式会社ドッドウエル ビー・エム・エス Advertisement distribution device, advertisement distribution system and advertisement distribution method
JP2017211731A (en) * 2016-05-24 2017-11-30 リズム時計工業株式会社 Head-count counting system, head-count counting method, and head-count counting result browsing method
JP2020088618A (en) * 2018-11-27 2020-06-04 株式会社リコー Video conferencing system, communication terminal, and method of controlling microphone of communication terminal
JP7225735B2 (en) 2018-11-27 2023-02-21 株式会社リコー VIDEO CONFERENCE SYSTEM, COMMUNICATION TERMINAL AND MICROPHONE CONTROL METHOD OF COMMUNICATION TERMINAL
JPWO2021153207A1 (en) * 2020-01-27 2021-08-05
WO2021153207A1 (en) * 2020-01-27 2021-08-05 ソニーグループ株式会社 Information processing device, program, and method
US20230049305A1 (en) * 2020-01-27 2023-02-16 Sony Group Corporation Information processing device, program, and method
JP7729209B2 (en) 2020-01-27 2025-08-26 ソニーグループ株式会社 Information processing device, program and method
US12430774B2 (en) * 2020-01-27 2025-09-30 Sony Group Corporation Information processing device, program, and method

Similar Documents

Publication Publication Date Title
JP5113721B2 (en) Media information attention measuring device, media information attention measuring method, media information attention measuring program, and recording medium recording the program
US11303960B2 (en) Methods and apparatus to count people
US11527070B2 (en) Methods and apparatus to count people in images
JP7421149B2 (en) Advertisement viewing information output method, advertisement viewing information output program, and information processing device
JP2010211485A (en) Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
US8660308B2 (en) Methods and apparatus for detecting a composition of an audience of an information presenting device
US9292736B2 (en) Methods and apparatus to count people in images
JP4991440B2 (en) Product sales apparatus, product sales management system, product sales management method and program
US9465999B2 (en) Methods and apparatus to count people in images
CN109376982B (en) Target employee selection method and device
CN105095853A (en) Image processing apparatus and image processing method
CN111368619A (en) Method, device and equipment for detecting suspicious people
CN110795584A (en) User identifier generation method and device and terminal equipment
US20110264534A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
WO2020018349A4 (en) Systems and methods for generating targeted media content
JP2011070629A (en) Advertising effect measurement system and advertising effect measurement device
JP2011070629A5 (en)
CN112135092A (en) an image processing method
JP2011232864A (en) Facility information classification system and facility information classification program
US9195312B2 (en) Information processing apparatus, conference system, and information processing method
JP2011135477A (en) Monitoring method and monitoring device
AU2020202221A1 (en) Privacy preserving visitor recognition and movement pattern analysis based on computer vision
WO2012054048A1 (en) Apparatus and method for evaluating an object
JP6815667B1 (en) Information processing equipment, information processing methods, programs and camera systems
JP5103287B2 (en) ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121023