[go: up one dir, main page]

JP2013149050A - Target object determination device, target object determination method and program - Google Patents

Target object determination device, target object determination method and program Download PDF

Info

Publication number
JP2013149050A
JP2013149050A JP2012008592A JP2012008592A JP2013149050A JP 2013149050 A JP2013149050 A JP 2013149050A JP 2012008592 A JP2012008592 A JP 2012008592A JP 2012008592 A JP2012008592 A JP 2012008592A JP 2013149050 A JP2013149050 A JP 2013149050A
Authority
JP
Japan
Prior art keywords
face
imaging unit
unit
sight
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012008592A
Other languages
Japanese (ja)
Other versions
JP5834941B2 (en
Inventor
Motonobu Mihara
基伸 三原
Satoru Nakajima
哲 中島
Masayoshi Shimizu
雅芳 清水
Yoshihide Fujita
芳英 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012008592A priority Critical patent/JP5834941B2/en
Publication of JP2013149050A publication Critical patent/JP2013149050A/en
Application granted granted Critical
Publication of JP5834941B2 publication Critical patent/JP5834941B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】注目を集めている対象を的確に特定できるようにする。
【解決手段】全身撮像部11は、複数の人の動画像を撮像する。体動量検出部12は、この複数の人の各々の体動量を、全身撮像部11での撮像画像から検出する。顔撮像部13は、この複数の人の各々の顔の動画像を撮像する。撮像部制御部14は、顔撮像部13を制御して、この複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に顔撮像部13の視野を向けさせて、その顔の動画像を撮像させる。視線検出部15は、顔撮像部13での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。注目対象特定部17は、注目を集めている対象物を、検出された視線の方向に基づいて特定する。
【選択図】図3
An object of the present invention is to make it possible to accurately identify an object that is attracting attention.
A whole body imaging unit 11 captures moving images of a plurality of people. The body motion amount detection unit 12 detects the body motion amount of each of the plurality of people from the image captured by the whole body imaging unit 11. The face imaging unit 13 captures a moving image of each face of the plurality of people. The imaging unit control unit 14 controls the face imaging unit 13 to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of persons or the person whose detected body movement amount has decreased. The visual field of the face imaging unit 13 is directed to the face, and a moving image of the face is captured. The line-of-sight detection unit 15 detects the direction of the line of sight of a person whose face is reflected in the image captured by the face imaging unit 13 from the captured image. The attention object specifying unit 17 specifies an object attracting attention based on the direction of the detected line of sight.
[Selection] Figure 3

Description

本明細書で議論される実施態様は、注目を集めている対象を特定する技術に関するものである。   The embodiments discussed herein relate to techniques for identifying the subject of interest.

特定の注目対象の注目度を計測し、解析して得られる注目度データを容易に把握できるようにするという技術が知られている。この技術は、まず、撮像された人物の視線方向を計測し、計測された視線方向から、その人物の注目位置情報を算出し、算出された注目位置情報を用いて、その人物の注目対象についての注目度情報を算出する。この技術は、その後、算出された注目度情報に基づき生成されたグラフィックス情報と、注目対象の画像とを重ね合わせた表示を行う。   A technique is known in which the attention level of a specific target of interest is measured and attention level data obtained by analysis can be easily grasped. This technique first measures the gaze direction of the person who has been imaged, calculates the attention position information of the person from the measured gaze direction, and uses the calculated attention position information to determine the attention target of the person. Attention level information is calculated. This technique then performs a display in which graphics information generated based on the calculated attention level information and the target image are superimposed.

また、人体の眼球運動から映像コンテンツの評価を行うという技術が知られている。この技術は、評価すべき映像としての刺激映像をディスプレイに提示すると共に、この刺激映像を観察中の被検者の眼球反応の撮像を行う。この技術は、その後、撮像された眼球画像信号を2値化処理して所定の眼球運動データを得ると共に、刺激映像と、それに対応する眼球運動データとを時間軸上に併せて表示する。   In addition, a technique for evaluating video content from human eye movements is known. In this technique, a stimulus image as an image to be evaluated is presented on a display, and an eyeball reaction of a subject who is observing the stimulus image is imaged. In this technique, the captured eyeball image signal is then binarized to obtain predetermined eye movement data, and the stimulus image and the corresponding eye movement data are displayed together on the time axis.

また、画像表示装置に表示される画像が動画像の場合に、画像を見ている時間や人数だけでなく、注目しているタイミングを考慮して注目度の度合いを測定するという技術が知られている。この技術は、まず、表示部に表示された動画像情報を注視する被検査個体を撮像し、撮像画像から人物の視線を検出し、検出された視線が表示部を注視しているかを判断し、注視している人数をカウントする。この技術は、その後、カウントされた人数と、各フレームに与えられたフレーム重みとから、動画のフレームがどれだけ注目されたかを表すフレーム注目スコアを算出し、算出されたフレーム注目スコアから動画像全体における動画像注目スコアを算出する。   In addition, when the image displayed on the image display device is a moving image, a technique for measuring the degree of attention in consideration of not only the time and number of people watching the image but also the timing of attention is known. ing. In this technology, first, an inspected individual who watches the moving image information displayed on the display unit is imaged, a person's gaze is detected from the captured image, and it is determined whether the detected gaze is gazing at the display unit. , Count the number of people watching. This technique then calculates a frame attention score indicating how much the frame of the video has received attention from the counted number of people and the frame weight given to each frame, and a moving image is calculated from the calculated frame attention score. The moving image attention score in the whole is calculated.

特開2007−286995号公報JP 2007-286995 A 特開2004−282471号公報JP 2004-282471 A 特開2006−268630号公報JP 2006-268630 A

広告のためにコンテンツ(商品等の対象物)を表示若しくは配置する表示装置(デジタルサイネージ:Digital Signage )や商品陳列棚というものが知られている。以下の説明では、これらを「サイネージ」と総称する。   There are known display devices (digital signage) and product display shelves for displaying or arranging content (objects such as products) for advertisement. In the following description, these are collectively referred to as “signage”.

サイネージでは、複数の見物人が、そこに表示若しくは配置される様々なコンテンツを同時に見ながら、欲しいものがあるかどうかの品定めをする。このような状況では、各見物人は、様々なコンテンツに視線を向け、その注目度に応じて移動する。このような、複数の見物人がサイネージのコンテンツを同時に見るような環境下において、コンテンツの提供者には、コンテンツの見物人の注目度を調べ、どのコンテンツが気に入っているかを知り、その知見を今後の商品開発に役立てたいという希望がある。   In signage, a plurality of spectators determine whether there is a desired item while simultaneously viewing various contents displayed or arranged there. In such a situation, each spectator looks at various contents and moves according to the degree of attention. In such an environment where multiple spectators watch signage content at the same time, the content provider checks the attention level of the content spectators, knows which content they like, and uses that knowledge in the future. There is hope to be useful for product development.

複数の見物人がサイネージ上のコンテンツを見ている際における、当該コンテンツに対する注目度を抽出する手法が知られている。そのひとつに、図1に図解するように、サイネージ1上のコンテンツ2を見ている複数の見物人3の顔画像を1人ずつカメラ4で撮像し、この顔画像から検出される各見物人3の視線の情報に基づいて、コンテンツ2に対する注目度を抽出するという手法がある。この手法では、1台のカメラを回動させながら、例えば1秒程度の短時間の撮像時間で見物人3の顔画像を一人ずつ撮像するようにして視線情報を取得する。   There is known a technique for extracting the degree of attention to a content when a plurality of viewers are viewing the content on the signage. For example, as illustrated in FIG. 1, the face images of a plurality of spectators 3 who are viewing the content 2 on the signage 1 are captured one by one with the camera 4, and each spectator 3 detected from the face image is captured. There is a technique of extracting a degree of attention to the content 2 based on line-of-sight information. In this method, the line-of-sight information is acquired by rotating one camera while capturing the face images of the spectator 3 one by one in a short imaging time of, for example, about 1 second.

ところが、この手法では、見物人3が本当にコンテンツ2に注目しているかどうかを正しく判定することは難しい。これは、上述のような短時間の撮像時間では、その撮像時にたまたまコンテンツ2を眺めていた場合や、注目していたコンテンツ2からたまたま視線を外していた場合などに、見物人3がコンテンツ2に注目しているかどうかを誤認することがあるためである。   However, with this method, it is difficult to correctly determine whether or not the spectator 3 really pays attention to the content 2. This is because, in the short imaging time as described above, the spectator 3 changes to the content 2 when the content 2 happens to be viewed at the time of the imaging or when the gaze happens to be removed from the content 2 of interest. This is because it may be misunderstood whether attention is being paid.

一般に、人が注意を向けようとして対象物を実際に見る場合には、じっと(例えば5秒程度)見続けることが多い。そこで、例えば、一人の顔画像を例えば十数秒間連続して撮像して得られた顔画像を使用して視線情報を取得するようにすれば、見物人3がコンテンツ2に注目しているかどうかを確定できるようにはなる。しかし、コンテンツ2への注目度の抽出をする処理を特定の一人に注力すれば、他の見物人3は、その場から離れてしまったり、注目しているコンテンツ2の対象が変わってしまったりして、他の見物人3のコンテンツ2への注目度の抽出がおろそかになってしまう。このように、上述した手法では、サイネージ1を見ている見物人3全員を対象としてコンテンツ2への注目度の抽出を行うことは難しい。   In general, when a person actually looks at an object in order to pay attention, the user often keeps watching (for example, about 5 seconds). Therefore, for example, if the gaze information is acquired using a face image obtained by continuously capturing a face image of, for example, a dozen seconds, it is determined whether or not the spectator 3 is paying attention to the content 2. It can be confirmed. However, if the process of extracting the degree of attention to the content 2 is focused on a specific person, the other spectators 3 may move away from the spot or the target of the content 2 of interest may change. Thus, the extraction of the attention level to the content 2 of other spectators 3 is neglected. Thus, with the method described above, it is difficult to extract the attention level to the content 2 for all the onlookers 3 who are watching the signage 1.

また、別の手法として、図2に図解するように、画角の広い広角カメラ5を使用して、同時にサイネージ1を見ている見物人3全員の顔又は体を撮像するという手法が考えられる。しかし、この手法では、各見物人3がどの方向を向いているかまでは確認できるものの、各見物人3が何かに注目しているかどうかを個別に確認することは難しい。また、広角カメラ5で得られる広角画像から見物人3の視線情報を取得することは難しいため、この手法では、各見物人3がコンテンツ2にどの程度注目しているのかを詳細に調べることが困難である。   As another method, as illustrated in FIG. 2, a method may be considered in which a wide-angle camera 5 having a wide angle of view is used to image the faces or bodies of all the viewers 3 who are simultaneously viewing the signage 1. However, with this method, although it is possible to confirm up to which direction each spectator 3 is facing, it is difficult to individually confirm whether each spectator 3 is paying attention to something. Further, since it is difficult to obtain the line-of-sight information of the spectator 3 from the wide-angle image obtained by the wide-angle camera 5, it is difficult to examine in detail how much each spectator 3 is paying attention to the content 2 with this method. is there.

また、複数の人の各々についてコンテンツに注目しているかどうかを確定するために、カメラを多数用意して、各カメラで各人の顔画像を撮像して視線情報を取得することは可能であるが、多数のカメラを用意することでコストが極めて高くなってしまう。   In addition, in order to determine whether or not each of a plurality of people is paying attention to the content, it is possible to prepare a large number of cameras and acquire the line-of-sight information by capturing each person's face image with each camera. However, the cost becomes extremely high by preparing a large number of cameras.

上述した問題に鑑み、本明細書で後述する注目対象特定装置は、注目を集めている対象を的確に特定できるようにする。   In view of the above-described problems, the attention target identification device described later in this specification enables a target that is attracting attention to be accurately identified.

本明細書で後述する注目対象特定装置のひとつに、第一撮像部と、体動量検出部と、第二撮像部と、制御部と、視線検出部と、注目対象特定部とを備えるというものがある。ここで、第一撮像部は、複数の人の動画像を撮像する。体動量検出部は、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。第二撮像部は、この複数の人の各々の顔の動画像を撮像する。制御部は、第二撮像部を制御して、この複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。視線検出部は、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目対象特定部は、注目を集めている対象物を、検出された視線の方向に基づいて特定する。   One of the attention target identification devices described later in this specification includes a first imaging unit, a body movement amount detection unit, a second imaging unit, a control unit, a line-of-sight detection unit, and an attention target identification unit. There is. Here, the first imaging unit captures moving images of a plurality of people. The body movement amount detection unit detects the body movement amount of each of the plurality of persons from the captured image obtained by the first imaging unit. The second imaging unit captures a moving image of each face of the plurality of people. The control unit controls the second imaging unit to select a face of the plurality of persons whose detected body movement amount is smaller than a threshold value or a person's face whose detected body movement amount has decreased. The field of view of the second imaging unit is directed to capture a moving image of the face. The line-of-sight detection unit detects the direction of the line of sight of a person whose face is reflected in the image captured by the second image capturing unit from the captured image. Then, the attention target identification unit identifies an object that is attracting attention based on the direction of the detected line of sight.

また、本明細書で後述する注目対象特定方法のひとつは、まず、複数の人の動画像を第一撮像部で撮像する。次に、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。次に、この複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。次に、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目を集めている対象物を、検出された視線の方向に基づいて特定する。   Further, in one of the attention target identification methods described later in this specification, first, a plurality of human moving images are captured by a first imaging unit. Next, the amount of body movement of each of the plurality of people is detected from the captured image in the first imaging unit. Next, the second imaging unit that captures a moving image of each face of the plurality of people is controlled to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of people, or detection The visual field of the second imaging unit is directed to the face of the person whose body movement amount has been reduced, and a moving image of the face is captured. Next, the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit is detected from the captured image. Then, an object that is attracting attention is identified based on the detected direction of the line of sight.

また、本明細書で後述するプログラムのひとつは、以下の処理を演算処理装置に行わせる。この処理は、まず、複数の人の動画像を第一撮像部で撮像する。次に、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。次に、この複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。次に、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目を集めている対象物を、検出された視線の方向に基づいて特定する。   One of the programs described later in this specification causes the arithmetic processing unit to perform the following processing. In this process, first, moving images of a plurality of people are imaged by the first imaging unit. Next, the amount of body movement of each of the plurality of people is detected from the captured image in the first imaging unit. Next, the second imaging unit that captures a moving image of each face of the plurality of people is controlled to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of people, or detection The visual field of the second imaging unit is directed to the face of the person whose body movement amount has been reduced, and a moving image of the face is captured. Next, the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit is detected from the captured image. Then, an object that is attracting attention is identified based on the detected direction of the line of sight.

本明細書で後述する注目対象特定装置によれば、注目を集めている対象を的確に特定できるという効果を奏する。   According to the attention target identification device described later in this specification, there is an effect that an object that is attracting attention can be accurately identified.

コンテンツに対する注目度を抽出する手法の第一の例を説明する図である。It is a figure explaining the 1st example of the method of extracting the attention degree with respect to a content. コンテンツに対する注目度を抽出する手法の第二の例を説明する図である。It is a figure explaining the 2nd example of the method of extracting the attention degree with respect to a content. 注目対象特定装置の一実施例の構成を図解した機能ブロック図である。It is the functional block diagram which illustrated the structure of one Example of an attention object specific device. 注目対象特定装置の一実施例のハードウェア構成図である。It is a hardware block diagram of one Example of an attention object specific device. 注目対象特定装置において行われる制御処理の処理手順を図解したフローチャートである。It is the flowchart which illustrated the process sequence of the control process performed in an attention object specific apparatus. 全身撮像部制御処理の説明図である。It is explanatory drawing of a whole body imaging part control process. コンテンツに注目していない状態の見物人の体の動きの説明図である。It is explanatory drawing of the motion of the onlooker's body in the state which is not paying attention to content. コンテンツに注目している状態の見物人の体の動きの説明図である。It is explanatory drawing of the motion of the onlooker's body in the state which is paying attention to content. 撮像部制御部による全身撮像部の駆動制御の説明図である。It is explanatory drawing of drive control of the whole body imaging part by an imaging part control part. 全身画像撮像処理の処理手順の一例を図解したフローチャートである。It is the flowchart which illustrated an example of the process sequence of a whole body image imaging process. 体動量検出・判定処理の処理手順の一例を図解したフローチャートである。6 is a flowchart illustrating an example of a processing procedure of body movement amount detection / determination processing. 撮像部制御部による顔撮像部の駆動制御の説明図である。It is explanatory drawing of the drive control of the face imaging part by an imaging part control part. 顔画像撮像処理の処理手順の一例を図解したフローチャートである。It is the flowchart which illustrated an example of the process sequence of a face image imaging process. コンテンツのサイネージ上の配置位置が表されているテーブルの例である。It is an example of the table in which the arrangement position on the signage of content is represented. 図13のテーブルを説明する図である。It is a figure explaining the table of FIG. 体動量に基づいたコンテンツへの注目の判定における誤判定の例の説明図である。It is explanatory drawing of the example of the misjudgment in determination of the attention to the content based on the amount of body movements. 顔検出部が行う処理の処理手順を図解したフローチャートである。It is the flowchart which illustrated the process sequence of the process which a face detection part performs. 優先度の付与の説明図である。It is explanatory drawing of provision of a priority. 優先度付与部が行う処理の処理手順を図解したフローチャートである。It is the flowchart which illustrated the process sequence of the process which a priority provision part performs.

これより説明する実施例に係る注目対象特定装置では、サイネージに陳列されているコンテンツを複数の人が同時に見ている場合における各人のコンテンツに対する注目度を判定するために、全身撮像用のカメラと視線検出用のカメラとの2台のカメラを使用する。   In the attention target identification device according to the embodiment described below, a camera for whole-body imaging is used to determine the degree of attention to each person's content when a plurality of people are simultaneously viewing the content displayed on the signage. And two cameras for detecting the line of sight.

この装置では、まず、全身撮像用のカメラを用いて、人の体の動きや顔の動きを撮像する。詳しくは後述するが、通常、人は、コンテンツに注目していない状態では、顔や体をいろいろな向きに動かしているが、何かに注意を向けると、体や顔の動きが小さくなる。この装置では、この体や顔の動きの変化を捉えて、注目している人を抽出する。   In this apparatus, first, a human body motion and a facial motion are imaged using a whole-body imaging camera. As will be described in detail later, when a person is not paying attention to the content, the person moves the face and body in various directions. However, if attention is directed to something, the movement of the body and face becomes smaller. In this device, the change of the movement of the body and face is captured and the person who is paying attention is extracted.

この装置に使用する全身撮像用のカメラとしては、広角で且つ高フレームレートのカメラを使用し、例えば、30fps(フレーム/秒)以上の速度で動画像の撮像を行うことが好ましい。なお、この全身撮像用のカメラでの複数の人を撮像する際には、カメラの向きを変えながら一人ずつ全身撮像しても良いし、一度に複数の人の全身を撮像するようにしてもよい。なお、この装置には、全身撮像用のカメラの向きを変える機能を持たせるようにする。   As the whole-body imaging camera used in this apparatus, it is preferable to use a wide-angle and high-frame-rate camera, for example, to capture a moving image at a speed of 30 fps (frame / second) or more. When imaging a plurality of people with this whole body imaging camera, the whole body may be imaged one by one while changing the direction of the camera, or the whole body of a plurality of people may be imaged at a time. Good. This apparatus is provided with a function of changing the orientation of the whole body imaging camera.

次に、この装置では、視線検出用のカメラを使用して、顔や体の動きが小さい人、若しくはその動きの変化が小さくなった人の顔の画像を撮像し、得られた顔画像から、その視線の方向の検出を行う。   Next, in this device, a camera for detecting the line of sight is used to capture an image of the face of a person whose face or body movement is small, or a person whose change in movement is small, and from the obtained face image The direction of the line of sight is detected.

視線検出用のカメラとしては、全身撮像用のものに比べて低フレームレートのカメラを使用し、例えば、1〜20fps(フレーム/秒)以上の速度で顔の動画像の撮像を行うようにする。これは、通常、人は、何かに注目しているときは、同じコンテンツを比較的長時間継続して見ることから、視線の動きの変化が小さく、従って、低フレームレートでの動画像撮像を行って顔画像の取得枚数を減らしても視線の検出は適切に行えるからである。なお、視線検出用のカメラで顔画像を撮像する際には、カメラの向きを変えながら一人ずつ撮像するようにする。   As a camera for line-of-sight detection, a camera with a lower frame rate than that for whole body imaging is used, and for example, a moving image of a face is captured at a speed of 1 to 20 fps (frames / second) or more. . This is because when a person is paying attention to something, he or she sees the same content continuously for a relatively long period of time, so the change in the movement of the line of sight is small, and therefore moving image capture at a low frame rate. This is because the line of sight can be detected appropriately even if the number of face images acquired is reduced. Note that when face images are picked up by a camera for line-of-sight detection, one person is picked up while changing the direction of the camera.

実施例に係る注目対象特定装置では、上述のように全身撮像用のカメラと視線検出用のカメラとの2台のカメラを使用して、コンテンツに注目する人の注目度を取得する機能を有する。   The attention target specifying device according to the embodiment has a function of acquiring the attention level of a person who pays attention to the content by using two cameras, the whole body imaging camera and the line-of-sight detection camera, as described above. .

図3について説明する。図3は、注目対象特定装置の一実施例の構成を図解した機能ブロック図である。
図3の注目対象特定装置10は、全身撮像部11、体動量検出部12、顔撮像部13、撮像部制御部14、視線検出部15、記憶部16、及び注目対象特定部17を備えている。
With reference to FIG. FIG. 3 is a functional block diagram illustrating the configuration of an embodiment of the target identification device.
The attention target specifying device 10 of FIG. 3 includes a whole body imaging unit 11, a body movement amount detection unit 12, a face imaging unit 13, an imaging unit control unit 14, a line-of-sight detection unit 15, a storage unit 16, and an attention target identification unit 17. Yes.

全身撮像部11は、サイネージに陳列されているコンテンツ(対象物)を見ている、当該サイネージの周囲に在る複数の人の動画像を撮像する。より具体的には、全身撮像部11は、複数の人の体の動きや顔の動きを撮像する、前述した全身撮像用のカメラである。   The whole body imaging unit 11 captures moving images of a plurality of people who are viewing the content (object) displayed on the signage and are around the signage. More specifically, the whole-body imaging unit 11 is the above-described whole-body imaging camera that images a plurality of human body movements and facial movements.

体動量検出部12は、その複数の人の各々の体動量を全身撮像部11での撮像画像から検出する。
顔撮像部13は、人の顔の動画像を撮像する。より具体的には、顔撮像部13は、顔や体の動きが小さい人の顔、若しくはその動きの変化が小さくなった人の顔の画像を撮像する、前述した視線検出用のカメラである。
The body motion amount detection unit 12 detects the body motion amount of each of the plurality of people from the image captured by the whole body imaging unit 11.
The face imaging unit 13 captures a moving image of a human face. More specifically, the face imaging unit 13 is the above-described eye-gaze detection camera that captures an image of a face of a person whose face or body movement is small or a face of a person whose change in movement is small. .

撮像部制御部14は、顔撮像部13を制御して、その複数の人のうちの、体動量検出部12により検出された体動量が閾値よりも小さい人の顔、若しくは、当該検出された体動量が減少した人の顔に顔撮像部13の視野を向けさせて、その顔の動画像を撮像させる。また、撮像部制御部14は、全身撮像部11の駆動制御も行う。   The imaging unit control unit 14 controls the face imaging unit 13 to detect the face of the person whose body movement amount detected by the body movement amount detection unit 12 is smaller than the threshold among the plurality of persons, or the detected face. The visual field of the face imaging unit 13 is directed to the face of a person whose body movement amount has decreased, and a moving image of the face is captured. The imaging unit control unit 14 also performs drive control of the whole body imaging unit 11.

視線検出部15は、顔撮像部13での撮像画像に顔が映っている人の視線の方向を、その撮像画像から検出する。
記憶部16は、全身撮像部11及び顔撮像部13による撮像画像と、撮像部制御部14による制御の履歴とを記憶しておくメモリである。更に、記憶部16は、体動量検出部12による複数の人の各々の体動量の検出結果、及び、視線検出部15による各人の視線の方向の検出結果を記憶する。
The line-of-sight detection unit 15 detects the direction of the line of sight of a person whose face is reflected in the image captured by the face imaging unit 13 from the captured image.
The storage unit 16 is a memory that stores a captured image by the whole body imaging unit 11 and the face imaging unit 13 and a history of control by the imaging unit control unit 14. Further, the storage unit 16 stores the detection results of the body movement amounts of the plurality of persons by the body movement amount detection unit 12 and the detection results of the direction of each person's line of sight by the line of sight detection unit 15.

注目対象特定部17は、記憶部16に記憶されている情報のうちの、視線検出部15による各人の視線の方向の検出結果に基づいて、注目を集めているコンテンツの特定を行う。   The attention target identification unit 17 identifies the content that is attracting attention based on the result of detection of the direction of each person's gaze by the gaze detection unit 15 in the information stored in the storage unit 16.

なお、サイネージがデジタルサイネージである場合、すなわち、注目を集めているコンテンツが不図示の表示装置に表示されている場合がある。この場合には、注目対象特定部17は、視線検出部15により検出された視線の方向に基づくと共に、更に、視線検出部15によって視線の方向の検出が行われた人とコンテンツの表示装置上での表示位置との相対的な位置関係に基づいて、コンテンツの特定を行う。   In addition, when the signage is digital signage, that is, content that is drawing attention may be displayed on a display device (not shown). In this case, the attention target specifying unit 17 is based on the direction of the line of sight detected by the line-of-sight detection unit 15, and further, on the display device of the person and content whose line-of-sight direction is detected by the line-of-sight detection unit 15. The content is specified based on the relative positional relationship with the display position at.

なお、この注目対象特定装置10において、全身撮像部11として、顔撮像部13よりも画角が広角である撮像部を使用してもよい。このようにすると、1フレームの撮像画像により多数の人の像を取り込むことができる。   In this attention object specifying device 10, an imaging unit having a wider angle of view than the face imaging unit 13 may be used as the whole body imaging unit 11. In this way, it is possible to capture images of a large number of people from a captured image of one frame.

また、顔撮像部13による顔の動画像の撮像におけるフレームレートは、全身撮像部11による複数の人の動画像の撮像におけるフレームレートよりも低くしてもよい。このようにしても、視線の検出は適切に行うことができ、副次的には、視線検出の処理量の低減化や記憶部16の容量の節約にも繋がる。   In addition, the frame rate for capturing a moving image of a face by the face imaging unit 13 may be lower than the frame rate for capturing a moving image of a plurality of people by the whole body imaging unit 11. Even if it does in this way, detection of a gaze can be performed appropriately and it leads also to the reduction of the processing amount of a gaze detection, and the saving of the capacity | capacitance of the memory | storage part 16 as a secondary.

なお、注目対象特定装置10は、図3において破線を用いて描かれている顔検出部21を更に備えてもよい。顔検出部21は、全身撮像部11での撮像画像に映っている複数の人のうち、当該撮像画像に顔が映っている人を検出する。なお、この場合には、撮像部制御部14は、顔検出部21により検出された、全身撮像部11での撮像画像に顔が映っている人についての顔の動画像を顔撮像部13に撮像させる。詳細は後述するが、このようにすることで、コンテンツに注目していない人をコンテンツに注目していると誤検出することの抑制が可能になる。   Note that the attention target identification device 10 may further include a face detection unit 21 drawn using broken lines in FIG. The face detection unit 21 detects a person whose face is reflected in the captured image among a plurality of people reflected in the captured image of the whole-body imaging unit 11. In this case, the image capturing unit control unit 14 causes the face image capturing unit 13 to transmit a moving image of the face detected by the face detecting unit 21 for a person whose face appears in the captured image of the whole body image capturing unit 11. Let the image be taken. Although details will be described later, this makes it possible to suppress erroneous detection of a person who is not paying attention to the content as being focused on the content.

また、注目対象特定装置10は、図3において破線を用いて描かれている分析部22を更に備えてもよい。分析部22は、注目を集めているコンテンツへの注目度の分析を行う。なお、本実施例では、この分析は、視線検出部15によって視線の方向が検出された人が当該コンテンツに視線を向けている時間の長さに基づいて行われる。なお、分析部22は、記憶部16に記憶されている、視線検出部15による視線の検出結果を用いて、この分析を行う。   Moreover, the attention object specific apparatus 10 may further be provided with the analysis part 22 drawn using the broken line in FIG. The analysis unit 22 analyzes the degree of attention to the content attracting attention. In the present embodiment, this analysis is performed based on the length of time that the person whose line-of-sight direction is detected by the line-of-sight detection unit 15 is directing his / her line of sight to the content. The analysis unit 22 performs this analysis using the line-of-sight detection result by the line-of-sight detection unit 15 stored in the storage unit 16.

また、注目対象特定装置10は、図3において破線を用いて描かれている優先度付与部23を更に備えてもよい。優先度付与部23は、前述の複数の人のうちでの注目を集めているコンテンツへの注目度の高さの順位を表している優先度を、当該複数の人の各々とコンテンツとの相対的な位置関係に基づき、当該複数の人の各々に付与する。なお、この場合、撮像部制御部14は、複数の人のうちの、体動量検出部12により検出された体動量が閾値よりも小さい人、若しくは、当該検出された体動量が減少した人に、この優先度の高い順に顔撮像部13の視野を向けさせて顔の動画像を撮像させる。詳細は後述するが、このようにすることで、コンテンツを見ている複数の人の中でもコンテンツに対する注目度が相対的に高い人ほど早期に視線の検出が行われ、高い注目を集めているコンテンツの特定が早期に行えるようになる。   Moreover, the attention object specific apparatus 10 may further be provided with the priority provision part 23 drawn using the broken line in FIG. The priority assigning unit 23 sets the priority indicating the level of the degree of attention to the content attracting attention among the plurality of people described above relative to each of the plurality of people and the content. Is given to each of the plurality of persons based on the physical positional relationship. In this case, the imaging unit control unit 14 determines a person whose body motion amount detected by the body motion amount detection unit 12 is smaller than a threshold or a person whose detected body motion amount has decreased among a plurality of people. Then, the visual field of the face imaging unit 13 is directed in order from the highest priority to capture a moving image of the face. As will be described in detail later, by doing this, content that attracts a lot of attention is detected at an earlier stage as the degree of attention to the content is relatively high among a plurality of people watching the content. Can be identified early.

図3の注目対象特定装置10は、以上のように構成されている。この注目対象特定装置10では、まず、サイネージの周囲に在る複数の人の全身画像の取得が行われ、この全身画像から、複数の人の各々の顔や体の動き(体動)を捉え、この体動量に基づき、どの人がコンテンツに注目しているかを判別する。この注目対象特定装置10では、更に、コンテンツに注目していると判別された人の視線を検出することによって、この人がコンテンツに注目しているかどうかを更に詳細に確認する。このように、注目対象特定装置10では、コンテンツに注目しているかどうかについて2段階のチェックを行う。注目対象特定装置10は、このようにすることで、複数の人が同時に同じサイネージを見ている場合に、どのコンテンツに対しての注目度が高いかを、的確に検出することが可能であるので、注目度を検出する際において高い検出性能が得られる。   The attention target identification device 10 in FIG. 3 is configured as described above. In this attention object identification device 10, first, whole body images of a plurality of people around the signage are acquired, and the movements (body movements) of the faces and bodies of the plurality of people are captured from the whole body images. Based on the amount of body movement, it is determined which person is paying attention to the content. In this attention object specifying device 10, it is further confirmed in detail whether or not this person is paying attention to the content by detecting the line of sight of the person determined to be paying attention to the content. In this way, the attention target identification device 10 performs a two-stage check as to whether or not attention is paid to content. In this way, the target object specifying device 10 can accurately detect which content has a high degree of attention when a plurality of people are watching the same signage at the same time. Therefore, high detection performance can be obtained when detecting the degree of attention.

次に図4について説明する。図4は、注目対象特定装置の一実施例のハードウェア構成図である。
図4において、注目対象特定装置10は、コンピュータ30、全身撮像カメラ41、顔撮像カメラ42、及びカメラ駆動装置43を備えている。
Next, FIG. 4 will be described. FIG. 4 is a hardware configuration diagram of an embodiment of the target identification device.
In FIG. 4, the attention target identification device 10 includes a computer 30, a whole body imaging camera 41, a face imaging camera 42, and a camera driving device 43.

コンピュータ30は、図3における体動量検出部12、撮像部制御部14、視線検出部15、記憶部16、注目対象特定部17、顔検出部21、分析部22、及び優先度付与部23の各機能を提供する。   The computer 30 includes the body movement amount detection unit 12, the imaging unit control unit 14, the line-of-sight detection unit 15, the storage unit 16, the attention target identification unit 17, the face detection unit 21, the analysis unit 22, and the priority assignment unit 23 illustrated in FIG. Provide each function.

全身撮像カメラ41は、サイネージに陳列されているコンテンツ(対象物)を見ている、当該サイネージの周囲に在る複数の人の全身画像を撮像するカメラであり、図3における全身撮像部11の機能を提供する。   The whole body imaging camera 41 is a camera that captures whole body images of a plurality of people around the signage watching the content (object) displayed on the signage. The whole body imaging unit 11 in FIG. Provide functionality.

顔撮像カメラ42は、人の顔の動画像を撮像するカメラであり、図3における顔撮像部13の機能を提供する。
カメラ駆動装置43は、撮像部制御部14として機能しているコンピュータ30によって制御されて、全身撮像カメラ41及び顔撮像カメラ42を駆動してその向きを変化させることにより、カメラの視野を変化させる。
The face imaging camera 42 is a camera that captures a moving image of a human face, and provides the function of the face imaging unit 13 in FIG.
The camera driving device 43 is controlled by the computer 30 functioning as the imaging unit control unit 14 and drives the whole body imaging camera 41 and the face imaging camera 42 to change their directions, thereby changing the field of view of the camera. .

コンピュータ30のハードウェア構成について説明する。
コンピュータ30は、MPU31、ROM32、RAM33、インタフェース装置34、及びハードディスク装置35を備えている。なお、これらの構成要素はバスライン36を介して接続されており、MPU31の管理の下で各種のデータを相互に授受することができる。
A hardware configuration of the computer 30 will be described.
The computer 30 includes an MPU 31, a ROM 32, a RAM 33, an interface device 34, and a hard disk device 35. These components are connected via a bus line 36, and various data can be exchanged under the management of the MPU 31.

MPU(Micro Processing Unit)31は、コンピュータ30全体の動作を制御する演算処理装置である。
ROM(Read Only Memory)32は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。MPU31は、この基本制御プログラムをコンピュータ30の起動時に読み出して実行することにより、コンピュータ30の各構成要素の動作制御が可能になる。
An MPU (Micro Processing Unit) 31 is an arithmetic processing unit that controls the operation of the entire computer 30.
A ROM (Read Only Memory) 32 is a read-only semiconductor memory in which a predetermined basic control program is recorded in advance. The MPU 31 can control the operation of each component of the computer 30 by reading out and executing this basic control program when the computer 30 is activated.

RAM(Random Access Memory)33は、MPU31が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。   A RAM (Random Access Memory) 33 is a semiconductor memory that can be written and read at any time and used as a working storage area as necessary when the MPU 31 executes various control programs.

インタフェース装置34には、全身撮像カメラ41、顔撮像カメラ42、及びカメラ駆動装置43が接続されている。インタフェース装置34は、これらの機器との間で行われる、撮像画像データや制御データ等の各種情報の授受の管理を行う。   A whole body imaging camera 41, a face imaging camera 42, and a camera driving device 43 are connected to the interface device 34. The interface device 34 manages the exchange of various information such as captured image data and control data performed with these devices.

ハードディスク装置35は、MPU31によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU31は、ハードディスク装置35に記憶されている所定の制御プログラムを読み出して実行することにより、各種の制御処理を行えるようになる。また、ハードディスク装置35は、図3における記憶部16として機能する。   The hard disk device 35 is a storage device that stores various control programs executed by the MPU 31 and various data. The MPU 31 can perform various control processes by reading and executing a predetermined control program stored in the hard disk device 35. The hard disk device 35 functions as the storage unit 16 in FIG.

前述したように、コンピュータ30は、図3における体動量検出部12、撮像部制御部14、視線検出部15、記憶部16、注目対象特定部17、顔検出部21、分析部22、及び優先度付与部23の各機能を提供する。このためには、以降で説明する各種の制御処理をMPU31に行わせるための制御プログラムを予め作成しておき、作成された制御プログラムをハードディスク装置35に予め格納しておく。そして、コンピュータ30に所定の指示を与えて、MPU31に上述の制御プログラムをハードディスク装置35から読み出させて実行させる。こうすることで、コンピュータ30を、上述した図3における各機能ブロックとして機能させることが可能になる。   As described above, the computer 30 includes the body movement amount detection unit 12, the imaging unit control unit 14, the line-of-sight detection unit 15, the storage unit 16, the attention target identification unit 17, the face detection unit 21, the analysis unit 22, and the priority in FIG. Each function of the degree giving unit 23 is provided. For this purpose, a control program for causing the MPU 31 to perform various control processes described below is created in advance, and the created control program is stored in the hard disk device 35 in advance. Then, a predetermined instruction is given to the computer 30 to cause the MPU 31 to read and execute the above-described control program from the hard disk device 35. This makes it possible for the computer 30 to function as each functional block in FIG. 3 described above.

また、上述の制御プログラムは、図4に描かれているような可搬型の記録媒体51に格納しておくようにしてもよい。記録媒体51としては、例えば、USB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリ、CD−ROM(Compact Disc Read Only Memory)やDVD−ROM(Digital Versatile Disc Read Only Memory)などがある。なお、このようにする場合には、図4において破線を用いて描かれている記録媒体駆動装置50をコンピュータ30に備えてバスライン36に接続しておく。そして、コンピュータ30に所定の指示を与えて、MPU31に上述の制御プログラムを、記録媒体51から、記録媒体駆動装置50を介して読み出させて実行させる。このようにすることによっても、コンピュータ30を、上述した図3における各機能ブロックとして機能させることが可能になる。   Further, the control program described above may be stored in a portable recording medium 51 as depicted in FIG. Examples of the recording medium 51 include a flash memory equipped with a USB (Universal Serial Bus) standard connector, a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and the like. . In this case, the computer 30 is provided with the recording medium driving device 50 drawn using broken lines in FIG. 4 and connected to the bus line 36. Then, a predetermined instruction is given to the computer 30 to cause the MPU 31 to read and execute the above-described control program from the recording medium 51 via the recording medium driving device 50. This also allows the computer 30 to function as each functional block in FIG. 3 described above.

次に、注目対象特定装置10において行われる制御処理について説明する。図5は、この制御処理の処理手順を図解したフローチャートである。このフローチャートに沿って、この制御処理を説明する。   Next, the control process performed in the attention object specific apparatus 10 is demonstrated. FIG. 5 is a flowchart illustrating the processing procedure of this control processing. This control process will be described along this flowchart.

図5の制御処理が開始されると、まず、S100において、全身画像撮像処理を撮像部制御部14及び全身撮像部11が行う。全身画像撮像処理は、図6に図解するように、撮像部制御部14が全身撮像部11を駆動してその撮像方向を変化させながら、サイネージ1付近に在る複数の見物人3の各々の全身の動画像を全身撮像部11に撮像させる処理である。この全身画像撮像処理について説明する。   When the control process of FIG. 5 is started, first, in S100, the whole body image capturing process is performed by the imaging unit control unit 14 and the whole body imaging unit 11. As illustrated in FIG. 6, the whole-body image imaging process is performed by the imaging unit control unit 14 driving the whole-body imaging unit 11 to change the imaging direction of each of the plurality of spectators 3 near the signage 1. This is a process of causing the whole-body imaging unit 11 to capture the moving image. This whole body image capturing process will be described.

通常、人は、コンテンツに注目していない状態では、顔や体をいろいろな向きに動かしているが、何かに注意を向けると、体や顔の動きが小さくなる。
例えば、図7Aに図解したように、サイネージ1上のコンテンツ2のうちのどれに注目するかを見物人3が未だ決心していない場合には、見物人3は、サイネージ1のあちらこちらを見回しており、この場合には、見物人3の体や顔はふらついて動いている。その後、図7Bに図解したように、注目するコンテンツ2を見物人3が決めた場合には、見物人3の体や顔はそのコンテンツ2の方向に向き、体や顔の動きは小さくなる。全身撮像部11は、この、見物人3の体や顔の動きが大から小になる変化を捉えるために、見物人3の全身の動画像を撮像する。
Usually, when a person is not paying attention to the content, the face and body are moved in various directions. However, if attention is paid to something, the movement of the body and face becomes small.
For example, as illustrated in FIG. 7A, if the spectator 3 has not yet determined which of the contents 2 on the signage 1 is to be focused on, the spectator 3 is looking around the signage 1. In this case, the body and face of the onlooker 3 are moving. Thereafter, as illustrated in FIG. 7B, when the viewer 3 determines the content 2 of interest, the body and face of the viewer 3 are directed in the direction of the content 2, and the movement of the body and face is reduced. The whole body imaging unit 11 captures a moving image of the whole body of the spectator 3 in order to capture the change in which the movement of the body and face of the spectator 3 becomes large and small.

撮像部制御部14は全身撮像部11を駆動制御して、図8に図解したように、水平面上での回転移動(首振り)と、水平面に対して傾斜させる移動(首の上げ下げ)とを行い、複数の見物人3の全身画像を全身撮像部11に撮像させる。ここで、全身撮像部11として、画角が広角であるカメラを使用していれば、1つの撮像フレームに多数の見物人3の全身像を取り込むことができるので、少ない撮像回数で複数の見物人3の全員の全身画像が取得できる。もちろん、全身撮像部11が複数の見物人3の全身画像を一人ずつ取得するようにしてもよい。   As illustrated in FIG. 8, the imaging unit control unit 14 drives and controls the whole-body imaging unit 11 to perform rotational movement (swinging) on the horizontal plane and movement (raising and lowering the neck) that is inclined with respect to the horizontal plane. The whole body image of the plurality of spectators 3 is taken by the whole body imaging unit 11. Here, if a camera having a wide angle of view is used as the whole-body imaging unit 11, the whole-body image of a large number of spectators 3 can be captured in one imaging frame. Can obtain full body images of everyone. Of course, the whole body imaging unit 11 may acquire whole body images of a plurality of spectators 3 one by one.

また、上述の実施例では、見物人3の全身画像を全身撮像部11が取得するようにしているが、見物人3の体動が大から小になる変化が十分に捉えられる場合には、見物人3の顔の画像、若しくは上半身の画像を全身撮像部11が取得するようにしてもよい。   In the above-described embodiment, the whole body imaging unit 11 acquires the whole body image of the spectator 3. However, if the change of the body movement of the spectator 3 from large to small is sufficiently captured, the spectator 3 The whole-body imaging unit 11 may acquire the image of the face or the image of the upper body.

ここで図9について説明する。図9は、全身画像撮像処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS100の処理として注目対象特定装置10において行われる処理である。なお、図9のフローチャートに図解されている各処理は、全身撮像部11が図8に図解のように設置されている場合を前提としている。   Here, FIG. 9 will be described. FIG. 9 is a flowchart illustrating an example of the processing procedure of the whole-body image capturing process, which is a process performed in the attention target identification device 10 as the process of S100 in the flowchart of FIG. Each process illustrated in the flowchart of FIG. 9 is based on the assumption that the whole-body imaging unit 11 is installed as illustrated in FIG.

全身画像撮像処理の処理手順について、図9のフローチャートに沿って説明する。
図9において、まず、S101では、全身撮像部11の駆動制御を行って、図8の[A]の視野が得られる向きに全身撮像部11を移動させる処理を撮像部制御部14が行う。
The processing procedure of the whole body image capturing process will be described with reference to the flowchart of FIG.
In FIG. 9, first, in S101, the imaging unit control unit 14 performs a process of moving the whole body imaging unit 11 in a direction in which the field of view of [A] in FIG.

次に、S102では、図8の[A]の視野が得られる向きで全身撮像部11を静止させると共に、見物人3の全身の動画像を、例えば30fpsのフレームレートで例えば1秒間に亘り、全身撮像部11に撮像させる処理を撮像部制御部14が行う。   Next, in S102, the whole-body imaging unit 11 is stopped in a direction in which the visual field of [A] in FIG. 8 can be obtained, and a moving image of the whole body of the spectator 3 is, for example, at a frame rate of 30 fps, for example, for 1 second. The imaging unit control unit 14 performs processing for causing the imaging unit 11 to perform imaging.

次に、S103では、全身撮像部11の駆動制御を行って、図8の[B]の視野が得られる向きに全身撮像部11を移動させる処理を撮像部制御部14が行う。
次に、S104では、図8の[B]の視野が得られる向きで全身撮像部11を静止させると共に、見物人3の全身の動画像を、例えば30fpsのフレームレートで例えば1秒間に亘り、全身撮像部11に撮像させる処理を撮像部制御部14が行う。
Next, in S103, the imaging unit control unit 14 performs drive control of the whole body imaging unit 11 and moves the whole body imaging unit 11 in a direction in which the field of view [B] in FIG. 8 is obtained.
Next, in S104, the whole-body imaging unit 11 is stopped in a direction in which the visual field of [B] in FIG. The imaging unit control unit 14 performs processing for causing the imaging unit 11 to perform imaging.

次に、S105では、前述したS101及びS102の処理並びにS103及びS104の処理と同様の全身撮像部11の移動及び撮像の制御処理を、撮像対象である見物人3を全て撮像するまで撮像部制御部14が繰り返す。ここで、サイネージ1付近に在る全ての見物人3の全身画像の撮像が完了したときには、図9の全身画像撮像処理が終了し、その後は図5のS200に処理が進む。
以上までの処理が全身画像撮像処理である。
Next, in S105, the imaging unit control unit performs the same processing of S101 and S102 and the same movement and imaging control processing of the whole-body imaging unit 11 as the processing of S103 and S104 until all the spectators 3 that are imaging targets are imaged. 14 repeats. Here, when the imaging of the whole body images of all the spectators 3 in the vicinity of the signage 1 is completed, the whole body image imaging processing of FIG. 9 ends, and thereafter the processing proceeds to S200 of FIG.
The process so far is the whole-body image capturing process.

図5の制御処理の説明を続ける。S100の全身画像撮像処理に続くS200では、体動量検出・判定処理を体動量検出部12が行う。体動量検出・判定処理は、見物人3の体動量を、S100の処理によって全身撮像部11により取得された撮像画像から検出し、検出された体動量に基づいて、サイネージ1上のコンテンツ2を見物人3が注目しているか否かの判定を下す処理である。   The description of the control process in FIG. In S200 following the whole body image capturing process in S100, the body movement amount detection / determination process is performed by the body movement amount detection unit 12. In the body movement amount detection / determination process, the body movement amount of the spectator 3 is detected from the captured image acquired by the whole-body imaging unit 11 in the process of S100, and the content 2 on the signage 1 is viewed by the spectator based on the detected body movement amount. 3 is a process for determining whether or not attention is paid.

ここで図10について説明する。図10は、体動量検出・判定処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS200の処理として注目対象特定装置10において行われる処理である。   Here, FIG. 10 will be described. FIG. 10 is a flowchart illustrating an example of the procedure of the body movement amount detection / determination process, which is a process performed in the target object identification device 10 as the process of S200 in the flowchart of FIG.

図10の処理は、全身撮像部11により取得された撮像画像に含まれている見物人3の一人ずつの全身像に対して行われる。
まず、S201において、撮像画像のフレーム毎に、見物人3の全身像(被写体像)を抽出する処理を体動量検出部12が行う。
The process of FIG. 10 is performed on the whole body image of each spectator 3 included in the captured image acquired by the whole body imaging unit 11.
First, in step S <b> 201, the body movement amount detection unit 12 performs a process of extracting a whole body image (subject image) of the spectator 3 for each frame of the captured image.

次に、S202では、S201の処理により抽出した被写体像から鼻孔の像を検出し、この鼻孔の像の撮像画像上の位置を取得する処理を体動量検出部12が行う。本実施例では、この鼻孔の像の位置を、見物人3の体動量の検出の基準として使用する。   Next, in S202, the body movement amount detection unit 12 performs a process of detecting a nostril image from the subject image extracted in the process of S201 and acquiring a position of the nostril image on the captured image. In this embodiment, the position of the nostril image is used as a reference for detecting the amount of body movement of the spectator 3.

次に、S203では、撮像画像において連続する2フレーム毎に、先行するフレームと後続のフレームとの間での鼻孔の像の位置の差分値を計算する処理を体動量検出部12が行う。本実施例では、撮像画像のフレーム順に算出されるこの差分値を、見物人3の体動量として使用する。   Next, in S203, the body movement amount detection unit 12 performs a process of calculating a difference value of the position of the nostril image between the preceding frame and the subsequent frame for every two consecutive frames in the captured image. In the present embodiment, this difference value calculated in the frame order of the captured image is used as the body movement amount of the spectator 3.

次に、S204では、S203の処理によりフレーム順に取得された体動量が、以下の2つの条件のうちの少なくとも一方を満たしているか否かを判定する処理を体動量検出部12が行う。この2つの条件のうちの第一の条件は、フレーム順に取得された体動量がその順で単調に減少していることであり、この2つの条件のうちの第二の条件は、フレーム順に取得された体動量の全てが、所定の閾値thよりも小さいことである。体動量検出部12は、ここで、この第一の条件と第二の条件とのうちの少なくとも一方を満たしていると判定したとき(判定結果がYesのとき)にはS205に処理を進める。一方、体動量検出部12は、ここで、この第一及び第二の条件のどちらも満たしていないと判定したとき(判定結果がNoのとき)にはS206に処理を進める。   Next, in S204, the body motion amount detection unit 12 performs a process of determining whether or not the body motion amount acquired in the frame order by the processing in S203 satisfies at least one of the following two conditions. The first condition of these two conditions is that the amount of body movement acquired in frame order is monotonously decreasing in that order, and the second of these two conditions is acquired in frame order. All of the amount of body movement performed is smaller than the predetermined threshold th. When the body movement amount detection unit 12 determines that at least one of the first condition and the second condition is satisfied (when the determination result is Yes), the body movement amount detection unit 12 advances the process to S205. On the other hand, when the body movement amount detection unit 12 determines that neither the first condition nor the second condition is satisfied (when the determination result is No), the process proceeds to S206.

S205では、実行中の体動量検出・判定処理が全身像を処理対象としている見物人3は、サイネージ1上のコンテンツ2に注目している見物人3であるとの判定を下す処理を体動量検出部12が行う。その後、体動量検出部12は、体動量検出・判定処理を終了して、図5のS300に処理を進める。   In S205, a body motion amount detection unit performs a process of determining that the onlooker 3 whose body motion amount detection / determination process is being processed is a whole body image is the onlooker 3 who is paying attention to the content 2 on the signage 1. 12 does. Thereafter, the body movement amount detection unit 12 ends the body movement amount detection / determination process, and advances the process to S300 in FIG.

一方、S206では、実行中の体動量検出・判定処理が全身像を処理対象としている見物人3は、サイネージ1上のコンテンツ2に注目している見物人3ではないとの判定を下す処理を体動量検出部12が行う。その後、体動量検出部12は、体動量検出・判定処理を終了して、図5のS300に処理を進める。
以上までの処理が体動量検出・判定処理である。
On the other hand, in S <b> 206, a process for determining that the onlooker 3 whose body movement amount detection / determination process is being performed is a target person who is paying attention to the content 2 on the signage 1 is determined. The detection part 12 performs. Thereafter, the body movement amount detection unit 12 ends the body movement amount detection / determination process, and advances the process to S300 in FIG.
The above processing is the body motion amount detection / determination processing.

なお、図10の体動量検出・判定処理では、見物人3の体動量の検出の基準として、鼻孔の像の撮像画像上の位置を使用したが、身体の他の部位の像を、見物人3の体動量の検出の基準として使用してもよい。すなわち、見物人3の体動量の検出の基準として、例えば、見物人3の目(瞳孔)の像や口の像の撮像画像上の位置を使用してもよく、また、見物人3の顔全体の像の輪郭から顔の中心を求め、その中心の撮像画像上の位置を使用してもよい。   In the body movement amount detection / determination process in FIG. 10, the position of the nostril image on the captured image is used as a reference for detecting the body movement amount of the spectator 3. It may be used as a reference for detecting the amount of body movement. That is, as a reference for detecting the amount of body movement of the spectator 3, for example, the position of the spectator 3's eye (pupil) or the position of the mouth image on the captured image may be used. The center of the face may be obtained from the contour of the image, and the position of the center on the captured image may be used.

図5の制御処理の説明を続ける。S200の体動量検出・判定処理に続くS300では、顔画像撮像処理を撮像部制御部14及び顔撮像部13が行う。顔画像撮像処理は、撮像部制御部14が顔撮像部13を駆動して、その撮像方向を、視線の方向の検出の対象者へ向け、顔の動画像を顔撮像部13に撮像させる処理である。なお、視線の方向の検出の対象者とは、体動量検出・判定処理によってサイネージ1上のコンテンツ2に注目していると判定された見物人3である。この顔画像撮像処理について説明する。   The description of the control process in FIG. In S300 following the body movement amount detection / determination process in S200, the imaging unit control unit 14 and the facial imaging unit 13 perform a facial image imaging process. In the face image capturing process, the image capturing unit control unit 14 drives the face image capturing unit 13 so that the image capturing direction is directed to the target of detection of the line-of-sight direction, and the face image capturing unit 13 captures a moving image of the face. It is. Note that the subject of detection of the direction of the line of sight is a spectator 3 determined to be paying attention to the content 2 on the signage 1 by the body movement amount detection / determination process. This face image capturing process will be described.

撮像部制御部14は顔撮像部13を駆動制御して、図11に図解したように、水平面上での回転移動(首振り)と、水平面に対して傾斜させる移動(首の上げ下げ)とを行い、その撮像方向を、検出対象者6へ向ける。このとき、撮像部制御部14は、顔撮像部13のズーム量の調整も行って、顔撮像部13の視野を検出対象者6の顔に合わせる。   As illustrated in FIG. 11, the imaging unit control unit 14 drives and controls the face imaging unit 13 to perform rotational movement (swinging) on the horizontal plane and movement (raising and lowering the neck) inclined with respect to the horizontal plane. The imaging direction is directed to the detection target person 6. At this time, the imaging unit control unit 14 also adjusts the zoom amount of the face imaging unit 13 to adjust the field of view of the face imaging unit 13 to the face of the detection target person 6.

なお、顔撮像部13と全身撮像部11との初期情報(設置位置、首ふり角、仰角、ズーム量等)は予め把握しておく。顔撮像部13と全身撮像部11とは同一の位置に設置してもよく、また、両者を別の位置に設置してもよい。   Note that initial information (installation position, neck swing angle, elevation angle, zoom amount, etc.) between the face imaging unit 13 and the whole body imaging unit 11 is grasped in advance. The face imaging unit 13 and the whole body imaging unit 11 may be installed at the same position, or both may be installed at different positions.

ここで図12について説明する。図12は、顔画像撮像処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS300の処理として注目対象特定装置10において行われる処理である。   Here, FIG. 12 will be described. FIG. 12 is a flowchart illustrating an example of the processing procedure of the face image capturing process, which is a process performed in the attention target identification device 10 as the process of S300 in the flowchart of FIG.

図12の処理は、体動量検出・判定処理によってサイネージ1上のコンテンツ2に注目していると判定された見物人3の全員を視線検出の対象者として、その一人ずつに対して行われる。   The process of FIG. 12 is performed for each one of the spectators 3 who are determined to be paying attention to the content 2 on the signage 1 by the body movement amount detection / determination process.

まず、S301において、検出対象者6の全身画像を参照する処理を撮像部制御部14が行う。
次に、S302では、参照中の検出対象者6の全身画像と、全身撮像部11の設置位置情報と、この全身画像の撮像時における全身撮像部11の制御情報(首ふり角、仰角など)とに基づき、検出対象者6の位置を特定する処理を撮像部制御部14が行う。
First, in S301, the imaging unit control unit 14 performs a process of referring to the whole body image of the detection target person 6.
Next, in S302, the whole body image of the detection target person 6 being referred to, the installation position information of the whole body imaging unit 11, and control information of the whole body imaging unit 11 at the time of imaging the whole body image (such as a neck swing angle and an elevation angle). Based on the above, the imaging unit control unit 14 performs a process of specifying the position of the person 6 to be detected.

次に、S303では、S302の処理による検出対象者6の位置の特定結果と、顔撮像部13の設置位置情報とに基づき、検出対象者6の顔画像の撮像のための顔撮像部13の制御情報(首ふり角、仰角、ズーム量)を算出する処理を撮像部制御部14が行う。   Next, in S303, based on the result of specifying the position of the detection target person 6 in the process of S302 and the installation position information of the face imaging unit 13, the face imaging unit 13 for imaging the face image of the detection target person 6 is displayed. The imaging unit control unit 14 performs processing for calculating control information (neck swing angle, elevation angle, zoom amount).

次に、S304では、S303の処理によって算出された制御情報に基づいて顔撮像部13を駆動制御する処理を撮像部制御部14が行う。
次に、S305では、顔撮像部13を制御して、検出対象者6の顔の動画像を撮像させる処理を撮像部制御部14が行う。顔画像の撮像が完了したときには、図12の顔画像撮像処理が終了し、その後は図5のS400に処理が進む。
Next, in S304, the imaging unit control unit 14 performs a process of driving and controlling the face imaging unit 13 based on the control information calculated in the process of S303.
Next, in S <b> 305, the imaging unit control unit 14 performs processing for controlling the face imaging unit 13 to capture a moving image of the face of the detection target person 6. When the face image capturing is completed, the face image capturing process in FIG. 12 ends, and thereafter the process proceeds to S400 in FIG.

図5の制御処理の説明を続ける。S300の顔画像撮像処理に続くS400では、視線検出処理を視線検出部15が行う。この処理は、顔画像撮像処理によって撮像された検出対象者6の顔画像から、検出対象者6の視線の方向を表している視線情報を検出する。なお、本実施例では、顔画像における、眼及び鼻の位置、並びに、眼の瞳孔及び角膜反射を用いて視線情報の検出を行う。なお、眼の瞳孔や角膜反射の情報を顔画像から得るために、顔撮像部13として、赤外発光ダイオード等を用いて発光させた赤外光を検出対象者6に照射しながら検出対象者6の顔の赤外画像を撮像する赤外画像撮像装置を使用するようにしてもよい。   The description of the control process in FIG. In S400 following the face image capturing process in S300, the line-of-sight detection unit 15 performs the line-of-sight detection process. In this process, line-of-sight information indicating the direction of the line of sight of the detection target person 6 is detected from the face image of the detection target person 6 captured by the face image capturing process. In this embodiment, the line-of-sight information is detected using the positions of the eyes and nose, the pupil of the eyes, and the corneal reflection in the face image. In addition, in order to obtain information on the pupil of the eye and corneal reflection from the face image, the detection target person 6 is irradiated with infrared light emitted using an infrared light emitting diode or the like as the face imaging unit 13. You may make it use the infrared imaging device which images the infrared image of 6 faces.

次に、S500では、S100の処理で得られた全身画像及びS300の処理で得られた顔画像の画像データ、並びに、S200の処理で得られた体動量及びS400の処理で得られた視線情報を記憶しておく処理を記憶部16が行う。なお、記憶部16は、画像データ、体動量、及び視線情報は見物人3毎に対応付けて記憶しておくようにし、更に、画像データの撮像日時データ、及び、撮像時の撮像部制御部14による制御情報も対応付けて記憶しておくようにする。このようにしておくことで、コンテンツ2に対する注目度の分析を、後で行うことができる。なお、体動量及び視線情報は、この他の各種の記憶データから後に改めて検出することができるので、記憶部16での記憶対象から除外してもよい。   Next, in S500, the whole body image obtained in the process of S100, the image data of the face image obtained in the process of S300, the amount of body movement obtained in the process of S200, and the line-of-sight information obtained in the process of S400. Is stored in the storage unit 16. Note that the storage unit 16 stores the image data, the amount of body movement, and the line-of-sight information in association with each spectator 3, and further, the imaging date / time data of the image data and the imaging unit control unit 14 at the time of imaging. The control information is also stored in association with each other. By doing so, it is possible to analyze the degree of attention to the content 2 later. The body movement amount and the line-of-sight information can be detected later again from the other various types of stored data, and may be excluded from the storage target in the storage unit 16.

次に、S600では、コンテンツ2に対する注目度の判定のためのデータ取得を終了するか否かを判定する処理を撮像部制御部14が行う。このデータ取得の終了は、例えば、この注目対象特定装置10の使用者によって指示される。撮像部制御部14は、ここで、データ取得の終了指示を受けたと判定したとき(判定結果がYesのとき)にはS700に処理を進める。一方、撮像部制御部14は、ここで、データ取得の終了指示を受けていないと判定したとき(判定結果がNoのとき)にはS100に処理を戻して上述した処理を繰り返すことでデータの取得を継続する。   Next, in S600, the imaging unit control unit 14 performs a process of determining whether or not to end the data acquisition for determining the degree of attention to the content 2. The end of the data acquisition is instructed, for example, by the user of the target object specifying device 10. Here, when it is determined that the data acquisition end instruction has been received (when the determination result is Yes), the imaging unit control unit 14 advances the processing to S700. On the other hand, when it is determined that the data acquisition end instruction has not been received (when the determination result is “No”), the imaging unit control unit 14 returns the process to S100 and repeats the above-described process. Continue acquisition.

次に、S700では、注目コンテンツ特定処理を注目対象特定部17が行う。この処理は、検出対象者6が注目しているコンテンツ2を、検出対象者6について検出された視線の方向に基づいて特定する処理である。この処理について説明する。   Next, in S700, the target content specifying unit 17 performs the target content specifying process. This process is a process of identifying the content 2 that is being watched by the detection target person 6 based on the direction of the line of sight detected for the detection target person 6. This process will be described.

全身撮像部11及び顔撮像部13は、サイネージ1が設置されている場所の近傍の位置に固定して設置されており、その位置で首ふり、首の上げ下げ、ズームなどが行われる。従って、撮像画像に基づいて、サイネージ1上のどのコンテンツ2を見ているかを特定することができる。このために、注目対象特定部17は以下の処理を行う。   The whole body imaging unit 11 and the face imaging unit 13 are fixedly installed at a position in the vicinity of the place where the signage 1 is installed, and the head is swung, the neck is raised and lowered, and zooming is performed. Accordingly, it is possible to specify which content 2 on the signage 1 is viewed based on the captured image. For this purpose, the attention target identification unit 17 performs the following processing.

まず、人物とサイネージ1との距離は、全身撮像部11で撮像した画像全体の倍率(撮像範囲の実際のサイズと画素数との関係)に対する、撮像されている人物像(身長を例えば1.7m程度に仮定)の画素数より、概ね求めることができる。また、人の顔の両目(瞳孔間)の間隔は概ね65mmであるので、取得画像における両目の間隔に相当する距離と画素数との比を用いても、人物とサイネージ1との概略の距離を求めることができる。更に、顔撮像部13での検出対象者6の顔画像の撮像時における撮像条件(首ふり角度、仰角、ズーム量)を基に、検出対象者6から見たサイネージ1の位置や方角を求めることができる。これらから、検出対象者6とサイネージ1との位置関係が特定される。注目対象特定部17は、以上の計算を行って、検出対象者6とサイネージ1との位置関係情報を得る。   First, the distance between the person and the signage 1 is determined based on the image of the person being imaged (the height is, for example, 1.. It can be roughly determined from the number of pixels (assuming about 7 m). Further, since the distance between both eyes (between the pupils) of the person's face is approximately 65 mm, the approximate distance between the person and the signage 1 using the ratio of the distance corresponding to the distance between the eyes in the acquired image and the number of pixels. Can be requested. Furthermore, the position and direction of the signage 1 viewed from the detection target person 6 are obtained based on the imaging conditions (neck angle, elevation angle, and zoom amount) when the face imaging unit 13 captures the face image of the detection target person 6. be able to. From these, the positional relationship between the person to be detected 6 and the signage 1 is specified. The target object specifying unit 17 performs the above calculation to obtain the positional relationship information between the detection target person 6 and the signage 1.

一方、注目対象特定部17には、コンテンツ2のサイネージ1上の配置位置が表されているテーブルを予め用意しておく。図13は、このテーブルの例である。
図13のテーブルでは、商品A、B、C、…、Nの各々について、表示装置であるサイネージ1上の配置位置を表す座標データが示されている。このテーブルにおいて、例えば、商品「A」は、「左右方向」の座標が「α11〜α12」とされており、「上下方向」の座標が「β11〜β12」とされている。これは、図14に図解したように、サイネージ1上に右上端を原点とする二次元直交座標を定義したときに、商品Aが、P方向(左右方向)の座標α11〜α12の範囲、且つ、Q方向(上下方向)の座標β11〜β12の範囲に配置されていることを表している。
On the other hand, the attention target specifying unit 17 is prepared in advance with a table showing the arrangement position of the content 2 on the signage 1. FIG. 13 is an example of this table.
In the table of FIG. 13, coordinate data representing an arrangement position on the signage 1 that is a display device is shown for each of the products A, B, C,. In this table, for example, for the product “A”, the “horizontal direction” coordinates are “α11 to α12”, and the “vertical direction” coordinates are “β11 to β12”. As illustrated in FIG. 14, when a two-dimensional orthogonal coordinate with the upper right end as the origin is defined on the signage 1, the product A has a range of coordinates α11 to α12 in the P direction (left and right direction), and , It is arranged in the range of coordinates β11 to β12 in the Q direction (vertical direction).

注目対象特定部17は、検出対象者6とサイネージ1との位置関係情報と、上述したテーブルと、検出対象者6の視線情報とを用いて、検出対象者6の視線がコンテンツ2を貫いているかどうかを判定する処理を行う。そして、検出対象者6の視線によって貫かれているコンテンツ2を特定する処理を行う。   The attention target specifying unit 17 uses the positional relationship information between the detection target person 6 and the signage 1, the above-described table, and the line-of-sight information of the detection target person 6 so that the line of sight of the detection target person 6 penetrates the content 2. Processing to determine whether or not. And the process which specifies the content 2 penetrated by the visual line of the detection subject 6 is performed.

検出対象者6が注目しているコンテンツ2の特定は、以上のようにして行われる。
なお、上述した注目コンテンツ特定処理では、コンテンツ2のサイネージ1上の配置位置を表す座標データが示されているテーブルを注目対象特定部17に用意しておくようにしていた。この代わりに、サイネージ1を見るときの見物人3の位置及び視線の方向に揃えた撮像位置及び撮像方向の画像を予めカメラで撮像しておき、この撮像画像を注目対象特定部17に用意しておくようにする。そして、注目対象特定部17は、この画像情報を利用して、検出対象者6が注目しているコンテンツ2を特定する処理を行うようにしてもよい。
The identification of the content 2 focused on by the person to be detected 6 is performed as described above.
In the noted content specifying process described above, a table showing coordinate data representing the arrangement position of the content 2 on the signage 1 is prepared in the noted target specifying unit 17. Instead, an image of the imaging position and imaging direction aligned with the position of the spectator 3 when viewing the signage 1 and the direction of the line of sight is captured in advance by the camera, and this captured image is prepared in the attention target specifying unit 17. To leave. And the attention object specific | specification part 17 may perform the process which specifies the content 2 which the detection object person 6 is paying attention using this image information.

図5の制御処理の説明を進める。注目対象特定装置10が分析部22を備えている場合には、S700の注目コンテンツ特定処理に続くS800において、注目度分析処理を分析部22が行う。この処理は、注目を集めているコンテンツ2への注目の高さ(注目度)を分析する処理である。本実施例では、検出対象者6がコンテンツ2を注目している(視線を向けている)時間の長さを注目度とし、検出対象者6毎且つコンテンツ2毎に、注目度の集計を行うようにする。なお、分析部22は、注目対象特定部17によるコンテンツ2の特定情報と、記憶部16に記憶されている、検出対象者6毎の顔画像の撮像日時データとを用いて、これらの集計を行う。この注目度分析処理を終えた後には、図5の制御処理が終了する。   The description of the control process of FIG. When the attention object identification device 10 includes the analysis unit 22, the analysis unit 22 performs the attention degree analysis process in S800 following the attention content identification process in S700. This process is a process of analyzing the level of attention (attention level) to the content 2 that is attracting attention. In the present embodiment, the length of time during which the detection target person 6 is paying attention to the content 2 (with a line of sight) is set as the attention level, and the attention level is totaled for each detection target person 6 and for each content 2. Like that. Note that the analysis unit 22 calculates the total using the identification information of the content 2 by the attention target identification unit 17 and the imaging date / time data of the face image for each detection target person 6 stored in the storage unit 16. Do. After the attention level analysis process is completed, the control process of FIG. 5 ends.

以上までの制御処理が行われることによって、注目対象特定装置10により、見物人3からの注目を集めているコンテンツ2の特定が行われる。
なお、以上までに説明した制御処理では、全身撮像部11で撮像した見物人3の全身の撮像画像から求めた体動量に基づいて、サイネージ1上のコンテンツ2に注目している見物人3であるかどうかの判定を行っている。しかしながら、この判定では、図15に図解したように、サイネージ1に背を向けて立ち止まっている見物人3bや、サイネージ1から視線が外れて静止している見物人3dを、見物人3a及び3cと同様に、コンテンツ2に注目していると誤判定することがある。前述した顔検出部21は、このような誤判定を抑制するために、注目対象特定装置10に備えられる。
By performing the control processing described above, the attention target specifying device 10 specifies the content 2 that is attracting attention from the onlooker 3.
In the control process described above, is the spectator 3 paying attention to the content 2 on the signage 1 based on the amount of body movement obtained from the whole body captured image of the spectator 3 captured by the whole-body imaging unit 11? Judgment is made. However, in this determination, as illustrated in FIG. 15, a spectator 3b standing with his back to the signage 1 or a spectator 3d whose line of sight deviates from the signage 1 is stopped in the same manner as the spectators 3a and 3c. , It may be erroneously determined that the content 2 is focused. The face detection unit 21 described above is provided in the target object identification device 10 in order to suppress such erroneous determination.

ここで図16について説明する。図16は、顔検出部21が行う処理の処理手順を図解したフローチャートである。なお、このフローチャートは、図10の体動量検出・判定処理のフローチャートにおけるS204の処理とS205の処理との間に挿入される。   Here, FIG. 16 will be described. FIG. 16 is a flowchart illustrating a processing procedure of processing performed by the face detection unit 21. This flowchart is inserted between the process of S204 and the process of S205 in the body movement amount detection / determination process flowchart of FIG.

図10のS204の判定処理の結果がYesのとき、まず、S211において、全身撮像部11により取得された撮像画像に映っている、判定対象の見物人3の全身像から、顔の像を検出する処理を顔検出部21が行う。顔の像の検出は、例えば、全身像の上部から、肌色の楕円形状の所定サイズの領域(顔)を検出することによって行われる。   When the result of the determination process in S204 of FIG. 10 is Yes, first, in S211, a face image is detected from the whole body image of the person 3 to be determined, which is reflected in the captured image acquired by the whole body imaging unit 11. Processing is performed by the face detection unit 21. The face image is detected by, for example, detecting a skin-colored oval-shaped area (face) from the upper part of the whole-body image.

次に、S212では、S211の検出処理によって顔の像を検出できたか否かを判定する処理を顔検出部21が行う。顔検出部21は、ここで、顔の像を検出できたと判定したとき(判定結果がYesのとき)には、その見物人3はサイネージ1の方を向いているのでコンテンツ2に注目していると判断して図10のS205に処理を進める。一方、顔検出部21は、ここで、顔の像を検出できなかったと判定したとき(判定結果がNoのとき)には、その見物人3はサイネージ1の方を向いていないためコンテンツ2に注目していないと判断して図10のS206に処理を進める。   Next, in S212, the face detection unit 21 performs a process of determining whether or not a face image has been detected by the detection process of S211. Here, when the face detection unit 21 determines that the face image has been detected (when the determination result is Yes), the onlooker 3 faces the signage 1 and therefore pays attention to the content 2. And the process proceeds to S205 in FIG. On the other hand, when the face detection unit 21 determines that the face image could not be detected (when the determination result is No), the onlooker 3 is not facing the signage 1, so pay attention to the content 2. If it is not determined, the process proceeds to S206 in FIG.

顔検出部21が以上の処理を行うことで、体動量のみに基づいたコンテンツ2への注目の判定における誤判定が抑制される。
なお、顔検出部21は、顔の像の検出のみならず、眼や鼻などの顔の部位の像の検出を更に行うようにして、見物人3はサイネージ1の方を向いているかどうかの判定の精度を更に高めるようにしてもよい。
When the face detection unit 21 performs the above processing, erroneous determination in determination of attention to the content 2 based only on the amount of body movement is suppressed.
Note that the face detection unit 21 not only detects the face image, but also further detects the image of the facial part such as the eyes and nose, and determines whether or not the onlooker 3 is facing the signage 1. The accuracy may be further increased.

ところで、前述した体動量検出・判定処理によって、サイネージ1上のコンテンツ2に注目している見物人3が複数人抽出された場合に、抽出された見物人3の各々に対し、視線検出の処理の優先度を与えるようにしてもよい。前述した優先度付与部23は、抽出された見物人3の各々に対し、この優先度を付与するために、注目対象特定装置10に備えられる。   By the way, when a plurality of onlookers 3 who are interested in the content 2 on the signage 1 are extracted by the above-described body movement amount detection / determination process, priority is given to the gaze detection process for each of the extracted onlookers 3. You may make it give a degree. The priority assigning unit 23 described above is provided in the attention target specifying device 10 in order to assign this priority to each of the extracted spectators 3.

優先度付与部23は、見物人3とコンテンツ2との相対的な位置関係に基づいて設定される優先度を、見物人3の各々に付与する。本実施例では、優先度付与部23は、サイネージ1までの距離が短い見物人3ほど高い優先度を与えるようにし、また、サイネージ1に対する向きが直角に近い(すなわち正対に近い)人ほど、高い優先度を与えるようにする。図17に図解した例では、見物人3e、3f、3g、及び3hのうちで、サイネージ1までの距離が最短であり、且つ、サイネージ1に対して正対している見物人3gに対して、最も高い優先度が優先度付与部23によって付与される。   The priority assigning unit 23 assigns a priority set based on the relative positional relationship between the spectator 3 and the content 2 to each spectator 3. In the present embodiment, the priority assigning unit 23 gives a higher priority to the spectator 3 whose distance to the signage 1 is short, and a person whose direction with respect to the signage 1 is close to a right angle (that is, close to the front), Give high priority. In the example illustrated in FIG. 17, the distance to the signage 1 is the shortest among the spectators 3 e, 3 f, 3 g, and 3 h and is the highest for the spectator 3 g facing the signage 1. The priority is given by the priority assigning unit 23.

ここで図18について説明する。図18は、優先度付与部23による処理内容を図解したフローチャートである。なお、このフローチャートで図解されている処理手順は、図10の体動量検出・判定処理のフローチャートにおけるS205の処理に続いて行われる。   Here, FIG. 18 will be described. FIG. 18 is a flowchart illustrating the contents of processing by the priority assigning unit 23. The processing procedure illustrated in this flowchart is performed following the processing of S205 in the flowchart of the body movement amount detection / determination processing in FIG.

図10のS205の処理に続き、S221では、全身撮像部11で撮像した撮像画像と、当該撮像画像の撮像時における撮像部制御部14の全身撮像部11に対する制御情報とを取得する処理を優先度付与部23が行う。なお、この処理によって取得される撮像画像は、S205の処理によってコンテンツ2に注目しているとの判定が下された全ての見物人3(すなわち、視線の検出対象者6)についてのものである。   Following S205 of FIG. 10, in S221, priority is given to the process of acquiring the captured image captured by the whole-body imaging unit 11 and the control information for the whole-body imaging unit 11 of the imaging unit control unit 14 at the time of capturing the captured image. The degree giving unit 23 performs this. Note that the captured images acquired by this processing are for all the spectators 3 (that is, the line-of-sight detection target 6) that are determined to be focused on the content 2 by the processing of S205.

次に、S222では、検出対象者6とサイネージ1との距離を算出する処理を優先度付与部23が行う。この距離の算出は、例えば、前述した注目対象特定部17での算出の手法と同様のものでよい。   Next, in S222, the priority provision part 23 performs the process which calculates the distance of the detection subject 6 and the signage 1. FIG. The calculation of this distance may be the same as the calculation method in the attention object specifying unit 17 described above, for example.

次に、S223では、検出対象者6とサイネージ1との相対角度を取得する処理を優先度付与部23が行う。この処理は、本実施例では、検出対象者6の全身像を撮像したときの全身撮像部11の横方向の首ふり角度から、相対角度を得るようにする。例えば、検出対象者6の全身像を撮像したときに、全身撮像部11の首ふり角度が、サイネージ1の面に対して直角であった場合には、その検出対象者6は、サイネージ1に対して正対しているものとみなす。   Next, in S223, the priority assigning unit 23 performs a process of acquiring a relative angle between the detection target person 6 and the signage 1. In this embodiment, in this embodiment, the relative angle is obtained from the lateral neck swing angle of the whole body imaging unit 11 when the whole body image of the detection subject 6 is captured. For example, when a whole body image of the detection target person 6 is imaged and the neck swing angle of the whole body imaging unit 11 is perpendicular to the surface of the signage 1, the detection target person 6 moves to the signage 1. It is considered to be directly facing.

次に、S224では、検出対象者6に対し、S222の処理により算出された距離の短い順に優先度を付与する処理を優先度付与部23が行う。
次に、S225では、S222の処理により算出された距離が同一である検出対象者6に対し、S223の処理により得られた相対角度が直角に近い順に優先度を付与する処理を優先度付与部23が行う。そして、その後は、優先度付与部23は図18の処理を終了して図10の体動量検出・判定処理に処理を戻す。すると、体動量検出部12は、図10の体動量検出・判定処理を終了して、図5のS300に処理を進める。
Next, in S224, the priority assigning unit 23 performs a process of assigning priorities to the detection target person 6 in order of increasing distance calculated by the process of S222.
Next, in S225, a process of giving priority to the detection target person 6 having the same distance calculated by the process of S222 in the order in which the relative angle obtained by the process of S223 is close to a right angle. 23 does. Then, the priority assigning unit 23 ends the process of FIG. 18 and returns the process to the body movement amount detection / determination process of FIG. Then, the body movement amount detection unit 12 ends the body movement amount detection / determination process in FIG. 10 and advances the process to S300 in FIG.

以上の処理を優先度付与部23が行うことで、検出対象者6の各々に対して視線検出の処理の優先度が付与される。この後に実行される、図5のS300の顔画像撮像処理及びS400の視線検出処理は、検出対象者6の各々に対し、この優先度に従った順序で行われる。   The priority assigning unit 23 performs the above processing, so that the priority of the line-of-sight detection processing is given to each detection target person 6. The face image capturing process in S300 and the line-of-sight detection process in S400, which are executed thereafter, are performed in the order according to this priority for each detection target person 6.

なお、以上までに説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の人の動画像を撮像する第一撮像部と、
前記複数の人の各々の体動量を前記第一撮像部での撮像画像から検出する体動量検出部と、
前記複数の人の各々の顔の動画像を撮像する第二撮像部と、
前記第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させる制御部と、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出する視線検出部と、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する注目対象特定部と、
を備えることを特徴とする注目対象特定装置。
(付記2)
前記第一撮像部は、前記第二撮像部よりも画角が広角であることを特徴とする付記1に記載の注目対象特定装置。
(付記3)
前記第二撮像部による前記顔の動画像の撮像におけるフレームレートが、前記第一撮像部による前記複数の人の動画像の撮像におけるフレームレートよりも低いことを特徴とする付記1又は2に記載の注目対象特定装置。
(付記4)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出する顔検出部を更に備え、
前記制御部は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする付記1から3のうちのいずれか一項に記載の注目対象特定装置。
(付記5)
前記視線検出部によって前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析する分析部を更に備えることを特徴とする付記1から4のうちのいずれか一項に記載の注目対象特定装置。
(付記6)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与する優先度付与部を更に備え、
前記制御部は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする付記1から5のうちのいずれか一項に記載の注目対象特定装置。
(付記7)
前記注目を集めている対象物は表示装置に表示されており、
前記注目対象特定部は、前記検出された視線の方向に基づくと共に、更に、前記視線検出部によって該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する付記1から6のうちのいずれか一項に記載の注目対象特定装置。
(付記8)
前記第一撮像部及び前記第二撮像部での撮像画像、前記制御部による制御の履歴、前記体動量検出部による前記体動量の検出結果、及び前記視線検出部による前記視線の方向の検出結果を記憶しておく記憶部を更に備え、
前記注目対象特定部は、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する付記1から7のうちのいずれか一項に記載の注目対象特定装置。
(付記9)
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
ことを特徴とする注目対象特定方法。
(付記10)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出し、
前記第二撮像部を制御するときには、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする付記9に記載の注目対象特定方法。
(付記11)
前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析することを特徴とする付記9又は10に記載の注目対象特定方法。
(付記12)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与し、
前記第二撮像部の制御では、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする付記9から11のうちのいずれか一項に記載の注目対象特定方法。
(付記13)
前記注目を集めている対象物は表示装置に表示されており、
前記注目を集めている対象物を特定するときには、前記検出された視線の方向に基づくと共に、更に、該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する付記9から12のうちのいずれか一項に記載の注目対象特定方法。
(付記14)
前記第一撮像部及び前記第二撮像部での撮像画像、前記第二撮像部の制御の履歴、前記体動量の検出結果、及び前記視線の方向の検出結果を記憶部に記憶しておき、
前記注目を集めている対象物を特定するときには、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する付記9から13のうちのいずれか一項に記載の注目対象特定方法。
(付記15)
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
処理を演算処理装置に実行させるプログラム。
(付記16)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出する処理を前記演算処理装置に更に実行させ、
前記第二撮像部を制御する処理は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
付記15に記載のプログラム。
(付記17)
前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析する処理を前記演算処理装置に更に実行させる付記15又は16に記載のプログラム。
(付記18)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与する処理を前記演算処理装置に更に実行させ、
前記第二撮像部を制御する処理は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
付記15から17のうちのいずれか一項に記載のプログラム。
(付記19)
前記注目を集めている対象物は表示装置に表示されており、
前記注目を集めている対象物を特定する処理は、前記検出された視線の方向に基づくと共に、更に、該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
付記15から18のうちのいずれか一項に記載のプログラム。
(付記20)
前記第一撮像部及び前記第二撮像部での撮像画像、前記第二撮像部の制御の履歴、前記体動量の検出結果、及び前記視線の方向の検出結果を記憶部に記憶させる処理を前記演算処理装置に更に実行させ、
前記注目を集めている対象物を特定する処理は、前記記憶部での記憶内容を用いて前記対象物を特定する、
付記15から19のうちのいずれか一項に記載のプログラム。
In addition, the following additional remarks are disclosed regarding the embodiment described above.
(Appendix 1)
A first imaging unit that captures a plurality of moving images;
A body movement amount detection unit that detects the amount of body movement of each of the plurality of persons from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each face of the plurality of persons;
By controlling the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value of a person's face, or the detected body movement amount of the person's face is decreased. A control unit for directing the field of view of the two imaging units to capture a moving image of the face;
A line-of-sight detection unit that detects the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit;
An object of interest identification unit for identifying an object that has attracted attention based on the direction of the detected line of sight;
A target object specifying device comprising:
(Appendix 2)
The attention object specifying device according to appendix 1, wherein the first imaging unit has a wider angle of view than the second imaging unit.
(Appendix 3)
The frame rate in capturing the moving image of the face by the second imaging unit is lower than the frame rate in capturing the moving image of the plurality of people by the first imaging unit. Attention target identification device.
(Appendix 4)
A face detection unit for detecting a person whose face is reflected in the captured image among the plurality of people reflected in the captured image of the first imaging unit;
The control unit causes the second imaging unit to capture a moving image of a face of a person whose face is reflected in the captured image of the first imaging unit;
The attention object specifying device according to any one of Supplementary notes 1 to 3, characterized in that:
(Appendix 5)
The degree of attention to the object that is attracting attention based on the length of time that the person whose direction of the line of sight is detected by the line-of-sight detection unit directs the line of sight to the object that is attracting attention The attention object specifying device according to any one of Supplementary notes 1 to 4, further comprising an analysis unit that analyzes
(Appendix 6)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. And further including a priority assigning unit to be given to each of the plurality of people,
The control unit is configured to apply the second imaging to the person whose detected body movement amount is smaller than a threshold value or the person whose detected body movement amount has decreased among the plurality of persons in descending order of priority. Directing the part's field of view to capture a moving image of the face,
The attention object specifying device according to any one of Supplementary notes 1 to 5, characterized in that:
(Appendix 7)
The object attracting attention is displayed on a display device,
The target object specifying unit is based on the detected line-of-sight direction, and on the display device of the target that is attracting attention and the person whose line-of-sight direction is detected by the line-of-sight detection unit. Identifying the object based on the relative positional relationship with the display position at
The attention object specifying device according to any one of Supplementary notes 1 to 6, characterized in that.
(Appendix 8)
Captured images at the first imaging unit and the second imaging unit, a control history by the control unit, a detection result of the body movement amount by the body movement amount detection unit, and a detection result of the gaze direction by the gaze detection unit Is further provided with a storage unit for storing
The target object specifying unit specifies the target object using content stored in the storage unit,
The attention object specifying device according to any one of Supplementary notes 1 to 7, characterized in that.
(Appendix 9)
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A method for identifying an object of interest characterized by that.
(Appendix 10)
Detecting a person whose face is reflected in the captured image among the plurality of persons reflected in the captured image in the first imaging unit;
When controlling the second imaging unit, the second imaging unit is made to capture a moving image of a face about a person whose face is reflected in the captured image of the first imaging unit.
The attention target specifying method according to supplementary note 9, characterized by:
(Appendix 11)
Analyzing the degree of attention to the object that is attracting attention based on the length of time that the person whose direction of the line of sight is detected is directing the line of sight to the object that is attracting attention. The attention target specifying method according to Supplementary Note 9 or 10, which is a feature.
(Appendix 12)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. Based on each of the plurality of persons,
In the control of the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value, or the detected body movement amount is decreased. Directing the visual field of the second imaging unit to capture a moving image of the face;
The attention target specifying method according to any one of Supplementary notes 9 to 11, characterized in that:
(Appendix 13)
The object attracting attention is displayed on a display device,
When specifying the object attracting attention, the display device of the object attracting attention and the person who is detected based on the direction of the detected line of sight and further detecting the direction of the line of sight Identifying the object based on a relative positional relationship with the display position above;
The attention target specifying method according to any one of appendices 9 to 12, characterized by:
(Appendix 14)
The captured image in the first imaging unit and the second imaging unit, the control history of the second imaging unit, the detection result of the body movement amount, and the detection result of the direction of the line of sight are stored in the storage unit,
When specifying the target that is attracting attention, the target is specified using the storage content in the storage unit.
14. The attention target specifying method according to any one of supplementary notes 9 to 13, characterized by:
(Appendix 15)
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A program that causes an arithmetic processing unit to execute processing.
(Appendix 16)
Among the plurality of people reflected in the captured image in the first imaging unit, the processing unit further performs processing for detecting a person whose face is reflected in the captured image,
The process of controlling the second imaging unit causes the second imaging unit to capture a moving image of a face about a person whose face is reflected in the captured image of the first imaging unit.
The program according to appendix 15.
(Appendix 17)
A process of analyzing the degree of attention to the target that is attracting attention based on the length of time that the person whose direction of the line of sight is detected is directing the line of sight to the target that is attracting attention The program according to appendix 15 or 16, which is further executed by the arithmetic processing unit.
(Appendix 18)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. Based on the above, the arithmetic processing device is further executed processing to be given to each of the plurality of people,
The process of controlling the second imaging unit is performed on a person who has the detected body movement amount smaller than a threshold value or a person who has the detected body movement amount reduced among the plurality of persons. Directing the visual field of the second imaging unit in descending order to capture a moving image of the face;
The program according to any one of appendices 15 to 17.
(Appendix 19)
The object attracting attention is displayed on a display device,
The process of identifying the object that is attracting attention is based on the direction of the detected line of sight, and further, the display of the object that is attracting attention and the person who has detected the direction of the line of sight Identifying the object based on a relative positional relationship with a display position on the device;
The program according to any one of appendices 15 to 18.
(Appendix 20)
The process of storing the captured image in the first imaging unit and the second imaging unit, the control history of the second imaging unit, the detection result of the body movement amount, and the detection result of the direction of the line of sight in the storage unit Let the arithmetic processing unit further execute,
The process of identifying the object that is attracting attention is to identify the object using the storage content in the storage unit.
The program according to any one of Supplementary Notes 15 to 19.

1 サイネージ
2 コンテンツ
3、3a、3b、3c、3d、3e、3f、3g、3h 見物人
4 カメラ
5 広角カメラ
6 検出対象者
10 注目対象特定装置
11 全身撮像部
12 体動量検出部
13 顔撮像部
14 撮像部制御部
15 視線検出部
16 記憶部
17 注目対象特定部
21 顔検出部
22 分析部
23 優先度付与部
30 コンピュータ
31 MPU
32 ROM
33 RAM
34 インタフェース装置
35 ハードディスク装置
36 バスライン
41 全身撮像カメラ
42 顔撮像カメラ
43 カメラ駆動装置
50 記録媒体駆動装置
51 記録媒体
DESCRIPTION OF SYMBOLS 1 Signage 2 Content 3, 3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h A spectator 4 Camera 5 Wide-angle camera 6 Detection target 10 Attention target specific apparatus 11 Whole body imaging part 12 Body motion detection part 13 Face imaging part 14 Imaging unit control unit 15 Gaze detection unit 16 Storage unit 17 Target object identification unit 21 Face detection unit 22 Analysis unit 23 Priority assignment unit 30 Computer 31 MPU
32 ROM
33 RAM
34 interface device 35 hard disk device 36 bus line 41 whole body imaging camera 42 face imaging camera 43 camera driving device 50 recording medium driving device 51 recording medium

Claims (10)

複数の人の動画像を撮像する第一撮像部と、
前記複数の人の各々の体動量を前記第一撮像部での撮像画像から検出する体動量検出部と、
前記複数の人の各々の顔の動画像を撮像する第二撮像部と、
前記第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させる制御部と、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出する視線検出部と、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する注目対象特定部と、
を備えることを特徴とする注目対象特定装置。
A first imaging unit that captures a plurality of moving images;
A body movement amount detection unit that detects the amount of body movement of each of the plurality of persons from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each face of the plurality of persons;
By controlling the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value of a person's face, or the detected body movement amount of the person's face is decreased. A control unit for directing the field of view of the two imaging units to capture a moving image of the face;
A line-of-sight detection unit that detects the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit;
An object of interest identification unit for identifying an object that has attracted attention based on the direction of the detected line of sight;
A target object specifying device comprising:
前記第一撮像部は、前記第二撮像部よりも画角が広角であることを特徴とする請求項1に記載の注目対象特定装置。   The target object specifying device according to claim 1, wherein the first imaging unit has a wider angle of view than the second imaging unit. 前記第二撮像部による前記顔の動画像の撮像におけるフレームレートが、前記第一撮像部による前記複数の人の動画像の撮像におけるフレームレートよりも低いことを特徴とする請求項1又は2に記載の注目対象特定装置。   3. The frame rate for capturing the moving image of the face by the second imaging unit is lower than the frame rate for capturing the moving images of the plurality of people by the first imaging unit. The target object identification device described. 前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出する顔検出部を更に備え、
前記制御部は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする請求項1から3のうちのいずれか一項に記載の注目対象特定装置。
A face detection unit for detecting a person whose face is reflected in the captured image among the plurality of people reflected in the captured image of the first imaging unit;
The control unit causes the second imaging unit to capture a moving image of a face of a person whose face is reflected in the captured image of the first imaging unit;
The target object specifying device according to any one of claims 1 to 3, wherein
前記視線検出部によって前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析する分析部を更に備えることを特徴とする請求項1から4のうちのいずれか一項に記載の注目対象特定装置。   The degree of attention to the object that is attracting attention based on the length of time that the person whose direction of the line of sight is detected by the line-of-sight detection unit directs the line of sight to the object that is attracting attention The target object specifying device according to any one of claims 1 to 4, further comprising an analysis unit that analyzes the information. 前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与する優先度付与部を更に備え、
前記制御部は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする請求項1から5のうちのいずれか一項に記載の注目対象特定装置。
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. And further including a priority assigning unit to be given to each of the plurality of people,
The control unit is configured to apply the second imaging to the person whose detected body movement amount is smaller than a threshold value or the person whose detected body movement amount has decreased among the plurality of persons in descending order of priority. Directing the part's field of view to capture a moving image of the face,
The target object specifying device according to any one of claims 1 to 5, wherein:
前記注目を集めている対象物は表示装置に表示されており、
前記注目対象特定部は、前記検出された視線の方向に基づくと共に、更に、前記視線検出部によって該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する請求項1から6のうちのいずれか一項に記載の注目対象特定装置。
The object attracting attention is displayed on a display device,
The target object specifying unit is based on the detected line-of-sight direction, and on the display device of the target that is attracting attention and the person whose line-of-sight direction is detected by the line-of-sight detection unit. Identifying the object based on the relative positional relationship with the display position at
The attention object specifying device according to any one of claims 1 to 6, wherein
前記第一撮像部及び前記第二撮像部での撮像画像、前記制御部による制御の履歴、前記体動量検出部による前記体動量の検出結果、及び前記視線検出部による前記視線の方向の検出結果を記憶しておく記憶部を更に備え、
前記注目対象特定部は、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する請求項1から7のうちのいずれか一項に記載の注目対象特定装置。
Captured images at the first imaging unit and the second imaging unit, a control history by the control unit, a detection result of the body movement amount by the body movement amount detection unit, and a detection result of the gaze direction by the gaze detection unit Is further provided with a storage unit for storing
The target object specifying unit specifies the target object using content stored in the storage unit,
The attention object specifying device according to any one of claims 1 to 7, wherein
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
ことを特徴とする注目対象特定方法。
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A method for identifying an object of interest characterized by that.
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
処理を演算処理装置に実行させるプログラム。
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A program that causes an arithmetic processing unit to execute processing.
JP2012008592A 2012-01-19 2012-01-19 Attention target identification device, attention target identification method, and program Expired - Fee Related JP5834941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012008592A JP5834941B2 (en) 2012-01-19 2012-01-19 Attention target identification device, attention target identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012008592A JP5834941B2 (en) 2012-01-19 2012-01-19 Attention target identification device, attention target identification method, and program

Publications (2)

Publication Number Publication Date
JP2013149050A true JP2013149050A (en) 2013-08-01
JP5834941B2 JP5834941B2 (en) 2015-12-24

Family

ID=49046503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012008592A Expired - Fee Related JP5834941B2 (en) 2012-01-19 2012-01-19 Attention target identification device, attention target identification method, and program

Country Status (1)

Country Link
JP (1) JP5834941B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090727A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Content output apparatus and program
JP2017090918A (en) * 2016-11-14 2017-05-25 カシオ計算機株式会社 Content output apparatus and program
US9842255B2 (en) 2014-12-24 2017-12-12 Fujitsu Limited Calculation device and calculation method
JP2018169788A (en) * 2017-03-29 2018-11-01 パナソニック株式会社 Language ratio management system and language ratio management method
EP3419020A4 (en) * 2016-02-18 2019-02-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2022027602A (en) * 2020-07-31 2022-02-10 ホームネットカーズ株式会社 Information display device and information display system
WO2025009446A1 (en) * 2023-07-05 2025-01-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11907412B2 (en) * 2020-09-28 2024-02-20 International Business Machines Corporation Contextual spectator inclusion in a virtual reality experience

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008197A (en) * 1999-06-24 2001-01-12 Nec Corp Device for analyzing human action and recording medium for recording human action analytic program
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring device
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008197A (en) * 1999-06-24 2001-01-12 Nec Corp Device for analyzing human action and recording medium for recording human action analytic program
JP2006197373A (en) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp Viewer information measuring device
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090727A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Content output apparatus and program
US9842255B2 (en) 2014-12-24 2017-12-12 Fujitsu Limited Calculation device and calculation method
EP3419020A4 (en) * 2016-02-18 2019-02-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US11237794B2 (en) * 2016-02-18 2022-02-01 Sony Corporation Information processing device and information processing method
JP2017090918A (en) * 2016-11-14 2017-05-25 カシオ計算機株式会社 Content output apparatus and program
JP2018169788A (en) * 2017-03-29 2018-11-01 パナソニック株式会社 Language ratio management system and language ratio management method
JP2022027602A (en) * 2020-07-31 2022-02-10 ホームネットカーズ株式会社 Information display device and information display system
WO2025009446A1 (en) * 2023-07-05 2025-01-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5834941B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5834941B2 (en) Attention target identification device, attention target identification method, and program
US10182720B2 (en) System and method for interacting with and analyzing media on a display using eye gaze tracking
US9489574B2 (en) Apparatus and method for enhancing user recognition
JP5841538B2 (en) Interest level estimation device and interest level estimation method
EP2441383B1 (en) Gaze target determination device and gaze target determination method
US20190026589A1 (en) Information processing device, information processing method, and program
US20190102956A1 (en) Information processing apparatus, information processing method, and program
US20080181452A1 (en) System and method for Three-dimensional interaction based on gaze and system and method for tracking Three-dimensional gaze
US20120026277A1 (en) Video conference
US20120262558A1 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
CN104423575B (en) Presentation and fidelity based on concern
US20170263017A1 (en) System and method for tracking gaze position
JP2016031673A (en) Information processing device and information processing method
US11778155B2 (en) Image processing apparatus, image processing method, and storage medium
GB2523356A (en) Apparatus and method for robust eye/gaze tracking
JP6583996B2 (en) Video evaluation apparatus and program
US11243609B2 (en) Information processing apparatus, information processing method, and program
Hohlfeld et al. On the applicability of computer vision based gaze tracking in mobile scenarios
KR101961266B1 (en) Gaze Tracking Apparatus and Method
US20230360079A1 (en) Gaze estimation system and method thereof
Kim et al. Accuracy and feasibility of a novel fine hand motor skill assessment using computer vision object tracking
JP2014191474A (en) Concentration ratio determination program, concentration ratio determination apparatus and concentration ratio determination method
CN113633257B (en) Vestibular function examination methods, systems, equipment and media based on virtual reality
JP2021018729A (en) Personal identification apparatus, head-mounted display, content distribution server, and personal identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151019

R150 Certificate of patent or registration of utility model

Ref document number: 5834941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees