JP2013149050A - Target object determination device, target object determination method and program - Google Patents
Target object determination device, target object determination method and program Download PDFInfo
- Publication number
- JP2013149050A JP2013149050A JP2012008592A JP2012008592A JP2013149050A JP 2013149050 A JP2013149050 A JP 2013149050A JP 2012008592 A JP2012008592 A JP 2012008592A JP 2012008592 A JP2012008592 A JP 2012008592A JP 2013149050 A JP2013149050 A JP 2013149050A
- Authority
- JP
- Japan
- Prior art keywords
- face
- imaging unit
- unit
- sight
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】注目を集めている対象を的確に特定できるようにする。
【解決手段】全身撮像部11は、複数の人の動画像を撮像する。体動量検出部12は、この複数の人の各々の体動量を、全身撮像部11での撮像画像から検出する。顔撮像部13は、この複数の人の各々の顔の動画像を撮像する。撮像部制御部14は、顔撮像部13を制御して、この複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に顔撮像部13の視野を向けさせて、その顔の動画像を撮像させる。視線検出部15は、顔撮像部13での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。注目対象特定部17は、注目を集めている対象物を、検出された視線の方向に基づいて特定する。
【選択図】図3An object of the present invention is to make it possible to accurately identify an object that is attracting attention.
A whole body imaging unit 11 captures moving images of a plurality of people. The body motion amount detection unit 12 detects the body motion amount of each of the plurality of people from the image captured by the whole body imaging unit 11. The face imaging unit 13 captures a moving image of each face of the plurality of people. The imaging unit control unit 14 controls the face imaging unit 13 to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of persons or the person whose detected body movement amount has decreased. The visual field of the face imaging unit 13 is directed to the face, and a moving image of the face is captured. The line-of-sight detection unit 15 detects the direction of the line of sight of a person whose face is reflected in the image captured by the face imaging unit 13 from the captured image. The attention object specifying unit 17 specifies an object attracting attention based on the direction of the detected line of sight.
[Selection] Figure 3
Description
本明細書で議論される実施態様は、注目を集めている対象を特定する技術に関するものである。 The embodiments discussed herein relate to techniques for identifying the subject of interest.
特定の注目対象の注目度を計測し、解析して得られる注目度データを容易に把握できるようにするという技術が知られている。この技術は、まず、撮像された人物の視線方向を計測し、計測された視線方向から、その人物の注目位置情報を算出し、算出された注目位置情報を用いて、その人物の注目対象についての注目度情報を算出する。この技術は、その後、算出された注目度情報に基づき生成されたグラフィックス情報と、注目対象の画像とを重ね合わせた表示を行う。 A technique is known in which the attention level of a specific target of interest is measured and attention level data obtained by analysis can be easily grasped. This technique first measures the gaze direction of the person who has been imaged, calculates the attention position information of the person from the measured gaze direction, and uses the calculated attention position information to determine the attention target of the person. Attention level information is calculated. This technique then performs a display in which graphics information generated based on the calculated attention level information and the target image are superimposed.
また、人体の眼球運動から映像コンテンツの評価を行うという技術が知られている。この技術は、評価すべき映像としての刺激映像をディスプレイに提示すると共に、この刺激映像を観察中の被検者の眼球反応の撮像を行う。この技術は、その後、撮像された眼球画像信号を2値化処理して所定の眼球運動データを得ると共に、刺激映像と、それに対応する眼球運動データとを時間軸上に併せて表示する。 In addition, a technique for evaluating video content from human eye movements is known. In this technique, a stimulus image as an image to be evaluated is presented on a display, and an eyeball reaction of a subject who is observing the stimulus image is imaged. In this technique, the captured eyeball image signal is then binarized to obtain predetermined eye movement data, and the stimulus image and the corresponding eye movement data are displayed together on the time axis.
また、画像表示装置に表示される画像が動画像の場合に、画像を見ている時間や人数だけでなく、注目しているタイミングを考慮して注目度の度合いを測定するという技術が知られている。この技術は、まず、表示部に表示された動画像情報を注視する被検査個体を撮像し、撮像画像から人物の視線を検出し、検出された視線が表示部を注視しているかを判断し、注視している人数をカウントする。この技術は、その後、カウントされた人数と、各フレームに与えられたフレーム重みとから、動画のフレームがどれだけ注目されたかを表すフレーム注目スコアを算出し、算出されたフレーム注目スコアから動画像全体における動画像注目スコアを算出する。 In addition, when the image displayed on the image display device is a moving image, a technique for measuring the degree of attention in consideration of not only the time and number of people watching the image but also the timing of attention is known. ing. In this technology, first, an inspected individual who watches the moving image information displayed on the display unit is imaged, a person's gaze is detected from the captured image, and it is determined whether the detected gaze is gazing at the display unit. , Count the number of people watching. This technique then calculates a frame attention score indicating how much the frame of the video has received attention from the counted number of people and the frame weight given to each frame, and a moving image is calculated from the calculated frame attention score. The moving image attention score in the whole is calculated.
広告のためにコンテンツ(商品等の対象物)を表示若しくは配置する表示装置(デジタルサイネージ:Digital Signage )や商品陳列棚というものが知られている。以下の説明では、これらを「サイネージ」と総称する。 There are known display devices (digital signage) and product display shelves for displaying or arranging content (objects such as products) for advertisement. In the following description, these are collectively referred to as “signage”.
サイネージでは、複数の見物人が、そこに表示若しくは配置される様々なコンテンツを同時に見ながら、欲しいものがあるかどうかの品定めをする。このような状況では、各見物人は、様々なコンテンツに視線を向け、その注目度に応じて移動する。このような、複数の見物人がサイネージのコンテンツを同時に見るような環境下において、コンテンツの提供者には、コンテンツの見物人の注目度を調べ、どのコンテンツが気に入っているかを知り、その知見を今後の商品開発に役立てたいという希望がある。 In signage, a plurality of spectators determine whether there is a desired item while simultaneously viewing various contents displayed or arranged there. In such a situation, each spectator looks at various contents and moves according to the degree of attention. In such an environment where multiple spectators watch signage content at the same time, the content provider checks the attention level of the content spectators, knows which content they like, and uses that knowledge in the future. There is hope to be useful for product development.
複数の見物人がサイネージ上のコンテンツを見ている際における、当該コンテンツに対する注目度を抽出する手法が知られている。そのひとつに、図1に図解するように、サイネージ1上のコンテンツ2を見ている複数の見物人3の顔画像を1人ずつカメラ4で撮像し、この顔画像から検出される各見物人3の視線の情報に基づいて、コンテンツ2に対する注目度を抽出するという手法がある。この手法では、1台のカメラを回動させながら、例えば1秒程度の短時間の撮像時間で見物人3の顔画像を一人ずつ撮像するようにして視線情報を取得する。
There is known a technique for extracting the degree of attention to a content when a plurality of viewers are viewing the content on the signage. For example, as illustrated in FIG. 1, the face images of a plurality of
ところが、この手法では、見物人3が本当にコンテンツ2に注目しているかどうかを正しく判定することは難しい。これは、上述のような短時間の撮像時間では、その撮像時にたまたまコンテンツ2を眺めていた場合や、注目していたコンテンツ2からたまたま視線を外していた場合などに、見物人3がコンテンツ2に注目しているかどうかを誤認することがあるためである。
However, with this method, it is difficult to correctly determine whether or not the
一般に、人が注意を向けようとして対象物を実際に見る場合には、じっと(例えば5秒程度)見続けることが多い。そこで、例えば、一人の顔画像を例えば十数秒間連続して撮像して得られた顔画像を使用して視線情報を取得するようにすれば、見物人3がコンテンツ2に注目しているかどうかを確定できるようにはなる。しかし、コンテンツ2への注目度の抽出をする処理を特定の一人に注力すれば、他の見物人3は、その場から離れてしまったり、注目しているコンテンツ2の対象が変わってしまったりして、他の見物人3のコンテンツ2への注目度の抽出がおろそかになってしまう。このように、上述した手法では、サイネージ1を見ている見物人3全員を対象としてコンテンツ2への注目度の抽出を行うことは難しい。
In general, when a person actually looks at an object in order to pay attention, the user often keeps watching (for example, about 5 seconds). Therefore, for example, if the gaze information is acquired using a face image obtained by continuously capturing a face image of, for example, a dozen seconds, it is determined whether or not the
また、別の手法として、図2に図解するように、画角の広い広角カメラ5を使用して、同時にサイネージ1を見ている見物人3全員の顔又は体を撮像するという手法が考えられる。しかし、この手法では、各見物人3がどの方向を向いているかまでは確認できるものの、各見物人3が何かに注目しているかどうかを個別に確認することは難しい。また、広角カメラ5で得られる広角画像から見物人3の視線情報を取得することは難しいため、この手法では、各見物人3がコンテンツ2にどの程度注目しているのかを詳細に調べることが困難である。
As another method, as illustrated in FIG. 2, a method may be considered in which a wide-angle camera 5 having a wide angle of view is used to image the faces or bodies of all the
また、複数の人の各々についてコンテンツに注目しているかどうかを確定するために、カメラを多数用意して、各カメラで各人の顔画像を撮像して視線情報を取得することは可能であるが、多数のカメラを用意することでコストが極めて高くなってしまう。 In addition, in order to determine whether or not each of a plurality of people is paying attention to the content, it is possible to prepare a large number of cameras and acquire the line-of-sight information by capturing each person's face image with each camera. However, the cost becomes extremely high by preparing a large number of cameras.
上述した問題に鑑み、本明細書で後述する注目対象特定装置は、注目を集めている対象を的確に特定できるようにする。 In view of the above-described problems, the attention target identification device described later in this specification enables a target that is attracting attention to be accurately identified.
本明細書で後述する注目対象特定装置のひとつに、第一撮像部と、体動量検出部と、第二撮像部と、制御部と、視線検出部と、注目対象特定部とを備えるというものがある。ここで、第一撮像部は、複数の人の動画像を撮像する。体動量検出部は、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。第二撮像部は、この複数の人の各々の顔の動画像を撮像する。制御部は、第二撮像部を制御して、この複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。視線検出部は、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目対象特定部は、注目を集めている対象物を、検出された視線の方向に基づいて特定する。 One of the attention target identification devices described later in this specification includes a first imaging unit, a body movement amount detection unit, a second imaging unit, a control unit, a line-of-sight detection unit, and an attention target identification unit. There is. Here, the first imaging unit captures moving images of a plurality of people. The body movement amount detection unit detects the body movement amount of each of the plurality of persons from the captured image obtained by the first imaging unit. The second imaging unit captures a moving image of each face of the plurality of people. The control unit controls the second imaging unit to select a face of the plurality of persons whose detected body movement amount is smaller than a threshold value or a person's face whose detected body movement amount has decreased. The field of view of the second imaging unit is directed to capture a moving image of the face. The line-of-sight detection unit detects the direction of the line of sight of a person whose face is reflected in the image captured by the second image capturing unit from the captured image. Then, the attention target identification unit identifies an object that is attracting attention based on the direction of the detected line of sight.
また、本明細書で後述する注目対象特定方法のひとつは、まず、複数の人の動画像を第一撮像部で撮像する。次に、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。次に、この複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。次に、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目を集めている対象物を、検出された視線の方向に基づいて特定する。 Further, in one of the attention target identification methods described later in this specification, first, a plurality of human moving images are captured by a first imaging unit. Next, the amount of body movement of each of the plurality of people is detected from the captured image in the first imaging unit. Next, the second imaging unit that captures a moving image of each face of the plurality of people is controlled to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of people, or detection The visual field of the second imaging unit is directed to the face of the person whose body movement amount has been reduced, and a moving image of the face is captured. Next, the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit is detected from the captured image. Then, an object that is attracting attention is identified based on the detected direction of the line of sight.
また、本明細書で後述するプログラムのひとつは、以下の処理を演算処理装置に行わせる。この処理は、まず、複数の人の動画像を第一撮像部で撮像する。次に、この複数の人の各々の体動量を、第一撮像部での撮像画像から検出する。次に、この複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、複数の人のうちの、検出された体動量が閾値よりも小さい人の顔、若しくは、検出された体動量が減少した人の顔に第二撮像部の視野を向けさせて、その顔の動画像を撮像させる。次に、第二撮像部での撮像画像に顔が映っている人の視線の方向を当該撮像画像から検出する。そして、注目を集めている対象物を、検出された視線の方向に基づいて特定する。 One of the programs described later in this specification causes the arithmetic processing unit to perform the following processing. In this process, first, moving images of a plurality of people are imaged by the first imaging unit. Next, the amount of body movement of each of the plurality of people is detected from the captured image in the first imaging unit. Next, the second imaging unit that captures a moving image of each face of the plurality of people is controlled to detect the face of the person whose detected body movement amount is smaller than the threshold among the plurality of people, or detection The visual field of the second imaging unit is directed to the face of the person whose body movement amount has been reduced, and a moving image of the face is captured. Next, the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit is detected from the captured image. Then, an object that is attracting attention is identified based on the detected direction of the line of sight.
本明細書で後述する注目対象特定装置によれば、注目を集めている対象を的確に特定できるという効果を奏する。 According to the attention target identification device described later in this specification, there is an effect that an object that is attracting attention can be accurately identified.
これより説明する実施例に係る注目対象特定装置では、サイネージに陳列されているコンテンツを複数の人が同時に見ている場合における各人のコンテンツに対する注目度を判定するために、全身撮像用のカメラと視線検出用のカメラとの2台のカメラを使用する。 In the attention target identification device according to the embodiment described below, a camera for whole-body imaging is used to determine the degree of attention to each person's content when a plurality of people are simultaneously viewing the content displayed on the signage. And two cameras for detecting the line of sight.
この装置では、まず、全身撮像用のカメラを用いて、人の体の動きや顔の動きを撮像する。詳しくは後述するが、通常、人は、コンテンツに注目していない状態では、顔や体をいろいろな向きに動かしているが、何かに注意を向けると、体や顔の動きが小さくなる。この装置では、この体や顔の動きの変化を捉えて、注目している人を抽出する。 In this apparatus, first, a human body motion and a facial motion are imaged using a whole-body imaging camera. As will be described in detail later, when a person is not paying attention to the content, the person moves the face and body in various directions. However, if attention is directed to something, the movement of the body and face becomes smaller. In this device, the change of the movement of the body and face is captured and the person who is paying attention is extracted.
この装置に使用する全身撮像用のカメラとしては、広角で且つ高フレームレートのカメラを使用し、例えば、30fps(フレーム/秒)以上の速度で動画像の撮像を行うことが好ましい。なお、この全身撮像用のカメラでの複数の人を撮像する際には、カメラの向きを変えながら一人ずつ全身撮像しても良いし、一度に複数の人の全身を撮像するようにしてもよい。なお、この装置には、全身撮像用のカメラの向きを変える機能を持たせるようにする。 As the whole-body imaging camera used in this apparatus, it is preferable to use a wide-angle and high-frame-rate camera, for example, to capture a moving image at a speed of 30 fps (frame / second) or more. When imaging a plurality of people with this whole body imaging camera, the whole body may be imaged one by one while changing the direction of the camera, or the whole body of a plurality of people may be imaged at a time. Good. This apparatus is provided with a function of changing the orientation of the whole body imaging camera.
次に、この装置では、視線検出用のカメラを使用して、顔や体の動きが小さい人、若しくはその動きの変化が小さくなった人の顔の画像を撮像し、得られた顔画像から、その視線の方向の検出を行う。 Next, in this device, a camera for detecting the line of sight is used to capture an image of the face of a person whose face or body movement is small, or a person whose change in movement is small, and from the obtained face image The direction of the line of sight is detected.
視線検出用のカメラとしては、全身撮像用のものに比べて低フレームレートのカメラを使用し、例えば、1〜20fps(フレーム/秒)以上の速度で顔の動画像の撮像を行うようにする。これは、通常、人は、何かに注目しているときは、同じコンテンツを比較的長時間継続して見ることから、視線の動きの変化が小さく、従って、低フレームレートでの動画像撮像を行って顔画像の取得枚数を減らしても視線の検出は適切に行えるからである。なお、視線検出用のカメラで顔画像を撮像する際には、カメラの向きを変えながら一人ずつ撮像するようにする。 As a camera for line-of-sight detection, a camera with a lower frame rate than that for whole body imaging is used, and for example, a moving image of a face is captured at a speed of 1 to 20 fps (frames / second) or more. . This is because when a person is paying attention to something, he or she sees the same content continuously for a relatively long period of time, so the change in the movement of the line of sight is small, and therefore moving image capture at a low frame rate. This is because the line of sight can be detected appropriately even if the number of face images acquired is reduced. Note that when face images are picked up by a camera for line-of-sight detection, one person is picked up while changing the direction of the camera.
実施例に係る注目対象特定装置では、上述のように全身撮像用のカメラと視線検出用のカメラとの2台のカメラを使用して、コンテンツに注目する人の注目度を取得する機能を有する。 The attention target specifying device according to the embodiment has a function of acquiring the attention level of a person who pays attention to the content by using two cameras, the whole body imaging camera and the line-of-sight detection camera, as described above. .
図3について説明する。図3は、注目対象特定装置の一実施例の構成を図解した機能ブロック図である。
図3の注目対象特定装置10は、全身撮像部11、体動量検出部12、顔撮像部13、撮像部制御部14、視線検出部15、記憶部16、及び注目対象特定部17を備えている。
With reference to FIG. FIG. 3 is a functional block diagram illustrating the configuration of an embodiment of the target identification device.
The attention target specifying device 10 of FIG. 3 includes a whole
全身撮像部11は、サイネージに陳列されているコンテンツ(対象物)を見ている、当該サイネージの周囲に在る複数の人の動画像を撮像する。より具体的には、全身撮像部11は、複数の人の体の動きや顔の動きを撮像する、前述した全身撮像用のカメラである。
The whole
体動量検出部12は、その複数の人の各々の体動量を全身撮像部11での撮像画像から検出する。
顔撮像部13は、人の顔の動画像を撮像する。より具体的には、顔撮像部13は、顔や体の動きが小さい人の顔、若しくはその動きの変化が小さくなった人の顔の画像を撮像する、前述した視線検出用のカメラである。
The body motion
The
撮像部制御部14は、顔撮像部13を制御して、その複数の人のうちの、体動量検出部12により検出された体動量が閾値よりも小さい人の顔、若しくは、当該検出された体動量が減少した人の顔に顔撮像部13の視野を向けさせて、その顔の動画像を撮像させる。また、撮像部制御部14は、全身撮像部11の駆動制御も行う。
The imaging unit control unit 14 controls the
視線検出部15は、顔撮像部13での撮像画像に顔が映っている人の視線の方向を、その撮像画像から検出する。
記憶部16は、全身撮像部11及び顔撮像部13による撮像画像と、撮像部制御部14による制御の履歴とを記憶しておくメモリである。更に、記憶部16は、体動量検出部12による複数の人の各々の体動量の検出結果、及び、視線検出部15による各人の視線の方向の検出結果を記憶する。
The line-of-
The storage unit 16 is a memory that stores a captured image by the whole
注目対象特定部17は、記憶部16に記憶されている情報のうちの、視線検出部15による各人の視線の方向の検出結果に基づいて、注目を集めているコンテンツの特定を行う。
The attention
なお、サイネージがデジタルサイネージである場合、すなわち、注目を集めているコンテンツが不図示の表示装置に表示されている場合がある。この場合には、注目対象特定部17は、視線検出部15により検出された視線の方向に基づくと共に、更に、視線検出部15によって視線の方向の検出が行われた人とコンテンツの表示装置上での表示位置との相対的な位置関係に基づいて、コンテンツの特定を行う。
In addition, when the signage is digital signage, that is, content that is drawing attention may be displayed on a display device (not shown). In this case, the attention
なお、この注目対象特定装置10において、全身撮像部11として、顔撮像部13よりも画角が広角である撮像部を使用してもよい。このようにすると、1フレームの撮像画像により多数の人の像を取り込むことができる。
In this attention object specifying device 10, an imaging unit having a wider angle of view than the
また、顔撮像部13による顔の動画像の撮像におけるフレームレートは、全身撮像部11による複数の人の動画像の撮像におけるフレームレートよりも低くしてもよい。このようにしても、視線の検出は適切に行うことができ、副次的には、視線検出の処理量の低減化や記憶部16の容量の節約にも繋がる。
In addition, the frame rate for capturing a moving image of a face by the
なお、注目対象特定装置10は、図3において破線を用いて描かれている顔検出部21を更に備えてもよい。顔検出部21は、全身撮像部11での撮像画像に映っている複数の人のうち、当該撮像画像に顔が映っている人を検出する。なお、この場合には、撮像部制御部14は、顔検出部21により検出された、全身撮像部11での撮像画像に顔が映っている人についての顔の動画像を顔撮像部13に撮像させる。詳細は後述するが、このようにすることで、コンテンツに注目していない人をコンテンツに注目していると誤検出することの抑制が可能になる。
Note that the attention target identification device 10 may further include a face detection unit 21 drawn using broken lines in FIG. The face detection unit 21 detects a person whose face is reflected in the captured image among a plurality of people reflected in the captured image of the whole-
また、注目対象特定装置10は、図3において破線を用いて描かれている分析部22を更に備えてもよい。分析部22は、注目を集めているコンテンツへの注目度の分析を行う。なお、本実施例では、この分析は、視線検出部15によって視線の方向が検出された人が当該コンテンツに視線を向けている時間の長さに基づいて行われる。なお、分析部22は、記憶部16に記憶されている、視線検出部15による視線の検出結果を用いて、この分析を行う。
Moreover, the attention object specific apparatus 10 may further be provided with the
また、注目対象特定装置10は、図3において破線を用いて描かれている優先度付与部23を更に備えてもよい。優先度付与部23は、前述の複数の人のうちでの注目を集めているコンテンツへの注目度の高さの順位を表している優先度を、当該複数の人の各々とコンテンツとの相対的な位置関係に基づき、当該複数の人の各々に付与する。なお、この場合、撮像部制御部14は、複数の人のうちの、体動量検出部12により検出された体動量が閾値よりも小さい人、若しくは、当該検出された体動量が減少した人に、この優先度の高い順に顔撮像部13の視野を向けさせて顔の動画像を撮像させる。詳細は後述するが、このようにすることで、コンテンツを見ている複数の人の中でもコンテンツに対する注目度が相対的に高い人ほど早期に視線の検出が行われ、高い注目を集めているコンテンツの特定が早期に行えるようになる。
Moreover, the attention object specific apparatus 10 may further be provided with the
図3の注目対象特定装置10は、以上のように構成されている。この注目対象特定装置10では、まず、サイネージの周囲に在る複数の人の全身画像の取得が行われ、この全身画像から、複数の人の各々の顔や体の動き(体動)を捉え、この体動量に基づき、どの人がコンテンツに注目しているかを判別する。この注目対象特定装置10では、更に、コンテンツに注目していると判別された人の視線を検出することによって、この人がコンテンツに注目しているかどうかを更に詳細に確認する。このように、注目対象特定装置10では、コンテンツに注目しているかどうかについて2段階のチェックを行う。注目対象特定装置10は、このようにすることで、複数の人が同時に同じサイネージを見ている場合に、どのコンテンツに対しての注目度が高いかを、的確に検出することが可能であるので、注目度を検出する際において高い検出性能が得られる。 The attention target identification device 10 in FIG. 3 is configured as described above. In this attention object identification device 10, first, whole body images of a plurality of people around the signage are acquired, and the movements (body movements) of the faces and bodies of the plurality of people are captured from the whole body images. Based on the amount of body movement, it is determined which person is paying attention to the content. In this attention object specifying device 10, it is further confirmed in detail whether or not this person is paying attention to the content by detecting the line of sight of the person determined to be paying attention to the content. In this way, the attention target identification device 10 performs a two-stage check as to whether or not attention is paid to content. In this way, the target object specifying device 10 can accurately detect which content has a high degree of attention when a plurality of people are watching the same signage at the same time. Therefore, high detection performance can be obtained when detecting the degree of attention.
次に図4について説明する。図4は、注目対象特定装置の一実施例のハードウェア構成図である。
図4において、注目対象特定装置10は、コンピュータ30、全身撮像カメラ41、顔撮像カメラ42、及びカメラ駆動装置43を備えている。
Next, FIG. 4 will be described. FIG. 4 is a hardware configuration diagram of an embodiment of the target identification device.
In FIG. 4, the attention target identification device 10 includes a
コンピュータ30は、図3における体動量検出部12、撮像部制御部14、視線検出部15、記憶部16、注目対象特定部17、顔検出部21、分析部22、及び優先度付与部23の各機能を提供する。
The
全身撮像カメラ41は、サイネージに陳列されているコンテンツ(対象物)を見ている、当該サイネージの周囲に在る複数の人の全身画像を撮像するカメラであり、図3における全身撮像部11の機能を提供する。
The whole
顔撮像カメラ42は、人の顔の動画像を撮像するカメラであり、図3における顔撮像部13の機能を提供する。
カメラ駆動装置43は、撮像部制御部14として機能しているコンピュータ30によって制御されて、全身撮像カメラ41及び顔撮像カメラ42を駆動してその向きを変化させることにより、カメラの視野を変化させる。
The
The
コンピュータ30のハードウェア構成について説明する。
コンピュータ30は、MPU31、ROM32、RAM33、インタフェース装置34、及びハードディスク装置35を備えている。なお、これらの構成要素はバスライン36を介して接続されており、MPU31の管理の下で各種のデータを相互に授受することができる。
A hardware configuration of the
The
MPU(Micro Processing Unit)31は、コンピュータ30全体の動作を制御する演算処理装置である。
ROM(Read Only Memory)32は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。MPU31は、この基本制御プログラムをコンピュータ30の起動時に読み出して実行することにより、コンピュータ30の各構成要素の動作制御が可能になる。
An MPU (Micro Processing Unit) 31 is an arithmetic processing unit that controls the operation of the
A ROM (Read Only Memory) 32 is a read-only semiconductor memory in which a predetermined basic control program is recorded in advance. The
RAM(Random Access Memory)33は、MPU31が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。
A RAM (Random Access Memory) 33 is a semiconductor memory that can be written and read at any time and used as a working storage area as necessary when the
インタフェース装置34には、全身撮像カメラ41、顔撮像カメラ42、及びカメラ駆動装置43が接続されている。インタフェース装置34は、これらの機器との間で行われる、撮像画像データや制御データ等の各種情報の授受の管理を行う。
A whole
ハードディスク装置35は、MPU31によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU31は、ハードディスク装置35に記憶されている所定の制御プログラムを読み出して実行することにより、各種の制御処理を行えるようになる。また、ハードディスク装置35は、図3における記憶部16として機能する。
The
前述したように、コンピュータ30は、図3における体動量検出部12、撮像部制御部14、視線検出部15、記憶部16、注目対象特定部17、顔検出部21、分析部22、及び優先度付与部23の各機能を提供する。このためには、以降で説明する各種の制御処理をMPU31に行わせるための制御プログラムを予め作成しておき、作成された制御プログラムをハードディスク装置35に予め格納しておく。そして、コンピュータ30に所定の指示を与えて、MPU31に上述の制御プログラムをハードディスク装置35から読み出させて実行させる。こうすることで、コンピュータ30を、上述した図3における各機能ブロックとして機能させることが可能になる。
As described above, the
また、上述の制御プログラムは、図4に描かれているような可搬型の記録媒体51に格納しておくようにしてもよい。記録媒体51としては、例えば、USB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリ、CD−ROM(Compact Disc Read Only Memory)やDVD−ROM(Digital Versatile Disc Read Only Memory)などがある。なお、このようにする場合には、図4において破線を用いて描かれている記録媒体駆動装置50をコンピュータ30に備えてバスライン36に接続しておく。そして、コンピュータ30に所定の指示を与えて、MPU31に上述の制御プログラムを、記録媒体51から、記録媒体駆動装置50を介して読み出させて実行させる。このようにすることによっても、コンピュータ30を、上述した図3における各機能ブロックとして機能させることが可能になる。
Further, the control program described above may be stored in a portable recording medium 51 as depicted in FIG. Examples of the recording medium 51 include a flash memory equipped with a USB (Universal Serial Bus) standard connector, a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and the like. . In this case, the
次に、注目対象特定装置10において行われる制御処理について説明する。図5は、この制御処理の処理手順を図解したフローチャートである。このフローチャートに沿って、この制御処理を説明する。 Next, the control process performed in the attention object specific apparatus 10 is demonstrated. FIG. 5 is a flowchart illustrating the processing procedure of this control processing. This control process will be described along this flowchart.
図5の制御処理が開始されると、まず、S100において、全身画像撮像処理を撮像部制御部14及び全身撮像部11が行う。全身画像撮像処理は、図6に図解するように、撮像部制御部14が全身撮像部11を駆動してその撮像方向を変化させながら、サイネージ1付近に在る複数の見物人3の各々の全身の動画像を全身撮像部11に撮像させる処理である。この全身画像撮像処理について説明する。
When the control process of FIG. 5 is started, first, in S100, the whole body image capturing process is performed by the imaging unit control unit 14 and the whole
通常、人は、コンテンツに注目していない状態では、顔や体をいろいろな向きに動かしているが、何かに注意を向けると、体や顔の動きが小さくなる。
例えば、図7Aに図解したように、サイネージ1上のコンテンツ2のうちのどれに注目するかを見物人3が未だ決心していない場合には、見物人3は、サイネージ1のあちらこちらを見回しており、この場合には、見物人3の体や顔はふらついて動いている。その後、図7Bに図解したように、注目するコンテンツ2を見物人3が決めた場合には、見物人3の体や顔はそのコンテンツ2の方向に向き、体や顔の動きは小さくなる。全身撮像部11は、この、見物人3の体や顔の動きが大から小になる変化を捉えるために、見物人3の全身の動画像を撮像する。
Usually, when a person is not paying attention to the content, the face and body are moved in various directions. However, if attention is paid to something, the movement of the body and face becomes small.
For example, as illustrated in FIG. 7A, if the
撮像部制御部14は全身撮像部11を駆動制御して、図8に図解したように、水平面上での回転移動(首振り)と、水平面に対して傾斜させる移動(首の上げ下げ)とを行い、複数の見物人3の全身画像を全身撮像部11に撮像させる。ここで、全身撮像部11として、画角が広角であるカメラを使用していれば、1つの撮像フレームに多数の見物人3の全身像を取り込むことができるので、少ない撮像回数で複数の見物人3の全員の全身画像が取得できる。もちろん、全身撮像部11が複数の見物人3の全身画像を一人ずつ取得するようにしてもよい。
As illustrated in FIG. 8, the imaging unit control unit 14 drives and controls the whole-
また、上述の実施例では、見物人3の全身画像を全身撮像部11が取得するようにしているが、見物人3の体動が大から小になる変化が十分に捉えられる場合には、見物人3の顔の画像、若しくは上半身の画像を全身撮像部11が取得するようにしてもよい。
In the above-described embodiment, the whole
ここで図9について説明する。図9は、全身画像撮像処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS100の処理として注目対象特定装置10において行われる処理である。なお、図9のフローチャートに図解されている各処理は、全身撮像部11が図8に図解のように設置されている場合を前提としている。
Here, FIG. 9 will be described. FIG. 9 is a flowchart illustrating an example of the processing procedure of the whole-body image capturing process, which is a process performed in the attention target identification device 10 as the process of S100 in the flowchart of FIG. Each process illustrated in the flowchart of FIG. 9 is based on the assumption that the whole-
全身画像撮像処理の処理手順について、図9のフローチャートに沿って説明する。
図9において、まず、S101では、全身撮像部11の駆動制御を行って、図8の[A]の視野が得られる向きに全身撮像部11を移動させる処理を撮像部制御部14が行う。
The processing procedure of the whole body image capturing process will be described with reference to the flowchart of FIG.
In FIG. 9, first, in S101, the imaging unit control unit 14 performs a process of moving the whole
次に、S102では、図8の[A]の視野が得られる向きで全身撮像部11を静止させると共に、見物人3の全身の動画像を、例えば30fpsのフレームレートで例えば1秒間に亘り、全身撮像部11に撮像させる処理を撮像部制御部14が行う。
Next, in S102, the whole-
次に、S103では、全身撮像部11の駆動制御を行って、図8の[B]の視野が得られる向きに全身撮像部11を移動させる処理を撮像部制御部14が行う。
次に、S104では、図8の[B]の視野が得られる向きで全身撮像部11を静止させると共に、見物人3の全身の動画像を、例えば30fpsのフレームレートで例えば1秒間に亘り、全身撮像部11に撮像させる処理を撮像部制御部14が行う。
Next, in S103, the imaging unit control unit 14 performs drive control of the whole
Next, in S104, the whole-
次に、S105では、前述したS101及びS102の処理並びにS103及びS104の処理と同様の全身撮像部11の移動及び撮像の制御処理を、撮像対象である見物人3を全て撮像するまで撮像部制御部14が繰り返す。ここで、サイネージ1付近に在る全ての見物人3の全身画像の撮像が完了したときには、図9の全身画像撮像処理が終了し、その後は図5のS200に処理が進む。
以上までの処理が全身画像撮像処理である。
Next, in S105, the imaging unit control unit performs the same processing of S101 and S102 and the same movement and imaging control processing of the whole-
The process so far is the whole-body image capturing process.
図5の制御処理の説明を続ける。S100の全身画像撮像処理に続くS200では、体動量検出・判定処理を体動量検出部12が行う。体動量検出・判定処理は、見物人3の体動量を、S100の処理によって全身撮像部11により取得された撮像画像から検出し、検出された体動量に基づいて、サイネージ1上のコンテンツ2を見物人3が注目しているか否かの判定を下す処理である。
The description of the control process in FIG. In S200 following the whole body image capturing process in S100, the body movement amount detection / determination process is performed by the body movement
ここで図10について説明する。図10は、体動量検出・判定処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS200の処理として注目対象特定装置10において行われる処理である。 Here, FIG. 10 will be described. FIG. 10 is a flowchart illustrating an example of the procedure of the body movement amount detection / determination process, which is a process performed in the target object identification device 10 as the process of S200 in the flowchart of FIG.
図10の処理は、全身撮像部11により取得された撮像画像に含まれている見物人3の一人ずつの全身像に対して行われる。
まず、S201において、撮像画像のフレーム毎に、見物人3の全身像(被写体像)を抽出する処理を体動量検出部12が行う。
The process of FIG. 10 is performed on the whole body image of each
First, in step S <b> 201, the body movement
次に、S202では、S201の処理により抽出した被写体像から鼻孔の像を検出し、この鼻孔の像の撮像画像上の位置を取得する処理を体動量検出部12が行う。本実施例では、この鼻孔の像の位置を、見物人3の体動量の検出の基準として使用する。
Next, in S202, the body movement
次に、S203では、撮像画像において連続する2フレーム毎に、先行するフレームと後続のフレームとの間での鼻孔の像の位置の差分値を計算する処理を体動量検出部12が行う。本実施例では、撮像画像のフレーム順に算出されるこの差分値を、見物人3の体動量として使用する。
Next, in S203, the body movement
次に、S204では、S203の処理によりフレーム順に取得された体動量が、以下の2つの条件のうちの少なくとも一方を満たしているか否かを判定する処理を体動量検出部12が行う。この2つの条件のうちの第一の条件は、フレーム順に取得された体動量がその順で単調に減少していることであり、この2つの条件のうちの第二の条件は、フレーム順に取得された体動量の全てが、所定の閾値thよりも小さいことである。体動量検出部12は、ここで、この第一の条件と第二の条件とのうちの少なくとも一方を満たしていると判定したとき(判定結果がYesのとき)にはS205に処理を進める。一方、体動量検出部12は、ここで、この第一及び第二の条件のどちらも満たしていないと判定したとき(判定結果がNoのとき)にはS206に処理を進める。
Next, in S204, the body motion
S205では、実行中の体動量検出・判定処理が全身像を処理対象としている見物人3は、サイネージ1上のコンテンツ2に注目している見物人3であるとの判定を下す処理を体動量検出部12が行う。その後、体動量検出部12は、体動量検出・判定処理を終了して、図5のS300に処理を進める。
In S205, a body motion amount detection unit performs a process of determining that the
一方、S206では、実行中の体動量検出・判定処理が全身像を処理対象としている見物人3は、サイネージ1上のコンテンツ2に注目している見物人3ではないとの判定を下す処理を体動量検出部12が行う。その後、体動量検出部12は、体動量検出・判定処理を終了して、図5のS300に処理を進める。
以上までの処理が体動量検出・判定処理である。
On the other hand, in S <b> 206, a process for determining that the
The above processing is the body motion amount detection / determination processing.
なお、図10の体動量検出・判定処理では、見物人3の体動量の検出の基準として、鼻孔の像の撮像画像上の位置を使用したが、身体の他の部位の像を、見物人3の体動量の検出の基準として使用してもよい。すなわち、見物人3の体動量の検出の基準として、例えば、見物人3の目(瞳孔)の像や口の像の撮像画像上の位置を使用してもよく、また、見物人3の顔全体の像の輪郭から顔の中心を求め、その中心の撮像画像上の位置を使用してもよい。
In the body movement amount detection / determination process in FIG. 10, the position of the nostril image on the captured image is used as a reference for detecting the body movement amount of the
図5の制御処理の説明を続ける。S200の体動量検出・判定処理に続くS300では、顔画像撮像処理を撮像部制御部14及び顔撮像部13が行う。顔画像撮像処理は、撮像部制御部14が顔撮像部13を駆動して、その撮像方向を、視線の方向の検出の対象者へ向け、顔の動画像を顔撮像部13に撮像させる処理である。なお、視線の方向の検出の対象者とは、体動量検出・判定処理によってサイネージ1上のコンテンツ2に注目していると判定された見物人3である。この顔画像撮像処理について説明する。
The description of the control process in FIG. In S300 following the body movement amount detection / determination process in S200, the imaging unit control unit 14 and the
撮像部制御部14は顔撮像部13を駆動制御して、図11に図解したように、水平面上での回転移動(首振り)と、水平面に対して傾斜させる移動(首の上げ下げ)とを行い、その撮像方向を、検出対象者6へ向ける。このとき、撮像部制御部14は、顔撮像部13のズーム量の調整も行って、顔撮像部13の視野を検出対象者6の顔に合わせる。
As illustrated in FIG. 11, the imaging unit control unit 14 drives and controls the
なお、顔撮像部13と全身撮像部11との初期情報(設置位置、首ふり角、仰角、ズーム量等)は予め把握しておく。顔撮像部13と全身撮像部11とは同一の位置に設置してもよく、また、両者を別の位置に設置してもよい。
Note that initial information (installation position, neck swing angle, elevation angle, zoom amount, etc.) between the
ここで図12について説明する。図12は、顔画像撮像処理の処理手順の一例を図解したフローチャートであり、図5のフローチャートにおけるS300の処理として注目対象特定装置10において行われる処理である。 Here, FIG. 12 will be described. FIG. 12 is a flowchart illustrating an example of the processing procedure of the face image capturing process, which is a process performed in the attention target identification device 10 as the process of S300 in the flowchart of FIG.
図12の処理は、体動量検出・判定処理によってサイネージ1上のコンテンツ2に注目していると判定された見物人3の全員を視線検出の対象者として、その一人ずつに対して行われる。
The process of FIG. 12 is performed for each one of the
まず、S301において、検出対象者6の全身画像を参照する処理を撮像部制御部14が行う。
次に、S302では、参照中の検出対象者6の全身画像と、全身撮像部11の設置位置情報と、この全身画像の撮像時における全身撮像部11の制御情報(首ふり角、仰角など)とに基づき、検出対象者6の位置を特定する処理を撮像部制御部14が行う。
First, in S301, the imaging unit control unit 14 performs a process of referring to the whole body image of the detection target person 6.
Next, in S302, the whole body image of the detection target person 6 being referred to, the installation position information of the whole
次に、S303では、S302の処理による検出対象者6の位置の特定結果と、顔撮像部13の設置位置情報とに基づき、検出対象者6の顔画像の撮像のための顔撮像部13の制御情報(首ふり角、仰角、ズーム量)を算出する処理を撮像部制御部14が行う。
Next, in S303, based on the result of specifying the position of the detection target person 6 in the process of S302 and the installation position information of the
次に、S304では、S303の処理によって算出された制御情報に基づいて顔撮像部13を駆動制御する処理を撮像部制御部14が行う。
次に、S305では、顔撮像部13を制御して、検出対象者6の顔の動画像を撮像させる処理を撮像部制御部14が行う。顔画像の撮像が完了したときには、図12の顔画像撮像処理が終了し、その後は図5のS400に処理が進む。
Next, in S304, the imaging unit control unit 14 performs a process of driving and controlling the
Next, in S <b> 305, the imaging unit control unit 14 performs processing for controlling the
図5の制御処理の説明を続ける。S300の顔画像撮像処理に続くS400では、視線検出処理を視線検出部15が行う。この処理は、顔画像撮像処理によって撮像された検出対象者6の顔画像から、検出対象者6の視線の方向を表している視線情報を検出する。なお、本実施例では、顔画像における、眼及び鼻の位置、並びに、眼の瞳孔及び角膜反射を用いて視線情報の検出を行う。なお、眼の瞳孔や角膜反射の情報を顔画像から得るために、顔撮像部13として、赤外発光ダイオード等を用いて発光させた赤外光を検出対象者6に照射しながら検出対象者6の顔の赤外画像を撮像する赤外画像撮像装置を使用するようにしてもよい。
The description of the control process in FIG. In S400 following the face image capturing process in S300, the line-of-
次に、S500では、S100の処理で得られた全身画像及びS300の処理で得られた顔画像の画像データ、並びに、S200の処理で得られた体動量及びS400の処理で得られた視線情報を記憶しておく処理を記憶部16が行う。なお、記憶部16は、画像データ、体動量、及び視線情報は見物人3毎に対応付けて記憶しておくようにし、更に、画像データの撮像日時データ、及び、撮像時の撮像部制御部14による制御情報も対応付けて記憶しておくようにする。このようにしておくことで、コンテンツ2に対する注目度の分析を、後で行うことができる。なお、体動量及び視線情報は、この他の各種の記憶データから後に改めて検出することができるので、記憶部16での記憶対象から除外してもよい。
Next, in S500, the whole body image obtained in the process of S100, the image data of the face image obtained in the process of S300, the amount of body movement obtained in the process of S200, and the line-of-sight information obtained in the process of S400. Is stored in the storage unit 16. Note that the storage unit 16 stores the image data, the amount of body movement, and the line-of-sight information in association with each
次に、S600では、コンテンツ2に対する注目度の判定のためのデータ取得を終了するか否かを判定する処理を撮像部制御部14が行う。このデータ取得の終了は、例えば、この注目対象特定装置10の使用者によって指示される。撮像部制御部14は、ここで、データ取得の終了指示を受けたと判定したとき(判定結果がYesのとき)にはS700に処理を進める。一方、撮像部制御部14は、ここで、データ取得の終了指示を受けていないと判定したとき(判定結果がNoのとき)にはS100に処理を戻して上述した処理を繰り返すことでデータの取得を継続する。 Next, in S600, the imaging unit control unit 14 performs a process of determining whether or not to end the data acquisition for determining the degree of attention to the content 2. The end of the data acquisition is instructed, for example, by the user of the target object specifying device 10. Here, when it is determined that the data acquisition end instruction has been received (when the determination result is Yes), the imaging unit control unit 14 advances the processing to S700. On the other hand, when it is determined that the data acquisition end instruction has not been received (when the determination result is “No”), the imaging unit control unit 14 returns the process to S100 and repeats the above-described process. Continue acquisition.
次に、S700では、注目コンテンツ特定処理を注目対象特定部17が行う。この処理は、検出対象者6が注目しているコンテンツ2を、検出対象者6について検出された視線の方向に基づいて特定する処理である。この処理について説明する。
Next, in S700, the target
全身撮像部11及び顔撮像部13は、サイネージ1が設置されている場所の近傍の位置に固定して設置されており、その位置で首ふり、首の上げ下げ、ズームなどが行われる。従って、撮像画像に基づいて、サイネージ1上のどのコンテンツ2を見ているかを特定することができる。このために、注目対象特定部17は以下の処理を行う。
The whole
まず、人物とサイネージ1との距離は、全身撮像部11で撮像した画像全体の倍率(撮像範囲の実際のサイズと画素数との関係)に対する、撮像されている人物像(身長を例えば1.7m程度に仮定)の画素数より、概ね求めることができる。また、人の顔の両目(瞳孔間)の間隔は概ね65mmであるので、取得画像における両目の間隔に相当する距離と画素数との比を用いても、人物とサイネージ1との概略の距離を求めることができる。更に、顔撮像部13での検出対象者6の顔画像の撮像時における撮像条件(首ふり角度、仰角、ズーム量)を基に、検出対象者6から見たサイネージ1の位置や方角を求めることができる。これらから、検出対象者6とサイネージ1との位置関係が特定される。注目対象特定部17は、以上の計算を行って、検出対象者6とサイネージ1との位置関係情報を得る。
First, the distance between the person and the
一方、注目対象特定部17には、コンテンツ2のサイネージ1上の配置位置が表されているテーブルを予め用意しておく。図13は、このテーブルの例である。
図13のテーブルでは、商品A、B、C、…、Nの各々について、表示装置であるサイネージ1上の配置位置を表す座標データが示されている。このテーブルにおいて、例えば、商品「A」は、「左右方向」の座標が「α11〜α12」とされており、「上下方向」の座標が「β11〜β12」とされている。これは、図14に図解したように、サイネージ1上に右上端を原点とする二次元直交座標を定義したときに、商品Aが、P方向(左右方向)の座標α11〜α12の範囲、且つ、Q方向(上下方向)の座標β11〜β12の範囲に配置されていることを表している。
On the other hand, the attention
In the table of FIG. 13, coordinate data representing an arrangement position on the
注目対象特定部17は、検出対象者6とサイネージ1との位置関係情報と、上述したテーブルと、検出対象者6の視線情報とを用いて、検出対象者6の視線がコンテンツ2を貫いているかどうかを判定する処理を行う。そして、検出対象者6の視線によって貫かれているコンテンツ2を特定する処理を行う。
The attention
検出対象者6が注目しているコンテンツ2の特定は、以上のようにして行われる。
なお、上述した注目コンテンツ特定処理では、コンテンツ2のサイネージ1上の配置位置を表す座標データが示されているテーブルを注目対象特定部17に用意しておくようにしていた。この代わりに、サイネージ1を見るときの見物人3の位置及び視線の方向に揃えた撮像位置及び撮像方向の画像を予めカメラで撮像しておき、この撮像画像を注目対象特定部17に用意しておくようにする。そして、注目対象特定部17は、この画像情報を利用して、検出対象者6が注目しているコンテンツ2を特定する処理を行うようにしてもよい。
The identification of the content 2 focused on by the person to be detected 6 is performed as described above.
In the noted content specifying process described above, a table showing coordinate data representing the arrangement position of the content 2 on the
図5の制御処理の説明を進める。注目対象特定装置10が分析部22を備えている場合には、S700の注目コンテンツ特定処理に続くS800において、注目度分析処理を分析部22が行う。この処理は、注目を集めているコンテンツ2への注目の高さ(注目度)を分析する処理である。本実施例では、検出対象者6がコンテンツ2を注目している(視線を向けている)時間の長さを注目度とし、検出対象者6毎且つコンテンツ2毎に、注目度の集計を行うようにする。なお、分析部22は、注目対象特定部17によるコンテンツ2の特定情報と、記憶部16に記憶されている、検出対象者6毎の顔画像の撮像日時データとを用いて、これらの集計を行う。この注目度分析処理を終えた後には、図5の制御処理が終了する。
The description of the control process of FIG. When the attention object identification device 10 includes the
以上までの制御処理が行われることによって、注目対象特定装置10により、見物人3からの注目を集めているコンテンツ2の特定が行われる。
なお、以上までに説明した制御処理では、全身撮像部11で撮像した見物人3の全身の撮像画像から求めた体動量に基づいて、サイネージ1上のコンテンツ2に注目している見物人3であるかどうかの判定を行っている。しかしながら、この判定では、図15に図解したように、サイネージ1に背を向けて立ち止まっている見物人3bや、サイネージ1から視線が外れて静止している見物人3dを、見物人3a及び3cと同様に、コンテンツ2に注目していると誤判定することがある。前述した顔検出部21は、このような誤判定を抑制するために、注目対象特定装置10に備えられる。
By performing the control processing described above, the attention target specifying device 10 specifies the content 2 that is attracting attention from the
In the control process described above, is the
ここで図16について説明する。図16は、顔検出部21が行う処理の処理手順を図解したフローチャートである。なお、このフローチャートは、図10の体動量検出・判定処理のフローチャートにおけるS204の処理とS205の処理との間に挿入される。 Here, FIG. 16 will be described. FIG. 16 is a flowchart illustrating a processing procedure of processing performed by the face detection unit 21. This flowchart is inserted between the process of S204 and the process of S205 in the body movement amount detection / determination process flowchart of FIG.
図10のS204の判定処理の結果がYesのとき、まず、S211において、全身撮像部11により取得された撮像画像に映っている、判定対象の見物人3の全身像から、顔の像を検出する処理を顔検出部21が行う。顔の像の検出は、例えば、全身像の上部から、肌色の楕円形状の所定サイズの領域(顔)を検出することによって行われる。
When the result of the determination process in S204 of FIG. 10 is Yes, first, in S211, a face image is detected from the whole body image of the
次に、S212では、S211の検出処理によって顔の像を検出できたか否かを判定する処理を顔検出部21が行う。顔検出部21は、ここで、顔の像を検出できたと判定したとき(判定結果がYesのとき)には、その見物人3はサイネージ1の方を向いているのでコンテンツ2に注目していると判断して図10のS205に処理を進める。一方、顔検出部21は、ここで、顔の像を検出できなかったと判定したとき(判定結果がNoのとき)には、その見物人3はサイネージ1の方を向いていないためコンテンツ2に注目していないと判断して図10のS206に処理を進める。
Next, in S212, the face detection unit 21 performs a process of determining whether or not a face image has been detected by the detection process of S211. Here, when the face detection unit 21 determines that the face image has been detected (when the determination result is Yes), the
顔検出部21が以上の処理を行うことで、体動量のみに基づいたコンテンツ2への注目の判定における誤判定が抑制される。
なお、顔検出部21は、顔の像の検出のみならず、眼や鼻などの顔の部位の像の検出を更に行うようにして、見物人3はサイネージ1の方を向いているかどうかの判定の精度を更に高めるようにしてもよい。
When the face detection unit 21 performs the above processing, erroneous determination in determination of attention to the content 2 based only on the amount of body movement is suppressed.
Note that the face detection unit 21 not only detects the face image, but also further detects the image of the facial part such as the eyes and nose, and determines whether or not the
ところで、前述した体動量検出・判定処理によって、サイネージ1上のコンテンツ2に注目している見物人3が複数人抽出された場合に、抽出された見物人3の各々に対し、視線検出の処理の優先度を与えるようにしてもよい。前述した優先度付与部23は、抽出された見物人3の各々に対し、この優先度を付与するために、注目対象特定装置10に備えられる。
By the way, when a plurality of
優先度付与部23は、見物人3とコンテンツ2との相対的な位置関係に基づいて設定される優先度を、見物人3の各々に付与する。本実施例では、優先度付与部23は、サイネージ1までの距離が短い見物人3ほど高い優先度を与えるようにし、また、サイネージ1に対する向きが直角に近い(すなわち正対に近い)人ほど、高い優先度を与えるようにする。図17に図解した例では、見物人3e、3f、3g、及び3hのうちで、サイネージ1までの距離が最短であり、且つ、サイネージ1に対して正対している見物人3gに対して、最も高い優先度が優先度付与部23によって付与される。
The
ここで図18について説明する。図18は、優先度付与部23による処理内容を図解したフローチャートである。なお、このフローチャートで図解されている処理手順は、図10の体動量検出・判定処理のフローチャートにおけるS205の処理に続いて行われる。
Here, FIG. 18 will be described. FIG. 18 is a flowchart illustrating the contents of processing by the
図10のS205の処理に続き、S221では、全身撮像部11で撮像した撮像画像と、当該撮像画像の撮像時における撮像部制御部14の全身撮像部11に対する制御情報とを取得する処理を優先度付与部23が行う。なお、この処理によって取得される撮像画像は、S205の処理によってコンテンツ2に注目しているとの判定が下された全ての見物人3(すなわち、視線の検出対象者6)についてのものである。
Following S205 of FIG. 10, in S221, priority is given to the process of acquiring the captured image captured by the whole-
次に、S222では、検出対象者6とサイネージ1との距離を算出する処理を優先度付与部23が行う。この距離の算出は、例えば、前述した注目対象特定部17での算出の手法と同様のものでよい。
Next, in S222, the
次に、S223では、検出対象者6とサイネージ1との相対角度を取得する処理を優先度付与部23が行う。この処理は、本実施例では、検出対象者6の全身像を撮像したときの全身撮像部11の横方向の首ふり角度から、相対角度を得るようにする。例えば、検出対象者6の全身像を撮像したときに、全身撮像部11の首ふり角度が、サイネージ1の面に対して直角であった場合には、その検出対象者6は、サイネージ1に対して正対しているものとみなす。
Next, in S223, the
次に、S224では、検出対象者6に対し、S222の処理により算出された距離の短い順に優先度を付与する処理を優先度付与部23が行う。
次に、S225では、S222の処理により算出された距離が同一である検出対象者6に対し、S223の処理により得られた相対角度が直角に近い順に優先度を付与する処理を優先度付与部23が行う。そして、その後は、優先度付与部23は図18の処理を終了して図10の体動量検出・判定処理に処理を戻す。すると、体動量検出部12は、図10の体動量検出・判定処理を終了して、図5のS300に処理を進める。
Next, in S224, the
Next, in S225, a process of giving priority to the detection target person 6 having the same distance calculated by the process of S222 in the order in which the relative angle obtained by the process of S223 is close to a right angle. 23 does. Then, the
以上の処理を優先度付与部23が行うことで、検出対象者6の各々に対して視線検出の処理の優先度が付与される。この後に実行される、図5のS300の顔画像撮像処理及びS400の視線検出処理は、検出対象者6の各々に対し、この優先度に従った順序で行われる。
The
なお、以上までに説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の人の動画像を撮像する第一撮像部と、
前記複数の人の各々の体動量を前記第一撮像部での撮像画像から検出する体動量検出部と、
前記複数の人の各々の顔の動画像を撮像する第二撮像部と、
前記第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させる制御部と、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出する視線検出部と、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する注目対象特定部と、
を備えることを特徴とする注目対象特定装置。
(付記2)
前記第一撮像部は、前記第二撮像部よりも画角が広角であることを特徴とする付記1に記載の注目対象特定装置。
(付記3)
前記第二撮像部による前記顔の動画像の撮像におけるフレームレートが、前記第一撮像部による前記複数の人の動画像の撮像におけるフレームレートよりも低いことを特徴とする付記1又は2に記載の注目対象特定装置。
(付記4)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出する顔検出部を更に備え、
前記制御部は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする付記1から3のうちのいずれか一項に記載の注目対象特定装置。
(付記5)
前記視線検出部によって前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析する分析部を更に備えることを特徴とする付記1から4のうちのいずれか一項に記載の注目対象特定装置。
(付記6)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与する優先度付与部を更に備え、
前記制御部は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする付記1から5のうちのいずれか一項に記載の注目対象特定装置。
(付記7)
前記注目を集めている対象物は表示装置に表示されており、
前記注目対象特定部は、前記検出された視線の方向に基づくと共に、更に、前記視線検出部によって該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する付記1から6のうちのいずれか一項に記載の注目対象特定装置。
(付記8)
前記第一撮像部及び前記第二撮像部での撮像画像、前記制御部による制御の履歴、前記体動量検出部による前記体動量の検出結果、及び前記視線検出部による前記視線の方向の検出結果を記憶しておく記憶部を更に備え、
前記注目対象特定部は、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する付記1から7のうちのいずれか一項に記載の注目対象特定装置。
(付記9)
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
ことを特徴とする注目対象特定方法。
(付記10)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出し、
前記第二撮像部を制御するときには、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする付記9に記載の注目対象特定方法。
(付記11)
前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析することを特徴とする付記9又は10に記載の注目対象特定方法。
(付記12)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与し、
前記第二撮像部の制御では、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする付記9から11のうちのいずれか一項に記載の注目対象特定方法。
(付記13)
前記注目を集めている対象物は表示装置に表示されており、
前記注目を集めている対象物を特定するときには、前記検出された視線の方向に基づくと共に、更に、該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する付記9から12のうちのいずれか一項に記載の注目対象特定方法。
(付記14)
前記第一撮像部及び前記第二撮像部での撮像画像、前記第二撮像部の制御の履歴、前記体動量の検出結果、及び前記視線の方向の検出結果を記憶部に記憶しておき、
前記注目を集めている対象物を特定するときには、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する付記9から13のうちのいずれか一項に記載の注目対象特定方法。
(付記15)
複数の人の動画像を第一撮像部で撮像し、
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
処理を演算処理装置に実行させるプログラム。
(付記16)
前記第一撮像部での撮像画像に映っている前記複数の人のうち、該撮像画像に顔が映っている人を検出する処理を前記演算処理装置に更に実行させ、
前記第二撮像部を制御する処理は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
付記15に記載のプログラム。
(付記17)
前記視線の方向が検出された人が前記注目を集めている対象物に該視線を向けている時間の長さに基づいて、前記注目を集めている対象物への注目度を分析する処理を前記演算処理装置に更に実行させる付記15又は16に記載のプログラム。
(付記18)
前記複数の人のうちでの前記注目を集めている対象物への注目度の高さの順位を表している優先度を、前記複数の人の各々と前記対象物との相対的な位置関係に基づき、該複数の人の各々に付与する処理を前記演算処理装置に更に実行させ、
前記第二撮像部を制御する処理は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
付記15から17のうちのいずれか一項に記載のプログラム。
(付記19)
前記注目を集めている対象物は表示装置に表示されており、
前記注目を集めている対象物を特定する処理は、前記検出された視線の方向に基づくと共に、更に、該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
付記15から18のうちのいずれか一項に記載のプログラム。
(付記20)
前記第一撮像部及び前記第二撮像部での撮像画像、前記第二撮像部の制御の履歴、前記体動量の検出結果、及び前記視線の方向の検出結果を記憶部に記憶させる処理を前記演算処理装置に更に実行させ、
前記注目を集めている対象物を特定する処理は、前記記憶部での記憶内容を用いて前記対象物を特定する、
付記15から19のうちのいずれか一項に記載のプログラム。
In addition, the following additional remarks are disclosed regarding the embodiment described above.
(Appendix 1)
A first imaging unit that captures a plurality of moving images;
A body movement amount detection unit that detects the amount of body movement of each of the plurality of persons from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each face of the plurality of persons;
By controlling the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value of a person's face, or the detected body movement amount of the person's face is decreased. A control unit for directing the field of view of the two imaging units to capture a moving image of the face;
A line-of-sight detection unit that detects the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit;
An object of interest identification unit for identifying an object that has attracted attention based on the direction of the detected line of sight;
A target object specifying device comprising:
(Appendix 2)
The attention object specifying device according to
(Appendix 3)
The frame rate in capturing the moving image of the face by the second imaging unit is lower than the frame rate in capturing the moving image of the plurality of people by the first imaging unit. Attention target identification device.
(Appendix 4)
A face detection unit for detecting a person whose face is reflected in the captured image among the plurality of people reflected in the captured image of the first imaging unit;
The control unit causes the second imaging unit to capture a moving image of a face of a person whose face is reflected in the captured image of the first imaging unit;
The attention object specifying device according to any one of
(Appendix 5)
The degree of attention to the object that is attracting attention based on the length of time that the person whose direction of the line of sight is detected by the line-of-sight detection unit directs the line of sight to the object that is attracting attention The attention object specifying device according to any one of
(Appendix 6)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. And further including a priority assigning unit to be given to each of the plurality of people,
The control unit is configured to apply the second imaging to the person whose detected body movement amount is smaller than a threshold value or the person whose detected body movement amount has decreased among the plurality of persons in descending order of priority. Directing the part's field of view to capture a moving image of the face,
The attention object specifying device according to any one of
(Appendix 7)
The object attracting attention is displayed on a display device,
The target object specifying unit is based on the detected line-of-sight direction, and on the display device of the target that is attracting attention and the person whose line-of-sight direction is detected by the line-of-sight detection unit. Identifying the object based on the relative positional relationship with the display position at
The attention object specifying device according to any one of
(Appendix 8)
Captured images at the first imaging unit and the second imaging unit, a control history by the control unit, a detection result of the body movement amount by the body movement amount detection unit, and a detection result of the gaze direction by the gaze detection unit Is further provided with a storage unit for storing
The target object specifying unit specifies the target object using content stored in the storage unit,
The attention object specifying device according to any one of
(Appendix 9)
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A method for identifying an object of interest characterized by that.
(Appendix 10)
Detecting a person whose face is reflected in the captured image among the plurality of persons reflected in the captured image in the first imaging unit;
When controlling the second imaging unit, the second imaging unit is made to capture a moving image of a face about a person whose face is reflected in the captured image of the first imaging unit.
The attention target specifying method according to supplementary note 9, characterized by:
(Appendix 11)
Analyzing the degree of attention to the object that is attracting attention based on the length of time that the person whose direction of the line of sight is detected is directing the line of sight to the object that is attracting attention. The attention target specifying method according to Supplementary Note 9 or 10, which is a feature.
(Appendix 12)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. Based on each of the plurality of persons,
In the control of the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value, or the detected body movement amount is decreased. Directing the visual field of the second imaging unit to capture a moving image of the face;
The attention target specifying method according to any one of Supplementary notes 9 to 11, characterized in that:
(Appendix 13)
The object attracting attention is displayed on a display device,
When specifying the object attracting attention, the display device of the object attracting attention and the person who is detected based on the direction of the detected line of sight and further detecting the direction of the line of sight Identifying the object based on a relative positional relationship with the display position above;
The attention target specifying method according to any one of appendices 9 to 12, characterized by:
(Appendix 14)
The captured image in the first imaging unit and the second imaging unit, the control history of the second imaging unit, the detection result of the body movement amount, and the detection result of the direction of the line of sight are stored in the storage unit,
When specifying the target that is attracting attention, the target is specified using the storage content in the storage unit.
14. The attention target specifying method according to any one of supplementary notes 9 to 13, characterized by:
(Appendix 15)
Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A program that causes an arithmetic processing unit to execute processing.
(Appendix 16)
Among the plurality of people reflected in the captured image in the first imaging unit, the processing unit further performs processing for detecting a person whose face is reflected in the captured image,
The process of controlling the second imaging unit causes the second imaging unit to capture a moving image of a face about a person whose face is reflected in the captured image of the first imaging unit.
The program according to
(Appendix 17)
A process of analyzing the degree of attention to the target that is attracting attention based on the length of time that the person whose direction of the line of sight is detected is directing the line of sight to the target that is attracting attention The program according to
(Appendix 18)
The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. Based on the above, the arithmetic processing device is further executed processing to be given to each of the plurality of people,
The process of controlling the second imaging unit is performed on a person who has the detected body movement amount smaller than a threshold value or a person who has the detected body movement amount reduced among the plurality of persons. Directing the visual field of the second imaging unit in descending order to capture a moving image of the face;
The program according to any one of
(Appendix 19)
The object attracting attention is displayed on a display device,
The process of identifying the object that is attracting attention is based on the direction of the detected line of sight, and further, the display of the object that is attracting attention and the person who has detected the direction of the line of sight Identifying the object based on a relative positional relationship with a display position on the device;
The program according to any one of
(Appendix 20)
The process of storing the captured image in the first imaging unit and the second imaging unit, the control history of the second imaging unit, the detection result of the body movement amount, and the detection result of the direction of the line of sight in the storage unit Let the arithmetic processing unit further execute,
The process of identifying the object that is attracting attention is to identify the object using the storage content in the storage unit.
The program according to any one of
1 サイネージ
2 コンテンツ
3、3a、3b、3c、3d、3e、3f、3g、3h 見物人
4 カメラ
5 広角カメラ
6 検出対象者
10 注目対象特定装置
11 全身撮像部
12 体動量検出部
13 顔撮像部
14 撮像部制御部
15 視線検出部
16 記憶部
17 注目対象特定部
21 顔検出部
22 分析部
23 優先度付与部
30 コンピュータ
31 MPU
32 ROM
33 RAM
34 インタフェース装置
35 ハードディスク装置
36 バスライン
41 全身撮像カメラ
42 顔撮像カメラ
43 カメラ駆動装置
50 記録媒体駆動装置
51 記録媒体
DESCRIPTION OF
32 ROM
33 RAM
34
Claims (10)
前記複数の人の各々の体動量を前記第一撮像部での撮像画像から検出する体動量検出部と、
前記複数の人の各々の顔の動画像を撮像する第二撮像部と、
前記第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させる制御部と、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出する視線検出部と、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する注目対象特定部と、
を備えることを特徴とする注目対象特定装置。 A first imaging unit that captures a plurality of moving images;
A body movement amount detection unit that detects the amount of body movement of each of the plurality of persons from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each face of the plurality of persons;
By controlling the second imaging unit, among the plurality of persons, the detected body movement amount is smaller than a threshold value of a person's face, or the detected body movement amount of the person's face is decreased. A control unit for directing the field of view of the two imaging units to capture a moving image of the face;
A line-of-sight detection unit that detects the direction of the line of sight of a person whose face is reflected in the captured image in the second imaging unit;
An object of interest identification unit for identifying an object that has attracted attention based on the direction of the detected line of sight;
A target object specifying device comprising:
前記制御部は、前記第一撮像部での撮像画像に顔が映っている人についての顔の動画像を前記第二撮像部に撮像させる、
ことを特徴とする請求項1から3のうちのいずれか一項に記載の注目対象特定装置。 A face detection unit for detecting a person whose face is reflected in the captured image among the plurality of people reflected in the captured image of the first imaging unit;
The control unit causes the second imaging unit to capture a moving image of a face of a person whose face is reflected in the captured image of the first imaging unit;
The target object specifying device according to any one of claims 1 to 3, wherein
前記制御部は、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人、若しくは、前記検出された体動量が減少した人に、前記優先度の高い順に前記第二撮像部の視野を向けさせて顔の動画像を撮像させる、
ことを特徴とする請求項1から5のうちのいずれか一項に記載の注目対象特定装置。 The priority representing the rank of the degree of attention to the target that is attracting attention among the plurality of persons is set as a relative positional relationship between each of the plurality of persons and the target. And further including a priority assigning unit to be given to each of the plurality of people,
The control unit is configured to apply the second imaging to the person whose detected body movement amount is smaller than a threshold value or the person whose detected body movement amount has decreased among the plurality of persons in descending order of priority. Directing the part's field of view to capture a moving image of the face,
The target object specifying device according to any one of claims 1 to 5, wherein:
前記注目対象特定部は、前記検出された視線の方向に基づくと共に、更に、前記視線検出部によって該視線の方向の検出が行われた人と前記注目を集めている対象物の前記表示装置上での表示位置との相対的な位置関係に基づいて、該対象物を特定する、
ことを特徴する請求項1から6のうちのいずれか一項に記載の注目対象特定装置。 The object attracting attention is displayed on a display device,
The target object specifying unit is based on the detected line-of-sight direction, and on the display device of the target that is attracting attention and the person whose line-of-sight direction is detected by the line-of-sight detection unit. Identifying the object based on the relative positional relationship with the display position at
The attention object specifying device according to any one of claims 1 to 6, wherein
前記注目対象特定部は、前記記憶部での記憶内容を用いて前記対象物を特定する、
ことを特徴する請求項1から7のうちのいずれか一項に記載の注目対象特定装置。 Captured images at the first imaging unit and the second imaging unit, a control history by the control unit, a detection result of the body movement amount by the body movement amount detection unit, and a detection result of the gaze direction by the gaze detection unit Is further provided with a storage unit for storing
The target object specifying unit specifies the target object using content stored in the storage unit,
The attention object specifying device according to any one of claims 1 to 7, wherein
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
ことを特徴とする注目対象特定方法。 Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A method for identifying an object of interest characterized by that.
前記複数の人の各々の体動量を、前記第一撮像部での撮像画像から検出し、
前記複数の人の各々の顔の動画像を撮像する第二撮像部を制御して、前記複数の人のうちの、前記検出された体動量が閾値よりも小さい人の顔、若しくは、前記検出された体動量が減少した人の顔に前記第二撮像部の視野を向けさせて該顔の動画像を撮像させ、
前記第二撮像部での撮像画像に顔が映っている人の視線の方向を該撮像画像から検出し、
注目を集めている対象物を、前記検出された視線の方向に基づいて特定する、
処理を演算処理装置に実行させるプログラム。 Capture multiple people's moving images with the first imaging unit,
Detecting the amount of body movement of each of the plurality of people from a captured image in the first imaging unit;
A second imaging unit that captures a moving image of each of the plurality of people's faces is controlled, and the detected body movement amount of the plurality of people is smaller than a threshold value or the detection The moving image of the face is captured by directing the visual field of the second imaging unit to the face of the person whose body movement amount is reduced,
Detecting from the captured image the direction of the line of sight of the person whose face is reflected in the captured image in the second imaging unit;
Identifying an object attracting attention based on the direction of the detected line of sight;
A program that causes an arithmetic processing unit to execute processing.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012008592A JP5834941B2 (en) | 2012-01-19 | 2012-01-19 | Attention target identification device, attention target identification method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012008592A JP5834941B2 (en) | 2012-01-19 | 2012-01-19 | Attention target identification device, attention target identification method, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2013149050A true JP2013149050A (en) | 2013-08-01 |
| JP5834941B2 JP5834941B2 (en) | 2015-12-24 |
Family
ID=49046503
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012008592A Expired - Fee Related JP5834941B2 (en) | 2012-01-19 | 2012-01-19 | Attention target identification device, attention target identification method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5834941B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016090727A (en) * | 2014-10-31 | 2016-05-23 | カシオ計算機株式会社 | Content output apparatus and program |
| JP2017090918A (en) * | 2016-11-14 | 2017-05-25 | カシオ計算機株式会社 | Content output apparatus and program |
| US9842255B2 (en) | 2014-12-24 | 2017-12-12 | Fujitsu Limited | Calculation device and calculation method |
| JP2018169788A (en) * | 2017-03-29 | 2018-11-01 | パナソニック株式会社 | Language ratio management system and language ratio management method |
| EP3419020A4 (en) * | 2016-02-18 | 2019-02-27 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
| JP2022027602A (en) * | 2020-07-31 | 2022-02-10 | ホームネットカーズ株式会社 | Information display device and information display system |
| WO2025009446A1 (en) * | 2023-07-05 | 2025-01-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11907412B2 (en) * | 2020-09-28 | 2024-02-20 | International Business Machines Corporation | Contextual spectator inclusion in a virtual reality experience |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001008197A (en) * | 1999-06-24 | 2001-01-12 | Nec Corp | Device for analyzing human action and recording medium for recording human action analytic program |
| JP2006197373A (en) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | Viewer information measuring device |
| JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device |
-
2012
- 2012-01-19 JP JP2012008592A patent/JP5834941B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001008197A (en) * | 1999-06-24 | 2001-01-12 | Nec Corp | Device for analyzing human action and recording medium for recording human action analytic program |
| JP2006197373A (en) * | 2005-01-14 | 2006-07-27 | Mitsubishi Electric Corp | Viewer information measuring device |
| JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention level calculating device, attention level calculating method, attention level calculating program, information providing system, and information providing device |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016090727A (en) * | 2014-10-31 | 2016-05-23 | カシオ計算機株式会社 | Content output apparatus and program |
| US9842255B2 (en) | 2014-12-24 | 2017-12-12 | Fujitsu Limited | Calculation device and calculation method |
| EP3419020A4 (en) * | 2016-02-18 | 2019-02-27 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
| US11237794B2 (en) * | 2016-02-18 | 2022-02-01 | Sony Corporation | Information processing device and information processing method |
| JP2017090918A (en) * | 2016-11-14 | 2017-05-25 | カシオ計算機株式会社 | Content output apparatus and program |
| JP2018169788A (en) * | 2017-03-29 | 2018-11-01 | パナソニック株式会社 | Language ratio management system and language ratio management method |
| JP2022027602A (en) * | 2020-07-31 | 2022-02-10 | ホームネットカーズ株式会社 | Information display device and information display system |
| WO2025009446A1 (en) * | 2023-07-05 | 2025-01-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5834941B2 (en) | 2015-12-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5834941B2 (en) | Attention target identification device, attention target identification method, and program | |
| US10182720B2 (en) | System and method for interacting with and analyzing media on a display using eye gaze tracking | |
| US9489574B2 (en) | Apparatus and method for enhancing user recognition | |
| JP5841538B2 (en) | Interest level estimation device and interest level estimation method | |
| EP2441383B1 (en) | Gaze target determination device and gaze target determination method | |
| US20190026589A1 (en) | Information processing device, information processing method, and program | |
| US20190102956A1 (en) | Information processing apparatus, information processing method, and program | |
| US20080181452A1 (en) | System and method for Three-dimensional interaction based on gaze and system and method for tracking Three-dimensional gaze | |
| US20120026277A1 (en) | Video conference | |
| US20120262558A1 (en) | Apparatus, systems and methods for providing motion tracking using a personal viewing device | |
| KR20120057033A (en) | Gaze tracking system and method for controlling internet protocol tv at a distance | |
| CN104423575B (en) | Presentation and fidelity based on concern | |
| US20170263017A1 (en) | System and method for tracking gaze position | |
| JP2016031673A (en) | Information processing device and information processing method | |
| US11778155B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| GB2523356A (en) | Apparatus and method for robust eye/gaze tracking | |
| JP6583996B2 (en) | Video evaluation apparatus and program | |
| US11243609B2 (en) | Information processing apparatus, information processing method, and program | |
| Hohlfeld et al. | On the applicability of computer vision based gaze tracking in mobile scenarios | |
| KR101961266B1 (en) | Gaze Tracking Apparatus and Method | |
| US20230360079A1 (en) | Gaze estimation system and method thereof | |
| Kim et al. | Accuracy and feasibility of a novel fine hand motor skill assessment using computer vision object tracking | |
| JP2014191474A (en) | Concentration ratio determination program, concentration ratio determination apparatus and concentration ratio determination method | |
| CN113633257B (en) | Vestibular function examination methods, systems, equipment and media based on virtual reality | |
| JP2021018729A (en) | Personal identification apparatus, head-mounted display, content distribution server, and personal identification method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140904 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150420 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150623 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151006 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151019 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5834941 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |