[go: up one dir, main page]

JP2012079138A - Gesture recognition device - Google Patents

Gesture recognition device Download PDF

Info

Publication number
JP2012079138A
JP2012079138A JP2010224507A JP2010224507A JP2012079138A JP 2012079138 A JP2012079138 A JP 2012079138A JP 2010224507 A JP2010224507 A JP 2010224507A JP 2010224507 A JP2010224507 A JP 2010224507A JP 2012079138 A JP2012079138 A JP 2012079138A
Authority
JP
Japan
Prior art keywords
gesture recognition
finger
gesture
user
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010224507A
Other languages
Japanese (ja)
Inventor
Futami Noji
二見 野地
Liang Fu
亮 傅
Shigeki Sugimoto
茂樹 杉本
Takashi Miyoshi
貴史 三由
Akio Kosaka
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FU'S LAB CO Ltd
Olympus Corp
Original Assignee
FU'S LAB CO Ltd
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FU'S LAB CO Ltd, Olympus Corp filed Critical FU'S LAB CO Ltd
Priority to JP2010224507A priority Critical patent/JP2012079138A/en
Publication of JP2012079138A publication Critical patent/JP2012079138A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザにとって振る舞いやすい直感的で自然なジェスチャを、ウェアラブル機器の動作制御のためのジェスチャに採用しつつ、ウェアラブル機器の誤動作を抑えることが可能なジェスチャ認識装置を提供することを目的とする。
【解決手段】ユーザに直接取り付けられる又はユーザに装着された情報機器4に取り付けられる撮像部2と、撮像部2により撮像されるユーザの手指の映像を用いて、少なくともユーザが親指と人差し指とで環をつくるジェスチャを含む、予め定義されているユーザの手指のジェスチャを認識し、その認識したジェスチャに対応する制御コマンドを情報機器4に出力するジェスチャ認識部3とを備えてジェスチャ認識装置1を構成する。
【選択図】図1
An object of the present invention is to provide a gesture recognition device capable of suppressing an erroneous operation of a wearable device while adopting an intuitive and natural gesture that is easy for a user to be performed as a gesture for controlling the operation of the wearable device. .
An imaging unit 2 that is directly attached to a user or attached to an information device 4 that is attached to the user, and an image of a user's finger that is imaged by the imaging unit 2 is used. The gesture recognition device 1 includes a gesture recognition unit 3 that recognizes a gesture of a user's finger that includes a gesture for creating a ring and outputs a control command corresponding to the recognized gesture to the information device 4. Constitute.
[Selection] Figure 1

Description

本発明は、映像に基づいてユーザの手指のジェスチャを認識し、その認識結果に応じてウェアラブル機器などの動作を制御するジェスチャ認識装置に関する。   The present invention relates to a gesture recognition apparatus that recognizes a gesture of a user's finger based on an image and controls an operation of a wearable device or the like according to the recognition result.

コンピュータのキーボードやマウス又は多数のキーを有する複雑なリモコンなどを操作してウェアラブル機器の動作を制御することは困難である。これは、ユーザがさまざまな日常行動下(歩いていたり、座っていたり、他のモノを見ていたりといった日常行動下)で、キーボードやマウス又はリモコンなどを常時手に持って、それらを操作することが困難であるためである。従って、ユーザがわざわざキーボードやマウス又はリモコンなどを、取り出さなくても又は常時持っていなくても、ユーザが希望する制御内容をウェアラブル機器に伝達することができる手段が重要になる。すなわち、できるだけハンズフリーの状態で、ウェアラブル機器の動作を制御することが可能なインタフェースが重要になる。例えば、ウェアラブル機器としては、Head Mount Display(以下、HMD)やパーソナルコンピュータのディスプレイなどの情報呈示機器が考えられる。このような場合、情報呈示に関する制御内容(ページ送り、ページ戻し、項目選択、確認、及び拒否など)をウェアラブル機器に伝達することが重要になる。また、ウェアラブル機器がカメラやマイクなどの情報入力機器の場合には、情報入力のON/OFF(撮像や録音の開始及び終了)などといった最も基本的な制御内容をウェアラブル機器に伝達することが重要になる。   It is difficult to control the operation of the wearable device by operating a computer keyboard, a mouse, a complex remote controller having a large number of keys, or the like. This means that the user always holds a keyboard, mouse, or remote control in his / her hand under various daily activities (walking, sitting, watching other things) This is because it is difficult. Therefore, it is important to have a means for transmitting the control content desired by the user to the wearable device even if the user does not bother to take out the keyboard, mouse, or remote controller or always have it. In other words, an interface that can control the operation of the wearable device in a hands-free state as much as possible becomes important. For example, as a wearable device, an information presentation device such as a head mount display (hereinafter referred to as HMD) or a display of a personal computer can be considered. In such a case, it is important to transmit control contents (page feed, page return, item selection, confirmation, rejection, etc.) related to information presentation to the wearable device. In addition, when the wearable device is an information input device such as a camera or a microphone, it is important to transmit the most basic control contents such as information input ON / OFF (start and end of imaging and recording) to the wearable device. become.

ユーザが希望する制御内容をウェアラブル機器に伝達する方法としては、例えば、ユーザの音声を認識し、その音声認識結果に基づいてウェアラブル機器の動作を制御する方法がある(例えば、特許文献1参照)。   As a method of transmitting the control content desired by the user to the wearable device, for example, there is a method of recognizing the user's voice and controlling the operation of the wearable device based on the voice recognition result (see, for example, Patent Document 1). .

しかしながら、音声認識を用いる方法は、ユーザが発生する音声そのものがユーザの周囲の人々の騒音になったり、ユーザの周囲の人々へ情報が開示されてしまうという課題がある。また、ユーザ以外の他人の音声や環境下の騒音によりユーザの周囲が騒々しいとき、ユーザの周囲の音に敏感に反応してユーザの音声を誤認識してしまう可能性がある。従って、音声認識を用いる方法は、日常行動下において有効に活用できない可能性が高い。   However, the method using voice recognition has a problem that the voice itself generated by the user causes noise of people around the user or information is disclosed to people around the user. In addition, when the surroundings of the user are noisy due to the voice of another person other than the user or noise in the environment, there is a possibility that the user's voice is erroneously recognized by reacting sensitively to the sound around the user. Therefore, there is a high possibility that the method using voice recognition cannot be effectively used under daily activities.

そこで、ユーザが希望する制御内容をウェアラブル機器に伝達する方法として、例えば、ユーザの手指のジェスチャを認識し、そのジェスチャ認識結果に基づいてウェアラブル機器の動作を制御する方法がある。   Therefore, as a method for transmitting the control content desired by the user to the wearable device, for example, there is a method of recognizing the gesture of the user's finger and controlling the operation of the wearable device based on the gesture recognition result.

そして、ジェスチャを認識する方法としては、例えば、ユーザの手指に各種のセンサ(加速度センサやジャイロセンサなど)を装着し、それらセンサの出力に応じてジェスチャを認識する方法がある。   As a method of recognizing a gesture, for example, there is a method of attaching various sensors (acceleration sensor, gyro sensor, etc.) to a user's finger and recognizing the gesture according to the output of these sensors.

しかしながら、このようなジェスチャ認識方法は、ユーザの手指に装着されるセンサとして、通常、アクティブ型(電池付き)のセンサ(例えば、加速度センサやジャイロセンサなど)が使用されるため、そのセンサが日常行動下において邪魔になるおそれがある。   However, in such a gesture recognition method, an active type (with a battery) sensor (for example, an acceleration sensor or a gyro sensor) is usually used as a sensor that is worn on the user's finger. There is a risk of getting in the way.

そこで、特別なセンサをユーザの手指に装着することなく、ユーザの手指のジェスチャを認識する方法が望まれる。例えば、カメラでユーザの手指のジェスチャを撮影し、その撮影された映像を用いてジェスチャを認識する、いわゆる画像処理によるジェスチャ認識が考えられる(例えば、特許文献1参照)。   Therefore, a method for recognizing the gesture of the user's finger without attaching a special sensor to the user's finger is desired. For example, gesture recognition by so-called image processing, in which a gesture of a user's finger is photographed with a camera and the gesture is recognized using the photographed image, can be considered (for example, see Patent Document 1).

しかしながら、このようなジェスチャ認識方法は、ウェアラブル機器の制御内容と対応するジェスチャが日常行動下でよく行われてしまうような簡単なジェスチャであると、ユーザの不用意な手指の動作によりウェアラブル機器が誤動作してしまうおそれがある。   However, in such a gesture recognition method, if the gesture corresponding to the control content of the wearable device is a simple gesture that is often performed under daily actions, the wearable device may cause the wearer's careless finger movement to There is a risk of malfunction.

また、他のジェスチャ認識方法として、例えば、ユーザの頭部の振れ幅(移動)をHMDに装着されたカメラにより撮影された画像の変化で検出することによりHMDに表示される内容を制御するものがある。また、ユーザの腕にマーカを装着してHMDに装着されたカメラでそのマーカの移動変化を検出することによりHMDに表示される内容を制御するものがある。例えば、マーカの移動が小さいときには、ユーザの手がふさがっているとして、HMDにメニュー画面を表示させるものがある(例えば、特許文献2参照)。   Further, as another gesture recognition method, for example, the content displayed on the HMD is controlled by detecting the fluctuation (movement) of the user's head by the change of the image taken by the camera mounted on the HMD. There is. In addition, there is one that controls the contents displayed on the HMD by detecting a change in movement of the marker with a camera mounted on the HMD after mounting the marker on the user's arm. For example, when the movement of the marker is small, there is one that displays a menu screen on the HMD, assuming that the user's hand is occupied (see, for example, Patent Document 2).

しかしながら、このような画像処理によるジェスチャ認識方法では、ユーザが作業に集中しているときなど、カメラにより撮影される画像に急激な変化が常時起こらないときは問題ないが、歩行時や立位時など画像に変化が起きうるときにはHMDの誤作動が起き易い。   However, in such a gesture recognition method based on image processing, there is no problem when a sudden change does not always occur in an image captured by the camera, such as when the user is concentrating on work, but when walking or standing. When the image can change, the HMD malfunctions easily.

また、さらに他のジェスチャ認識方法として、例えば、ディスプレイに取り付けられたカメラにより撮影された画像に基づいて認識されたユーザの手指のジェスチャに基づいてTVやエアコンなどの家電の動作を制御するものがある(例えば、特許文献3参照)。   As another gesture recognition method, for example, there is a method for controlling the operation of home appliances such as a TV and an air conditioner based on a gesture of a user's finger recognized based on an image taken by a camera attached to a display. Yes (see, for example, Patent Document 3).

しかしながら、このような画像処理によるジェスチャ認識方法では、上述したように、ユーザの手指のジェスチャが日常行動下で行われそうなジェスチャであると、ユーザの不用意な手指の動作によりウェアラブル機器が誤動作してしまうおそれがある。   However, in such a gesture recognition method based on image processing, as described above, if the gesture of the user's finger is likely to be performed under daily action, the wearable device malfunctions due to the user's careless finger movement. There is a risk of it.

また、さらに他のジェスチャ認識として、例えば、ユーザの指先にカラーマーカを装着し、ユーザの首にかけられるプロジェクタから投影される画像を、ユーザの手指のジェスチャの認識により制御するものがある(例えば、非特許文献1又は非特許文献2参照)。   As another gesture recognition, for example, a color marker is attached to a user's fingertip, and an image projected from a projector applied to the user's neck is controlled by recognition of the user's finger gesture (for example, Non-Patent Document 1 or Non-Patent Document 2).

しかしながら、このようなジェスチャ認識は、プロジェクタの画像が手指に投影される場合があり、ジェスチャ認識の性能低下をもたらしてしまう。   However, such gesture recognition may cause an image of the projector to be projected onto a finger, resulting in a reduction in gesture recognition performance.

特許第4013100号公報Japanese Patent No. 4013100 特開2009−251154号公報JP 2009-251154 A 特開2006−268209号公報JP 2006-268209 A

Pranav Mistry and Pattie Maes、SixthSense: A Wearable Gestural Interface、MIT Media Laboratory、SIGGRAPH Asia 2009, Yokohama, Japan、December 16-19, 2009Pranav Mistry and Pattie Maes, SixthSense: A Wearable Gestural Interface, MIT Media Laboratory, SIGGRAPH Asia 2009, Yokohama, Japan, December 16-19, 2009 Pranav Mistry and Pattie Maes、SixthSense: A Wearable Gestural Interface、MIT Media Laboratory、Emerging Technologies、Yokohama, Japan、2009、page 85Pranav Mistry and Pattie Maes, SixthSense: A Wearable Gestural Interface, MIT Media Laboratory, Emerging Technologies, Yokohama, Japan, 2009, page 85

ウェアラブル機器は日常行動下で利用される場合が多いため、日常行動下で意図せずに行ったジェスチャが、ユーザが意図して行ったジェスチャとして誤って認識されてしまうことを排除することがジェスチャ認識に要求されることとして重要である。別の言い方をすれば、ユーザが意思をもって振る舞ったジェスチャだけを認識できるような仕組みを構築することが重要である。   Since wearable devices are often used under daily behavior, it is possible to eliminate a gesture that was performed unintentionally under daily behavior from being mistakenly recognized as a gesture intended by the user. It is important as a requirement for recognition. In other words, it is important to construct a mechanism that allows the user to recognize only gestures that behave with will.

しかしながら、ユーザが意思をもって振る舞ったジェスチャは、ジェスチャ認識装置にとって受け入れやすい(誤認識し難い)ジェスチャであっても、ユーザが振る舞い難いジェスチャであってはならない。例えば、人差し指と中指をクロスするようなジェスチャは、すべてのユーザが容易に行うことが可能なジェスチャとは限らない。すなわち、ユーザにとって振る舞い易い直感的で自然なジェスチャとしつつ、ジェスチャ認識装置にとって誤認識し難いジェスチャであることが重要となる。   However, even if the gesture that the user behaves with intention is a gesture that is easily accepted by the gesture recognition device (it is difficult to be erroneously recognized), the gesture must not be a behavior that the user does not behave easily. For example, a gesture that crosses the index finger and the middle finger is not necessarily a gesture that can be easily performed by all users. In other words, it is important that the gesture is a gesture that is easy to behave by the user and that is not easily misrecognized by the gesture recognition device.

そこで、本発明では、ユーザにとって振る舞い易い直感的で自然なジェスチャを、制御対象の機器の動作制御のためのジェスチャに採用しつつ、制御対象の機器の誤動作を抑えることが可能なジェスチャ認識装置を提供することを目的とする。   Therefore, in the present invention, there is provided a gesture recognition device capable of suppressing malfunction of a device to be controlled while adopting an intuitive and natural gesture that is easy for the user to behave as a gesture for controlling the operation of the device to be controlled. The purpose is to provide.

本発明のジェスチャ認識装置は、撮像手段と、ジェスチャ認識手段とを備える。
上記撮像手段は、ユーザに直接取り付けられる又は前記ユーザに装着された機器に取り付けられる。
The gesture recognition device of the present invention includes an imaging unit and a gesture recognition unit.
The imaging means is directly attached to a user or attached to a device attached to the user.

上記ジェスチャ認識装置は、前記撮像手段により撮像される前記ユーザの手指の映像を用いて、少なくとも前記ユーザが親指と人差し指とで環をつくるジェスチャを含む、予め定義されている前記ユーザの手指のジェスチャを認識し、その認識したジェスチャに対応する制御コマンドを制御対象の機器に出力する。   The gesture recognition device includes a gesture of the user's finger defined in advance including a gesture in which the user forms a ring with a thumb and an index finger using an image of the user's finger captured by the imaging unit. And a control command corresponding to the recognized gesture is output to the device to be controlled.

また、上記ジェスチャ認識手段は、手指領域抽出手段と、環領域抽出手段とを備え、前記環領域抽出手段により環領域が抽出されると、現在行われている前記ユーザの手指のジェスチャが、前記ユーザが親指と人差し指とで環をつくるジェスチャであると認識するように構成してもよい。   The gesture recognition unit includes a finger region extraction unit and a ring region extraction unit. When the ring region is extracted by the ring region extraction unit, the gesture of the user's finger that is currently performed is You may comprise so that a user may recognize that it is a gesture which makes a ring with a thumb and an index finger.

上記手指領域抽出手段は、前記撮像手段により撮像された映像において前記ユーザの手指が存在する手指領域を抽出する。
上記環領域抽出手段は、前記手指領域抽出手段により抽出された手指領域において前記ユーザの親指と人差し指とでつくられる環を示す環領域を抽出する。
The finger region extraction unit extracts a finger region where the user's finger exists in the video imaged by the imaging unit.
The ring area extraction unit extracts a ring area indicating a ring formed by the thumb and index finger of the user in the finger area extracted by the finger area extraction unit.

また、上記ジェスチャ認識手段は、前記環領域抽出手段により抽出された環領域の大きさが閾値以上であるとき、現在行われている前記ユーザの手指のジェスチャが、前記ユーザが親指と人差し指とで環をつくるジェスチャであると認識するように構成してもよい。   The gesture recognizing means is configured such that when the size of the ring area extracted by the ring area extracting means is greater than or equal to a threshold value, the user's finger gesture currently being performed is determined by the user using the thumb and index finger. You may comprise so that it may be recognized as the gesture which makes a ring.

また、上記手指領域抽出手段は、マーカ検出手段と、周辺領域抽出手段とを備え、前記周辺領域抽出手段により抽出された周辺領域に基づいて、前記手指領域を抽出するように構成してもよい。   The finger region extraction unit may include a marker detection unit and a peripheral region extraction unit, and may be configured to extract the finger region based on the peripheral region extracted by the peripheral region extraction unit. .

上記マーカ検出手段は、前記ユーザの手指につけられたマーカを検出する。
上記周辺領域抽出手段は、前記撮像手段により撮像された映像において前記マーカ検出手段により検出されたマーカの周辺領域を抽出する。
The marker detection means detects a marker attached to the user's finger.
The surrounding area extracting means extracts a surrounding area of the marker detected by the marker detecting means in the video imaged by the imaging means.

また、上記手指領域抽出手段は、前記撮像手段により撮像された映像において前記周辺領域抽出手段により抽出された周辺領域と同じ色の画像を前記手指領域とするように構成してもよい。   In addition, the finger region extraction unit may be configured so that an image having the same color as the peripheral region extracted by the peripheral region extraction unit in the image captured by the imaging unit is used as the finger region.

また、上記手指領域抽出手段は、前記撮像手段により撮像された1フレーム前の映像において抽出された前記手指領域に基づいて、次のフレームの映像の前記手指領域を予測する手指領域予測手段を備えるように構成してもよい。   The finger region extraction unit includes a finger region prediction unit that predicts the finger region of the video of the next frame based on the finger region extracted from the image of the previous frame imaged by the imaging unit. You may comprise as follows.

また、上記制御対象の機器は、前記ユーザに情報を提示する情報呈示機器の呈示内容を制御する制御機器としてもよい。
また、上記制御対象の機器は、前記ユーザに装着された機器としてもよい。
The device to be controlled may be a control device that controls the content presented by the information presenting device that presents information to the user.
The device to be controlled may be a device attached to the user.

また、上記ジェスチャ認識手段は、前記制御対象の機器の第1の動作モードと前記制御対象の機器の第2の動作モードとを切り替えるための第1の制御コマンド、前記第1の動作モードのときに前記制御対象の機器の動作を制御するための第2の制御コマンド、及び前記第2の動作モードのときに前記制御対象の機器の動作を制御するための第3の制御コマンドを出力し、前記第2及び第3の制御コマンドにそれぞれ対応する前記ユーザの手指のジェスチャの種類は互いに同じとなるように構成してもよい。   The gesture recognition means is a first control command for switching between a first operation mode of the device to be controlled and a second operation mode of the device to be controlled, and the first operation mode. A second control command for controlling the operation of the device to be controlled, and a third control command for controlling the operation of the device to be controlled in the second operation mode, The user's finger gesture types corresponding to the second and third control commands may be the same.

また、上記制御対象の機器は、前記ジェスチャ認識手段におけるジェスチャ認識状態又はジェスチャ認識結果を表示するように構成してもよい。   The device to be controlled may be configured to display a gesture recognition state or a gesture recognition result in the gesture recognition unit.

本発明によれば、ユーザの手指のジェスチャを認識するジェスチャ認識装置において、ユーザにとって振る舞い易い直感的で自然なジェスチャを、制御対象の機器の動作制御のためのジェスチャに採用しつつ、制御対象の機器の誤動作を抑えることができる。   According to the present invention, in a gesture recognition device for recognizing a gesture of a user's finger, an intuitive and natural gesture that is easy for a user to behave is adopted as a gesture for controlling the operation of a device to be controlled, and Malfunctions of equipment can be suppressed.

本発明の第1実施形態のジェスチャ認識装置を示す図である。It is a figure which shows the gesture recognition apparatus of 1st Embodiment of this invention. ジェスチャ認識部の一例を示す図である。It is a figure which shows an example of a gesture recognition part. マーカ検出部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a marker detection part. 正方形領域の一例を示す図である。It is a figure which shows an example of a square area | region. 周辺領域の一例を示す図である。It is a figure which shows an example of a peripheral region. 環領域の一例を示す図である。It is a figure which shows an example of a ring area | region. ジェスチャ認識部の他の例を示す図である。It is a figure which shows the other example of a gesture recognition part. ウェアラブル機器のディスプレイに表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display of a wearable apparatus. ウェアラブル機器のディスプレイに表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the display of a wearable apparatus. 本発明の第2実施形態のジェスチャ認識装置を示す図である。It is a figure which shows the gesture recognition apparatus of 2nd Embodiment of this invention. ジェスチャ認識装置におけるジェスチャ認識の状態遷移を示す図である。It is a figure which shows the state transition of the gesture recognition in a gesture recognition apparatus. 情報呈示機器に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on an information presentation apparatus. 情報呈示機器に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on an information presentation apparatus. 情報呈示機器に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on an information presentation apparatus.

<第1実施形態>
図1は、本発明の第1実施形態のジェスチャ認識装置を示す図である。
図1に示すジェスチャ認識装置1は、撮像部2と、ジェスチャ認識部3とを備える。
<First Embodiment>
FIG. 1 is a diagram illustrating a gesture recognition device according to a first embodiment of the present invention.
A gesture recognition device 1 shown in FIG. 1 includes an imaging unit 2 and a gesture recognition unit 3.

撮像部2は、例えば、ユーザに直接取り付けられる小型カメラ又はユーザに装着された情報機器4に取り付けられる小型カメラである。なお、撮像部2をユーザに直接身につけるペンダント型の小型カメラとする場合、その撮像部2に手ぶれ防止機能や手ぶれ軽減機能を備えるように構成してもよい。また、撮像部2は、ユーザの左右のいずれかの肩に装着される小型カメラとしてもよいし、カチューシャなどの頭部装飾品に取り付けられる小型カメラとしてもよい。撮像部2に基本的に要求されることは、ユーザが胸前方で行う直感的な手指のジェスチャを撮像できることであり、ユーザの手指の移動範囲内を撮像できるだけの画角を有していることが必要な条件となる。   The imaging unit 2 is, for example, a small camera attached directly to the user or a small camera attached to the information device 4 attached to the user. When the imaging unit 2 is a small pendant camera that is directly worn by the user, the imaging unit 2 may be configured to have a camera shake prevention function or a camera shake reduction function. Further, the imaging unit 2 may be a small camera that is mounted on either the left or right shoulder of the user, or may be a small camera that is attached to a head ornament such as a headband. What is basically required of the imaging unit 2 is that the user can capture an intuitive finger gesture performed in front of the chest, and has an angle of view that can capture an image of the movement range of the user's finger. This is a necessary condition.

ジェスチャ認識部3は、撮像部2により撮像される映像に基づいて、予め定義されているユーザの手指のジェスチャを認識し、そのジェスチャに対応する制御コマンドを情報機器4に出力する。   The gesture recognition unit 3 recognizes a predefined gesture of the user's finger based on the video imaged by the imaging unit 2 and outputs a control command corresponding to the gesture to the information device 4.

情報機器4は、例えば、カメラ付きのHMDやユーザの片眼の前方から眼球に向けて映像を呈示できる、撮像機能付きのディスプレイ機器などである。また、情報機器4は、ジェスチャ認識部3から出力される制御コマンドに基づいてユーザに提示する情報(例えば、GUI(Graphical User Interface)など)や情報入力動作(例えば、静止画の撮像動作など)を制御する。   The information device 4 is, for example, an HMD with a camera or a display device with an imaging function that can present an image from the front of one eye of the user toward the eyeball. The information device 4 also provides information (for example, GUI (Graphical User Interface)) and information input operation (for example, still image capturing operation) to be presented to the user based on the control command output from the gesture recognition unit 3. To control.

図2は、ジェスチャ認識部3を示す図である。
図2に示すジェスチャ認識部3は、マーカ検出部5と、周辺領域抽出部6と、手指領域抽出部7と、環領域抽出部8と、制御コマンド出力部9とを備えている。
FIG. 2 is a diagram illustrating the gesture recognition unit 3.
The gesture recognition unit 3 illustrated in FIG. 2 includes a marker detection unit 5, a peripheral region extraction unit 6, a finger region extraction unit 7, a ring region extraction unit 8, and a control command output unit 9.

マーカ検出部5は、撮像部2により撮像される映像において、ユーザの手指につけられているマーカを検出する。マーカの色や形は特に限定されないが、本実施形態のマーカは、緑色の円形のマーカとし、撮像部2により撮影され易い親指の付け根部分に所定間隔離れて2個つけられるものとする。また、2個のマーカは、その2個のマーカを通る直線の延長上に親指の指先がくるように配置されるものとする。   The marker detection unit 5 detects a marker attached to the user's finger in the video imaged by the imaging unit 2. The color and shape of the marker are not particularly limited, but the marker of the present embodiment is a green circular marker, and two markers are attached to the base of the thumb that is easily photographed by the imaging unit 2 at a predetermined interval. In addition, the two markers are arranged so that the fingertip of the thumb comes on an extension of a straight line passing through the two markers.

周辺領域抽出部6は、マーカ検出部5により検出されたマーカの位置(撮像部2により撮像された映像の座標上の位置)に基づいて、映像からマーカの周辺領域を抽出する。例えば、周辺領域抽出部6は、実際の2個のマーカの間隔と映像内の2個のマーカの間隔とに基づいて映像内での手指の大まかなスケールを算出するとともに、映像内の2個のマーカの位置に基づいて手指が存在すると推定される周辺領域を算出する。   The peripheral area extraction unit 6 extracts the peripheral area of the marker from the video based on the position of the marker detected by the marker detection unit 5 (the position on the coordinates of the video imaged by the imaging unit 2). For example, the peripheral area extraction unit 6 calculates a rough scale of fingers in the video based on the actual interval between the two markers and the interval between the two markers in the video, and the two in the video. Based on the position of the marker, a peripheral region where a finger is estimated to be present is calculated.

手指領域抽出部7は、周辺領域抽出部6により抽出された周辺領域において手指と推定できる色(例えば、肌色)の画素を検出し、その検出した画素と同じ色の画素を映像から全て抽出し、その抽出した全ての画素からなる画素領域を手指領域とする。   The finger region extraction unit 7 detects pixels of a color (for example, skin color) that can be estimated as a finger in the peripheral region extracted by the peripheral region extraction unit 6, and extracts all pixels having the same color as the detected pixels from the video. The pixel region composed of all the extracted pixels is defined as a finger region.

環領域抽出部8は、手指領域抽出部7により抽出された手指領域からユーザの親指と人差し指とでつくられる環の領域を抽出する。
制御コマンド出力部9は、マーカ検出部5により検出されたマーカや環領域抽出部8により抽出された環領域に基づいてユーザの手指のジェスチャを認識する。そして、制御コマンド出力部9は、その認識したジェスチャが予め決められているジェスチャであると判断すると、その予め決められているジェスチャに対応する制御コマンドを情報機器4に出力する。
The ring region extraction unit 8 extracts a ring region formed by the user's thumb and index finger from the finger region extracted by the finger region extraction unit 7.
The control command output unit 9 recognizes the gesture of the user's finger based on the marker detected by the marker detection unit 5 and the ring region extracted by the ring region extraction unit 8. When the control command output unit 9 determines that the recognized gesture is a predetermined gesture, the control command output unit 9 outputs a control command corresponding to the predetermined gesture to the information device 4.

このように、マーカを使用することにより、ユーザの手指を認識し易くすることができるため、左右の手指の混同、手指の遮蔽、他人の手指の混同などによるジェスチャの誤認識を抑えることができる。   In this way, by using the marker, it is possible to easily recognize the user's finger, so that it is possible to suppress erroneous recognition of gestures due to confusion of left and right fingers, shielding of fingers, confusion of other people's fingers, and the like. .

なお、マーカを使用することなく手指領域や環領域などを抽出するように構成してもよい。
次に、マーカの検出方法について説明する。
Note that a finger region or a ring region may be extracted without using a marker.
Next, a marker detection method will be described.

マーカの検出方法としては、例えば、撮像部2により撮像される映像内の緑色の領域をすべて抽出した後、抽出した緑色の領域のうち円形度が高い緑色の領域をマーカとする方法がある。   As a marker detection method, for example, there is a method in which after extracting all the green regions in the video imaged by the imaging unit 2, a green region having a high degree of circularity is extracted from the extracted green regions.

図3は、マーカ検出部5の動作を説明するためのフローチャートである。
まず、マーカ検出部5は、映像を入力する(S1)。
次に、マーカ検出部5は、映像の全画素において、RGB値を用いてマーカの色との相関値C(0〜1の値)を計算する(S2)。映像内の各画素の色をR,G,B、マーカの色をR,G,B、各画素の色ベクトルをv=(R,G,B)、マーカの色ベクトルをv=(R,G,Bとすると、相関値Cは数1で表される。
FIG. 3 is a flowchart for explaining the operation of the marker detection unit 5.
First, the marker detection unit 5 inputs an image (S1).
Next, the marker detection unit 5 calculates the correlation value C (value of 0 to 1) with the marker color using the RGB values in all pixels of the video (S2). The color of each pixel in the video is R, G, B, the marker color is R M , G M , B M , the color vector of each pixel is v = (R, G, B) T , and the color vector of the marker is v When M = (R M , G M , B M ) T , the correlation value C is expressed by Equation 1.

なお、各画素の色ベクトルとマーカの色ベクトルを同次座標としたのは、ゼロ割を防ぐためである。また、マーカの色を緑色とする場合、(R,G,B)=(0,255,0)となる。 The reason why the color vector of each pixel and the color vector of the marker are set as homogeneous coordinates is to prevent zero division. When the marker color is green, (R M , G M , B M ) = (0, 255, 0).

次に、マーカ検出部5は、相関値Cと閾値(例えば、180/256)とに基づいて、映像を二値化する(S3)。
次に、マーカ検出部5は、二値化後の映像をブロッブ(塊)に分けるためのラベリング処理を行う(S4)。例えば、OpenCV(登録商標)を用いたラインラベリング処理のサンプルコードを利用してラベリング処理を行う。
Next, the marker detection unit 5 binarizes the video based on the correlation value C and a threshold value (for example, 180/256) (S3).
Next, the marker detection unit 5 performs a labeling process for dividing the binarized video into blobs (blocks) (S4). For example, a labeling process is performed using a sample code for a line labeling process using OpenCV (registered trademark).

次に、マーカ検出部5は、各ブロッブに対して円形度Pを計算する(S5)。ブロッブの面積をA、ブロッブの周囲長をSとすると、ブロッブの円形度Pは数2で表される。   Next, the marker detection unit 5 calculates the circularity P for each blob (S5). Assuming that the area of the blob is A and the perimeter of the blob is S, the circularity P of the blob is expressed by Equation 2.

そして、マーカ検出部5は、円形度Pが所定値(例えば、0.3)以上のものをマーカとして認識し、そのマーカの位置を算出する(S6)。2個のマーカを認識した場合、それらマーカのそれぞれの位置を算出する。   And the marker detection part 5 recognizes that circularity P is more than predetermined value (for example, 0.3) as a marker, and calculates the position of the marker (S6). When two markers are recognized, the respective positions of these markers are calculated.

次に、周辺領域の抽出方法について説明する。
周辺領域の抽出方法としては、例えば、検出されたマーカの周囲の色を「肌色テンプレート」とし、映像全体からその「肌色テンプレート」の色と類似する色の画素を抽出する方法がある。なお、画素の色は、RGBをHSVに変換したものとして扱う。
Next, a method for extracting a peripheral area will be described.
As a peripheral region extraction method, for example, there is a method in which a color around a detected marker is set as a “skin color template”, and pixels having a color similar to the color of the “skin color template” are extracted from the entire video. Note that the pixel color is treated as RGB converted to HSV.

まず、周辺領域抽出部6は、マーカの周囲の画像を正方形に切り取り、その正方形領域の画素の色を「肌色テンプレート」とする。例えば、図4に示すように、まず、2個のマーカ間のx方向(映像の水平方向)の距離を算出し、その距離をL1(画素)とする。   First, the peripheral area extraction unit 6 cuts out an image around the marker into a square, and sets the color of the pixel in the square area as a “skin color template”. For example, as shown in FIG. 4, first, a distance in the x direction (horizontal direction of the video) between two markers is calculated, and the distance is set to L1 (pixel).

次に、周辺領域抽出部6は、2個のマーカのうち左側のマーカを中心に2L1(画素)の正方形領域を定める。この正方形領域の中から、6<H<68、V>30という条件を満たす画素を抽出する。なお、H、Vは、RGBをHSVに変換した際のH(色相)とV(明度)をそれぞれ表したものとする。   Next, the peripheral area extraction unit 6 determines a 2L1 (pixel) square area centering on the left marker of the two markers. Pixels satisfying the condition of 6 <H <68, V> 30 are extracted from the square area. Note that H and V represent H (hue) and V (brightness) when RGB is converted to HSV, respectively.

次に、周辺領域抽出部6は、この条件を満たす画素が上記正方形領域中に50%以上あれば、その正方形領域中に手指が存在するものと判断する。また、周辺領域抽出部6は、正方形領域において、上述の条件を満たす画素の色相H、彩度S、明度Vの平均値をH^、S^、V^とし、それらを「肌色テンプレート」とする。   Next, the surrounding area extraction unit 6 determines that a finger is present in the square area if the pixels satisfying this condition are 50% or more in the square area. In addition, the peripheral area extraction unit 6 sets the average values of hue H, saturation S, and brightness V of pixels satisfying the above conditions in the square area as H ^, S ^, V ^, and these are referred to as "skin color template". To do.

そして、周辺領域抽出部6は、2個のマーカの位置を手掛かりとして、親指と人差し指が入ると推定される周辺領域を抽出する。例えば、図5に示すように、まず、周辺領域抽出部6は、2個のマーカの距離をL2(画素)とする。次に、周辺領域抽出部6は、2個のマーカを結ぶ線と映像における座標のx軸とのなす角度θを計算する。そして、周辺領域抽出部6は、2個のマークのうちの右側のマーカから右に1.5×L2×cosθ(画素)、下に1.5×L2×sinθ(画素)移動させた位置の画素を周辺領域の右下の隅の画素と定め、その画素から高さ6×L2、幅8×L2の大きさの領域を周辺領域とする。   Then, the surrounding area extraction unit 6 extracts a surrounding area that is estimated that the thumb and the index finger are inserted, using the positions of the two markers as clues. For example, as illustrated in FIG. 5, first, the peripheral region extraction unit 6 sets the distance between two markers to L2 (pixel). Next, the peripheral area extraction unit 6 calculates an angle θ formed by a line connecting the two markers and the x-axis of the coordinates in the video. Then, the peripheral area extraction unit 6 moves the position of 1.5 × L2 × cos θ (pixel) to the right and 1.5 × L2 × sin θ (pixel) to the right from the right marker of the two marks. A pixel is defined as a pixel in the lower right corner of the peripheral area, and an area having a height of 6 × L2 and a width of 8 × L2 from the pixel is defined as the peripheral area.

次に、手指領域の抽出方法について説明する。
まず、手指領域抽出部7は、周辺領域抽出部6により抽出された周辺領域において、画素のHSV値が、H^−20<H<H^+15、S^−20<S<S^+20、V^−40<Vという条件を満たす場合に肌色とし,それ以外の場合に非肌色として二値化を行う。
Next, a finger region extraction method will be described.
First, the finger region extraction unit 7 determines that the HSV values of the pixels in the peripheral region extracted by the peripheral region extraction unit 6 are H ^ −20 <H <H ^ + 15, S ^ −20 <S <S ^ + 20, When the condition of V ^ -40 <V is satisfied, the skin color is used, and in other cases, the non-skin color is used for binarization.

そして、手指領域抽出部7は、二値化を行った周辺領域のうち肌色部分の領域に対して膨張収縮処理を行った後、ノイズ除去を行い、その肌色部分の領域を手指領域とする。なお、手指領域を滑らかにする処理として、OpenCV(登録商標)のcvFindContours()関数を利用して、手指領域の輪郭線を平滑化(近似)してもよい。   Then, the finger region extraction unit 7 performs an expansion / contraction process on the skin color portion region of the binarized peripheral region, and then performs noise removal, thereby setting the skin color portion region as the finger region. As a process for smoothing the finger area, the contour line of the finger area may be smoothed (approximated) using the cvFindContours () function of OpenCV (registered trademark).

次に、環領域の抽出方法について説明する。
まず、環領域抽出部8は、手指領域抽出部7により抽出された手指領域の細線化を行う。
Next, a ring region extraction method will be described.
First, the ring region extraction unit 8 thins the finger region extracted by the finger region extraction unit 7.

次に、環領域抽出部8は、図6に示すように、細線化を行った手指領域において、孤立領域(細線で閉じられた領域)を検出する。
そして、環領域抽出部8は、その検出した孤立領域が所定面積以上であれば、親指と人差し指によりつくられた環領域であることを判断する。例えば、孤立領域の面積Cが、数3に示す条件を満たす場合、その孤立領域が親指と人差し指とでつくられた環領域であると判断する。
Next, as shown in FIG. 6, the ring area extraction unit 8 detects an isolated area (area closed by a thin line) in the thinned finger area.
If the detected isolated area is equal to or larger than the predetermined area, the ring area extraction unit 8 determines that the ring area is formed by the thumb and the index finger. For example, when the area C of the isolated region satisfies the condition shown in Equation 3, it is determined that the isolated region is a ring region formed by the thumb and the index finger.

なお、図7に示すように、ジェスチャ認識部3にさらに手指領域予測部10を備え、手指領域予測部10において、1フレーム前の映像において抽出された手指領域に基づいて、次のフレームの映像における手指領域を予測するように構成してもよい。   As shown in FIG. 7, the gesture recognition unit 3 further includes a finger region prediction unit 10, and in the finger region prediction unit 10, an image of the next frame is extracted based on the finger region extracted from the image one frame before. You may comprise so that the finger area | region in may be estimated.

また、第1実施形態のジェスチャ認識装置1において、予め決められているジェスチャの種類としては、例えば、「つまみ移動動作:親指と人差し指とで環をつくった後、その状態のまま手指を上下左右に移動するジェスチャ」、「クリック動作:親指と人差し指とを離した状態から親指と人差し指とで環をつくる動作を2回繰り返すジェスチャ」、「ダブルクリック動作:「クリック動作」を2回繰り返すジェスチャ」、「トリプルクリック動作:「クリック動作」を3回繰り返すジェスチャ」などがある。なお、「クリック動作」のジェスチャとして、親指と人差し指とを離した状態から親指と人差し指とで環をつくる動作を1回だけ行うジェスチャを採用してしまうと、ノイズにより「クリック動作」が誤認識されてしまう可能性がある。そのため、「クリック動作」の認識の安定性を考慮して、親指と人差し指とを離した状態から親指と人差し指とで環をつくる動作を2回繰り返すジェスチャを採用している。   In the gesture recognition device 1 according to the first embodiment, the predetermined gesture type is, for example, “knob movement operation: after a ring is formed with the thumb and index finger, the finger is moved up, down, left, and right in that state. "Gesture to move to", "Click action: Gesture that repeats the action of creating a ring with the thumb and forefinger twice from a state where the thumb and index finger are separated", "Double click action: Gesture to repeat" click action "twice" , “Triple click operation: gesture that repeats“ click operation ”three times”. In addition, if the gesture of making a ring with the thumb and forefinger only once from the state in which the thumb and forefinger are separated is used as the “click action” gesture, the “click action” is erroneously recognized due to noise. There is a possibility of being. Therefore, in consideration of the stability of the recognition of the “clicking operation”, a gesture is adopted in which an operation of forming a ring with the thumb and the index finger is repeated twice from a state where the thumb and the index finger are separated.

このように、第1実施形態のジェスチャ認識装置1において、予め決められているジェスチャは、少なくとも親指と人差し指とで環をつくるジェスチャを含むため、いずれも意図しないと日常行動下において行われ難いジェスチャである。そのため、それらのジェスチャをユーザが無意識に撮像部2の前で行ってしまう可能性が低く、情報機器4の誤動作を抑えることができる。   As described above, in the gesture recognition device 1 according to the first embodiment, the predetermined gesture includes a gesture that forms a ring with at least the thumb and the index finger. Therefore, a gesture that is difficult to perform under daily action unless both are intended. It is. Therefore, it is unlikely that the user unconsciously performs these gestures in front of the imaging unit 2, and malfunction of the information device 4 can be suppressed.

また、親指と人差し指とで環をつくるジェスチャは、ユーザにとって振る舞い易い直感的で自然なジェスチャであり、操作性の向上を図ることができる。
また、それらのジェスチャをユーザに行わせる理由は、ジェスチャ認識装置1から情報機器4に制御コマンドを出力させるための実体動作をユーザに意識させる目的もある。
In addition, the gesture of creating a ring with the thumb and index finger is an intuitive and natural gesture that is easy for the user to behave, and can improve operability.
The reason for making the user perform these gestures is also to make the user aware of the actual action for causing the information recognition device 4 to output a control command from the gesture recognition device 1.

また、本実施形態のジェスチャ認識装置1における制御コマンドの種類としては、例えば、「ページ順送りコマンド」、「ページ逆送りコマンド」、「静止画撮像コマンド」、及び「モード切り替えコマンド」などがある。なお、情報機器4で実行されるモードの種類としては、アルバム再生モードや静止画撮像モードなどがある。   The types of control commands in the gesture recognition device 1 of the present embodiment include, for example, “page forward feed command”, “page reverse feed command”, “still image capturing command”, and “mode switching command”. Note that the types of modes executed by the information device 4 include an album playback mode and a still image capturing mode.

例えば、ジェスチャ認識装置1は、起動時、「クリック動作」を認識すると、情報機器4に「モード切り替えコマンド」を出力する。このとき、情報機器4では、起動時に実行されるモードとして、アルバム再生モード又は静止画撮像モードが実行される。また、情報機器4では、「モード切り替えコマンド」が入力される度に、アルバム再生モードと静止画撮像モードとが交互に切り替わる。   For example, when the gesture recognition device 1 recognizes a “click operation” at the time of activation, the gesture recognition device 1 outputs a “mode switching command” to the information device 4. At this time, in the information device 4, the album playback mode or the still image capturing mode is executed as a mode executed at the time of activation. In the information device 4, the album playback mode and the still image capturing mode are alternately switched every time the “mode switching command” is input.

また、例えば、ジェスチャ認識装置1は、情報機器4がアルバム再生モードを実行しているとき、環領域を検出したまま複数フレームにおいてマーカが所定画素(例えば、25画素)以上移動していることを検出する。すると、ジェスチャ認識装置1は、ユーザにより「つまみ移動動作」が行われていると認識し、情報機器4に「ページ順送りコマンド」又は「ページ逆送りコマンド」を出力する。情報機器4は、「ページ順送りコマンド」が入力されると、メモリから表示中の画像の1つ後の画像を取り出してディスプレイに表示する。また、情報機器4は、「ページ逆送りコマンド」が入力されると、メモリから表示中の画像の1つ前の画像を取り出してディスプレイに表示する。   Also, for example, when the information device 4 is executing the album playback mode, the gesture recognition device 1 confirms that the marker has moved a predetermined pixel (for example, 25 pixels) or more in a plurality of frames while detecting the ring area. To detect. Then, the gesture recognition device 1 recognizes that the “knob moving operation” is being performed by the user, and outputs a “page forward command” or “page reverse command” to the information device 4. When the “page advance command” is input, the information device 4 takes out the image immediately after the image being displayed from the memory and displays it on the display. Further, when the “page reverse feed command” is input, the information device 4 takes out the image immediately before the image being displayed from the memory and displays it on the display.

また、例えば、ジェスチャ認識装置1は、情報機器4が静止画撮像モードを実行しているとき、環領域を検出したまま複数フレームにおいてマーカが所定画素(例えば、25画素)以上移動していることを検出する。すると、ジェスチャ認識装置1は、ユーザにより「つまみ移動動作」が行われていると認識し、情報機器4に「静止画撮像コマンド」を出力する。情報機器4は、「静止画撮像コマンド」が入力されると、静止画を取得し、メモリなどに格納する。   For example, in the gesture recognition device 1, when the information device 4 is executing the still image capturing mode, the marker has moved a predetermined pixel (for example, 25 pixels) or more in a plurality of frames while detecting the ring region. Is detected. Then, the gesture recognition device 1 recognizes that the “knob moving operation” is being performed by the user, and outputs a “still image capturing command” to the information device 4. When the “still image capturing command” is input, the information device 4 acquires a still image and stores it in a memory or the like.

このようにジェスチャ認識装置1では、情報機器4の動作を制御するためのジェスチャとして少なくとも2種類のジェスチャを採用し、ユーザにより意識下で第1のジェスチャ(例えば、「クリック動作」)が行われると、次に第2のジェスチャの認識が有効となるように構成している。そのため、第2のジェスチャとして日常行動下でユーザが無意識に行ってしまう可能性があるジェスチャ(例えば、「つまみ移動動作」)を採用しても、その第2のジェスチャの誤認識を抑えることができる。   As described above, in the gesture recognition device 1, at least two types of gestures are adopted as gestures for controlling the operation of the information device 4, and the first gesture (for example, “clicking operation”) is performed by the user under consciousness. Then, it is configured so that recognition of the second gesture becomes effective. Therefore, even if a gesture (for example, “knob moving operation”) that the user may unconsciously perform under daily action is adopted as the second gesture, it is possible to suppress erroneous recognition of the second gesture. it can.

また、モード切り替え機能を搭載することにより、1つの制御コマンドで複数の動作制御を実行させることができるため操作性が向上する。
図8は、アルバム再生モードを実行しているときの情報機器4のディスプレイに表示される画面例を示す図である。
In addition, since the mode switching function is installed, a plurality of operation controls can be executed with one control command, so that the operability is improved.
FIG. 8 is a diagram showing an example of a screen displayed on the display of the information device 4 when the album playback mode is being executed.

ディスプレイの左下に表示される円形のアイコン11は、情報機器4で実行されているモードを示すものである。例えば、静止画撮像モードからアルバム再生モードに切り替わると、アイコン10の色が黄色から赤色に切り替わる。   A circular icon 11 displayed at the lower left of the display indicates a mode being executed in the information device 4. For example, when the still image capturing mode is switched to the album playback mode, the color of the icon 10 is switched from yellow to red.

また、ディスプレイの中央部には、情報機器4のメモリなどに記憶されている複数の画像のうちの1枚の画像が表示される。
また、ディスプレイの中央部の下に表示される表示窓12と矢印とからなるアイコン13は、次にどのようなジェスチャをすればよいかをユーザにガイドするためのものであり、表示窓12には、撮像部2により撮像される映像がリアルタイムに表示される。このように、表示窓12には撮像部2により撮像される映像が表示されるため、ユーザは現在行っているジェスチャが撮像部2によりどのように撮像されているかを確認することができる。
Also, one image of a plurality of images stored in the memory of the information device 4 is displayed at the center of the display.
An icon 13 composed of a display window 12 and an arrow displayed below the center of the display is for guiding the user what gesture should be performed next. The video imaged by the imaging unit 2 is displayed in real time. Thus, since the video imaged by the imaging unit 2 is displayed on the display window 12, the user can check how the current gesture is captured by the imaging unit 2.

図9は、ジェスチャ認識装置1から情報機器4に「ページ順送りコマンド」が出力されたときの情報機器4のディスプレイに表示される画面例を示す図である。
ディスプレイの右下に表示される表示窓12と矢印とからなるアイコン14は、「ページ順送りコマンド」が現在実行されていることをユーザにガイドするためのものである。その後、情報機器4は、1つ後の画像をディスプレイに表示する。
FIG. 9 is a diagram illustrating an example of a screen displayed on the display of the information device 4 when the “page advance command” is output from the gesture recognition device 1 to the information device 4.
An icon 14 including a display window 12 and an arrow displayed at the lower right of the display is for guiding the user that the “page forward command” is currently being executed. Thereafter, the information device 4 displays the next image on the display.

なお、情報機器4のディスプレイの下部に表示されるアイコン13、14の横に文字による簡単な説明を表示させてもよい。
このように、現在どのようなモードにあるのか、次にどのようなジェスチャをすればよいのか、ジェスチャがどのように撮像されているのかなどを示すアイコンや文字を情報機器4のディスプレイにリアルタイムに表示させている。これにより、ユーザビリティを高めることができる。すなわち、ジェスチャの撮像状態や認識結果を情報機器4のディスプレイに効果的に表示させることは、ユーザに対して直感的にジェスチャを行わせる際の助けになる。
In addition, you may display the simple description by a character beside the icons 13 and 14 displayed on the lower part of the display of the information equipment 4. FIG.
In this way, icons and characters indicating the current mode, what gesture should be performed next, how the gesture is imaged, and the like are displayed on the display of the information device 4 in real time. It is displayed. Thereby, usability can be improved. That is, effectively displaying the imaging state of the gesture and the recognition result on the display of the information device 4 helps the user to make the gesture intuitively.

なお、上述では、ジェスチャ認識部3において「クリック動作」が認識される度に、情報機器4で実行されるモードとしてアルバム再生モードと静止画撮像モードとが交互に切り替わる構成である。しかし、ジェスチャ認識部3において「ダブルクリック動作」が認識されると、ジェスチャ認識部3から「アルバム再生モード切替コマンド」が出力されて情報機器4においてアルバム再生モードが実行されるように構成してもよい。また、ジェスチャ認識部3において「トリプルクリック動作」のジェスチャが認識されると、ジェスチャ認識部3から「静止画撮像モード切替コマンド」が出力されて情報機器4において静止画撮像モードが実行されるように構成してもよい。   Note that, in the above description, every time a “click operation” is recognized by the gesture recognition unit 3, the album playback mode and the still image capturing mode are alternately switched as modes to be executed by the information device 4. However, when the gesture recognition unit 3 recognizes the “double-click operation”, the gesture recognition unit 3 outputs an “album playback mode switching command” and the information device 4 executes the album playback mode. Also good. When the gesture recognition unit 3 recognizes a “triple click operation” gesture, the gesture recognition unit 3 outputs a “still image capturing mode switching command” so that the information device 4 executes the still image capturing mode. You may comprise.

<第2実施形態>
図10は、本発明の第2実施形態のジェスチャ認識装置を示す図である。なお、図1に示す第1実施形態のジェスチャ認識装置1と同じ構成には同じ符号を付している。
<Second Embodiment>
FIG. 10 is a diagram showing a gesture recognition apparatus according to the second embodiment of the present invention. In addition, the same code | symbol is attached | subjected to the same structure as the gesture recognition apparatus 1 of 1st Embodiment shown in FIG.

第2実施形態のジェスチャ認識装置15は、第1実施形態のジェスチャ認識装置1と同様に、撮像部2と、ジェスチャ認識部3とを備える。なお、第2実施形態のジェスチャ認識部3における手指領域や環領域の検出方法は、第1実施形態のジェスチャ認識部3における手指領域や環領域の検出方法と同様とし、その説明を省略する。   Similar to the gesture recognition device 1 of the first embodiment, the gesture recognition device 15 of the second embodiment includes an imaging unit 2 and a gesture recognition unit 3. In addition, the detection method of the finger area | region and ring area in the gesture recognition part 3 of 2nd Embodiment is the same as the detection method of the finger area | region and ring area | region in the gesture recognition part 3 of 1st Embodiment, The description is abbreviate | omitted.

第2実施形態のジェスチャ認識装置15において、第1実施形態のジェスチャ認識装置1と異なる点は、ジェスチャ認識部3から出力される制御コマンドにより制御機器16の動作を制御して、情報呈示機器17の呈示内容(例えば、GUI(Graphical User Interface)など)を制御する点である。例えば、制御機器16はパーソナルコンピュータとし、情報呈示機器17はそのパーソナルコンピュータに接続されるディスプレイ機器とする。   The gesture recognition device 15 according to the second embodiment is different from the gesture recognition device 1 according to the first embodiment in that the operation of the control device 16 is controlled by a control command output from the gesture recognition unit 3, and the information presentation device 17. The presentation content (for example, GUI (Graphical User Interface) etc.) is controlled. For example, the control device 16 is a personal computer, and the information presentation device 17 is a display device connected to the personal computer.

第2実施形態のジェスチャ認識装置15において予め定義されているジェスチャの種類としては、例えば、「つまみ移動動作」及び「クリック動作」である。なお、この「つまみ移動動作」及び「クリック動作」は、第1実施形態における「つまみ移動動作」及び「クリック動作」と同様である。   The types of gestures that are predefined in the gesture recognition device 15 of the second embodiment are, for example, “knob movement operation” and “click operation”. The “knob moving operation” and the “clicking operation” are the same as the “knob moving operation” and the “clicking operation” in the first embodiment.

第2実施形態のジェスチャ認識装置15における制御コマンドの種類としては、例えば、「指マウス機能オンコマンド」、「指マウス機能オフコマンド」、「カーソル移動コマンド」、「クリックコマンド」などである。なお、カーソル移動やクリックは、パーソナルコンピュータなどで利用されている既存のマウス機能のカーソル移動やクリックとほぼ同じ意味を示し、便宜的に類似する言葉を使用している。すなわち、制御機器16において何もアプリケーションが起動されていない状態では、既存のマウス機能のカーソル移動やクリックと同じ動作が行われる。しかし、アプリケーションが起動されている状態では、そのアプリケーションの仕様によって既存のマウス機能のカーソル移動やクリックとは異なる動作が行われる場合がある。   The types of control commands in the gesture recognition device 15 of the second embodiment are, for example, “finger mouse function on command”, “finger mouse function off command”, “cursor movement command”, “click command”, and the like. Note that cursor movement and click have almost the same meaning as cursor movement and click of an existing mouse function used in a personal computer or the like, and similar words are used for convenience. That is, in a state where no application is activated in the control device 16, the same operation as the cursor movement or click of the existing mouse function is performed. However, when an application is activated, an operation different from cursor movement or click of an existing mouse function may be performed depending on the specification of the application.

上記「指マウス機能オンコマンド」は、制御機器16に搭載される指マウス機能をオフからオンに切り替えるための制御コマンドであり、指マウス機能がオンになると、情報呈示機器17にカーソルが表示される。例えば、ジェスチャ認識装置15においてマーカが複数フレーム(例えば、20フレーム(撮像部2が10フレーム/秒の映像を撮像可能とする場合、約2秒間))以上間連続して認識されると、「指マウス機能オンコマンド」がジェスチャ認識装置15から出力される。基本的には、ユーザがこの制御コマンドを特に意識する必要はなく、ユーザが撮像部2にマーカつきの手指を撮像させると自動的に指マウス機能がオンする。また、このように、ジェスチャ認識装置15においてマーカを複数フレーム以上間連続して認識させることは、ノイズによってフレーム内にマーカらしきものが不定期に現れる場合におけるマーカの誤認識をある程度防ぐことを目的としている。   The “finger mouse function on command” is a control command for switching the finger mouse function mounted on the control device 16 from off to on. When the finger mouse function is turned on, a cursor is displayed on the information presentation device 17. The For example, when the gesture recognition device 15 recognizes a marker continuously for a plurality of frames (for example, 20 frames (about 2 seconds when the imaging unit 2 can capture an image of 10 frames / second)) or more, The “finger mouse function on command” is output from the gesture recognition device 15. Basically, the user does not need to be particularly aware of this control command, and when the user causes the imaging unit 2 to image a finger with a marker, the finger mouse function is automatically turned on. In addition, in this way, the recognition of the marker continuously for a plurality of frames or more in the gesture recognition device 15 is intended to prevent the marker from being erroneously recognized to some extent when a marker-like thing appears irregularly in the frame due to noise. It is said.

上記「カーソル移動コマンド」は、指マウス機能のオン状態において、情報呈示機器17に表示されるカーソルを移動させるための制御コマンドである。ジェスチャ認識装置15において「つまみ移動動作」が認識されると、マーカの移動量に応じた「カーソル移動コマンド」がジェスチャ認識装置15から出力される。例えば、環領域を検出したまま複数フレームにおいてマーカが右に所定画素(例えば、25画素)以上移動すると、情報呈示機器15のディスプレイに表示されるカーソルがマーカの移動量に応じた距離分、右に移動する。   The “cursor moving command” is a control command for moving the cursor displayed on the information presenting device 17 when the finger mouse function is on. When the gesture recognition device 15 recognizes the “knob movement operation”, the “cursor movement command” corresponding to the amount of movement of the marker is output from the gesture recognition device 15. For example, when the marker moves to the right by a predetermined pixel (for example, 25 pixels) or more in a plurality of frames while detecting the ring region, the cursor displayed on the display of the information presentation device 15 moves to the right by the distance corresponding to the amount of movement of the marker. Move to.

上記「クリックコマンド」は、指マウス機能のオン状態において、情報呈示機器15のディスプレイに表示されるボタンなどを選択するための制御コマンドである。ジェスチャ認識装置15において「クリック動作」が認識されると、「クリックコマンド」がジェスチャ認識装置15から出力される。   The “click command” is a control command for selecting a button or the like displayed on the display of the information presentation device 15 when the finger mouse function is on. When the “click operation” is recognized by the gesture recognition device 15, a “click command” is output from the gesture recognition device 15.

上記「指マウス機能オフコマンド」は、指マウス機能をオンからオフに切り替えるための制御コマンドであり、指マウス機能がオフになると、情報呈示機器17に表示されていたカーソルが消える。例えば、ジェスチャ認識装置15においてマーカが複数フレーム(例えば、100フレーム(撮像部2が10フレーム/秒の動画を撮影可能とする場合、約10秒間))以上間連続して認識されないと、「指マウス機能オフコマンド」がジェスチャ認識装置15から出力される。「指マウス機能オンコマンド」と同様に、基本的には、ユーザがこの制御コマンドを特に意識する必要はなく、ユーザが撮像部2にマーカつきの手指を撮影させないようにすると自動的に指マウス機能がオフする。なお、情報呈示機器17に指マウス機能をオフさせるためのボタンを表示させ、そのボタンが選択されると、「指マウス機能オフコマンド」がジェスチャ認識装置15から出力されるように構成してもよい。   The “finger mouse function off command” is a control command for switching the finger mouse function from on to off. When the finger mouse function is turned off, the cursor displayed on the information presenting device 17 disappears. For example, if the marker is not continuously recognized by the gesture recognition device 15 for more than a plurality of frames (for example, 100 frames (about 10 seconds when the imaging unit 2 can capture a moving image at 10 frames / second)) or more, A mouse function off command ”is output from the gesture recognition device 15. Similar to the “finger mouse function on command”, basically, the user does not need to be particularly aware of this control command, and if the user does not cause the imaging unit 2 to photograph a finger with a marker, the finger mouse function is automatically provided. Turns off. Note that a button for turning off the finger mouse function is displayed on the information presenting device 17, and a “finger mouse function off command” is output from the gesture recognition device 15 when the button is selected. Good.

次に、ジェスチャ認識装置15におけるジェスチャ認識の状態遷移について説明する。
図11は、ジェスチャ認識装置15におけるジェスチャ認識の状態遷移を説明するための図である。
Next, gesture recognition state transition in the gesture recognition device 15 will be described.
FIG. 11 is a diagram for explaining the state transition of gesture recognition in the gesture recognition device 15.

図11に示すように、ジェスチャ認識装置15におけるジェスチャ認識の状態としては、上記4つの制御コマンドにそれぞれ対応する4つの状態(「指マウス機能オン状態:FU_STATE_FREE」、「カーソル移動状態:FU_STATE_GRIPMOVE」、「クリック状態:FU_STATE_CLICK」、「指マウス機能オフ状態:FU_STATE_OFF」)と予備的な2つの状態(「環一時検出状態:FU_STATE_GRIP」、「事前クリック検出状態:FU_STATE_PRECLICK」)の全6つの状態が定義される。また、図示しないが、予備的な2つの状態における判定を補助するために、予備フラグを設け、真・偽の2状態を保持する。   As shown in FIG. 11, the gesture recognition state in the gesture recognition device 15 includes four states (“finger mouse function ON state: FU_STATE_FREE”, “cursor movement state: FU_STATE_GRIPMOVE”, respectively) corresponding to the above four control commands. All six states are defined: "Click state: FU_STATE_CLICK", "Finger mouse function off state: FU_STATE_OFF") and two preliminary states ("Temporary ring detection state: FU_STATE_GRIP", "Pre-click detection state: FU_STATE_PRECLICK") Is done. Although not shown, a preliminary flag is provided to assist the determination in the two preliminary states, and the two states of true and false are maintained.

上記「指マウス機能オフ状態」は、マーカの非検出が所定フレーム以上続いている状態であり、情報呈示機器17にカーソルが表示されていない状態である。また、ジェスチャ認識装置15や制御機器16の起動時、ジェスチャ認識の状態遷移は、「指マウス機能オフ状態」から始まる。また、「指マウス機能オフ状態」のときにマーカの検出が所定フレームの間続くと、「指マウス機能オン状態」に遷移する。このとき、ジェスチャ認識装置15は、「指マウス機能オンコマンド」を出力する。   The “finger mouse function off state” is a state where marker non-detection continues for a predetermined frame or more, and the cursor is not displayed on the information presenting device 17. When the gesture recognition device 15 or the control device 16 is activated, the state transition of the gesture recognition starts from the “finger mouse function off state”. If the marker detection continues for a predetermined frame in the “finger mouse function off state”, the state transits to the “finger mouse function on state”. At this time, the gesture recognition device 15 outputs a “finger mouse function on command”.

上記「指マウス機能オン状態」は、マーカの検出が所定フレーム以上続いている状態であり、情報呈示機器17にカーソルが表示されている状態である。「指マウス機能オン状態」のときにマーカの非検出が所定フレームの間続くと、「指マウス機能オフ状態」に遷移する。このとき、ジェスチャ認識装置15は、「指マウス機能オフコマンド」を出力する。また、ジェスチャ認識装置15は、「指マウス機能オン状態」のときに環領域を検出すると、「環一時検出状態」に遷移する。   The “finger mouse function ON state” is a state in which marker detection continues for a predetermined frame or more, and a cursor is displayed on the information presentation device 17. If the non-detection of the marker continues for a predetermined frame in the “finger mouse function on state”, the state transits to the “finger mouse function off state”. At this time, the gesture recognition device 15 outputs a “finger mouse function off command”. In addition, when the gesture recognition device 15 detects the ring area in the “finger mouse function on state”, the gesture recognition device 15 transits to the “ring temporary detection state”.

上記「環一時検出状態」は、環領域が検出された直後の状態であり、情報呈示機器17にカーソルが表示されている状態である。ジェスチャ認識装置15は、「指マウス機能オン状態」又は「事前クリック状態」から「環一時検出状態」に遷移すると、予備フラグを真(TRUE)に設定する。次に、ジェスチャ認識装置15は、「つまみ移動動作」を認識しないまま所定フレームの間「環一時検出状態」が続くと、予備フラグを偽(FALSE)に設定する。そして、ジェスチャ認識装置15は、予備フラグが偽のとき、環領域を検出しなくなると、「環一時検出状態」から「指マウス機能オン状態」に遷移する。一方、ジェスチャ認識装置15は、予備フラグが真のとき、環領域を検出しなくなると、「環一時検出状態」から「事前クリック状態」に遷移する。また、ジェスチャ認識装置15は、「環一時検出状態」のときに「つまみ移動動作」を認識すると、「環一時検出状態」から「カーソル移動状態」に遷移し、予備フラグを偽に設定する。   The “ring temporary detection state” is a state immediately after the ring region is detected, and is a state in which the cursor is displayed on the information presenting device 17. When the gesture recognition device 15 transitions from the “finger mouse function on state” or the “pre-click state” to the “ring temporary detection state”, the gesture recognition device 15 sets the reserve flag to true. Next, if the “ring temporary detection state” continues for a predetermined frame without recognizing the “knob movement operation”, the gesture recognition device 15 sets the preliminary flag to FALSE. Then, when the ring flag is not detected when the reserve flag is false, the gesture recognition device 15 transitions from the “ring temporary detection state” to the “finger mouse function on state”. On the other hand, when the preliminary flag is true, the gesture recognition device 15 transitions from the “ring temporary detection state” to the “pre-click state” when the ring region is not detected. In addition, when the gesture recognition device 15 recognizes the “knob moving operation” in the “ring temporary detection state”, the gesture recognition device 15 transitions from the “ring temporary detection state” to the “cursor moving state” and sets the preliminary flag to false.

上記「カーソル移動状態」は、「つまみ移動動作」が認識され続けている状態であり、情報呈示機器17に表示されているカーソルが移動している状態である。ジェスチャ認識装置15は、「つまみ移動動作」が認識されなくなると、「カーソル移動状態」から「指マウスオン状態」に遷移する。   The “cursor moving state” is a state in which the “knob moving operation” is continuously recognized, and the cursor displayed on the information presenting device 17 is moving. When the “knob moving operation” is no longer recognized, the gesture recognition device 15 transitions from the “cursor moving state” to the “finger mouse on state”.

上記「事前クリック検出状態」は、「環一時検出状態」において環領域が検出されなくなった状態であり、情報呈示機器17にカーソルが表示されている状態である。ジェスチャ認識装置15は、「事前クリック検出状態」のときに所定フレーム(例えば、5フレーム)以内に環領域を再度検出すると、「クリック検出状態」に遷移する。またジェスチャ認識装置15は、所定フレーム(例えば、5フレーム)を超えてから環領域を再度検出すると、「環一時検出状態」に遷移する。また、ジェスチャ認識装置15は、所定フレーム(例えば、5フレーム)を超えても環領域が再度検出されない場合、「指マウス機能オン状態」に遷移する。   The “pre-click detection state” is a state in which the ring region is not detected in the “ring temporary detection state”, and a cursor is displayed on the information presenting device 17. When the gesture recognition device 15 detects the ring area again within a predetermined frame (for example, 5 frames) in the “previous click detection state”, the gesture recognition device 15 transits to the “click detection state”. Further, when the gesture recognition device 15 detects the ring region again after exceeding a predetermined frame (for example, 5 frames), the gesture recognition device 15 transits to the “ring temporary detection state”. If the ring area is not detected again even after exceeding a predetermined frame (for example, 5 frames), the gesture recognition device 15 transitions to the “finger mouse function on state”.

上記「クリック検出状態」は、「クリック動作」が認識された直後の状態であり、すぐに「指マウス機能オン状態」に遷移する。一般に、「クリック動作」を行った後のユーザの親指と人差し指は離れた状態となる傾向があるため、「クリック検出状態」の後すぐに「指マウスオン状態」に遷移するように構成している。「クリック動作」を行った後のユーザの親指と人差し指とが接触した状態であっても、「指マウス機能オン状態」から「環一時検出状態」に遷移するため、「クリック検出状態」の後すぐに「指マウス機能オン状態」に遷移させても問題はない。   The “click detection state” is a state immediately after the “click operation” is recognized, and immediately transitions to the “finger mouse function on state”. In general, the user's thumb and index finger after performing a “click operation” tend to be separated from each other, and therefore, the “finger mouse-on state” is set immediately after the “click detection state”. . Even if the user's thumb and index finger are in contact with each other after performing a “click operation,” the “finger mouse function on state” transitions to the “ring temporary detection state”. There is no problem even if a transition to the “finger mouse function on state” is made immediately.

例えば、ジェスチャ認識装置15は、起動時、ユーザの手指につけられるマーカを所定フレーム以上検出すると、「指マウス機能オフ状態」から「指マウス機能オン状態」に遷移して、「指マウス機能コマンド」を出力する。すると、例えば、図12に示すように、情報呈示機器17にカーソル18が表示される。なお、図12に示す情報呈示機器17に表示される画面例には、カーソル18の他に、メモリから取り出された画像を表示するための画像表示窓19、1つ後の画像をメモリから取り出し画像表示窓19に表示させるためのボタン20、1つ前の画像をメモリから取り出し画像表示窓19に表示させるためのボタン21、撮像部2で撮像されている現在の映像を表示するための映像表示窓22、「スライドショー」を実行させるためのボタン23、及び現在のジェスチャ認識の状態を表示するための状態遷移表示窓24が表示されている。   For example, when the gesture recognition device 15 detects a marker attached to the user's finger at a predetermined frame or more at the time of activation, the gesture recognition device 15 transitions from the “finger mouse function off state” to the “finger mouse function on state” to generate a “finger mouse function command”. Is output. Then, for example, as shown in FIG. 12, a cursor 18 is displayed on the information presenting device 17. In the screen example displayed on the information presentation device 17 shown in FIG. 12, in addition to the cursor 18, the image display window 19 for displaying the image taken out from the memory and the next image are taken out from the memory. A button 20 for displaying on the image display window 19, a button 21 for extracting the previous image from the memory and displaying it on the image display window 19, and a video for displaying the current video imaged by the imaging unit 2 A display window 22, a button 23 for executing a “slide show”, and a state transition display window 24 for displaying the current gesture recognition state are displayed.

また、例えば、ジェスチャ認識装置15は、「指マウス機能オン状態」のとき、環領域を検出した後、「つまみ移動動作」を認識すると、「環一時検出状態」に遷移した後、「カーソル移動状態」に遷移する。すると、ジェスチャ認識装置15は、マーカの移動量に応じた「カーソル移動コマンド」を出力する。例えば、図12に示すカーソル18が、図13に示すように、ボタン23の上に移動する。   In addition, for example, when the gesture recognition device 15 detects the ring area and recognizes the “knob moving operation” in the “finger mouse function on state”, the gesture recognition device 15 transitions to the “ring temporary detection state” and then “cursor movement” Transition to "state". Then, the gesture recognition device 15 outputs a “cursor movement command” corresponding to the amount of movement of the marker. For example, the cursor 18 shown in FIG. 12 moves onto the button 23 as shown in FIG.

また、例えば、ジェスチャ認識装置15は、「指マウス機能オン状態」のとき、「クリック動作」を認識すると、「環一時検出状態」、「事前クリック検出状態」、「クリック検出状態」と遷移して、「クリックコマンド」を出力する。例えば、図13に示すように、ボタン23上にカーソル18が存在するときに、ジェスチャ認識装置15から「クリックコマンド」が出力されると、情報呈示機器17には、図14に示すように、画像表示窓19が拡大されて表示され、その画像表示窓19に表示される画像が次々に切り替わっていく。   Further, for example, when the gesture recognition device 15 recognizes the “click operation” in the “finger mouse function on state”, the gesture recognition device 15 transits to “temporary ring detection state”, “previous click detection state”, and “click detection state”. To output a “click command”. For example, as illustrated in FIG. 13, when the “click command” is output from the gesture recognition device 15 when the cursor 18 is present on the button 23, the information presenting device 17 may display the click command as illustrated in FIG. 14. The image display window 19 is enlarged and displayed, and the images displayed in the image display window 19 are switched one after another.

このように、第2実施形態のジェスチャ認識装置15で採用される、予め決められているジェスチャにおいても、いずれも意図しないと日常行動下において行われ難いジェスチャである。そのため、それらのジェスチャをユーザが無意識に撮像部2の前で行ってしまう可能性が低く、制御機器16の誤動作を抑えることができる。   Thus, even the predetermined gestures employed in the gesture recognition device 15 of the second embodiment are gestures that are difficult to perform under daily action unless they are intended. Therefore, it is unlikely that the user will unintentionally perform these gestures in front of the imaging unit 2, and malfunction of the control device 16 can be suppressed.

また、親指と人差し指とをつけたり離したりする動作は、ユーザにとって振る舞い易い直感的で自然なジェスチャであり、操作性の向上を図ることができる。   In addition, the operation of putting and releasing the thumb and index finger is an intuitive and natural gesture that is easy for the user to behave, and can improve operability.

1 ジェスチャ認識装置
2 撮像部
3 ジェスチャ認識部
4 情報機器
5 マーカ検出部
6 周辺領域抽出部
7 手指領域抽出部
8 環領域抽出部
9 制御コマンド出力部
10 手指領域予測部
DESCRIPTION OF SYMBOLS 1 Gesture recognition apparatus 2 Imaging part 3 Gesture recognition part 4 Information equipment 5 Marker detection part 6 Peripheral area extraction part 7 Finger area extraction part 8 Ring area extraction part 9 Control command output part 10 Finger area prediction part

Claims (10)

ユーザに直接取り付けられる又は前記ユーザに装着された機器に取り付けられる撮像手段と、
前記撮像手段により撮像される前記ユーザの手指の映像を用いて、少なくとも前記ユーザが親指と人差し指とで環をつくるジェスチャを含む、予め定義されている前記ユーザの手指のジェスチャを認識し、その認識したジェスチャに対応する制御コマンドを制御対象の機器に出力するジェスチャ認識手段と、
を備えるジェスチャ認識装置。
Imaging means attached directly to a user or attached to a device worn by the user;
Recognizing and recognizing a predefined gesture of the user's finger, including at least a gesture in which the user forms a ring with a thumb and an index finger, using an image of the user's finger imaged by the imaging means Gesture recognition means for outputting a control command corresponding to the gesture to the controlled device;
A gesture recognition device comprising:
請求項1に記載のジェスチャ認識装置であって、
前記ジェスチャ認識手段は、
前記撮像手段により撮像された映像において前記ユーザの手指が存在する手指領域を抽出する手指領域抽出手段と、
前記手指領域抽出手段により抽出された手指領域において前記ユーザの親指と人差し指とでつくられる環を示す環領域を抽出する環領域抽出手段と、
を備え、
前記環領域抽出手段により環領域が抽出されると、現在行われている前記ユーザの手指のジェスチャが、前記ユーザが親指と人差し指とで環をつくるジェスチャであると認識する
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 1,
The gesture recognition means includes:
A finger area extracting means for extracting a finger area where the user's finger is present in the video imaged by the imaging means;
A ring area extracting means for extracting a ring area indicating a ring formed by the thumb and index finger of the user in the finger area extracted by the finger area extracting means;
With
When the ring area is extracted by the ring area extraction unit, the gesture of the user's finger that is currently performed is recognized as a gesture in which the user forms a ring with a thumb and an index finger. Recognition device.
請求項2に記載のジェスチャ認識装置であって、
前記ジェスチャ認識手段は、前記環領域抽出手段により抽出された環領域の大きさが閾値以上であるとき、現在行われている前記ユーザの手指のジェスチャが、前記ユーザが親指と人差し指とで環をつくるジェスチャであると認識する
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 2,
When the size of the ring region extracted by the ring region extraction unit is greater than or equal to a threshold value, the gesture recognition unit determines that the user's finger gesture is being performed with a thumb and an index finger. A gesture recognition device that recognizes a gesture to be created.
請求項2に記載のジェスチャ認識装置であって、
前記手指領域抽出手段は、
前記ユーザの手指につけられたマーカを検出するマーカ検出手段と、
前記撮像手段により撮像された映像において前記マーカ検出手段により検出されたマーカの周辺領域を抽出する周辺領域抽出手段と、
を備え、
前記周辺領域抽出手段により抽出された周辺領域に基づいて、前記手指領域を抽出する
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 2,
The finger region extraction means includes
Marker detection means for detecting a marker attached to the user's finger;
A peripheral area extracting means for extracting a peripheral area of the marker detected by the marker detecting means in the video imaged by the imaging means;
With
The gesture recognition device characterized in that the finger region is extracted based on the peripheral region extracted by the peripheral region extraction means.
請求項4に記載のジェスチャ認識装置であって、
前記手指領域抽出手段は、前記撮像手段により撮像された映像において前記周辺領域抽出手段により抽出された周辺領域と同じ色の画像を前記手指領域とする
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 4,
The gesture recognition apparatus according to claim 1, wherein the finger region extraction unit uses an image of the same color as the peripheral region extracted by the peripheral region extraction unit in the video imaged by the imaging unit.
請求項4に記載のジェスチャ認識装置であって、
前記手指領域抽出手段は、前記撮像手段により撮像された1フレーム前の映像において抽出された前記手指領域に基づいて、次のフレームの映像の前記手指領域を予測する手指領域予測手段を備える
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 4,
The finger region extraction unit includes a finger region prediction unit that predicts the finger region of the video of the next frame based on the finger region extracted in the image of the previous frame captured by the imaging unit. A feature gesture recognition device.
請求項1に記載のジェスチャ認識装置であって、
前記制御対象の機器は、前記ユーザに情報を提示する情報呈示機器の呈示内容を制御する制御機器である
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 1,
The gesture recognition apparatus, wherein the device to be controlled is a control device that controls the presentation content of an information presentation device that presents information to the user.
請求項1に記載のジェスチャ認識装置であって、
前記制御対象の機器は、前記ユーザに装着された機器である
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 1,
The gesture recognition apparatus, wherein the device to be controlled is a device worn by the user.
請求項1に記載のジェスチャ認識装置であって、
前記ジェスチャ認識手段は、前記制御対象の機器の第1の動作モードと前記制御対象の機器の第2の動作モードとを切り替えるための第1の制御コマンド、前記第1の動作モードのときに前記制御対象の機器の動作を制御するための第2の制御コマンド、及び前記第2の動作モードのときに前記制御対象の機器の動作を制御するための第3の制御コマンドを出力し、
前記第2及び第3の制御コマンドにそれぞれ対応する前記ユーザの手指のジェスチャの種類は互いに同じである
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 1,
The gesture recognition means is a first control command for switching between a first operation mode of the device to be controlled and a second operation mode of the device to be controlled. Outputting a second control command for controlling the operation of the device to be controlled and a third control command for controlling the operation of the device to be controlled in the second operation mode;
The gesture recognition device, wherein the types of gestures of the user's fingers respectively corresponding to the second and third control commands are the same.
請求項1に記載のジェスチャ認識装置であって、
前記制御対象の機器は、前記ジェスチャ認識手段におけるジェスチャ認識状態又はジェスチャ認識結果を表示する
ことを特徴とするジェスチャ認識装置。
The gesture recognition device according to claim 1,
The device to be controlled displays a gesture recognition state or a gesture recognition result in the gesture recognition unit.
JP2010224507A 2010-10-04 2010-10-04 Gesture recognition device Withdrawn JP2012079138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010224507A JP2012079138A (en) 2010-10-04 2010-10-04 Gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010224507A JP2012079138A (en) 2010-10-04 2010-10-04 Gesture recognition device

Publications (1)

Publication Number Publication Date
JP2012079138A true JP2012079138A (en) 2012-04-19

Family

ID=46239290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010224507A Withdrawn JP2012079138A (en) 2010-10-04 2010-10-04 Gesture recognition device

Country Status (1)

Country Link
JP (1) JP2012079138A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073556A (en) * 2011-09-29 2013-04-22 Toshiba Corp Command issue device, method and program
JP2014043353A (en) * 2013-12-10 2014-03-13 Okura Yusoki Co Ltd Picking system
JP2014186361A (en) * 2013-03-21 2014-10-02 Sony Corp Information processing device, operation control method, and program
KR20140147462A (en) * 2013-06-20 2014-12-30 삼성전자주식회사 Method for controling for shooting and an electronic device thereof
CN104484037A (en) * 2014-12-12 2015-04-01 三星电子(中国)研发中心 Method for intelligent control by virtue of wearable device and wearable device
JP2015126352A (en) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 Head-mounted display device, image display system, and method for controlling head-mounted display device
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronics
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronics
WO2016167331A1 (en) * 2015-04-17 2016-10-20 三菱電機株式会社 Gesture recognition device, gesture recognition method, and information processing device
WO2017057106A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
US9638534B2 (en) 2014-12-16 2017-05-02 Hyundai Motor Company Arrival time notification system using smart glasses and method thereof
WO2017145423A1 (en) * 2016-02-25 2017-08-31 日本電気株式会社 Information processing system, information processing device, control method, and program
JP2017182571A (en) * 2016-03-31 2017-10-05 株式会社インテック Information processing system, information processing method, and information processing program
CN109491496A (en) * 2017-09-12 2019-03-19 精工爱普生株式会社 The control method of head-mount type display unit and head-mount type display unit
JP2021073579A (en) * 2015-02-25 2021-05-13 京セラ株式会社 Electronic apparatus, method, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073556A (en) * 2011-09-29 2013-04-22 Toshiba Corp Command issue device, method and program
JP2014186361A (en) * 2013-03-21 2014-10-02 Sony Corp Information processing device, operation control method, and program
KR102092330B1 (en) * 2013-06-20 2020-03-23 삼성전자주식회사 Method for controling for shooting and an electronic device thereof
KR20140147462A (en) * 2013-06-20 2014-12-30 삼성전자주식회사 Method for controling for shooting and an electronic device thereof
JP2014043353A (en) * 2013-12-10 2014-03-13 Okura Yusoki Co Ltd Picking system
JP2015126352A (en) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 Head-mounted display device, image display system, and method for controlling head-mounted display device
US10445579B2 (en) 2013-12-26 2019-10-15 Seiko Epson Corporation Head mounted display device, image display system, and method of controlling head mounted display device
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronics
CN104484037A (en) * 2014-12-12 2015-04-01 三星电子(中国)研发中心 Method for intelligent control by virtue of wearable device and wearable device
US9638534B2 (en) 2014-12-16 2017-05-02 Hyundai Motor Company Arrival time notification system using smart glasses and method thereof
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronics
JP2021073579A (en) * 2015-02-25 2021-05-13 京セラ株式会社 Electronic apparatus, method, and program
WO2016167331A1 (en) * 2015-04-17 2016-10-20 三菱電機株式会社 Gesture recognition device, gesture recognition method, and information processing device
US10156909B2 (en) 2015-04-17 2018-12-18 Mitsubishi Electric Corporation Gesture recognition device, gesture recognition method, and information processing device
US10168769B2 (en) 2015-09-28 2019-01-01 Nec Corporation Input apparatus, input method, and program
JPWO2017057106A1 (en) * 2015-09-28 2018-07-05 日本電気株式会社 Input device, input method, and program
CN108027656A (en) * 2015-09-28 2018-05-11 日本电气株式会社 Input equipment, input method and program
WO2017057106A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
JPWO2017145423A1 (en) * 2016-02-25 2018-06-14 日本電気株式会社 Information processing system, information processing apparatus, control method, and program
CN108027655A (en) * 2016-02-25 2018-05-11 日本电气株式会社 Information processing system, information processing equipment, control method and program
US10372229B2 (en) 2016-02-25 2019-08-06 Nec Corporation Information processing system, information processing apparatus, control method, and program
WO2017145423A1 (en) * 2016-02-25 2017-08-31 日本電気株式会社 Information processing system, information processing device, control method, and program
TWI716527B (en) * 2016-02-25 2021-01-21 日商日本電氣股份有限公司 Information processing system, information processing device, control method and program
JP2017182571A (en) * 2016-03-31 2017-10-05 株式会社インテック Information processing system, information processing method, and information processing program
CN109491496A (en) * 2017-09-12 2019-03-19 精工爱普生株式会社 The control method of head-mount type display unit and head-mount type display unit
US10635182B2 (en) 2017-09-12 2020-04-28 Seiko Epson Corporation Head mounted display device and control method for head mounted display device

Similar Documents

Publication Publication Date Title
JP2012079138A (en) Gesture recognition device
US8666115B2 (en) Computer vision gesture based control of a device
JP6011165B2 (en) Gesture recognition device, control method thereof, display device, and control program
CN102906671B (en) Gesture input device and gesture input method
US10013083B2 (en) Utilizing real world objects for user input
US9377851B2 (en) Information processing apparatus, information processing method, and computer program
US20140053115A1 (en) Computer vision gesture based control of a device
CN103197825B (en) Image processing apparatus and display control method
CN114578951B (en) Display device and control method thereof
JP6350772B2 (en) Information processing system, information processing apparatus, control method, and program
JP2018077876A (en) Information processing apparatus, information processing method, and program
US9904372B2 (en) Method by which eyeglass-type display device recognizes and inputs movement
CN103797513A (en) Computer vision based two hand control of content
JPH0844490A (en) Interface device
WO2015064165A1 (en) Information processing device, information processing method, and program
US20240185516A1 (en) A Method for Integrated Gaze Interaction with a Virtual Environment, a Data Processing System, and Computer Program
JP2004078977A (en) Interface device
KR20130115094A (en) Information processing apparatus, information processing system and information processing method
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
KR20180094875A (en) Information processing apparatus, information processing method, and program
JP4733600B2 (en) Operation detection device and its program
JP6971788B2 (en) Screen display control method and screen display control system
CN109144235B (en) Man-machine interaction method and system based on head-hand cooperative action
KR101337429B1 (en) Input device
WO2018150757A1 (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107