[go: up one dir, main page]

JP5024495B1 - Gesture input device and method for controlling gesture input device - Google Patents

Gesture input device and method for controlling gesture input device Download PDF

Info

Publication number
JP5024495B1
JP5024495B1 JP2012094277A JP2012094277A JP5024495B1 JP 5024495 B1 JP5024495 B1 JP 5024495B1 JP 2012094277 A JP2012094277 A JP 2012094277A JP 2012094277 A JP2012094277 A JP 2012094277A JP 5024495 B1 JP5024495 B1 JP 5024495B1
Authority
JP
Japan
Prior art keywords
gesture
unit
determination
control
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012094277A
Other languages
Japanese (ja)
Other versions
JP2012185833A (en
Inventor
俊 酒井
宏行 田中
淳 入江
達哉 村上
貴宏 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2012094277A priority Critical patent/JP5024495B1/en
Application granted granted Critical
Publication of JP5024495B1 publication Critical patent/JP5024495B1/en
Publication of JP2012185833A publication Critical patent/JP2012185833A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐ。
【解決手段】ユーザのジェスチャに基づいて制御対象機器3を制御するジェスチャ入力装置1は、カメラ2が撮像した画像から検出したジェスチャに判定ジェスチャが含まれているか否かを判断する判定ジェスチャ判断部32と、カメラ2が撮像した画像から検出したジェスチャに操作ジェスチャが含まれているか否かを判断する操作ジェスチャ判断部34と、判定ジェスチャの認識期間中に、操作ジェスチャ判断部が含まれていると判断した操作ジェスチャに対応付けられている制御信号を生成し、制御対象機器3に生成した制御信号を送信する機器制御部23とを備える。
【選択図】図1
An object of the present invention is to prevent erroneous recognition of an action unintended by a user as an effective gesture.
A gesture input device that controls a control target device based on a user's gesture includes a determination gesture determination unit that determines whether or not a gesture detected from an image captured by a camera includes a determination gesture. 32, an operation gesture determination unit 34 that determines whether or not an operation gesture is included in a gesture detected from an image captured by the camera 2, and an operation gesture determination unit is included during the determination gesture recognition period. And a device control unit 23 that generates a control signal associated with the operation gesture determined to be transmitted to the control target device 3.
[Selection] Figure 1

Description

本発明は、ユーザのジェスチャを認識することにより、機器を制御する制御信号を生成するジェスチャ入力装置およびジェスチャ入力装置の制御方法に関するものである。   The present invention relates to a gesture input device that generates a control signal for controlling a device by recognizing a user's gesture, and a method for controlling the gesture input device.

近年、カメラを用いたユーザのジェスチャによる情報入力装置は、次世代インターフェースとして期待されている。この情報入力装置においては、ユーザのジェスチャを正確に認識できることが望ましい。そこで、従来、ユーザのジェスチャを高精度に認識するための技術が開発されている。   In recent years, information input devices using user gestures using cameras are expected as next-generation interfaces. In this information input device, it is desirable that the user's gesture can be accurately recognized. Thus, techniques for recognizing user gestures with high accuracy have been developed.

例えば、特許文献1には、ユーザが所持するペンライトの点灯によりジェスチャの開始を認識し、当該ペンライトの消灯によりジェスチャの終了を認識するジェスチャ認識装置であって、上記開始から終了までのペンライトの移動状態に基づいてジェスチャの種別を認識するジェスチャ認識装置が記載されている。   For example, Patent Literature 1 discloses a gesture recognition device that recognizes the start of a gesture by turning on a penlight held by a user and recognizes the end of the gesture by turning off the penlight. A gesture recognition device that recognizes the type of gesture based on the movement state of the light is described.

また、上記特許文献1に記載の技術の課題を解決するものとして、特許文献2に記載の技術がある。特許文献2には、周期性のある手のジェスチャ認識に関して、隠れマルコフモデルを利用して、特許文献1に記載の技術のように、ユーザがジェスチャの始点および終点を提示しなくても、連続したジェスチャを高精度に認識するジェスチャ認識装置が記載されている。   Moreover, there exists a technique of patent document 2 as what solves the subject of the technique of the said patent document 1. FIG. In Patent Document 2, regarding the gesture recognition of a hand with periodicity, a continuous Markov model is used, even if the user does not present the start point and end point of the gesture, as in the technique described in Patent Document 1. A gesture recognition device for recognizing a gesture with high accuracy is described.

さらに、特許文献3には、カメラで撮像されたユーザの画像からユーザのジェスチャおよび視線を検出し、検出したジェスチャが選択ジェスチャであって、ユーザの視線が選択ジェスチャで選択した制御機器に向いている場合、当該制御機器を操作対象として選択し、検出したジェスチャが操作ジェスチャの場合、操作対象とした制御機器に対して、操作ジェスチャに応じた操作を実行する制御機器操作ジェスチャ認識装置が記載されている。   Further, in Patent Document 3, a user's gesture and line of sight are detected from a user's image captured by a camera. The detected gesture is a selection gesture, and the user's line of sight is directed to a control device selected by the selection gesture. If the control device is selected as an operation target and the detected gesture is an operation gesture, a control device operation gesture recognition device that performs an operation according to the operation gesture on the control device that is the operation target is described. ing.

特開平9−311759号公報(1997年12月2日公開)Japanese Patent Laid-Open No. 9-311759 (released on December 2, 1997) 特開2007−87089号公報(2007年4月5日公開)JP 2007-87089 A (published April 5, 2007) 特開2009−37434号公報(2009年2月19日公開)JP 2009-37434 A (published February 19, 2009)

しかしながら、上述のような従来技術は、それぞれ下記の問題がある。   However, the conventional techniques as described above have the following problems.

ジェスチャによる入力装置は、ユーザがリモコンやキーボード等の入力装置を所持または使用することなく、機器を制御できるという利点を有している。しかしながら、特許文献1に記載の技術では、ジェスチャの開始と終了のタイミングを認識するために、ペンライト等の所定の物体を利用している。そのため、上記のジェスチャによる入力装置の利点を得ることができず、特許文献1に記載のジェスチャ認識装置は、ユーザにとって不便なものである。   The input device by gesture has an advantage that the user can control the device without having or using an input device such as a remote controller or a keyboard. However, the technique described in Patent Document 1 uses a predetermined object such as a penlight in order to recognize the start and end timing of a gesture. Therefore, the advantage of the input device using the above gesture cannot be obtained, and the gesture recognition device described in Patent Document 1 is inconvenient for the user.

また、特許文献2に記載の技術では、ジェスチャを認識するための物を必要としないが、ユーザの意図しない動作も、制御対象機器を操作するためのジェスチャとして認識するため、制御対象機器が誤動作する虞がある。   Further, in the technology described in Patent Document 2, an object for recognizing a gesture is not required, but an operation unintended by the user is recognized as a gesture for operating the control target device. There is a risk of doing.

また、特許文献3に記載の技術は、所定のジェスチャを認識し、かつ、制御機器の方向にユーザの顔が向いている場合、当該制御機器を制御する対象の機器として選択したり、ジェスチャに基づく制御を実行したりする。特許文献3には、ユーザが操作対象の制御機器の方向を向いた状態で行われたジェスチャは、ユーザが意図したジェスチャである可能性が高いと記載されている。   Further, the technique described in Patent Literature 3 recognizes a predetermined gesture and, when the user's face is facing in the direction of the control device, selects the control device as a target device to be controlled, Based control. Patent Document 3 describes that a gesture performed in a state where the user faces the operation target control device is likely to be a gesture intended by the user.

しかしながら、制御機器が動作中の場合、ユーザが制御機器を見ている(監視している)ことは普通に考えられることであり、ユーザの視線が制御機器を向いている場合であっても、ユーザが意図せず制御機器を操作するためのジェスチャを行ってしまうことは十分に考えられる。   However, when the control device is in operation, it is normally considered that the user is watching (monitoring) the control device, and even if the user's line of sight is facing the control device, It is sufficiently conceivable that the user performs a gesture for operating the control device unintentionally.

例えば、制御機器がテレビの場合、テレビが動作中、ユーザの顔はテレビの方向に向いていることが多く、ユーザの視線方向を検出することでは、ジェスチャがユーザの意図したものであるか否かを正確に判別することは難しい。   For example, if the control device is a television, the user's face is often facing the direction of the television while the television is operating, and detecting whether the user's line of sight indicates whether the gesture is intended by the user It is difficult to determine exactly.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐジェスチャ入力装置およびジェスチャ入力装置の制御方法を実現することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a gesture input device and a gesture input device control method that prevent erroneous recognition of an operation that is not intended by the user as an effective gesture. There is.

本発明に係るジェスチャ入力装置は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えることを特徴としている。   A gesture input device according to the present invention is a gesture input device that controls a control device based on a user's gesture operation in order to solve the above-described problem, and a gesture detection unit that detects a gesture from an image captured by a camera. Determining that the first gesture is included from the gesture detected by the gesture detection unit, and determining that the second gesture is included from the gesture detected by the gesture detection unit. The second gesture determining means, and the period in which the first gesture determining means determines that the first gesture is included is defined as a second gesture valid period in which recognition of the second gesture is valid, If the second gesture is included in the two gesture valid period, the second gesture determination hand A control signal generating unit that generates a control signal based on the second gesture and a transmission unit that transmits the control signal generated by the control signal generating unit to the control device. Yes.

本発明に係るジェスチャ入力装置の制御方法は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置の制御方法であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含むことを特徴としている。   In order to solve the above-described problem, a gesture input device control method according to the present invention is a gesture input device control method for controlling a control device based on a user's gesture operation, and is based on an image captured by a camera. A gesture detection step for detecting the first gesture, a first gesture determination step for determining that the first gesture is included in the gesture detected in the gesture detection step, and a second gesture for the gesture detected in the gesture detection step. A second gesture determination step for determining whether the second gesture is included, and a period during which the first gesture determination step determines that the first gesture is included in the first gesture determination step. 2 gesture valid period, the second gesture valid period A control signal generating step for generating a control signal based on the second gesture when the second gesture determining step determines that the second gesture is included therein; and And a transmission step of transmitting to the network.

上記の構成によれば、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャを、上記制御信号を生成するための有効なものとする。そして、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、含まれていると判断した第2ジェスチャに対応する制御信号を生成し、上記送信手段が当該制御信号を制御機器に送信する。   According to the above configuration, the control signal generation unit is configured such that the second gesture determination unit determines that the second gesture determination unit includes the gesture detected by the gesture detection unit during the second gesture valid period. Is effective for generating the control signal. The control signal generation means generates a control signal corresponding to the second gesture that the second gesture determination means determines to be included in the second gesture valid period, and the transmission means A control signal is transmitted to the control device.

換言すると、上記制御信号生成手段は、上記第2ジェスチャ有効期間中に上記第2ジェスチャ判断手段が判断したものでなければ、上記第2ジェスチャ判断手段が含まれていると判断した第2ジェスチャであっても、当該第2ジェスチャに基づいて上記制御信号を生成しない。   In other words, the control signal generation means is the second gesture that is determined to include the second gesture determination means unless the second gesture determination means determines during the second gesture valid period. Even if it exists, the said control signal is not produced | generated based on the said 2nd gesture.

そのため、ユーザが意図せず第2ジェスチャをしたとしても、ユーザが同時に第1ジェスチャをしていなければ、上記制御信号生成手段が当該第2ジェスチャに基づいて制御信号を生成することはない。従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。   Therefore, even if the user makes the second gesture unintentionally, the control signal generation unit does not generate a control signal based on the second gesture unless the user simultaneously makes the first gesture. Therefore, the gesture input device can prevent malfunction due to the user making the second gesture unintentionally by the process of validating only the second gesture during the period in which the first gesture is recognized.

本発明に係るジェスチャ入力装置は、上記制御信号生成手段は、上記第2ジェスチャと上記制御機器を制御するための制御信号とが対応付けられている制御信号テーブルを参照して、上記制御信号を生成することが好ましい。   In the gesture input device according to the present invention, the control signal generation means refers to a control signal table in which the second gesture and a control signal for controlling the control device are associated with each other, It is preferable to produce.

上記の構成によれば、上記制御信号生成手段は、上記制御信号テーブルを参照し、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャに対応する制御信号を生成する。そのため、予め、制御機器の各種の制御内容を規定する各制御信号に対して、それぞれ異なる第2ジェスチャを対応付けたものを上記制御信号テーブルとして設定することにより、ユーザは、所定の第2ジェスチャを実行することによって、当該第2ジェスチャに対応する制御内容の示す動作を制御機器に実行させることができる。   According to the above configuration, the control signal generation unit refers to the control signal table, and the second gesture determination unit is included in the gesture detected by the gesture detection unit during the second gesture valid period. A control signal corresponding to the second gesture determined to be present is generated. For this reason, the user can set a predetermined second gesture by previously setting each control signal defining various control contents of the control device in association with a different second gesture as the control signal table. By executing this, it is possible to cause the control device to execute the operation indicated by the control content corresponding to the second gesture.

本発明に係るジェスチャ入力装置は、上記第1ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第1ジェスチャ判断手段が含まれていると判断した第1ジェスチャに対応する上記制御機器を特定する制御機器特定手段をさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。   The gesture input device according to the present invention refers to a device selection table in which the first gesture and the control device are associated with each other, and determines the first gesture determined to include the first gesture determination unit. Preferably, the control device specifying means for specifying the corresponding control device is further provided, and the transmission means transmits the control signal to the control device specified by the control device specifying means.

上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第1ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第1ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第1ジェスチャ判断手段の判断した第1ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。   According to the above configuration, the control device specifying unit refers to the device selection table and applies the first gesture determined by the first gesture determination unit to be included in the gesture detected by the gesture detection unit. The corresponding control device is specified, and the transmission means transmits the control signal generated by the control signal generation means to the control device specified by the control device specification means. That is, the transmission means can transmit a control signal only to the control device corresponding to the first gesture determined by the first gesture determination means.

そのため、ユーザは、予め上記第1ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第2ジェスチャを有効にするための第1ジェスチャを用いて、所望の制御機器のみを動作させることができる。従って、ユーザは、動作対象の制御機器を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御機器のみを動作させることができる。   Therefore, the user knows (sets) the correspondence relationship between the first gesture and the control device in advance, and operates only the desired control device using the first gesture for enabling the second gesture. be able to. Therefore, the user can operate only the desired control device without performing an extra operation (for example, another gesture) in order to select the control device to be operated.

本発明に係るジェスチャ入力装置は、上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段とをさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。   In the gesture input device according to the present invention, the third gesture determination unit that determines that the third gesture is included from the gesture detected by the gesture detection unit, the third gesture, and the control device are associated with each other. A control device specifying means for specifying the control device corresponding to the third gesture determined to include the third gesture determination means with reference to the device selection table, wherein the transmission means comprises: The control signal is preferably transmitted to the control device specified by the control device specifying means.

上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第3ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第3ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第3ジェスチャ判断手段の判断した第3ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。   According to the above configuration, the control device specifying unit refers to the device selection table, and determines the third gesture determined that the third gesture determination unit is included in the gesture detected by the gesture detection unit. The corresponding control device is specified, and the transmission means transmits the control signal generated by the control signal generation means to the control device specified by the control device specification means. That is, the transmission means can transmit a control signal only to the control device corresponding to the third gesture determined by the third gesture determination means.

そのため、ユーザは、予め上記第3ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第3ジェスチャを用いて所望の制御機器のみを動作させることができる。従って、ユーザは、所望の制御機器を選択して、選択した制御機器のみを動作させることができる。   Therefore, the user can operate only the desired control device using the third gesture by knowing (setting) the correspondence relationship between the third gesture and the control device in advance. Therefore, the user can select a desired control device and operate only the selected control device.

本発明に係るジェスチャ入力装置は、ユーザを認証するユーザ認証手段をさらに備え、
上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することが好ましい。
The gesture input device according to the present invention further comprises user authentication means for authenticating a user,
Preferably, the gesture detection unit detects a gesture of a user authenticated by the user authentication unit.

上記の構成によれば、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出する。換言すると、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャのみを検出する。   According to said structure, the said gesture detection means detects the gesture of the user who the said user authentication means authenticated. In other words, the gesture detection unit detects only the gesture of the user authenticated by the user authentication unit.

そのため、仮に、上記カメラが撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、上記ジェスチャ検出手段は、上記カメラが撮像した画像のうち、上記ユーザ認証手段が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、上記ジェスチャ入力装置(上記ジェスチャ検出手段、上記第1ジェスチャ判断手段および上記第2ジェスチャ判断手段)が実行する処理負荷を低減することができる。   Therefore, even if the image captured by the camera includes a gesture of another person or a background image that is erroneously detected as a gesture, the gesture detection unit does not detect the image captured by the camera. Of these, only the body image of the user authenticated by the user authentication means is set as a gesture detection target area. Therefore, it is possible to reduce the processing load executed by the gesture input device (the gesture detection unit, the first gesture determination unit, and the second gesture determination unit).

本発明に係るジェスチャ入力装置は、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいて、ユーザを認証することが好ましい。   In the gesture input device according to the present invention, it is preferable that the user authentication unit authenticates the user based on an image captured by the camera.

上記の構成によれば、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいてユーザを認証する。換言すると、上記ユーザ認証手段は、ユーザのジェスチャを認識するための画像に基づいてユーザを認証する。そのため、ユーザの画像を利用しないでユーザを認証する他の認証方法と比較して、ユーザを認証するための装置の構成を簡素化することができる。   According to said structure, the said user authentication means authenticates a user based on the image which the said camera imaged. In other words, the user authentication means authenticates the user based on the image for recognizing the user's gesture. Therefore, the configuration of the device for authenticating the user can be simplified as compared with other authentication methods for authenticating the user without using the user image.

なお、上記ジェスチャ入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ジェスチャ入力装置の各手段として動作させることにより、上記ジェスチャ入力装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The gesture input device may be realized by a computer. In this case, a control program for realizing the gesture input device by a computer by causing the computer to operate as each unit of the gesture input device, and A computer-readable recording medium on which it is recorded also falls within the scope of the present invention.

以上のように、本発明に係るジェスチャ入力装置は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えている構成である。   As described above, the gesture input device according to the present invention determines from the image captured by the camera that the first gesture is included from the gesture detection unit that detects the gesture and the gesture detected by the gesture detection unit. First gesture determination means, second gesture determination means for determining that the second gesture is included from the gesture detected by the gesture detection means, and the first gesture when the first gesture is included. The period determined by the determination means is set as a second gesture effective period for validating the recognition of the second gesture, and the second gesture determination means when the second gesture is included in the second gesture effective period. Control signal generating means for generating a control signal based on the second gesture when the determination is made, and The control signal is control signal generating means to generate a configuration and a transmitting means for transmitting to the control device.

また、本発明に係るジェスチャ入力装置の制御方法は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含む。   In the gesture input device control method according to the present invention, the gesture detection step of detecting a gesture from the image captured by the camera, and the first gesture is included in the gesture detected in the gesture detection step. A first gesture determining step for determining; a second gesture determining step for determining that the gesture detected in the gesture detecting step includes the second gesture; and the first gesture determining step for determining whether the second gesture is included in the gesture detected in the gesture detecting step. A period determined to be included is a second gesture effective period for validating recognition of the second gesture, and the second gesture is included in the second gesture determining step during the second gesture effective period. When it is determined that the second It includes a control signal generating step of generating a control signal based on tea, and a transmission step of transmitting the control signal to the control device.

従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという簡単な処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。   Therefore, the gesture input device can prevent malfunction due to the user performing the second gesture unintentionally by a simple process of validating only the second gesture during the period in which the first gesture is recognized. it can.

本発明の第1の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates a first exemplary embodiment of the present invention, and is a block diagram illustrating an example of a main configuration of a gesture input device. 上記ジェスチャ入力装置が備える記憶部に格納されている判定ジェスチャ情報の一例を示す図である。It is a figure which shows an example of the determination gesture information stored in the memory | storage part with which the said gesture input device is provided. 上記記憶部に格納されている操作ジェスチャ情報の一例を示す図である。It is a figure which shows an example of the operation gesture information stored in the said memory | storage part. 上記記憶部に格納されている制御信号テーブルの一例を示す図である。It is a figure which shows an example of the control signal table stored in the said memory | storage part. 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the gesture recognition process in the said gesture input device. 上記ジェスチャ入力装置が制御信号を送信する送信先である制御対象機器の記憶部に格納されている処理制御テーブルの一例を示す図である。It is a figure which shows an example of the process control table stored in the memory | storage part of the control object apparatus which is a transmission destination which the said gesture input device transmits a control signal. 上記ジェスチャ入力装置が備える記憶部に格納されている操作ジェスチャテーブルの一例を示す図である。It is a figure which shows an example of the operation gesture table stored in the memory | storage part with which the said gesture input device is provided. 本発明の第2の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。It is a block diagram which shows the 2nd Embodiment of this invention and shows an example of the principal part structure of a gesture input device. 上記ジェスチャ入力装置が備える記憶部に格納されている機器選択テーブルの一例を示す図である。It is a figure which shows an example of the apparatus selection table stored in the memory | storage part with which the said gesture input device is provided. 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the gesture recognition process in the said gesture input device. 本発明の第3の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。It is a block diagram which shows the 3rd Embodiment of this invention and shows an example of the principal part structure of a gesture input device. 上記ジェスチャ入力装置が備える記憶部に格納されている個人特定テーブルの一例を示す図である。It is a figure which shows an example of the individual specific table stored in the memory | storage part with which the said gesture input device is provided. 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the gesture recognition process in the said gesture input device. 上記ジェスチャ入力装置が備える記憶部に格納されている判定ジェスチャテーブルの一例を示す図である。It is a figure which shows an example of the determination gesture table stored in the memory | storage part with which the said gesture input device is provided.

<第1の実施形態>
本発明の第1の実施形態について図1から図7に基づいて説明すると以下の通りである。
<First Embodiment>
The first embodiment of the present invention will be described with reference to FIGS. 1 to 7 as follows.

〔ジェスチャ入力装置の構成〕
図1は、ジェスチャ入力装置1の要部構成の一例を示すブロック図である。図1に示すように、ジェスチャ入力装置1は、制御部11、記憶部12、画像入力部13および通信部14を備えている。なお、ジェスチャ入力装置1は、表示部、操作部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
[Configuration of gesture input device]
FIG. 1 is a block diagram illustrating an example of a main configuration of the gesture input device 1. As shown in FIG. 1, the gesture input device 1 includes a control unit 11, a storage unit 12, an image input unit 13, and a communication unit 14. The gesture input device 1 may include members such as a display unit, an operation unit, a voice input unit, and a voice output unit, but these members are not shown because they are not related to the features of the invention.

画像入力部13は、カメラ2が撮像した画像を取得するものである。本発明では、カメラ2は、ユーザの全身またはその一部を撮像するものであり、画像入力部13は、ユーザの全身またはその一部を含む画像を取得する。   The image input unit 13 acquires an image captured by the camera 2. In the present invention, the camera 2 images the whole body of the user or a part thereof, and the image input unit 13 acquires an image including the whole body of the user or a part thereof.

通信部14は、無線通信手段または有線通信手段によって、制御対象機器(制御機器)3等の他の装置と通信を行い、制御部11の指示に従って、データのやりとりを行うものである。具体的には、通信部14は、制御部11の指示に従って、制御対象機器3に制御信号を送信する。   The communication unit 14 communicates with other devices such as the control target device (control device) 3 by wireless communication means or wired communication means, and exchanges data according to instructions from the control unit 11. Specifically, the communication unit 14 transmits a control signal to the control target device 3 in accordance with an instruction from the control unit 11.

制御対象機器3とは、例えば、テレビ、エアコン、PC等の家電機器である。ただし、これに限るものではなく、制御信号を受信し、受信した制御信号に基づいて処理を実行する機器であれば何でもよい。   The control target device 3 is a home appliance such as a television, an air conditioner, and a PC. However, the present invention is not limited to this, and any device that receives a control signal and executes processing based on the received control signal may be used.

制御部11は、記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1が備える各部を統括的に制御するものである。   The control unit 11 performs various calculations by executing a program read from the storage unit 12 to a temporary storage unit (not shown), and comprehensively controls each unit included in the gesture input device 1. is there.

本実施形態では、制御部11は、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22および機器制御部(制御信号生成手段、送信手段)23を備える構成である。これらの制御部11の各機能ブロック(21〜23)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。   In the present embodiment, the control unit 11 includes a determination gesture recognition unit 21, an operation gesture recognition unit 22, and a device control unit (control signal generation unit, transmission unit) 23 as functional blocks. Each functional block (21 to 23) of the control unit 11 includes a CPU (central processing unit) that stores a program stored in a storage device realized by a ROM (read only memory) or the like (RAM (random access memory)). This can be realized by reading out and executing the temporary storage unit realized by the above.

判定ジェスチャ認識部21は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。   The determination gesture recognition unit 21 acquires an image from the image input unit 13, detects a user's gesture from the acquired image, and determines whether the detected gesture includes the determination gesture.

ここで、ユーザのジェスチャとは、顔(目、口等)、手、腕、胴、脚等のユーザの身体の所定の形状もしくは所定の動作、または、それらの組み合わせを意味する。例えば、ジェスチャの例として、左手の掌を握った状態(握り拳)、右手の掌を開いた状態で上下に振る動作、左足を上げた状態、顔の向き(視線方向)、目の開閉動作(まばたき)、口を開く動作等がある。   Here, the user's gesture means a predetermined shape or a predetermined motion of the user's body such as a face (eyes, mouth, etc.), hand, arm, torso, leg, or a combination thereof. For example, gestures include the left hand palm gripping (grench fist), the right hand palm open and swinging up and down, the left leg raised, the face direction (gaze direction), and the eye opening and closing motion ( Blinking) and opening the mouth.

また、判定ジェスチャ(第1ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、後述の操作ジェスチャの認識を有効にするためのジェスチャである。   The determination gesture (first gesture) is one or a plurality of predetermined gestures determined in advance, and is a gesture for enabling recognition of an operation gesture described later.

判定ジェスチャ認識部21は、具体的には、特定部位情報取得部(ジェスチャ検出手段)31および判定ジェスチャ判断部(第1ジェスチャ判断手段)32を備えている。   Specifically, the determination gesture recognition unit 21 includes a specific part information acquisition unit (gesture detection unit) 31 and a determination gesture determination unit (first gesture determination unit) 32.

特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。   The specific part information acquisition unit 31 acquires an image from the image input unit 13, detects one or a plurality of user gestures from the acquired image, and generates one or a plurality of specific part information indicating the detected gesture It is. The specific part information acquisition unit 31 outputs the generated specific part information to the determination gesture determination unit 32.

なお、特定部位情報とは、換言すると、顔(目、口等)、手、腕、胴、脚等のユーザの特定の部位の形状または動作を示す情報である。つまり、特定部位情報とは、ユーザの所定のジェスチャを示す情報である。   In other words, the specific part information is information indicating the shape or operation of a specific part of the user such as a face (eyes, mouth, etc.), hand, arm, torso, leg. That is, specific part information is information which shows a user's predetermined gesture.

判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断するものである。   The determination gesture determination unit 32 acquires specific part information from the specific part information acquisition unit 31 and reads determination gesture information 41 indicating the determination gesture from the storage unit 12. The determination gesture determination unit 32 determines whether or not the gesture indicated by the acquired specific part information matches the determination gesture indicated by the read determination gesture information 41.

判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致すると判断した場合、その旨(判定ジェスチャ有効通知)を操作ジェスチャ認識部22に通知する。   If the determination gesture determination unit 32 determines that the gesture indicated by the acquired specific part information matches the determination gesture indicated by the read determination gesture information 41, the determination gesture determination unit 32 notifies the operation gesture recognition unit 22 of that fact (determination gesture valid notification). To do.

ここで、判定ジェスチャ有効通知は、判定ジェスチャ判断部32が一致すると判断した判定ジェスチャを示す判定ジェスチャ情報を含むものである。   Here, the determination gesture valid notification includes determination gesture information indicating the determination gesture that the determination gesture determination unit 32 determines to match.

操作ジェスチャ認識部22は、判定ジェスチャ判断部32(判定ジェスチャ認識部21)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。   When the operation gesture recognition unit 22 receives the determination gesture validity notification from the determination gesture determination unit 32 (determination gesture recognition unit 21), the operation gesture recognition unit 22 acquires an image from the image input unit 13, detects a user gesture from the acquired image, It is determined whether or not an operation gesture is included in the detected gesture.

ここで、操作ジェスチャ(第2ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、制御対象機器を制御するためのジェスチャである。   Here, the operation gesture (second gesture) is a predetermined one or a plurality of predetermined gestures, and is a gesture for controlling the device to be controlled.

操作ジェスチャ認識部22は、具体的には、特定部位情報取得部(ジェスチャ検出手段)33および操作ジェスチャ判断部(第2ジェスチャ判断手段)34を備えている。   Specifically, the operation gesture recognition unit 22 includes a specific part information acquisition unit (gesture detection unit) 33 and an operation gesture determination unit (second gesture determination unit) 34.

特定部位情報取得部33は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33は、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。   When receiving the determination gesture validity notification from the determination gesture determination unit 32, the specific part information acquisition unit 33 acquires an image from the image input unit 13. Then, the specific part information acquisition unit 33 detects one or a plurality of user gestures from the acquired image, and generates one or a plurality of specific part information indicating the detected gesture. The specific part information acquisition unit 33 outputs the generated specific part information to the operation gesture determination unit 34.

操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断するものである。   The operation gesture determination unit 34 acquires specific part information from the specific part information acquisition unit 33 and reads operation gesture information 42 indicating the operation gesture from the storage unit 12. Then, the operation gesture determination unit 34 determines whether or not the gesture indicated by the acquired specific part information matches the operation gesture indicated by the read operation gesture information 42.

操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。   If the operation gesture determination unit 34 determines that the gesture indicated by the acquired specific part information matches the operation gesture indicated by the read operation gesture information 42, the operation gesture determination unit 34 notifies the device control unit 23 to that effect (operation gesture valid notification). .

ここで、操作ジェスチャ有効通知は、操作ジェスチャ判断部34が一致すると判断した操作ジェスチャを示す操作ジェスチャ情報を含むものである。   Here, the operation gesture valid notification includes operation gesture information indicating the operation gesture determined by the operation gesture determination unit 34 to match.

機器制御部23は、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。   The device control unit 23 reads the control signal table 43 from the storage unit 12 when receiving the operation gesture validity notification from the operation gesture determination unit 34 (operation gesture recognition unit 22). And the apparatus control part 23 produces | generates the control signal matched with the operation gesture which the operation gesture information contained in the received operation gesture valid notification in the received control signal table 43 shows.

機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する。   The device control unit 23 transmits the generated control signal to the control target device 3 via the communication unit 14.

記憶部12は、制御部11が参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43等を格納している。   The storage unit 12 stores programs, data, and the like that are referred to by the control unit 11, and stores, for example, the determination gesture information 41, the operation gesture information 42, the control signal table 43, and the like.

記憶部12に格納されている判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43についてそれぞれ図2〜4に基づいて説明する。図2は、記憶部12に格納されている判定ジェスチャ情報41の一例を示す図である。また、図3は、記憶部12に格納されている操作ジェスチャ情報42の一例を示す図である。また、図4は、記憶部12に格納されている制御信号テーブル43の一例を示す図である。   The determination gesture information 41, the operation gesture information 42, and the control signal table 43 stored in the storage unit 12 will be described with reference to FIGS. FIG. 2 is a diagram illustrating an example of the determination gesture information 41 stored in the storage unit 12. FIG. 3 is a diagram illustrating an example of the operation gesture information 42 stored in the storage unit 12. FIG. 4 is a diagram illustrating an example of the control signal table 43 stored in the storage unit 12.

図2に示す例では、記憶部12に、「左手の握り拳」のジェスチャを示す判定ジェスチャ情報41と、「右目の開閉動作」のジェスチャを示す判定ジェスチャ情報41とが格納されている。すなわち、図2に示す例では、判定ジェスチャとして、「左手の握り拳」のジェスチャと、「右目の開閉動作」のジェスチャとが予め定められている。   In the example illustrated in FIG. 2, the storage unit 12 stores determination gesture information 41 indicating a “left hand fist” gesture and determination gesture information 41 indicating a “right eye opening / closing operation”. In other words, in the example illustrated in FIG. 2, a “left hand fist” gesture and a “right eye opening / closing operation” gesture are predetermined as the determination gestures.

また、図3に示す例では、記憶部12に、「右手の人差指のみを立てた状態」のジェスチャを示す操作ジェスチャ情報42と、「左手を上下に振る動作」のジェスチャを示す操作ジェスチャ情報42と、「右手を左右に振る動作」のジェスチャを示す操作ジェスチャ情報42とが格納されている。すなわち、図3に示す例では、操作ジェスチャとして、「右手の人差指のみを立てた状態」のジェスチャと、「左手を上下に振る動作」のジェスチャと、「右手を左右に振る動作」のジェスチャとが予め定められている。   Further, in the example illustrated in FIG. 3, the operation gesture information 42 indicating the gesture of “a state where only the index finger of the right hand is raised” and the operation gesture information 42 indicating the gesture of “waving the left hand up and down” are stored in the storage unit 12. And operation gesture information 42 indicating a gesture of “movement of shaking the right hand from side to side” is stored. That is, in the example shown in FIG. 3, as the operation gestures, a gesture of “a state where only the index finger of the right hand is raised”, a gesture of “swinging the left hand up and down”, and a gesture of “swinging the right hand left and right” Is predetermined.

また、図4に示すように、制御信号テーブル43は、制御信号と操作ジェスチャとが対応付けられているものである。図4に示す例では、制御信号「S01」と「右手の人差指のみを立てた状態」のジェスチャとが対応付けられており、制御信号「S02」と「左手を上下に振る動作」のジェスチャとが対応付けられており、制御信号「S03」と「右手を左右に振る動作」のジェスチャとが対応付けられている。   As shown in FIG. 4, the control signal table 43 is a table in which control signals and operation gestures are associated with each other. In the example shown in FIG. 4, the control signal “S01” and the gesture “only the right index finger are raised” are associated with each other, and the control signal “S02” and “the gesture of shaking the left hand up and down” Are associated with each other, and the control signal “S03” is associated with the gesture of “swinging the right hand to the left and right”.

図2〜4に示す判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43が記憶部12に格納されている場合、例えば、判定ジェスチャ認識部21が「左手の握り拳」のジェスチャおよび「右目の開閉動作」のジェスチャの少なくとも何れか1つを認識している間に、操作ジェスチャ認識部22が「右手の人差指のみを立てた状態」のジェスチャを認識すると、機器制御部23は、制御信号「S01」を制御対象機器3に送信する。   When the determination gesture information 41, the operation gesture information 42, and the control signal table 43 illustrated in FIGS. 2 to 4 are stored in the storage unit 12, for example, the determination gesture recognition unit 21 performs the “left hand fist” gesture and the “right eye” When the operation gesture recognizing unit 22 recognizes a gesture of “only the right index finger is raised” while recognizing at least one of the gestures of “open / close operation”, the device control unit 23 controls the control signal “ S01 "is transmitted to the control target device 3.

このように、記憶部12に判定ジェスチャ情報41が複数格納されている場合、判定ジェスチャ認識部21が何れかの判定ジェスチャを認識している期間が、操作ジェスチャ認識部22による操作ジェスチャの認識を有効にする期間である。   As described above, when a plurality of determination gesture information 41 is stored in the storage unit 12, the operation gesture recognition unit 22 recognizes the operation gesture during the period in which the determination gesture recognition unit 21 recognizes any of the determination gestures. This is the period to enable.

なお、図2および3に示す例では、記憶部12に判定ジェスチャ情報41および操作ジェスチャ情報42がそれぞれ複数格納されているが、これに限るものではない。判定ジェスチャおよび操作ジェスチャは、それぞれ、少なくとも1つ予め定められていればよいため、記憶部12は、少なくとも1つの判定ジェスチャ情報41および操作ジェスチャ情報42をそれぞれ格納していればよい。   In the example shown in FIGS. 2 and 3, a plurality of determination gesture information 41 and a plurality of operation gesture information 42 are stored in the storage unit 12, but the present invention is not limited to this. Since at least one determination gesture and operation gesture need only be determined in advance, the storage unit 12 may store at least one determination gesture information 41 and operation gesture information 42, respectively.

〔ジェスチャ認識処理〕
次に、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理について図5に基づいて説明する。図5は、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, a gesture recognition process in the gesture input device 1 according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1 according to the first embodiment.

ここで、ジェスチャ認識処理とは、ジェスチャ入力装置1がカメラ2から画像を取得し、取得した画像から判定ジェスチャおよび操作ジェスチャを認識し、認識した操作ジェスチャに基づく制御信号を制御対象機器に送信するまでの一連の処理を示す。   Here, the gesture recognition process is a process in which the gesture input device 1 acquires an image from the camera 2, recognizes a determination gesture and an operation gesture from the acquired image, and transmits a control signal based on the recognized operation gesture to the control target device. A series of processes up to are shown.

図5に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S1)。次に、判定ジェスチャ認識部21の特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S2)。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。   As shown in FIG. 5, the image input unit 13 acquires an image captured by the camera 2 (S1). Next, the specific part information acquisition unit 31 of the determination gesture recognition unit 21 acquires an image from the image input unit 13, detects one or more user gestures from the acquired image, and indicates the specific part indicating the detected gesture One or more pieces of information are generated (S2). The specific part information acquisition unit 31 outputs the generated specific part information to the determination gesture determination unit 32.

判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S3)。   The determination gesture determination unit 32 acquires specific part information from the specific part information acquisition unit 31 and reads determination gesture information 41 indicating the determination gesture from the storage unit 12. Then, the determination gesture determination unit 32 determines whether or not the gesture indicated by the acquired specific part information matches the determination gesture indicated by the read determination gesture information 41 (S3).

ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S3でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S3でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22に通知する。   Here, when the determination gesture determination unit 32 determines that the gestures indicated by all the acquired specific part information do not match the determination gesture indicated by the read (any) determination gesture information 41 (NO in S3), S1 The image input unit 13 acquires the next image captured by the camera 2. On the other hand, when the determination gesture determination unit 32 determines that the gesture indicated by any acquired specific part information matches the determination gesture indicated by the read (any) determination gesture information 41 (YES in S3), the determination gesture The determination unit 32 notifies the operation gesture recognition unit 22 of a determination gesture validity notification.

操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S4)。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。   When receiving the determination gesture validity notification, the specific part information acquisition unit 33 of the operation gesture recognition unit 22 acquires an image from the image input unit 13, detects one or a plurality of user gestures from the acquired image, and detects them. One or more specific part information indicating a gesture is generated (S4). The specific part information acquisition unit 33 outputs the generated specific part information to the operation gesture determination unit 34.

操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S5)。   The operation gesture determination unit 34 acquires specific part information from the specific part information acquisition unit 33 and reads operation gesture information 42 indicating the operation gesture from the storage unit 12. Then, the operation gesture determination unit 34 determines whether or not the gesture indicated by the acquired specific part information matches the operation gesture indicated by the read operation gesture information 42 (S5).

ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S5でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S5でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。   When the operation gesture determination unit 34 determines that the gestures indicated by all the acquired specific part information do not match the operation gesture indicated by the read (any) operation gesture information 42 (NO in S5), S1 The image input unit 13 acquires the next image captured by the camera 2. On the other hand, when the operation gesture determination unit 34 determines that the gesture indicated by any one of the acquired specific part information matches the operation gesture indicated by the read (any) operation gesture information 42 (YES in S5), the operation gesture The determination unit 34 notifies the device control unit 23 of an operation gesture validity notification including operation gesture information indicating the matched operation gesture.

機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S6)。   The device control unit 23 reads the control signal table 43 from the storage unit 12 when receiving the operation gesture validity notification from the operation gesture determination unit 34. And the apparatus control part 23 produces | generates the control signal matched with the operation gesture which the operation gesture information contained in the received operation gesture information in the received control signal table 43 shows (S6).

機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S7)。この後、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。   The device control unit 23 transmits the generated control signal to the control target device 3 via the communication unit 14 (S7). Thereafter, returning to S1, the image input unit 13 acquires the next image captured by the camera 2.

ところで、機器制御部23から制御信号を受信した制御対象機器3は、受信した制御信号に基づいて所定の処理を実行する。具体的には、例えば、制御対象機器3は、不図示の記憶部を備えており、制御信号を受信すると、当該記憶部から処理制御テーブルを読み出し、読み出した処理制御テーブルにおいて、受信した制御信号に対応付けられている処理を実行する。   By the way, the control target device 3 that has received the control signal from the device control unit 23 executes a predetermined process based on the received control signal. Specifically, for example, the control target device 3 includes a storage unit (not shown). When a control signal is received, the process control table is read from the storage unit, and the received control signal is read from the read process control table. The process associated with is executed.

より詳細には、例えば、機器制御部23が制御信号「S01」を送信し、制御対象機器3の上記記憶部に図6に示す処理制御テーブルが格納されている場合、制御対象機器3は、図6に示す処理制御テーブルにおいて、制御信号「S01」に対応付けられている処理「電源のON/OFFの切替」を実行する。   More specifically, for example, when the device control unit 23 transmits a control signal “S01” and the processing control table shown in FIG. 6 is stored in the storage unit of the control target device 3, the control target device 3 In the process control table shown in FIG. 6, the process “switching power ON / OFF” associated with the control signal “S01” is executed.

このように、機器制御部23は、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22(操作ジェスチャ判断部34)が認識した操作ジェスチャに基づいて、制御信号を生成する。換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22が認識した操作ジェスチャを、上記制御信号を生成するための有効なものとする。   In this way, the device control unit 23 performs the operation recognized by the operation gesture recognition unit 22 (operation gesture determination unit 34) during the period in which the determination gesture recognition unit 21 (determination gesture determination unit 32) recognizes the determination gesture. A control signal is generated based on the gesture. In other words, the device control unit 23 determines that the operation gesture recognized by the operation gesture recognition unit 22 during the period when the determination gesture recognition unit 21 recognizes the determination gesture is effective for generating the control signal. To do.

つまり、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に操作ジェスチャ認識部22が認識した操作ジェスチャでなければ、操作ジェスチャ認識部22が認識した操作ジェスチャであっても、当該操作ジェスチャに基づいて制御信号を生成しない。   That is, the device control unit 23 is an operation gesture recognized by the operation gesture recognition unit 22 unless the operation gesture recognition unit 22 recognizes the operation gesture during the period in which the determination gesture recognition unit 21 recognizes the determination gesture. However, the control signal is not generated based on the operation gesture.

そのため、ユーザが意図せず操作ジェスチャをしたとしても、ユーザが同時に判定ジェスチャをしていなければ、機器制御部23が当該操作ジェスチャに基づいて制御信号を生成することはない。従って、ジェスチャ入力装置1は、判定ジェスチャを認識している期間中の操作ジェスチャのみを有効とするという簡単な処理によって、ユーザの意図しない動作(操作ジェスチャ)を有効なジェスチャとして誤認識することを防ぐ。   Therefore, even if the user makes an operation gesture unintentionally, the device control unit 23 does not generate a control signal based on the operation gesture unless the user makes a determination gesture at the same time. Therefore, the gesture input device 1 recognizes erroneously an operation (operation gesture) that is not intended by the user as an effective gesture by a simple process of validating only the operation gesture during the period in which the determination gesture is recognized. prevent.

〔変形例1〕
本実施形態では、図1に示すように、ジェスチャ入力装置1と、カメラ2と、制御対象機器3とが別体となっているが、これに限るものではない。例えば、ジェスチャ入力装置1は、カメラ2もしくは制御対象機器3と一体となっていてもよいし、カメラ2および制御対象機器3と一体となっていてもよい。
[Modification 1]
In the present embodiment, as shown in FIG. 1, the gesture input device 1, the camera 2, and the control target device 3 are separated, but the present invention is not limited to this. For example, the gesture input device 1 may be integrated with the camera 2 or the control target device 3, or may be integrated with the camera 2 and the control target device 3.

〔変形例2〕
また、本実施形態では、記憶部12に操作ジェスチャ情報42が格納されているが、操作ジェスチャ情報42の代わりに、操作ジェスチャテーブルが格納されていてもよい。操作ジェスチャテーブルとは、操作ジェスチャと判定ジェスチャとが対応付けられているものである。
[Modification 2]
In the present embodiment, the operation gesture information 42 is stored in the storage unit 12, but an operation gesture table may be stored instead of the operation gesture information 42. The operation gesture table is a table in which an operation gesture and a determination gesture are associated with each other.

この場合、操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャと判定ジェスチャとが対応付けられた操作ジェスチャテーブルを読み出すと共に、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信する。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致するか否かを判断する。   In this case, the operation gesture determination unit 34 acquires the specific part information from the specific part information acquisition unit 33, reads out the operation gesture table in which the operation gesture and the determination gesture are associated from the storage unit 12, and determines the determination gesture. A determination gesture valid notification is received from the determination unit 32. The operation gesture determination unit 34 then matches the gesture indicated by the acquired specific part information with the operation gesture associated with the determination gesture indicated by the determination gesture information included in the determination gesture validity notification in the read operation gesture table. Judge whether to do.

操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。   The operation gesture determination unit 34 determines that the gesture indicated by the acquired specific part information matches the operation gesture associated with the determination gesture indicated by the determination gesture information included in the determination gesture validity notification in the read operation gesture table. If so, the device control unit 23 is notified of this (operation gesture valid notification).

例えば、記憶部12に図7に示す操作ジェスチャテーブルが格納されているとする。このとき、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、「左手の握り拳」の判定ジェスチャに対応付けられている「右手の人差指のみを立てた状態」のジェスチャか、もしくは、「左手を上下に振る動作」のジェスチャであれば、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。   For example, it is assumed that the operation gesture table shown in FIG. At this time, when the determination gesture determination unit 32 recognizes the determination gesture of “left hand fist”, the operation gesture determination unit 34 associates the gesture indicated by the acquired specific part information with the determination gesture of “left hand fist”. If the gesture is a “right hand index finger only” gesture or a “left hand up / down motion” gesture, the device will send an operation gesture valid notification that includes the operation gesture information indicating the matching operation gesture. The control unit 23 is notified.

また、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34の取得した特定部位情報の示すジェスチャが「右手を左右に振る動作」のジェスチャであったとしても、操作ジェスチャ判断部34は、操作ジェスチャと一致していないと判断する。   In addition, when the determination gesture determination unit 32 recognizes the determination gesture of “left hand fist”, the gesture indicated by the specific part information acquired by the operation gesture determination unit 34 is a gesture of “swinging the right hand left and right”. In addition, the operation gesture determination unit 34 determines that the operation gesture does not match.

なお、操作ジェスチャテーブルは、図7に示すように、操作ジェスチャと判定ジェスチャとが1対1または1対多で対応付けられていてもよいし、例示していないが、操作ジェスチャと判定ジェスチャとが多対1または多対多で対応付けられていてもよい。   In the operation gesture table, as shown in FIG. 7, the operation gesture and the determination gesture may be associated one-to-one or one-to-many, and although not illustrated, the operation gesture and the determination gesture May be associated in many-to-one or many-to-many.

〔変形例3〕
また、本実施形態では、判定ジェスチャ認識部21が判定ジェスチャを認識しているときに、操作ジェスチャ認識部22が操作ジェスチャの認識処理を実行しているが、これに限るものではない。例えば、判定ジェスチャ認識部21の判定ジェスチャの認識処理と、操作ジェスチャ認識部22の操作ジェスチャの認識処理を並列に実行させてもよい。
[Modification 3]
In the present embodiment, the operation gesture recognition unit 22 performs the operation gesture recognition process when the determination gesture recognition unit 21 recognizes the determination gesture. However, the present invention is not limited to this. For example, the determination gesture recognition process of the determination gesture recognition unit 21 and the operation gesture recognition process of the operation gesture recognition unit 22 may be executed in parallel.

この場合、判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャ、操作ジェスチャが含まれているか否かを判断する。判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、判定ジェスチャ、操作ジェスチャが含まれていると判断すると、その旨を示す判定ジェスチャ有効通知、操作ジェスチャ有効通知を機器制御部23に送信する。   In this case, each of the determination gesture recognition unit 21 and the operation gesture recognition unit 22 acquires an image from the image input unit 13, detects a user gesture from the acquired image, and the determination gesture and the operation gesture are included in the detected gesture. Determine whether it is included. If the determination gesture recognition unit 21 and the operation gesture recognition unit 22 determine that the determination gesture and the operation gesture are included, the determination gesture recognition unit 21 and the operation gesture recognition unit 22 respectively transmit a determination gesture valid notification and an operation gesture valid notification indicating the fact to the device control unit 23. .

機器制御部23は、判定ジェスチャ有効通知および操作ジェスチャ有効通知の両方を受信している場合、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成する。   When both the determination gesture valid notification and the operation gesture valid notification are received, the device control unit 23 generates a control signal based on the operation gesture indicated by the received manipulation gesture valid notification.

換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間を、操作ジェスチャ認識部22による操作ジェスチャの認識を有効とする操作ジェスチャ有効期間(第2ジェスチャ有効期間)として設定する。そして、機器制御部23は、操作ジェスチャ認識部22が上記操作ジェスチャ有効期間中に認識した操作ジェスチャに基づいて制御信号を生成する。   In other words, the device control unit 23 is a period during which the determination gesture recognition unit 21 recognizes the determination gesture, and an operation gesture effective period (second gesture effective period) in which the operation gesture recognition unit 22 recognizes the operation gesture. Set as. And the apparatus control part 23 produces | generates a control signal based on the operation gesture which the operation gesture recognition part 22 recognized during the said operation gesture effective period.

なお、制御信号テーブルにおいて制御信号と操作ジェスチャと判定ジェスチャとが対応付けられている場合、機器制御部23は、受信した判定ジェスチャ有効通知の示す判定ジェスチャ、および、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成してもよい。
<第2の実施形態>
本発明の第2の実施形態について図8から図10に基づいて説明すれば、以下のとおりである。
When the control signal, the operation gesture, and the determination gesture are associated with each other in the control signal table, the device control unit 23 indicates the determination gesture indicated by the received determination gesture validity notification and the received operation gesture validity notification. A control signal may be generated based on the operation gesture.
<Second Embodiment>
The following describes the second embodiment of the present invention with reference to FIGS.

第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャに基づいて、複数の制御対象機器の中から1つ選択し、選択した制御対象機器に対して操作ジェスチャに基づく制御信号を送信するものである。第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャを認識している期間中にのみ、操作ジェスチャの認識を有効にするという点では、第1の実施形態に係るジェスチャ入力装置と同じである。以下では、第2の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。   The gesture input device according to the second embodiment selects one of a plurality of control target devices based on the determination gesture, and transmits a control signal based on the operation gesture to the selected control target device. is there. The gesture input device according to the second embodiment is the same as the gesture input device according to the first embodiment in that recognition of an operation gesture is enabled only during a period in which a determination gesture is recognized. . Hereinafter, features that are different from the gesture input device according to the first embodiment in the gesture input device according to the second embodiment will be mainly described.

なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。   For convenience of explanation, members having the same functions as those shown in the first embodiment are given the same reference numerals, and explanation thereof is omitted. Further, the terms defined in the first embodiment are used according to the definitions in the present embodiment unless otherwise specified.

〔ジェスチャ入力装置の構成〕
図8は、第2の実施形態に係るジェスチャ入力装置1aの要部構成の一例を示すブロック図である。図8に示すように、ジェスチャ入力装置1aは、制御部11a、記憶部12a、画像入力部13および通信部14を備えている。
[Configuration of gesture input device]
FIG. 8 is a block diagram illustrating an example of a main configuration of the gesture input device 1a according to the second embodiment. As shown in FIG. 8, the gesture input device 1a includes a control unit 11a, a storage unit 12a, an image input unit 13, and a communication unit 14.

第2の実施形態では、ジェスチャ入力装置1aによって制御する対象である制御対象機器3が複数ある。図8に示す例では、制御対象機器3として、テレビ3a、エアコン3bおよびPC3cがある。   In the second embodiment, there are a plurality of control target devices 3 that are targets to be controlled by the gesture input device 1a. In the example illustrated in FIG. 8, the control target device 3 includes a television 3 a, an air conditioner 3 b, and a PC 3 c.

制御部11aは、記憶部12aから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1aが備える各部を統括的に制御するものである。   The control unit 11a performs various calculations by executing a program read from the storage unit 12a to a temporary storage unit (not shown), and comprehensively controls each unit included in the gesture input device 1a. is there.

本実施形態では、制御部11aは、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22、機器制御部23aおよび機器選択部(制御機器特定手段)24を備える構成である。これらの制御部11aの各機能ブロック(21、22、23aおよび24)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。   In the present embodiment, the control unit 11a includes a determination gesture recognition unit 21, an operation gesture recognition unit 22, a device control unit 23a, and a device selection unit (control device specifying unit) 24 as functional blocks. In each functional block (21, 22, 23a and 24) of the control unit 11a, the CPU reads a program stored in a storage device realized by a ROM or the like to a temporary storage unit realized by a RAM or the like. It can be realized by executing.

機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器として特定するものである。   Upon receiving the determination gesture validity notification from the determination gesture determination unit 32, the device selection unit 24 reads the device selection table 44 from the storage unit 12a. Then, the device selection unit 24 controls the transmission destination of the control signal for the control target device associated with the determination gesture indicated by the determination gesture information included in the received determination gesture validity notification in the read device selection table 44. This is specified as the target device.

ここで、機器選択部24が特定した制御信号の送信先の制御対象機器を信号送信先機器と称する。機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。   Here, the control target device of the transmission destination of the control signal specified by the device selection unit 24 is referred to as a signal transmission destination device. The device selection unit 24 transmits signal transmission destination device information indicating the identified signal transmission destination device to the device control unit 23a.

機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。   Upon receiving the operation gesture validity notification from the operation gesture determination unit 34 (operation gesture recognition unit 22), the device control unit 23a reads the control signal table 43 from the storage unit 12a. And the apparatus control part 23a produces | generates the control signal matched with the operation gesture which the operation gesture information contained in the received operation gesture valid notification in the read control signal table 43 shows.

機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する。   The device control unit 23 a receives the signal transmission destination device information from the device selection unit 24, and transmits the generated control signal to the control target device 3 indicated by the received signal transmission destination device information via the communication unit 14.

記憶部12aは、制御部11aが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、機器選択テーブル44等を格納している。   The storage unit 12a stores programs, data, and the like referenced by the control unit 11a. For example, the storage unit 12a stores the determination gesture information 41, the operation gesture information 42, the control signal table 43, the device selection table 44, and the like. Yes.

記憶部12aに格納されている機器選択テーブル44について図9に基づいて説明する。図9は、記憶部12aに格納されている機器選択テーブル44の一例を示す図である。   The device selection table 44 stored in the storage unit 12a will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of the device selection table 44 stored in the storage unit 12a.

図9に示すように、機器選択テーブル44は、判定ジェスチャと制御対象機器3とが対応付けられているものである。図9に示す例では、「左手の握り拳」のジェスチャと制御対象機器「テレビ」とが対応付けられており、「右目の開閉動作」のジェスチャと制御対象機器「エアコン」とが対応付けられており、「左手の人差指および中指のみが立てられた状態」のジェスチャと制御対象機器「PC」とが対応付けられている。   As illustrated in FIG. 9, the device selection table 44 is a table in which the determination gesture and the control target device 3 are associated with each other. In the example shown in FIG. 9, the gesture of “left hand fist” is associated with the control target device “TV”, and the gesture of “right eye opening / closing operation” is associated with the control target device “air conditioner”. In other words, the gesture of “only the left index finger and middle finger are raised” and the control target device “PC” are associated with each other.

記憶部12aに図9に示す機器選択テーブル44が格納されている場合、例えば、判定ジェスチャ認識部21が判定ジェスチャとして「左手の握り拳」のジェスチャを認識すると、機器選択部24は、信号送信先機器としてテレビ3aを特定する。   When the device selection table 44 shown in FIG. 9 is stored in the storage unit 12a, for example, when the determination gesture recognition unit 21 recognizes the gesture of “left hand fist” as the determination gesture, the device selection unit 24 displays the signal transmission destination. The television 3a is specified as the device.

〔ジェスチャ認識処理〕
次に、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理について図10に基づいて説明する。図10は、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, gesture recognition processing in the gesture input device 1a according to the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1a according to the second embodiment.

図10に示すS11〜S13までの処理は、図5に示すS1〜S3までの処理と同様であるため、説明を省略する。   The processes from S11 to S13 shown in FIG. 10 are the same as the processes from S1 to S3 shown in FIG.

ここで、S13において、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S13でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22および機器選択部24に通知する。   Here, in S13, when the determination gesture determination unit 32 determines that the gesture indicated by any acquired specific part information matches the determination gesture indicated by the read (any) determination gesture information 41 (YES in S13). The determination gesture determination unit 32 notifies the operation gesture recognition unit 22 and the device selection unit 24 of the determination gesture validity notification.

機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器(信号送信先機器)として特定する(S14)。   Upon receiving the determination gesture validity notification from the determination gesture determination unit 32, the device selection unit 24 reads the device selection table 44 from the storage unit 12a. Then, the device selection unit 24 controls the transmission destination of the control signal for the control target device associated with the determination gesture indicated by the determination gesture information included in the received determination gesture validity notification in the read device selection table 44. It is specified as the target device (signal transmission destination device) (S14).

機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。   The device selection unit 24 transmits signal transmission destination device information indicating the identified signal transmission destination device to the device control unit 23a.

次に、操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S15)。これ以降の図10に示すS15〜S17までの処理は、図5に示すS4〜S6までの処理と同様であるため、説明を省略する。   Next, when receiving the determination gesture validity notification, the specific part information acquisition unit 33 of the operation gesture recognition unit 22 acquires an image from the image input unit 13 and detects one or more user gestures from the acquired image. One or a plurality of specific part information indicating the detected gesture is generated (S15). The subsequent processing from S15 to S17 shown in FIG. 10 is the same as the processing from S4 to S6 shown in FIG.

S17において、機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する。   In S <b> 17, upon receiving an operation gesture valid notification from the operation gesture determination unit 34 (operation gesture recognition unit 22), the device control unit 23 a reads the control signal table 43 from the storage unit 12 a. And the apparatus control part 23a produces | generates the control signal matched with the operation gesture which the operation gesture information contained in the received operation gesture valid notification in the read control signal table 43 shows.

そして、機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する(S18)。この後、S11に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。   The device control unit 23a receives the signal transmission destination device information from the device selection unit 24, and transmits the generated control signal to the control target device 3 indicated by the received signal transmission destination device information via the communication unit 14. (S18). Thereafter, returning to S11, the image input unit 13 acquires the next image captured by the camera 2.

このように、機器選択部24は、機器選択テーブル44を参照して、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が認識した判定ジェスチャに対応する制御対象機器3を特定し、機器制御部23aは、機器選択部24の特定した制御対象機器3に対して、生成した制御信号を送信する。すなわち、機器制御部23aは、判定ジェスチャ認識部21の認識した判定ジェスチャに対応する制御対象機器3に対してのみ、制御信号を送信することができる。   As described above, the device selection unit 24 refers to the device selection table 44, specifies the control target device 3 corresponding to the determination gesture recognized by the determination gesture recognition unit 21 (determination gesture determination unit 32), and determines the device control unit. 23 a transmits the generated control signal to the control target device 3 specified by the device selection unit 24. That is, the device control unit 23 a can transmit a control signal only to the control target device 3 corresponding to the determination gesture recognized by the determination gesture recognition unit 21.

そのため、ユーザは、予め判定ジェスチャと制御対象機器3の対応関係を知る(機器選択テーブル44を設定する)ことによって、操作ジェスチャを有効にするための判定ジェスチャを用いて、所望の制御対象機器3のみを動作させることができる。従って、ユーザは、動作対象の制御対象機器3を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御対象機器3のみを動作させることができる。   Therefore, the user knows the correspondence relationship between the determination gesture and the control target device 3 in advance (sets the device selection table 44), and uses the determination gesture for validating the operation gesture, thereby using the desired control target device 3. Can only operate. Therefore, the user can operate only the desired control target device 3 without performing an extra operation (for example, another gesture) in order to select the control target device 3 to be operated.

〔変形例4〕
第2の実施形態では、機器選択部24は、判定ジェスチャに基づいて制御対象機器を選択しているが、これに限るものではない。例えば、機器選択部24は、操作ジェスチャに基づいて制御対象機器を選択してもよい。この場合、機器選択テーブル44は、操作ジェスチャと制御対象機器とが対応付けられているものである。
[Modification 4]
In 2nd Embodiment, although the apparatus selection part 24 has selected the control object apparatus based on the determination gesture, it is not restricted to this. For example, the device selection unit 24 may select a control target device based on the operation gesture. In this case, the device selection table 44 is a table in which operation gestures and control target devices are associated with each other.

なお、機器選択部24が操作ジェスチャに基づいて制御対象機器を選択する代わりに、制御信号テーブル43に含まれる制御信号が、制御対象機器ごとの制御内容を示すものであってもよい。つまり、機器制御部23aは、制御信号テーブル43を参照して、操作ジェスチャに対応する制御信号を、当該制御信号の示すまたは対応付けられている制御対象機器に対して送信すればよい。   Instead of the device selection unit 24 selecting the control target device based on the operation gesture, the control signal included in the control signal table 43 may indicate the control content for each control target device. In other words, the device control unit 23a refers to the control signal table 43 and transmits a control signal corresponding to the operation gesture to the control target device indicated or associated with the control signal.

また、機器選択部24は、判定ジェスチャおよび操作ジェスチャと異なる選択ジェスチャ(第3ジェスチャ)に基づいて制御対象機器を選択してもよい。この場合、制御部11aが選択ジェスチャを認識する選択ジェスチャ認識部(特定部位情報取得部および選択ジェスチャ判断部(第3ジェスチャ判断手段))を備えていてもよいし、判定ジェスチャ認識部(第3ジェスチャ判断手段)21または操作ジェスチャ認識部(第3ジェスチャ判断手段)22が選択ジェスチャを認識してもよい。
<第3の実施形態>
本発明の第3の実施形態について図11から図14に基づいて説明すれば、以下のとおりである。
In addition, the device selection unit 24 may select a control target device based on a selection gesture (third gesture) different from the determination gesture and the operation gesture. In this case, the control unit 11a may include a selection gesture recognition unit (a specific part information acquisition unit and a selection gesture determination unit (third gesture determination unit)) that recognizes the selection gesture, or a determination gesture recognition unit (third The gesture determination unit) 21 or the operation gesture recognition unit (third gesture determination unit) 22 may recognize the selection gesture.
<Third Embodiment>
A third embodiment of the present invention will be described below with reference to FIGS.

第3の実施形態に係るジェスチャ入力装置は、まずユーザの認証を行い、認証したユーザのジェスチャのみを検出するものである。第3の実施形態に係るジェスチャ入力装置において、認証したユーザのジェスチャのみを検出した後の処理、つまり、判定ジェスチャおよび操作ジェスチャの認識に関する処理、並びに、制御信号の生成および送信に関する処理は、第1の実施形態に係るジェスチャ入力装置における処理と同じである。以下では、第3の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。   The gesture input device according to the third embodiment first authenticates a user and detects only the authenticated user's gesture. In the gesture input device according to the third embodiment, the processing after detecting only the authenticated user's gesture, that is, the processing related to the recognition of the determination gesture and the operation gesture, and the processing related to the generation and transmission of the control signal This is the same as the processing in the gesture input device according to the first embodiment. Hereinafter, features that are different from the gesture input device according to the first embodiment in the gesture input device according to the third embodiment will be mainly described.

なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。   For convenience of explanation, members having the same functions as those shown in the first embodiment are given the same reference numerals, and explanation thereof is omitted. Further, the terms defined in the first embodiment are used according to the definitions in the present embodiment unless otherwise specified.

〔ジェスチャ入力装置の構成〕
図11は、第3の実施形態に係るジェスチャ入力装置1bの要部構成の一例を示すブロック図である。図11に示すように、ジェスチャ入力装置1bは、制御部11b、記憶部12b、画像入力部13および通信部14を備えている。
[Configuration of gesture input device]
FIG. 11 is a block diagram illustrating an example of a main configuration of a gesture input device 1b according to the third embodiment. As shown in FIG. 11, the gesture input device 1b includes a control unit 11b, a storage unit 12b, an image input unit 13, and a communication unit 14.

制御部11bは、記憶部12bから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1bが備える各部を統括的に制御するものである。   The control unit 11b performs various calculations by executing a program read from the storage unit 12b to a temporary storage unit (not shown), and comprehensively controls each unit included in the gesture input device 1b. is there.

本実施形態では、制御部11bは、機能ブロックとして、判定ジェスチャ認識部21b、操作ジェスチャ認識部22b、機器制御部23および顔認識部(ユーザ認証手段)25を備える構成である。これらの制御部11bの各機能ブロック(21b、22b、23および25)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。   In this embodiment, the control part 11b is a structure provided with the determination gesture recognition part 21b, the operation gesture recognition part 22b, the apparatus control part 23, and the face recognition part (user authentication means) 25 as a functional block. In each functional block (21b, 22b, 23 and 25) of the control unit 11b, the CPU reads a program stored in a storage device realized by a ROM or the like to a temporary storage unit realized by a RAM or the like. It can be realized by executing.

顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔が登録されているユーザの顔と一致するか否かを判定し、登録されているユーザを認証するものである。具体的には、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する。   The face recognition unit 25 acquires an image from the image input unit 13, detects a human face from the acquired image, determines whether the detected face matches a registered user face, and registers It is intended to authenticate the user being authenticated. Specifically, the face recognition unit 25 acquires an image from the image input unit 13, detects a human face from the acquired image, and generates face information indicating the detected face. Then, the face recognition unit 25 reads the personal identification table from the storage unit 12b and determines whether the generated face information matches the face information included in the read personal identification table.

顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。   When it is determined that the generated face information matches the face information included in the read personal identification table, the face recognition unit 25 includes user authentication information including face position information indicating the position of the face indicated by the matched face information in the image. Is transmitted to the determination gesture recognition unit 21b and the operation gesture recognition unit 22b.

なお、顔情報は、人物の顔の画像データであってもよいし、人物の顔の画像データから抽出した特徴量を示すデータであってもよい。顔認識部25が実行する顔の認証処理に合わせて、顔情報を適宜設定すればよい。   The face information may be image data of a person's face, or data indicating a feature amount extracted from image data of a person's face. What is necessary is just to set face information suitably according to the authentication process of the face which the face recognition part 25 performs.

判定ジェスチャ認識部21bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。判定ジェスチャ認識部21bは、具体的には、特定部位情報取得部31bおよび判定ジェスチャ判断部32を備えている。   When the determination gesture recognition unit 21b receives user authentication information indicating that a registered user is authenticated from the face recognition unit 25, the determination gesture recognition unit 21b acquires an image from the image input unit 13, and uses the acquired image to perform the facial recognition of the face recognition unit 25. The gesture of the authenticated user is detected, and it is determined whether or not the detected gesture includes the determination gesture. Specifically, the determination gesture recognition unit 21b includes a specific part information acquisition unit 31b and a determination gesture determination unit 32.

特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。   When receiving the user authentication information from the face recognition unit 25, the specific part information acquisition unit 31b acquires an image from the image input unit 13. Next, based on the position of the image indicated by the face position information included in the received user authentication information, the specific part information acquisition unit 31b determines the user's (body) position authenticated by the face recognition unit 25 in the acquired image. Identify. Then, the specific part information acquisition unit 31b detects one or a plurality of user gestures authenticated by the face recognition unit 25 from the position portion of the specified user in the acquired image, and acquires specific part information indicating the detected gesture. One or more are generated. The specific part information acquisition unit 31 b outputs the generated specific part information to the determination gesture determination unit 32.

操作ジェスチャ認識部22bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32(判定ジェスチャ認識部21b)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。操作ジェスチャ認識部22bは、具体的には、特定部位情報取得部33bおよび操作ジェスチャ判断部34を備えている。   The operation gesture recognition unit 22b receives user authentication information indicating that the registered user is authenticated from the face recognition unit 25, and further receives a determination gesture validity notification from the determination gesture determination unit 32 (determination gesture recognition unit 21b). When received, the image is acquired from the image input unit 13, the user's gesture authenticated by the face recognition unit 25 is detected from the acquired image, and it is determined whether or not the detected gesture includes an operation gesture. is there. Specifically, the operation gesture recognition unit 22b includes a specific part information acquisition unit 33b and an operation gesture determination unit 34.

特定部位情報取得部33bは、顔認識部25からユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。   The specific part information acquisition unit 33 b receives the user authentication information from the face recognition unit 25, and acquires an image from the image input unit 13 when receiving a determination gesture validity notification from the determination gesture determination unit 32. Then, the specific part information acquisition unit 33b specifies the position of the authenticated user (body) of the face recognition unit 25 in the acquired image based on the position of the image indicated by the face position information included in the received user authentication information. To do. Then, the specific part information acquisition unit 33b detects one or a plurality of user gestures authenticated by the face recognition unit 25 from the position portion of the specified user in the acquired image, and specifies specific part information indicating the detected gesture. One or more are generated. The specific part information acquisition unit 33 b outputs the generated specific part information to the operation gesture determination unit 34.

記憶部12bは、制御部11bが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、個人特定テーブル45等を格納している。   The storage unit 12b stores programs, data, and the like referred to by the control unit 11b. For example, the storage unit 12b stores the determination gesture information 41, the operation gesture information 42, the control signal table 43, the personal identification table 45, and the like. Yes.

記憶部12bに格納されている個人特定テーブル45について図12に基づいて説明する。図12は、記憶部12bに格納されている個人特定テーブル45の一例を示す図である。   The personal identification table 45 stored in the storage unit 12b will be described with reference to FIG. FIG. 12 is a diagram illustrating an example of the individual identification table 45 stored in the storage unit 12b.

図12に示すように、個人特定テーブル45は、ユーザ名とユーザを認証するための顔情報とが対応付けられているものである。図12に示す例では、ユーザ名「Aさん」と顔情報「A1234」とが対応付けられており、ユーザ名「Bさん」と顔情報「B2345」とが対応付けられており、ユーザ名「Cさん」と顔情報「C3456」とが対応付けられている。   As shown in FIG. 12, the personal identification table 45 is a table in which a user name and face information for authenticating the user are associated with each other. In the example illustrated in FIG. 12, the user name “Mr. A” and face information “A1234” are associated with each other, the user name “Mr. B” and face information “B2345” are associated with each other, and the user name “Mr. “C” is associated with face information “C3456”.

〔ジェスチャ認識処理〕
次に、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理について図13に基づいて説明する。図13は、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, a gesture recognition process in the gesture input device 1b according to the third embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1b according to the third embodiment.

図13に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S21)。次に、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する(S22)。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する(S23)。   As shown in FIG. 13, the image input unit 13 acquires an image captured by the camera 2 (S21). Next, the face recognition unit 25 acquires an image from the image input unit 13, detects a human face from the acquired image, and generates face information indicating the detected face (S22). Then, the face recognition unit 25 reads the personal identification table from the storage unit 12b and determines whether the generated face information matches the face information included in the read personal identification table (S23).

顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致しないと判定した場合(S23でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合(S23でYES)、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。   When the face recognition unit 25 determines that the generated face information does not match the face information included in the read personal identification table (NO in S23), the process returns to S21, and the image input unit 13 captures the image by the camera 2. Get the next image. On the other hand, when the face recognition unit 25 determines that the generated face information matches the face information included in the read personal identification table (YES in S23), the face indicating the position of the face indicated by the matching face information in the image. The user authentication information including the position information is transmitted to the determination gesture recognition unit 21b and the operation gesture recognition unit 22b.

判定ジェスチャ認識部21bの特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S24)。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。   When receiving the user authentication information from the face recognition unit 25, the specific part information acquisition unit 31b of the determination gesture recognition unit 21b acquires an image from the image input unit 13. Next, based on the position of the image indicated by the face position information included in the received user authentication information, the specific part information acquisition unit 31b determines the user's (body) position authenticated by the face recognition unit 25 in the acquired image. Identify. Then, the specific part information acquisition unit 31b detects one or a plurality of user gestures authenticated by the face recognition unit 25 from the position portion of the specified user in the acquired image, and specifies specific part information indicating the detected gesture. One or more are generated (S24). The specific part information acquisition unit 31 b outputs the generated specific part information to the determination gesture determination unit 32.

判定ジェスチャ判断部32は、特定部位情報取得部31bから特定部位情報を取得し、また、記憶部12bから判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S25)。   The determination gesture determination unit 32 acquires the specific part information from the specific part information acquisition unit 31b, and reads the determination gesture information 41 indicating the determination gesture from the storage unit 12b. Then, the determination gesture determination unit 32 determines whether or not the gesture indicated by the acquired specific part information matches the determination gesture indicated by the read determination gesture information 41 (S25).

ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S25でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S25でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22bに通知する。   When the determination gesture determination unit 32 determines that the gestures indicated by all the acquired specific part information do not match the determination gesture indicated by the read (any) determination gesture information 41 (NO in S25), S21 The image input unit 13 acquires the next image captured by the camera 2. On the other hand, when the determination gesture determination unit 32 determines that the gesture indicated by any acquired specific part information matches the determination gesture indicated by the read (any) determination gesture information 41 (YES in S25), the determination gesture The determination unit 32 notifies the operation gesture recognition unit 22b of a determination gesture validity notification.

操作ジェスチャ認識部22bの特定部位情報取得部33bは、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S26)。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。   The specific part information acquisition unit 33b of the operation gesture recognition unit 22b acquires an image from the image input unit 13 when the determination gesture validity notification is received. Then, the specific part information acquisition unit 33b specifies the position of the authenticated user (body) of the face recognition unit 25 in the acquired image based on the position of the image indicated by the face position information included in the received user authentication information. To do. Then, the specific part information acquisition unit 33b detects one or a plurality of user gestures authenticated by the face recognition unit 25 from the position portion of the specified user in the acquired image, and specifies specific part information indicating the detected gesture. One or more are generated (S26). The specific part information acquisition unit 33 b outputs the generated specific part information to the operation gesture determination unit 34.

操作ジェスチャ判断部34は、特定部位情報取得部33bから特定部位情報を取得し、また、記憶部12bから操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S27)。   The operation gesture determination unit 34 acquires the specific part information from the specific part information acquisition unit 33b, and reads the operation gesture information 42 indicating the operation gesture from the storage unit 12b. Then, the operation gesture determination unit 34 determines whether or not the gesture indicated by the acquired specific part information matches the operation gesture indicated by the read operation gesture information 42 (S27).

ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S27でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S27でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。   Here, when the operation gesture determination unit 34 determines that the gestures indicated by all the acquired specific part information do not match the operation gesture indicated by the read (any) operation gesture information 42 (NO in S27), S21. The image input unit 13 acquires the next image captured by the camera 2. On the other hand, when the operation gesture determination unit 34 determines that the gesture indicated by any one of the acquired specific part information matches the operation gesture indicated by the read (any) operation gesture information 42 (YES in S27), the operation gesture. The determination unit 34 notifies the device control unit 23 of an operation gesture validity notification including operation gesture information indicating the matched operation gesture.

機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12bから制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S28)。   Upon receiving the operation gesture validity notification from the operation gesture determination unit 34, the device control unit 23 reads the control signal table 43 from the storage unit 12b. And the apparatus control part 23 produces | generates the control signal matched with the operation gesture which the operation gesture information contained in the received operation gesture information in the received control signal table 43 shows (S28).

機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S29)。この後、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。   The device control unit 23 transmits the generated control signal to the control target device 3 via the communication unit 14 (S29). After that, returning to S21, the image input unit 13 acquires the next image captured by the camera 2.

このように、顔認識部25は、カメラ2が撮像した画像に基づいてユーザを認証し、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャを検出する。すなわち、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャのみを検出する。   As described above, the face recognition unit 25 authenticates the user based on the image captured by the camera 2, and the specific part information acquisition units 31 b and 33 b detect the user gesture authenticated by the face recognition unit 25. That is, the specific part information acquisition units 31b and 33b detect only the user gesture authenticated by the face recognition unit 25.

そのため、仮に、カメラ2が撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、特定部位情報取得部31bおよび33bは、カメラ2が撮像した画像のうち、顔認識部25が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、ジェスチャ入力装置1b(判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22b)が実行する処理負荷を低減することができる。   Therefore, even if the image captured by the camera 2 includes a gesture of another person or a background image that is erroneously detected as a gesture, the specific part information acquisition units 31 b and 33 b Of the captured images, only the body image of the user authenticated by the face recognition unit 25 is set as a gesture detection target area. Therefore, the processing load performed by the gesture input device 1b (the determination gesture recognition unit 21b and the operation gesture recognition unit 22b) can be reduced.

また、本実施形態に係るジェスチャ入力装置は、家庭等におけるセキュリティに利用することができる。具体的には、家の玄関扉にカメラを設置しておき、操作ジェスチャを玄関扉の開錠するための鍵として使用する。すなわち、まずユーザを認証し、その後、ユーザが所定の判定ジェスチャおよび操作ジェスチャを行うことにより、ユーザは玄関扉を開くことができる。   In addition, the gesture input device according to the present embodiment can be used for security at home and the like. Specifically, a camera is installed on the entrance door of the house, and the operation gesture is used as a key for unlocking the entrance door. That is, the user can first open the entrance door by authenticating the user and then performing a predetermined determination gesture and operation gesture.

〔変形例5〕
第3の実施形態では、顔認識部25は、ユーザ認証情報に顔位置情報を含めているが、これに加えて、個人特定テーブルにおいて一致した顔情報に対応付けられているユーザ名を示すユーザ名情報を含めてもよい。すなわち、ユーザ認証情報が顔位置情報およびユーザ名情報を含んでいてもよい。
[Modification 5]
In the third embodiment, the face recognition unit 25 includes face position information in the user authentication information, but in addition to this, a user indicating a user name associated with face information matched in the personal identification table Name information may be included. That is, the user authentication information may include face position information and user name information.

この場合に、記憶部12bに格納されている判定ジェスチャ情報41の代わりに、個人別判定ジェスチャ情報が格納されていてもよい。個人別判定ジェスチャ情報とは、判定ジェスチャとユーザ名とが対応付けられているものである。個人別判定ジェスチャ情報は、例えば、図14に示すようなデータであってよい。   In this case, individual determination gesture information may be stored instead of the determination gesture information 41 stored in the storage unit 12b. The individual-specific determination gesture information is information in which a determination gesture and a user name are associated with each other. The individual determination gesture information may be data as shown in FIG. 14, for example.

ユーザ認証情報が顔位置情報およびユーザ名情報を含み、記憶部12bに個人別判定ジェスチャ情報が格納されている場合、判定ジェスチャ判断部32は、特定部位情報取得部31bから認証したユーザのジェスチャを示す特定部位情報を取得し、また、記憶部12bから個人別判定ジェスチャ情報を読み出し、さらに、顔認識部25からユーザ認証情報を受信する。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示す認証したユーザの示すジェスチャが、読み出した個人別判定ジェスチャ情報において、受信したユーザ認証情報に含まれるユーザ名情報の示すユーザ名に対応付けられている判定ジェスチャと一致するか否かを判断してもよい。   When the user authentication information includes face position information and user name information, and individual determination gesture information is stored in the storage unit 12b, the determination gesture determination unit 32 displays the user's gesture authenticated from the specific part information acquisition unit 31b. The specific part information shown is acquired, the individual determination gesture information is read from the storage unit 12b, and the user authentication information is received from the face recognition unit 25. The determination gesture determination unit 32 corresponds to the user name indicated by the user name information included in the received user authentication information in the read individual determination gesture information in which the gesture indicated by the authenticated user indicated by the acquired specific part information is read. It may be determined whether or not it matches the attached determination gesture.

また、ユーザ名と判定ジェスチャとを対応付けるだけではなく、ユーザ名と、判定ジェスチャと、操作ジェスチャとを対応付けたテーブルを記憶部12bに格納しておいてもよい。   In addition to associating the user name with the determination gesture, a table in which the user name, the determination gesture, and the operation gesture are associated may be stored in the storage unit 12b.

〔変形例6〕
また、第3の実施形態では、顔認識部25がカメラ2から取得した画像に基づいて、ユーザを認証しているが、これに限るものではない。本実施形態において、例えば、IDカードによる認証、指紋認証、静脈認証等、公知の個人を認証する方法を利用することができる。カメラ2から取得した画像以外の情報に基づいてユーザを認証する場合、特定部位情報取得部31bおよび33bは、ユーザが存在すると考えられる(認証装置の位置等から推測される)画像上の位置から、認証したユーザの(身体の)位置を特定してもよい。また、特定部位情報取得部31bおよび33bは、カメラ2から取得した画像から所定の物体(IDカード等)を検出し、その検出した位置に基づいて認証したユーザの(身体の)位置を特定してもよい。また、記憶部12bに予めユーザと当該ユーザの身体を示す画像(顔画像等)とを対応付けたユーザ画像テーブルを格納しておき、特定部位情報取得部31bおよび33bは、記憶部12bから読み出したユーザ画像テーブルに基づいて、カメラ2から取得した画像における認証したユーザの(身体の)位置を特定してもよい。
<補足>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Modification 6]
In the third embodiment, the user is authenticated based on the image acquired by the face recognition unit 25 from the camera 2, but the present invention is not limited to this. In this embodiment, for example, a known method for authenticating an individual such as authentication using an ID card, fingerprint authentication, vein authentication, or the like can be used. When the user is authenticated based on information other than the image acquired from the camera 2, the specific part information acquisition units 31b and 33b are considered to be present from the position on the image (estimated from the position of the authentication device or the like). The position (of the body) of the authenticated user may be specified. Further, the specific part information acquisition units 31b and 33b detect a predetermined object (such as an ID card) from the image acquired from the camera 2, and specify the position of the authenticated user (body) based on the detected position. May be. In addition, a user image table in which a user and an image (such as a face image) showing the user's body are associated in advance is stored in the storage unit 12b, and the specific part information acquisition units 31b and 33b are read from the storage unit 12b. The authenticated user's (body's) position in the image acquired from the camera 2 may be specified based on the user image table.
<Supplement>
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

最後に、ジェスチャ入力装置1の各ブロック、特に制御部11は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the gesture input device 1, particularly the control unit 11, may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、ジェスチャ入力装置1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ入力装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ入力装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the gesture input device 1 includes a CPU that executes instructions of a control program that realizes each function, a ROM that stores the program, a RAM that expands the program, a storage device such as a memory that stores the program and various data ( Recording medium). An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the gesture input device 1 which is software for realizing the above-described functions is recorded so as to be readable by a computer This can also be achieved by supplying to the gesture input device 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、ジェスチャ入力装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The gesture input device 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、ユーザが電子機器を制御するために使用する入力インターフェース(入力装置)に利用することができる。   The present invention can be used for an input interface (input device) used by a user to control an electronic device.

1、1a、1b ジェスチャ入力装置
2 カメラ
3 制御対象機器(制御機器)
3a テレビ
3b エアコン
3c PC
11、11a、11b 制御部
12、12a、12b 記憶部
13 画像入力部
21、21b 判定ジェスチャ認識部
22、21b 操作ジェスチャ認識部
23、23a 機器制御部(制御信号生成手段、送信手段)
24 機器選択部(制御機器特定手段)
25 顔認識部(ユーザ認証手段)
31、31b 特定部位情報取得部(ジェスチャ検出手段)
32 判定ジェスチャ判断部(第1ジェスチャ判断手段、第3ジェスチャ判断手段)
33、33b 特定部位情報取得部(ジェスチャ検出手段)
34 操作ジェスチャ判断部(第2ジェスチャ判断手段、第3ジェスチャ判断手段)
1, 1a, 1b Gesture input device 2 Camera 3 Device to be controlled (control device)
3a TV 3b Air conditioner 3c PC
11, 11a, 11b Control unit 12, 12a, 12b Storage unit 13 Image input unit 21, 21b Determination gesture recognition unit 22, 21b Operation gesture recognition unit 23, 23a Device control unit (control signal generation unit, transmission unit)
24 device selection unit (control device specifying means)
25 Face recognition unit (user authentication means)
31, 31b Specific site information acquisition unit (gesture detection means)
32 determination gesture determination unit (first gesture determination means, third gesture determination means)
33, 33b Specific site information acquisition unit (gesture detection means)
34 Operation Gesture Judgment Unit (Second Gesture Judgment Unit, Third Gesture Judgment Unit)

Claims (5)

ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置であって、
カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、
上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、
上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、
上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、
上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、
上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段と、
上記制御機器特定手段が特定した制御機器に、上記制御信号生成手段が生成した制御信号を送信する送信手段とを備えることを特徴とするジェスチャ入力装置。
A gesture input device that controls a control device based on a user's gesture operation,
Gesture detection means for detecting a gesture from an image captured by the camera;
First gesture determination means for determining from the gesture detected by the gesture detection means that a first gesture is included;
Second gesture determination means for determining from the gesture detected by the gesture detection means that a second gesture is included;
Third gesture determination means for determining that a third gesture is included from the gesture detected by the gesture detection means;
The period in which the first gesture determination means determines that the first gesture is included is a second gesture effective period in which recognition of the second gesture is effective, and the second gesture effective period includes the second gesture effective period. Control signal generating means for generating a control signal based on the second gesture when the second gesture determining means determines that two gestures are included;
Control for identifying the control device corresponding to the third gesture determined to include the third gesture determination means with reference to a device selection table in which the third gesture and the control device are associated with each other Device identification means;
A gesture input apparatus comprising: a transmission unit that transmits the control signal generated by the control signal generation unit to the control device specified by the control device identification unit.
上記制御信号生成手段は、上記第2ジェスチャと上記制御機器を制御するための制御信号とが対応付けられている制御信号テーブルを参照して、上記制御信号を生成することを特徴とする請求項1に記載のジェスチャ入力装置。   The control signal generation unit generates the control signal with reference to a control signal table in which the second gesture and a control signal for controlling the control device are associated with each other. The gesture input device according to 1. ユーザを認証するユーザ認証手段をさらに備え、
上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することを特徴とする請求項1または2に記載のジェスチャ入力装置。
A user authentication means for authenticating the user;
The gesture input device according to claim 1, wherein the gesture detection unit detects a gesture of a user authenticated by the user authentication unit.
上記ユーザ認証手段は、上記カメラが撮像した画像に基づいて、ユーザを認証することを特徴とする請求項3に記載のジェスチャ入力装置。   The gesture input device according to claim 3, wherein the user authentication unit authenticates a user based on an image captured by the camera. ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置の制御方法であって、
カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第3ジェスチャが含まれていることを判断する第3ジェスチャ判断ステップと、
上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、
上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断ステップにおいて含まれていると判断された第3ジェスチャに対応する上記制御機器を特定する制御機器特定ステップと、
上記制御機器特定ステップにおいて特定された制御機器に、上記制御信号生成ステップにおいて生成された上記制御信号を送信する送信ステップとを含むことを特徴とするジェスチャ入力装置の制御方法。
A control method of a gesture input device that controls a control device based on a user's gesture operation,
A gesture detection step for detecting a gesture from an image captured by the camera;
A first gesture determination step of determining that the first gesture is included in the gesture detected in the gesture detection step;
A second gesture determination step for determining that the gesture detected in the gesture detection step includes a second gesture;
A third gesture determination step for determining that the gesture detected in the gesture detection step includes a third gesture;
The period in which it is determined in the first gesture determination step that the first gesture is included is a second gesture effective period in which recognition of the second gesture is effective, and during the second gesture effective period, A control signal generation step for generating a control signal based on the second gesture when it is determined in the second gesture determination step that the second gesture is included;
The control device corresponding to the third gesture determined to be included in the third gesture determination step is identified with reference to a device selection table in which the third gesture and the control device are associated with each other. A control device identification step;
A control method for a gesture input device, comprising: a transmission step of transmitting the control signal generated in the control signal generation step to the control device specified in the control device specifying step.
JP2012094277A 2012-04-17 2012-04-17 Gesture input device and method for controlling gesture input device Active JP5024495B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012094277A JP5024495B1 (en) 2012-04-17 2012-04-17 Gesture input device and method for controlling gesture input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012094277A JP5024495B1 (en) 2012-04-17 2012-04-17 Gesture input device and method for controlling gesture input device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011046680 Division 2011-03-03 2011-03-03

Publications (2)

Publication Number Publication Date
JP5024495B1 true JP5024495B1 (en) 2012-09-12
JP2012185833A JP2012185833A (en) 2012-09-27

Family

ID=46980559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012094277A Active JP5024495B1 (en) 2012-04-17 2012-04-17 Gesture input device and method for controlling gesture input device

Country Status (1)

Country Link
JP (1) JP5024495B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867623A (en) * 2016-03-31 2016-08-17 乐视控股(北京)有限公司 Terminal device control method and device
US9639164B2 (en) 2013-09-26 2017-05-02 Fujitsu Limited Gesture input method
CN113891159A (en) * 2020-07-01 2022-01-04 丰田自动车株式会社 Information processing apparatus, information processing method, and control system
CN114167980A (en) * 2021-11-18 2022-03-11 深圳市鸿合创新信息技术有限责任公司 Gesture processing method and device, electronic equipment and readable storage medium

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5264007B1 (en) * 2012-10-01 2013-08-14 善郎 水野 controller
US9619017B2 (en) * 2012-11-07 2017-04-11 Qualcomm Incorporated Techniques for utilizing a computer input device with multiple computers
US9134794B2 (en) 2013-08-20 2015-09-15 Kabushiki Kaisha Toshiba System to identify user and device the user is intending to operate
JP5675917B1 (en) * 2013-09-02 2015-02-25 株式会社東芝 Device selection system, device selection device, device selection program
JP5948294B2 (en) * 2013-09-25 2016-07-06 京セラドキュメントソリューションズ株式会社 Touch panel device and image forming apparatus having the same
JP2015212886A (en) * 2014-05-02 2015-11-26 株式会社ナカヨ Wristband with information input function by movement
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
JP5980879B2 (en) * 2014-10-28 2016-08-31 レノボ・シンガポール・プライベート・リミテッド Gesture recognition method, gesture input system, and electronic device
JP5893122B2 (en) * 2014-12-24 2016-03-23 株式会社東芝 Device selection system, device selection device, device selection program
EP3885882A1 (en) 2015-04-30 2021-09-29 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2020121536A1 (en) * 2018-12-14 2020-06-18 オリンパス株式会社 User interface device, medical system, manipulation control method, and manipulation control program
US20230214024A1 (en) * 2020-05-29 2023-07-06 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer-readable medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2010009484A (en) * 2008-06-30 2010-01-14 Denso It Laboratory Inc Onboard equipment control device and onboard equipment control method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639164B2 (en) 2013-09-26 2017-05-02 Fujitsu Limited Gesture input method
CN105867623A (en) * 2016-03-31 2016-08-17 乐视控股(北京)有限公司 Terminal device control method and device
CN113891159A (en) * 2020-07-01 2022-01-04 丰田自动车株式会社 Information processing apparatus, information processing method, and control system
CN114167980A (en) * 2021-11-18 2022-03-11 深圳市鸿合创新信息技术有限责任公司 Gesture processing method and device, electronic equipment and readable storage medium
CN114167980B (en) * 2021-11-18 2024-05-07 深圳市鸿合创新信息技术有限责任公司 Gesture processing method, gesture processing device, electronic equipment and readable storage medium

Also Published As

Publication number Publication date
JP2012185833A (en) 2012-09-27

Similar Documents

Publication Publication Date Title
JP5024495B1 (en) Gesture input device and method for controlling gesture input device
WO2012117570A1 (en) Gesture input device and method for controlling gesture input device
KR102127932B1 (en) Electronic device and method for controlling the same
US10205883B2 (en) Display control method, terminal device, and storage medium
CN106415570B (en) Dynamic keypad and touchscreen biometrics
US10192109B2 (en) Identification and/or authentication of a user using gaze information
KR101688168B1 (en) Mobile terminal and method for controlling the same
CN205314704U (en) Intelligence lock and system
US20140118520A1 (en) Seamless authorized access to an electronic device
US20170046508A1 (en) Biometric authentication using gesture
JP2013196047A (en) Gesture input apparatus, control program, computer-readable recording medium, electronic device, gesture input system, and control method of gesture input apparatus
KR20150128377A (en) Method for processing fingerprint and electronic device thereof
KR102532746B1 (en) Electronic device and control method thereof
JP2015095164A (en) Gesture recognition device and control method for gesture recognition device
WO2019151368A1 (en) Biometric authentication device, system, method and recording medium
CN106022054A (en) Unlocking method and device of intelligent wearable device
JP2018525696A5 (en)
JP6267025B2 (en) Communication terminal and communication terminal authentication method
WO2020095350A1 (en) Information processing device, information processing method, and recording medium
US11068690B2 (en) Detection device, information processing device, and information processing method
KR102514036B1 (en) Electronic device and method for controlling the same
TW201533602A (en) Methods and systems for commencing a process based on motion detection, and related computer program products
WO2022147411A1 (en) Facial expression to augment face id and presentation attack detection
KR20220108378A (en) Apparatus and method for identifying individual based on teeth
CN116700479A (en) Device control method, device, electronic device and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5024495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250