JP5024495B1 - Gesture input device and method for controlling gesture input device - Google Patents
Gesture input device and method for controlling gesture input device Download PDFInfo
- Publication number
- JP5024495B1 JP5024495B1 JP2012094277A JP2012094277A JP5024495B1 JP 5024495 B1 JP5024495 B1 JP 5024495B1 JP 2012094277 A JP2012094277 A JP 2012094277A JP 2012094277 A JP2012094277 A JP 2012094277A JP 5024495 B1 JP5024495 B1 JP 5024495B1
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- unit
- determination
- control
- control signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐ。
【解決手段】ユーザのジェスチャに基づいて制御対象機器3を制御するジェスチャ入力装置1は、カメラ2が撮像した画像から検出したジェスチャに判定ジェスチャが含まれているか否かを判断する判定ジェスチャ判断部32と、カメラ2が撮像した画像から検出したジェスチャに操作ジェスチャが含まれているか否かを判断する操作ジェスチャ判断部34と、判定ジェスチャの認識期間中に、操作ジェスチャ判断部が含まれていると判断した操作ジェスチャに対応付けられている制御信号を生成し、制御対象機器3に生成した制御信号を送信する機器制御部23とを備える。
【選択図】図1An object of the present invention is to prevent erroneous recognition of an action unintended by a user as an effective gesture.
A gesture input device that controls a control target device based on a user's gesture includes a determination gesture determination unit that determines whether or not a gesture detected from an image captured by a camera includes a determination gesture. 32, an operation gesture determination unit 34 that determines whether or not an operation gesture is included in a gesture detected from an image captured by the camera 2, and an operation gesture determination unit is included during the determination gesture recognition period. And a device control unit 23 that generates a control signal associated with the operation gesture determined to be transmitted to the control target device 3.
[Selection] Figure 1
Description
本発明は、ユーザのジェスチャを認識することにより、機器を制御する制御信号を生成するジェスチャ入力装置およびジェスチャ入力装置の制御方法に関するものである。 The present invention relates to a gesture input device that generates a control signal for controlling a device by recognizing a user's gesture, and a method for controlling the gesture input device.
近年、カメラを用いたユーザのジェスチャによる情報入力装置は、次世代インターフェースとして期待されている。この情報入力装置においては、ユーザのジェスチャを正確に認識できることが望ましい。そこで、従来、ユーザのジェスチャを高精度に認識するための技術が開発されている。 In recent years, information input devices using user gestures using cameras are expected as next-generation interfaces. In this information input device, it is desirable that the user's gesture can be accurately recognized. Thus, techniques for recognizing user gestures with high accuracy have been developed.
例えば、特許文献1には、ユーザが所持するペンライトの点灯によりジェスチャの開始を認識し、当該ペンライトの消灯によりジェスチャの終了を認識するジェスチャ認識装置であって、上記開始から終了までのペンライトの移動状態に基づいてジェスチャの種別を認識するジェスチャ認識装置が記載されている。 For example, Patent Literature 1 discloses a gesture recognition device that recognizes the start of a gesture by turning on a penlight held by a user and recognizes the end of the gesture by turning off the penlight. A gesture recognition device that recognizes the type of gesture based on the movement state of the light is described.
また、上記特許文献1に記載の技術の課題を解決するものとして、特許文献2に記載の技術がある。特許文献2には、周期性のある手のジェスチャ認識に関して、隠れマルコフモデルを利用して、特許文献1に記載の技術のように、ユーザがジェスチャの始点および終点を提示しなくても、連続したジェスチャを高精度に認識するジェスチャ認識装置が記載されている。
Moreover, there exists a technique of
さらに、特許文献3には、カメラで撮像されたユーザの画像からユーザのジェスチャおよび視線を検出し、検出したジェスチャが選択ジェスチャであって、ユーザの視線が選択ジェスチャで選択した制御機器に向いている場合、当該制御機器を操作対象として選択し、検出したジェスチャが操作ジェスチャの場合、操作対象とした制御機器に対して、操作ジェスチャに応じた操作を実行する制御機器操作ジェスチャ認識装置が記載されている。 Further, in Patent Document 3, a user's gesture and line of sight are detected from a user's image captured by a camera. The detected gesture is a selection gesture, and the user's line of sight is directed to a control device selected by the selection gesture. If the control device is selected as an operation target and the detected gesture is an operation gesture, a control device operation gesture recognition device that performs an operation according to the operation gesture on the control device that is the operation target is described. ing.
しかしながら、上述のような従来技術は、それぞれ下記の問題がある。 However, the conventional techniques as described above have the following problems.
ジェスチャによる入力装置は、ユーザがリモコンやキーボード等の入力装置を所持または使用することなく、機器を制御できるという利点を有している。しかしながら、特許文献1に記載の技術では、ジェスチャの開始と終了のタイミングを認識するために、ペンライト等の所定の物体を利用している。そのため、上記のジェスチャによる入力装置の利点を得ることができず、特許文献1に記載のジェスチャ認識装置は、ユーザにとって不便なものである。 The input device by gesture has an advantage that the user can control the device without having or using an input device such as a remote controller or a keyboard. However, the technique described in Patent Document 1 uses a predetermined object such as a penlight in order to recognize the start and end timing of a gesture. Therefore, the advantage of the input device using the above gesture cannot be obtained, and the gesture recognition device described in Patent Document 1 is inconvenient for the user.
また、特許文献2に記載の技術では、ジェスチャを認識するための物を必要としないが、ユーザの意図しない動作も、制御対象機器を操作するためのジェスチャとして認識するため、制御対象機器が誤動作する虞がある。
Further, in the technology described in
また、特許文献3に記載の技術は、所定のジェスチャを認識し、かつ、制御機器の方向にユーザの顔が向いている場合、当該制御機器を制御する対象の機器として選択したり、ジェスチャに基づく制御を実行したりする。特許文献3には、ユーザが操作対象の制御機器の方向を向いた状態で行われたジェスチャは、ユーザが意図したジェスチャである可能性が高いと記載されている。 Further, the technique described in Patent Literature 3 recognizes a predetermined gesture and, when the user's face is facing in the direction of the control device, selects the control device as a target device to be controlled, Based control. Patent Document 3 describes that a gesture performed in a state where the user faces the operation target control device is likely to be a gesture intended by the user.
しかしながら、制御機器が動作中の場合、ユーザが制御機器を見ている(監視している)ことは普通に考えられることであり、ユーザの視線が制御機器を向いている場合であっても、ユーザが意図せず制御機器を操作するためのジェスチャを行ってしまうことは十分に考えられる。 However, when the control device is in operation, it is normally considered that the user is watching (monitoring) the control device, and even if the user's line of sight is facing the control device, It is sufficiently conceivable that the user performs a gesture for operating the control device unintentionally.
例えば、制御機器がテレビの場合、テレビが動作中、ユーザの顔はテレビの方向に向いていることが多く、ユーザの視線方向を検出することでは、ジェスチャがユーザの意図したものであるか否かを正確に判別することは難しい。 For example, if the control device is a television, the user's face is often facing the direction of the television while the television is operating, and detecting whether the user's line of sight indicates whether the gesture is intended by the user It is difficult to determine exactly.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐジェスチャ入力装置およびジェスチャ入力装置の制御方法を実現することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a gesture input device and a gesture input device control method that prevent erroneous recognition of an operation that is not intended by the user as an effective gesture. There is.
本発明に係るジェスチャ入力装置は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えることを特徴としている。 A gesture input device according to the present invention is a gesture input device that controls a control device based on a user's gesture operation in order to solve the above-described problem, and a gesture detection unit that detects a gesture from an image captured by a camera. Determining that the first gesture is included from the gesture detected by the gesture detection unit, and determining that the second gesture is included from the gesture detected by the gesture detection unit. The second gesture determining means, and the period in which the first gesture determining means determines that the first gesture is included is defined as a second gesture valid period in which recognition of the second gesture is valid, If the second gesture is included in the two gesture valid period, the second gesture determination hand A control signal generating unit that generates a control signal based on the second gesture and a transmission unit that transmits the control signal generated by the control signal generating unit to the control device. Yes.
本発明に係るジェスチャ入力装置の制御方法は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置の制御方法であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含むことを特徴としている。 In order to solve the above-described problem, a gesture input device control method according to the present invention is a gesture input device control method for controlling a control device based on a user's gesture operation, and is based on an image captured by a camera. A gesture detection step for detecting the first gesture, a first gesture determination step for determining that the first gesture is included in the gesture detected in the gesture detection step, and a second gesture for the gesture detected in the gesture detection step. A second gesture determination step for determining whether the second gesture is included, and a period during which the first gesture determination step determines that the first gesture is included in the first gesture determination step. 2 gesture valid period, the second gesture valid period A control signal generating step for generating a control signal based on the second gesture when the second gesture determining step determines that the second gesture is included therein; and And a transmission step of transmitting to the network.
上記の構成によれば、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャを、上記制御信号を生成するための有効なものとする。そして、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、含まれていると判断した第2ジェスチャに対応する制御信号を生成し、上記送信手段が当該制御信号を制御機器に送信する。 According to the above configuration, the control signal generation unit is configured such that the second gesture determination unit determines that the second gesture determination unit includes the gesture detected by the gesture detection unit during the second gesture valid period. Is effective for generating the control signal. The control signal generation means generates a control signal corresponding to the second gesture that the second gesture determination means determines to be included in the second gesture valid period, and the transmission means A control signal is transmitted to the control device.
換言すると、上記制御信号生成手段は、上記第2ジェスチャ有効期間中に上記第2ジェスチャ判断手段が判断したものでなければ、上記第2ジェスチャ判断手段が含まれていると判断した第2ジェスチャであっても、当該第2ジェスチャに基づいて上記制御信号を生成しない。 In other words, the control signal generation means is the second gesture that is determined to include the second gesture determination means unless the second gesture determination means determines during the second gesture valid period. Even if it exists, the said control signal is not produced | generated based on the said 2nd gesture.
そのため、ユーザが意図せず第2ジェスチャをしたとしても、ユーザが同時に第1ジェスチャをしていなければ、上記制御信号生成手段が当該第2ジェスチャに基づいて制御信号を生成することはない。従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。 Therefore, even if the user makes the second gesture unintentionally, the control signal generation unit does not generate a control signal based on the second gesture unless the user simultaneously makes the first gesture. Therefore, the gesture input device can prevent malfunction due to the user making the second gesture unintentionally by the process of validating only the second gesture during the period in which the first gesture is recognized.
本発明に係るジェスチャ入力装置は、上記制御信号生成手段は、上記第2ジェスチャと上記制御機器を制御するための制御信号とが対応付けられている制御信号テーブルを参照して、上記制御信号を生成することが好ましい。 In the gesture input device according to the present invention, the control signal generation means refers to a control signal table in which the second gesture and a control signal for controlling the control device are associated with each other, It is preferable to produce.
上記の構成によれば、上記制御信号生成手段は、上記制御信号テーブルを参照し、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャに対応する制御信号を生成する。そのため、予め、制御機器の各種の制御内容を規定する各制御信号に対して、それぞれ異なる第2ジェスチャを対応付けたものを上記制御信号テーブルとして設定することにより、ユーザは、所定の第2ジェスチャを実行することによって、当該第2ジェスチャに対応する制御内容の示す動作を制御機器に実行させることができる。 According to the above configuration, the control signal generation unit refers to the control signal table, and the second gesture determination unit is included in the gesture detected by the gesture detection unit during the second gesture valid period. A control signal corresponding to the second gesture determined to be present is generated. For this reason, the user can set a predetermined second gesture by previously setting each control signal defining various control contents of the control device in association with a different second gesture as the control signal table. By executing this, it is possible to cause the control device to execute the operation indicated by the control content corresponding to the second gesture.
本発明に係るジェスチャ入力装置は、上記第1ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第1ジェスチャ判断手段が含まれていると判断した第1ジェスチャに対応する上記制御機器を特定する制御機器特定手段をさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。 The gesture input device according to the present invention refers to a device selection table in which the first gesture and the control device are associated with each other, and determines the first gesture determined to include the first gesture determination unit. Preferably, the control device specifying means for specifying the corresponding control device is further provided, and the transmission means transmits the control signal to the control device specified by the control device specifying means.
上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第1ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第1ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第1ジェスチャ判断手段の判断した第1ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。 According to the above configuration, the control device specifying unit refers to the device selection table and applies the first gesture determined by the first gesture determination unit to be included in the gesture detected by the gesture detection unit. The corresponding control device is specified, and the transmission means transmits the control signal generated by the control signal generation means to the control device specified by the control device specification means. That is, the transmission means can transmit a control signal only to the control device corresponding to the first gesture determined by the first gesture determination means.
そのため、ユーザは、予め上記第1ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第2ジェスチャを有効にするための第1ジェスチャを用いて、所望の制御機器のみを動作させることができる。従って、ユーザは、動作対象の制御機器を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御機器のみを動作させることができる。 Therefore, the user knows (sets) the correspondence relationship between the first gesture and the control device in advance, and operates only the desired control device using the first gesture for enabling the second gesture. be able to. Therefore, the user can operate only the desired control device without performing an extra operation (for example, another gesture) in order to select the control device to be operated.
本発明に係るジェスチャ入力装置は、上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段とをさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。 In the gesture input device according to the present invention, the third gesture determination unit that determines that the third gesture is included from the gesture detected by the gesture detection unit, the third gesture, and the control device are associated with each other. A control device specifying means for specifying the control device corresponding to the third gesture determined to include the third gesture determination means with reference to the device selection table, wherein the transmission means comprises: The control signal is preferably transmitted to the control device specified by the control device specifying means.
上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第3ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第3ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第3ジェスチャ判断手段の判断した第3ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。 According to the above configuration, the control device specifying unit refers to the device selection table, and determines the third gesture determined that the third gesture determination unit is included in the gesture detected by the gesture detection unit. The corresponding control device is specified, and the transmission means transmits the control signal generated by the control signal generation means to the control device specified by the control device specification means. That is, the transmission means can transmit a control signal only to the control device corresponding to the third gesture determined by the third gesture determination means.
そのため、ユーザは、予め上記第3ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第3ジェスチャを用いて所望の制御機器のみを動作させることができる。従って、ユーザは、所望の制御機器を選択して、選択した制御機器のみを動作させることができる。 Therefore, the user can operate only the desired control device using the third gesture by knowing (setting) the correspondence relationship between the third gesture and the control device in advance. Therefore, the user can select a desired control device and operate only the selected control device.
本発明に係るジェスチャ入力装置は、ユーザを認証するユーザ認証手段をさらに備え、
上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することが好ましい。
The gesture input device according to the present invention further comprises user authentication means for authenticating a user,
Preferably, the gesture detection unit detects a gesture of a user authenticated by the user authentication unit.
上記の構成によれば、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出する。換言すると、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャのみを検出する。 According to said structure, the said gesture detection means detects the gesture of the user who the said user authentication means authenticated. In other words, the gesture detection unit detects only the gesture of the user authenticated by the user authentication unit.
そのため、仮に、上記カメラが撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、上記ジェスチャ検出手段は、上記カメラが撮像した画像のうち、上記ユーザ認証手段が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、上記ジェスチャ入力装置(上記ジェスチャ検出手段、上記第1ジェスチャ判断手段および上記第2ジェスチャ判断手段)が実行する処理負荷を低減することができる。 Therefore, even if the image captured by the camera includes a gesture of another person or a background image that is erroneously detected as a gesture, the gesture detection unit does not detect the image captured by the camera. Of these, only the body image of the user authenticated by the user authentication means is set as a gesture detection target area. Therefore, it is possible to reduce the processing load executed by the gesture input device (the gesture detection unit, the first gesture determination unit, and the second gesture determination unit).
本発明に係るジェスチャ入力装置は、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいて、ユーザを認証することが好ましい。 In the gesture input device according to the present invention, it is preferable that the user authentication unit authenticates the user based on an image captured by the camera.
上記の構成によれば、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいてユーザを認証する。換言すると、上記ユーザ認証手段は、ユーザのジェスチャを認識するための画像に基づいてユーザを認証する。そのため、ユーザの画像を利用しないでユーザを認証する他の認証方法と比較して、ユーザを認証するための装置の構成を簡素化することができる。 According to said structure, the said user authentication means authenticates a user based on the image which the said camera imaged. In other words, the user authentication means authenticates the user based on the image for recognizing the user's gesture. Therefore, the configuration of the device for authenticating the user can be simplified as compared with other authentication methods for authenticating the user without using the user image.
なお、上記ジェスチャ入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ジェスチャ入力装置の各手段として動作させることにより、上記ジェスチャ入力装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。 The gesture input device may be realized by a computer. In this case, a control program for realizing the gesture input device by a computer by causing the computer to operate as each unit of the gesture input device, and A computer-readable recording medium on which it is recorded also falls within the scope of the present invention.
以上のように、本発明に係るジェスチャ入力装置は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えている構成である。 As described above, the gesture input device according to the present invention determines from the image captured by the camera that the first gesture is included from the gesture detection unit that detects the gesture and the gesture detected by the gesture detection unit. First gesture determination means, second gesture determination means for determining that the second gesture is included from the gesture detected by the gesture detection means, and the first gesture when the first gesture is included. The period determined by the determination means is set as a second gesture effective period for validating the recognition of the second gesture, and the second gesture determination means when the second gesture is included in the second gesture effective period. Control signal generating means for generating a control signal based on the second gesture when the determination is made, and The control signal is control signal generating means to generate a configuration and a transmitting means for transmitting to the control device.
また、本発明に係るジェスチャ入力装置の制御方法は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含む。 In the gesture input device control method according to the present invention, the gesture detection step of detecting a gesture from the image captured by the camera, and the first gesture is included in the gesture detected in the gesture detection step. A first gesture determining step for determining; a second gesture determining step for determining that the gesture detected in the gesture detecting step includes the second gesture; and the first gesture determining step for determining whether the second gesture is included in the gesture detected in the gesture detecting step. A period determined to be included is a second gesture effective period for validating recognition of the second gesture, and the second gesture is included in the second gesture determining step during the second gesture effective period. When it is determined that the second It includes a control signal generating step of generating a control signal based on tea, and a transmission step of transmitting the control signal to the control device.
従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという簡単な処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。 Therefore, the gesture input device can prevent malfunction due to the user performing the second gesture unintentionally by a simple process of validating only the second gesture during the period in which the first gesture is recognized. it can.
<第1の実施形態>
本発明の第1の実施形態について図1から図7に基づいて説明すると以下の通りである。
<First Embodiment>
The first embodiment of the present invention will be described with reference to FIGS. 1 to 7 as follows.
〔ジェスチャ入力装置の構成〕
図1は、ジェスチャ入力装置1の要部構成の一例を示すブロック図である。図1に示すように、ジェスチャ入力装置1は、制御部11、記憶部12、画像入力部13および通信部14を備えている。なお、ジェスチャ入力装置1は、表示部、操作部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
[Configuration of gesture input device]
FIG. 1 is a block diagram illustrating an example of a main configuration of the gesture input device 1. As shown in FIG. 1, the gesture input device 1 includes a
画像入力部13は、カメラ2が撮像した画像を取得するものである。本発明では、カメラ2は、ユーザの全身またはその一部を撮像するものであり、画像入力部13は、ユーザの全身またはその一部を含む画像を取得する。
The
通信部14は、無線通信手段または有線通信手段によって、制御対象機器(制御機器)3等の他の装置と通信を行い、制御部11の指示に従って、データのやりとりを行うものである。具体的には、通信部14は、制御部11の指示に従って、制御対象機器3に制御信号を送信する。
The
制御対象機器3とは、例えば、テレビ、エアコン、PC等の家電機器である。ただし、これに限るものではなく、制御信号を受信し、受信した制御信号に基づいて処理を実行する機器であれば何でもよい。 The control target device 3 is a home appliance such as a television, an air conditioner, and a PC. However, the present invention is not limited to this, and any device that receives a control signal and executes processing based on the received control signal may be used.
制御部11は、記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1が備える各部を統括的に制御するものである。
The
本実施形態では、制御部11は、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22および機器制御部(制御信号生成手段、送信手段)23を備える構成である。これらの制御部11の各機能ブロック(21〜23)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。
In the present embodiment, the
判定ジェスチャ認識部21は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。
The determination
ここで、ユーザのジェスチャとは、顔(目、口等)、手、腕、胴、脚等のユーザの身体の所定の形状もしくは所定の動作、または、それらの組み合わせを意味する。例えば、ジェスチャの例として、左手の掌を握った状態(握り拳)、右手の掌を開いた状態で上下に振る動作、左足を上げた状態、顔の向き(視線方向)、目の開閉動作(まばたき)、口を開く動作等がある。 Here, the user's gesture means a predetermined shape or a predetermined motion of the user's body such as a face (eyes, mouth, etc.), hand, arm, torso, leg, or a combination thereof. For example, gestures include the left hand palm gripping (grench fist), the right hand palm open and swinging up and down, the left leg raised, the face direction (gaze direction), and the eye opening and closing motion ( Blinking) and opening the mouth.
また、判定ジェスチャ(第1ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、後述の操作ジェスチャの認識を有効にするためのジェスチャである。 The determination gesture (first gesture) is one or a plurality of predetermined gestures determined in advance, and is a gesture for enabling recognition of an operation gesture described later.
判定ジェスチャ認識部21は、具体的には、特定部位情報取得部(ジェスチャ検出手段)31および判定ジェスチャ判断部(第1ジェスチャ判断手段)32を備えている。
Specifically, the determination
特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
The specific part
なお、特定部位情報とは、換言すると、顔(目、口等)、手、腕、胴、脚等のユーザの特定の部位の形状または動作を示す情報である。つまり、特定部位情報とは、ユーザの所定のジェスチャを示す情報である。 In other words, the specific part information is information indicating the shape or operation of a specific part of the user such as a face (eyes, mouth, etc.), hand, arm, torso, leg. That is, specific part information is information which shows a user's predetermined gesture.
判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断するものである。
The determination
判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致すると判断した場合、その旨(判定ジェスチャ有効通知)を操作ジェスチャ認識部22に通知する。
If the determination
ここで、判定ジェスチャ有効通知は、判定ジェスチャ判断部32が一致すると判断した判定ジェスチャを示す判定ジェスチャ情報を含むものである。
Here, the determination gesture valid notification includes determination gesture information indicating the determination gesture that the determination
操作ジェスチャ認識部22は、判定ジェスチャ判断部32(判定ジェスチャ認識部21)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。
When the operation
ここで、操作ジェスチャ(第2ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、制御対象機器を制御するためのジェスチャである。 Here, the operation gesture (second gesture) is a predetermined one or a plurality of predetermined gestures, and is a gesture for controlling the device to be controlled.
操作ジェスチャ認識部22は、具体的には、特定部位情報取得部(ジェスチャ検出手段)33および操作ジェスチャ判断部(第2ジェスチャ判断手段)34を備えている。
Specifically, the operation
特定部位情報取得部33は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33は、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
When receiving the determination gesture validity notification from the determination
操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断するものである。
The operation
操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。
If the operation
ここで、操作ジェスチャ有効通知は、操作ジェスチャ判断部34が一致すると判断した操作ジェスチャを示す操作ジェスチャ情報を含むものである。
Here, the operation gesture valid notification includes operation gesture information indicating the operation gesture determined by the operation
機器制御部23は、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。
The
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する。
The
記憶部12は、制御部11が参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43等を格納している。
The
記憶部12に格納されている判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43についてそれぞれ図2〜4に基づいて説明する。図2は、記憶部12に格納されている判定ジェスチャ情報41の一例を示す図である。また、図3は、記憶部12に格納されている操作ジェスチャ情報42の一例を示す図である。また、図4は、記憶部12に格納されている制御信号テーブル43の一例を示す図である。
The
図2に示す例では、記憶部12に、「左手の握り拳」のジェスチャを示す判定ジェスチャ情報41と、「右目の開閉動作」のジェスチャを示す判定ジェスチャ情報41とが格納されている。すなわち、図2に示す例では、判定ジェスチャとして、「左手の握り拳」のジェスチャと、「右目の開閉動作」のジェスチャとが予め定められている。
In the example illustrated in FIG. 2, the
また、図3に示す例では、記憶部12に、「右手の人差指のみを立てた状態」のジェスチャを示す操作ジェスチャ情報42と、「左手を上下に振る動作」のジェスチャを示す操作ジェスチャ情報42と、「右手を左右に振る動作」のジェスチャを示す操作ジェスチャ情報42とが格納されている。すなわち、図3に示す例では、操作ジェスチャとして、「右手の人差指のみを立てた状態」のジェスチャと、「左手を上下に振る動作」のジェスチャと、「右手を左右に振る動作」のジェスチャとが予め定められている。
Further, in the example illustrated in FIG. 3, the
また、図4に示すように、制御信号テーブル43は、制御信号と操作ジェスチャとが対応付けられているものである。図4に示す例では、制御信号「S01」と「右手の人差指のみを立てた状態」のジェスチャとが対応付けられており、制御信号「S02」と「左手を上下に振る動作」のジェスチャとが対応付けられており、制御信号「S03」と「右手を左右に振る動作」のジェスチャとが対応付けられている。 As shown in FIG. 4, the control signal table 43 is a table in which control signals and operation gestures are associated with each other. In the example shown in FIG. 4, the control signal “S01” and the gesture “only the right index finger are raised” are associated with each other, and the control signal “S02” and “the gesture of shaking the left hand up and down” Are associated with each other, and the control signal “S03” is associated with the gesture of “swinging the right hand to the left and right”.
図2〜4に示す判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43が記憶部12に格納されている場合、例えば、判定ジェスチャ認識部21が「左手の握り拳」のジェスチャおよび「右目の開閉動作」のジェスチャの少なくとも何れか1つを認識している間に、操作ジェスチャ認識部22が「右手の人差指のみを立てた状態」のジェスチャを認識すると、機器制御部23は、制御信号「S01」を制御対象機器3に送信する。
When the
このように、記憶部12に判定ジェスチャ情報41が複数格納されている場合、判定ジェスチャ認識部21が何れかの判定ジェスチャを認識している期間が、操作ジェスチャ認識部22による操作ジェスチャの認識を有効にする期間である。
As described above, when a plurality of
なお、図2および3に示す例では、記憶部12に判定ジェスチャ情報41および操作ジェスチャ情報42がそれぞれ複数格納されているが、これに限るものではない。判定ジェスチャおよび操作ジェスチャは、それぞれ、少なくとも1つ予め定められていればよいため、記憶部12は、少なくとも1つの判定ジェスチャ情報41および操作ジェスチャ情報42をそれぞれ格納していればよい。
In the example shown in FIGS. 2 and 3, a plurality of
〔ジェスチャ認識処理〕
次に、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理について図5に基づいて説明する。図5は、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, a gesture recognition process in the gesture input device 1 according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1 according to the first embodiment.
ここで、ジェスチャ認識処理とは、ジェスチャ入力装置1がカメラ2から画像を取得し、取得した画像から判定ジェスチャおよび操作ジェスチャを認識し、認識した操作ジェスチャに基づく制御信号を制御対象機器に送信するまでの一連の処理を示す。
Here, the gesture recognition process is a process in which the gesture input device 1 acquires an image from the
図5に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S1)。次に、判定ジェスチャ認識部21の特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S2)。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
As shown in FIG. 5, the
判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S3)。
The determination
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S3でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S3でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22に通知する。
Here, when the determination
操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S4)。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
When receiving the determination gesture validity notification, the specific part
操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S5)。
The operation
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S5でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S5でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
When the operation
機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S6)。
The
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S7)。この後、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
The
ところで、機器制御部23から制御信号を受信した制御対象機器3は、受信した制御信号に基づいて所定の処理を実行する。具体的には、例えば、制御対象機器3は、不図示の記憶部を備えており、制御信号を受信すると、当該記憶部から処理制御テーブルを読み出し、読み出した処理制御テーブルにおいて、受信した制御信号に対応付けられている処理を実行する。
By the way, the control target device 3 that has received the control signal from the
より詳細には、例えば、機器制御部23が制御信号「S01」を送信し、制御対象機器3の上記記憶部に図6に示す処理制御テーブルが格納されている場合、制御対象機器3は、図6に示す処理制御テーブルにおいて、制御信号「S01」に対応付けられている処理「電源のON/OFFの切替」を実行する。
More specifically, for example, when the
このように、機器制御部23は、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22(操作ジェスチャ判断部34)が認識した操作ジェスチャに基づいて、制御信号を生成する。換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22が認識した操作ジェスチャを、上記制御信号を生成するための有効なものとする。
In this way, the
つまり、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に操作ジェスチャ認識部22が認識した操作ジェスチャでなければ、操作ジェスチャ認識部22が認識した操作ジェスチャであっても、当該操作ジェスチャに基づいて制御信号を生成しない。
That is, the
そのため、ユーザが意図せず操作ジェスチャをしたとしても、ユーザが同時に判定ジェスチャをしていなければ、機器制御部23が当該操作ジェスチャに基づいて制御信号を生成することはない。従って、ジェスチャ入力装置1は、判定ジェスチャを認識している期間中の操作ジェスチャのみを有効とするという簡単な処理によって、ユーザの意図しない動作(操作ジェスチャ)を有効なジェスチャとして誤認識することを防ぐ。
Therefore, even if the user makes an operation gesture unintentionally, the
〔変形例1〕
本実施形態では、図1に示すように、ジェスチャ入力装置1と、カメラ2と、制御対象機器3とが別体となっているが、これに限るものではない。例えば、ジェスチャ入力装置1は、カメラ2もしくは制御対象機器3と一体となっていてもよいし、カメラ2および制御対象機器3と一体となっていてもよい。
[Modification 1]
In the present embodiment, as shown in FIG. 1, the gesture input device 1, the
〔変形例2〕
また、本実施形態では、記憶部12に操作ジェスチャ情報42が格納されているが、操作ジェスチャ情報42の代わりに、操作ジェスチャテーブルが格納されていてもよい。操作ジェスチャテーブルとは、操作ジェスチャと判定ジェスチャとが対応付けられているものである。
[Modification 2]
In the present embodiment, the
この場合、操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャと判定ジェスチャとが対応付けられた操作ジェスチャテーブルを読み出すと共に、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信する。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致するか否かを判断する。
In this case, the operation
操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。
The operation
例えば、記憶部12に図7に示す操作ジェスチャテーブルが格納されているとする。このとき、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、「左手の握り拳」の判定ジェスチャに対応付けられている「右手の人差指のみを立てた状態」のジェスチャか、もしくは、「左手を上下に振る動作」のジェスチャであれば、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
For example, it is assumed that the operation gesture table shown in FIG. At this time, when the determination
また、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34の取得した特定部位情報の示すジェスチャが「右手を左右に振る動作」のジェスチャであったとしても、操作ジェスチャ判断部34は、操作ジェスチャと一致していないと判断する。
In addition, when the determination
なお、操作ジェスチャテーブルは、図7に示すように、操作ジェスチャと判定ジェスチャとが1対1または1対多で対応付けられていてもよいし、例示していないが、操作ジェスチャと判定ジェスチャとが多対1または多対多で対応付けられていてもよい。 In the operation gesture table, as shown in FIG. 7, the operation gesture and the determination gesture may be associated one-to-one or one-to-many, and although not illustrated, the operation gesture and the determination gesture May be associated in many-to-one or many-to-many.
〔変形例3〕
また、本実施形態では、判定ジェスチャ認識部21が判定ジェスチャを認識しているときに、操作ジェスチャ認識部22が操作ジェスチャの認識処理を実行しているが、これに限るものではない。例えば、判定ジェスチャ認識部21の判定ジェスチャの認識処理と、操作ジェスチャ認識部22の操作ジェスチャの認識処理を並列に実行させてもよい。
[Modification 3]
In the present embodiment, the operation
この場合、判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャ、操作ジェスチャが含まれているか否かを判断する。判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、判定ジェスチャ、操作ジェスチャが含まれていると判断すると、その旨を示す判定ジェスチャ有効通知、操作ジェスチャ有効通知を機器制御部23に送信する。
In this case, each of the determination
機器制御部23は、判定ジェスチャ有効通知および操作ジェスチャ有効通知の両方を受信している場合、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成する。
When both the determination gesture valid notification and the operation gesture valid notification are received, the
換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間を、操作ジェスチャ認識部22による操作ジェスチャの認識を有効とする操作ジェスチャ有効期間(第2ジェスチャ有効期間)として設定する。そして、機器制御部23は、操作ジェスチャ認識部22が上記操作ジェスチャ有効期間中に認識した操作ジェスチャに基づいて制御信号を生成する。
In other words, the
なお、制御信号テーブルにおいて制御信号と操作ジェスチャと判定ジェスチャとが対応付けられている場合、機器制御部23は、受信した判定ジェスチャ有効通知の示す判定ジェスチャ、および、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成してもよい。
<第2の実施形態>
本発明の第2の実施形態について図8から図10に基づいて説明すれば、以下のとおりである。
When the control signal, the operation gesture, and the determination gesture are associated with each other in the control signal table, the
<Second Embodiment>
The following describes the second embodiment of the present invention with reference to FIGS.
第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャに基づいて、複数の制御対象機器の中から1つ選択し、選択した制御対象機器に対して操作ジェスチャに基づく制御信号を送信するものである。第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャを認識している期間中にのみ、操作ジェスチャの認識を有効にするという点では、第1の実施形態に係るジェスチャ入力装置と同じである。以下では、第2の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。 The gesture input device according to the second embodiment selects one of a plurality of control target devices based on the determination gesture, and transmits a control signal based on the operation gesture to the selected control target device. is there. The gesture input device according to the second embodiment is the same as the gesture input device according to the first embodiment in that recognition of an operation gesture is enabled only during a period in which a determination gesture is recognized. . Hereinafter, features that are different from the gesture input device according to the first embodiment in the gesture input device according to the second embodiment will be mainly described.
なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。 For convenience of explanation, members having the same functions as those shown in the first embodiment are given the same reference numerals, and explanation thereof is omitted. Further, the terms defined in the first embodiment are used according to the definitions in the present embodiment unless otherwise specified.
〔ジェスチャ入力装置の構成〕
図8は、第2の実施形態に係るジェスチャ入力装置1aの要部構成の一例を示すブロック図である。図8に示すように、ジェスチャ入力装置1aは、制御部11a、記憶部12a、画像入力部13および通信部14を備えている。
[Configuration of gesture input device]
FIG. 8 is a block diagram illustrating an example of a main configuration of the gesture input device 1a according to the second embodiment. As shown in FIG. 8, the gesture input device 1a includes a
第2の実施形態では、ジェスチャ入力装置1aによって制御する対象である制御対象機器3が複数ある。図8に示す例では、制御対象機器3として、テレビ3a、エアコン3bおよびPC3cがある。
In the second embodiment, there are a plurality of control target devices 3 that are targets to be controlled by the gesture input device 1a. In the example illustrated in FIG. 8, the control target device 3 includes a
制御部11aは、記憶部12aから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1aが備える各部を統括的に制御するものである。
The
本実施形態では、制御部11aは、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22、機器制御部23aおよび機器選択部(制御機器特定手段)24を備える構成である。これらの制御部11aの各機能ブロック(21、22、23aおよび24)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
In the present embodiment, the
機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器として特定するものである。
Upon receiving the determination gesture validity notification from the determination
ここで、機器選択部24が特定した制御信号の送信先の制御対象機器を信号送信先機器と称する。機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。
Here, the control target device of the transmission destination of the control signal specified by the
機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。
Upon receiving the operation gesture validity notification from the operation gesture determination unit 34 (operation gesture recognition unit 22), the
機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する。
The
記憶部12aは、制御部11aが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、機器選択テーブル44等を格納している。
The
記憶部12aに格納されている機器選択テーブル44について図9に基づいて説明する。図9は、記憶部12aに格納されている機器選択テーブル44の一例を示す図である。
The device selection table 44 stored in the
図9に示すように、機器選択テーブル44は、判定ジェスチャと制御対象機器3とが対応付けられているものである。図9に示す例では、「左手の握り拳」のジェスチャと制御対象機器「テレビ」とが対応付けられており、「右目の開閉動作」のジェスチャと制御対象機器「エアコン」とが対応付けられており、「左手の人差指および中指のみが立てられた状態」のジェスチャと制御対象機器「PC」とが対応付けられている。 As illustrated in FIG. 9, the device selection table 44 is a table in which the determination gesture and the control target device 3 are associated with each other. In the example shown in FIG. 9, the gesture of “left hand fist” is associated with the control target device “TV”, and the gesture of “right eye opening / closing operation” is associated with the control target device “air conditioner”. In other words, the gesture of “only the left index finger and middle finger are raised” and the control target device “PC” are associated with each other.
記憶部12aに図9に示す機器選択テーブル44が格納されている場合、例えば、判定ジェスチャ認識部21が判定ジェスチャとして「左手の握り拳」のジェスチャを認識すると、機器選択部24は、信号送信先機器としてテレビ3aを特定する。
When the device selection table 44 shown in FIG. 9 is stored in the
〔ジェスチャ認識処理〕
次に、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理について図10に基づいて説明する。図10は、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, gesture recognition processing in the gesture input device 1a according to the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1a according to the second embodiment.
図10に示すS11〜S13までの処理は、図5に示すS1〜S3までの処理と同様であるため、説明を省略する。 The processes from S11 to S13 shown in FIG. 10 are the same as the processes from S1 to S3 shown in FIG.
ここで、S13において、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S13でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22および機器選択部24に通知する。
Here, in S13, when the determination
機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器(信号送信先機器)として特定する(S14)。
Upon receiving the determination gesture validity notification from the determination
機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。
The
次に、操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S15)。これ以降の図10に示すS15〜S17までの処理は、図5に示すS4〜S6までの処理と同様であるため、説明を省略する。
Next, when receiving the determination gesture validity notification, the specific part
S17において、機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する。
In S <b> 17, upon receiving an operation gesture valid notification from the operation gesture determination unit 34 (operation gesture recognition unit 22), the
そして、機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する(S18)。この後、S11に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
The
このように、機器選択部24は、機器選択テーブル44を参照して、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が認識した判定ジェスチャに対応する制御対象機器3を特定し、機器制御部23aは、機器選択部24の特定した制御対象機器3に対して、生成した制御信号を送信する。すなわち、機器制御部23aは、判定ジェスチャ認識部21の認識した判定ジェスチャに対応する制御対象機器3に対してのみ、制御信号を送信することができる。
As described above, the
そのため、ユーザは、予め判定ジェスチャと制御対象機器3の対応関係を知る(機器選択テーブル44を設定する)ことによって、操作ジェスチャを有効にするための判定ジェスチャを用いて、所望の制御対象機器3のみを動作させることができる。従って、ユーザは、動作対象の制御対象機器3を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御対象機器3のみを動作させることができる。 Therefore, the user knows the correspondence relationship between the determination gesture and the control target device 3 in advance (sets the device selection table 44), and uses the determination gesture for validating the operation gesture, thereby using the desired control target device 3. Can only operate. Therefore, the user can operate only the desired control target device 3 without performing an extra operation (for example, another gesture) in order to select the control target device 3 to be operated.
〔変形例4〕
第2の実施形態では、機器選択部24は、判定ジェスチャに基づいて制御対象機器を選択しているが、これに限るものではない。例えば、機器選択部24は、操作ジェスチャに基づいて制御対象機器を選択してもよい。この場合、機器選択テーブル44は、操作ジェスチャと制御対象機器とが対応付けられているものである。
[Modification 4]
In 2nd Embodiment, although the
なお、機器選択部24が操作ジェスチャに基づいて制御対象機器を選択する代わりに、制御信号テーブル43に含まれる制御信号が、制御対象機器ごとの制御内容を示すものであってもよい。つまり、機器制御部23aは、制御信号テーブル43を参照して、操作ジェスチャに対応する制御信号を、当該制御信号の示すまたは対応付けられている制御対象機器に対して送信すればよい。
Instead of the
また、機器選択部24は、判定ジェスチャおよび操作ジェスチャと異なる選択ジェスチャ(第3ジェスチャ)に基づいて制御対象機器を選択してもよい。この場合、制御部11aが選択ジェスチャを認識する選択ジェスチャ認識部(特定部位情報取得部および選択ジェスチャ判断部(第3ジェスチャ判断手段))を備えていてもよいし、判定ジェスチャ認識部(第3ジェスチャ判断手段)21または操作ジェスチャ認識部(第3ジェスチャ判断手段)22が選択ジェスチャを認識してもよい。
<第3の実施形態>
本発明の第3の実施形態について図11から図14に基づいて説明すれば、以下のとおりである。
In addition, the
<Third Embodiment>
A third embodiment of the present invention will be described below with reference to FIGS.
第3の実施形態に係るジェスチャ入力装置は、まずユーザの認証を行い、認証したユーザのジェスチャのみを検出するものである。第3の実施形態に係るジェスチャ入力装置において、認証したユーザのジェスチャのみを検出した後の処理、つまり、判定ジェスチャおよび操作ジェスチャの認識に関する処理、並びに、制御信号の生成および送信に関する処理は、第1の実施形態に係るジェスチャ入力装置における処理と同じである。以下では、第3の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。 The gesture input device according to the third embodiment first authenticates a user and detects only the authenticated user's gesture. In the gesture input device according to the third embodiment, the processing after detecting only the authenticated user's gesture, that is, the processing related to the recognition of the determination gesture and the operation gesture, and the processing related to the generation and transmission of the control signal This is the same as the processing in the gesture input device according to the first embodiment. Hereinafter, features that are different from the gesture input device according to the first embodiment in the gesture input device according to the third embodiment will be mainly described.
なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。 For convenience of explanation, members having the same functions as those shown in the first embodiment are given the same reference numerals, and explanation thereof is omitted. Further, the terms defined in the first embodiment are used according to the definitions in the present embodiment unless otherwise specified.
〔ジェスチャ入力装置の構成〕
図11は、第3の実施形態に係るジェスチャ入力装置1bの要部構成の一例を示すブロック図である。図11に示すように、ジェスチャ入力装置1bは、制御部11b、記憶部12b、画像入力部13および通信部14を備えている。
[Configuration of gesture input device]
FIG. 11 is a block diagram illustrating an example of a main configuration of a gesture input device 1b according to the third embodiment. As shown in FIG. 11, the gesture input device 1b includes a
制御部11bは、記憶部12bから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1bが備える各部を統括的に制御するものである。
The
本実施形態では、制御部11bは、機能ブロックとして、判定ジェスチャ認識部21b、操作ジェスチャ認識部22b、機器制御部23および顔認識部(ユーザ認証手段)25を備える構成である。これらの制御部11bの各機能ブロック(21b、22b、23および25)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
In this embodiment, the
顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔が登録されているユーザの顔と一致するか否かを判定し、登録されているユーザを認証するものである。具体的には、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する。
The
顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。
When it is determined that the generated face information matches the face information included in the read personal identification table, the
なお、顔情報は、人物の顔の画像データであってもよいし、人物の顔の画像データから抽出した特徴量を示すデータであってもよい。顔認識部25が実行する顔の認証処理に合わせて、顔情報を適宜設定すればよい。
The face information may be image data of a person's face, or data indicating a feature amount extracted from image data of a person's face. What is necessary is just to set face information suitably according to the authentication process of the face which the
判定ジェスチャ認識部21bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。判定ジェスチャ認識部21bは、具体的には、特定部位情報取得部31bおよび判定ジェスチャ判断部32を備えている。
When the determination
特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
When receiving the user authentication information from the
操作ジェスチャ認識部22bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32(判定ジェスチャ認識部21b)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。操作ジェスチャ認識部22bは、具体的には、特定部位情報取得部33bおよび操作ジェスチャ判断部34を備えている。
The operation
特定部位情報取得部33bは、顔認識部25からユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
The specific part
記憶部12bは、制御部11bが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、個人特定テーブル45等を格納している。
The
記憶部12bに格納されている個人特定テーブル45について図12に基づいて説明する。図12は、記憶部12bに格納されている個人特定テーブル45の一例を示す図である。
The personal identification table 45 stored in the
図12に示すように、個人特定テーブル45は、ユーザ名とユーザを認証するための顔情報とが対応付けられているものである。図12に示す例では、ユーザ名「Aさん」と顔情報「A1234」とが対応付けられており、ユーザ名「Bさん」と顔情報「B2345」とが対応付けられており、ユーザ名「Cさん」と顔情報「C3456」とが対応付けられている。 As shown in FIG. 12, the personal identification table 45 is a table in which a user name and face information for authenticating the user are associated with each other. In the example illustrated in FIG. 12, the user name “Mr. A” and face information “A1234” are associated with each other, the user name “Mr. B” and face information “B2345” are associated with each other, and the user name “Mr. “C” is associated with face information “C3456”.
〔ジェスチャ認識処理〕
次に、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理について図13に基づいて説明する。図13は、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理の一例を示すフローチャートである。
[Gesture recognition processing]
Next, a gesture recognition process in the gesture input device 1b according to the third embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a gesture recognition process in the gesture input device 1b according to the third embodiment.
図13に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S21)。次に、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する(S22)。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する(S23)。
As shown in FIG. 13, the
顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致しないと判定した場合(S23でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合(S23でYES)、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。
When the
判定ジェスチャ認識部21bの特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S24)。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
When receiving the user authentication information from the
判定ジェスチャ判断部32は、特定部位情報取得部31bから特定部位情報を取得し、また、記憶部12bから判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S25)。
The determination
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S25でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S25でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22bに通知する。
When the determination
操作ジェスチャ認識部22bの特定部位情報取得部33bは、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S26)。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
The specific part
操作ジェスチャ判断部34は、特定部位情報取得部33bから特定部位情報を取得し、また、記憶部12bから操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S27)。
The operation
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S27でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S27でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
Here, when the operation
機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12bから制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S28)。
Upon receiving the operation gesture validity notification from the operation
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S29)。この後、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
The
このように、顔認識部25は、カメラ2が撮像した画像に基づいてユーザを認証し、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャを検出する。すなわち、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャのみを検出する。
As described above, the
そのため、仮に、カメラ2が撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、特定部位情報取得部31bおよび33bは、カメラ2が撮像した画像のうち、顔認識部25が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、ジェスチャ入力装置1b(判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22b)が実行する処理負荷を低減することができる。
Therefore, even if the image captured by the
また、本実施形態に係るジェスチャ入力装置は、家庭等におけるセキュリティに利用することができる。具体的には、家の玄関扉にカメラを設置しておき、操作ジェスチャを玄関扉の開錠するための鍵として使用する。すなわち、まずユーザを認証し、その後、ユーザが所定の判定ジェスチャおよび操作ジェスチャを行うことにより、ユーザは玄関扉を開くことができる。 In addition, the gesture input device according to the present embodiment can be used for security at home and the like. Specifically, a camera is installed on the entrance door of the house, and the operation gesture is used as a key for unlocking the entrance door. That is, the user can first open the entrance door by authenticating the user and then performing a predetermined determination gesture and operation gesture.
〔変形例5〕
第3の実施形態では、顔認識部25は、ユーザ認証情報に顔位置情報を含めているが、これに加えて、個人特定テーブルにおいて一致した顔情報に対応付けられているユーザ名を示すユーザ名情報を含めてもよい。すなわち、ユーザ認証情報が顔位置情報およびユーザ名情報を含んでいてもよい。
[Modification 5]
In the third embodiment, the
この場合に、記憶部12bに格納されている判定ジェスチャ情報41の代わりに、個人別判定ジェスチャ情報が格納されていてもよい。個人別判定ジェスチャ情報とは、判定ジェスチャとユーザ名とが対応付けられているものである。個人別判定ジェスチャ情報は、例えば、図14に示すようなデータであってよい。
In this case, individual determination gesture information may be stored instead of the
ユーザ認証情報が顔位置情報およびユーザ名情報を含み、記憶部12bに個人別判定ジェスチャ情報が格納されている場合、判定ジェスチャ判断部32は、特定部位情報取得部31bから認証したユーザのジェスチャを示す特定部位情報を取得し、また、記憶部12bから個人別判定ジェスチャ情報を読み出し、さらに、顔認識部25からユーザ認証情報を受信する。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示す認証したユーザの示すジェスチャが、読み出した個人別判定ジェスチャ情報において、受信したユーザ認証情報に含まれるユーザ名情報の示すユーザ名に対応付けられている判定ジェスチャと一致するか否かを判断してもよい。
When the user authentication information includes face position information and user name information, and individual determination gesture information is stored in the
また、ユーザ名と判定ジェスチャとを対応付けるだけではなく、ユーザ名と、判定ジェスチャと、操作ジェスチャとを対応付けたテーブルを記憶部12bに格納しておいてもよい。
In addition to associating the user name with the determination gesture, a table in which the user name, the determination gesture, and the operation gesture are associated may be stored in the
〔変形例6〕
また、第3の実施形態では、顔認識部25がカメラ2から取得した画像に基づいて、ユーザを認証しているが、これに限るものではない。本実施形態において、例えば、IDカードによる認証、指紋認証、静脈認証等、公知の個人を認証する方法を利用することができる。カメラ2から取得した画像以外の情報に基づいてユーザを認証する場合、特定部位情報取得部31bおよび33bは、ユーザが存在すると考えられる(認証装置の位置等から推測される)画像上の位置から、認証したユーザの(身体の)位置を特定してもよい。また、特定部位情報取得部31bおよび33bは、カメラ2から取得した画像から所定の物体(IDカード等)を検出し、その検出した位置に基づいて認証したユーザの(身体の)位置を特定してもよい。また、記憶部12bに予めユーザと当該ユーザの身体を示す画像(顔画像等)とを対応付けたユーザ画像テーブルを格納しておき、特定部位情報取得部31bおよび33bは、記憶部12bから読み出したユーザ画像テーブルに基づいて、カメラ2から取得した画像における認証したユーザの(身体の)位置を特定してもよい。
<補足>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Modification 6]
In the third embodiment, the user is authenticated based on the image acquired by the
<Supplement>
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
最後に、ジェスチャ入力装置1の各ブロック、特に制御部11は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
Finally, each block of the gesture input device 1, particularly the
すなわち、ジェスチャ入力装置1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ入力装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ入力装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。 That is, the gesture input device 1 includes a CPU that executes instructions of a control program that realizes each function, a ROM that stores the program, a RAM that expands the program, a storage device such as a memory that stores the program and various data ( Recording medium). An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the gesture input device 1 which is software for realizing the above-described functions is recorded so as to be readable by a computer This can also be achieved by supplying to the gesture input device 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
また、ジェスチャ入力装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 The gesture input device 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
本発明は、ユーザが電子機器を制御するために使用する入力インターフェース(入力装置)に利用することができる。 The present invention can be used for an input interface (input device) used by a user to control an electronic device.
1、1a、1b ジェスチャ入力装置
2 カメラ
3 制御対象機器(制御機器)
3a テレビ
3b エアコン
3c PC
11、11a、11b 制御部
12、12a、12b 記憶部
13 画像入力部
21、21b 判定ジェスチャ認識部
22、21b 操作ジェスチャ認識部
23、23a 機器制御部(制御信号生成手段、送信手段)
24 機器選択部(制御機器特定手段)
25 顔認識部(ユーザ認証手段)
31、31b 特定部位情報取得部(ジェスチャ検出手段)
32 判定ジェスチャ判断部(第1ジェスチャ判断手段、第3ジェスチャ判断手段)
33、33b 特定部位情報取得部(ジェスチャ検出手段)
34 操作ジェスチャ判断部(第2ジェスチャ判断手段、第3ジェスチャ判断手段)
1, 1a, 1b
11, 11a,
24 device selection unit (control device specifying means)
25 Face recognition unit (user authentication means)
31, 31b Specific site information acquisition unit (gesture detection means)
32 determination gesture determination unit (first gesture determination means, third gesture determination means)
33, 33b Specific site information acquisition unit (gesture detection means)
34 Operation Gesture Judgment Unit (Second Gesture Judgment Unit, Third Gesture Judgment Unit)
Claims (5)
カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、
上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、
上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、
上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、
上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、
上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段と、
上記制御機器特定手段が特定した制御機器に、上記制御信号生成手段が生成した制御信号を送信する送信手段とを備えることを特徴とするジェスチャ入力装置。 A gesture input device that controls a control device based on a user's gesture operation,
Gesture detection means for detecting a gesture from an image captured by the camera;
First gesture determination means for determining from the gesture detected by the gesture detection means that a first gesture is included;
Second gesture determination means for determining from the gesture detected by the gesture detection means that a second gesture is included;
Third gesture determination means for determining that a third gesture is included from the gesture detected by the gesture detection means;
The period in which the first gesture determination means determines that the first gesture is included is a second gesture effective period in which recognition of the second gesture is effective, and the second gesture effective period includes the second gesture effective period. Control signal generating means for generating a control signal based on the second gesture when the second gesture determining means determines that two gestures are included;
Control for identifying the control device corresponding to the third gesture determined to include the third gesture determination means with reference to a device selection table in which the third gesture and the control device are associated with each other Device identification means;
A gesture input apparatus comprising: a transmission unit that transmits the control signal generated by the control signal generation unit to the control device specified by the control device identification unit.
上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することを特徴とする請求項1または2に記載のジェスチャ入力装置。 A user authentication means for authenticating the user;
The gesture input device according to claim 1, wherein the gesture detection unit detects a gesture of a user authenticated by the user authentication unit.
カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、
上記ジェスチャ検出ステップにおいて検出されたジェスチャに第3ジェスチャが含まれていることを判断する第3ジェスチャ判断ステップと、
上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、
上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断ステップにおいて含まれていると判断された第3ジェスチャに対応する上記制御機器を特定する制御機器特定ステップと、
上記制御機器特定ステップにおいて特定された制御機器に、上記制御信号生成ステップにおいて生成された上記制御信号を送信する送信ステップとを含むことを特徴とするジェスチャ入力装置の制御方法。 A control method of a gesture input device that controls a control device based on a user's gesture operation,
A gesture detection step for detecting a gesture from an image captured by the camera;
A first gesture determination step of determining that the first gesture is included in the gesture detected in the gesture detection step;
A second gesture determination step for determining that the gesture detected in the gesture detection step includes a second gesture;
A third gesture determination step for determining that the gesture detected in the gesture detection step includes a third gesture;
The period in which it is determined in the first gesture determination step that the first gesture is included is a second gesture effective period in which recognition of the second gesture is effective, and during the second gesture effective period, A control signal generation step for generating a control signal based on the second gesture when it is determined in the second gesture determination step that the second gesture is included;
The control device corresponding to the third gesture determined to be included in the third gesture determination step is identified with reference to a device selection table in which the third gesture and the control device are associated with each other. A control device identification step;
A control method for a gesture input device, comprising: a transmission step of transmitting the control signal generated in the control signal generation step to the control device specified in the control device specifying step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012094277A JP5024495B1 (en) | 2012-04-17 | 2012-04-17 | Gesture input device and method for controlling gesture input device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012094277A JP5024495B1 (en) | 2012-04-17 | 2012-04-17 | Gesture input device and method for controlling gesture input device |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011046680 Division | 2011-03-03 | 2011-03-03 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP5024495B1 true JP5024495B1 (en) | 2012-09-12 |
| JP2012185833A JP2012185833A (en) | 2012-09-27 |
Family
ID=46980559
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012094277A Active JP5024495B1 (en) | 2012-04-17 | 2012-04-17 | Gesture input device and method for controlling gesture input device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5024495B1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105867623A (en) * | 2016-03-31 | 2016-08-17 | 乐视控股(北京)有限公司 | Terminal device control method and device |
| US9639164B2 (en) | 2013-09-26 | 2017-05-02 | Fujitsu Limited | Gesture input method |
| CN113891159A (en) * | 2020-07-01 | 2022-01-04 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and control system |
| CN114167980A (en) * | 2021-11-18 | 2022-03-11 | 深圳市鸿合创新信息技术有限责任公司 | Gesture processing method and device, electronic equipment and readable storage medium |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5264007B1 (en) * | 2012-10-01 | 2013-08-14 | 善郎 水野 | controller |
| US9619017B2 (en) * | 2012-11-07 | 2017-04-11 | Qualcomm Incorporated | Techniques for utilizing a computer input device with multiple computers |
| US9134794B2 (en) | 2013-08-20 | 2015-09-15 | Kabushiki Kaisha Toshiba | System to identify user and device the user is intending to operate |
| JP5675917B1 (en) * | 2013-09-02 | 2015-02-25 | 株式会社東芝 | Device selection system, device selection device, device selection program |
| JP5948294B2 (en) * | 2013-09-25 | 2016-07-06 | 京セラドキュメントソリューションズ株式会社 | Touch panel device and image forming apparatus having the same |
| JP2015212886A (en) * | 2014-05-02 | 2015-11-26 | 株式会社ナカヨ | Wristband with information input function by movement |
| US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
| US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
| US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
| US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
| JP5980879B2 (en) * | 2014-10-28 | 2016-08-31 | レノボ・シンガポール・プライベート・リミテッド | Gesture recognition method, gesture input system, and electronic device |
| JP5893122B2 (en) * | 2014-12-24 | 2016-03-23 | 株式会社東芝 | Device selection system, device selection device, device selection program |
| EP3885882A1 (en) | 2015-04-30 | 2021-09-29 | Google LLC | Rf-based micro-motion tracking for gesture tracking and recognition |
| US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
| US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
| WO2020121536A1 (en) * | 2018-12-14 | 2020-06-18 | オリンパス株式会社 | User interface device, medical system, manipulation control method, and manipulation control program |
| US20230214024A1 (en) * | 2020-05-29 | 2023-07-06 | Nec Corporation | Image processing apparatus, image processing method, and non-transitory computer-readable medium |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005174356A (en) * | 2000-02-01 | 2005-06-30 | Toshiba Corp | Direction detection method |
| JP2010009484A (en) * | 2008-06-30 | 2010-01-14 | Denso It Laboratory Inc | Onboard equipment control device and onboard equipment control method |
-
2012
- 2012-04-17 JP JP2012094277A patent/JP5024495B1/en active Active
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9639164B2 (en) | 2013-09-26 | 2017-05-02 | Fujitsu Limited | Gesture input method |
| CN105867623A (en) * | 2016-03-31 | 2016-08-17 | 乐视控股(北京)有限公司 | Terminal device control method and device |
| CN113891159A (en) * | 2020-07-01 | 2022-01-04 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and control system |
| CN114167980A (en) * | 2021-11-18 | 2022-03-11 | 深圳市鸿合创新信息技术有限责任公司 | Gesture processing method and device, electronic equipment and readable storage medium |
| CN114167980B (en) * | 2021-11-18 | 2024-05-07 | 深圳市鸿合创新信息技术有限责任公司 | Gesture processing method, gesture processing device, electronic equipment and readable storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2012185833A (en) | 2012-09-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5024495B1 (en) | Gesture input device and method for controlling gesture input device | |
| WO2012117570A1 (en) | Gesture input device and method for controlling gesture input device | |
| KR102127932B1 (en) | Electronic device and method for controlling the same | |
| US10205883B2 (en) | Display control method, terminal device, and storage medium | |
| CN106415570B (en) | Dynamic keypad and touchscreen biometrics | |
| US10192109B2 (en) | Identification and/or authentication of a user using gaze information | |
| KR101688168B1 (en) | Mobile terminal and method for controlling the same | |
| CN205314704U (en) | Intelligence lock and system | |
| US20140118520A1 (en) | Seamless authorized access to an electronic device | |
| US20170046508A1 (en) | Biometric authentication using gesture | |
| JP2013196047A (en) | Gesture input apparatus, control program, computer-readable recording medium, electronic device, gesture input system, and control method of gesture input apparatus | |
| KR20150128377A (en) | Method for processing fingerprint and electronic device thereof | |
| KR102532746B1 (en) | Electronic device and control method thereof | |
| JP2015095164A (en) | Gesture recognition device and control method for gesture recognition device | |
| WO2019151368A1 (en) | Biometric authentication device, system, method and recording medium | |
| CN106022054A (en) | Unlocking method and device of intelligent wearable device | |
| JP2018525696A5 (en) | ||
| JP6267025B2 (en) | Communication terminal and communication terminal authentication method | |
| WO2020095350A1 (en) | Information processing device, information processing method, and recording medium | |
| US11068690B2 (en) | Detection device, information processing device, and information processing method | |
| KR102514036B1 (en) | Electronic device and method for controlling the same | |
| TW201533602A (en) | Methods and systems for commencing a process based on motion detection, and related computer program products | |
| WO2022147411A1 (en) | Facial expression to augment face id and presentation attack detection | |
| KR20220108378A (en) | Apparatus and method for identifying individual based on teeth | |
| CN116700479A (en) | Device control method, device, electronic device and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120522 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120604 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150629 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5024495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |