JP2020013348A - Gesture detection device, gesture detection method, and gesture detection control program - Google Patents
Gesture detection device, gesture detection method, and gesture detection control program Download PDFInfo
- Publication number
- JP2020013348A JP2020013348A JP2018135291A JP2018135291A JP2020013348A JP 2020013348 A JP2020013348 A JP 2020013348A JP 2018135291 A JP2018135291 A JP 2018135291A JP 2018135291 A JP2018135291 A JP 2018135291A JP 2020013348 A JP2020013348 A JP 2020013348A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- immediately
- operator
- gestures
- gesture detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、入力操作に用いるジェスチャを検出するジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラムに関するものである。 The present invention relates to a gesture detection device that detects a gesture used for an input operation, a gesture detection method, and a gesture detection control program.
従来のジェスチャ検出装置として、例えば、特許文献1に記載されたものが知られている。特許文献1のジェスチャ検出装置(ハンドパターンスイッチ装置)は、操作者のジェスチャが意図をもって行われたものか、不用意に行われたものかを確実に識別するようにし、誤認識の発生を抑制している。具体的には、カメラによる撮像領域において、操作者が予め設定した手指の形状で、その手指の位置を所定時間にわたって、停止させたとき、検出装置は、操作者の意図を持ったジェスチャによる操作が開始されたものと認識するようになっている。そして、その後に、検出装置は、手指の形状と動きとに基づいてくジェスチャ操作の検出処理を実行するようになっている。 As a conventional gesture detection device, for example, a device described in Patent Document 1 is known. The gesture detection device (hand pattern switch device) disclosed in Patent Literature 1 reliably identifies whether an operator's gesture has been performed intentionally or carelessly, and suppresses the occurrence of erroneous recognition. are doing. Specifically, when the position of the finger is stopped for a predetermined time in the shape of the finger set by the operator in the imaging region of the camera, the detection device performs the operation by the gesture with the intention of the operator. Is recognized as being started. After that, the detection device executes a gesture operation detection process based on the shape and movement of the finger.
しかしながら、上記特許文献1では、検出装置は、操作者の意図を持ったジェスチャ操作の開始を認識するために、予め設定した手指の形状で、所定時間にわたって停止させる必要があり、ジェスチャ操作が煩雑(手間のかかる)ものとなっている。 However, in Patent Literature 1, in order to recognize the start of the gesture operation with the intention of the operator, the detection device needs to be stopped for a predetermined time with a predetermined finger shape, which makes the gesture operation complicated. (It takes time).
本発明の目的は、上記問題に鑑み、ジェスチャ検出のための操作の手間を増やすことなく、操作者の意図を持ったジェスチャであることを認識可能とするジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラムを提供することにある。 In view of the above problems, it is an object of the present invention to provide a gesture detection device, a gesture detection method, and a gesture detection method capable of recognizing a gesture intended by an operator without increasing the time and effort for gesture detection. It is to provide a detection control program.
本発明は上記目的を達成するために、以下の技術的手段を採用する。 The present invention employs the following technical means to achieve the above object.
第1の発明では、操作対象に対して、操作者のジェスチャに基づいて入力操作を行う際の、ジェスチャを検出するジェスチャ検出装置において、
撮像装置(10)によって撮像された操作者の撮像データから抽出された特徴量データに基づいて、ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとしてジェスチャの区間を抽出するジェスチャ区間抽出部(120)と、
開始直前ジェスチャと終了直後ジェスチャとの間に行われたジェスチャを、入力用ジェスチャとして識別するジェスチャ識別部(130)と、を備えることを特徴としている。
According to a first aspect, in a gesture detection device that detects a gesture when performing an input operation on an operation target based on a gesture of an operator,
Based on the feature amount data extracted from the imaging data of the operator captured by the imaging device (10), of the gestures, the first of a set of gestures similar to each other is the gesture just before the start, and the last is the end. A gesture section extraction unit (120) for extracting a section of a gesture as a gesture immediately after;
And a gesture identification unit (130) for identifying a gesture performed between the gesture immediately before the start and the gesture immediately after the end as a gesture for input.
また、第2の発明では、操作対象に対して、操作者のジェスチャに基づいて入力操作を行う際の、ジェスチャを検出するジェスチャ検出方法において、
撮像装置(10)によって撮像された操作者の撮像データから抽出された特徴量データに基づいて、ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとしてジェスチャの区間を抽出し、
開始直前ジェスチャと終了直後ジェスチャとの間に行われたジェスチャを、入力用ジェスチャとして識別することを特徴としている。
Further, in the second invention, in a gesture detection method for detecting a gesture when performing an input operation on an operation target based on a gesture of an operator,
Based on the feature amount data extracted from the image data of the operator imaged by the imaging device (10), of the gestures, the first of a set of gestures similar to each other is the gesture just before the start, and the latter is the end. Immediately after extracting a gesture section as a gesture,
A gesture performed between the gesture immediately before the start and the gesture immediately after the end is identified as an input gesture.
また、第3の発明では、操作対象に対して、操作者のジェスチャに基づいて入力操作を行う際の、ジェスチャを検出するジェスチャ検出制御プログラムにおいて、
コンピュータを、
撮像装置(10)によって撮像された操作者の撮像データから抽出された特徴量データに基づいて、ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとしてジェスチャの区間を抽出するジェスチャ区間抽出部(120)と、
開始直前ジェスチャと終了直後ジェスチャとの間に行われたジェスチャを、入力用ジェスチャとして識別するジェスチャ識別部(130)として機能させることを特徴としている。
In the third invention, in a gesture detection control program for detecting a gesture when performing an input operation on an operation target based on a gesture of an operator,
Computer
Based on the feature amount data extracted from the image data of the operator imaged by the imaging device (10), of the gestures, the first of a set of gestures similar to each other is the gesture just before the start, and the latter is the end. A gesture section extraction unit (120) for extracting a section of the gesture as a gesture immediately after;
A gesture performed between the gesture immediately before the start and the gesture immediately after the end is made to function as a gesture identification unit (130) for identifying the gesture as an input gesture.
一般的に、操作者がジェスチャを行う際の開始時と終了時では、類似した姿勢を取る。即ち、操作者は所定のジェスチャを開始するときは、まず、所定の手指形状(ジェスチャの基本形状)で手をかざす行為をとり、所定のジェスチャを実行した後は、最初と同じ所定の手指形状を維持して、ジェスチャを終了する。 Generally, the operator takes a similar posture at the time of starting and at the time of ending when performing a gesture. That is, when starting the predetermined gesture, the operator first takes an action of holding the hand with a predetermined finger shape (basic shape of the gesture), and after executing the predetermined gesture, the same predetermined finger shape as the first time. To end the gesture.
よって、本発明によれば、互いに類似する一組のジェスチャを捉えることで、開始直前ジェスチャおよび終了直後ジェスチャを抽出して、ジェスチャの区間を抽出することが可能となる。そして、開始直前ジェスチャと終了直後ジェスチャとの間に行われたジェスチャを、入力用ジェスチャとして識別することで、例えば、不用意に行われたジェスチャではなく、操作者の意図を持ったジェスチャとして確実に認識することが可能となる。よって、従来技術のように、わざわざジェスチャ検出のための操作の手間を増やすことなく、入力用のジェスチャを認識することができ、ひいては、誤認識の発生を抑制することができる。 Therefore, according to the present invention, by capturing a set of gestures that are similar to each other, it is possible to extract a gesture immediately before the start and a gesture immediately after the end, and extract a section of the gesture. Then, by identifying the gesture performed between the gesture immediately before the start and the gesture immediately after the end as the input gesture, for example, instead of the carelessly performed gesture, the gesture having the intention of the operator can be reliably performed. Can be recognized. Therefore, it is possible to recognize an input gesture without increasing the time and effort for gesture detection as in the related art, and it is possible to suppress occurrence of erroneous recognition.
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。 Note that the reference numerals in parentheses of the above means indicate the correspondence with specific means described in the embodiment described later.
以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。 Hereinafter, a plurality of embodiments for carrying out the present invention will be described with reference to the drawings. In each embodiment, portions corresponding to the items described in the preceding embodiment are denoted by the same reference numerals, and redundant description may be omitted. When only a part of the configuration is described in each embodiment, the other embodiments described above can be applied to other parts of the configuration. Not only the combination of the parts that clearly indicate that a combination is possible in each embodiment, but also the embodiments can be partially combined without being specified, unless there is any particular problem with the combination. It is also possible.
(第1実施形態)
第1実施形態のジェスチャ検出装置100について図1〜図4を用いて説明する。本実施形態のジェスチャ検出装置100は、車両に搭載され、運転者(操作者)の体の特定部位の動き(ジェスチャ)に基づいて、各種車両機器に対する入力操作を行う際の、ジェスチャを検出する装置となっている。
(1st Embodiment)
The
各種車両機器としては、例えば、車室内の空調を行う空調装置、自車の現在位置表示あるいは目的地への案内表示等を行うカーナビゲーション装置(以下、カーナビ装置)、テレビ放映、ラジオ放送、CD/DVDの再生等を行うオーディオ装置等、がある。これらの各種車両機器は、本発明の操作対象に対応する。尚、各種車両機器としては、上記に限らず、ヘッドアップディスプレイ装置、ルームランプ装置、後席サンシェード装置、電動シート装置、グローボックス開閉装置等がある。 Examples of various vehicle devices include an air conditioner that air-conditions a vehicle interior, a car navigation device (hereinafter, a car navigation device) that displays a current position of a vehicle or a guide display to a destination, a television broadcast, a radio broadcast, and a CD. / DVD playback audio device. These various vehicle devices correspond to the operation target of the present invention. The various types of vehicle equipment are not limited to those described above, and include a head-up display device, a room lamp device, a rear seat sunshade device, an electric seat device, a glow box opening / closing device, and the like.
ジェスチャ検出装置100は、図1に示すように、撮像装置10によって撮像された運転者の体の特定の部位の撮像データをもとに、入力操作用のジェスチャを検出する。検出されたジェスチャに基づいて、各種車両機器が操作され、操作の結果(作動状態等)が情報機器20に表示されるようになっている。
As shown in FIG. 1, the
運転者の体の特定部位としては、例えば、運転者の手の指、手の平、腕等とすることができる。本実施形態では、入力操作用のジェスチャとして、主に手の指(指差しジェスチャ、サークルジェスチャ、ウェーブジェスチャ、フリックジェスチャ等)を用いるものとしている。 The specific part of the driver's body may be, for example, the driver's finger, palm, arm, or the like. In the present embodiment, as a gesture for an input operation, a finger (a pointing gesture, a circle gesture, a wave gesture, a flick gesture, or the like) is mainly used.
尚、各種車両機器は、入力操作用のジェスチャによって、例えば、空調装置であると、設定温度の変更、空調風の風量の変更等が行われ、また、カーナビ装置では、地図の拡大縮小、目的地設定等が行われ、また、オーディオ装置では、テレビ局、ラジオ局の変更、楽曲の選択、音量の変更等が行われる。 For example, in the case of an air conditioner, a change in set temperature, a change in the amount of conditioned air, and the like are performed by various input and output gestures. Location setting and the like are performed, and in the audio device, change of a television station or a radio station, selection of a music piece, change of a volume, and the like are performed.
撮像装置10は、運転者の体の特定部位の動きを連続的に(時間経過と共に)撮像し、撮像データをジェスチャ検出装置100(手検出部110)に出力するようになっている。
The
撮像装置10としては、対象物の輝度画像を形成するカメラ、距離画像を形成する距離画像センサ、あるいはそれらの組合せを用いることができる。カメラとしては、近赤外線を捉える近赤外線カメラ、あるいは可視光を捉える可視光カメラ等がある。
As the
また、距離画像センサとしては、例えば、複数のカメラで同時に撮影して視差から奥行方向の情報を計測するステレオカメラ、あるいは、光源からの光が対象物で反射して返るまでの時間で奥行きを計測するToF(Time of Flight)カメラ等がある。本実施形態では、撮像装置10としては、カメラを用いたものとしている。
Further, as a distance image sensor, for example, a stereo camera that simultaneously captures images with a plurality of cameras and measures information in the depth direction from parallax, or the depth from the time when light from a light source is reflected by an object and returned. There is a ToF (Time of Flight) camera to measure. In the present embodiment, a camera is used as the
情報機器20は、各種車両機器の作動状態等を表示する表示部であり、空調表示部、カーナビ表示部、およびオーディオ表示部等がある。情報機器20は、例えば、液晶ディスプレイあるいは有機ELディスプレイ等によって形成されている。
The
ジェスチャ検出装置100は、例えば、CPU、ROM、RAM等を備えたコンピュータであり、手検出部110、ジェスチャ区間抽出部120、およびジェスチャ識別部130等を備えている。
The
手検出部110は、撮像装置10によって撮像された撮像データ(画像)から、運転者の手が存在する領域を特定して、特定した領域のデータをジェスチャ区間抽出部120に出力するようになっている。尚、手を検出する手法としては、例えば、以下の文献等に示されている。
・M. Kolsch and M. Turk.: Robust Hand Detection. FGR, 2004
・Wei Fan, Li Chen, Wei Liu, Yuan He, Jun Sun, Shutao Li: Monocular Vision Based Relative Depth Estimation for Hand Gesture Recognition. MVA 2013 。
The
・ M. Kolsch and M. Turk .: Robust Hand Detection. FGR, 2004
・ Wei Fan, Li Chen, Wei Liu, Yuan He, Jun Sun, Shutao Li: Monocular Vision Based Relative Depth Estimation for Hand Gesture Recognition. MVA 2013.
ジェスチャ区間抽出部120は、運転者が入力操作のために意図的に行ったジェスチャの区間を抽出する部位であり、開始終了候補抽出部121、類似度算出部122、および開始終了決定部123等を有している(詳細後述)。
The gesture
ジェスチャ識別部130は、ジェスチャ区間抽出部120によって抽出された区間のジェスチャを、入力操作のために運転者が意図的に行ったジェスチャとして識別する部位である。ジェスチャ識別部130は、識別したジェスチャを各種車両機器、および情報機器20に出力する部位となっている。
The
本実施形態のジェスチャ検出装置100は、以上のような構成となっており、以下、図2〜図4を加えて、作動および作用効果について説明する。
The
撮像装置10によって撮像された撮像データは、手検出部110に出力される。手検出部110は、撮像データにおいて、手が存在する領域を特定して、特定した領域のデータを、ジェスチャ区間抽出部120の開始終了候補抽出部121に出力する。
The image data captured by the
開始終了候補抽出部121は、図2に示すように、手検出部110から出力された撮像データのフレームから、ジェスチャの開始時および終了時のフレームの候補を抽出する。ここで、ジェスチャの開始時のフレームというのは、運転手がジェスチャを行う際の開始時の状態を示すフレームである。例えば、実行するジェスチャを、フリックジェスチャとすると、ジェスチャ開始時というのは、まず、指を立てた手をかざした状態に対応する。また、ジェスチャの終了時というのは、フリックジェスチャを終えたときに、開始時と同様に、指を立てた手の姿勢が維持された状態に対応する。
As illustrated in FIG. 2, the start / end
開始終了候補抽出部121は、3枚以上の連続した撮像フレーム(撮像データ)を用いて、1つのフレームに基づく静的な特徴量(特徴量データ)と、複数のフレームに基づく動的な特徴量(特徴量データ)とを抽出し、それらを結合して1つの特徴量を作成する。好適には、静的特徴量としてHOG(Histogram of Oriented Gradient)、動的特徴量としてHoOF(Histogram of Optical Flow)が使用できる。
The start / end
開始終了候補抽出部121のデータベースには、予め、ジェスチャの開始時および終了時の特徴量と、それ以外の時の特徴量との分類基準を学習した基準データが記憶されている。そして、開始終了候補抽出部121は、実際の撮像フレームの中から抽出した特徴量を基準データにより分類し、開始時および終了時の特徴量としての基準を満たすものを候補として抽出する。学習・分類には機械学習の手法を用いることができ、好適にはRandom Forestが使用できる。図2では、連続する撮像フレームのうち、符号1、2、3、4で表示された部分が、ジェスチャの開始時および終了時の候補として複数抽出された部分(フレーム)となっている。
The database of the start / end
類似度算出部122は、開始終了候補抽出部121によって抽出された複数の候補のうち、2つで一組みとなるすべての組合せを形成して、各組の候補の撮像フレームから、静的な特徴量(特徴量データ)を抽出し、抽出した特徴量を用いて、各組ごとの類似度を算出する。図3では、2つで一組みとなるすべての組み合せは、符号1と2、符号1と3、符号1と4、符号2と3、符号2と4、符号3と4であることを示している。類似度算出部122は、これらのすべての組み合せについて、2つの候補の類似度をそれぞれ算出するのである。
The
開始終了決定部123は、類似度算出部122によって算出された類似度のうち、最も高い類似度を持つ組み合せ(一組)を抽出し、その組み合せにおいて、早い方(先の方)を開始直前ジェスチャのフレームとし、また遅い方(後の方)を終了直後のジェスチャのフレームとして決定する。そして、開始終了決定部123は、開始直前のフレームと終了直後のフレームの間のフレームを、運転者が入力操作のために行ったジェスチャの区間として決定する。図4では、図3における各組み合せのうち、各符号1と2の組み合せの類似度が最も高く、符号1と2の間が、ジェスチャ区間として決定されたことを示している。
The start /
そして、ジェスチャ識別部130は、開始終了決定部123によって決定されたジェスチャ区間の全撮像フレームについて、静的な特徴量と動的な特徴量とを抽出する。ジェスチャ識別部130のデータベースには、予め、各ジェスチャ動作の特徴量を分類する基準を示すジェスチャ基準データが記憶されている。そして、ジェスチャ識別部130は、ジェスチャ基準データに基づき、ジェスチャ区間における撮像フレームの特徴量が、どのジェスチャ動作のものか識別(分類)する。
Then, the
ジェスチャ識別部130は、識別したジェスチャを各種車両機器、および各情報機器20に出力することで、各種車両機器は、ジェスチャに応じた入力操作が行われ、各情報機器20には、操作された作動状態等が表示される。
The
一般的に、運転手がジェスチャを行う際の開始時と終了時では、類似した姿勢を取る。即ち、運転手は所定のジェスチャを開始するときは、まず、所定の手指形状(ジェスチャの基本形状)で手をかざす行為をとり、所定のジェスチャを実行した後は、最初と同じ所定の手指形状を維持して、ジェスチャを終了する。 In general, a driver takes a similar posture at the start and end of a gesture. That is, when starting a predetermined gesture, the driver first takes an action of holding a hand with a predetermined finger shape (basic shape of the gesture), and after performing the predetermined gesture, the same predetermined finger shape as the first time. To end the gesture.
よって、本実施形態によれば、ジェスチャ区間抽出部120は、互いに類似する一組のジェスチャを捉えることで、開始直前ジェスチャおよび終了直後ジェスチャを抽出して、ジェスチャの区間を抽出することが可能となる。そして、ジェスチャ識別部130は、開始直前ジェスチャと終了直後ジェスチャとの間に行われたジェスチャを、入力用ジェスチャとして識別することで、例えば、不用意に行われたジェスチャではなく、運転主の意図を持ったジェスチャとして確実に認識することが可能となる。よって、従来技術のように、わざわざジェスチャ検出のための操作の手間を増やすことなく、入力用のジェスチャを認識することができ、ひいては、誤認識の発生を抑制することができる。
Thus, according to the present embodiment, the gesture
また、本実施形態では、類似度算出部122が処理を行う前段階で、互いに類似する複数組みのジェスチャの候補を抽出する開始終了候補抽出部121を設けている。これにより、複数組みのジェスチャの候補を予め抽出することで、類似度算出部122において、各組の候補に対して類似度を順序立てて計算することが可能となり、計算負荷を減らすことができる。
Further, in the present embodiment, before the
(その他の実施形態)
上記第1実施形態では、手検出部110を設けるものとして説明したが、手検出部110を廃止して、撮像装置10によって撮像された撮像データをジェスチャ区間抽出部120に出力するものとしてもよい。
(Other embodiments)
In the above-described first embodiment, the
上記第1実施形態では、開始終了候補抽出部121を設けるものとして説明したが、計算の負荷を重視しないのであれば、開始終了候補抽出部121は、廃止したものとしてもよい。
In the first embodiment described above, the start / end
また、対象となる操作者は、運転者に限らず、助手席者としてもよい。この場合、助手席者も、ジェスチャを行うことで、ジェスチャ検出装置100によるジェスチャ検出が行われて、各種車両機器の操作が可能となる。
The target operator is not limited to the driver, and may be a passenger. In this case, the passenger also performs the gesture, the gesture detection is performed by the
尚、上記第1実施形態で説明したジェスチャ検出装置100が実行する内容は、本発明の「ジェスチャ検出方法」に対応する。また、上記第1実施形態では、ジェスチャ検出のために、ジェスチャ検出装置100を用いたものとして説明したが、例えば、センタサーバーやクラウド等の記憶媒体に記憶された制御プログラムによって、コンピュータが、各部110、120、130として機能するようにすることで、ジェスチャ検出が可能である。
Note that the content executed by the
10 撮像装置
100 ジェスチャ検出装置
120 ジェスチャ区間抽出部
121 開始終了候補抽出部
122 類似度算出部
123 開始終了決定部
130 ジェスチャ識別部
Claims (5)
撮像装置(10)によって撮像された前記操作者の撮像データから抽出された特徴量データに基づいて、前記ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとして前記ジェスチャの区間を抽出するジェスチャ区間抽出部(120)と、
前記開始直前ジェスチャと前記終了直後ジェスチャとの間に行われた前記ジェスチャを、入力用ジェスチャとして識別するジェスチャ識別部(130)と、を備えるジェスチャ検出装置。 When performing an input operation on an operation target based on a gesture of an operator, in a gesture detection device that detects the gesture,
Based on feature amount data extracted from the imaging data of the operator captured by the imaging device (10), a gesture of a set of gestures similar to each other is gestured immediately before the start of the gesture and a gesture after the gesture is started. A gesture section extraction unit (120) for extracting a section of the gesture as a gesture immediately after the end of
A gesture detection device comprising: a gesture identification unit (130) that identifies the gesture performed between the gesture immediately before the start and the gesture immediately after the end as an input gesture.
前記類似度算出部によって算出された前記類似度のうち、前記類似度の最も高い組のジェスチャを前記一組のジェスチャとして抽出し、前記開始直前ジェスチャ、および前記終了直後ジェスチャを決定する開始終了決定部(123)と、を有する請求項1に記載のジェスチャ検出装置。 A similarity calculating unit (122) that calculates a similarity for each of a plurality of sets of gestures that are similar to each other;
From the similarities calculated by the similarity calculating unit, a set of gestures having the highest similarity is extracted as the set of gestures, and a start / end determination for determining the gesture immediately before the start and the gesture immediately after the end is performed. The gesture detection device according to claim 1, further comprising: a unit (123).
撮像装置(10)によって撮像された前記操作者の撮像データから抽出された特徴量データに基づいて、前記ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとして前記ジェスチャの区間を抽出し、
前記開始直前ジェスチャと前記終了直後ジェスチャとの間に行われた前記ジェスチャを、入力用ジェスチャとして識別するジェスチャ検出方法。 When performing an input operation on an operation target based on a gesture of an operator, in the gesture detection method for detecting the gesture,
Based on feature amount data extracted from the imaging data of the operator captured by the imaging device (10), a gesture of a set of gestures similar to each other is gestured immediately before the start of the gesture and a gesture after the gesture is started. Is extracted immediately after the end of the gesture as a gesture,
A gesture detection method for identifying the gesture performed between the gesture immediately before the start and the gesture immediately after the end as an input gesture.
コンピュータを、
撮像装置(10)によって撮像された前記操作者の撮像データから抽出された特徴量データに基づいて、前記ジェスチャのうち、互いに類似する一組のジェスチャの先の方を開始直前ジェスチャ、後の方を終了直後ジェスチャとして前記ジェスチャの区間を抽出するジェスチャ区間抽出部(120)と、
前記開始直前ジェスチャと前記終了直後ジェスチャとの間に行われた前記ジェスチャを、入力用ジェスチャとして識別するジェスチャ識別部(130)として機能させるためのジェスチャ検出制御プログラム。 When performing an input operation on an operation target based on a gesture of an operator, in a gesture detection control program for detecting the gesture,
Computer
Based on feature amount data extracted from the imaging data of the operator captured by the imaging device (10), a gesture of a set of gestures similar to each other is gestured immediately before the start of the gesture and a gesture after the gesture is started. A gesture section extraction unit (120) for extracting a section of the gesture as a gesture immediately after the end of
A gesture detection control program for causing the gesture performed between the gesture immediately before the start and the gesture immediately after the end to function as a gesture identification unit (130) that identifies the gesture as an input gesture.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018135291A JP7163649B2 (en) | 2018-07-18 | 2018-07-18 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018135291A JP7163649B2 (en) | 2018-07-18 | 2018-07-18 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020013348A true JP2020013348A (en) | 2020-01-23 |
| JP7163649B2 JP7163649B2 (en) | 2022-11-01 |
Family
ID=69169845
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018135291A Active JP7163649B2 (en) | 2018-07-18 | 2018-07-18 | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7163649B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021175175A (en) * | 2020-04-28 | 2021-11-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd | Method, program, and apparatus for operating movable object based on human body indication |
| US12108123B2 (en) | 2020-02-28 | 2024-10-01 | Samsung Electronics Co., Ltd. | Method for editing image on basis of gesture recognition, and electronic device supporting same |
| WO2025058219A1 (en) * | 2023-09-15 | 2025-03-20 | 삼성전자 주식회사 | Electronic device and operation method thereof |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011192090A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control programprogram |
-
2018
- 2018-07-18 JP JP2018135291A patent/JP7163649B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011192090A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control programprogram |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12108123B2 (en) | 2020-02-28 | 2024-10-01 | Samsung Electronics Co., Ltd. | Method for editing image on basis of gesture recognition, and electronic device supporting same |
| JP2021175175A (en) * | 2020-04-28 | 2021-11-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd | Method, program, and apparatus for operating movable object based on human body indication |
| WO2025058219A1 (en) * | 2023-09-15 | 2025-03-20 | 삼성전자 주식회사 | Electronic device and operation method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7163649B2 (en) | 2022-11-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9235269B2 (en) | System and method for manipulating user interface in vehicle using finger valleys | |
| US9696814B2 (en) | Information processing device, gesture detection method, and gesture detection program | |
| US8817087B2 (en) | Robust video-based handwriting and gesture recognition for in-car applications | |
| US9330308B2 (en) | Apparatus method and computer-readable medium that detects different regions of user's hand for recognizing gesture for carrying out operation of vehicle | |
| CN112590794A (en) | Method and apparatus for determining an estimate of the ability of a vehicle driver to take over control of a vehicle | |
| US9171223B2 (en) | System and method for effective section detecting of hand gesture | |
| US20150234460A1 (en) | Gesture recognition device and method of controlling gesture recognition device | |
| CN103869975B (en) | The system and method for wrist angle operation user interface are utilized in vehicle | |
| US9477315B2 (en) | Information query by pointing | |
| US20180088671A1 (en) | 3D Hand Gesture Image Recognition Method and System Thereof | |
| WO2013128291A2 (en) | Method of fusing multiple information sources in image-based gesture recognition system | |
| CN105393281A (en) | Gesture determination device and method, gesture-operated device, program, and recording medium | |
| US20140152549A1 (en) | System and method for providing user interface using hand shape trace recognition in vehicle | |
| JP6589796B2 (en) | Gesture detection device | |
| JP2020013348A (en) | Gesture detection device, gesture detection method, and gesture detection control program | |
| CN114882480A (en) | Method, device, medium and electronic equipment for acquiring state of target object | |
| US20140361981A1 (en) | Information processing apparatus and method thereof | |
| CN106527674A (en) | Human-computer interaction method, equipment and system for vehicle-mounted monocular camera | |
| JP2012164026A (en) | Image recognition device and display device for vehicle | |
| WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
| JP2016099643A (en) | Image processing device, image processing method, and image processing program | |
| JP5912177B2 (en) | Operation input device, operation input method, and operation input program | |
| CN104199556A (en) | Information processing method and device | |
| US20230123623A1 (en) | Gesture detecting apparatus and gesture detecting method | |
| JP2016157457A (en) | Operation input device, operation input method and operation input program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210407 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220322 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7163649 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |