JP2013037675A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2013037675A5 JP2013037675A5 JP2012140086A JP2012140086A JP2013037675A5 JP 2013037675 A5 JP2013037675 A5 JP 2013037675A5 JP 2012140086 A JP2012140086 A JP 2012140086A JP 2012140086 A JP2012140086 A JP 2012140086A JP 2013037675 A5 JP2013037675 A5 JP 2013037675A5
- Authority
- JP
- Japan
- Prior art keywords
- user
- screen
- gesture
- hand
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims description 76
- 238000000034 method Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 241000283080 Proboscidea <mammal> Species 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 67
- 230000003993 interaction Effects 0.000 description 16
- 230000009471 action Effects 0.000 description 8
- 210000004247 hand Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000005057 finger movement Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 210000002683 foot Anatomy 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
Images
Description
本開示は、対象物のトラッキングに有効な方法および装置に関するものであり、より具体的には、ユーザの手および指の動きをトラッキングし、トラッキングデータを用いて装置とのユーザの相互作用を制御するための高度な方法を提供するシステム、方法および装置に関する。
本願は、2011年6月23日に出願された「電子装置との相互作用のためのユーザ動作の特定およびトラッキングの方法システム」と題する米国仮特許出願61/500,480に基づく優先権を主張しており、この米国仮特許出願は、参照によって本願に組み込まれる。
大体において、コンピュータやタブレットや携帯電話などの電子装置との人の相互作用では、物理的に制御装置を操作し、ボタンを押下し、またはスクリーンをタッチすることを要する。例えば、ユーザは、キーボードとマウスなどの入力装置を介して、コンピュータと相互作用する。キーボードとマウスは、テキスト入力やドキュメントのスクロールなどの機能に有効であるが、キーボードとマウスは、ユーザが電子装置と相互作用する多くの他の方法には有効ではない。マウスを把持するユーザの手は、平らな2次元の表面に沿ってのみ動くように制限されており、3次元の仮想空間でマウスを操作(ナビゲート)することは、使いにくく非直感的である。同様に、タッチスクリーンの平らなインターフェイスは、ユーザに奥行きの概念をもたらさない。これらの装置は、手と指のあらゆる動きを、技術の制約に従う2次元の限定された一部の動きに制限する。
ユーザの相互作用の経験を供給し、動きを自動的に定義して識別するシステムおよび方法の例を図面に示す。この例および図面は、限定ではなく一例である。
いくつかの実施形態における、近距離の対象物トラッキングシステムの構成要素の例を示す概略図である。
いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の一例を示すワークフロー図である。
いくつかの実施形態における、トラッキングされた手のジェスチャーの画像の例を示す図である。
いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の一例を示すワークフロー図である。
いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の他の例を示すワークフロー図である。
近距離の対象物のトラッキングのためのシステムおよび方法を説明する。ユーザの手および指または他の対象の近距離の奥行き画像は、奥行きセンサを用いて取得される。奥行きセンサから取得される奥行き画像データを用いて、ユーザの手および指または他の対象の動作が識別され、トラッキングされる。ユーザの手および指または他の対象は、画面上の表現(描写)として示され、ここで、表現(描写)は、識別される動作に対応するジェスチャーを実施することを表示する。ユーザの手および指または他の対象物の表現は、画面上に表示される他の対象物と相互作用しうる。
本発明の種々の態様および例を説明する。以下の記載では、これらの例の記載の十分な理解と実施可能な記載のために具体的詳細を提供する。また、当業者であれば、多くのこれらの詳細なしで実施し得る。更に、いくつかの周知の構造や機能は、関連する記載を不必要に分かり難くすることがないように、詳細に表示または記載されていない。
以下の記載中の用語は、たとえ、ある特定の技術例の詳細な記載で用いられているとしても、その用語の最も広く合理的な態様で解釈されるものである。特定の用語は、以下で強調されうるが、限定的な態様での解釈を目的とする用語は、いかなるものも、この詳細な説明のセクションで、公然かつ明確に定義される。
例えば、ユーザがジェスチャーコントロールを通して電子システムまたは電子装置と相互作用しているとき、対象物の動作のトラッキングは、ユーザまたは対象物が行っている動作またはジェスチャーを認識するシステムを必要とする。この開示目的のために、「ジェスチャー認識」という用語が、ユーザによって実行される特定の動作またはポーズ形状を識別する方法を言及するために用いられる。例えば、ジェスチャー認識は、一定の速さで一定の方向へのマウスパッド上のスワイプまたはタッチスクリーン上の一定形状をトレースする指または手振りを識別することに言及する。システムは、特定のハードウェア/ソフトウェアとのユーザインターフェイスの相互作用を説明するデータを分析することで、特定のジェスチャーが実行されているか否かを決定する。即ち、ジェスチャーを実行するために用いられている対象物を検知またはトラッキングするいくつかの方法がある。タッチスクリーンの場合、その方法は、スクリーン上のユーザのタッチを検知するために用いられるハードウェア技術とソフトウェア技術との組み合わせである。奥行きセンサ型システムの場合、その方法は、一般的に、ユーザの関節や体部の一部を識別してトラッキングするのに必要なハードウェア技術とソフトウェア技術との組み合わせである。
一般的なジェスチャーコントロールまたは対象物のトラッキングによるシステム相互作用の上記例では、トラッキング部は、動作認識とトラッキングとを可能にする。ジェスチャー認識は、ジェスチャー認識がトラッキング部から出力されるデータを受け取り、事前に定義(決定)されたジェスチャーが実行されたか否かを決定すべく、データを処理する点で、トラッキングの処理(工程)とは異なっている。一旦、ジェスチャーが認識されると、そのジェスチャーは、例えば、電子装置におけるアプリケーションやゲームで、動作をもたらすように用いられる。ジェスチャー認識が用いられる例としては、ユーザが手を振って部屋で明かりを消すときである。
対象物トラッキングシステムへの入力は、タッチスクリーン(シングルタッチまたはマルチタッチ)などのいくつかの異なる入力装置からもたらされるユーザの動作と、2D(赤、緑、青またはRGBとして知られる)カメラで保存されるやユーザの動作と、奥行きセンサを用いて保存されるユーザの動作とを描写するデータである。他の適用では、対象物トラッキングシステムは、動作またはジェスチャー認識のために、加速度計および重量計からのデータを用いることができる。
2010年6月16日に出願された「奥行きマップから対象物をモデル化する方法およびシステム」と題する米国特許出願12/817,102では、奥行きセンサを用いてプレーヤをトラッキングし、ユーザの体部の関節を識別しトラッキングする方法を記載している。これは全体として、本願に組み込まれる。2012年4月6日に出願された「改良された対象物トラッキングの方法およびシステム」と題する米国特許出願13/441,271では、飛行時間型(TOF)カメラからの奥行きデータと振幅データとの組み合わせを用いて、ユーザの体部を識別してトラッキングする方法を記載しており、これは全体として、本願に組み込まれる。
ロバスト動作またはジェスチャーの認識は、実行がかなり難しい。具体的には、システムは、ユーザの目的を正確に解釈し、異なるユーザ間の動作の違いを調整し、動作が適用可能なコンテキスト(背景)を決定することが可能である必要がある。
システムや装置との柔軟で自然、直感的な相互作用の方法は、表示画面の前の3次元空間におけるユーザの手や指の動きを解するシステムのためのものであって、従って、人の手や指のあらゆる構造および動きに対応することを許容する。本質的に、通常の2次元タッチスクリーンは、ジェスチャーおよび相互作用のあらゆる表現に対応する3次元の相互作用空間であって、より自由度が高く、制約が少なく、より直感的な3次元の相互作用空間に拡張される。
このより自然的に、直感的なタイプの相互作用を可能にするには、システムは、ユーザの手および指の構造、動きを完全に識別できなくてはならない。RGBカメラなどの従来のカメラでは、これらのカメラによって生成されるデータが正確かつ確実に読み取ることが難しいので、この目的には不十分である。特に、画像の対象物は、背景と区別することが難しく、データは、光の状態に影響を受け、画像上の異なる対象物間では、オクルージョンが生じる。対照的に、近距離で手や指や他の対象物をトラッキングするための奥行きセンサを用いると、ユーザの手や指や対象物の高精度かつロバストなトラッキングに対応するデータを生成でき、それによって、この新規で直感的で効果的な態様がシステムや装置と相互作用することを可能にする。
奥行きセンサは、取得した画像の各ピクセルのために奥行きデータを取得するセンサとして定義される。ここで、奥行きとは、対象物とセンサ自体との間の距離である。この目的のために奥行きセンサによって用いられるいくつかの異なる技術がある。これらの中には、飛行時間型(スキャンTOFまたは配列TOFを含む)、構造化された照明、レーザ・スペックル・パターン技術、立体カメラ、アクティブな立体カメラに依存するセンサがある。それぞれの場合において、これらのカメラは、ピクセルの固定解像度を有する画像を生成する。ここで、通常は整数値である値は、各ピクセルに関連付けられており、これらの値は、画像領域に投影された対象物のセンサからの距離に対応する。奥行きデータに加えて、センサは、従来のカラーカメラが行うのと同じように、カラーデータを生成することがあり、このデータは、処理で用いるために、奥行きデータと組み合わせることができる。
奥行きセンサによって生成されるデータは、従来の2Dカメラによって生成されるデータに対し、いくつかの利点がある。奥行きセンサのデータは、前景から背景を分ける問題を大幅に簡素化する。また、奥行きセンサのデータは、一般的に照明条件の変化に対してロバストであり、オクルージョンを読み取るために効果的に用いられ得る。奥行きセンサを用いて、リアルタイムでユーザの手と指との両方を識別し、トラッキングすることができる。ユーザの手や指の位置データの知識は、装置との相互作用が自然で直感的である仮想的な3Dタッチスクリーンを有効にするために用いられる。手や指の動きは、例えば、コンピュータ、タブレット、携帯電話、携帯ゲーム機、自動車のダッシュボード制御装置などの様々なシステム、装置、および/または電子デバイスとのユーザの相互作用に動力供給し得る。さらに、このインターフェイスによって有効にされるアプリケーションおよび相互作用は、現実性を増す生産性ツールやゲーム、エンターテインメントシステムのコントロール(例えば、メディアセンターなど)、人間と電子装置間の他の多くの通信形態を含む。
本開示は、近距離で対象物をより正確に識別し、トラッキングし、確実にユーザの動きやジェスチャーを処理するために、奥行きセンサの画像の使用方法について説明する。本明細書中で用いられる「近距離」とは、例えば、一般的にシステムや装置との物理的な接続からユーザが実質的な個人用装置と相互作用する、実質的な個人用空間または領域を指す。従って、一実施形態では、近距離の奥行き画像は、限定はされないが一般的に30cmから50cmの範囲内で取得される。一実施形態では、近距離の奥行き画像は、0から3mの範囲内で取得され得る。いくつかの実施形態では、奥行き画像は、環境、画面サイズ、装置サイズ、奥行きセンサの分解能、奥行きセンサ精度等に応じて、3mより大きい距離で取得することができる。
図1について説明する。図1は、いくつかの実施形態に係る、近距離の対象物トラッキングシステム100の構成要素、および、これらの構成要素間のワークフローの概略図である。近距離の対象物トラッキングシステム100は、例えば、奥行きカメラ115、近距離イメージトラッキングモジュール135、ジェスチャー認識モジュール140、出力モジュール145、ソフトウェア・アプリケーション150を含むことができる。追加的なまたはより少ない構成要素またはモジュールは、システム100および図示される各構成要素に含むことができる。例えば、奥行きカメラ115は、奥行きデータと奥行きマップを作成するために奥行きデータを処理する奥行きプロセッサ120とを取得する奥行きイメージセンサ110を含むことができる。奥行きプロセッサ120によって実行される処理ステップは、奥行きイメージセンサ110によって用いられる特定の技術であって、例えば構造化された照明およびTOF技術などの特定の技術に依存する。また、奥行きカメラ115は、例えば1または複数のレンズ、光源、電子制御装置など他の構成要素(図示せず)を含むことができる。
本明細書中で用いられる「モジュール」は、汎用、専用または共有プロセッサと、一般的に、プロセッサによって実行されるファームウェアまたはソフトウェアのモジュールとを含む。実施仕様またはその他の考慮事項に応じて、モジュールは、集中または機能分散され得る。モジュールは、汎用または特殊目的のハードウェア、ファームウェア、またはプロセッサによる実行のためのコンピュータ読み取り可能な(記憶)媒体に収録されたソフトウェアを含むことができる。本明細書中で用いられるように、コンピュータ読み取り可能な媒体またはコンピュータ読み取り可能な記憶媒体は、法定(例えば、米国では、35USC101)のすべての媒体を含み、かつ本質的に非法定であるすべての媒体を、コンピュータ読み取り可能な(記憶)媒体を含む請求項が適法となるために必要となる除外の程度まで明確に除外する。既知の法定のコンピュータ読み取り可能な媒体は、ハードウェア(ほんの数例として、レジスタ、ランダムアクセスメモリ(RAM)、不揮発性(NV)ストレージ)を含むが、ハードウェアに限定されてもよく、限定されなくてもよい。
図1に示されるように、システム100は、ユーザの手、頭、足、腕、顔、またはその他の対象物などのオブジェクト105をトラッキング(追跡)する。ここで、対象物は通常、イメージセンサ110に近い範囲内に配置される。システム100は、近距離の対象物を感知する奥行きカメラ115を含むことができる。奥行きカメラ115はイメージトラッキングモジュール135を補助し、該イメージトラッキングモジュール135は奥行きカメラ115によって生成された画像を用いて、対象物を識別し、近距離の対象物の動きを検出して、さらに細かい動きをも検出する。例えば、奥行きカメラ115は、指、唇、その他の顔要素、つま先などの細かい微妙な動きを検出するために、十分なピクセルの解像度と正確な奥行きデータ値とを提供するように適合され得る。
システム100は、さらに対象物トラッキングを実行するための近距離イメージトラッキングモジュール135を含むことができる。いくつかの実施形態では、トラッキングモジュール135は、システム100が近距離の奥行きデータを利用できるようにするために、例えば、奥行き画像データに適切なアルゴリズムを適用することによって、奥行きカメラ115からの奥行きデータを処理できる。トラッキングモジュール135は、近距離の光学設定と条件とに基づいて、奥行き画像データを処理できる。トラッキングモジュール135は、例えば、可能な限り同時に、1または複数の対象物に対して、対象物の有無、動き、距離、速度などの処理、計算、識別および/または決定ができる。近距離イメージトラッキングモジュール135は、例えば、顔の動き、足の動き、頭の動き、腕の動き、または他の適切な対象物の動きの検出および/またはトラッキングを可能にするために、例えば、近距離のトラッキングのためのソフトウェアコードやアルゴリズムを実行し得る。一例では、トラッキングモジュール135は、人間の動きをトラッキングすることができ、トラッキングモジュール135の出力は、人間の骨格の表現であり得る。
同様に、ユーザの手や指のみがトラッキングされている場合に、トラッキングモジュール135の出力は、ユーザの手の骨格の表現であり得る。手の骨格の表現は、骨格の関節の位置を含むことができ、また、中心点に対する関節の回転を含むことができる。また、これらの要素の一部を含むことができる。さらに、モジュール135の出力は、トラッキングされている対象物の重心などの他の特徴、または、奥行きカメラ115によって提供されるデータを処理することにより取得できる任意の他の有用なデータを含むことができる。
さらに、近距離イメージトラッキングモジュール135は、奥行きカメラ115からデータを受信すると、例えば、各指のうち特定の動いている指の動き、および、各指の動きに対応する全体の動きを識別するために、各手の異なる指などの特定の対象物の形状および/または機能を識別するように構成されることができる。
いくつかの実施形態では、近距離のイメージトラッキングモジュール135は、動きの速さ、動きの幅などに応じて、対象物の運動強度を識別し、決定するように構成されることができ、それによって、動きの力の向きを検出し利用することができる。
いくつかの実施形態では、近距離のイメージトラッキングモジュール135は、異なる指や指の組み合わせによるジェスチャーを検出することができるように、複数の指の動きをトラッキングするように構成することができる。
いくつかの実施形態では、近距離トラッキングのためのコードやアルゴリズムは、例えば、顔の動き、足の動き、頭の動き、腕の動き、または他の適切な対象物の動きを検出および/またはトラッキングするために用いられることができる。
さらに、システム100は、感知したデータを分類するために、動作またはジェスチャー認識モデル140を含むことができ、それによって、対象物の動きの認識と決定を補助する。ジェスチャー認識モデル140は、例えば、対象物が動いたり、合図したり、身振りしたりしているかなどを決定するため、および特定のジェスチャーが実行されたかなどを識別するために用いられる出力を生成することができる。
さらに、システム100は、ユーザコマンドまたはアクションを外部プラットフォームやコンソールなどに十分に出力できるようにすべく、ジェスチャーデータなど加工されたトラッキングデータを処理するための出力モジュール145を含むことができる。
さらに、システム100は、ソフトウェア・アプリケーション150を含むことができ、ソフトウェア・アプリケーション150は、出力モジュール145からの出力を受け取り、それをソフトウェア・アプリケーションのコンテキスト内で使用する。ソフトウェア・アプリケーション150は、ゲームであってもよく、または装置とのユーザの相互作用を制御するプログラムであってもよく、それ以外の場合は、ソフトウェア・アプリケーション150は、奥行きカメラ115によって感知されて処理された動作(動きの)データを利用することができる。
一実施形態では、システム100はさらに、ディスプレイ155を含むことができる。ディスプレイは、ユーザに視覚的なフィードバックを提供する。視覚的なフィードバックは、ユーザのジェスチャーの表現を含むことができ、ここで、表現に関連する情報は出力モジュール145から受信される。視覚的なフィードバックは、1または複数の仮想オブジェクトとのユーザのジェスチャー表現の相互作用を含むこともでき、ここで、相互作用に関連する情報は、ソフトウェア・アプリケーション150から受信される。
図2について説明する。図2は、奥行きカメラ115によって生成されたデータにトラッキングモジュール135を用いて、ユーザの手と指をトラッキングするプロセスの例である。図2に示すように、ブロック205では、ユーザの手は、奥行きカメラ115から得られた奥行き画像データから識別される。手は、セグメンテーションおよび/または分類アルゴリズムを用いて、ノイズや不要な背景データを除去することで背景から分けられる。
ブロック210では、奥行き画像データおよび関連する振幅データおよび/または関連するRGB画像において、特徴が検出される。これらの特徴は、例えば、指先や、指の付け根が手のひらに接続している部分、および検出可能なその他の画像データである。ブロック215では、ブロック210で識別された特徴は、画像データ内の個々の指を識別するために用いられる。ブロック220では、検出されたあらゆる誤検出の特徴を除外すべく、かつ、隠れた部分などの奥行き画像データから欠損しているデータを埋めるべく、指が前のフレーム内の位置に基づいてトラッキングされる。
ブロック225では、トラッキングされる指の三次元位置が奥行き画像データから得られ、ユーザの手や指の骨格モデルを構築するために用いられる。いくつかの実施形態では、運動学モデルは、対象者の関節の相対的な位置を限定するために用いられることができる。関節が隠れているためか、関節がカメラの視野外にあるために、運動学モデルは、カメラに見えていない関節の位置を計算するために用いられることもできる。
図3A−3Eについて説明する。図3A−3Eは、検出、トラッキング、認識および処理される微細運動の動きの例として、一連の手のジェスチャーを示す。図3A,3C、3Dは、動きの要素がない静的な手の合図のジェスチャーを示す。一方、図3B,3Eは、動的な手のジェスチャーを示す。図3Bと図3Eは、有意味で認識可能な合図やジェスチャーを構成する指の動きを示す、付加された矢印を含む。当然に、他のジェスチャーや合図は、ユーザの体の他の部分や他の対象物から検出され、トラッキングされることができる。他の例では、例えば、2本またはそれ以上の指の同時の動きなどの複数の対象物やユーザの動きからのジェスチャーや合図が、検出、トラッキング、認識、処理されることができる。
本開示の実施形態は、以下の相互作用の形態を含むが、これに限定されない。
一実施例では、ユーザの各指は、ディスプレイ画面上でカーソルになり得る。この方法では、ユーザは同時に、複数のアイコン(両手を使うと最大10個まで)と相互作用できる。本明細書内で用いられる「カーソル」は、他の信号、シンボル、インジケータなどであって、CRT上の位置や、キーボードから入力されて次の文字が現れたり、ユーザのアクションが必要とされる他のタイプのディスプレイ上の位置を示す、可動し時々点滅するシンボルなどの他の信号、シンボル、インジケータなどを示すことができる。
さらに他の例では、仮想ホットフィールドを画面の前に定義することができる。ユーザは、例えば、マウスボタンをクリックするための運動をシミュレーションするように、ホットフィールドで指、および/または、手を動かすことで、ディスプレイ画面上の対象物を選択できる。仮想ホットフィールドは、二次元のタッチスクリーンと同様の機能を提供するが、指/手の三次元位置を用いることができるので、より拡張的である。
図4について説明する。図4は、近距離のトラッキングを可能にする技術に基づくユーザインターフェイス(UI)フレームワークの例を示す。ジェスチャー認識コンポーネントは、「ジェスチャー分類の方法およびシステム」と題する特許7,970,176、および、「ジェスチャー認識の方法およびシステム」と題する出願番号12/707,340に記載の構成要素を含み、これらは、完全に参照によって本明細書に組み込まれる。
ステージ400では、奥行き画像は奥行きカメラから取得される。ステージ410では、トラッキングモジュール135は、取得した奥行き画像を用いて、図2記載の機能を実行する。トラッキングモジュール135によって生成された関節位置データは、後述するように、並列に処理される。ステージ420では、関節位置のデータは、対象者の手/指の動きを仮想カーソルにマッピングまたは投影するために用いられる。選択的に、カーソルまたはコマンドツールは、対象者の1または複数の指によって制御されることができる。情報は、対象者にフィードバックを提供するために、ディスプレイ画面上に提供されることができる。仮想カーソルは、矢印や手の表現などの単純なグラフィック要素である。また、それは、UI要素の色を変更したり、またはその背後の輝きを投影することによって、(画面上のカーソルの明示的なグラフィカルな表現がない)UI要素を単に強調したり識別することができる。対象者の手の異なる部分は、仮想カーソルを動かすために用いることができる。
いくつかの実施形態では、仮想カーソルは、対象者の手、または、1または複数の指にマッピングされることができる。例えば、人差し(ポインタ)指の動きは、仮想カーソルの動きに直接マッピングしたり、投影することができる。他の実施形態では、UI要素は、奥行き方向において、ある要素が他の要素の上に積み重ねられている。仮想カーソルは、仮想カーソルが奥行きの異なる階層でUI要素間を移動できるように、三次元で移動させることができる。他の実施形態では、複数の仮想カーソルであって、各々が対象者の一の指先に対応する仮想カーソルがある。他の実施形態では、スクリーンから離れる手の動きは、ズーム効果を与えることができる。あるいは、例えば人差し指と親指のように2つの指先間の距離は、画面でズームのレベルを示すために用いられることができる。
ステージ430では、関節の位置データは、対象者によって実行されるジェスチャーを検出するために用いられる。イベントをトリガーする2つのカテゴリのジェスチャーとして、選択ジェスチャーと操作ジェスチャーとがある。選択ジェスチャーは、特定のUI要素が選択されるべきことを示す。いくつかの実施形態では、選択ジェスチャーは、手でつかむ動きであり、この動きは、対象者がUI要素を拾っているかのように、指が手のひらの中心に向かって移動する。他の実施形態では、選択ジェスチャーは、対象者が選択したいUI要素を仮想カーソルが取り囲むように、円を描いて手や指を動かすことによって実行される。当然に、他のジェスチャーを用いることも可能である。ステージ450では、システムは、選択ジェスチャーがステージ430で検出されたか否かを評価し、そして、もし検出されたなら、ステージ470では、システムは、仮想カーソルが現在1または複数のUI要素にマッピングされているかどうかを決定する。仮想カーソルがUI要素にマッピングされている場合には、UI要素はステージ490で選択され得る。
選択ジェスチャーに加え、他のカテゴリのジェスチャーである操作ジェスチャーが定義(規定)される。操作ジェスチャーは、いくつかの方法でUI要素を操作するために用いられることができる。いくつかの実施形態では、操作ジェスチャーは、手を回転する対象者によって実行され、続いて、画面上に追加情報を表示するように、選択されたUI要素を回転させる。例えば、UI要素がファイルのディレクトリである場合、ディレクトリを回転することは、対象者がディレクトリに含まれるすべてのファイルを参照することを可能にする。操作ジェスチャーの他の例は、例えば、仮想デスクトップ上で、その内容を空にするためにUI要素を逆さまにすることを含むことができる。また、その内容を並べ替えたり、何らかの他の効果を持つようにUI要素を振ったり、または、対象者が中を見るようにUI要素を傾けたり、または、例えばUI要素を最小化させる効果を有するようにUI要素を握ることを含むことができる。他の実施形態では、スワイプジェスチャーは、選択したUI要素をごみ箱に移動することができる。
ステージ440では、システムは、操作ジェスチャーが検出されたかどうかを評価する。操作ジェスチャーが検出された場合、続いて、ステージ460では、システムは、選択されているUI要素があるかどうかを確認する。UI要素が選択されている場合、実行されたジェスチャーの特定の定義されている動作、および、システムのコンテキストに従って、UI要素は、ステージ480で操作され得る。いくつかの実施形態では、それぞれの指先で識別される1または複数のそれぞれのカーソルは、1または複数の指で、ナビゲーション、コマンド入力、または画面アイコン、対象物、データの他の操作を可能にするために、処理することができる。
いくつかの実施形態によれば、従来の2次元のアイコンは、追加の関連情報をユーザにもたらすために、追加の次元を表示するように回転させられることができる。例えば、ウィンドウ・アイコンは、ディレクトリ内のファイルリストを表示し得る。ユーザが手を回転すると、ウィンドウ・アイコンが回転し、ディレクトリ内の各ファイルのサイズを示す三次元目が表示される。
いくつかの実施形態では、対象物上に手を動かして、対象物を把持するように、指を手のひらに近づけることで、ディスプレイ画面上の対象物を選択することができる。これは選択ジェスチャーの例である。
いくつかの実施形態では、対象物が選択された後、1つの位置から他の位置に素早く手を動かして、手のスワイプジェスチャーでごみ箱の中に対象物を置くことができる。これは、操作ジェスチャーの例である。
いくつかの実施形態では、画面からの距離は、画面上の指や手の位置の二次元投影と組み合わせて用いられることができる。例えば、ユーザは、アイコンの周りに円を描くように指を動かすことにより、ディスプレイ画面上のアイコンまたは一群のアイコンを示すことができる。ユーザは、画面から手/指を遠ざけるように動かすと、それに応じて、円の大きさは拡大または縮小される。そして、円の内側の画面上の選択領域を変更し、選択されているアイコンの数を変更する。
いくつかの実施形態では、画面からの距離は、倍率として用いられることができる。例えば、所定の対象物のサイズは、ユーザの親指と人差し指の間の距離によって規定される。また、画面からの距離はさらに、親指と人差し指の間の距離を乗算する倍率として用いられることができる。
いくつかの実施形態では、アイコンは、互いの前に重ねられることができ、画面までのユーザの手の距離は、アイコンを選択するために用いられることができる。ユーザがディスプレイ画面に手を近づけるにつれ、重ねられたより後方の対象物が選択され、ユーザがディスプレイ画面から手を遠ざけるにつれ、重ねられたより上側の対象物が選択される。
いくつかの実施形態では、画面上の複数の対象物は、それぞれの指先で選択され、指の動きに従って操作されることができる。いくつかの実施形態では、画面からの手や指の距離は、画面画像のサイズに影響を及ぼし得る。例えば、トラッキングされた手を後方に動かすことによって、画面は、管理されている対象物の視野を大きくすべく、ズームアウト(縮小)される。いくつかの実施形態では、画面の対象物は重ね合わされ、操作される対象物の複数の階層を表示する。このような場合には、画面からの手、指、または他の対象物の距離に応じて、異なる奥行きの対象物を操作するように、手および/または指、または、他の対象物の奥行き画像を用いることができる。
図5は、いくつかの実施形態によれば、ユーザコマンドツールとしての仮想領域の使用例を説明する。図5に示すように、ブロック500では、仮想領域は、奥行きカメラへの選択された近接度合いで規定される。仮想領域は、奥行きカメラへの特定の近接度合いで3次元空間として規定される。ここで、1または複数のユーザの体部や他の対象物を用いて、例えばユーザによる入力、クリック、画面操作などを可能にすべく、近距離の動きがトラッキングされる。
ブロック505では、例えば図4で説明したように、トラッキングモジュールを用いて奥行きデータが処理される。ブロック510では、システムは、ユーザの手/指/命令する対象物が仮想領域にあるかどうかを決定する。ブロック515では、ユーザの手/指などが仮想領域内にあれば、システムは、ユーザによって示されたジェスチャーやアクションを実行する。ユーザの手/指などが仮想領域内にない場合、システムは、ブロック505に戻って、システムがユーザの手/指などが仮想領域内にあると判断するまで、トラッキングモジュールを用いて他の奥行きデータを処理する。
他の実施形態によれば、本明細書に記載の近距離の動作トラッキングシステムは、指および/またはその他の対象物の動きを通して、楽器の仮想演奏を可能にする。いくつかの例では、手の位置は、特定の楽器の選択を決定できる。いくつかの実施形態では、ユーザの手や指の奥行き画像は、奥行きカメラから取得できる。データは、楽器の選択を決定するために、奥行き画像からのユーザの手の位置の識別を可能にするように処理され得る。奥行き画像は、奥行き画像からユーザの指の動きをトラッキング可能にするために用いられることがあり、それによってユーザの指の動きが仮想的に楽器を操作する。さらに、仮想楽器の操作は、トラッキングされた動きに基づいてシミュレーションされることができる。いくつかの例では、楽器操作のシミュレーションは、楽器におけるユーザの指の動きによって演奏される音符に対応したサウンドを提供することを含む。他の例では、楽器操作のシミュレーションは、画面上で楽器操作の可視表示を提供することを含む。
さらに他の例では、サインランゲージ(手話)・ジェスチャー(例えば、アメリカの手話や他のジェスチャー・ベース言語)は、システムによって識別できる。さらなる例では、奥行きカメラでユーザの手や指および/または他の体部の奥行き画像を取得し、ジェスチャー・ベース言語の事前に定義されたジェスチャーとして、奥行き画像からユーザの手や指および/または他の体部によって行われたジェスチャーを識別し、出力として事前に識別されたジェスチャーの翻訳を提供することによって、ジェスチャー・ベース言語は識別され得る。いくつかの例では、出力は、テキストおよび/またはオーディオなどである。
さらに他の例では、ユーザは、1または複数の指を立てたり、把持したり(指を手のひらに近づける)、手振りしたり、指をならしたりするなどの事前に定義されたジェスチャーを形成することによって、システムまたはデバイスと通信し得る。これらのジェスチャーは、システムの特定の機能にマッピングされることが可能である。例えば、指をならすことは、コンピュータシステムを休止状態にすることができる。「ジェスチャー分類の手法とシステム」と題する米国特許第7,970,176、および、「ジェスチャー認識の方法およびシステム」と題する米国出願第12/707,340に記載の開示は、かかるジェスチャーを定義するための記載を提供する。また、これらは、参照により本明細書に完全に組み込まれる。
いくつかの実施形態では、2次元の画面上に表示されるアイコンの視点を変更するために、ユーザの頭がトラッキングされ得る。即ち、ユーザが横側に移動すると、それに応じて、画面の視点が動く。
いくつかの例では、一貫したシステム全体の動作をもたらすジェスチャーを定義できる。例えば、任意のアイコン/フォルダは、既定の動作/特性を有し得る。以下は、全てのフォルダのアイコンに適用するために定義されることができるジェスチャーや合図のセットの例である。
「こぼす」ジェスチャーでは、ユーザが項目(item)を選択し、それをわずかに回転させると、その内容が上からあふれ出す。「中を見る」ジェスチャーでは、ユーザが項目を選択して、それを回転させると、ユーザは項目内の内容を見ることができる。「振る」ジェスチャーは、ユーザが対象物を選択し、振動運動(振る動き)を行い、項目の内容がアルファベット順に並び替えられるなどの事前に決定された動作が生じる。「裏を見る」ジェスチャーでは、ユーザが項目を選択し、項目の裏側を見るためにそれを回転させると、追加的な情報が利用可能になる。例えば、画像ファイルを含むフォルダが回転されると、画像のテキストキャプションが表示される。「押し潰す」ジェスチャーでは、ユーザが項目を選択し、項目を最小化したり、デスクトップから消去するように項目を押し潰す。さらに他の例として、指、腕、目などの複数の対象物によるジェスチャーや動きは、追加のジェスチャーや合図を示すために決定することができる。さらなる例では、異なるスタイル、速度、強度などを有する1または複数の対象物によるジェスチャーや動きは、追加のジェスチャーや合図を示すために決定することができる。当然に、他のジェスチャーや合図やジェスチャーと合図との組み合わせを用いることが可能である。
いくつかの実施形態では、ユーザの手が一対一の動きで仮想表現にマッピングされている場合でも、この仮想空間内(例えば、デスクトップ上)にユーザの手を表現するための異なる方法がある。一例では、手のモデルがトラッキングされると、仮想アイコンがユーザの手に似る。例えば、それは、ユーザの手の構成と同じ構成になっている。他の例では、ユーザの手の中レベルの抽象化を用いることができる。例えば、仮想空間に表示される各ドットは、ユーザの指先のいずれかに対応することができる。さらに他の例では、ユーザの手のより高いレベルの抽象化を用いることができる。ここで、ユーザの手は、アニメーション化された対象物として表示され機能する。
いくつかの実施形態では、物理/力指向の相互作用がトラッキングされ、用いられることができる。これらの例では、ジェスチャーは項目と直接相互作用しなくてもよい。むしろ、ジェスチャーは、項目と相互作用する力を生成してもよい。例えば、対象物がスピンし始める特定のジェスチャーである「スピン」ジェスチャーを定義する代わりに、この種の物理的な力を生成する任意のジェスチャーがタスクを達成することを決定してもよい。対象物をスピンさせることは、合理的な速度で動きを生成するために素早く手を振ったり、項目の角をたたいたり、項目に沿ってゆっくりと手を動かすなどのいくつかの方法のいずれかで、効果的に実行されることができる。当然に、他のジェスチャーや合図やジェスチャーまたは合図の組み合わせを用いることが可能である。
いくつかの実施形態によれば、異なる指は、異なる機能を有することができる。例えば、対象物は、ユーザの手でそれを掴んで選択されてもよく、例えば、人差し指がそれを開き、中指がそれを消去し、薬指がそれを最大化する等が行われ得る。当然に、他のジェスチャーや合図やジェスチャーまたは合図との組み合わせを用いることが可能である。
コンテキスト(文脈)が特に明らかに要求しない限り、明細書および特許請求の範囲を通して、「含む」、「含んでいる」および同様な言葉は、排他的または網羅的な意味とは対照的に、包括的な意味(即ち、含むがそれに限定されないという意味)で解釈される。本明細書で用いられるように、「接続」「結合」またはそのわずかに異なる言葉は、2つかそれ以上の要素間で、直接または間接に接続または結合することを意味する。そのような要素間の結合または接続は、物理的、論理的、またはその両方である。さらに、本願に用いられる「ここに」、「上記」、「下記」、および、同様な意味の言葉は、本願全体に言及するものであり、本願の特定の部分に対してではない。ここで、コンテキスト(文脈)によっては、単数または複数を用いている上記の詳細な説明における言葉は、各々、複数または単数を含み得る。2つまたはそれ以上の項目のリストに関する「または」は、リストのいかなる項目、リストの全ての項目、および、リストの項目のあらゆる組み合わせという解釈の全てを含む。
本発明の実施例の上記詳細な説明は、網羅的なものではなく、発明を上記開示の具体的な形態に限定するものではない。発明の具体例は例示の目的のために上記されるが、当業者が認識し得る種々の同等な変更が本発明の範囲内で可能である。本願では、工程またはブロックは、特定の順番で表示されているが、代替の実行では、異なる順番で実行されるステップを有するルーチンを実行したり、異なる順番でブロックを有するシステムを用いることができる。いくつかのプロセスまたはブロックは、代替またはサブコンビネーションを提供するように、削除、移動、追加、分割、結合、および/または、変更される。また、プロセスまたはブロックは、時折、順番に実行されるように示されているが、これらのプロセスまたはブロックは、変わりに、並列で実行されたり、異なる順番で実行されることが可能である。さらに、本明細書に記載の特定の数は単なる例である。他の実行では、異なる値や範囲を用いられ得る。
本明細書で提供される様々の図や内容(教示)は、上記システム以外のシステムに適用することも可能である。上記種々の例の要素と動作は、本発明の他の実行を提供するために組み合わせることができる。
上記のいかなる特許、および、出願、および、他の参考文献は、出願書類に添付されて記載されるいかなるものをも含み、参照によって本明細書に組み込まれる。本発明の形態は、本発明の他の実行を提供するために、そのような参照に含まれるシステム、機能、および概念を必要に応じて用いて変更することが可能である。
これらおよび他の変更は、上記の詳細な説明に照らして本発明に適用することが可能である。上記記載は、本発明の特定の例を説明し、考えられるベストモードについて説明しており、上記では具体的に表現しているが、本発明は、多くの態様で実行することが可能である。システムの詳細は、本明細書に開示される発明に含まれているが、特定の実行において大幅に変更され得る。上記のように、発明の特定の特徴または態様を説明しているときに用いられる特定の用語は、用語が関連する発明のいかなる特定の性質、特徴、態様に限定されるように再定義して捉えてはならない。一般的に、以下の特許請求の範囲に用いられる用語は、上記の詳細な説明のセクションがそのような用語を明確に定義していない限り、明細書中に開示される特定の例に本発明を限定して解釈してはならない。従って、本発明の実際の範囲は、開示された例だけでなく、特許請求の範囲による発明を実行するあらゆる同等な態様を含む。
本発明の特定の態様は、特定の請求項の形態で以下に提示されており、出願人は、いかなる請求項の形態で多くの本発明の態様を熟考する。例えば、本発明の一態様のみが、35U.S.C.§112の第6パラグラフによるミーンズ・プラス・ファンクション・クレームであるが、他の態様は、同様にミーンズ・プラス・ファンクション・クレームとして、或いは、コンピュータ読み取り可能な媒体で具体化される他の形態で具体化されることが可能である。(35U.S.C.§112の第6パラグラフで扱われるどんな請求項も「するための手段」で始まる。)従って、出願人は、本発明の他の態様のために他の請求項の形態を追求すべく、本願の出願後に、追加の請求項を追加する権利を保留する。
Claims (21)
- ユーザインターフェイスを操作する方法であって、
奥行きセンサを用いてユーザの体部の一部の近距離の奥行き画像を取得する工程と、
前記ユーザの体部の前記一部の指定領域内における動きを前記奥行き画像から識別する工程と、
前記ユーザの体部の前記一部の前記領域内における動きをトラッキングする工程と、
画面上の第一対象物として前記ユーザの体部の前記一部を表示する工程であって、前記画面上の前記第一対象物が前記ユーザの体部の前記一部の前記識別された動きに対応するジェスチャーを実行することを表示する工程とを含むユーザインターフェイスを操作する方法。 - 前記第一対象物は、前記画面上の他の対象物と相互作用することを特徴とする請求項1記載の方法。
- 前記動きは、前記画面上の前記他の対象物と相互作用する力を生成することを特徴とする請求項2記載の方法。
- 前記ユーザの体部の前記一部は、1または複数の指を含み、前記1または複数の指の各々は、前記画面上の1または複数の別個の第一対象物として表現され、前記別個の第一対象物の各々は、前記画面上の他の対象物と相互作用することを特徴とする請求項1記載の方法。
- 前記ユーザの体部の前記一部は手を含み、前記手の特定された動きは、選択ジェスチャーに対応し、前記画面上の前記第一対象物は、前記画面上の第二対象物を選択することを特徴とする請求項1記載の方法。
- 前記ユーザの体部の前記一部は手を含み、前記手の特定された動きは、操作ジェスチャーに対応し、画面上の第二対象物は、操作ジェスチャーに関連する事前に識別された動作に基づいて操作されることを特徴とする請求項1記載の方法。
- 前記画面からの前記ユーザの体部の前記一部の距離を決定する工程と、
前記距離の変化に基づいて、前記画面を拡大または縮小する工程とを含む請求項1記載の方法。 - 前記画面からの前記ユーザの手の距離を決定する工程であって、前記ユーザの体部の前記一部が手を含む工程と、
前記画面上の対象物の重なりから選択対象物を示すために、画面上のカーソルを動かす工程であって、前記画面からの前記ユーザの手の前記距離に基づいて前記カーソルが動かされる工程を含み、
前記カーソルを動かすことが、前記ユーザの手が前記画面に近づくにつれ、前記対象物の重なりの下方に向かって前記カーソルを動かし、前記ユーザの手が前記画面から遠ざかるにつれ、前記対象物の重なりの上方に向かって前記カーソルを動かすことを含む請求項1記載の方法。 - 前記画面からの前記ユーザの体部の前記一部の前記距離に基づいて、前記第一対象物の大きさを調整する工程を含む請求項1記載の方法。
- 奥行きセンサを用いて、ユーザの片手または両手、および指の奥行き画像を取得する工程と、
前記奥行き画像からの前記ユーザの片手または両手、および指の動きをトラッキングする工程であって、前記動きは、機能を実行するジェスチャーに対応する工程とを含む方法。 - 前記機能は、仮想楽器の操作であることを特徴とする請求項10記載の方法。
- 前記仮想楽器の選択を決定するために、前記奥行き画像からの前記ユーザの片手または両手、および指の位置を識別する工程をさらに含む請求項11記載の方法。
- 前記ユーザの片手または両手、および指の動きによって演奏される音符に対応するサウンドを、前記仮想楽器に対して提供する工程をさらに含む請求項11記載の方法。
- 前記画面の前記仮想楽器の操作の可視的表示を提供する工程をさらに含む請求項11記載の方法。
- 電子装置で前記機能を実行する工程をさらに含む請求項10記載の方法。
- ジェスチャー・ベース言語の一部としてなされたジェスチャーを翻訳する方法であって、
奥行きセンサを用いて、ユーザの手および指の奥行き画像を取得する工程と、
ジェスチャー・ベース言語の事前に定義されたジェスチャーとして、前記奥行き画像からの前記ユーザの手および指でなされたジェスチャーを識別する工程と、
出力として、事前に識別された前記ジェスチャーの翻訳を提供する工程とを含む方法。 - 前記出力は、オーディオ出力または前記画面上のテキスト出力を含む請求項16記載の方法。
- ユーザの体部の少なくとも一部の奥行き画像を近距離で取得するように構成される奥行きセンサと、
前記奥行き画像データからの前記ユーザの体部の前記少なくとも一部を識別し、前記奥行き画像データからの前記ユーザの体部の前記少なくとも一部の動きをトラッキングするように構成されるトラッキングモジュールと、
前記ユーザの体部の前記少なくとも一部の動きが1または複数のユーザインターフェイス要素と相互作用するように構成される出力モジュールと、
前記ユーザの体部の前記少なくとも一部の表現、および、前記1または複数のユーザインターフェイス要素を表示するように構成されるディスプレイとを含むシステム。 - 前記トラッキングモジュールは、背景分割アルゴリズムと、特徴検出アルゴリズムと、
対象物特定アルゴリズムとを実行することを特徴とする請求項18記載のシステム。 - 前記トラッキングモジュールは、骨格モデル形成アルゴリズムを実行することを特徴と
する請求項18記載のシステム。 - 奥行きセンサを用いて、ユーザの体部の一部の近距離の奥行き画像を取得する手段と、
前記ユーザの体部の前記一部の指定領域内における動きを前記奥行き画像から識別する手段と、
前記ユーザの体部の前記一部の前記領域内における前記動きをトラッキングする手段と、
画面の第一対象物として前記ユーザの体部の前記一部を表示する手段であって、前記画面上の前記第一対象物が前記ユーザの体部の前記一部の前記識別された動きに対応するジェスチャーを実行することを表示する手段とを含むシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201161500480P | 2011-06-23 | 2011-06-23 | |
| US61/500,480 | 2011-06-23 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2013037675A JP2013037675A (ja) | 2013-02-21 |
| JP2013037675A5 true JP2013037675A5 (ja) | 2014-09-04 |
| JP6074170B2 JP6074170B2 (ja) | 2017-02-01 |
Family
ID=46980712
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012140086A Active JP6074170B2 (ja) | 2011-06-23 | 2012-06-21 | 近距離動作のトラッキングのシステムおよび方法 |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US9910498B2 (ja) |
| EP (1) | EP2538305A3 (ja) |
| JP (1) | JP6074170B2 (ja) |
| KR (1) | KR101979317B1 (ja) |
| CN (1) | CN102915112B (ja) |
| CA (1) | CA2780367A1 (ja) |
Families Citing this family (151)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012040827A2 (en) * | 2010-10-01 | 2012-04-05 | Smart Technologies Ulc | Interactive input system having a 3d input space |
| US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
| US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
| JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
| US11048333B2 (en) * | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
| US8830302B2 (en) * | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
| US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
| WO2013095678A1 (en) * | 2011-12-23 | 2013-06-27 | Intel Corporation | Mechanism to provide feedback regarding computing system command gestures |
| US9339691B2 (en) | 2012-01-05 | 2016-05-17 | Icon Health & Fitness, Inc. | System and method for controlling an exercise device |
| US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
| US20150220149A1 (en) * | 2012-02-14 | 2015-08-06 | Google Inc. | Systems and methods for a virtual grasping user interface |
| US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
| US9098739B2 (en) | 2012-06-25 | 2015-08-04 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching |
| US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
| CN105378593B (zh) | 2012-07-13 | 2019-03-01 | 索尼深度传感解决方案股份有限公司 | 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统 |
| US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
| US9310895B2 (en) | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
| DE102012110460A1 (de) * | 2012-10-31 | 2014-04-30 | Audi Ag | Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens |
| US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
| US9774917B1 (en) | 2012-12-10 | 2017-09-26 | Apple Inc. | Channel bar user interface |
| US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
| US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
| US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
| CN103076976A (zh) * | 2013-01-07 | 2013-05-01 | 华为终端有限公司 | 添加应用图标的方法、移除应用图标的方法和装置 |
| JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| SE536989C2 (sv) * | 2013-01-22 | 2014-11-25 | Crunchfish Ab | Förbättrad återkoppling i ett beröringsfritt användargränssnitt |
| US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
| US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
| US8994652B2 (en) * | 2013-02-15 | 2015-03-31 | Intel Corporation | Model-based multi-hypothesis target tracker |
| US9052746B2 (en) * | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
| EP2969058B1 (en) | 2013-03-14 | 2020-05-13 | Icon Health & Fitness, Inc. | Strength training apparatus with flywheel and related methods |
| US9389779B2 (en) | 2013-03-14 | 2016-07-12 | Intel Corporation | Depth-based user interface gesture control |
| US12149779B2 (en) | 2013-03-15 | 2024-11-19 | Apple Inc. | Advertisement user interface |
| JP6042753B2 (ja) * | 2013-03-18 | 2016-12-14 | 株式会社Nttドコモ | 端末装置及び操作ロック解除方法 |
| US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
| US20160088206A1 (en) * | 2013-04-30 | 2016-03-24 | Hewlett-Packard Development Company, L.P. | Depth sensors |
| US10509533B2 (en) * | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
| US9563955B1 (en) * | 2013-05-15 | 2017-02-07 | Amazon Technologies, Inc. | Object tracking techniques |
| US9144744B2 (en) | 2013-06-10 | 2015-09-29 | Microsoft Corporation | Locating and orienting device in space |
| US9671868B2 (en) | 2013-06-11 | 2017-06-06 | Honeywell International Inc. | System and method for volumetric computing |
| CN105307737A (zh) | 2013-06-14 | 2016-02-03 | 洲际大品牌有限责任公司 | 互动视频游戏 |
| US9109921B1 (en) * | 2013-06-19 | 2015-08-18 | Amazon Technologies, Inc. | Contextual based navigation element |
| CN103399629B (zh) * | 2013-06-29 | 2017-09-19 | 华为技术有限公司 | 获取手势屏幕显示坐标的方法和装置 |
| US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
| US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
| KR101350313B1 (ko) * | 2013-08-12 | 2014-02-13 | 전자부품연구원 | 손동작 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법 |
| WO2015039050A1 (en) * | 2013-09-13 | 2015-03-19 | Nod, Inc | Using the human body as an input device |
| US10585478B2 (en) | 2013-09-13 | 2020-03-10 | Nod, Inc. | Methods and systems for integrating one or more gestural controllers into a head mounted wearable display or other wearable devices |
| CN103735268B (zh) * | 2013-09-29 | 2015-11-25 | 沈阳东软医疗系统有限公司 | 一种体位检测方法及系统 |
| US9400553B2 (en) * | 2013-10-11 | 2016-07-26 | Microsoft Technology Licensing, Llc | User interface programmatic scaling |
| US9317112B2 (en) * | 2013-11-19 | 2016-04-19 | Microsoft Technology Licensing, Llc | Motion control of a virtual environment |
| US9336440B2 (en) * | 2013-11-25 | 2016-05-10 | Qualcomm Incorporated | Power efficient use of a depth sensor on a mobile device |
| JP6255954B2 (ja) * | 2013-12-03 | 2018-01-10 | 富士通株式会社 | 動作入力装置、動作入力プログラム及び動作入力方法 |
| US20150187143A1 (en) * | 2013-12-26 | 2015-07-02 | Shadi Mere | Rendering a virtual representation of a hand |
| CN105848733B (zh) | 2013-12-26 | 2018-02-13 | 爱康保健健身有限公司 | 缆绳器械中的磁性阻力机构 |
| TWI530909B (zh) | 2013-12-31 | 2016-04-21 | 財團法人工業技術研究院 | 影像合成系統及方法 |
| CN105765490B (zh) * | 2014-01-03 | 2020-03-10 | 英特尔公司 | 用于用户界面控制的系统和技术 |
| EP2891950B1 (en) * | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
| US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
| US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
| US9785243B2 (en) | 2014-01-30 | 2017-10-10 | Honeywell International Inc. | System and method for providing an ergonomic three-dimensional, gesture based, multimodal interface for use in flight deck applications |
| US10433612B2 (en) | 2014-03-10 | 2019-10-08 | Icon Health & Fitness, Inc. | Pressure sensor to quantify work |
| US9501138B2 (en) * | 2014-05-05 | 2016-11-22 | Aquifi, Inc. | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface |
| WO2015191445A1 (en) | 2014-06-09 | 2015-12-17 | Icon Health & Fitness, Inc. | Cable system incorporated into a treadmill |
| US9330306B2 (en) | 2014-06-11 | 2016-05-03 | Panasonic Intellectual Property Management Co., Ltd. | 3D gesture stabilization for robust input control in mobile environments |
| WO2015195965A1 (en) | 2014-06-20 | 2015-12-23 | Icon Health & Fitness, Inc. | Post workout massage device |
| CN111078110B (zh) | 2014-06-24 | 2023-10-24 | 苹果公司 | 输入设备和用户界面交互 |
| US10650052B2 (en) | 2014-06-24 | 2020-05-12 | Apple Inc. | Column interface for navigating in a user interface |
| US20160062473A1 (en) * | 2014-08-29 | 2016-03-03 | Hand Held Products, Inc. | Gesture-controlled computer system |
| TW201610750A (zh) * | 2014-09-03 | 2016-03-16 | Liquid3D Solutions Ltd | 可與3d影像互動之手勢控制系統 |
| WO2016042039A1 (en) * | 2014-09-16 | 2016-03-24 | Foundation For Research And Technology - Hellas (Forth) | Gesture recognition apparatuses, methods and systems for human-machine interaction |
| KR101644739B1 (ko) * | 2015-02-13 | 2016-08-10 | 계명대학교 산학협력단 | 3d 프린팅 펜을 이용하는 3d 프린팅 보조 장치 및 그 방법 |
| US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
| US10391361B2 (en) | 2015-02-27 | 2019-08-27 | Icon Health & Fitness, Inc. | Simulating real-world terrain on an exercise device |
| US10269136B2 (en) * | 2015-04-29 | 2019-04-23 | Hewlett-Packard Development Company, L.P. | System and method for processing depth images which capture an interaction of an object relative to an interaction plane |
| US9747717B2 (en) | 2015-05-13 | 2017-08-29 | Intel Corporation | Iterative closest point technique based on a solution of inverse kinematics problem |
| KR101807513B1 (ko) * | 2015-05-13 | 2017-12-12 | 한국전자통신연구원 | 3차원 공간에서 영상정보를 이용한 사용자 의도 분석장치 및 분석방법 |
| US10402554B2 (en) * | 2015-06-27 | 2019-09-03 | Intel Corporation | Technologies for depth-based user authentication |
| KR102395515B1 (ko) * | 2015-08-12 | 2022-05-10 | 삼성전자주식회사 | 가상 악기의 연주 방법 및 이를 지원 하는 장치 |
| US9703387B2 (en) * | 2015-08-31 | 2017-07-11 | Konica Minolta Laboratory U.S.A., Inc. | System and method of real-time interactive operation of user interface |
| KR101745406B1 (ko) | 2015-09-03 | 2017-06-12 | 한국과학기술연구원 | 깊이 영상 기반의 손 제스처 인식 장치 및 방법 |
| US10649536B2 (en) * | 2015-11-24 | 2020-05-12 | Intel Corporation | Determination of hand dimensions for hand and gesture recognition with a computing interface |
| US10248839B2 (en) * | 2015-11-30 | 2019-04-02 | Intel Corporation | Locating objects within depth images |
| US20170185156A1 (en) * | 2015-12-29 | 2017-06-29 | Microsoft Technology Licensing, Llc | Hand tracking for user interface operation at-a-distance |
| US10386482B2 (en) | 2016-01-25 | 2019-08-20 | Board Of Regents, The University Of Texas System | Device-free tracking system that accurately tracks hand movement |
| US10908694B2 (en) | 2016-02-01 | 2021-02-02 | Microsoft Technology Licensing, Llc | Object motion tracking with remote device |
| US10493349B2 (en) | 2016-03-18 | 2019-12-03 | Icon Health & Fitness, Inc. | Display on exercise device |
| US10625137B2 (en) | 2016-03-18 | 2020-04-21 | Icon Health & Fitness, Inc. | Coordinated displays in an exercise device |
| US10272317B2 (en) | 2016-03-18 | 2019-04-30 | Icon Health & Fitness, Inc. | Lighted pace feature in a treadmill |
| JP6688990B2 (ja) * | 2016-04-28 | 2020-04-28 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび記録媒体 |
| DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
| DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
| EP3285107B2 (en) * | 2016-08-16 | 2024-02-28 | Leica Instruments (Singapore) Pte. Ltd. | Surgical microscope with gesture control and method for a gesture control of a surgical microscope |
| US20180052520A1 (en) * | 2016-08-19 | 2018-02-22 | Otis Elevator Company | System and method for distant gesture-based control using a network of sensors across the building |
| US10095315B2 (en) | 2016-08-19 | 2018-10-09 | Otis Elevator Company | System and method for distant gesture-based control using a network of sensors across the building |
| JP6980990B2 (ja) * | 2016-08-31 | 2021-12-15 | ソニーグループ株式会社 | 情報処理システム、情報処理方法、およびプログラム |
| DE102016216577A1 (de) * | 2016-09-01 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden |
| JP6728004B2 (ja) * | 2016-09-20 | 2020-07-22 | ヤフー株式会社 | 仮想楽器演奏プログラム、仮想楽器演奏装置および仮想楽器演奏方法 |
| US10671705B2 (en) | 2016-09-28 | 2020-06-02 | Icon Health & Fitness, Inc. | Customizing recipe recommendations |
| US10606457B2 (en) | 2016-10-11 | 2020-03-31 | Google Llc | Shake event detection system |
| KR101937823B1 (ko) * | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
| US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
| CN110545886A (zh) * | 2016-12-05 | 2019-12-06 | 优史佩斯公司 | 用于基于手势的交互的系统和方法 |
| CN106601217B (zh) * | 2016-12-06 | 2021-03-02 | 北京邮电大学 | 一种交互式乐器演奏方法及装置 |
| JP2018092494A (ja) * | 2016-12-07 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | 画像センサ |
| US10620779B2 (en) * | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
| US20180329877A1 (en) * | 2017-05-09 | 2018-11-15 | International Business Machines Corporation | Multilingual content management |
| KR102160706B1 (ko) | 2017-05-12 | 2020-09-28 | 주식회사 엘지화학 | 고분자 고체 전해질 조성물 및 이를 포함하는 고분자 막 |
| KR102160705B1 (ko) | 2017-05-12 | 2020-09-28 | 주식회사 엘지화학 | 고분자 고체 전해질 조성물 및 이를 포함하는 고분자 막 |
| KR102328637B1 (ko) * | 2017-08-28 | 2021-11-18 | 주식회사 케이티 | 디스플레이 장치 |
| US20190066385A1 (en) * | 2017-08-31 | 2019-02-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium |
| EP3502835B1 (en) * | 2017-12-20 | 2025-05-14 | Nokia Technologies Oy | Gesture control of a data processing apparatus |
| CN108255351B (zh) * | 2017-12-22 | 2019-08-20 | 潍坊歌尔电子有限公司 | 用户手指位置信息的确定方法及装置、投影仪、投影系统 |
| US12307082B2 (en) | 2018-02-21 | 2025-05-20 | Apple Inc. | Scrollable set of content items with locking feature |
| AU2019100574B4 (en) | 2018-06-03 | 2020-02-20 | Apple Inc. | Setup procedures for an electronic device |
| US10948993B2 (en) * | 2018-06-07 | 2021-03-16 | Facebook, Inc. | Picture-taking within virtual reality |
| CN110634177A (zh) * | 2018-06-21 | 2019-12-31 | 华为技术有限公司 | 一种物体建模运动方法、装置与设备 |
| CN109032354B (zh) * | 2018-07-24 | 2021-05-07 | Oppo(重庆)智能科技有限公司 | 电子装置及其手势识别方法、计算机可读存储介质 |
| WO2020036235A1 (ko) * | 2018-08-13 | 2020-02-20 | 정규민 | Rgb 센서를 이용한 객체 인식 및 데이터 처리 방법 및 장치 |
| US11003766B2 (en) | 2018-08-20 | 2021-05-11 | Microsoft Technology Licensing, Llc | Enhancing cybersecurity and operational monitoring with alert confidence assignments |
| US10732725B2 (en) * | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
| CN109446952A (zh) * | 2018-10-16 | 2019-03-08 | 赵笑婷 | 一种钢琴监督方法、装置、计算机设备及存储介质 |
| WO2020085524A1 (ko) * | 2018-10-23 | 2020-04-30 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
| CN109582136B (zh) * | 2018-11-13 | 2022-05-03 | 深圳市创凯智能股份有限公司 | 三维窗口手势导航方法、装置、移动终端及存储介质 |
| US11030814B1 (en) * | 2019-01-15 | 2021-06-08 | Facebook, Inc. | Data sterilization for post-capture editing of artificial reality effects |
| US11962836B2 (en) | 2019-03-24 | 2024-04-16 | Apple Inc. | User interfaces for a media browsing application |
| US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
| CN114302210B (zh) | 2019-03-24 | 2024-07-05 | 苹果公司 | 用于查看和访问电子设备上的内容的用户界面 |
| US11057682B2 (en) | 2019-03-24 | 2021-07-06 | Apple Inc. | User interfaces including selectable representations of content items |
| KR102054148B1 (ko) * | 2019-04-17 | 2019-12-12 | 주식회사 지티온 | 운동 유도를 위한 스포츠 인터렉티브 컨텐츠 실행 시스템 |
| US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
| US11797606B2 (en) | 2019-05-31 | 2023-10-24 | Apple Inc. | User interfaces for a podcast browsing and playback application |
| CN110322569B (zh) * | 2019-07-03 | 2023-03-31 | 百度在线网络技术(北京)有限公司 | 多模态ar处理方法、装置、设备和可读存储介质 |
| JP2021111021A (ja) * | 2020-01-07 | 2021-08-02 | コニカミノルタ株式会社 | 装置のテスト自動化のための方法およびプログラムならびに装置 |
| US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
| US11340707B2 (en) * | 2020-05-29 | 2022-05-24 | Microsoft Technology Licensing, Llc | Hand gesture-based emojis |
| US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
| EP4248422A1 (en) * | 2020-11-23 | 2023-09-27 | Sony Semiconductor Solutions Corporation | Time-of-flight object detection circuitry and time-of-flight object detection method |
| US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
| KR102438736B1 (ko) * | 2020-12-10 | 2022-08-30 | 최윤우 | 제스처 기반의 비접촉 멀티미디어 장치 제어 시스템 및 이를 이용한 제스처 기반의 비접촉 멀티미디어 장치 제어 방법 |
| KR102569857B1 (ko) * | 2021-01-27 | 2023-08-23 | 주식회사 시온네트웍 | Hmd 핸드트래킹을 이용한 실기술 트레이닝 제공방법 |
| US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
| KR20230034782A (ko) * | 2021-09-03 | 2023-03-10 | 삼성전자주식회사 | 깊이 센서를 이용하여 깊이 맵을 생성하는 증강 현실 디바이스 및 방법 |
| EP4325433A4 (en) | 2021-09-03 | 2024-10-09 | Samsung Electronics Co., Ltd. | AUGMENTED REALITY DEVICE AND METHOD FOR ACQUIRING A DEPTH MAP WITH A DEPTH SENSOR |
| CN114217729B (zh) * | 2021-11-30 | 2024-06-04 | 广州宏途数字科技有限公司 | 一种基于视觉识别的人机交互方法及系统 |
| KR20230100472A (ko) | 2021-12-28 | 2023-07-05 | 삼성전자주식회사 | 손의 관절에 관한 위치 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법 |
| US12360663B2 (en) | 2022-04-26 | 2025-07-15 | Snap Inc. | Gesture-based keyboard text entry |
| US12327302B2 (en) | 2022-05-18 | 2025-06-10 | Snap Inc. | Hand-tracked text selection and modification |
| US12373096B2 (en) * | 2022-05-31 | 2025-07-29 | Snap Inc. | AR-based virtual keyboard |
| WO2024184232A1 (en) | 2023-03-06 | 2024-09-12 | Sony Semiconductor Solutions Corporation | Device, method and computer program |
| WO2024256017A1 (en) * | 2023-06-16 | 2024-12-19 | Akina Ag | Enabling a contactless user interface for a computerized device equipped with a standard camera |
Family Cites Families (159)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4900033A (en) | 1988-09-12 | 1990-02-13 | Samuel Campos | Spelling game apparatus |
| US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
| US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
| DE69736622T2 (de) | 1996-07-03 | 2007-09-13 | Hitachi, Ltd. | System zur Bewegungserkennung |
| US6104379A (en) | 1996-12-11 | 2000-08-15 | Virtual Technologies, Inc. | Forearm-supported exoskeleton hand-tracking device |
| US5980429A (en) | 1997-03-12 | 1999-11-09 | Neurocom International, Inc. | System and method for monitoring training programs |
| US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
| US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
| US6336891B1 (en) | 1997-12-08 | 2002-01-08 | Real Vision Corporation | Interactive exercise pad system |
| US5994844A (en) | 1997-12-12 | 1999-11-30 | Frezzolini Electronics, Inc. | Video lighthead with dimmer control and stabilized intensity |
| US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
| US6270414B2 (en) | 1997-12-31 | 2001-08-07 | U.S. Philips Corporation | Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment |
| JP2001034775A (ja) | 1999-05-17 | 2001-02-09 | Fuji Photo Film Co Ltd | 履歴画像表示方法 |
| US7628730B1 (en) | 1999-07-08 | 2009-12-08 | Icon Ip, Inc. | Methods and systems for controlling an exercise apparatus using a USB compatible portable remote device |
| DE19953835C1 (de) | 1999-10-30 | 2001-05-23 | Hertz Inst Heinrich | Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens |
| US8956228B2 (en) | 1999-12-03 | 2015-02-17 | Nike, Inc. | Game pod |
| US7183480B2 (en) | 2000-01-11 | 2007-02-27 | Yamaha Corporation | Apparatus and method for detecting performer's motion to interactively control performance of music or the like |
| JP3496874B2 (ja) | 2000-02-23 | 2004-02-16 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法、情報記憶媒体、ゲーム配信装置及びゲーム配信方法 |
| US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
| US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
| JP2002041038A (ja) * | 2000-07-31 | 2002-02-08 | Taito Corp | 仮想楽器演奏装置 |
| US7027083B2 (en) | 2001-02-12 | 2006-04-11 | Carnegie Mellon University | System and method for servoing on a moving fixation point within a dynamic scene |
| US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
| JP2003126291A (ja) | 2001-10-19 | 2003-05-07 | Konami Co Ltd | 運動支援制御方法及び運動支援装置 |
| JP3694267B2 (ja) | 2002-01-11 | 2005-09-14 | コナミスポーツライフ株式会社 | 運動支援装置 |
| US7340077B2 (en) | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
| US7369685B2 (en) | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
| US20040001113A1 (en) | 2002-06-28 | 2004-01-01 | John Zipperer | Method and apparatus for spline-based trajectory classification, gesture detection and localization |
| US7815507B2 (en) | 2004-06-18 | 2010-10-19 | Igt | Game machine user interface using a non-contact eye motion recognition device |
| US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
| US7225414B1 (en) * | 2002-09-10 | 2007-05-29 | Videomining Corporation | Method and system for virtual touch entertainment |
| US20070155589A1 (en) | 2002-12-04 | 2007-07-05 | Philip Feldman | Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System |
| JP2004271783A (ja) * | 2003-03-07 | 2004-09-30 | Kenzo Akazawa | 電子楽器および演奏操作装置 |
| US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
| DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
| US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
| KR100544677B1 (ko) | 2003-12-26 | 2006-01-23 | 한국전자통신연구원 | 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법 |
| JP4522129B2 (ja) | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
| US7379563B2 (en) | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
| US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
| US20060018516A1 (en) | 2004-07-22 | 2006-01-26 | Masoud Osama T | Monitoring activity using video information |
| GB2419433A (en) | 2004-10-20 | 2006-04-26 | Glasgow School Of Art | Automated Gesture Recognition |
| KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
| CN101090755B (zh) | 2004-12-28 | 2011-04-20 | 新世代株式会社 | 模拟体验装置 |
| US20120277594A1 (en) | 2009-01-23 | 2012-11-01 | Pryor Timothy R | Mental health and well-being |
| KR100687737B1 (ko) | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
| US9325890B2 (en) | 2005-03-25 | 2016-04-26 | Siemens Aktiengesellschaft | Method and system to control a camera of a wireless device |
| DE102005017313A1 (de) | 2005-04-14 | 2006-10-19 | Volkswagen Ag | Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug |
| ATE459044T1 (de) | 2005-04-26 | 2010-03-15 | Alterface S A | Interaktive multimedia-anwendungseinrichtung |
| JP5028751B2 (ja) | 2005-06-09 | 2012-09-19 | ソニー株式会社 | 行動認識装置 |
| US8094928B2 (en) | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
| TWI348639B (en) | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
| WO2007089198A1 (en) | 2006-02-01 | 2007-08-09 | Tobii Technology Ab | Generation of graphical feedback in a computer system |
| US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
| US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
| US8793620B2 (en) | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
| US8249334B2 (en) | 2006-05-11 | 2012-08-21 | Primesense Ltd. | Modeling of humanoid forms from depth maps |
| JP4711885B2 (ja) | 2006-05-25 | 2011-06-29 | 三菱電機株式会社 | 遠隔操作装置及び方法 |
| EP1862969A1 (en) | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
| US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
| US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
| US9317124B2 (en) | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
| US8023726B2 (en) | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
| US8351646B2 (en) | 2006-12-21 | 2013-01-08 | Honda Motor Co., Ltd. | Human pose estimation and tracking using label assignment |
| US7971156B2 (en) | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
| US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
| US8144148B2 (en) | 2007-02-08 | 2012-03-27 | Edge 3 Technologies Llc | Method and system for vision-based interaction in a virtual environment |
| US7753861B1 (en) | 2007-04-04 | 2010-07-13 | Dp Technologies, Inc. | Chest strap having human activity monitoring device |
| US9028430B2 (en) | 2007-04-19 | 2015-05-12 | Nike, Inc. | Footwork training system and method |
| US7987070B2 (en) | 2007-04-23 | 2011-07-26 | Dp Technologies, Inc. | Eyewear having human activity monitoring device |
| WO2008134313A1 (en) | 2007-04-26 | 2008-11-06 | Heather Raymond | A method and system for developing or tracking a program for medical treatment |
| US8963828B2 (en) | 2007-06-04 | 2015-02-24 | Shimane Prefectural Government | Information inputting device, information outputting device and method |
| US20090015681A1 (en) | 2007-07-12 | 2009-01-15 | Sony Ericsson Mobile Communications Ab | Multipoint autofocus for adjusting depth of field |
| US8221290B2 (en) | 2007-08-17 | 2012-07-17 | Adidas International Marketing B.V. | Sports electronic training system with electronic gaming features, and applications thereof |
| US20090055205A1 (en) | 2007-08-23 | 2009-02-26 | Igt | Multimedia player tracking infrastructure |
| JP5430572B2 (ja) * | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
| US7970176B2 (en) | 2007-10-02 | 2011-06-28 | Omek Interactive, Inc. | Method and system for gesture classification |
| US7885145B2 (en) | 2007-10-26 | 2011-02-08 | Samsung Electronics Co. Ltd. | System and method for selection of an object of interest during physical browsing by finger pointing and snapping |
| WO2009086088A1 (en) | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
| US8149210B2 (en) | 2007-12-31 | 2012-04-03 | Microsoft International Holdings B.V. | Pointing device and method |
| US20120204133A1 (en) | 2009-01-13 | 2012-08-09 | Primesense Ltd. | Gesture-Based User Interface |
| US9094675B2 (en) | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
| US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
| US20090262986A1 (en) | 2008-04-22 | 2009-10-22 | International Business Machines Corporation | Gesture recognition from co-ordinate data |
| US8904430B2 (en) | 2008-04-24 | 2014-12-02 | Sony Computer Entertainment America, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
| US8113991B2 (en) | 2008-06-02 | 2012-02-14 | Omek Interactive, Ltd. | Method and system for interactive fitness training program |
| JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
| EP2327061A4 (en) | 2008-08-15 | 2016-11-16 | Univ Brown | METHOD AND DEVICE FOR ESTIMATING BODY SHAPES |
| US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
| US7869204B2 (en) | 2008-09-15 | 2011-01-11 | International Business Machines Corporation | Compact size portable computer having a fully integrated virtual keyboard projector and a display projector |
| US8081797B2 (en) | 2008-10-10 | 2011-12-20 | Institut National D'optique | Selective and adaptive illumination of a target |
| CN101408800B (zh) | 2008-11-14 | 2010-06-09 | 东南大学 | 利用摄像头进行三维模型显示控制的方法 |
| US8565476B2 (en) * | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
| WO2010096279A2 (en) | 2009-02-17 | 2010-08-26 | Omek Interactive , Ltd. | Method and system for gesture recognition |
| US9538167B2 (en) | 2009-03-06 | 2017-01-03 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people |
| US9256282B2 (en) * | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
| US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
| US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
| US8112719B2 (en) | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
| US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
| US9400559B2 (en) * | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
| JP4701424B2 (ja) | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
| US20110075257A1 (en) | 2009-09-14 | 2011-03-31 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | 3-Dimensional electro-optical see-through displays |
| JP5926184B2 (ja) | 2009-09-22 | 2016-05-25 | ペブルステック リミテッド | コンピュータ装置の遠隔制御 |
| KR101602461B1 (ko) | 2009-09-22 | 2016-03-15 | 삼성전자주식회사 | 디스플레이 장치 및 휴대폰의 제어방법 |
| JP2011081480A (ja) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | 画像入力システム |
| US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
| US8593576B2 (en) | 2009-10-15 | 2013-11-26 | At&T Intellectual Property I, L.P. | Gesture-based remote control |
| US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
| WO2011066343A2 (en) | 2009-11-24 | 2011-06-03 | Next Holdings Limited | Methods and apparatus for gesture recognition mode control |
| KR101688655B1 (ko) | 2009-12-03 | 2016-12-21 | 엘지전자 주식회사 | 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법 |
| KR101652110B1 (ko) | 2009-12-03 | 2016-08-29 | 엘지전자 주식회사 | 사용자의 제스쳐로 제어가능한 장치의 전력 제어 방법 |
| US8232990B2 (en) | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
| FR2955409B1 (fr) | 2010-01-18 | 2015-07-03 | Fittingbox | Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel |
| TW201128444A (en) | 2010-02-02 | 2011-08-16 | Hon Hai Prec Ind Co Ltd | Controlling system and method for camera, adjusting apparatus for camera including the same |
| KR101184460B1 (ko) | 2010-02-05 | 2012-09-19 | 연세대학교 산학협력단 | 마우스 포인터 제어 장치 및 방법 |
| US8659658B2 (en) * | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
| US20110234481A1 (en) | 2010-03-26 | 2011-09-29 | Sagi Katz | Enhancing presentations using depth sensing cameras |
| CN101853568A (zh) | 2010-04-13 | 2010-10-06 | 鸿富锦精密工业(深圳)有限公司 | 手势遥控装置 |
| US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
| FR2959576A1 (fr) | 2010-05-03 | 2011-11-04 | Thomson Licensing | Procede d’affichage d’un menu de reglage et dispositif correspondant |
| EP2393298A1 (en) | 2010-06-03 | 2011-12-07 | Zoltan Korcsok | Method and apparatus for generating multiple image views for a multiview autostereoscopic display device |
| TWI540312B (zh) | 2010-06-15 | 2016-07-01 | 原相科技股份有限公司 | 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法 |
| US8654152B2 (en) | 2010-06-21 | 2014-02-18 | Microsoft Corporation | Compartmentalizing focus area within field of view |
| US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
| US9661232B2 (en) | 2010-08-12 | 2017-05-23 | John G. Posa | Apparatus and method providing auto zoom in response to relative movement of target subject matter |
| KR101815020B1 (ko) | 2010-08-26 | 2018-01-31 | 삼성전자주식회사 | 인터페이스 제어 장치 및 방법 |
| US9141189B2 (en) | 2010-08-26 | 2015-09-22 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling interface |
| US9100640B2 (en) | 2010-08-27 | 2015-08-04 | Broadcom Corporation | Method and system for utilizing image sensor pipeline (ISP) for enhancing color of the 3D image utilizing z-depth information |
| KR101708696B1 (ko) | 2010-09-15 | 2017-02-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
| US9213890B2 (en) | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
| JP5360166B2 (ja) | 2010-09-22 | 2013-12-04 | 株式会社ニコン | 画像表示装置 |
| KR20120031805A (ko) | 2010-09-27 | 2012-04-04 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
| WO2012054060A1 (en) | 2010-10-22 | 2012-04-26 | Hewlett-Packard Development Company, L.P. | Evaluating an input relative to a display |
| US20130154913A1 (en) | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
| KR20140033025A (ko) | 2011-03-25 | 2014-03-17 | 오블롱 인더스트리즈, 인크 | 비전 기반 손 추적기를 초기화하기 위한 고속 손가락끝 검출 |
| US9307134B2 (en) | 2011-03-25 | 2016-04-05 | Sony Corporation | Automatic setting of zoom, aperture and shutter speed based on scene depth map |
| CN103460256B (zh) | 2011-03-29 | 2016-09-14 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
| US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
| US8686943B1 (en) | 2011-05-13 | 2014-04-01 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
| KR101227569B1 (ko) | 2011-05-26 | 2013-01-29 | 한국과학기술연구원 | 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법 |
| US8823639B2 (en) | 2011-05-27 | 2014-09-02 | Disney Enterprises, Inc. | Elastomeric input device |
| US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
| US20120327218A1 (en) | 2011-06-21 | 2012-12-27 | Microsoft Corporation | Resource conservation based on a region of interest |
| JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
| US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
| US8228315B1 (en) | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
| KR101262700B1 (ko) | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
| US8830302B2 (en) | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
| US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
| US9491441B2 (en) | 2011-08-30 | 2016-11-08 | Microsoft Technology Licensing, Llc | Method to extend laser depth map range |
| JP5460679B2 (ja) | 2011-11-28 | 2014-04-02 | ソニー株式会社 | 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造 |
| US20130204408A1 (en) | 2012-02-06 | 2013-08-08 | Honeywell International Inc. | System for controlling home automation system using body movements |
| US9558575B2 (en) | 2012-02-28 | 2017-01-31 | Blackberry Limited | Methods and devices for selecting objects in images |
| US9734393B2 (en) | 2012-03-20 | 2017-08-15 | Facebook, Inc. | Gesture-based control system |
| US9652043B2 (en) | 2012-05-14 | 2017-05-16 | Hewlett-Packard Development Company, L.P. | Recognizing commands with a depth sensor |
| US9823742B2 (en) | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
| JP6135239B2 (ja) | 2012-05-18 | 2017-05-31 | 株式会社リコー | 画像処理装置、画像処理プログラム、画像処理方法 |
| US8913809B2 (en) | 2012-06-13 | 2014-12-16 | Microsoft Corporation | Monitoring physical body changes via image sensor |
-
2012
- 2012-06-21 JP JP2012140086A patent/JP6074170B2/ja active Active
- 2012-06-22 EP EP12173256.4A patent/EP2538305A3/en not_active Withdrawn
- 2012-06-25 CN CN201210214182.3A patent/CN102915112B/zh not_active Expired - Fee Related
- 2012-06-25 US US13/532,609 patent/US9910498B2/en not_active Expired - Fee Related
- 2012-06-25 KR KR1020120068110A patent/KR101979317B1/ko active Active
- 2012-06-26 CA CA2780367A patent/CA2780367A1/en not_active Abandoned
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6074170B2 (ja) | 近距離動作のトラッキングのシステムおよび方法 | |
| US11048333B2 (en) | System and method for close-range movement tracking | |
| JP2013037675A5 (ja) | ||
| US12073008B2 (en) | Three-dimensional object tracking to augment display area | |
| US12393316B2 (en) | Throwable interface for augmented reality and virtual reality environments | |
| CN110476142B (zh) | 显示虚拟内容的计算设备、方法和头戴式显示器设备 | |
| US20210081036A1 (en) | Interaction Engine for Creating a Realistic Experience in Virtual Reality/Augmented Reality Environments | |
| EP2717120B1 (en) | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications | |
| US10331222B2 (en) | Gesture recognition techniques | |
| CN104246682B (zh) | 增强的虚拟触摸板和触摸屏 | |
| US20200004403A1 (en) | Interaction strength using virtual objects for machine control | |
| CN108399010B (zh) | 增强的基于相机的输入 | |
| JP5184384B2 (ja) | 制御システムおよび制御方法 | |
| CN107430437A (zh) | 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法 | |
| TW201020896A (en) | Method of gesture control | |
| US20140022171A1 (en) | System and method for controlling an external system using a remote device with a depth sensor | |
| CN102460373A (zh) | 表面计算机用户交互 | |
| WO2014014461A1 (en) | System and method for controlling an external system using a remote device with a depth sensor | |
| JP5028676B2 (ja) | グラフィカルユーザーインターフェースの操作/制御装置 | |
| CN104951051A (zh) | 一种信息处理方法和电子设备 | |
| Wu | Study and design of interaction techniques to facilitate object selection and manipulation in virtual environments on mobile devices |