[go: up one dir, main page]

JP2013037675A5 - - Google Patents

Download PDF

Info

Publication number
JP2013037675A5
JP2013037675A5 JP2012140086A JP2012140086A JP2013037675A5 JP 2013037675 A5 JP2013037675 A5 JP 2013037675A5 JP 2012140086 A JP2012140086 A JP 2012140086A JP 2012140086 A JP2012140086 A JP 2012140086A JP 2013037675 A5 JP2013037675 A5 JP 2013037675A5
Authority
JP
Japan
Prior art keywords
user
screen
gesture
hand
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012140086A
Other languages
English (en)
Other versions
JP2013037675A (ja
JP6074170B2 (ja
Filing date
Publication date
Application filed filed Critical
Publication of JP2013037675A publication Critical patent/JP2013037675A/ja
Publication of JP2013037675A5 publication Critical patent/JP2013037675A5/ja
Application granted granted Critical
Publication of JP6074170B2 publication Critical patent/JP6074170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

近距離動作のトラッキングのシステムおよび方法
本開示は、対象物のトラッキングに有効な方法および装置に関するものであり、より具体的には、ユーザの手および指の動きをトラッキングし、トラッキングデータを用いて装置とのユーザの相互作用を制御するための高度な方法を提供するシステム、方法および装置に関する。
本願は、2011年6月23日に出願された「電子装置との相互作用のためのユーザ動作の特定およびトラッキングの方法システム」と題する米国仮特許出願61/500,480に基づく優先権を主張しており、この米国仮特許出願は、参照によって本願に組み込まれる。
大体において、コンピュータやタブレットや携帯電話などの電子装置との人の相互作用では、物理的に制御装置を操作し、ボタンを押下し、またはスクリーンをタッチすることを要する。例えば、ユーザは、キーボードとマウスなどの入力装置を介して、コンピュータと相互作用する。キーボードとマウスは、テキスト入力やドキュメントのスクロールなどの機能に有効であるが、キーボードとマウスは、ユーザが電子装置と相互作用する多くの他の方法には有効ではない。マウスを把持するユーザの手は、平らな2次元の表面に沿ってのみ動くように制限されており、3次元の仮想空間でマウスを操作(ナビゲート)することは、使いにくく非直感的である。同様に、タッチスクリーンの平らなインターフェイスは、ユーザに奥行きの概念をもたらさない。これらの装置は、手と指のあらゆる動きを、技術の制約に従う2次元の限定された一部の動きに制限する。
ユーザの相互作用の経験を供給し、動きを自動的に定義して識別するシステムおよび方法の例を図面に示す。この例および図面は、限定ではなく一例である。
いくつかの実施形態における、近距離の対象物トラッキングシステムの構成要素の例を示す概略図である。 いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の一例を示すワークフロー図である。 いくつかの実施形態における、トラッキングされた手のジェスチャーの画像の例を示す図である。 いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の一例を示すワークフロー図である。 いくつかの実施形態における、近距離の対象物トラッキングシステムによる動作トラッキング工程の他の例を示すワークフロー図である。
近距離の対象物のトラッキングのためのシステムおよび方法を説明する。ユーザの手および指または他の対象の近距離の奥行き画像は、奥行きセンサを用いて取得される。奥行きセンサから取得される奥行き画像データを用いて、ユーザの手および指または他の対象の動作が識別され、トラッキングされる。ユーザの手および指または他の対象は、画面上の表現(描写)として示され、ここで、表現(描写)は、識別される動作に対応するジェスチャーを実施することを表示する。ユーザの手および指または他の対象物の表現は、画面上に表示される他の対象物と相互作用しうる。
本発明の種々の態様および例を説明する。以下の記載では、これらの例の記載の十分な理解と実施可能な記載のために具体的詳細を提供する。また、当業者であれば、多くのこれらの詳細なしで実施し得る。更に、いくつかの周知の構造や機能は、関連する記載を不必要に分かり難くすることがないように、詳細に表示または記載されていない。
以下の記載中の用語は、たとえ、ある特定の技術例の詳細な記載で用いられているとしても、その用語の最も広く合理的な態様で解釈されるものである。特定の用語は、以下で強調されうるが、限定的な態様での解釈を目的とする用語は、いかなるものも、この詳細な説明のセクションで、公然かつ明確に定義される。
例えば、ユーザがジェスチャーコントロールを通して電子システムまたは電子装置と相互作用しているとき、対象物の動作のトラッキングは、ユーザまたは対象物が行っている動作またはジェスチャーを認識するシステムを必要とする。この開示目的のために、「ジェスチャー認識」という用語が、ユーザによって実行される特定の動作またはポーズ形状を識別する方法を言及するために用いられる。例えば、ジェスチャー認識は、一定の速さで一定の方向へのマウスパッド上のスワイプまたはタッチスクリーン上の一定形状をトレースする指または手振りを識別することに言及する。システムは、特定のハードウェア/ソフトウェアとのユーザインターフェイスの相互作用を説明するデータを分析することで、特定のジェスチャーが実行されているか否かを決定する。即ち、ジェスチャーを実行するために用いられている対象物を検知またはトラッキングするいくつかの方法がある。タッチスクリーンの場合、その方法は、スクリーン上のユーザのタッチを検知するために用いられるハードウェア技術とソフトウェア技術との組み合わせである。奥行きセンサ型システムの場合、その方法は、一般的に、ユーザの関節や体部の一部を識別してトラッキングするのに必要なハードウェア技術とソフトウェア技術との組み合わせである。
一般的なジェスチャーコントロールまたは対象物のトラッキングによるシステム相互作用の上記例では、トラッキング部は、動作認識とトラッキングとを可能にする。ジェスチャー認識は、ジェスチャー認識がトラッキング部から出力されるデータを受け取り、事前に定義(決定)されたジェスチャーが実行されたか否かを決定すべく、データを処理する点で、トラッキングの処理(工程)とは異なっている。一旦、ジェスチャーが認識されると、そのジェスチャーは、例えば、電子装置におけるアプリケーションやゲームで、動作をもたらすように用いられる。ジェスチャー認識が用いられる例としては、ユーザが手を振って部屋で明かりを消すときである。
対象物トラッキングシステムへの入力は、タッチスクリーン(シングルタッチまたはマルチタッチ)などのいくつかの異なる入力装置からもたらされるユーザの動作と、2D(赤、緑、青またはRGBとして知られる)カメラで保存されるやユーザの動作と、奥行きセンサを用いて保存されるユーザの動作とを描写するデータである。他の適用では、対象物トラッキングシステムは、動作またはジェスチャー認識のために、加速度計および重量計からのデータを用いることができる。
2010年6月16日に出願された「奥行きマップから対象物をモデル化する方法およびシステム」と題する米国特許出願12/817,102では、奥行きセンサを用いてプレーヤをトラッキングし、ユーザの体部の関節を識別しトラッキングする方法を記載している。これは全体として、本願に組み込まれる。2012年4月6日に出願された「改良された対象物トラッキングの方法およびシステム」と題する米国特許出願13/441,271では、飛行時間型(TOF)カメラからの奥行きデータと振幅データとの組み合わせを用いて、ユーザの体部を識別してトラッキングする方法を記載しており、これは全体として、本願に組み込まれる。
ロバスト動作またはジェスチャー認識は、実行がかなり難しい。具体的には、システムは、ユーザの目的を正確に解釈し、異なるユーザ間の動作の違いを調整し、動作が適用可能なコンテキスト(背景)を決定することが可能である必要がある
システムや装置との柔軟で自然、直感的な相互作用の方法は、表示画面の前の3次元空間におけるユーザの手や指の動きを解するシステムのためのものであって、従って、人の手や指のあらゆる構造および動きに対応することを許容する。本質的に、通常の2次元タッチスクリーンは、ジェスチャーおよび相互作用のあらゆる表現に対応する3次元の相互作用空間であって、より自由度が高く、制約が少なく、より直感的な3次元の相互作用空間に拡張される。
このより自然的に、直感的なタイプの相互作用を可能にするには、システムは、ユーザの手および指の構造、動きを完全に識別できなくてはならない。RGBカメラなどの従来のカメラでは、これらのカメラによって生成されるデータが正確かつ確実に読み取ることが難しいので、この目的には不十分である。特に、画像の対象物は、背景と区別することが難しく、データは、光の状態に影響を受け、画像上の異なる対象物間では、オクルージョンが生じる。対照的に、近距離で手や指や他の対象物をトラッキングするための奥行きセンサを用いると、ユーザの手や指や対象物の高精度かつロバストなトラッキングに対応するデータを生成でき、それによって、この新規で直感的で効果的な態様がシステムや装置と相互作用することを可能にする。
奥行きセンサは、取得した画像の各ピクセルのために奥行きデータを取得するセンサとして定義される。ここで、奥行きとは、対象物とセンサ自体との間の距離である。この目的のために奥行きセンサによって用いられるいくつかの異なる技術がある。これらの中には、飛行時間型(スキャンTOFまたは配列TOFを含む)、構造化された照明、レーザ・スペックル・パターン技術、立体カメラ、アクティブな立体カメラに依存するセンサがある。それぞれの場合において、これらのカメラは、ピクセルの固定解像度を有する画像を生成する。ここで、通常は整数値である値は、各ピクセルに関連付けられており、これらの値は、画像領域に投影された対象物のセンサからの距離に対応する。奥行きデータに加えて、センサは、従来のカラーカメラが行うのと同じように、カラーデータを生成することがあり、このデータは、処理で用いるために、奥行きデータと組み合わせることができる。
奥行きセンサによって生成されるデータは、従来の2Dカメラによって生成されるデータに対し、いくつかの利点がある。奥行きセンサのデータは、前景から背景を分ける問題を大幅に簡素化する。また、奥行きセンサのデータは、一般的に照明条件の変化に対してロバストであり、オクルージョンを読み取るために効果的に用いられ得る。奥行きセンサを用いて、リアルタイムでユーザの手と指との両方を識別し、トラッキングすることができる。ユーザの手や指の位置データの知識は、装置との相互作用が自然で直感的である仮想的な3Dタッチスクリーンを有効にするために用いられる。手や指の動きは、例えば、コンピュータ、タブレット、携帯電話、携帯ゲーム機、自動車のダッシュボード制御装置などの様々なシステム、装置、および/または電子デバイスとのユーザの相互作用に動力供給し得る。さらに、このインターフェイスによって有効にされるアプリケーションおよび相互作用は、現実性を増す生産性ツールやゲーム、エンターテインメントシステムのコントロール(例えば、メディアセンターなど)、人間と電子装置間の他の多くの通信形態を含む。
本開示は、近距離で対象物をより正確に識別し、トラッキングし、確実にユーザの動きやジェスチャーを処理するために、奥行きセンサの画像の使用方法について説明する。本明細書中で用いられる「近距離」とは、例えば、一般的にシステムや装置との物理的な接続からユーザが実質的な個人用装置と相互作用する、実質的な個人用空間または領域を指す。従って、一実施形態では、近距離の奥行き画像は、限定はされないが一般的に30cmから50cmの範囲内で取得される。一実施形態では、近距離の奥行き画像は、0から3mの範囲内で取得され得る。いくつかの実施形態では、奥行き画像は、環境、画面サイズ、装置サイズ、奥行きセンサの分解能、奥行きセンサ精度等に応じて、3mより大きい距離で取得することができる。
図1について説明する。図1は、いくつかの実施形態に係る、近距離の対象物トラッキングシステム100の構成要素、および、これらの構成要素間のワークフローの概略図である。近距離の対象物トラッキングシステム100は、例えば、奥行きカメラ115、近距離イメージトラッキングモジュール135、ジェスチャー認識モジュール140、出力モジュール145、ソフトウェア・アプリケーション150を含むことができる。追加的なまたはより少ない構成要素またはモジュールは、システム100および図示される各構成要素に含むことができる。例えば、奥行きカメラ115は、奥行きデータと奥行きマップを作成するために奥行きデータを処理する奥行きプロセッサ120とを取得する奥行きイメージセンサ110を含むことができる。奥行きプロセッサ120によって実行される処理ステップは、奥行きイメージセンサ110によって用いられる特定の技術であって、例えば構造化された照明およびTOF技術などの特定の技術に依存する。また、奥行きカメラ115は、例えば1または複数のレンズ、光源、電子制御装置など他の構成要素(図示せず)を含むことができる。
本明細書中で用いられる「モジュール」は、汎用、専用または共有プロセッサと、一般的に、プロセッサによって実行されるファームウェアまたはソフトウェアのモジュールとを含む。実施仕様またはその他の考慮事項に応じて、モジュールは、集中または機能分散され得る。モジュールは、汎用または特殊目的のハードウェア、ファームウェア、またはプロセッサによる実行のためのコンピュータ読み取り可能な(記憶)媒体に収録されたソフトウェアを含むことができる。本明細書中で用いられるように、コンピュータ読み取り可能な媒体またはコンピュータ読み取り可能な記憶媒体は、法定(例えば、米国では、35USC101)のすべての媒体を含み、かつ本質的に非法定であるすべての媒体を、コンピュータ読み取り可能な(記憶)媒体を含む請求項が適法となるために必要となる除外の程度まで明確に除外する。既知の法定のコンピュータ読み取り可能な媒体は、ハードウェア(ほんの数例として、レジスタ、ランダムアクセスメモリ(RAM)、不揮発性(NV)ストレージ)を含むが、ハードウェアに限定されてもよく、限定されなくてもよい
図1に示されるように、システム100は、ユーザの手、頭、足、腕、顔、またはその他の対象物などのオブジェクト105をトラッキング(追跡)する。ここで、対象物は通常、イメージセンサ110に近い範囲内に配置される。システム100は、近距離の対象物を感知する奥行きカメラ115を含むことができる。奥行きカメラ115はイメージトラッキングモジュール135を補助し該イメージトラッキングモジュール135は奥行きカメラ115によって生成された画像を用いて、対象物を識別し、近距離の対象物の動きを検出して、さらに細かい動きをも検出す。例えば、奥行きカメラ115は、指、唇、その他の顔要素、つま先などの細かい微妙な動きを検出するために、十分なピクセルの解像度と正確な奥行きデータ値とを提供するように適合され得る
システム100は、さらに対象物トラッキングを実行するための近距離イメージトラッキングモジュール135を含むことができる。いくつかの実施形態では、トラッキングモジュール135は、システム100が近距離の奥行きデータを利用できるようにするために、例えば、奥行き画像データに適切なアルゴリズムを適用することによって、奥行きカメラ115からの奥行きデータを処理できる。トラッキングモジュール135は、近距離の光学設定と条件とに基づいて、奥行き画像データを処理できる。トラッキングモジュール135は、例えば、可能な限り同時に、1または複数の対象物に対して、対象物の有無、動き、距離、速度などの処理、計算、識別および/または決定ができる。近距離イメージトラッキングモジュール135は、例えば、顔の動き、足の動き、頭の動き、腕の動き、または他の適切な対象物の動きの検出および/またはトラッキングを可能にするために、例えば、近距離のトラッキングのためのソフトウェアコードやアルゴリズムを実行し得る。一例では、トラッキングモジュール135は、人間の動きをトラッキングすることができ、トラッキングモジュール135の出力は、人間の骨格表現であり得る
同様に、ユーザの手や指のみがトラッキングされている場合に、トラッキングモジュール135の出力は、ユーザの手の骨格表現であり得る。手の骨格の表現は、骨格の関節の位置を含むことができ、また、中心点に対する関節の回転を含むことができる。また、これらの要素の一部を含むことができる。さらに、モジュール135の出力は、トラッキングされている対象物の重心などの他の特徴、または、奥行きカメラ115によって提供されるデータを処理することにより取得できる任意の他の有用なデータを含むことができる。
さらに、近距離イメージトラッキングモジュール135は、奥行きカメラ115からデータを受信すると、例えば、各指のうち特定の動いている指の動き、および、各指の動きに対応する全体の動きを識別するために、各手の異なる指などの特定の対象物の形状および/または機能を識別するように構成されることができる。
いくつかの実施形態では、近距離のイメージトラッキングモジュール135は、動きの速さ、動きのなどに応じて、対象物の運動強度を識別し、決定するように構成されることができ、それによって、動きの力の向きを検出し利用することができる。
いくつかの実施形態では、近距離のイメージトラッキングモジュール135は、異なる指や指の組み合わせによるジェスチャーを検出することができるように、複数の指の動きをトラッキングするように構成することができる。
いくつかの実施形態では、近距離トラッキングのためのコードやアルゴリズムは、例えば、顔の動き、足の動き、頭の動き、腕の動き、または他の適切な対象物の動きを検出および/またはトラッキングするために用いられることができる。
さらに、システム100は、感知したデータを分類するために、動作またはジェスチャー認識モデル140を含むことができ、それによって、対象物の動きの認識と決定を補助する。ジェスチャー認識モデル140は、例えば、対象物が動いたり、合図したり、身振りしたりしているかなどを決定するためおよび特定のジェスチャーが実行されたかなどを識別するために用いられる出力を生成することができる。
さらに、システム100は、ユーザコマンドまたはアクション外部プラットフォームやコンソールなどに十分に出力できるようにすべく、ジェスチャーデータなど加工されたトラッキングデータを処理するための出力モジュール145を含むことができる。
さらに、システム100は、ソフトウェア・アプリケーション150を含むことができ、ソフトウェア・アプリケーション150は、出力モジュール145からの出力を受け取り、それをソフトウェア・アプリケーションのコンテキスト内で使用する。ソフトウェア・アプリケーション150は、ゲームであってもよく、または装置とのユーザの相互作用を制御するプログラムであってもよく、それ以外の場合は、ソフトウェア・アプリケーション150は、奥行きカメラ115によって感知されて処理された動作(動きの)データを利用することができる。
一実施形態では、システム100はさらに、ディスプレイ155を含むことができる。ディスプレイは、ユーザに視覚的なフィードバックを提供する。視覚的なフィードバックは、ユーザのジェスチャーの表現を含むことができ、ここで、表現に関連する情報は出力モジュール145から受信される。視覚的なフィードバックは、1または複数の仮想オブジェクトとのユーザのジェスチャー表現の相互作用を含むことでき、ここで、相互作用に関連する情報は、ソフトウェア・アプリケーション150から受信される。
図2について説明する。図2は、奥行きカメラ115によって生成されたデータにトラッキングモジュール135を用いて、ユーザの手と指をトラッキングするプロセスの例である。図2に示すように、ブロック205では、ユーザの手は、奥行きカメラ115から得られた奥行き画像データから識別される。手は、セグメンテーションおよび/または分類アルゴリズムを用いて、ノイズや不要な背景データを除去することで背景から分けられる。
ブロック210では、奥行き画像データおよび関連する振幅データおよび/または関連するRGB画像において、特徴が検出される。これらの特徴は、例えば、指先や、指の付け根が手のひらに接続している部分、および検出可能なその他の画像データである。ブロック215では、ブロック210で識別された特徴は、画像データ内の個々の指を識別するために用いられる。ブロック220では、検出されたあらゆる誤検出の特徴を除外すべく、かつ、隠れた部分などの奥行き画像データから欠損しているデータを埋めるべく、指が前のフレーム内の位置に基づいてトラッキングされる。
ブロック225では、トラッキングされる指の三次元位置が奥行き画像データから得られ、ユーザの手や指の骨格モデルを構築するために用いられる。いくつかの実施形態では、運動学モデルは、対象者の関節の相対的な位置を限定するために用いられることができる。関節が隠れているためか、関節がカメラの視野外にあるために、運動学モデルは、カメラに見えていない関節の位置を計算するために用いられることもできる。
図3A−3Eについて説明する。図3A−3Eは、検出、トラッキング、認識および処理される微細運動の動きの例として、一連の手のジェスチャーを示す。図3A,3C、3Dは、動きの要素がない静的な手の合図のジェスチャーを示す。一方、図3B,3Eは、動的な手のジェスチャーを示す。図3Bと図3Eは、有意味で認識可能な合図やジェスチャーを構成する指の動きを示す、付加された矢印を含む。当然に、他のジェスチャーや合図は、ユーザの体の他の部分や他の対象物から検出され、トラッキングされることができる。他の例では、例えば、2本またはそれ以上の指の同時の動きなどの複数の対象物やユーザの動きからのジェスチャーや合図が、検出、トラッキング、認識、処理されることができる。
本開示の実施形態は、以下の相互作用の形態を含むが、これに限定されない。
一実施例では、ユーザの各指は、ディスプレイ画面上でカーソルになり得る。この方法では、ユーザは同時に、複数のアイコン(両手を使うと最大10個まで)と相互作用できる。本明細書内で用いられる「カーソル」は、他の信号、シンボル、インジケータなどであって、CRT上の位置や、キーボードから入力されて次の文字が現れたり、ユーザのアクションが必要とされる他のタイプのディスプレイ上の位置を示す、可動し時々点滅するシンボルなどの他の信号、シンボル、インジケータなどを示すことができる。
さらに他の例では、仮想ホットフィールド画面の前定義することができる。ユーザは、例えば、マウスボタンをクリックするための運動をシミュレーションするように、ホットフィールドで指、および/または、手を動かすことで、ディスプレイ画面上の対象物を選択できる。仮想ホットフィールドは、二次元のタッチスクリーンと同様の機能を提供するが、指/手の三次元位置を用いることができるので、より拡張的である。
図4について説明する。図4は、近距離のトラッキングを可能にする技術に基づユーザインターフェイス(UI)フレームワークの例を示す。ジェスチャー認識コンポーネントは、「ジェスチャー分類の方法およびシステム」と題する特許7,970,176、および、「ジェスチャー認識の方法およびシステム」と題する出願番号12/707,340に記載の構成要素を含み、これらは、完全に参照によって本明細書に組み込まれる。
ステージ400では、奥行き画像は奥行きカメラから取得される。ステージ410では、トラッキングモジュール135は、取得した奥行き画像を用いて、図2記載の機能を実行する。トラッキングモジュール135によって生成された関節位置データは、後述するように、並列に処理される。ステージ420では、関節位置のデータは、対象者の手/指の動きを仮想カーソルにマッピングまたは投影するために用いられる。選択的に、カーソルまたはコマンドツールは、対象者の1または複数の指によって制御されることができる。情報は、対象者にフィードバックを提供するために、ディスプレイ画面上に提供されることができる。仮想カーソルは、矢印や手の表現などの単純なグラフィック要素である。また、それは、UI要素の色を変更したり、またはその背後の輝きを投影することによって、(画面上のカーソルの明示的なグラフィカルな表現がない)UI要素を単に強調したり識別することができる。対象者の手の異なる部分は、仮想カーソルを動かすために用いることができる。
いくつかの実施形態では、仮想カーソルは、対象者の手、または、1または複数の指にマッピングされることができる。例えば、人差し(ポインタ)指の動きは、仮想カーソルの動きに直接マッピングしたり、投影することができる。他の実施形態では、UI要素は、奥行き方向において、ある要素が他の要素の上に積み重ねられている。仮想カーソルは、仮想カーソルが奥行きの異なる階層でUI要素間を移動できるように、三次元で移動させることができる。他の実施形態では、複数の仮想カーソルであって、各々が対象者の一の指先に対応する仮想カーソルがある。他の実施形態では、スクリーンから離れる手の動きは、ズーム効果を与えることができる。あるいは、例えば人差し指と親指のように2つの指先間の距離は、画面でズームのレベルを示すために用いられることができる。
ステージ430では、関節の位置データは、対象者によって実行されるジェスチャーを検出するために用いられる。イベントをトリガーする2つのカテゴリのジェスチャーとして、選択ジェスチャーと操作ジェスチャーとがある。選択ジェスチャーは、特定のUI要素が選択されるべきことを示す。いくつかの実施形態では、選択ジェスチャーは、手でつかむ動きであり、この動きは、対象者がUI要素を拾っているかのように、指が手のひらの中心に向かって移動する。他の実施形態では、選択ジェスチャーは、対象者が選択したいUI要素を仮想カーソルが取り囲むように、円を描いて手や指を動かすことによって実行される。当然に、他のジェスチャーを用いることも可能である。ステージ450では、システムは、選択ジェスチャーがステージ430で検出されたか否かを評価し、そして、もし検出されたなら、ステージ470では、システムは、仮想カーソルが現在1または複数のUI要素にマッピングされているかどうかを決定する。仮想カーソルがUI要素にマッピングされている場合には、UI要素はステージ490で選択され得る。
選択ジェスチャーに加え、他のカテゴリのジェスチャーである操作ジェスチャーが定義(規定)される。操作ジェスチャーは、いくつかの方法でUI要素を操作するために用いられることができる。いくつかの実施形態では、操作ジェスチャーは、手を回転する対象者によって実行され、続いて、画面上に追加情報を表示するように、選択されたUI要素を回転させる。例えば、UI要素がファイルのディレクトリである場合、ディレクトリを回転することは、対象者がディレクトリに含まれるすべてのファイルを参照することを可能にする。操作ジェスチャーの他の例は、例えば、仮想デスクトップ上で、その内容を空にするためにUI要素を逆さまにすることを含むことができる。また、その内容を並べ替えたり、何らかの他の効果を持つようにUI要素を振ったり、または、対象者がを見るようにUI要素を傾けたり、または、例えばUI要素を最小化させる効果を有するようにUI要素を握ることを含むことができる。他の実施形態では、スワイプジェスチャーは、選択したUI要素をごみ箱に移動することができる。
ステージ440では、システムは、操作ジェスチャーが検出されたかどうかを評価する。操作ジェスチャーが検出された場合、続いて、ステージ460では、システムは、選択されているUI要素があるかどうかを確認する。UI要素が選択されている場合、実行されたジェスチャーの特定の定義されている動作、および、システムのコンテキストに従って、UI要素は、ステージ480で操作され得る。いくつかの実施形態では、それぞれの指先で識別される1または複数のそれぞれのカーソルは、1または複数の指で、ナビゲーション、コマンド入力、または画面アイコン、対象物、データの他の操作を可能にするために、処理することができる。
いくつかの実施形態によれば、従来の2次元のアイコンは、追加の関連情報をユーザにもたらすために、追加の次元を表示するように回転させられることができる。例えば、ウィンドウ・アイコンは、ディレクトリ内のファイルリストを表示し得る。ユーザが手を回転すると、ウィンドウ・アイコンが回転し、ディレクトリ内の各ファイルのサイズを示す三次元が表示される。
いくつかの実施形態では、対象物上に手を動かして、対象物を把持するように、指を手のひらに近づけることで、ディスプレイ画面上の対象物を選択することができる。これは選択ジェスチャーの例である。
いくつかの実施形態では、対象物が選択された後、1つの位置から他の位置に素早く手を動かして、手のスワイプジェスチャーでごみ箱の中に対象物を置くことができる。これは、操作ジェスチャーの例である。
いくつかの実施形態では、画面からの距離は、画面上の指や手の位置の二次元投影と組み合わせて用いられることができる。例えば、ユーザは、アイコンの周りに円を描くように指を動かすことにより、ディスプレイ画面上のアイコンまたは一群のアイコンを示すことができる。ユーザは、画面から手/指を遠ざけるように動かすと、それに応じて、円の大きさは拡大または縮小される。そして、円の内側の画面上の選択領域を変更し、選択されているアイコンの数を変更する。
いくつかの実施形態では、画面からの距離は、倍率として用いられることができる。例えば、所定の対象物のサイズは、ユーザの親指と人差し指の間の距離によって規定される。また、画面からの距離はさらに、親指と人差し指の間の距離を乗算する倍率として用いられることができる。
いくつかの実施形態では、アイコンは、互いの前に重ねられることができ、画面までのユーザの手の距離は、アイコンを選択するために用いられることができる。ユーザディスプレイ画面に手を近づけるにつれ、重ねられたより後方の対象物が選択され、ユーザディスプレイ画面から手を遠ざけるにつれ、重ねられたより上側の対象物が選択される。
いくつかの実施形態では、画面上の複数の対象物は、それぞれの指先で選択され、指の動きに従って操作されることができる。いくつかの実施形態では、画面からの手や指の距離は、画面画像のサイズに影響を及ぼし得る。例えば、トラッキングされた手を後方に動かすことによって、画面は、管理されている対象物の視野を大きくすべく、ズームアウト(縮小)される。いくつかの実施形態では、画面の対象物は重ね合わされ、操作される対象物の複数の階層を表示する。このような場合には、画面からの手、指、または他の対象物の距離に応じて、異なる奥行きの対象物を操作するように、手および/または指、または、他の対象物の奥行き画像を用いることができる。
図5は、いくつかの実施形態によれば、ユーザコマンドツールとしての仮想領域の使用例を説明する。図5に示すように、ブロック500では、仮想領域は、奥行きカメラへの選択された近接度合いで規定される。仮想領域は、奥行きカメラへの特定の近接度合いで3次元空間として規定される。ここで、1または複数のユーザの体部や他の対象物を用いて、例えばユーザによる入力、クリック、画面操作などを可能にすべく、近距離の動きがトラッキングされる。
ブロック505では、例えば図4で説明したように、トラッキングモジュールを用いて奥行きデータが処理される。ブロック510では、システムは、ユーザの手/指/命令する対象物が仮想領域にあるかどうかを決定する。ブロック515では、ユーザの手/指などが仮想領域内にあれば、システムは、ユーザによって示されたジェスチャーやアクションを実行する。ユーザの手/指などが仮想領域内にない場合、システムは、ブロック505に戻って、システムがユーザの手/指などが仮想領域内にあると判断するまで、トラッキングモジュールを用いて他の奥行きデータを処理する。
他の実施形態によれば、本明細書に記載の近距離の動作トラッキングシステムは、指および/またはその他の対象物の動きを通して、楽器の仮想演奏を可能にする。いくつかの例では、手の位置は、特定の楽器の選択を決定できる。いくつかの実施形態では、ユーザの手や指の奥行き画像は、奥行きカメラから取得できる。データは、楽器の選択を決定するために、奥行き画像からのユーザの手の位置の識別を可能にするように処理され得る。奥行き画像は、奥行き画像からユーザの指の動きをトラッキング可能にするために用いられることがあり、それによってユーザの指の動きが仮想的に楽器を操作する。さらに、仮想楽器の操作は、トラッキングされた動きに基づいてシミュレーションされることができる。いくつかの例では、楽器操作のシミュレーションは、楽器におけるユーザの指の動きによって演奏される音符に対応したサウンドを提供することを含む。他の例では、楽器操作のシミュレーションは、画面上で楽器操作の可視表示を提供することを含む。
さらに他の例では、サインランゲージ(手話)・ジェスチャー(例えば、アメリカの手話や他のジェスチャー・ベース言語)は、システムによって識別できる。さらなる例では、奥行きカメラでユーザの手や指および/または他の体部の奥行き画像を取得し、ジェスチャー・ベース言語の事前に定義されたジェスチャーとして、奥行き画像からユーザの手や指および/または他の体部によって行われたジェスチャーを識別し、出力として事前に識別されたジェスチャーの翻訳を提供することによって、ジェスチャー・ベース言語は識別され得る。いくつかの例では、出力は、テキストおよび/またはオーディオなどである。
さらに他の例では、ユーザは、1または複数の指を立てたり、把持したり(指を手のひらに近づける)、手振りしたり、指をならしたりするなどの事前に定義されたジェスチャーを形成することによって、システムまたはデバイスと通信し得る。これらのジェスチャーは、システムの特定の機能にマッピングされることが可能である。例えば、指をならすことは、コンピュータシステムを休止状態にすることができる。「ジェスチャー分類の手法とシステム」と題する米国特許第7,970,176、および、「ジェスチャー認識の方法およびシステム」と題する米国出願第12/707,340に記載の開示は、かかるジェスチャーを定義するための記載を提供する。また、これらは、参照により本明細書に完全に組み込まれる。
いくつかの実施形態では、2次元の画面上に表示されるアイコンの視点を変更するために、ユーザの頭がトラッキングされ得る。即ち、ユーザが横側に移動すると、それに応じて、画面の視点が動く。
いくつかの例では、一貫したシステム全体の動作をもたらすジェスチャーを定義できる。例えば、任意のアイコン/フォルダは、既定の動作/特性を有し得る。以下は、全てのフォルダのアイコンに適用するために定義されることができるジェスチャーや合図のセットの例である。
「こぼす」ジェスチャーでは、ユーザが項目(item)を選択し、それをわずかに回転させると、その内容が上からあふれ出す。「を見る」ジェスチャーでは、ユーザが項目を選択して、それを回転させると、ユーザは項目内の内容を見ることができる。「振る」ジェスチャーは、ユーザが対象物を選択し、振動運動(振る動き)を行い、項目の内容がアルファベット順に並び替えられるなどの事前に決定された動作が生じる。「裏を見る」ジェスチャーでは、ユーザが項目を選択し、項目の裏側を見るためにそれを回転させると、追加的な情報が利用可能になる。例えば、画像ファイルを含むフォルダが回転されると、画像のテキストキャプションが表示される。「押し潰す」ジェスチャーでは、ユーザが項目を選択し、項目を最小化したり、デスクトップから消去するように項目を押し潰す。さらに他の例として、指、腕、目などの複数の対象物によるジェスチャーや動きは、追加のジェスチャーや合図を示すために決定することができる。さらなる例では、異なるスタイル、速度、強度などを有する1または複数の対象物によるジェスチャーや動きは、追加のジェスチャーや合図を示すために決定することができる。当然に、他のジェスチャーや合図やジェスチャーと合図との組み合わせを用いることが可能である。
いくつかの実施形態では、ユーザの手が一対一の動きで仮想表現にマッピングされている場合でも、この仮想空間内(例えば、デスクトップ上)にユーザの手を表現するための異なる方法がある。一例では、手のモデルがトラッキングされると、仮想アイコンがユーザの手に似る。例えば、それは、ユーザの手の構成と同じ構成になっている。他の例では、ユーザの手の中レベルの抽象化を用いることができる。例えば、仮想空間に表示される各ドットは、ユーザの指先のいずれかに対応することができる。さらに他の例では、ユーザの手のより高いレベルの抽象化を用いることができる。ここで、ユーザの手は、アニメーション化された対象物として表示され機能する。
いくつかの実施形態では、物理/力指向の相互作用がトラッキングされ、用いられることができる。これらの例では、ジェスチャーは項目と直接相互作用しなくてもよい。むしろ、ジェスチャーは、項目と相互作用する力を生成してもよい。例えば、対象物がスピンし始める特定のジェスチャーである「スピン」ジェスチャーを定義する代わりに、この種の物理的な力を生成する任意のジェスチャーがタスクを達成することを決定してもよい。対象物をスピンさせることは、合理的な速度で動きを生成するために素早く手を振ったり、項目の角をたたいたり、項目に沿ってゆっくりと手を動かすなどのいくつかの方法のいずれかで、効果的に実行されることができる。当然に、他のジェスチャーや合図やジェスチャーまたは合図の組み合わせを用いることが可能である。
いくつかの実施形態によれば、異なる指は、異なる機能を有することができる。例えば、対象物は、ユーザの手でそれを掴んで選択されてもよく、例えば、人差し指がそれを開き、中指がそれを消去し、薬指がそれを最大化する等が行われ得る。当然に、他のジェスチャーや合図やジェスチャーまたは合図との組み合わせを用いることが可能である。
コンテキスト(文脈)が特に明らかに要求しない限り、明細書および特許請求の範囲を通して、「含む」、「含んでいる」および同様な言葉は、排他的または網羅的な意味とは対照的に、包括的な意味(即ち、含むがそれに限定されないという意味)で解釈される。本明細書で用いられるように、「接続」「結合」またはそのわずかに異なる言葉は、2つかそれ以上の要素間で、直接または間接に接続または結合することを意味する。そのような要素間の結合または接続は、物理的、論理的、またはその両方である。さらに、本願に用いられる「ここに」、「上」、「下」、および、同様な意味の言葉は、本願全体に言及するものであり、本願の特定の部分に対してではない。ここで、コンテキスト(文脈)によっては、単数または複数を用いている上記の詳細な説明における言葉は、各々、複数または単数を含み得る。2つまたはそれ以上の項目のリストに関する「または」は、リストのいかなる項目、リストの全ての項目、および、リストの項目のあらゆる組み合わせという解釈の全てを含む。
本発明の実施例の上記詳細な説明は、網羅的なものではなく、発明を上記開示の具体的な形態に限定するものではない。発明の具体例は例示の目的のために上記されるが、当業者が認識し得る種々の同等な変更が本発明の範囲内で可能である。本願では、工程またはブロックは、特定の順番で表示されているが、代替の実行では、異なる順番で実行されるステップを有するルーチンを実行したり、異なる順番でブロックを有するシステムを用いることができる。いくつかのプロセスまたはブロックは、代替またはサブコンビネーションを提供するように、削除、移動、追加、分割、結合、および/または、変更される。また、プロセスまたはブロックは、時折、順番に実行されるように示されているが、これらのプロセスまたはブロックは、変わりに、並列で実行されたり、異なる順番で実行されることが可能である。さらに、本明細書に記載の特定の数は単なる例である。他の実行では、異なる値や範囲を用いられ得る。
本明細書で提供される様々の図や内容(教示)は、上記システム以外のシステムに適用することも可能である。上記種々の例の要素と動作は、本発明の他の実行を提供するために組み合わせることができる。
上記のいかなる特許、および、出願、および、他の参考文献は、出願書類に添付されて記載されるいかなるものをも含み、参照によって本明細書に組み込まれる。本発明の形態は、本発明の他の実行を提供するために、そのような参照に含まれるシステム、機能、および概念を必要に応じて用いて変更することが可能である。
これらおよび他の変更は、上記の詳細な説明に照らして本発明に適用することが可能である。上記記載は、本発明の特定の例を説明し、考えられるベストモードについて説明しており、上記では具体的に表現しているが、本発明は、多くの態様で実行することが可能である。システムの詳細は、本明細書に開示される発明に含まれているが、特定の実行において大幅に変更され得る。上記のように、発明の特定の特徴または態様を説明しているときに用いられる特定の用語は、用語が関連する発明のいかなる特定の性質、特徴、態様に限定されるように再定義して捉えてはならない。一般的に、以下の特許請求の範囲に用いられる用語は、上記の詳細な説明のセクションがそのような用語を明確に定義していない限り、明細書中に開示される特定の例に本発明を限定して解釈してはならない。従って、本発明の実際の範囲は、開示された例だけでなく、特許請求の範囲による発明を実行するあらゆる同等な態様を含む。
本発明の特定の態様は、特定の請求項の形態で以下に提示されており、出願人は、いかなる請求項の形態で多くの本発明の態様を熟考する。例えば、本発明の一態様のみが、35U.S.C.§112の第6パラグラフによるミーンズ・プラス・ファンクション・クレームであるが、他の態様は、同様にミーンズ・プラス・ファンクション・クレームとして、或いは、コンピュータ読み取り可能な媒体で具体化される他の形態で具体化されることが可能である。(35U.S.C.§112の第6パラグラフで扱われるどんな請求項も「するための手段」で始まる。)従って、出願人は、本発明の他の態様のために他の請求項の形態を追求すべく、本願の出願後に、追加の請求項を追加する権利を保留する。

Claims (21)

  1. ユーザインターフェイスを操作する方法であって、
    奥行きセンサを用いてユーザの体部の一部の近距離の奥行き画像を取得する工程と、
    前記ユーザの体部の前記一部の指定領域内における動きを前記奥行き画像から識別する工程と、
    前記ユーザの体部の前記一部の前記領域内における動きをトラッキングする工程と、
    画面上第一対象物として前記ユーザの体部の前記一部を表示する工程であって、前記画面上前記第一対象物が前記ユーザの体部の前記一部の前記識別された動きに対応するジェスチャーを実行することを表示する工程とを含むユーザインターフェイスを操作する方法。
  2. 前記第一対象物は、前記画面上他の対象物と相互作用することを特徴とする請求項1記載の方法。
  3. 前記動きは、前記画面上の前記他の対象物と相互作用する力を生成することを特徴とする請求項2記載の方法。
  4. 前記ユーザの体部の前記一部は、1または複数の指を含み、前記1または複数の指の各々は、前記画面上1または複数の別個の第一対象物として表現され、前記別個の第一対象物の各々は、前記画面上他の対象物と相互作用することを特徴とする請求項1記載の方法。
  5. 前記ユーザの体部の前記一部は手を含み、前記手の特定された動きは、選択ジェスチャーに対応し、前記画面上の前記第一対象物は、前記画面上第二対象物を選択することを特徴とする請求項1記載の方法。
  6. 前記ユーザの体部の前記一部は手を含み、前記手の特定された動きは、操作ジェスチャーに対応し、画面上の第二対象物は、操作ジェスチャーに関連する事前に識別された動作に基づいて操作されることを特徴とする請求項1記載の方法。
  7. 前記画面からの前記ユーザの体部の前記一部の距離を決定する工程と、
    前記距離の変化に基づいて、前記画面を拡大または縮小する工程とを含む請求項1記載の方法。
  8. 前記画面からの前記ユーザの手の距離を決定する工程であって、前記ユーザの体部の前記一部が手を含む工程と、
    前記画面上の対象物の重なりから選択対象物を示すために、画面上のカーソルを動かす工程であって、前記画面からの前記ユーザの手の前記距離に基づいて前記カーソルが動かされる工程を含み、
    前記カーソルを動かすことが、前記ユーザの手が前記画面に近づくにつれ前記対象物の重なりの下方に向かって前記カーソルを動かし、前記ユーザの手が前記画面から遠ざかるにつれ前記対象物の重なりの上方に向かって前記カーソルを動かすことを含む請求項1記載の方法。
  9. 前記画面からの前記ユーザの体部の前記一部の前記距離に基づいて、前記第一対象物の大きさを調整する工程を含む請求項1記載の方法。
  10. 奥行きセンサを用いて、ユーザの片手または両手および指の奥行き画像を取得する工程と、
    前記奥行き画像からの前記ユーザの片手または両手および指の動きをトラッキングする工程であって、前記動きは、機能を実行するジェスチャーに対応する工程とを含む方法。
  11. 前記機能は、仮想楽器の操作であることを特徴とする請求項10記載の方法。
  12. 前記仮想楽器の選択を決定するために、前記奥行き画像からの前記ユーザの片手または両手および指の位置を識別する工程をさらに含む請求項11記載の方法。
  13. 前記ユーザの片手または両手および指の動きによって演奏される音符に対応するサウンドを、前記仮想楽器に対して提供する工程をさらに含む請求項11記載の方法。
  14. 前記画面の前記仮想楽器の操作の可視的表示を提供する工程をさらに含む請求項11記載の方法。
  15. 電子装置で前記機能を実行する工程をさらに含む請求項10記載の方法。
  16. ジェスチャー・ベース言語の一部としてなされたジェスチャーを翻訳する方法であって、
    奥行きセンサを用いて、ユーザの手および指の奥行き画像を取得する工程と、
    ジェスチャー・ベース言語の事前に定義されたジェスチャーとして、前記奥行き画像からの前記ユーザの手および指でなされたジェスチャーを識別する工程と、
    出力として、事前に識別された前記ジェスチャーの翻訳を提供する工程とを含む方法。
  17. 前記出力は、オーディオ出力または前記画面上のテキスト出力を含む請求項16記載の方法。
  18. ユーザの体部の少なくとも一部の奥行き画像を近距離で取得するように構成される奥行きセンサと、
    前記奥行き画像データからの前記ユーザの体部の前記少なくとも一部を識別し、前記奥行き画像データからの前記ユーザの体部の前記少なくとも一部の動きをトラッキングするように構成されるトラッキングモジュールと、
    前記ユーザの体部の前記少なくとも一部の動きが1または複数のユーザインターフェイス要素と相互作用するように構成される出力モジュールと、
    前記ユーザの体部の前記少なくとも一部の表現、および、前記1または複数のユーザインターフェイス要素を表示するように構成されるディスプレイとを含むシステム。
  19. 前記トラッキングモジュールは、背景分割アルゴリズムと、特徴検出アルゴリズムと、
    対象物特定アルゴリズムとを実行することを特徴とする請求項18記載のシステム。
  20. 前記トラッキングモジュールは、骨格モデル形成アルゴリズムを実行することを特徴と
    する請求項18記載のシステム。
  21. 奥行きセンサを用いて、ユーザの体部の一部の近距離の奥行き画像を取得する手段と、
    前記ユーザの体部の前記一部の指定領域内における動きを前記奥行き画像から識別する手段と、
    前記ユーザの体部の前記一部の前記領域内における前記動きをトラッキングする手段と、
    画面の第一対象物として前記ユーザの体部の前記一部を表示する手段であって、前記画面上前記第一対象物前記ユーザの体部の前記一部の前記識別された動きに対応するジェスチャーを実行することを表示する手段とを含むシステム。
JP2012140086A 2011-06-23 2012-06-21 近距離動作のトラッキングのシステムおよび方法 Active JP6074170B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161500480P 2011-06-23 2011-06-23
US61/500,480 2011-06-23

Publications (3)

Publication Number Publication Date
JP2013037675A JP2013037675A (ja) 2013-02-21
JP2013037675A5 true JP2013037675A5 (ja) 2014-09-04
JP6074170B2 JP6074170B2 (ja) 2017-02-01

Family

ID=46980712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012140086A Active JP6074170B2 (ja) 2011-06-23 2012-06-21 近距離動作のトラッキングのシステムおよび方法

Country Status (6)

Country Link
US (1) US9910498B2 (ja)
EP (1) EP2538305A3 (ja)
JP (1) JP6074170B2 (ja)
KR (1) KR101979317B1 (ja)
CN (1) CN102915112B (ja)
CA (1) CA2780367A1 (ja)

Families Citing this family (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040827A2 (en) * 2010-10-01 2012-04-05 Smart Technologies Ulc Interactive input system having a 3d input space
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) * 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US8830302B2 (en) * 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
WO2013095678A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Mechanism to provide feedback regarding computing system command gestures
US9339691B2 (en) 2012-01-05 2016-05-17 Icon Health & Fitness, Inc. System and method for controlling an exercise device
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
CN105378593B (zh) 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
CN103076976A (zh) * 2013-01-07 2013-05-01 华为终端有限公司 添加应用图标的方法、移除应用图标的方法和装置
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
SE536989C2 (sv) * 2013-01-22 2014-11-25 Crunchfish Ab Förbättrad återkoppling i ett beröringsfritt användargränssnitt
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US8994652B2 (en) * 2013-02-15 2015-03-31 Intel Corporation Model-based multi-hypothesis target tracker
US9052746B2 (en) * 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
EP2969058B1 (en) 2013-03-14 2020-05-13 Icon Health & Fitness, Inc. Strength training apparatus with flywheel and related methods
US9389779B2 (en) 2013-03-14 2016-07-12 Intel Corporation Depth-based user interface gesture control
US12149779B2 (en) 2013-03-15 2024-11-19 Apple Inc. Advertisement user interface
JP6042753B2 (ja) * 2013-03-18 2016-12-14 株式会社Nttドコモ 端末装置及び操作ロック解除方法
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US20160088206A1 (en) * 2013-04-30 2016-03-24 Hewlett-Packard Development Company, L.P. Depth sensors
US10509533B2 (en) * 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
US9144744B2 (en) 2013-06-10 2015-09-29 Microsoft Corporation Locating and orienting device in space
US9671868B2 (en) 2013-06-11 2017-06-06 Honeywell International Inc. System and method for volumetric computing
CN105307737A (zh) 2013-06-14 2016-02-03 洲际大品牌有限责任公司 互动视频游戏
US9109921B1 (en) * 2013-06-19 2015-08-18 Amazon Technologies, Inc. Contextual based navigation element
CN103399629B (zh) * 2013-06-29 2017-09-19 华为技术有限公司 获取手势屏幕显示坐标的方法和装置
US9952042B2 (en) 2013-07-12 2018-04-24 Magic Leap, Inc. Method and system for identifying a user location
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
KR101350313B1 (ko) * 2013-08-12 2014-02-13 전자부품연구원 손동작 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
WO2015039050A1 (en) * 2013-09-13 2015-03-19 Nod, Inc Using the human body as an input device
US10585478B2 (en) 2013-09-13 2020-03-10 Nod, Inc. Methods and systems for integrating one or more gestural controllers into a head mounted wearable display or other wearable devices
CN103735268B (zh) * 2013-09-29 2015-11-25 沈阳东软医疗系统有限公司 一种体位检测方法及系统
US9400553B2 (en) * 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling
US9317112B2 (en) * 2013-11-19 2016-04-19 Microsoft Technology Licensing, Llc Motion control of a virtual environment
US9336440B2 (en) * 2013-11-25 2016-05-10 Qualcomm Incorporated Power efficient use of a depth sensor on a mobile device
JP6255954B2 (ja) * 2013-12-03 2018-01-10 富士通株式会社 動作入力装置、動作入力プログラム及び動作入力方法
US20150187143A1 (en) * 2013-12-26 2015-07-02 Shadi Mere Rendering a virtual representation of a hand
CN105848733B (zh) 2013-12-26 2018-02-13 爱康保健健身有限公司 缆绳器械中的磁性阻力机构
TWI530909B (zh) 2013-12-31 2016-04-21 財團法人工業技術研究院 影像合成系統及方法
CN105765490B (zh) * 2014-01-03 2020-03-10 英特尔公司 用于用户界面控制的系统和技术
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9785243B2 (en) 2014-01-30 2017-10-10 Honeywell International Inc. System and method for providing an ergonomic three-dimensional, gesture based, multimodal interface for use in flight deck applications
US10433612B2 (en) 2014-03-10 2019-10-08 Icon Health & Fitness, Inc. Pressure sensor to quantify work
US9501138B2 (en) * 2014-05-05 2016-11-22 Aquifi, Inc. Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
WO2015191445A1 (en) 2014-06-09 2015-12-17 Icon Health & Fitness, Inc. Cable system incorporated into a treadmill
US9330306B2 (en) 2014-06-11 2016-05-03 Panasonic Intellectual Property Management Co., Ltd. 3D gesture stabilization for robust input control in mobile environments
WO2015195965A1 (en) 2014-06-20 2015-12-23 Icon Health & Fitness, Inc. Post workout massage device
CN111078110B (zh) 2014-06-24 2023-10-24 苹果公司 输入设备和用户界面交互
US10650052B2 (en) 2014-06-24 2020-05-12 Apple Inc. Column interface for navigating in a user interface
US20160062473A1 (en) * 2014-08-29 2016-03-03 Hand Held Products, Inc. Gesture-controlled computer system
TW201610750A (zh) * 2014-09-03 2016-03-16 Liquid3D Solutions Ltd 可與3d影像互動之手勢控制系統
WO2016042039A1 (en) * 2014-09-16 2016-03-24 Foundation For Research And Technology - Hellas (Forth) Gesture recognition apparatuses, methods and systems for human-machine interaction
KR101644739B1 (ko) * 2015-02-13 2016-08-10 계명대학교 산학협력단 3d 프린팅 펜을 이용하는 3d 프린팅 보조 장치 및 그 방법
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10391361B2 (en) 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
US10269136B2 (en) * 2015-04-29 2019-04-23 Hewlett-Packard Development Company, L.P. System and method for processing depth images which capture an interaction of an object relative to an interaction plane
US9747717B2 (en) 2015-05-13 2017-08-29 Intel Corporation Iterative closest point technique based on a solution of inverse kinematics problem
KR101807513B1 (ko) * 2015-05-13 2017-12-12 한국전자통신연구원 3차원 공간에서 영상정보를 이용한 사용자 의도 분석장치 및 분석방법
US10402554B2 (en) * 2015-06-27 2019-09-03 Intel Corporation Technologies for depth-based user authentication
KR102395515B1 (ko) * 2015-08-12 2022-05-10 삼성전자주식회사 가상 악기의 연주 방법 및 이를 지원 하는 장치
US9703387B2 (en) * 2015-08-31 2017-07-11 Konica Minolta Laboratory U.S.A., Inc. System and method of real-time interactive operation of user interface
KR101745406B1 (ko) 2015-09-03 2017-06-12 한국과학기술연구원 깊이 영상 기반의 손 제스처 인식 장치 및 방법
US10649536B2 (en) * 2015-11-24 2020-05-12 Intel Corporation Determination of hand dimensions for hand and gesture recognition with a computing interface
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
US20170185156A1 (en) * 2015-12-29 2017-06-29 Microsoft Technology Licensing, Llc Hand tracking for user interface operation at-a-distance
US10386482B2 (en) 2016-01-25 2019-08-20 Board Of Regents, The University Of Texas System Device-free tracking system that accurately tracks hand movement
US10908694B2 (en) 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
US10493349B2 (en) 2016-03-18 2019-12-03 Icon Health & Fitness, Inc. Display on exercise device
US10625137B2 (en) 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US10272317B2 (en) 2016-03-18 2019-04-30 Icon Health & Fitness, Inc. Lighted pace feature in a treadmill
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
EP3285107B2 (en) * 2016-08-16 2024-02-28 Leica Instruments (Singapore) Pte. Ltd. Surgical microscope with gesture control and method for a gesture control of a surgical microscope
US20180052520A1 (en) * 2016-08-19 2018-02-22 Otis Elevator Company System and method for distant gesture-based control using a network of sensors across the building
US10095315B2 (en) 2016-08-19 2018-10-09 Otis Elevator Company System and method for distant gesture-based control using a network of sensors across the building
JP6980990B2 (ja) * 2016-08-31 2021-12-15 ソニーグループ株式会社 情報処理システム、情報処理方法、およびプログラム
DE102016216577A1 (de) * 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
JP6728004B2 (ja) * 2016-09-20 2020-07-22 ヤフー株式会社 仮想楽器演奏プログラム、仮想楽器演奏装置および仮想楽器演奏方法
US10671705B2 (en) 2016-09-28 2020-06-02 Icon Health & Fitness, Inc. Customizing recipe recommendations
US10606457B2 (en) 2016-10-11 2020-03-31 Google Llc Shake event detection system
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
CN110545886A (zh) * 2016-12-05 2019-12-06 优史佩斯公司 用于基于手势的交互的系统和方法
CN106601217B (zh) * 2016-12-06 2021-03-02 北京邮电大学 一种交互式乐器演奏方法及装置
JP2018092494A (ja) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 画像センサ
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
US20180329877A1 (en) * 2017-05-09 2018-11-15 International Business Machines Corporation Multilingual content management
KR102160706B1 (ko) 2017-05-12 2020-09-28 주식회사 엘지화학 고분자 고체 전해질 조성물 및 이를 포함하는 고분자 막
KR102160705B1 (ko) 2017-05-12 2020-09-28 주식회사 엘지화학 고분자 고체 전해질 조성물 및 이를 포함하는 고분자 막
KR102328637B1 (ko) * 2017-08-28 2021-11-18 주식회사 케이티 디스플레이 장치
US20190066385A1 (en) * 2017-08-31 2019-02-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
EP3502835B1 (en) * 2017-12-20 2025-05-14 Nokia Technologies Oy Gesture control of a data processing apparatus
CN108255351B (zh) * 2017-12-22 2019-08-20 潍坊歌尔电子有限公司 用户手指位置信息的确定方法及装置、投影仪、投影系统
US12307082B2 (en) 2018-02-21 2025-05-20 Apple Inc. Scrollable set of content items with locking feature
AU2019100574B4 (en) 2018-06-03 2020-02-20 Apple Inc. Setup procedures for an electronic device
US10948993B2 (en) * 2018-06-07 2021-03-16 Facebook, Inc. Picture-taking within virtual reality
CN110634177A (zh) * 2018-06-21 2019-12-31 华为技术有限公司 一种物体建模运动方法、装置与设备
CN109032354B (zh) * 2018-07-24 2021-05-07 Oppo(重庆)智能科技有限公司 电子装置及其手势识别方法、计算机可读存储介质
WO2020036235A1 (ko) * 2018-08-13 2020-02-20 정규민 Rgb 센서를 이용한 객체 인식 및 데이터 처리 방법 및 장치
US11003766B2 (en) 2018-08-20 2021-05-11 Microsoft Technology Licensing, Llc Enhancing cybersecurity and operational monitoring with alert confidence assignments
US10732725B2 (en) * 2018-09-25 2020-08-04 XRSpace CO., LTD. Method and apparatus of interactive display based on gesture recognition
CN109446952A (zh) * 2018-10-16 2019-03-08 赵笑婷 一种钢琴监督方法、装置、计算机设备及存储介质
WO2020085524A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 이동단말기 및 그 제어 방법
CN109582136B (zh) * 2018-11-13 2022-05-03 深圳市创凯智能股份有限公司 三维窗口手势导航方法、装置、移动终端及存储介质
US11030814B1 (en) * 2019-01-15 2021-06-08 Facebook, Inc. Data sterilization for post-capture editing of artificial reality effects
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
CN114302210B (zh) 2019-03-24 2024-07-05 苹果公司 用于查看和访问电子设备上的内容的用户界面
US11057682B2 (en) 2019-03-24 2021-07-06 Apple Inc. User interfaces including selectable representations of content items
KR102054148B1 (ko) * 2019-04-17 2019-12-12 주식회사 지티온 운동 유도를 위한 스포츠 인터렉티브 컨텐츠 실행 시스템
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
CN110322569B (zh) * 2019-07-03 2023-03-31 百度在线网络技术(北京)有限公司 多模态ar处理方法、装置、设备和可读存储介质
JP2021111021A (ja) * 2020-01-07 2021-08-02 コニカミノルタ株式会社 装置のテスト自動化のための方法およびプログラムならびに装置
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11340707B2 (en) * 2020-05-29 2022-05-24 Microsoft Technology Licensing, Llc Hand gesture-based emojis
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
EP4248422A1 (en) * 2020-11-23 2023-09-27 Sony Semiconductor Solutions Corporation Time-of-flight object detection circuitry and time-of-flight object detection method
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
KR102438736B1 (ko) * 2020-12-10 2022-08-30 최윤우 제스처 기반의 비접촉 멀티미디어 장치 제어 시스템 및 이를 이용한 제스처 기반의 비접촉 멀티미디어 장치 제어 방법
KR102569857B1 (ko) * 2021-01-27 2023-08-23 주식회사 시온네트웍 Hmd 핸드트래킹을 이용한 실기술 트레이닝 제공방법
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
KR20230034782A (ko) * 2021-09-03 2023-03-10 삼성전자주식회사 깊이 센서를 이용하여 깊이 맵을 생성하는 증강 현실 디바이스 및 방법
EP4325433A4 (en) 2021-09-03 2024-10-09 Samsung Electronics Co., Ltd. AUGMENTED REALITY DEVICE AND METHOD FOR ACQUIRING A DEPTH MAP WITH A DEPTH SENSOR
CN114217729B (zh) * 2021-11-30 2024-06-04 广州宏途数字科技有限公司 一种基于视觉识别的人机交互方法及系统
KR20230100472A (ko) 2021-12-28 2023-07-05 삼성전자주식회사 손의 관절에 관한 위치 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법
US12360663B2 (en) 2022-04-26 2025-07-15 Snap Inc. Gesture-based keyboard text entry
US12327302B2 (en) 2022-05-18 2025-06-10 Snap Inc. Hand-tracked text selection and modification
US12373096B2 (en) * 2022-05-31 2025-07-29 Snap Inc. AR-based virtual keyboard
WO2024184232A1 (en) 2023-03-06 2024-09-12 Sony Semiconductor Solutions Corporation Device, method and computer program
WO2024256017A1 (en) * 2023-06-16 2024-12-19 Akina Ag Enabling a contactless user interface for a computerized device equipped with a standard camera

Family Cites Families (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4900033A (en) 1988-09-12 1990-02-13 Samuel Campos Spelling game apparatus
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
DE69736622T2 (de) 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
US6104379A (en) 1996-12-11 2000-08-15 Virtual Technologies, Inc. Forearm-supported exoskeleton hand-tracking device
US5980429A (en) 1997-03-12 1999-11-09 Neurocom International, Inc. System and method for monitoring training programs
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6336891B1 (en) 1997-12-08 2002-01-08 Real Vision Corporation Interactive exercise pad system
US5994844A (en) 1997-12-12 1999-11-30 Frezzolini Electronics, Inc. Video lighthead with dimmer control and stabilized intensity
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6270414B2 (en) 1997-12-31 2001-08-07 U.S. Philips Corporation Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment
JP2001034775A (ja) 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
US7628730B1 (en) 1999-07-08 2009-12-08 Icon Ip, Inc. Methods and systems for controlling an exercise apparatus using a USB compatible portable remote device
DE19953835C1 (de) 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
US8956228B2 (en) 1999-12-03 2015-02-17 Nike, Inc. Game pod
US7183480B2 (en) 2000-01-11 2007-02-27 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
JP3496874B2 (ja) 2000-02-23 2004-02-16 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法、情報記憶媒体、ゲーム配信装置及びゲーム配信方法
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002041038A (ja) * 2000-07-31 2002-02-08 Taito Corp 仮想楽器演奏装置
US7027083B2 (en) 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
JP2003126291A (ja) 2001-10-19 2003-05-07 Konami Co Ltd 運動支援制御方法及び運動支援装置
JP3694267B2 (ja) 2002-01-11 2005-09-14 コナミスポーツライフ株式会社 運動支援装置
US7340077B2 (en) 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7369685B2 (en) 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
US20040001113A1 (en) 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
US7815507B2 (en) 2004-06-18 2010-10-19 Igt Game machine user interface using a non-contact eye motion recognition device
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US20070155589A1 (en) 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
JP2004271783A (ja) * 2003-03-07 2004-09-30 Kenzo Akazawa 電子楽器および演奏操作装置
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
KR100544677B1 (ko) 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
JP4522129B2 (ja) 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20060018516A1 (en) 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
GB2419433A (en) 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
CN101090755B (zh) 2004-12-28 2011-04-20 新世代株式会社 模拟体验装置
US20120277594A1 (en) 2009-01-23 2012-11-01 Pryor Timothy R Mental health and well-being
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9325890B2 (en) 2005-03-25 2016-04-26 Siemens Aktiengesellschaft Method and system to control a camera of a wireless device
DE102005017313A1 (de) 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
ATE459044T1 (de) 2005-04-26 2010-03-15 Alterface S A Interaktive multimedia-anwendungseinrichtung
JP5028751B2 (ja) 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
TWI348639B (en) 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
WO2007089198A1 (en) 2006-02-01 2007-08-09 Tobii Technology Ab Generation of graphical feedback in a computer system
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8249334B2 (en) 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
JP4711885B2 (ja) 2006-05-25 2011-06-29 三菱電機株式会社 遠隔操作装置及び方法
EP1862969A1 (en) 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US9317124B2 (en) 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
US8023726B2 (en) 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US8144148B2 (en) 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
US7753861B1 (en) 2007-04-04 2010-07-13 Dp Technologies, Inc. Chest strap having human activity monitoring device
US9028430B2 (en) 2007-04-19 2015-05-12 Nike, Inc. Footwork training system and method
US7987070B2 (en) 2007-04-23 2011-07-26 Dp Technologies, Inc. Eyewear having human activity monitoring device
WO2008134313A1 (en) 2007-04-26 2008-11-06 Heather Raymond A method and system for developing or tracking a program for medical treatment
US8963828B2 (en) 2007-06-04 2015-02-24 Shimane Prefectural Government Information inputting device, information outputting device and method
US20090015681A1 (en) 2007-07-12 2009-01-15 Sony Ericsson Mobile Communications Ab Multipoint autofocus for adjusting depth of field
US8221290B2 (en) 2007-08-17 2012-07-17 Adidas International Marketing B.V. Sports electronic training system with electronic gaming features, and applications thereof
US20090055205A1 (en) 2007-08-23 2009-02-26 Igt Multimedia player tracking infrastructure
JP5430572B2 (ja) * 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US7885145B2 (en) 2007-10-26 2011-02-08 Samsung Electronics Co. Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
WO2009086088A1 (en) 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US20120204133A1 (en) 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20090262986A1 (en) 2008-04-22 2009-10-22 International Business Machines Corporation Gesture recognition from co-ordinate data
US8904430B2 (en) 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
US8113991B2 (en) 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
EP2327061A4 (en) 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US7869204B2 (en) 2008-09-15 2011-01-11 International Business Machines Corporation Compact size portable computer having a fully integrated virtual keyboard projector and a display projector
US8081797B2 (en) 2008-10-10 2011-12-20 Institut National D'optique Selective and adaptive illumination of a target
CN101408800B (zh) 2008-11-14 2010-06-09 东南大学 利用摄像头进行三维模型显示控制的方法
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
WO2010096279A2 (en) 2009-02-17 2010-08-26 Omek Interactive , Ltd. Method and system for gesture recognition
US9538167B2 (en) 2009-03-06 2017-01-03 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8112719B2 (en) 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
JP4701424B2 (ja) 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
JP5926184B2 (ja) 2009-09-22 2016-05-25 ペブルステック リミテッド コンピュータ装置の遠隔制御
KR101602461B1 (ko) 2009-09-22 2016-03-15 삼성전자주식회사 디스플레이 장치 및 휴대폰의 제어방법
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8593576B2 (en) 2009-10-15 2013-11-26 At&T Intellectual Property I, L.P. Gesture-based remote control
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
WO2011066343A2 (en) 2009-11-24 2011-06-03 Next Holdings Limited Methods and apparatus for gesture recognition mode control
KR101688655B1 (ko) 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
KR101652110B1 (ko) 2009-12-03 2016-08-29 엘지전자 주식회사 사용자의 제스쳐로 제어가능한 장치의 전력 제어 방법
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
FR2955409B1 (fr) 2010-01-18 2015-07-03 Fittingbox Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel
TW201128444A (en) 2010-02-02 2011-08-16 Hon Hai Prec Ind Co Ltd Controlling system and method for camera, adjusting apparatus for camera including the same
KR101184460B1 (ko) 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US20110234481A1 (en) 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
CN101853568A (zh) 2010-04-13 2010-10-06 鸿富锦精密工业(深圳)有限公司 手势遥控装置
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
FR2959576A1 (fr) 2010-05-03 2011-11-04 Thomson Licensing Procede d’affichage d’un menu de reglage et dispositif correspondant
EP2393298A1 (en) 2010-06-03 2011-12-07 Zoltan Korcsok Method and apparatus for generating multiple image views for a multiview autostereoscopic display device
TWI540312B (zh) 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
US8654152B2 (en) 2010-06-21 2014-02-18 Microsoft Corporation Compartmentalizing focus area within field of view
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US9661232B2 (en) 2010-08-12 2017-05-23 John G. Posa Apparatus and method providing auto zoom in response to relative movement of target subject matter
KR101815020B1 (ko) 2010-08-26 2018-01-31 삼성전자주식회사 인터페이스 제어 장치 및 방법
US9141189B2 (en) 2010-08-26 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for controlling interface
US9100640B2 (en) 2010-08-27 2015-08-04 Broadcom Corporation Method and system for utilizing image sensor pipeline (ISP) for enhancing color of the 3D image utilizing z-depth information
KR101708696B1 (ko) 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9213890B2 (en) 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
JP5360166B2 (ja) 2010-09-22 2013-12-04 株式会社ニコン 画像表示装置
KR20120031805A (ko) 2010-09-27 2012-04-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
WO2012054060A1 (en) 2010-10-22 2012-04-26 Hewlett-Packard Development Company, L.P. Evaluating an input relative to a display
US20130154913A1 (en) 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
KR20140033025A (ko) 2011-03-25 2014-03-17 오블롱 인더스트리즈, 인크 비전 기반 손 추적기를 초기화하기 위한 고속 손가락끝 검출
US9307134B2 (en) 2011-03-25 2016-04-05 Sony Corporation Automatic setting of zoom, aperture and shutter speed based on scene depth map
CN103460256B (zh) 2011-03-29 2016-09-14 高通股份有限公司 在扩增现实系统中将虚拟图像锚定到真实世界表面
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US8686943B1 (en) 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
KR101227569B1 (ko) 2011-05-26 2013-01-29 한국과학기술연구원 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법
US8823639B2 (en) 2011-05-27 2014-09-02 Disney Enterprises, Inc. Elastomeric input device
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US20120327218A1 (en) 2011-06-21 2012-12-27 Microsoft Corporation Resource conservation based on a region of interest
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
KR101262700B1 (ko) 2011-08-05 2013-05-08 삼성전자주식회사 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치
US8830302B2 (en) 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9491441B2 (en) 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range
JP5460679B2 (ja) 2011-11-28 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法、およびコンテンツファイルのデータ構造
US20130204408A1 (en) 2012-02-06 2013-08-08 Honeywell International Inc. System for controlling home automation system using body movements
US9558575B2 (en) 2012-02-28 2017-01-31 Blackberry Limited Methods and devices for selecting objects in images
US9734393B2 (en) 2012-03-20 2017-08-15 Facebook, Inc. Gesture-based control system
US9652043B2 (en) 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
US9823742B2 (en) 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
JP6135239B2 (ja) 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
US8913809B2 (en) 2012-06-13 2014-12-16 Microsoft Corporation Monitoring physical body changes via image sensor

Similar Documents

Publication Publication Date Title
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) System and method for close-range movement tracking
JP2013037675A5 (ja)
US12073008B2 (en) Three-dimensional object tracking to augment display area
US12393316B2 (en) Throwable interface for augmented reality and virtual reality environments
CN110476142B (zh) 显示虚拟内容的计算设备、方法和头戴式显示器设备
US20210081036A1 (en) Interaction Engine for Creating a Realistic Experience in Virtual Reality/Augmented Reality Environments
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US10331222B2 (en) Gesture recognition techniques
CN104246682B (zh) 增强的虚拟触摸板和触摸屏
US20200004403A1 (en) Interaction strength using virtual objects for machine control
CN108399010B (zh) 增强的基于相机的输入
JP5184384B2 (ja) 制御システムおよび制御方法
CN107430437A (zh) 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
TW201020896A (en) Method of gesture control
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
CN102460373A (zh) 表面计算机用户交互
WO2014014461A1 (en) System and method for controlling an external system using a remote device with a depth sensor
JP5028676B2 (ja) グラフィカルユーザーインターフェースの操作/制御装置
CN104951051A (zh) 一种信息处理方法和电子设备
Wu Study and design of interaction techniques to facilitate object selection and manipulation in virtual environments on mobile devices