JP2019008798A - 注視方向可変の仮想環境における触覚次元 - Google Patents
注視方向可変の仮想環境における触覚次元 Download PDFInfo
- Publication number
- JP2019008798A JP2019008798A JP2018117497A JP2018117497A JP2019008798A JP 2019008798 A JP2019008798 A JP 2019008798A JP 2018117497 A JP2018117497 A JP 2018117497A JP 2018117497 A JP2018117497 A JP 2018117497A JP 2019008798 A JP2019008798 A JP 2019008798A
- Authority
- JP
- Japan
- Prior art keywords
- interest
- haptic
- gaze
- region
- haptic effect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】注視方向可変の仮想環境において触覚次元を用いて触覚効果を生成するシステム及び方法を提供すること。【解決手段】本方法は、仮想環境内で関心点を特定することと、関心点に基づいて複数の触覚次元を生成することとを含む。触覚次元は、関心点領域を定義する。さらに、ユーザーの注視方向が求められ、その注視方向に基づいて、関心点領域に向けられているユーザーの注視の量が求められる。関心点領域に向けられているユーザーの注視の量が閾値未満である場合、触覚効果が生成される。【選択図】図1
Description
本発明は、包括的には触覚システムに関し、特に、注視方向(gaze orientation)可変の仮想環境において触覚次元(haptic dimensions)を使用する触覚効果の生成に関する。
ハプティクス(haptics:触覚学)は、ユーザーに対して、力、振動及びモーション等の触覚フィードバック効果(例えば、「触覚効果」)を与えることによってユーザーの触覚の知覚を利用する、触知性及び力のフィードバック技術である。モバイルデバイス、タッチスクリーンデバイス、及びパーソナルコンピューター等のデバイスは、触覚効果を生成するように構成することができる。一般的に、触覚効果を生成することが可能な組み込みハードウェア(アクチュエーター等)に対する呼び出しは、デバイスのオペレーティングシステム(「OS」)内でプログラムすることができる。これらの呼び出しは、いずれの触覚効果を再生するかを指定する。例えば、ユーザーが、例として、ボタン、タッチスクリーン、レバー、ジョイスティック、ホイール又は他の何らかの制御装置を用いてデバイスとインタラクトする場合、デバイスのOSは、制御回路を通じて組み込みハードウェアにコマンドを送信することができる。そして、組み込みハードウェアは、適切な触覚効果を生成する。
従来の仮想現実(「VR」)若しくは拡張現実(「AR」)環境において、又はビデオ若しくはゲーム等の他の応用において、ユーザーに対して、仮想環境のビューを提示することができる。幾つかの実施の形態では、この環境は、通常、ヘッドマウントディスプレイを使用するとき、360度ビューからなる。さらに、ビデオ又はゲームは、そのビデオ又はゲームのコンテンツ又は目的に対して最も重大な特定の関心領域を有する。この状況において、ユーザーは、特定の関心領域以外の何かに注視している(すなわち、向いているか又は見ている)可能性があり、したがって意図されたコンテンツを見逃す可能性がある。こうした状況は、ユーザーが、指のスワイプ、又はマウス若しくは他のポインティングデバイスの使用により自身の注視を変更することができるゲーム又はビデオとともに、コンピューター、タブレット又はハンドヘルドデバイスを使用しているときにもまた、発生する可能性がある。
本発明の目的のうちの1つは、注視方向可変の仮想環境において触覚次元を用いて触覚効果を生成するシステム及び方法を提供することである。
本開示の一実施の形態において、注視方向可変の仮想環境において触覚次元を生成するシステム及び方法が提示される。注視方向可変の環境は、ユーザーが仮想環境内で自身のビューを幾分か制御する、任意のゲーム、ビデオ又はインタラクティブシステムである。仮想環境は、ヘッドマウントディスプレイ、ハンドヘルドデバイス、スマートフォン又は他の表示装置に表示することができる、任意のタイプの現実、仮想現実、拡張現実等を意味するように意図される。本方法は、仮想環境内で関心点(point of interest)を特定することと、関心点に基づいて複数の触覚次元を生成することとを含む。触覚次元は、関心点領域を定義する。さらに、ユーザーの注視方向が求められ、その注視方向に基づいて、関心点領域に向けられているユーザーの注視の量が求められる。関心点領域に向けられているユーザーの注視の量が閾値未満である場合、仮想環境においてユーザーの注視を主要なコンテンツに向け直すように、触覚効果が生成される。
本明細書に組み込まれて本明細書の一部を形成する添付図面は、本発明を例示し、さらに、本記載とともに、本発明の原理を説明することと、関連技術(複数の場合もある)における当業者が本発明を製造及び使用することを可能にすることとに貢献する。
加えて、参照符号の最左桁によって、その参照符号が最初に登場する図面が特定される(例えば、参照符号「310」は、この付番された要素が、図3において最初にラベリングされるか又は最初に登場することを示す)。加えて、同一の参照符号を有し、その符号の後ろに異なるアルファベット文字又は他の区別のためのマーキング(例えば、アポストロフィー)が続く要素は、構造、動作、又は形式の点では同一であるが、空間において異なる位置にある、又は異なる時点において再び現れるものとして特定される場合がある要素を示す。
1つの実施形態は、仮想環境においてユーザーが自身の注視をどこに向けるべきかを支援する領域を定義する、触覚次元を生成する。このような向きは、関心点等、意図されたコンテンツを見ることができるようにユーザーを誘導する。ユーザーの注視が関心点に向けられていない場合、ユーザーを、自身の注視方向を関心点に戻すように変更するように誘導するために、触覚効果が生成される。触覚次元はまた、ゲーム又はビデオにおいて、ユーザーが自身の注視をどこに向けるべきかを支援する領域を定義するためにも使用される。ユーザーの「注視」は、ゲーム又はビデオ内でのユーザーのビューである。したがって、例えば、スマートフォン等のハンドヘルドデバイスを使用しているとき、ユーザーの注視は、ディスプレイ上で見られているものである。注視はまた、見られているものが、ユーザーが関心点に対してどれくらい近いか又はどれくらい離れているかを含む、深さの成分も含むことができる。例えば、注視は、z軸における深さ追跡とともに、水平軸(X軸)及び垂直軸(Y軸)における回転追跡又は視線追跡を含むことができる。したがって、触覚次元は、仮想現実、拡張現実、及びユーザーが見ることができるものの動き又は向きを制御することができる他の任意のタイプのゲーム又はビデオに適用可能である。
本明細書に記載される実施形態が、特定の用途についての例示的な実施形態である一方、本発明は、それらの実施形態に限定されないことが理解されるべきである。本明細書で提供される教示が利用可能な当業者であれば、本発明の範囲内にある、更なる変更形態、用途、及び実施形態、並びに本発明が大きな有用性を有する更なる分野を認識するであろう。
図1は、本発明の一実施形態を実施することができる触覚対応システム10のブロック図である。システム10は、機械的又は電気的な選択ボタン13及びタッチセンシティブスクリーン15を備えたスマートデバイス11(例えば、スマートフォン、タブレット、スマートウォッチ等)を含むことができる。システム10はまた、ゲームパッド、モーションワンド(motion wand)、ヘッドマウントディスプレイ又はデバイス等、ユーザーによって保持される任意のデバイスとすることもできる。
システム10の内部には、システム10上で触覚効果を生成する触覚フィードバックシステムがある。触覚フィードバックシステムは、コントローラー又はプロセッサ12を含む。プロセッサ12には、メモリ20及びドライバーシステム16が接続され、ドライバーシステム16は、触覚出力デバイス18に接続されている。プロセッサ12は、任意のタイプの汎用プロセッサとすることができ、又は、特定用途向け集積回路(「ASIC」)等、触覚効果を提供するように特別に設計されたプロセッサとすることができる。プロセッサ12は、システム10全体を動作させるものと同じプロセッサとすることができ、又は別個のプロセッサとすることができる。プロセッサ12は、高水準パラメーターに基づいて、いかなる触覚効果が再生されるべきかと、効果が再生される順序とを決定することができる。一般に、特定の触覚効果を定義する高水準パラメーターは、大きさ、周波数及び持続時間を含む。特定の触覚効果を決定するために、ストリーミングモーターコマンド等の低水準パラメーターも使用することができる。触覚効果は、触覚効果が生成されるときのこれらのパラメーターの何らかの変動、又はユーザーのインタラクションに基づくこれらのパラメーターの変動を含む場合、「動的」とみなすことができる。
プロセッサ12は、ドライバーシステム16に制御信号を出力し、ドライバーシステム16は、所望の触覚効果が生成されるように、触覚出力デバイス18に必要な電流及び電圧(すなわち、「モーター信号」)を供給するために使用される電子部品及び回路を含む。システム10は、複数の触覚出力デバイス18を含むことができ、各触覚出力デバイス18がドライバーシステム16を含むことができ、それらは全てプロセッサ12に接続されている。メモリ20は、ランダムアクセスメモリ(「RAM」)又はリードオンリーメモリ(「ROM」)等、任意のタイプの一時的又は非一時的記憶デバイス又はコンピューター可読媒体とすることができる。通信媒体は、コンピューター可読命令、データ構造、プログラムモジュール、又は搬送波若しくは他の伝送機構等の被変調データ信号における他のデータを含むことができ、任意の情報伝達媒体を含む。
メモリ20は、オペレーティングシステム命令等、プロセッサ12によって実行される命令を記憶する。後でより詳細に開示するように、当該命令のうち、メモリ20は、プロセッサ12によって実行されると、許可に基づいて触覚効果を生成する命令を含む、触覚効果許可モジュール22を含む。メモリ20はまた、プロセッサ12の内部に位置するか、又は内部メモリ及び外部メモリの任意の組合せとすることもできる。
触覚出力デバイス18は、触覚効果を生成する任意のタイプのデバイスとすることができ、ユーザーの身体の所望の領域に対して所望の触覚効果をもたらすことができるように、システム10の任意の領域に物理的に配置することができる。幾つかの実施形態では、システム10は、何十又は更には何百もの触覚出力デバイス18を含み、触覚出力デバイスは、ユーザーの身体の概して全ての領域において触覚効果を、及び任意のタイプの触覚効果を生成することができるように、異なるタイプとすることができる。触覚出力デバイス18は、スマートデバイス11の任意の部分を含む、システム10の任意の部分に配置することができ、又はウェアラブルデバイス若しくはヘッドマウントディスプレイ等、システム10の任意の部分にリモートに接続することができる。
一実施形態では、触覚出力デバイス18は、振動触知触覚効果を生成するアクチュエーターである。この目的で使用されるアクチュエーターとしては、モーターによって偏心質量体が動かされる偏心回転質量(「ERM」)等の電磁アクチュエーター、ばねに取り付けられた質量体が前後に駆動されるリニア共振アクチュエーター(「LRA」)、又は圧電ポリマー、電気活性ポリマー(「EAP」)若しくは形状記憶合金等の「スマート材料」等を挙げることができる。触覚出力デバイス18はまた、静電摩擦(「ESF」)デバイス若しくは超音波表面摩擦(「USF」)デバイス等のデバイス、又は超音波触覚変換器により音響放射圧を誘導するデバイス等のデバイスとすることもできる。他のデバイスは、触覚基板及び可撓性又は変形可能表面を使用することができ、デバイスは、エアジェットを用いるひと吹きの空気等の放出される触覚出力を提供することができる。触覚出力デバイス18は、さらに、熱触覚効果を提供する(例えば、加熱するか又は冷却する)デバイスとすることができる。
システム10は、プロセッサ12に接続されたセンサー28を更に備える。センサー28を用いて、システム10のユーザーの任意のタイプの特性(例えば、体温、心拍数等のバイオマーカー)、又は任意のタイプのユーザーの状況若しくは現状況(例えば、ユーザーの位置、周囲の温度等)を検出することができる。
センサー28は、或る形態のエネルギー、又は、限定はされないが、音、運動、加速度、生理学的信号、距離、流れ、力/圧力/歪み/屈曲、湿度、線形位置、方位/傾斜、無線周波数、回転位置、回転速度、スイッチの操作、温度、振動、若しくは可視光強度等の他の物理的特性を検出するように構成することができる。センサー28は、検出されたエネルギー又は他の物理的特性を、電気信号、又は仮想センサー情報を表す任意の信号に変換するように更に構成することができる。センサー28は、限定はされないが、加速度計、心電図、脳電図、筋電図、眼電図、エレクトロパラトグラフ(electropalatograph:電子口蓋図)、ガルバニック皮膚反応センサー、静電容量センサー、ホール効果センサー、赤外線センサー、超音波センサー、圧力センサー、光ファイバーセンサー、曲げセンサー(又は屈曲センサー)、感圧抵抗体、ロードセル、LuSense CPS2 155、小型圧力トランスデューサー、圧電センサー、歪みゲージ、湿度計、線形位置タッチセンサー、線形ポテンショメーター(又はスライダー)、線形可変差動変圧器、コンパス、傾斜計、磁気タグ(又は無線周波数識別タグ)、ロータリーエンコーダー、ロータリーポテンショメーター、ジャイロスコープ、オンオフスイッチ、温度センサー(気温計、熱電対、抵抗温度検出器、サーミスタ、又は温度変換集積回路等)、マイクロフォン、光度計、高度計、生体モニター、カメラ、又は光依存抵抗器等の任意のデバイスとすることができる。
システム10は、システム10がインターネット/クラウド(図示せず)を介して通信するのを可能にする通信インターフェース25を更に備える。インターネット/クラウドは、システム10に対して遠隔記憶及び処理を提供し、システム10が同様の又は異なるタイプのデバイスと通信するのを可能にすることができる。さらに、本明細書に記載する処理機能のうちの任意のものを、システム10からリモートのプロセッサ/コントローラーによって実行し、通信インターフェース25を介して通信することができる。
一実施形態では、仮想環境が、ユーザーに対して360度仮想環境を提供することができる。ユーザーは、ヘッドマウントディスプレイ(「HMD」)を使用して、任意の向きを見ることができる。ユーザーが見ている場所は、ユーザーの「注視」とも呼ばれる。360度仮想環境はユーザーに対して没入型体験を提示するが、ユーザーは、他のコンテンツによって注意を逸らされる場合があり、又は単に「探検して」おり、ゲーム又はビデオにおいて「主要な」コンテンツを見逃す可能性がある。通常、これは、現時点では、一般的に、ユーザーが体験又はビデオの主要なコンテンツから離れるようにナビゲートしていることと、ユーザーの注視を主要なコンテンツに戻すように向けるべき場所とをユーザーに知らせる、コンパス又は矢印の表示により対処される。別の実施形態では、ユーザーがデバイスとのインタラクション(例えば、タッチスクリーン上でのジェスチャー、又はキー若しくはボタンの使用を介した)によりユーザーの注視又はビューを制御することができるスマートフォン等により、360度未満のビューでの仮想環境又はゲームが、ユーザーに対して提示される。360度ビュー又はそれ未満のビューは、単に、特定のビデオ又はゲームに対する設計選択である。
一実施形態では、コンパス又は他の表示アイコンを使用するのではなく、ユーザーに対して、関心点、特に限定されないが360度環境、但しスマートフォン等のデバイス(例えば、スマートデバイス11)に等しく適用可能な関心点に向かうように、ユーザーの注視をどこにナビゲートするべきかの触覚情報が提供される。関心点の周囲に、ハプティクス(haptics:触覚効果)によって関心点に「囲いをする」領域が定義される、触覚バリア(haptics barrier)が構築される。ユーザーが、関心点領域の外側にナビゲートする場合、ユーザーが主要なコンテンツから離れるようにナビゲートしていることをユーザーに知らせる触覚効果が生成される。
図2は、一実施形態による360度仮想環境200の図である。仮想環境200は、360度のコンテンツ210を含む。コンテンツ210は、2つの領域、すなわち、触覚効果領域214及び関心点領域(「POI領域」)216に分割される。触覚効果領域214は、単一の連続した領域であるが、360度表示のために2つのセクションで示されている。仮想環境200はまた、関心点212も含む。さらに、仮想環境200では、ユーザーの注視220は関心点212に向けられている。
POI領域216は、関心点212を包囲する領域であるように定義される。POI領域216の位置及びサイズは、触覚次元としても知られる。さらに、触覚次元は、触覚バリアと呼ぶこともできる。ユーザーの注視220が、POI領域216内に、したがって触覚次元(又は、触覚バリア)内に完全に向けられる場合、ユーザーの注視の方向又は向きを変更するようにユーザーを促すか又は指示する必要はない。
現行の360度最新式ビデオシステムのうちの幾つかは、可視コンパス(visual compass)を使用する。可視コンパスは、主要なコンテンツを指し、主要なコンテンツに関するユーザーの相対的な注視を示す。しかしながら、可視コンパスの使用は、通常、ヘッドマウントディスプレイを装着しているとき、又はスマートフォン若しくは他のデバイスにおいて、360度ビデオに対して利用可能ではなく、又は適切に適用されない。
一実施形態では、可視コンパスを用いる既存の360度ビデオ及びゲームにおいて、触覚次元を導出することができる。しかしながら、可視コンパスを表示するのではなく、その情報を用いて、適切な触覚効果が、すなわち可視コンパスではなくハプティクスを用いて生成される。一般に、コンパスは、ビデオが最初に開始したときにユーザーが見ている中心点である、ビデオの「正面」又は「デフォルト」状態を示す。多くの360度ビデオでは、主要なストーリーラインは、この最初のビューで発生し、効果をトリガーするのに十分離れて逸脱するときに、ハプティクスを発生させる。
図3は、一実施形態による360度仮想環境300の図である。仮想環境300は、360度のコンテンツ310を含む。コンテンツ310は、2つの領域、すなわち、触覚効果領域314及び関心点領域(「POI領域」)316に分割される。POI領域316は、単一の連続した領域であるが、360度表示のために2つのセクションで示されている。仮想環境300はまた、関心点312も含む。
仮想環境200と比較すると、関心点312は左に移動している。関心点312が移動するとき、触覚次元は関心点312とともに進む。ユーザーが、ここで仮想環境300におけるように、自身の注視方向を変更しない場合、ユーザーの注視320は関心点312に向けられなくなり、ユーザーの注視320はPOI領域内に含まれなくなる。逆に、仮想環境300に示すように、ユーザーの注視320は、触覚効果領域314に完全に向けられている。触覚効果領域314を注視しているとき、ユーザーは、関心点312を見なくなる。したがって、一実施形態では、好ましくは関心点312を含むようにユーザーの注視の方向を変更するようにユーザーに対して通知するように、触覚効果が生成される。
一実施形態では、閾値が判断され、それにより、ユーザーの注視320の所定部分が触覚次元の外側に向けられているとき、すなわち、ユーザーの注視320のうちの幾分かが触覚効果領域314に向けられているとき、触覚効果が生成される。仮想環境300は、ユーザーの注視320の100%が触覚効果領域314に向けられており、POI領域316に向けられているのは0%であることを示す。したがって、この例では、閾値は0%である。しかしながら、任意の閾値を選択することができる。例えば、90%の閾値レベルを設定することができ、それにより、POI領域316に向けられるユーザーの注視320が90%未満である場合、ユーザーに対して、自身の注視を関心点312及びPOI領域316に向け直すように通知する、触覚効果が生成される。
別の実施形態では、閾値は、注視のパーセンテージではなく、他の観点で表現することができる。例えば、閾値は、関心点312からの変位の度数に関して、例えば、水平面において左若しくは右に、又は垂直面において上若しくは下に、関心点から45度とすることができる。別の実施形態では、閾値は、関心点312からの距離に基づくことができる。こうした距離はこの場合もまた、水平面又は垂直面にあるものとすることができ、又は、ユーザーが「パン(pan)」イン又はアウトすることができる場合、ユーザーが、関心点312からパンアウトするとき、POI領域が視界のより小さい部分となる。さらに、閾値は、ユーザーの注視が関心点から視界の25%以上離れている等、視界の量に関して表現することができる。さらに、値は、0度に存在するPOI等、絶対値であり、90度〜270度に面しているときに効果を再生するものとすることができる。値は、POIが0度に存在する場合の相対的な差分でもあり、ユーザーの注視が45度の変化に等しいか又はそれより大きい場合に効果を再生するものとすることができる。さらに、向きの閾値量に基づいて効果をトリガーするのではなく、ユーザーがPOIを注視していない所定期間の後に、POI触覚効果をトリガーすることができる。
一実施形態では、ハプティクスを用いて、ユーザーに向きを示す情報を与えることができる。例えば、仮想環境200から仮想環境300に遷移することは、関心点212/312が左に移動していることを示す。左に移動する際、触覚次元は関心点212/312とともに進み、そこでは、触覚次元が進む際に触覚効果領域314もまた移動する。ユーザーが自身の注視を変更しない場合、ユーザーの注視は、右からの触覚バリア又は次元に衝突する。したがって、一実施形態では、触覚効果は、ウェアラブルデバイス、モバイルデバイス又は他の任意の触覚対応デバイスのいずれかにおいて、ユーザーの右側で生成される。同じ概念は、関心点が右に移動し、ユーザーが、左からの触覚効果領域に衝突することに直面し、したがって、ユーザーの左側において触覚効果を受ける場合に、適用される。対応する情報及び触覚効果は、上方又は下方の触覚次元に直面する場合にも生成することができる。したがって、ユーザーの注視をビデオ又はゲームのコンテンツの中心又は主要部分に向け直すように、ユーザーの注視を任意の向き、又は向きの組合せ、例えば、下及び左、上及び右等から変更するようにユーザーを誘導することができる。さらに、生成される触覚効果のタイプは、異なるものとすることができ、その場合、いずれの触覚バリア又は複数のバリアに直面しているかを触覚効果のタイプによって示すことができる。
別の実施形態では、上記手法の反対を用いることができ、そこでは、貫通することができないバリアとしてハプティクスを用いるのではなく、触覚効果は、ユーザーが見ているべき場所を通知する。一実施形態では、異なる触覚効果を用いることができ、その場合、触覚効果の1つのタイプがバリアを表し、別の触覚効果が、POIがいずれの向きに位置しているかを表す。例えば、振動触知効果がバリアを表し、そこでは、ユーザーの注視を変更しようとして、Miraisens型又はフォースフィードバック技術が用いられる。Miraisensは、力覚、圧力又は触知感覚を生成するために用いることができる、Miraisens,Inc.によって製作された3次元ジェスチャーフィードバック技術である。
図3の参照により、関心点312の移動と、POI領域316及び触覚効果領域314の対応する移動とを示した。同様の状況は、関心点312が移動するか否かにかかわらず、ユーザーの注視が移動する場合に存在する。この状況では、ユーザーの注視が移動しているという判断がなされる。例えば、仮想環境300において、関心点312が左に移動しているのではなく、ユーザーの注視320が実際には右に移動したと想定する。この状況では、ユーザーの注視320は、関心点312から離れるように移動している。閾値量のユーザーの注視320がPOI領域316に向けられなくなると、ユーザーの注視320を向け直すように、触覚効果が生成される。注視が主要なコンテンツに向けられなくなったことをユーザーに対して注意することに加えて、触覚効果のパラメーターは、ユーザーの注視が正しい向きに移動しているか否かを伝えることができる。例えば、ユーザーの注視320が関心点312から離れて右に移動し続けている際、ユーザーの注視320から関心点312までの距離が増大するに従い、生成される触覚効果のパラメーターは増大することができる。パラメーターは、触覚効果の大きさ、周波数、持続時間又は他の任意の組合せとすることができる。したがって、ユーザーが、ユーザーの注視320の移動を左に戻るように反転させ、ユーザーの注視320と関心点312との間の距離を低減させる場合、生成される触覚効果のパラメーターは低減する。同様の例では、これが360度コンテンツであるとすれば、ユーザーが自身の注視を右に移動し続けた場合、最終的に、ユーザーの注視320と関心点312との間の距離は低減し始め、その後、触覚効果のパラメーターが低減することになる。
図4は、一実施形態による、触覚次元生成器を利用する触覚生成システム400の図である。システム400は、関心点決定器410、触覚次元生成器420、注視追跡システム430、ハプティクス生成器440、ドライバーシステム450及び触覚出力デバイス455を備える。
関心点決定器410は、触覚対応コンテンツを受け取る。触覚対応コンテンツは、2次元又は360度ビデオコンテンツを含む。こうしたコンテンツは、触覚対応ゲーム又はビデオを含むことができる。関心点は、付随する触覚トラックから又はビデオ処理アルゴリズムの使用を通して特定される。
関心点決定器410によって関心点が特定されると、触覚次元生成器420は、関心点を包囲する関心点領域、例えば、図2におけるPOI領域216又は図3におけるPOI領域316を定義する一組の次元を定義する。上述したように、触覚次元は、POI領域が終了し触覚効果領域が開始する場所を定義する。
注視追跡システム430は、図2におけるユーザーの注視220及び図3におけるユーザーの注視320等、ユーザーの注視の方向を求める。注視追跡システム430は、ユーザーの注視の方向を求めることにより、ユーザーの注視のうちのどれくらいが関心点領域内に入るかを判断することができる。
ハプティクス生成器440は、注視追跡システム430によって関心点領域に入ると判断されたユーザーの注視の量が閾値量以下である場合、触覚信号を生成する。
ハプティクス生成器440はまた、触覚出力デバイス又はアクチュエーターの数、位置及びタイプを判断するようにも構成される。デバイス又はアクチュエーターの配置、タイプ及び数により、局所化ハプティクスの品質が決まる。デバイスの数が多いほど、ユーザーによる局所化ハプティクスの感覚が良好になる。触覚出力デバイスは、ハンドヘルドコントローラー内に埋め込まれるか又は椅子若しくは他の家具等の物体内に組み込まれる、ウェアラブル技術の使用等を通じて、ユーザーに配置することができる。さらに、少数のアクチュエーターが、適度な局所化ハプティクスを生成することができる。
ハプティクス生成器440は、関心点決定器410、触覚次元生成器420及び注視追跡システム430の出力に基づいて、触覚出力デバイスに対して触覚効果コマンドを動的に生成する。ハプティクス生成器440は、関心点及び/又はユーザーの注視の移動に基づいて効果を生成する。ハプティクス生成器440は、利用可能な触覚出力デバイス(例えば、アクチュエーター)の数及び位置を分析して、各触覚出力デバイスに提供されるべき動的局所化触覚効果の適切なタイプを決定する。さらに、ハプティクス生成器440は、各触覚出力デバイスに対する局所化触覚効果をリアルタイムで動的に生成することができる。例えば、ユーザーの注視が触覚効果領域、例えば、図3の触覚効果領域314に向けられる場合、関心点又はユーザーの注視の変化する移動に基づいて、局所化触覚効果が変更される。
ドライバーシステム450は、ハプティクス生成器440から触覚コマンド又は命令を受け取り、所望の触覚効果を生成する触覚出力デバイス455を動作させる。ドライバーシステム450はまた、1つ以上のドライバーを含む。
図5は、一実施形態による、触覚次元を利用して触覚効果を生成する、図1のシステム10の機能を含むフローチャート500である。一実施形態では、図5のフローチャートの機能は、メモリ又は他のコンピューター可読若しくは有形の媒体に記憶されプロセッサによって実行されるソフトウェアによって実施される。他の実施形態では、機能は、ハードウェア(例えば、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)等の使用を通じて)、又はハードウェア及びソフトウェアの任意の組合せによって実行することができる。
フローチャート500は、510で開始し、そこでは、関心点に対するユーザーの注視の焦点が閾値量を超えるか否かについて判断される。視線追跡のない一実施形態では、焦点は、ユーザーの注視、例えば、ユーザーがビデオのいずれのセクションを見ているかの判断である。デバイスが視線追跡機能を有する場合、焦点は、ユーザーが見ている表示可能(画面上)コンテンツの所定の部分を含むことができる。図2及び図3において考察したように、関心点、例えば、関心点212及び312が特定される。関心点が特定されると、ユーザーの注視が関心点に焦点合わせされているか否かの判断がなされる。例えば、関心点及び対応するPOI領域、例えば、POI領域216及び316が視界全体のわずかな割合となるほど、ユーザーの注視が関心点から外側にパンされる場合、視界全体に対するPOI領域の比が閾値量未満であると判断することができ、方法は520に続く。一方、視界全体に対するPOI領域の比が閾値量を超える場合、ユーザーの注視は、関心点に焦点合わせされていると判断され、530においていかなる触覚効果も生成される必要はない。
520において、ユーザーの注視の方向が関心点に十分に向けられているか否かの判断がなされる。図2において上記で考察したように、ユーザーの注視220は、関心点212に完全に向けられ、POI領域216内に含まれ、したがって、530においていかなる触覚効果も生成されないことになる。しかしながら、図3において、いかなる量の注視も関心点に向けられていない場合、ユーザーの注視320が触覚効果領域314に完全に向けられ、閾値量が100%であった場合でも、ユーザーの注視の100%は関心点から離れるように向けられ、触覚効果がトリガーされる。
540において、関心点から離れるユーザーの注視の量が閾値量を超えているので、触覚効果を生成するように判断がなされている。540において、ユーザーの注視が関心点に向かって移動しているか又は関心点から離れるように移動しているかに関して、判断がなされる。ユーザーの注視が関心点から離れるように移動している場合、550において、関心点からの距離が増大するに従い、パラメーター、例えば、大きさ、周波数又は持続時間等を増大させる触覚効果が生成される。ユーザーの注視が関心点に向かって移動している場合、560において、関心点からの距離が低減するに従い、パラメーター、例えば、大きさ、周波数又は持続時間等を低減させる触覚効果が生成される。
そして、方法は、510に戻り、ユーザーの注視が依然として関心点に焦点合わせされているか否かを判断する。
上述したように、仮想環境において関心点を特定することと、関心点領域を定義する複数の触覚次元を生成することとを含む、実施形態について開示した。ユーザーの注視方向が求められ、分析されて、関心点領域に向けられているユーザーの注視の量が求められる。ユーザーの注視の量が閾値量未満である場合、触覚効果が生成される。
本明細書において、いくつかの実施形態が具体的に例示及び/又は記載されている。しかしながら、開示した実施形態の変更及び変形は、上記教示によって包含されており、本発明の趣旨及び意図された範囲から逸脱することなく添付の特許請求の範囲の適用範囲内にあることが理解されるであろう。
本願は、2017年6月22日に出願された米国特許出願第15/630,236号の利益を主張し、この開示は、引用することによりその全体が本明細書の一部をなす。
Claims (20)
- 仮想環境において触覚効果を提供する方法であって、
前記仮想環境内の関心点を特定することと、
関心点領域を定義する複数の触覚次元を前記関心点に基づいて生成することと、
注視方向を求めることと、
前記注視方向に基づいて、前記関心点領域に向けられている注視の量を求めることと、
前記関心点領域に向けられている前記注視の量が閾値量以下である場合、触覚効果を生成することと、
を含む、方法。 - 前記注視方向が、前記関心点領域に向かって移動しているか又は前記関心点領域から離れるように移動しているかを判断することを更に含む、請求項1に記載の方法。
- 前記関心点領域までの前記注視方向の距離が低減するに従い、前記生成される触覚効果のパラメーターが低減する、請求項2に記載の方法。
- 前記関心点領域からの前記注視方向の距離が増大するに従い、前記触覚効果のパラメーターが増大する、請求項2に記載の方法。
- 前記注視方向を求めることは、ヘッドマウントディスプレイ又は表示装置の使用を含む、請求項1に記載の方法。
- 前記仮想環境は360度コンテンツを含む、請求項1に記載の方法。
- 前記生成される触覚効果は複数の触覚効果を含む、請求項1に記載の方法。
- 前記注視方向が前記関心点領域の右側に向けられている場合、前記触覚効果は第1のアクチュエーターにおいて生成され、前記注視方向が前記関心点領域の左側に向けられている場合、前記触覚効果は第2のアクチュエーターで生成される、請求項7に記載の方法。
- 前記注視方向が前記関心点領域の上方に向けられている場合、前記触覚効果は第3のアクチュエーターにおいて生成され、前記注視方向が前記関心点領域の下方に向けられている場合、前記触覚効果は第4のアクチュエーターにおいて生成される、請求項7に記載の方法。
- プロセッサによって実行されると、該プロセッサに触覚効果を生成することを行わせる命令が記憶されたコンピューター可読媒体であって、前記生成することは、
仮想環境内の関心点を特定することと、
関心点領域を定義する複数の触覚次元を前記関心点に基づいて生成することと、
注視方向を求めることと、
前記注視方向に基づいて、前記関心点領域に向けられている注視の量を求めることと、
を含み、
前記関心点領域に向けられている前記注視の量が閾値量以下である場合、触覚効果が生成される、コンピューター可読媒体。 - 前記注視方向が、前記関心点領域に向かって移動しているか又は前記関心点領域から離れるように移動しているかを判断することを更に含む、請求項10に記載のコンピューター可読媒体。
- 前記関心点領域までの前記注視方向の距離が低減するに従い、前記生成される触覚効果のパラメーターが低減する、請求項11に記載のコンピューター可読媒体。
- 前記関心点領域からの前記注視方向の距離が増大するに従い、前記触覚効果のパラメーターが増大する、請求項11に記載のコンピューター可読媒体。
- 前記注視方向を求めることは、ヘッドマウントディスプレイ又は表示装置の使用を含む、請求項10に記載のコンピューター可読媒体。
- 前記仮想環境は360度コンテンツを含む、請求項10に記載のコンピューター可読媒体。
- 前記生成される触覚効果は複数の触覚効果を含む、請求項10に記載のコンピューター可読媒体。
- 触覚次元を用いて触覚効果を生成するシステムであって、
仮想環境内の関心点を特定するように構成された関心点決定器と、
関心点領域を定義する複数の触覚次元を前記関心点に基づいて生成するように構成された触覚次元生成器と、
注視方向を求めるように構成され、該注視方向に基づいて、前記関心点領域に向けられた注視の量を求めるように構成された注視追跡システムと、
前記関心点領域に向けられている前記注視の量が閾値量以下である場合、触覚効果を生成するように構成されたハプティクス生成器と、
を備える、システム。 - 前記注視追跡システムは、前記注視方向が、前記関心点領域に向かって移動しているか又は前記関心点領域から離れるように移動しているかを判断するように更に構成されている、請求項17に記載のシステム。
- 前記ハプティクス生成器は、前記関心点領域までの前記注視方向の距離が低減するに従い、前記生成される触覚効果のパラメーターを低減させるように構成されている、請求項18に記載のシステム。
- 前記ハプティクス生成器は、前記関心点領域までの前記注視方向の距離が増大するに従い、前記生成される触覚効果のパラメーターを増大させるように構成されている、請求項18に記載のシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/630,236 US20180373325A1 (en) | 2017-06-22 | 2017-06-22 | Haptic dimensions in a variable gaze orientation virtual environment |
| US15/630,236 | 2017-06-22 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019008798A true JP2019008798A (ja) | 2019-01-17 |
Family
ID=62750790
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018117497A Pending JP2019008798A (ja) | 2017-06-22 | 2018-06-21 | 注視方向可変の仮想環境における触覚次元 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20180373325A1 (ja) |
| EP (1) | EP3418863A1 (ja) |
| JP (1) | JP2019008798A (ja) |
| KR (1) | KR20190000312A (ja) |
| CN (1) | CN109116979A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2020241170A1 (ja) * | 2019-05-28 | 2020-12-03 |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
| US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
| US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
| US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
| US11166080B2 (en) * | 2017-12-21 | 2021-11-02 | Facebook, Inc. | Systems and methods for presenting content |
| US10966007B1 (en) * | 2018-09-25 | 2021-03-30 | Apple Inc. | Haptic output system |
| CN109815409B (zh) * | 2019-02-02 | 2021-01-01 | 北京七鑫易维信息技术有限公司 | 一种信息的推送方法、装置、穿戴设备及存储介质 |
| JP6713591B1 (ja) * | 2019-04-17 | 2020-06-24 | 楽天株式会社 | 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 |
| US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
| US20230214025A1 (en) * | 2020-05-22 | 2023-07-06 | Hewlett-Packard Development Company, L.P. | Gesture areas |
| US12361661B1 (en) | 2022-12-21 | 2025-07-15 | Meta Platforms Technologies, Llc | Artificial reality (XR) location-based displays and interactions |
| EP4571464A1 (en) * | 2023-12-15 | 2025-06-18 | BAE SYSTEMS plc | Head worn augmented reality display |
| WO2025125769A1 (en) * | 2023-12-15 | 2025-06-19 | Bae Systems Plc | Head worn augmented reality display |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9833697B2 (en) * | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
| US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
| US9533772B2 (en) * | 2014-07-09 | 2017-01-03 | Honeywell International Inc. | Visual search assistance for an occupant of a vehicle |
| EP3037915B1 (en) * | 2014-12-23 | 2017-08-16 | Nokia Technologies OY | Virtual reality content control |
| US9625990B2 (en) * | 2015-03-03 | 2017-04-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vision-assist systems including user eye tracking cameras |
| US10678897B2 (en) * | 2015-04-16 | 2020-06-09 | Tobii Ab | Identification, authentication, and/or guiding of a user using gaze information |
| EP3098690B1 (en) * | 2015-05-28 | 2020-01-08 | Nokia Technologies Oy | Rendering of a notification on a head mounted display |
| US10113877B1 (en) * | 2015-09-11 | 2018-10-30 | Philip Raymond Schaefer | System and method for providing directional information |
| EP3179336A1 (en) * | 2015-12-07 | 2017-06-14 | Thomson Licensing | Method and device for rendering haptic effects in an immersive content |
| US11032471B2 (en) * | 2016-06-30 | 2021-06-08 | Nokia Technologies Oy | Method and apparatus for providing a visual indication of a point of interest outside of a user's view |
| US10139901B2 (en) * | 2016-07-05 | 2018-11-27 | Immersv, Inc. | Virtual reality distraction monitor |
-
2017
- 2017-06-22 US US15/630,236 patent/US20180373325A1/en not_active Abandoned
-
2018
- 2018-06-20 KR KR1020180070811A patent/KR20190000312A/ko not_active Withdrawn
- 2018-06-21 JP JP2018117497A patent/JP2019008798A/ja active Pending
- 2018-06-22 CN CN201810648732.XA patent/CN109116979A/zh active Pending
- 2018-06-22 EP EP18179193.0A patent/EP3418863A1/en not_active Withdrawn
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2020241170A1 (ja) * | 2019-05-28 | 2020-12-03 | ||
| WO2020241170A1 (ja) * | 2019-05-28 | 2020-12-03 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| CN113874815A (zh) * | 2019-05-28 | 2021-12-31 | 索尼集团公司 | 信息处理装置、信息处理方法和程序 |
| JP7494848B2 (ja) | 2019-05-28 | 2024-06-04 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180373325A1 (en) | 2018-12-27 |
| EP3418863A1 (en) | 2018-12-26 |
| KR20190000312A (ko) | 2019-01-02 |
| CN109116979A (zh) | 2019-01-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2019008798A (ja) | 注視方向可変の仮想環境における触覚次元 | |
| US10220317B2 (en) | Haptic sensations as a function of eye gaze | |
| JP6431126B2 (ja) | モバイルデバイス上での共有されたフィードバックのための双方向性モデル | |
| US10466791B2 (en) | Interactivity model for shared feedback on mobile devices | |
| EP3364272A1 (en) | Automatic localized haptics generation system | |
| US10477298B2 (en) | Rendering haptics on headphones with non-audio data | |
| CN110476142A (zh) | 虚拟对象用户界面显示 | |
| KR20160081809A (ko) | 증강 및 가상 현실 애플리케이션들에 대한 햅틱 향상 객체들을 생성하기 위한 시스템 및 방법 | |
| TW201220159A (en) | Apparatus and method for user input for controlling displayed information | |
| CN105829948B (zh) | 可佩戴显示输入系统 | |
| CN111258445A (zh) | 可变曲率交互式设备 |