JP2018142313A - 仮想感情タッチのためのシステム及び方法 - Google Patents
仮想感情タッチのためのシステム及び方法 Download PDFInfo
- Publication number
- JP2018142313A JP2018142313A JP2018030650A JP2018030650A JP2018142313A JP 2018142313 A JP2018142313 A JP 2018142313A JP 2018030650 A JP2018030650 A JP 2018030650A JP 2018030650 A JP2018030650 A JP 2018030650A JP 2018142313 A JP2018142313 A JP 2018142313A
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- haptic effect
- processor
- gesture
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザ間の相互通信において、ユーザ間の相互作用の結果として触覚効果を感じることができる仮想感情タッチシステムを提供する。【解決手段】仮想感情タッチのためのシステム100は、タッチスクリーンディスプレイと、触覚出力デバイスと、プロセッサとを備える。プロセッサは、タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示する。また、タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信する。さらに、受信側デバイスに前記ジェスチャ及び視覚表現に関連付けられる信号を送信し、受信側ユーザのジェスチャ及び視覚表現に部分的に基づいて触覚効果を決定し、触覚効果を出力するように構成される触覚出力デバイスに触覚効果に関連付けられる触覚信号を送信する。【選択図】図1A
Description
本願は、共有ソーシャルメディアアプリケーション/インターフェースにおけるユーザ相互作用及び通信に関連し、より詳細には、1人以上のユーザ間の触覚相互作用のためのシステム及び方法に関する。
(関連出願の相互参照)
本願は、2017年2月24日に中国知的財産庁に出願され、“Virtual Affective Touch”と題された国際出願第PCT/CN2017/074784号の一部継続出願であると共にその優先権を主張し、その全体は参照により本明細書に組み込まれる。
本願は、2017年2月24日に中国知的財産庁に出願され、“Virtual Affective Touch”と題された国際出願第PCT/CN2017/074784号の一部継続出願であると共にその優先権を主張し、その全体は参照により本明細書に組み込まれる。
触覚対応デバイスが触覚対応環境と同様にますます人気を博してきている。例えば、ユーザがタッチセンサ式ディスプレイのタッチ部分で入力を提供できるように、モバイル型及び他のデバイスがタッチセンサ面を有するように構成される場合が有る。代替的に、触覚対応デバイス又は環境に対するジェスチャ入力及び他の入力もウェアラブル、VR又はARデバイス、自動車、ゲーム、ライブイベント、グループイベント及び他の環境に関して人気を博してきている。こうしたデバイスは、触覚フィードバックを提供するための機能も含んでいる。ビデオ、メッセージ、ステッカー、エモーティコンが触覚対応デバイスにおいて作られ、編集され、送信され、受信され、感じられ且つ表示される場合が有る。このような活動は、従来のテキスト又はメッセージング慣習、共有ソーシャルメディア慣習、グループイベント、ゲーム又は他のユーザ間の相互作用可能アプリケーションを使用する場合が有る。多くのデバイスは触覚機能を備えており、ユーザはデバイスとの相互作用又はデバイスと別のユーザの相互作用の結果として触覚効果を感じることもできる。
一実施形態では、本開示によるシステムは、タッチスクリーンディスプレイと、触覚出力デバイスと、プロセッサとを備え、プロセッサは、タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示し、タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信し、受信側デバイスにジェスチャ及び視覚表現に関連付けられる信号を送信し、受信側ユーザのジェスチャ及び視覚表現に部分的に基づいて触覚効果を決定し、触覚効果を出力するように構成される触覚出力デバイスに触覚効果に関連付けられる触覚信号を送信するように構成される。
別の実施形態では、本開示による方法は、タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示するステップと、タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信するステップと、受信側デバイスにジェスチャ及び視覚表現に関連付けられる信号を送信するステップと、受信側ユーザのジェスチャ及び視覚表現に部分的に基づいて触覚効果を決定するステップと、触覚効果を出力するように構成される触覚出力デバイスに触覚効果に関連付けられる触覚信号を送信するステップとを含む。
更に別の実施形態では、コンピュータ可読媒体が、プロセッサによって実行されると、プロセッサに、タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示すること、タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信すること、受信側デバイスにジェスチャ及び視覚表現に関連付けられる信号を送信し、受信側ユーザのジェスチャ及び視覚表現に部分的に基づいて触覚効果を決定すること、及び触覚効果を出力するように構成される触覚出力デバイスに触覚効果に関連付けられる触覚信号を送信することを行わせるように構成されるプログラムコードを含んでもよい。
こうした例示の実施形態は、本主題を限定し又はその限界を定義するためではなく、その理解を支援するための例示を提供するために言及される。例示の実施形態は、詳細な説明において検討され、そこでは更なる説明が提供される。本明細書を吟味することによって、及び/又は請求項に記載の主題の1つ以上の実施形態を実施することによって、様々な実施形態によってもたらされる利点が更に理解され得る。
本明細書の以下の部分には完全な且つ実施可能な開示がより詳細に説明されている。本明細書は以下の添付の図面を参照する。
本開示の一実施形態による仮想感情タッチのための例示的なシステムを示す。
図1Aで示されたシステムの一実施形態の外観図を示す。
図1Aで示されたシステムの別の実施形態の外観図を示す。
本開示の一実施形態による仮想感情タッチのための例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。
本開示の一実施形態による仮想感情タッチのための方法ステップのフローチャートである。
次に、多様な及び代替的な例示の実施形態及び添付の図面を詳細に参照する。各例示は、限定としてではなく、説明目的で提供されている。修正及び変更が行われ得ることは、当業者には明らかであろう。例えば、一実施形態の一部として例示され又は記載された特徴は、更なる実施形態をもたらすために別の実施形態において使用されてもよい。従って、本開示は、添付の請求項及び均等物の範囲に入る修正及び変形を含むことが意図されている。
(仮想感情タッチのためのシステムの例示)
本開示の例示の実施形態は、タブレット、Eリーダ、携帯電話、又はラップトップ若しくはデスクトップコンピュータ又はウェアラブルデバイス等のコンピュータ等の電子デバイスを含む。電子デバイスは、ディスプレイ(例えば、タッチスクリーンディスプレイ)、メモリ、及びこうした要素の各々と通信するプロセッサを備える。例示の実施形態では、電子デバイスは、触覚効果を出力するように構成される触覚出力デバイスを備える。更に、例示的な電子デバイスは、従来のインターフェースデバイス、例えば、1つ以上のマウス、ジョイスティック、多機能コントローラ、タッチスクリーン等とのユーザの相互作用を受信するように構成される。
本開示の例示の実施形態は、タブレット、Eリーダ、携帯電話、又はラップトップ若しくはデスクトップコンピュータ又はウェアラブルデバイス等のコンピュータ等の電子デバイスを含む。電子デバイスは、ディスプレイ(例えば、タッチスクリーンディスプレイ)、メモリ、及びこうした要素の各々と通信するプロセッサを備える。例示の実施形態では、電子デバイスは、触覚効果を出力するように構成される触覚出力デバイスを備える。更に、例示的な電子デバイスは、従来のインターフェースデバイス、例えば、1つ以上のマウス、ジョイスティック、多機能コントローラ、タッチスクリーン等とのユーザの相互作用を受信するように構成される。
例示の実施形態では、電子デバイスは、ネットワーク接続を介して(例えば、Wi−Fi、セルラデータ、又は当技術分野で周知の別のネットワークを介して)1つ以上の遠隔電子デバイスにデータを送信し且つ遠隔電子デバイスからデータを受信するように構成される。例示の実施形態では、電子デバイスは、メッセージングアプリケーションを備える。メッセージングアプリケーションは、メッセージングアプリケーションの他のユーザの視覚表現を表示するための機能を含む。従って、例示の実施形態では、第1のユーザは、第2のユーザとのメッセージングセッションを行ってもよい。メッセージングセッションの間、各ユーザの電子デバイスは、他のユーザに関連付けられる視覚表現を表示するであろう。更に、一部の実施形態では、メッセージングセッションは、拡張現実(AR)又は仮想現実(VR)で行われてもよい。
一部の実施形態では、視覚表現は、受信側ユーザのアバターを含んでもよい。例えば、アバターは、受信側ユーザによって選択される画像、受信側ユーザの画像、又は受信側ユーザの外見に近似する画像を含んでもよい。例えば、一実施形態では、アバターは、ユーザの外見(例えば、近似的な伸長、体格、髪の色等)に近似するアニメーションキャラクタを含んでもよい。従って、メッセージングセッションの間、ユーザは、メッセージを交換している他のユーザの視覚表現を見るであろう。
例示の実施形態では、電子デバイスは、タッチスクリーンディスプレイを更に備える。例示の実施形態では、ユーザは、(例えば、タッチスクリーンディスプレイ上のアバターにタッチすることにより)別のユーザのアバターと相互作用してもよい。ユーザがアバターにタッチすると、アバターはタッチに反応するであろう。例えば、ジェスチャに応答して、アバターは座る、立ち上がる、横たわる等を行ってもよい。更に、例示の実施形態では、電子デバイスは、ジェスチャに関連付けられるデータを遠隔電子デバイスに送信するように構成される。
例示の実施形態では、電子デバイスは、触覚信号を受信して、触覚効果(例えば、振動、テクスチャ、変形又は他のタッチに基づく効果)を出力するように構成される1つ以上の触覚出力デバイスを更に備える。例えば、例示的なメッセージングデバイスは、アバターとの相互作用に関連付けられる触覚効果を決定して、こうした触覚効果に関連付けられる触覚信号を触覚出力デバイスに出力してもよい。従って、あるユーザが別のユーザのアバターと相互作用すると、そのユーザは相互作用に関連付けられる触覚効果を受信してもよい。こうした触覚効果は、メッセージングアプリケーションを介する相互作用のリアル感を向上させてもよい。
更に、一部の実施形態では、触覚効果は、ジェスチャに関して検出されたデータに部分的に基づいて決定されてもよい。例えば、一部の実施形態では、タッチスクリーンディスプレイは、アバターとのユーザ相互作用の圧力を決定し、例えば、圧力が大きい、中位である又は小さいことを決定するように構成されてもよい。このような実施形態では、電子デバイスは、この情報に基づいて触覚効果を決定するように構成されてもよい。例えば、触覚効果は、大きな圧力に対して強い触覚効果、中位の圧力に対して中位の強さの触覚効果、及び小さな圧力に対して弱い触覚効果を含んでもよい。他の実施形態では、触覚効果は、ユーザの相互作用の他の特徴、例えば、ユーザ相互作用の速さ、エリア、方向又は何らかの他の特徴に基づいて決定されてもよい。
この例示の実施形態は本明細書で検討される一般的な主題を読者に紹介するために与えられており、本開示はこの例示に限定されない。以下の節では、本開示の様々な追加の非限定的な例示を説明する。
(仮想感情タッチのための例示的なシステム)
図1Aは、仮想感情タッチのための例示的なシステム100を示す。特に、この例示では、システム100は、バス106を介して他のハードウェアとインターフェース接続されるプロセッサ102を有するコンピュータデバイス101を含む。RAM、ROM又はEEPROM等の任意の適切な有形の(及び非一時的な)コンピュータ可読媒体を含み得るメモリ104が、コンピュータデバイス101の動作を構成するプログラムコンポーネントを具現化する。この例示では、コンピュータデバイス101は、1つ以上のネットワークインターフェースデバイス110、入力/出力(I/O)インターフェースコンポーネント112、及び追加の記憶装置114を更に含む。
図1Aは、仮想感情タッチのための例示的なシステム100を示す。特に、この例示では、システム100は、バス106を介して他のハードウェアとインターフェース接続されるプロセッサ102を有するコンピュータデバイス101を含む。RAM、ROM又はEEPROM等の任意の適切な有形の(及び非一時的な)コンピュータ可読媒体を含み得るメモリ104が、コンピュータデバイス101の動作を構成するプログラムコンポーネントを具現化する。この例示では、コンピュータデバイス101は、1つ以上のネットワークインターフェースデバイス110、入力/出力(I/O)インターフェースコンポーネント112、及び追加の記憶装置114を更に含む。
ネットワークデバイス110は、ネットワーク接続を容易にする1つ以上の任意のコンポーネントを表し得る。限定されないが、例示には、イーサネット(登録商標)、USB、IEEE1394等の有線インターフェース、及び/又はIEEE802.11、ブルートゥース(登録商標)等の無線インターフェース、又は携帯電話ネットワークにアクセスするための無線インターフェース(例えば、CDMA、GSM(登録商標)、UMTS又は他の移動通信ネットワーク)が含まれる。
I/Oコンポーネント112は、1つ以上のディスプレイ、ディスプレイを含むヘッドセット、湾曲ディスプレイ(例えば、ディスプレイは、画像が表示され得るコンピュータデバイス101の1つ以上の側部に拡張される傾斜面を含む)、キーボード、マウス、スピーカ、マイクロホン、カメラ(例えば、モバイルデバイスの前部又は後部向きのカメラ)、及び/又はデータの入力若しくは出力に使用される他のハードウェア等のデバイスへの接続を容易にするために使用されてもよい。記憶装置114は、デバイス101に含まれる磁気、光学、又は他の記憶媒体等の不揮発性記憶装置を表す。
(複数の)音声/映像出力デバイス115は、(複数の)プロセッサ102から信号を受信して、ユーザに音声又は映像出力を提供するように構成される1つ以上のデバイスを含む。例えば、一部の実施形態では、(複数の)音声/映像出力デバイス115は、タッチスクリーンディスプレイ、LCDディスプレイ、プラズマディスプレイ、CRTディスプレイ、プロジェクションディスプレイ、(例えば、複合現実又は仮想現実に使用される)それぞれの目に対するディスプレイを含むヘッドセット、又は当技術分野で周知の何らかの他のディスプレイを含んでもよい。更に、音声/映像出力デバイスは、音声をユーザに出力するように構成される1つ以上のスピーカを含んでもよい。
システム100は、この例示では、デバイス101に統合されるタッチ面116を更に含む。タッチ面116は、ユーザのタッチ入力を感知するように構成される任意の表面を表す。一部の実施形態では、タッチ面116は、タッチ入力に関連付けられる追加情報、例えば、圧力、移動の速さ、移動の加速度、ユーザの皮膚の温度、又はタッチ入力に関連付けられる何らかの他の情報を検出するように構成されてもよい。1つ以上のセンサ108は、物体がタッチ面に接触する場合にタッチ領域におけるタッチを検出して、プロセッサ102によってユーザに適切なデータを提供するように構成されてもよい。任意の適切な数、タイプ、又は配置のセンサが使用され得る。例えば、抵抗性及び/又は容量性のセンサが、タッチ面116に組み込まれて、タッチの場所及び圧力等の他の情報を検出するために使用されてもよい。別の例示として、タッチ位置を決定するためにタッチ面のビューを備える光学センサが使用されてもよい。
更に、一部の実施形態では、タッチ面116及び/又は(複数の)センサ108は、タッチセンサを利用せずにユーザ相互作用を検出するセンサを含んでもよい。例えば、一実施形態では、センサは、ユーザによって表面に加えられる圧力を検出するために筋電図(EMG)信号を使用するように構成されるセンサを含んでもよい。更に、一部の実施形態では、センサは、RGB又は温度カメラを含んでもよく、ユーザが表面に加えている圧力の量を推定するためにこうしたカメラによってキャプチャされる画像を使用してもよい。
一部の実施形態では、センサ108及びタッチ面116は、タッチスクリーンディスプレイ又はタッチパッドを含んでもよい。例えば、一部の実施形態では、タッチ面116及びセンサ108は、表示信号を受信して、ユーザに画像を出力するように構成されるディスプレイの上に取り付けられるタッチスクリーンを含んでもよい。他の実施形態では、センサ108は、LED検出器を含んでもよい。例えば、一実施形態では、タッチ面116は、ディスプレイの側部に取り付けられるLED指検出器を含んでもよい。一部の実施形態では、プロセッサは単一のセンサ108と通信し、他の実施形態では、プロセッサは複数のセンサ108、例えば、第1のタッチスクリーン及び第2のタッチスクリーンと通信する。
一部の実施形態では、1つ以上のセンサ108は、モバイルデバイスの運動を検出するように構成される1つ以上のセンサ(例えば、加速度計、ジャイロスコープ、カメラ、GPS、又は他のセンサ)を更に含む。こうしたセンサは、X,Y又はZ平面にデバイスを移動させるユーザ相互作用を検出するように構成されてもよい。センサ108は、ユーザ相互作用を検出し、ユーザ相互作用に基づいて、プロセッサ102に信号を送信するように構成される。一部の実施形態では、センサ108は、ユーザ相互作用の複数の態様を検出するように構成されてもよい。例えば、センサ108は、ユーザ相互作用の速さ及び圧力を検出して、この情報をインターフェース信号に組み込んでもよい。更に、一部の実施形態では、ユーザ相互作用は、デバイスから離れた多次元ユーザ相互作用を含む。例えば、一部の実施形態では、デバイスに関連付けられるカメラが、ユーザの動き、例えば、手、指、体、頭、目若しくは足の動作又は別の人物若しくはオブジェクトとの相互作用を検出するように構成されてもよい。
一部の実施形態では、入力は、ジェスチャを含んでもよい。ジェスチャは、意味又はユーザの意図を伝達する何らかの体の動きである。1つ以上のセンサ108は、ユーザの相互作用を検出して、この相互作用に関連付けられるセンサ信号をプロセッサ102に送信するように構成され、これはユーザの相互作用が1つ以上のジェスチャを含むかどうかを決定して、1つ以上のジェスチャに関する情報を決定するように構成される。更に、一部の実施形態では、プロセッサ102は、ジェスチャのタイプ又は圧力、速さ、エリア、方向、又は1つ以上のジェスチャの何らかの他の特徴等の要因を決定してもよい。
単純なジェスチャがより複雑なジェスチャを形成するように組み合わされ得ることが理解されるであろう。例えば、指をタッチセンサ面と接触させることは「フィンガーオン」ジェスチャと呼ばれてもよく、指をタッチセンサ面から取り除くことは離れた「フィンガーオフ」ジェスチャと呼ばれてもよい。「フィンガーオン」と「フィンガーオフ」ジェスチャとの間の時間が比較的短い場合、組み合わされたジェスチャは「タップ」と呼ばれてもよく、「フィンガーオン」と「フィンガーオフ」ジェスチャとの間の時間が比較的長い場合、組み合わされたジェスチャは「ロングタップ」と呼ばれてもよく、「フィンガーオン」及び「フィンガーオフ」ジェスチャの2次元(x、y)位置の間の距離が比較的大きい場合、組み合わされたジェスチャは「スワイプ」と呼ばれてもよく、「フィンガーオン」及び「フィンガーオフ」ジェスチャの2次元(x、y)位置の間の距離が比較的小さい場合、組み合わされたジェスチャは「スミア(smearing)」、「スマッジ(smudging)」又は「フリック」と呼ばれてもよい。任意の数の2次元又は3次元の単純な又は複雑なジェスチャが様々な態様で組み合わされて、限定されないが、デバイスへの多数の指の接触、掌又は拳の接触、又は近接を含む任意の数の他のジェスチャを形成してもよい。また、ジェスチャは、加速度計、ジャイロスコープ又は他の運動センサを有するデバイスによって認識され、電気信号に変換される任意の形態の手の動きであり得る。このような電気信号は、仮想サイコロを振る等の動的効果をアクティブ化することができ、センサは動的効果を生成するユーザの意図をキャプチャする。
この例示では、プロセッサ102と通信する触覚出力デバイス118が、タッチ面116に結合される。一部の実施形態では、触覚出力デバイス118は、触覚信号に応答して、タッチ面のコンプライアンスをシミュレートする触覚効果を出力するように構成される。追加的又は代替的に、触覚出力デバイス118は、タッチ面を制御して動かす振動触覚効果を提供してもよい。一部の触覚効果は、デバイスの筐体に結合されるアクチュエータを利用してもよい。また、一部の触覚効果は、順番に及び/又は同時に複数のアクチュエータを使用してもよい。例えば、一部の実施形態では、表面テクスチャは、異なる周波数で表面を振動させることによりシミュレートされてもよい。このような実施形態では、触覚出力デバイス118は、例えば、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ(ERM)又は線形共振アクチュエータ(LRA)の1つ以上を含んでもよい。一部の実施形態では、触覚出力デバイス118は、複数のアクチュエータ、例えば、ERM及びLRAを含んでもよい。更に他の実施形態では、触覚出力デバイス118は、より粗い表面を伝達するための手段として抵抗を提供する非作動型の触覚(例えば、空気、流体、又は超音波出力)を使用してもよい。
一部の実施形態では、触覚効果は、ユーザ相互作用に関して感知された他の情報、例えば、仮想環境における手の相対位置、VR/AR環境におけるオブジェクト位置、オブジェクト変形、GUI、UI、AR、VR等における相対オブジェクト相互作用に基づいて変調されてもよい。更に他の実施形態では、触覚効果を生成する方法は、短時間の効果の変化を含み、効果の振幅は感知された信号値(例えば、ユーザ相互作用に関連付けられる信号値)の関数として変化する。一部の実施形態では、効果の周波数が変化し得る場合、知覚される固定振幅が選択されてもよく、効果の周波数は感知された信号値の関数として変化し得る。
例えば、一実施形態では、ユーザは、実空間におけるジェスチャ、例えば、手の動きを行ってもよい。移動の間、ユーザの手は、第1の場所から第2の場所に移動するときに追跡されてもよい。触覚効果は、このジェスチャに基づいて決定されてもよい。更に、触覚効果は、ユーザの位置の関数として(例えば、2点間の距離又は2点間のユーザの位置の関数として)変化し得る。例えば、一実施形態では、プロセッサ101は、ジェスチャに部分的に基づいて(例えば、2点間の距離及び/又はユーザの手と一方の点との間の距離に基づいて)触覚効果の周波数、振幅、粒径、粒子振幅、又は粒子密度を修正してもよい。更に、一部の実施形態では、ジェスチャは、複合現実におけるジェスチャを含んでもよい。従って、一部の実施形態では、ジェスチャは、仮想現実におけるジェスチャを含んでもよく、仮想現実における2点間の移動を含んでもよい。
本明細書には単一の触覚出力デバイス118が示されているが、実施形態では、触覚効果を出力するために同じ又は異なるタイプの複数の触覚出力デバイスが使用されてもよい。一実施形態では、超音波周波数で、例えば、一部の実施形態では20−25kHzよりも高い周波数で動作するアクチュエータ等を使用することにより、垂直に及び/又は水平にタッチ面116の一部又は全部を移動するために圧電アクチュエータが使用されてもよい。一部の実施形態では、偏心回転質量モータ及び線形共振アクチュエータ等の複数のアクチュエータが、異なるテクスチャ及び他の触覚効果を与えるために単独で又は同時に使用され得る。
更に他の実施形態では、触覚出力デバイス118は、タッチ面116の表面でテクスチャをシミュレートするために、例えば、静電表面アクチュエータを使用することによって、静電力を使用してもよい。同様に、一部の実施形態では、触覚出力デバイス118は、タッチ面116の表面でユーザが感じる摩擦を変化させるために静電力を使用してもよい。例えば、一実施形態では、触覚出力デバイス118は、触覚効果を生成するための機械的な動きの代わりに電圧及び電流を加える静電ディスプレイ又は任意の他のデバイスを含んでもよい。このような実施形態では、静電アクチュエータは、導電層及び絶縁層を含んでもよい。このような実施形態では、導電層は、任意の半導体又は銅、アルミニウム、金又は銀等の他の導電性材料であってもよい。また、絶縁層は、ガラス、プラスチック、ポリマ、又は任意の他の絶縁性材料であってもよい。
プロセッサ102は、導電層に電気信号を加えることによって静電アクチュエータを動作させてもよい。一部の実施形態では、電気信号は、導電層をタッチ面116に近い又は接触しているオブジェクトと容量結合するAC信号であってもよい。一部の実施形態では、AC信号は、高圧増幅器によって生成されてもよい。他の実施形態では、容量結合は、タッチ面116の表面における摩擦係数又はテクスチャをシミュレートしてもよい。例えば、一実施形態では、タッチ面116の表面は円滑であるが、容量結合はタッチ面116の表面の付近のオブジェクト間に引力を生み出してもよい。一部の実施形態では、オブジェクトと導電層との間の引力のレベルを変化させることは、タッチセンサ面116の表面で動くオブジェクトにおける擬似テクスチャを変化させること、又はオブジェクトがタッチ面116の表面で動くときに感じられる摩擦係数を変化させることができる。更に、一部の実施形態では、静電アクチュエータが、タッチ面116の表面において擬似テクスチャを変化させるために従来のアクチュエータと共に使用されてもよい。例えば、アクチュエータはタッチ面116の表面のテクスチャの変化をシミュレートするように振動してもよい。一方では同時に、静電アクチュエータがタッチ面116の表面において、又はコンピュータデバイス101の別の部分(例えば、その筐体又は別の入力デバイス)において異なるテクスチャ又は他の効果をシミュレートしてもよい。
一部の実施形態では、タッチ面116に近接した又は接触している体の部分をシミュレートすることによって触覚効果を生成するために静電アクチュエータが使用されてもよい。例えば、一部の実施形態では、ユーザの指の皮膚の神経終端又は静電アクチュエータに応答することができるスタイラスのコンポーネントをシミュレートしてもよい。例えば、皮膚の神経終端は、刺激されて、振動又は何らかのより具体的な感覚として静電アクチュエータ(例えば、容量結合)を感知してもよい。例えば、一実施形態では、静電アクチュエータの導電層が、ユーザの指の導電部分と結合するAC電圧信号を受信してもよい。ユーザがタッチ面116にタッチしてタッチ面上で自身の指を動かすと、ユーザは、チクチク、ザラザラ、ガタガタ、でこぼこ、粘々、又は何らかの他のテクスチャを感知してもよい。
メモリ104に関しては、例示のプログラムコンポーネント124、126及び128は、仮想感情タッチを与えるために一部の実施形態では、デバイスがどのように構成され得るかを示すように描かれている。この例示では、検出モジュール124が、タッチ、例えば、タッチの位置及び/又は圧力を決定するためにセンサ108を介してタッチ面116を監視するようにプロセッサ102を構成する。例えば、モジュール124は、タッチの存在又は不存在を追跡して、タッチが存在する場合、場所、経路、速度、加速度、圧力及び/又は経時的なタッチの他の特性を追跡するためにセンサ108をサンプリングしてもよい。
触覚効果決定モジュール126は、生成すべき触覚効果を選択するためのタッチ特性に関するデータを分析するプログラムコンポーネントを表す。例えば、一実施形態では、モジュール126は、タッチに基づいて、生成すべき触覚効果を決定するコードを含む。例えば、モジュール126は、タッチ(例えば、タッチの圧力)に部分的に基づいて、触覚信号に関する粒径、粒子密度、一周期の最大粒子、及び/又は粒子振幅を決定するように構成されるプログラムコードを含んでもよい。代替的に、一部の実施形態では、触覚効果決定モジュール126は、1つ以上の事前ロードされる触覚効果、例えば、複合現実又は仮想現実環境における特定のオブジェクトに関連付けられる触覚効果を含んでもよい。こうした触覚効果は、(複数の)触覚出力デバイス118が生成することができる任意の種類の触覚効果を含んでもよい。更に、一部の実施形態では、モジュール126は、触覚効果の特性、例えば、効果の強度、周波数、持続時間、ディーティサイクル、又は触覚効果に関連付けられる任意の他の特性を操作するように構成されるプログラムコードを含んでもよい。一部の実施形態では、モジュール126は、例えば、グラフィカルユーザインターフェースを介して、こうした特性をユーザが操作できるようにするプログラムコードを含んでもよい。
更に、一部の実施形態では、モジュール126は、ユーザ相互作用に基づいて触覚効果を決定するように構成されるプログラムコードを含んでもよい。例えば、モジュール126は、タッチ面116におけるユーザ入力又はモバイルデバイスの動作を検出するように構成される慣性センサ等の他のセンサを監視するように構成されてもよい。モジュール126は、この入力を検出して、入力に基づいて触覚効果を生成してもよい。例えば、一部の実施形態では、モジュール126は、ユーザ相互作用をシミュレートするように構成される触覚効果を決定するように構成されてもよい。
触覚効果生成モジュール128は、プロセッサ102に触覚信号を生成させ且つ触覚出力デバイス118に送信させ、それにより、選択された触覚効果を触覚出力デバイス118に生成させるプログラミングを表す。例えば、生成モジュール128は、記憶された波形又はコマンドにアクセスして、触覚出力デバイス118に送信してもよい。別の例示として、触覚効果生成モジュール128は、所望の種類の効果を受信して、適切な信号を生成して触覚出力デバイス118に送信するために、信号処理アルゴリズムを利用してもよい。更なる例示として、触覚効果に関する目標座標と共に所望の効果が示されて、表面(及び/又は他のデバイスコンポーネント)の適切な変位を生成して触覚効果を与えるために1つ以上のアクチュエータに適切な波形が送信されてもよい。一部の実施形態は、触覚効果を出力するために同時に複数の触覚出力デバイスを利用してもよい。
コンピュータシステムの特定の実施形態によっては、タッチ面がディスプレイを覆ってもよい(又は他のやり方で対応してもよい)。図1Bには、コンピュータシステム100Bの外観図が示されている。コンピュータデバイス101は、デバイスのタッチ面及びディスプレイを組み合わせたタッチ可能ディスプレイ116を含む。タッチ面は、ディスプレイ外部又は実際のディスプレイコンポーネント上の1つ以上の材料層に対応してもよい。
図1Cは、タッチ面がディスプレイを覆わないタッチ可能コンピュータシステムの別の例を示す。この例示では、コンピュータデバイス101は、デバイス101とインターフェース接続されたコンピュータシステム120に含まれるディスプレイ122に設けられるグラフィカルユーザインターフェースにマッピングされ得るタッチ面116を特徴とする。例えば、コンピュータデバイス101は、マウス、トラックパッド、又は他のデバイスを含んでもよいが、コンピュータシステム120は、デスクトップ若しくはラップトップコンピュータ、セットトップボックス(例えば、DVDプレーヤ、DVR、ケーブルテレビボックス)、又は別のコンピュータシステムを含んでもよい。別の例示として、タッチ面116及びディスプレイ122は、ディスプレイ122を特徴付けるラップトップコンピュータにおけるタッチ可能トラックパッド等の同じデバイスに配置されてもよい。ディスプレイと統合されるか否かに関わらず、本明細書の例示における平面的なタッチ面の描写は、限定することを意図していない。他の実施形態は、触覚効果を与えるように更に構成される湾曲した又は不規則なタッチ可能面を含む。
図2A−2Bは、仮想感情タッチのためのデバイスの例示の実施形態を示す。図2Aは、タッチ可能ディスプレイ202を特徴とするコンピュータデバイス201を含むシステム200の外観図を示す図面である。図2Bは、デバイス201の断面図を示す。デバイス201は図1Aのデバイス101と同様に構成され得るが、プロセッサ、メモリ及びセンサ等のコンポーネントは明確のためこの図面には示されていない。
図2Bに見られるように、デバイス201は、複数の触覚出力デバイス218及び追加の触覚出力デバイス222を特徴とする。触覚出力デバイス218−1は、ディスプレイ202に垂直の力を与えるように構成されるアクチュエータを含んでもよいが、一方で218−2は横方向にディスプレイ202を動かしてもよい。この例では、触覚出力デバイス218、222はディスプレイに直接結合されているが、触覚出力デバイス218、222は別のタッチ面、例えば、ディスプレイ202上の材料の層に結合され得ることが理解されるべきである。更に、1つ以上の触覚出力デバイス218又は222が上記の静電アクチュエータを含んでもよいことが理解されるべきである。更に、触覚出力デバイス222は、デバイス201のコンポーネントを保持する筐体に結合されてもよい。図2A−2Bの例では、ディスプレイ202の領域はタッチ領域に対応するが、原理はディスプレイとは完全に分離したタッチ面に適用され得る。
一実施形態では、触覚出力デバイス218の各々は圧電アクチュエータを含むが、追加の触覚出力デバイス222は、偏心回転質量モータ、線形共振アクチュエータ又は別の圧電アクチュエータを含む。触覚出力デバイス222は、プロセッサからの触覚信号に応答して振動触覚効果を提供するように構成され得る。振動触覚効果は、表面ベースの触覚効果と併せて及び/又は他の目的で利用され得る。
一部の実施形態では、触覚出力デバイス218−1及び218−2の何れか又は両方は、圧電アクチュエータ以外のアクチュエータを含み得る。何れのアクチュエータも、例えば、圧電アクチュエータ、電磁アクチュエータ、電気活性ポリマ、形状記憶合金、可撓性複合圧電アクチュエータ(例えば、可撓性材料を含むアクチュエータ)、静電、及び/又は磁歪アクチュエータを含み得る。更に、触覚出力デバイス222が示されているが、複数の他の触覚出力デバイスがデバイス201の筐体に結合可能であり、及び/又は触覚出力デバイス222は別の場所に結合されてもよい。デバイス201は、同様に、異なる場所でタッチ面に結合される複数の触覚出力デバイス218−1/218−2を特徴としてもよい。
次に図3Aを参照すると、図3Aは、本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。図3Aは、システム300を示す。システム300は、モバイルデバイス302、ディスプレイ304、及びディスプレイ304に示される視覚表現306を含む。図3Aに示されるように、システム300はユーザの相互作用を検出するように更に構成される。ユーザの相互作用は、ディスプレイ304にジェスチャを行う指308として示されている。モバイルデバイス302は、当技術分野で周知の任意のタイプのモバイルデバイス、例えば、スマートフォン、タブレット、ラップトップ、又は他のタイプのデバイスを含む。ディスプレイ304は、タッチセンサ式入力デバイス、例えば、タッチスクリーンを更に含んでもよい。
図3Aに示されるように、ディスプレイ304は視覚表現306を含む。視覚表現306は、モバイルデバイス302のユーザとのメッセージングセッションを行っているモバイルデバイス302から離れているユーザ(「遠隔ユーザ」)を表す。一部の実施形態では、視覚表現306は、遠隔ユーザに関連付けられるアバターを含んでもよい。一部の実施形態では、アバターは、遠隔ユーザの外見を近似するアニメ―ション化キャラクタを含んでもよい。例えば、アバターは、遠隔ユーザの近似的な伸長、体格、髪型、髪の色等を含んでもよい。他の実施形態では、アバターは、遠隔ユーザの画像及び/又は遠隔ユーザによって選択される画像を含んでもよい。
図3Aに示される実施形態では、モバイルデバイス302のユーザは、視覚表現306と相互作用してもよい。モバイルデバイス302のユーザが視覚表現306と相互作用すると、視覚表現306は相互作用に応答してもよい。例えば、モバイルデバイス302のユーザによるジェスチャは、1つ以上のセンサによって検出されてもよい。モバイルデバイス302のプロセッサは、こうした1つ以上のセンサから信号を受信し、視覚表現306によるアクションを決定する。例えば、ジェスチャは、アバターを座らせ、立ち上がらせ、横たわらせ、手を振らせ、回転させ、飛び上がらせ、宙返りさせ、又は何らかの他のアクションを取らせてもよい。
一部の実施形態では、1つ以上のセンサ又はディスプレイ304は、ユーザの相互作用に関連付けられる要因、例えば、ユーザの相互作用の圧力、速さ、エリア、方向又は何らかの他の特徴を決定するように構成されてもよい。このような実施形態では、モバイルデバイス302は、ユーザの相互作用に関連付けられる要因に基づいて視覚表現306の異なるアクションを決定してもよい。例えば、高圧のユーザの相互作用は、視覚表現306を座らせるか又は後方に倒してもよい。同様に、高速のユーザの相互作用は、視覚表現306の頭部を素早く回してもよい。
更に、プロセッサは、ジェスチャに関連付けられる信号を遠隔デバイスに送信してもよい。遠隔デバイスは、ジェスチャに基づいて触覚効果を決定してもよい。従って、モバイルデバイス302のユーザが遠隔ユーザの視覚表現306と相互作用すると、遠隔ユーザのモバイルデバイスは対応する触覚効果を出力してもよい。この触覚効果は、モバイルデバイス302のユーザと遠隔ユーザとの間の相互作用のリアル感を向上させてもよい。
また、一部の実施形態では、モバイルデバイス302は、触覚効果を決定して、触覚効果を出力するように構成される1つ以上の触覚出力デバイスに触覚信号を出力してもよい。従って、モバイルデバイス302のユーザは、遠隔デバイスのユーザと同時に触覚効果を感じてもよい。一部の実施形態では、モバイルデバイス302のプロセッサは、触覚効果を決定して、触覚効果に関連付けられる信号を遠隔デバイスに送信してもよい。更に、一部の実施形態では、遠隔ユーザは、遠隔デバイスに表示されたモバイルデバイス302のユーザの視覚表現306と相互作用してもよい。遠隔デバイスは、相互作用に関連付けられる信号をモバイルデバイス302に送信してもよく、次にこれは相互作用に関連付けられる触覚効果を出力してもよい。
上記のように、一部の実施形態では、1つ以上のセンサ又はディスプレイ304は、ユーザの相互作用に関連付けられる要因、例えば、ユーザの相互作用の圧力、速さ、エリア、方向又は何らかの他の特徴を決定するように構成されてもよい。このような実施形態では、モバイルデバイス302は、要因に基づいて触覚効果を決定して出力してもよい。例えば、触覚効果は、大きな圧力に対して強い触覚効果、中位の圧力に対して中位の強さの触覚効果、及び小さな圧力に対して弱い触覚効果を含んでもよい。他の実施形態では、触覚効果は、ユーザの相互作用の他の特徴、例えば、ユーザの相互作用の速さ、エリア、方向又は何らかの他の特徴に基づいて決定されてもよい。
次に図3Bを参照すると、図3Bは、本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。図3Bは、デバイス300の別のビューを示す。図3Bに示されるように、指308は、視覚表現306の頭部に関連付けられるジェスチャを行っている。一部の実施形態では、視覚表現306は、ジェスチャに応答してもよい。例えば、図3Bに示される実施形態では、視覚表現306はその頭を振っている。他の実施形態では、ジェスチャは、視覚表現306を座らせ、立ち上がらせ、横たわらせ、手を振らせ、回転させ、飛び上がらせ、宙返りさせ、又は何らかの他のアクションを取らせてもよい。
次に図3Cを参照すると、図3Cは、本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。図3Cは、システム300の別のビューを示す。図3Cでは、視覚表現306は、指308によるジェスチャに応答して座っている。一部の実施形態では、指308による追加のジェスチャは、視覚表現306による追加の動きをもたらしてもよい。
次に図4を参照すると、図4は、本開示の一実施形態による仮想感情タッチのための別の例示的な実施形態を示す。図4は視覚表現400を示す。図4に示されるように、視覚表現400は、複数のエリア、01頭/顔、02腹部、03四肢、及び04足を含む。一部の実施形態では、こうしたエリアの各々に関連付けられるジェスチャは、視覚表現400による異なる動きを引き起こし、視覚表現400に関連付けられるモバイルデバイスに異なる触覚効果を出力させる。
例示的な実施形態では、ユーザは、04足と相互作用してもよい。このような相互作用に基づいて、視覚表現400は飛び上がってもよい。更に、対応する触覚効果、例えば、視覚表現400が飛び上がること及び着地することに関連付けられるノッキング効果が決定されてもよい。更に、別の例では、ユーザは、01頭/顔と相互作用してもよい。このような相互作用に基づいて、アバター400は、頭を左右に振ってもよい。更に、この相互作用に関連付けられる触覚効果、例えば、視覚表現400の髪の動きをシミュレートするための柔らかい振動が決定されてもよい。
(仮想感情タッチのための例示的なシステム)
図5は、一実施形態による仮想感情タッチのための方法を実行するためのステップのフローチャートである。一部の実施形態では、図5のステップは、例えば、汎用コンピュータ、モバイルデバイス,仮想現実制御システム又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図5に示されない追加のステップが実行されてもよい。以下のステップは図1Aに示されたコンピュータデバイス101に関して記載されたコンポーネントを参照して記載される。
図5は、一実施形態による仮想感情タッチのための方法を実行するためのステップのフローチャートである。一部の実施形態では、図5のステップは、例えば、汎用コンピュータ、モバイルデバイス,仮想現実制御システム又はサーバにおけるプロセッサによって実行されるプログラムコードで実装されてもよい。一部の実施形態では、こうしたステップは一群のプロセッサによって実装されてもよい。一部の実施形態では、図5に示される1つ以上のステップは省略され又は異なる順番で行われてもよい。同様に、一部の実施形態では、図5に示されない追加のステップが実行されてもよい。以下のステップは図1Aに示されたコンピュータデバイス101に関して記載されたコンポーネントを参照して記載される。
方法500は、ステップ502で開始して、プロセッサ102が視覚表現を表示する。視覚表現は、遠隔デバイスのユーザに関連付けられる画像を含む。一部の実施形態では、視覚表現は、上記のように、遠隔ユーザのアバターを含んでもよい。
次にブロック504では、プロセッサ102は、1つ以上のセンサ108からセンサ信号を受信する。1つ以上のセンサ108は、ユーザの相互作用を検出して、この相互作用に関連付けられるセンサ信号をプロセッサ102に送信するように構成され、これはユーザの相互作用が1つ以上のジェスチャを含むかどうかを決定して、1つ以上のジェスチャに関する情報を決定するように構成される。一部の実施形態では、ジェスチャは、視覚表現に関連付けられるジェスチャを含む。例えば、ジェスチャは、アバターの1つ以上のエリア(例えば、図4に関して先に検討された1つ以上のエリア)との相互作用を含んでもよい。更に、一部の実施形態では、プロセッサ102は、ジェスチャのタイプ又は圧力、速さ、エリア、方向、又はジェスチャの何らかの他の特徴等の要因を決定してもよい。
次に、ステップ506において、プロセッサ102は触覚効果を決定する。一部の実施形態では、触覚効果は視覚表現の動きをシミュレートするように構成されてもよい。更に、一部の実施形態では、触覚効果は、複合現実又は仮想現実インターフェースに関連付けられる特徴を向上させるように構成されてもよい。一部の実施形態では、プロセッサ102は、1つ以上の触覚出力デバイス118の周波数、振幅、変調又は動さのデューティサイクルを決定及び/又は修正することにより触覚効果を決定してもよい。一部の実施形態では、プロセッサ102は、ジェスチャに関して決定された特徴、例えば、ジェスチャのタイプ、圧力、速さ、エリア、方向、又はジェスチャの何らかの他の特徴に部分的に基づいて触覚効果を決定してもよい。
他の実施形態では、プロセッサ102は、ユーザの選択に基づいて触覚効果を決定してもよい。例えば、ユーザは利用可能な触覚効果を選択してもよい。例えば、コンピュータデバイス101のデータストアは、触覚設計者又はユーザが選択し得る多数の触覚効果に関連付けられるデータを含んでもよい。更に、触覚設計者又はユーザは、触覚効果に関連付けられる特性を調節してもよい。例えば、触覚設計者は、触覚効果に関連付けられる持続時間、周波数、強度、又は何らかの他の特性を修正してもよい。一部の実施形態では、プロセッサ102は、触覚効果を自動的に選択してもよい。例えば、一部の実施形態では、プロセッサ102はコンピュータデバイス101のディスプレイの面に表示される映像内で起こるイベントに関連付けられる触覚効果を選択してもよい。更に、一部の実施形態では、プロセッサ102は、触覚効果のパラメータを修正するために事前設計されたアルゴリズムを実行してもよい。
ステップ508において、プロセッサ102は触覚信号を送信する。一部の実施形態では、プロセッサは、触覚効果を出力する1つ以上の触覚出力デバイス118に触覚信号を送信する。代替的に又は追加的に、一部の実施形態では、プロセッサは、遠隔デバイスに触覚信号を送信する。このような実施形態では、遠隔デバイスは、触覚効果を出力して、遠隔デバイスのユーザが視覚表現に関連付けられるジェスチャに関連付けられる触覚効果を受信することを可能にしてもよい。更に、一部の実施形態では、プロセッサ102は、ジェスチャに関連付けられる信号を遠隔デバイスに送信してもよく、遠隔デバイスは、触覚効果を決定してもよい。
ステップ510において、プロセッサ102は視覚表現を修正する。例えば、プロセッサ102は、ユーザの相互作用に応答して、視覚表現306を座らせ、立ち上がらせ、横たわらせ、手を振らせ、回転させ、飛び上がらせ、宙返りさせ、又は何らかの他の動きを行わせてもよい。プロセッサ102は、ディスプレイを備え得る(複数の)音声映像出力デバイス115に表示信号を出力する。一部の実施形態では、表示信号は、複合現実又は仮想現実インターフェースにおけるキャラクタ及び/又はオブジェクトを含んでもよい。オブジェクト又はキャラクタは、触覚効果が出力されると同時にユーザ相互作用に反応してもよく、従って複合現実又は仮想現実体験の現実感を更に向上させる。
仮想感情タッチには多くの利点が有る。本明細書で検討された実施形態は、より現実的な複合現実又は仮想現実体験をもたらす。従って、ユーザは、本明細書に記載の特徴を備えるデバイス及びソフトウェアと相互作用するときにより良好な満足感及び体験を有し得る。従って、上記の例の各々は、ユーザ満足度を向上させるので、本明細書に記載の技術をより多く採用することに繋がる。
(概論)
上記の方法、システム及びデバイスは例示である。様々な構成によって、適宜、様々なプロシージャ又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許請求の範囲を限定しない。
上記の方法、システム及びデバイスは例示である。様々な構成によって、適宜、様々なプロシージャ又はコンポーネントが省略、置換、又は追加されてもよい。例えば、代替的な構成では、方法は記載されたものとは異なる順序で実行されてもよく、及び/又はステージが追加、省略及び/又は結合されてもよい。また、所定の構成に関して記載された機能は、様々な他の構成に結合されてもよい。構成の異なる態様及び要素が、同様に結合されてもよい。また、技術は進歩するものであり、そのため要素の多くは例示であり、本開示又は特許請求の範囲を限定しない。
例示的な構成(実装を含む)の十分な理解を与えるために説明の中で特定の詳細が与えられている。しかしながら、こうした構成は特定の詳細無しで実施されてもよい。例えば、周知の回路、工程、アルゴリズム、構造及び技術が、構成を不明確にするのを避けるために不要な詳細無しで示されている。この説明は、例示的な構成のみを提供するものであり、請求項の範囲、応用性又は構成を限定しない。むしろ、構成の上記説明は、記載された技術を実装するための実施可能な説明を当業者に提供するであろう。本開示の精神又は範囲から逸れることなく、要素の機能及び配置の様々な変更が行われてもよい。
また、構成は、フロー図又はブロック図として描かれる処理として記載されてもよい。各々が連続した工程として操作を説明している場合が有るが、こうした操作の多くは並列的又は同時に行われ得る。更に、操作の順序は並び替えられてもよい。工程は、図面に含まれない追加のステップを有してもよい。更に、方法の例示は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はこれらの任意の組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実装される場合、必要なタスクを実行するためのプログラムコード又はコードセグメントは、記憶媒体等の非一時的なコンピュータ可読媒体に記憶されてもよい。プロセッサは、記載されたタスクを実行してもよい。
複数の例示的な構成が記載されているが、本開示の精神から逸脱することなく、様々な修正、代替構造及び均等物が使用されてもよい。例えば、上記の要素は、より大きなシステムのコンポーネントであってもよく、他の規則が本開示のアプリケーションに優先し又はそれを修正してもよい。また、上記の要素が検討される前、間又は後で多くのステップが行われてもよい。従って、先の記載によって請求項の範囲は縛られない。
本明細書における「適合」又は「構成」の使用は、追加のタスク又はステップを実行するように適合又は構成されるデバイスを排除しない開放的且つ包括的な言語を意図している。更に、「基づいて」の使用は開放的且つ包括的であることが意図されており、即ち、1つ以上の記載された条件又は値に「基づいて」行われる処理、ステップ、計算、又は他の動作が、実際には、記載されたものを超える追加の条件又は値に基づいてもよい。本明細書に含まれる表題、リスト及び番号は、単に説明を容易にするためのものであって、限定することを意図していない。
本主題の態様に従う実施形態は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又はこれらの組み合わせで実装され得る。一実施形態では、コンピュータは、1つ又は複数のプロセッサを備えてもよい。プロセッサは、プロセッサに結合されるRAM(ランダム・アクセス・メモリ;random access memory)等のコンピュータ可読媒体を備え、又はそれへのアクセスを有する。プロセッサは、センササンプリングルーチン、選択ルーチン、及び上述の方法を実行する他のルーチン等、メモリに記憶されたコンピュータ実行可能プログラム命令を実行する。
このようなプロセッサは、マイクロプロセッサ、デジタル・シグナル・プロセッサ(digital signal processor;DSP)、特定用途向け集積回路(application−specific integrated circuit;ASIC)、フィールド・プログラマブル・ゲート・アレイ(field programmable gate array;FPGA)、及び状態機械を含む。このようなプロセッサは、PLC、プログラマブル割り込みコントローラ(programmable interrupt controller;PIC)、プログラマブル論理デバイス(programmable logic device;PLD)、プログラマブルROM(programmable read−only memory;PROM)、電気的プログラマブルROM(electronically programmable read−only memory;EPROM又はEEPROM)、又は他の類似のデバイス等のプログラマブル電子デバイスを更に備えてもよい。
このようなプロセッサは、媒体、例えば、プロセッサによって実行されると、プロセッサによって遂行又は支援される本明細書に記載のステップをプロセッサに実行させることができる命令を記憶し得る有形のコンピュータ可読媒体を備え、又はこれと通信してもよい。コンピュータ可読媒体の実施形態は、限定されないが、プロセッサ、例えばウェブサーバのプロセッサにコンピュータ可読命令を提供することができる全ての電子、光学、磁気、又は他の記憶デバイスを備えてもよい。媒体の他の例は、限定されないが、フロッピーディスク、CD−ROM、磁気ディスク、メモリチップ、ROM、RAM、ASIC、構成プロセッサ、全ての光学媒体、全ての磁気テープ若しくは他の磁気媒体、又はコンピュータプロセッサが読み取り可能な任意の他の媒体を含む。また、様々な他のデバイスは、ルータ、プライベート若しくはパブリックネットワーク、又は他の伝送デバイス等のコンピュータ可読媒体を含んでもよい。記載されたプロセッサ及び処理は、1つ以上の構造内に有ってもよく、1つ以上の構造を通じて分散されてもよい。プロセッサは、本明細書に記載の1つ以上の方法(又は方法の一部)を実行するためのコードを備えてもよい。
本主題はその特定の実施形態に関して詳細に記載されているが、上記のことを理解すると、このような実施形態の変形、変化、及び均等物を当業者であれば容易に生み出し得ることが理解されるであろう。従って、本開示は、限定ではなく例示を目的として提示されており、当業者には容易に明らかとなる本主題への修正、変更及び/又は追加を含むことを排除しないことが理解されるべきである。
Claims (20)
- タッチスクリーンディスプレイと、
触覚出力デバイスと、
プロセッサと
を備え、
前記プロセッサは、
前記タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示すること、
前記タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信すること、
受信側デバイスにジェスチャ及び視覚表現に関連付けられる信号を送信すること、
前記受信側ユーザの前記ジェスチャ及び前記視覚表現に部分的に基づいて触覚効果を決定すること、及び
前記触覚効果を出力するように構成される前記触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
を行うように構成される、システム。 - 前記プロセッサは、前記受信側デバイスに前記触覚信号を送信するように更に構成され、
前記受信側デバイスは、前記触覚効果を出力するように構成される第2の触覚出力デバイスを備える、請求項1に記載のシステム。 - 前記プロセッサは、前記受信側デバイスから第2のセンサ信号を受信して、前記第2のセンサ信号に部分的に基づいて前記触覚効果を決定するように更に構成される、請求項1に記載のシステム。
- 前記プロセッサは、前記受信側デバイスから第2の触覚信号を受信して、前記第2の触覚信号に部分的に基づいて触覚効果を出力するように更に構成される、請求項1に記載のシステム。
- 受信側ユーザの前記視覚表現は、アバターを含む、請求項1に記載のシステム。
- 前記アバターは、前記受信側ユーザによって選択される、請求項5に記載のシステム。
- 触覚効果を決定することは、前記ジェスチャに関連付けられる圧力を決定すること及び前記ジェスチャの前記圧力に対応する強度を有する触覚効果を決定することを含む、請求項1に記載のシステム。
- 前記タッチスクリーンディスプレイ、前記触覚出力デバイス及び前記プロセッサの全てが、ハンドヘルドデバイス又はウェアラブルデバイスのコンポーネントである、請求項1に記載のシステム。
- 前記触覚出力デバイスは、圧電アクチュエータ、電気モータ、電磁アクチュエータ、音声コイル、形状記憶合金、電気活性ポリマ、ソレノイド、偏心回転質量モータ、線形共振アクチュエータ、又は静電出力デバイスの1つ以上を含む、請求項1に記載のシステム。
- タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示するステップと、
前記タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信するステップと、
受信側デバイスに前記ジェスチャ及び前記視覚表現に関連付けられる信号を送信するステップと、
前記受信側ユーザの前記ジェスチャ及び前記視覚表現に部分的に基づいて触覚効果を決定するステップと、
前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信するステップと
を含む、方法。 - 前記受信側デバイスに前記触覚信号を送信するステップを更に含み、前記受信側デバイスは前記触覚効果を出力するように構成される第2の触覚出力デバイスを備える、請求項10に記載の方法。
- 前記受信側デバイスから第2のセンサ信号を受信するステップ、及び前記第2のセンサ信号に部分的に基づいて触覚効果を出力するステップを更に含む、請求項10に記載の方法。
- 前記受信側デバイスから第2の触覚信号を受信するステップ、及び前記第2の触覚信号に部分的に基づいて触覚効果を出力するステップを更に含む、請求項10に記載の方法。
- 受信側ユーザの前記視覚表現は、アバターを含む、請求項10に記載の方法。
- 前記アバターは、前記受信側ユーザによって選択される、請求項14に記載の方法。
- 触覚効果を決定するステップは、前記ジェスチャに関連付けられる圧力を決定すること及び前記ジェスチャの前記圧力に対応する強度を有する触覚効果を決定することを含む、請求項10に記載の方法。
- プログラムコードを含む非一時的なコンピュータ可読媒体であって、プロセッサにより実行されると、前記プログラムコードは、前記プロセッサに、
タッチスクリーンディスプレイ上に受信側ユーザの視覚表現を表示すること、
前記タッチスクリーンディスプレイから、送信側ユーザによるジェスチャに関連付けられるセンサ信号を受信すること、
受信側デバイスに前記ジェスチャ及び前記視覚表現に関連付けられる信号を送信すること、
前記受信側ユーザの前記ジェスチャ及び前記視覚表現に部分的に基づいて触覚効果を決定すること、及び
前記触覚効果を出力するように構成される触覚出力デバイスに前記触覚効果に関連付けられる触覚信号を送信すること
を行わせるように構成される、非一時的なコンピュータ可読媒体。 - 前記プロセッサによって実行されると、前記プロセッサに、前記受信側デバイスに前記触覚信号を送信することを行わせるように構成されるプログラムコードを更に含み、
前記受信側デバイスは、前記触覚効果を出力するように構成される第2の触覚出力デバイスを備える、請求項17に記載の非一時的なコンピュータ可読媒体。 - 前記プロセッサによって実行されると、前記プロセッサに、前記受信側デバイスから第2のセンサ信号を受信すること、及び前記第2のセンサ信号に部分的に基づいて触覚効果を出力することを行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時的なコンピュータ可読媒体。
- 前記プロセッサによって実行されると、前記プロセッサに、前記受信側デバイスから第2の触覚信号を受信すること、及び前記第2の触覚信号に部分的に基づいて触覚効果を出力することを行わせるように構成されるプログラムコードを更に含む、請求項17に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| WOPCT/CN2017/074784 | 2017-02-24 | ||
| PCT/CN2017/074784 WO2018152778A1 (en) | 2017-02-24 | 2017-02-24 | Virtual affective touch |
| US15/874,192 | 2018-01-18 | ||
| US15/874,192 US10474238B2 (en) | 2017-02-24 | 2018-01-18 | Systems and methods for virtual affective touch |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018142313A true JP2018142313A (ja) | 2018-09-13 |
Family
ID=63245714
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018030650A Pending JP2018142313A (ja) | 2017-02-24 | 2018-02-23 | 仮想感情タッチのためのシステム及び方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10474238B2 (ja) |
| JP (1) | JP2018142313A (ja) |
| KR (1) | KR20180098166A (ja) |
| CN (1) | CN108509028A (ja) |
| WO (1) | WO2018152778A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020046714A (ja) * | 2018-09-14 | 2020-03-26 | コニカミノルタ株式会社 | 表示装置および表示装置の制御プログラム |
| JP2022068123A (ja) * | 2020-10-21 | 2022-05-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ非依存のジェスチャ検出のためのコンピュータ実装方法、システムおよびコンピュータプログラム製品(センサ非依存のジェスチャ検出) |
Families Citing this family (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200192480A1 (en) * | 2018-12-18 | 2020-06-18 | Immersion Corporation | Systems and methods for providing haptic effects based on a user's motion or environment |
| USD900128S1 (en) * | 2019-03-12 | 2020-10-27 | AIRCAP Inc. | Display screen or portion thereof with graphical user interface |
| USD900831S1 (en) * | 2019-03-12 | 2020-11-03 | AIRCAP Inc. | Display screen or portion thereof with graphical user interface |
| EP3832608A1 (en) * | 2019-12-02 | 2021-06-09 | KONE Corporation | A solution for providing visual output representing maintenance related information of a people transport system or an access control system |
| CN111158474B (zh) * | 2019-12-19 | 2021-10-22 | 维沃移动通信有限公司 | 交互方法和电子设备 |
| EP4272062A1 (en) | 2020-12-31 | 2023-11-08 | Snap Inc. | Communication interface with haptic feedback response |
| US11531400B2 (en) | 2020-12-31 | 2022-12-20 | Snap Inc. | Electronic communication interface with haptic feedback response |
| CN116685941A (zh) | 2020-12-31 | 2023-09-01 | 斯纳普公司 | 具有触觉反馈增强的媒体内容项 |
| CN116670635B (zh) | 2020-12-31 | 2026-01-16 | 斯纳普公司 | 具有触觉反馈的实时视频通信界面 |
| US12254132B2 (en) | 2020-12-31 | 2025-03-18 | Snap Inc. | Communication interface with haptic feedback response |
| US12314472B2 (en) | 2021-03-31 | 2025-05-27 | Snap Inc. | Real-time communication interface with haptic and audio feedback response |
| US12164689B2 (en) | 2021-03-31 | 2024-12-10 | Snap Inc. | Virtual reality communication interface with haptic feedback response |
| KR20250164860A (ko) | 2021-03-31 | 2025-11-25 | 스냅 인코포레이티드 | 햅틱 피드백 응답을 갖는 가상 현실 인터페이스 |
| US12050729B2 (en) | 2021-03-31 | 2024-07-30 | Snap Inc. | Real-time communication interface with haptic and audio feedback response |
| CN119678202A (zh) * | 2022-08-01 | 2025-03-21 | 华为技术有限公司 | 在裸眼3d显示器上与3d对象进行触觉交互 |
| USD1036492S1 (en) * | 2022-12-29 | 2024-07-23 | Lg Electronics Inc. | Display panel with animated graphical user interface |
| US12254135B2 (en) * | 2023-03-28 | 2025-03-18 | Sensel, Inc. | Simulation of a physical interface utilizing touch tracking, force sensing, and haptic feedback |
| USD1088045S1 (en) * | 2023-05-02 | 2025-08-12 | Giantstep Inc. | Display screen or portion thereof with graphical user interface |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080218490A1 (en) * | 2007-03-02 | 2008-09-11 | Lg Electronics Inc. | Terminal and method of controlling terminal |
| US8294557B1 (en) * | 2009-06-09 | 2012-10-23 | University Of Ottawa | Synchronous interpersonal haptic communication system |
| JP2013247463A (ja) * | 2012-05-24 | 2013-12-09 | Kyocera Corp | 通信システム、通信端末、及び通信方法 |
| JP2016149135A (ja) * | 2008-07-15 | 2016-08-18 | イマージョン コーポレーションImmersion Corporation | 触覚メッセージを送信するためのシステム及び方法 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120223880A1 (en) * | 2012-02-15 | 2012-09-06 | Immersion Corporation | Method and apparatus for producing a dynamic haptic effect |
| US10410180B2 (en) | 2012-11-19 | 2019-09-10 | Oath Inc. | System and method for touch-based communications |
| CN104780093B (zh) * | 2014-01-15 | 2018-05-01 | 阿里巴巴集团控股有限公司 | 即时通讯过程中的表情信息处理方法及装置 |
| CN104301202A (zh) * | 2014-02-25 | 2015-01-21 | 王石强 | 一种即时通讯的振动信息表达方法和系统 |
| CN106104426B (zh) * | 2014-03-21 | 2020-04-03 | 意美森公司 | 用于基于力的对象操纵和触觉检测的系统、方法和计算机可读介质 |
| US9658693B2 (en) * | 2014-12-19 | 2017-05-23 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
| CN104579919B (zh) * | 2014-12-24 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 消息交互方法以及相关装置和通信系统 |
| CN104932691A (zh) * | 2015-06-19 | 2015-09-23 | 中国航天员科研训练中心 | 带有触觉感知反馈的手势实时交互系统 |
| CN106371573B (zh) * | 2015-12-04 | 2020-06-02 | 北京智谷睿拓技术服务有限公司 | 触觉反馈的方法、装置和虚拟现实交互系统 |
-
2017
- 2017-02-24 WO PCT/CN2017/074784 patent/WO2018152778A1/en not_active Ceased
-
2018
- 2018-01-18 US US15/874,192 patent/US10474238B2/en active Active
- 2018-02-23 JP JP2018030650A patent/JP2018142313A/ja active Pending
- 2018-02-23 KR KR1020180021812A patent/KR20180098166A/ko not_active Ceased
- 2018-02-24 CN CN201810156865.5A patent/CN108509028A/zh active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080218490A1 (en) * | 2007-03-02 | 2008-09-11 | Lg Electronics Inc. | Terminal and method of controlling terminal |
| JP2016149135A (ja) * | 2008-07-15 | 2016-08-18 | イマージョン コーポレーションImmersion Corporation | 触覚メッセージを送信するためのシステム及び方法 |
| US8294557B1 (en) * | 2009-06-09 | 2012-10-23 | University Of Ottawa | Synchronous interpersonal haptic communication system |
| JP2013247463A (ja) * | 2012-05-24 | 2013-12-09 | Kyocera Corp | 通信システム、通信端末、及び通信方法 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020046714A (ja) * | 2018-09-14 | 2020-03-26 | コニカミノルタ株式会社 | 表示装置および表示装置の制御プログラム |
| JP2022068123A (ja) * | 2020-10-21 | 2022-05-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ非依存のジェスチャ検出のためのコンピュータ実装方法、システムおよびコンピュータプログラム製品(センサ非依存のジェスチャ検出) |
| JP7649599B2 (ja) | 2020-10-21 | 2025-03-21 | インターナショナル・ビジネス・マシーンズ・コーポレーション | センサ非依存のジェスチャ検出のためのコンピュータ実装方法、システムおよびコンピュータプログラム製品(センサ非依存のジェスチャ検出) |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018152778A1 (en) | 2018-08-30 |
| KR20180098166A (ko) | 2018-09-03 |
| US20180246572A1 (en) | 2018-08-30 |
| CN108509028A (zh) | 2018-09-07 |
| US10474238B2 (en) | 2019-11-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10474238B2 (en) | Systems and methods for virtual affective touch | |
| US10514761B2 (en) | Dynamic rendering of etching input | |
| JP6840702B2 (ja) | 触覚装置における3次元レリーフのための摩擦変調 | |
| US11221730B2 (en) | Input device for VR/AR applications | |
| US20200057506A1 (en) | Systems and Methods for User Generated Content Authoring | |
| EP3367216A1 (en) | Systems and methods for virtual affective touch | |
| CN108334190B (zh) | 使用视场的触觉反馈 | |
| US10572017B2 (en) | Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments | |
| JP2018113025A (ja) | 触覚によるコンプライアンス錯覚のためのシステム及び方法 | |
| US11681372B2 (en) | Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects | |
| CN117716322A (zh) | 增强现实(ar)笔/手跟踪 | |
| US20200286298A1 (en) | Systems and methods for a user interaction proxy |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210125 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220906 |