JP6298561B1 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 - Google Patents
ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 Download PDFInfo
- Publication number
- JP6298561B1 JP6298561B1 JP2017104925A JP2017104925A JP6298561B1 JP 6298561 B1 JP6298561 B1 JP 6298561B1 JP 2017104925 A JP2017104925 A JP 2017104925A JP 2017104925 A JP2017104925 A JP 2017104925A JP 6298561 B1 JP6298561 B1 JP 6298561B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- viewpoint position
- virtual space
- mounted device
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0277—Online advertisement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Optics & Photonics (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムは、仮想空間を定義するステップ(S2010)と、ヘッドマウントデバイスの出力に基づいて仮想空間におけるヘッドマウントデバイスのユーザの視点位置を取得するステップ(S2020)と、ユーザの操作または動作を表す信号を受け付けるステップと、信号が表すユーザの操作または動作がユーザの関心を示すときに、視点位置をメモリに保存するステップ(S2060)とを備える。
【選択図】図20
Description
図1を参照して、HMD(Head-Mounted Device)システム100の構成について説明する。図1は、HMDシステム100の構成の概略を表す図である。HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、ある局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェイス13と、通信インターフェイス14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なパノラマ画像22(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付ける。
図5を参照して、ユーザの視線の決定について説明する。図5は、ある実施の形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
図6および図7を参照して、視認領域23について説明する。図6は、仮想空間2において視認領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視認領域23をY方向から見たXZ断面を表す図である。
図8を参照して、HMD110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図8は、ある実施の形態に従うコンピュータ200をモジュール構成として表わすブロック図である。
図9Aおよび図9Bを参照して、本実施の形態に従うアバターオブジェクトについて説明する。以下、HMDセット105A,105Bの各ユーザのアバターオブジェクトを説明する図である。以下、HMDセット105Aのユーザをユーザ190A、HMDセット105Bのユーザをユーザ190B、HMDセット105Cのユーザをユーザ190C、HMDセット105Dのユーザをユーザ190Dと表す。また、HMDセット105Aに関する各構成要素の参照符号にAが付され、HMDセット105Bに関する各構成要素の参照符号にBが付され、HMDセット105Cに関する各構成要素の参照符号にCが付され、HMDセット105Dに関する各構成要素の参照符号にDが付される。例えば、HMD110Aは、HMDセット105Aに含まれる。
以下、図10〜図12を参照して、ユーザの表情(顔の動き)を検出するための具体例について説明する。図10〜図12では、一例として、ユーザ190の口の動きを検出する具体例について説明する。なお、図10〜図12で説明される検出方法は、ユーザ190の口の動きに限られず、ユーザ190の顔を構成する他の器官(例えば、目、眉、鼻、頬)の動きの検出にも適用され得る。
図14は、サーバ150のハードウェア構成およびモジュール構成を説明する図である。ある実施の形態において、サーバ150は、主たる構成要素として通信インターフェイス1410と、プロセッサ1420と、ストレージ1440とを備える。
図15は、サーバ150がコンピュータ200Aおよび200Bと通信してユーザ情報1444を更新する処理を表すフローチャートである。図15に示される処理は、コンピュータ200のプロセッサ10がメモリ11またはストレージ12に格納される制御プログラムを実行し、サーバ150のプロセッサ1420がストレージ1440に格納される制御プログラムを実行することにより実現され得る。
ユーザ190は仮想空間2を構成するパノラマ画像22を評価し得る。仮に、ユーザ190がパノラマ画像22そのものに対して評価を行なった場合、パノラマ画像22の配信者はユーザ190が何に関心を示したかを把握できない可能性がある。その理由は、パノラマ画像22が360度全方位に展開されているため、ユーザ190が何を見て評価したかを把握できないためである。以下、このような課題を解決し得る処理を説明する。
まず、図16および図17を用いて、ユーザ操作に基づいて、ユーザ190の視点位置をメモリに保存する処理を説明する。図16は、ユーザ190Aが視認する視界画像1600を表す。図17は、図16の状態に対応する仮想空間2Aを表す。
上記の例では、サーバ150は、ユーザ190の操作に基づいて視点位置をストレージに保存するように構成されている。係る場合、パノラマ画像の配信者は、ユーザ190の関心を十分に把握できない場合があり得る。例えば、パノラマ画像22が動画像である場合、ユーザ190は、興味のあるコンテンツを視認したタイミングで操作情報をコンピュータ200に入力できないことがある。また、ユーザ190が操作情報の入力を面倒だと思う場合もあり得る。以下、このような課題を解決し得る処理について説明する。
図20は、ある実施形態に従う視点位置をストレージ1440に保存する処理を表すフローチャートである。図20に示される処理は、サーバ150のプロセッサ1420によって実行される。
ある実施形態において、サーバ150は、ステップS1820においてコンピュータ200からユーザ190の発話に対応する音声信号の入力を受け付ける。サーバ150は、この音声信号が予め定められた条件を満たした場合に視点位置をストレージ1440に保存しても良い。ある局面において、サーバ150は、入力された音声信号が予め定められたレベルを上回る場合に、視点位置をストレージ1440に保存する。
図20の例では、プロセッサ1420は、基準データに対するフェイストラッキングデータの変動量が大きいときに、視点位置をストレージ1440に保存するように構成されている。係る場合、パノラマ画像22の配信者は、ユーザ190が関心を抱いたコンテンツを把握できるものの、ユーザ190が当該コンテンツにどのような感情を抱いたかは分からない。そこで、ある実施形態に従うサーバ150は、ユーザ190がコンテンツにどのような感情を抱いたかを推測する。
上記の例において、プロセッサ1420は、ユーザ190が関心を示した視点位置をストレージ1440に保存するように構成されている。係る場合、パノラマ画像22の配信者は、視点位置(座標値)と、パノラマ画像22との対応関係を調べる必要がある。そこで、ある実施形態に従うプロセッサ1420は、マップ生成部1426として、パノラマ画像22と視点位置情報1454とに基づいてグラフを作成する。このグラフは、パノラマ画像22における視点位置(ユーザ190が関心を示した位置)を可視化する。
上記の例において、プロセッサ1420は、視点位置をストレージ1440に保存する構成であって、視点位置に表示されているコンテンツを特定していない。そのため、パノラマ画像22の配信者は、ユーザが関心を示したコンテンツを理解するために、視点位置(座標値)とパノラマ画像22との対応関係を調べなくてはならない。そこで、ある実施形態に従うプロセッサ1420は、視点位置に表示されているコンテンツを特定する。
図23は、ユーザ190が視線を注ぐ対象を特定して広告を配信するまでの一連の処理の一例を表すフローチャートである。図23に示される処理は、サーバ150のプロセッサ1420によって実行される。
図28は、視点位置を視点位置情報1454に保存しない場合の処理について説明するための図である。図28を参照して、仮想空間2Aには、パノラマ画像22Aが展開されている。また、仮想空間2Aには、ユーザ190Aに対応するアバターオブジェクト900Aと、ユーザ190Bに対応するアバターオブジェクト900Bとが配置されている。
図29は、視点位置を視点位置情報1454に保存する処理を中止する処理を表すフローチャートである。なお、図29に示される処理のうち上述の処理と同じ処理については同じ符号を付している。そのため、その処理についての説明は繰り返さない。
以上に開示された技術的特徴は、以下のように要約され得る。
Claims (20)
- ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心に関する予め定められた条件を満たしたときに、前記視点位置をメモリに保存するステップとを実行させる、プログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップとを実行させ、
前記仮想空間を定義するステップは、動画像を用いて仮想空間を構成するステップを含み、
前記視点位置をメモリに保存するステップは、前記視点位置と、前記動画像の再生中に当該視点位置が取得されたタイミングとを関連付けて前記メモリに保存することを含む、プログラム。 - 前記ユーザの関心を示す前記ユーザの操作は、前記ユーザの関心を受け付けるためのユーザインターフェイスに対する操作を含む、請求項1または2に記載のプログラム。
- 前記ユーザの動作を表す信号は、前記ユーザの表情を表すフェイストラッキングデータを含む、請求項1〜3のいずれか1項に記載のプログラム。
- 前記プログラムは前記コンピュータに、
前記フェイストラッキングデータとの比較に用いられる基準データの入力を受け付けるステップをさらに実行させ、
前記フェイストラッキングデータが前記ユーザの関心を示すことは、当該フェイストラッキングデータの前記基準データに対する変動量が予め定められた変動量を超えることを含む、請求項4に記載のプログラム。 - 前記視点位置をメモリに保存するステップは、
前記フェイストラッキングデータが前記ユーザの関心を示した場合に、複数の表情の種類の中から当該フェイストラッキングデータに対応する表情の種類を特定することと、
前記特定した表情の種類と前記視点位置とを関連付けて前記メモリに保存することとを含む、請求項4または5に記載のプログラム。 - 前記ユーザの動作を表す信号は、前記ユーザの発話に対応する音声信号を含む、請求項1〜6のいずれか1項に記載のプログラム。
- ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップとを実行させ、
前記ユーザの動作を表す信号は、前記ユーザの発話に対応する音声信号を含み、
前記プログラムは前記コンピュータに、
複数の感情の種類の中から前記音声信号に対応する前記ユーザの感情の種類を推定するステップをさらに実行させ、
前記視点位置をメモリに保存するステップは、前記推定されたユーザの感情の種類が前記ユーザの関心を示すときに、当該推定されたユーザの感情の種類と前記視点位置とを関連付けてメモリに保存することを含む、プログラム。 - 前記視点位置をメモリに保存するステップは、前記信号が前記ユーザの関心を示すときに、前記仮想空間において前記ユーザの視線が注がれる対象を特定し、当該対象を前記視点位置に関連付けて前記メモリに保存することを含む、請求項1〜8のいずれか1項に記載のプログラム。
- 前記メモリは、対象の種類ごとに物体識別器を記憶しており、
前記仮想空間を定義するステップは、パノラマ画像を用いて仮想空間を構成するステップを含み、
前記対象を特定することは、
前記パノラマ画像から前記視点位置の周辺画像を切り出すことと、
前記周辺画像から特徴量を算出することと、
前記対象の種類ごとに記憶された物体識別器を用いて前記算出した特徴量に対応する対象を特定することとを含む、請求項9に記載のプログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記信号が前記ユーザの関心を示すときに、前記仮想空間において前記ユーザの視線が注がれる対象を特定し、当該対象を前記視点位置に関連付けて前記メモリに保存することを含み、
前記メモリは、対象の種類ごとに物体識別器を記憶しており、
前記仮想空間を定義するステップは、パノラマ画像を用いて仮想空間を構成するステップを含み、
前記パノラマ画像は、当該パノラマ画像に含まれる対象を表す第1タグ情報を含み、
前記対象を特定することは、
前記パノラマ画像から前記視点位置の周辺画像を切り出すことと、
前記周辺画像から特徴量を算出することと、
前記メモリに記憶された複数の物体識別器のうち、前記第1タグ情報が示す対象の前記物体識別器を用いて前記特徴量に対応する対象を特定することを含む、プログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記信号が前記ユーザの関心を示すときに、前記仮想空間において前記ユーザの視線が注がれる対象を特定し、当該対象を前記視点位置に関連付けて前記メモリに保存することを含み、
前記プログラムは前記コンピュータに、前記特定された対象に関する広告を前記ヘッドマウントデバイスに配信するステップをさらに実行させる、プログラム。 - 前記メモリは、複数のパノラマ画像を記憶しており、
前記プログラムは前記コンピュータに、
前記複数のパノラマ画像の中から前記特定された対象に関連するパノラマ画像を特定するステップと、
前記特定されたパノラマ画像を推奨する情報を前記ヘッドマウントデバイスに配信するステップとをさらに実行させる、請求項10〜12のいずれか1項に記載のプログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記信号が前記ユーザの関心を示すときに、前記仮想空間において前記ユーザの視線が注がれる対象を特定し、当該対象を前記視点位置に関連付けて前記メモリに保存することを含み、
前記仮想空間を定義するステップは、パノラマ画像を用いて仮想空間を構成するステップを含み、
前記パノラマ画像は、当該パノラマ画像の種類を表す第2タグ情報を含み、
前記メモリは、複数のパノラマ画像と、対象の種類ごとの物体識別器と、前記対象と前記パノラマ画像の種類との対応関係を保持するテーブルとを記憶しており、
前記対象を特定することは、
前記パノラマ画像から前記視点位置の周辺画像を切り出すことと、
前記周辺画像から特徴量を算出することと、
前記対象の種類ごとに記憶された物体識別器を用いて前記算出した特徴量に対応する対象を特定することとを含み、
前記プログラムは前記コンピュータに、
前記複数のパノラマ画像の中から前記特定された対象に関連するパノラマ画像を特定するステップと、
前記特定されたパノラマ画像を推奨する情報を前記ヘッドマウントデバイスに配信するステップとをさらに実行させ、
パノラマ画像を特定するステップは、前記テーブルを参照して、前記特定された対象に対応する種類の第2タグ情報を含むパノラマ画像を特定することを含む、プログラム。 - 前記仮想空間を定義するステップは、パノラマ画像を用いて仮想空間を構成するステップを含み、
前記プログラムは前記コンピュータに、
前記パノラマ画像と前記メモリに保存された視点位置とからグラフを生成するステップをさらに実行させる、請求項1〜14のいずれか1項に記載のプログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップと、
前記ユーザの前記仮想空間における第1視線方向および前記ヘッドマウントデバイスとは異なる他のヘッドマウントデバイスを使用する他ユーザの前記仮想空間における第2視線方向の入力を受け付けるステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記第1視線方向と前記第2視線方向とが互いに向かい合う場合に、前記視点位置をメモリに保存することを中止することを含む、プログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップと、
前記ユーザの前記仮想空間における第1視座および前記ヘッドマウントデバイスとは異なる他のヘッドマウントデバイスを使用する他ユーザの前記仮想空間における第2視座の入力を受け付けるステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記仮想空間における前記第1視座と前記第2視座との間隔が所定間隔未満である場合に、前記視点位置をメモリに保存することを中止することを含む、プログラム。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラムであって、
前記プログラムは前記コンピュータに、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心を示すときに、前記視点位置をメモリに保存するステップと、
前記ユーザの第1音声信号および前記ヘッドマウントデバイスとは異なる他のヘッドマウントデバイスを使用する他ユーザの第2音声信号の入力を受け付けるステップとを実行させ、
前記視点位置をメモリに保存するステップは、前記第1および第2音声信号が予め定められたレベル以上である場合に、前記視点位置をメモリに保存することを中止することを含む、プログラム。 - 請求項1〜18のいずれか1項に記載のプログラムを格納したメモリと、
前記プログラムを実行するためのプロセッサとを備える、情報処理装置。 - ヘッドマウントデバイスと通信可能なコンピュータによって実行される方法であって、
仮想空間を定義するステップと、
前記ヘッドマウントデバイスの出力に基づいて前記仮想空間における前記ヘッドマウントデバイスのユーザの視点位置を取得するステップと、
前記ユーザの操作または動作を表す信号を受け付けるステップと、
前記信号が表す前記ユーザの操作または動作が前記ユーザの関心に関する予め定められた条件を満たしたときに、前記視点位置をメモリに保存するステップとを備える、方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017104925A JP6298561B1 (ja) | 2017-05-26 | 2017-05-26 | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
| JP2018031368A JP6947661B2 (ja) | 2017-05-26 | 2018-02-23 | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
| US15/989,735 US20180373328A1 (en) | 2017-05-26 | 2018-05-25 | Program executed by a computer operable to communicate with head mount display, information processing apparatus for executing the program, and method executed by the computer operable to communicate with the head mount display |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017104925A JP6298561B1 (ja) | 2017-05-26 | 2017-05-26 | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018031368A Division JP6947661B2 (ja) | 2017-05-26 | 2018-02-23 | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6298561B1 true JP6298561B1 (ja) | 2018-03-20 |
| JP2018200566A JP2018200566A (ja) | 2018-12-20 |
Family
ID=61629131
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017104925A Active JP6298561B1 (ja) | 2017-05-26 | 2017-05-26 | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20180373328A1 (ja) |
| JP (1) | JP6298561B1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019234879A1 (ja) * | 2018-06-07 | 2019-12-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
| WO2020032239A1 (ja) * | 2018-08-09 | 2020-02-13 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| EP3579085A3 (en) * | 2018-06-08 | 2020-04-15 | Capital One Services, LLC | Method and system for tracking virtual reality experiences |
| CN115953813A (zh) * | 2022-12-19 | 2023-04-11 | 北京字跳网络技术有限公司 | 一种表情驱动方法、装置、设备及存储介质 |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11438731B2 (en) * | 2019-03-19 | 2022-09-06 | Nokia Technologies Oy | Method and apparatus for incorporating location awareness in media content |
| EP3901919B1 (en) * | 2019-04-17 | 2025-04-16 | Rakuten Group, Inc. | Display control device, display control method, program, and non-transitory computer-readable information recording medium |
| US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
| US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
| JP7127659B2 (ja) * | 2020-02-07 | 2022-08-30 | カシオ計算機株式会社 | 情報処理装置、仮想・現実合成システム、学習済みモデルの生成方法、情報処理装置に実行させる方法、プログラム |
| CN111580670B (zh) * | 2020-05-12 | 2023-06-30 | 黑龙江工程学院 | 一种基于虚拟现实的园林景观实现方法 |
| US11474672B2 (en) * | 2020-07-27 | 2022-10-18 | Kathleen A. Lappe | Electronic devices and methods for selecting and displaying multimodal content |
| JP7324469B2 (ja) | 2021-06-28 | 2023-08-10 | グリー株式会社 | 情報処理システム、情報処理方法、情報処理プログラム |
| WO2023032173A1 (ja) * | 2021-09-03 | 2023-03-09 | 日本電気株式会社 | 仮想空間提供装置、仮想空間提供方法、及びコンピュータ読み取り可能な記憶媒体 |
| WO2023032172A1 (ja) * | 2021-09-03 | 2023-03-09 | 日本電気株式会社 | 仮想空間提供装置、仮想空間提供方法、及びコンピュータ読み取り可能な記憶媒体 |
| JP7245890B1 (ja) | 2021-11-19 | 2023-03-24 | グリー株式会社 | 情報処理システム、情報処理方法、情報処理プログラム |
| WO2023175699A1 (ja) * | 2022-03-15 | 2023-09-21 | 日本電気株式会社 | 情報処理システム、情報処理方法、およびプログラム |
| WO2023228342A1 (ja) * | 2022-05-26 | 2023-11-30 | 株式会社ジオクリエイツ | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
| CN116310241B (zh) * | 2023-03-31 | 2023-10-13 | 北京易智时代数字科技有限公司 | 虚拟角色的位置控制方法、装置、电子设备和存储介质 |
| EP4443273A1 (en) * | 2023-03-31 | 2024-10-09 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and program |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005071285A (ja) * | 2003-08-28 | 2005-03-17 | New Industry Research Organization | 空間内のインタラクションに応じて詳細度を変更する衝突検出方法及びその方法を用いた仮想空間生成装置 |
| JP4282091B1 (ja) * | 2008-09-04 | 2009-06-17 | 株式会社モバイルビジネスプロモート | 端末装置、情報処理方法及びプログラム |
| WO2013069047A1 (ja) * | 2011-11-07 | 2013-05-16 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
| US20150379770A1 (en) * | 2014-06-27 | 2015-12-31 | David C. Haley, JR. | Digital action in response to object interaction |
| JP6025280B1 (ja) * | 2015-12-28 | 2016-11-16 | 株式会社タッグ | 3次元画像生成サーバ、電子カタログ表示装置、3次元画像表示システム、3次元画像表示方法および3次元画像表示プログラム |
-
2017
- 2017-05-26 JP JP2017104925A patent/JP6298561B1/ja active Active
-
2018
- 2018-05-25 US US15/989,735 patent/US20180373328A1/en not_active Abandoned
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11551645B2 (en) | 2018-06-07 | 2023-01-10 | Sony Interactive Entertainment Inc. | Information processing system, information processing method, and computer program |
| WO2019234879A1 (ja) * | 2018-06-07 | 2019-12-12 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
| EP3579085A3 (en) * | 2018-06-08 | 2020-04-15 | Capital One Services, LLC | Method and system for tracking virtual reality experiences |
| US10747760B2 (en) | 2018-06-08 | 2020-08-18 | Capital One Services, Llc | Method and system for tracking virtual reality experiences |
| US11798597B2 (en) | 2018-08-09 | 2023-10-24 | Geocreates, Inc. | Information output apparatus, information output method and design support system |
| JPWO2020032239A1 (ja) * | 2018-08-09 | 2021-08-12 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP7312465B2 (ja) | 2018-08-09 | 2023-07-21 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2023123787A (ja) * | 2018-08-09 | 2023-09-05 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| WO2020032239A1 (ja) * | 2018-08-09 | 2020-02-13 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP7479735B2 (ja) | 2018-08-09 | 2024-05-09 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP2024091779A (ja) * | 2018-08-09 | 2024-07-05 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| JP7714260B2 (ja) | 2018-08-09 | 2025-07-29 | 株式会社ジオクリエイツ | 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム |
| CN115953813A (zh) * | 2022-12-19 | 2023-04-11 | 北京字跳网络技术有限公司 | 一种表情驱动方法、装置、设备及存储介质 |
| CN115953813B (zh) * | 2022-12-19 | 2024-01-30 | 北京字跳网络技术有限公司 | 一种表情驱动方法、装置、设备及存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180373328A1 (en) | 2018-12-27 |
| JP2018200566A (ja) | 2018-12-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6298561B1 (ja) | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 | |
| JP6240301B1 (ja) | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
| JP6266736B1 (ja) | 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
| US10341612B2 (en) | Method for providing virtual space, and system for executing the method | |
| US10262461B2 (en) | Information processing method and apparatus, and program for executing the information processing method on computer | |
| US10453248B2 (en) | Method of providing virtual space and system for executing the same | |
| US10546407B2 (en) | Information processing method and system for executing the information processing method | |
| JP6298563B1 (ja) | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 | |
| US10545339B2 (en) | Information processing method and information processing system | |
| JP6470356B2 (ja) | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 | |
| US20180247453A1 (en) | Information processing method and apparatus, and program for executing the information processing method on computer | |
| JP6947661B2 (ja) | ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法 | |
| US20190005731A1 (en) | Program executed on computer for providing virtual space, information processing apparatus, and method of providing virtual space | |
| US20180348531A1 (en) | Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor | |
| JP2019128721A (ja) | ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法 | |
| WO2020095368A1 (ja) | 情報処理システム、表示方法およびコンピュータプログラム | |
| JP6470387B1 (ja) | ヘッドマウントデバイスを介して情報を提供するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
| US11882172B2 (en) | Non-transitory computer-readable medium, information processing method and information processing apparatus | |
| US20180373884A1 (en) | Method of providing contents, program for executing the method on computer, and apparatus for providing the contents | |
| JP2019012509A (ja) | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 | |
| US20180247612A1 (en) | Method executed on computer for communicating via virtual space, program for executing the method on computer, and computer apparatus therefor | |
| JP2019106192A (ja) | ヘッドマウントデバイスを介して情報を提供するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
| JP2019192203A (ja) | プログラム、情報処理装置、および方法 | |
| JP7438786B2 (ja) | プログラム、情報処理方法、及び情報処理装置 | |
| JP2018190390A (ja) | 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180126 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180201 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180207 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180223 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6298561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |