[go: up one dir, main page]

JP2018036720A - 仮想空間観察システム、方法及びプログラム - Google Patents

仮想空間観察システム、方法及びプログラム Download PDF

Info

Publication number
JP2018036720A
JP2018036720A JP2016167187A JP2016167187A JP2018036720A JP 2018036720 A JP2018036720 A JP 2018036720A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2016167187 A JP2016167187 A JP 2016167187A JP 2018036720 A JP2018036720 A JP 2018036720A
Authority
JP
Japan
Prior art keywords
virtual space
observation
display
observation direction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016167187A
Other languages
English (en)
Inventor
健太 羽柴
Kenta Hashiba
健太 羽柴
貴信 海上
Takanobu Umigami
貴信 海上
加藤 國彦
Kunihiko Kato
國彦 加藤
栄一 須川
Eiichi Sugawa
栄一 須川
上島 拓
Hiroshi Uejima
拓 上島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Priority to JP2016167187A priority Critical patent/JP2018036720A/ja
Publication of JP2018036720A publication Critical patent/JP2018036720A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 本発明の課題のうちの一つは、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することにある。【解決手段】 本発明に係る仮想空間観察システムは、ディスプレイと、前記ディスプレイの姿勢を検出可能なモーションセンサと、前記ディスプレイ上に、前記モーションセンサにより検出されたディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、を備えた仮想空間観察システムであって、前記情報処理部は、さらに、前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備えている。【選択図】 図20

Description

この発明は、例えば、仮想空間画像を観察する仮想空間観察システムに関する。
ヘッドマウントディスプレイ(HMD)等を用いてユーザの両眼に所定の画像を提示し、それにより、ユーザに仮想的な空間やオブジェクトを知覚させるシステムが近年普及しつつある。このようなヘッドマウントディスプレイを用いた仮想空間の観察システムでは、多くの場合、現実空間と同様の直感的な観察体験を実現するべく、頭部追従(ヘッドトラッキング)機能が実装されている。このヘッドトラッキング機能によれば、ユーザの頭部姿勢と対応したディスプレイ姿勢を変化させることで、仮想空間内における当該ディスプレイ姿勢に応じた方向の所定画角枠内の画像がディスプレイ上に提示される。
例として、特許文献1には、モーションセンサを備えたシースルー型ヘッドマウントディスプレイ上に、ユーザの周囲にインフォメーションベルトと呼ばれる仮想的な選択項目を知覚させる画像を表示する技術が開示されている。この例にあっては、ユーザが、歩行していない状態において、頭部を動かして当該インフォメーションベルトを観察すると、仮想空間上の表示オブジェクトの配置座標を固定した状態で、頭部方向に対応した所定画像が描画される。
特開2016−82411号公報
しかしながら、ヘッドトラッキング機能を備えた仮想空間の観察システムにおいては、現実空間と同様の直感的な観察体験を実現したことから、次のような不都合が存在する。すなわち、起立して或いは椅子などに座って仮想空間の観察を行うユーザが、仮想空間における自身の背面側を観察しようとした場合、ディスプレイと対応する頭部も背面側に向けなければならないため、自身の首や上半身を背面側に捻らなければならない。このとき、首や上半身への負担が大きいばかりか、周囲の視界が遮蔽された没入型のヘッドマウントディスプレイを用いた場合には、周囲を確認することなしに首や上半身を背面側に捻ることとなるから、人や物への接触のおそれから安全上も好ましくない。このような問題は、背面方向を観察する場合のみならず、例えば鉛直上方など他の方向を観察する場合にも同様に生じ得る。
また、上述のヘッドマウントディスプレイを用いた仮想空間の観察システムの場合のみならず、空間に固定された座標系を有する仮想空間内において、ディスプレイ姿勢を検出可能なスマートフォンなどをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムにおいても、やはり所定方向を観察するには当該方向へと当該方向にスマートフォンをかざさなければならないため、同様の問題が生じる。
本発明は、上述の技術的背景に鑑みてなされたものであり、その目的は、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することにある。
この発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者によれば容易に理解されるであろう。
上述の技術的課題は、以下の構成により解決される。
すなわち、本発明に係る仮想空間観察システムは、ディスプレイと、前記ディスプレイの姿勢を検出可能なモーションセンサと、前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、を備えた仮想空間観察システムであって、前記情報処理部は、さらに、前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備えるものである。
このような構成によれば、ヘッドトラッキング処理により直観的な観察体験を提供しつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。
上述の発明において、前記観察方向制御部は、さらに、連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示してもよい。
このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。
上述の発明において、前記所定の画角枠内の画像の連続的な表示は、前記仮想空間における観察地点を中心とする所定の円軌道に沿って行われてもよい。
このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることが可能となるため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。
上述の発明において、前記情報処理部は、さらに、所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備えてもよい。
このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。
上述の発明において、前記ディスプレイと、前記モーションセンサと、前記情報処理部とは、単一の情報処理装置に含まれ、前記仮想空間観察システムは、さらに、前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備えてもよい。
このような構成によれば、頭部装着具へと組み込まれた情報処理装置に備えられたディスプレイとモーションセンサと情報処理部を利用して、ヘッドマウントディスプレイを実現することができる。
上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を操作することにより生成されてもよい。
このような構成によれば、頭部装着具を装着して視界が限定され乃至は皆無の場合であっても、操作子により確実に観察方向制御信号を生成することができる。
上述の発明において、前記観察方向制御信号は、前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものであってもよい。
このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができるので、観察方向の変更動作を自身の観察方向を見失うおそれも少なく、また、直感的かつ簡易な操作で実現することができる。
上述の発明において、前記操作装置は、さらに、前記操作装置の姿勢及び動きを検出する操作装置用モーションセンサを備え、前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成されてもよい。
このような構成によれば、頭部姿勢は変えることなく、操作装置の姿勢又は動きを変えることで仮想空間における観察方向を制御することができる。
上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更するものであってもよい。
このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。
上述の発明において、前記観察方向制御部は、前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更するものであってもよい。
このような構成によれば、操作装置を用いて、直感的に観察方向を変更することができる。
上述の発明において、前記仮想空間観察システムは、さらに、現実世界画像を撮像するカメラを含み、前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示するものであってもよい。
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関する画像のみを変更することができる。
上述の発明において、前記仮想空間観察システムは、さらに、音声入力のためのマイクを備え、前記情報処理部は、さらに、マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備えてもよい。
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。
上述の発明において、前記仮想空間観察システムは、さらに、視線検出のためのカメラを備え、前記観察方向制御部は、さらに、カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備えてもよい。
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。
上述の発明において、前記モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。
このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。
上述の発明において、前記操作装置用モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含むものであってもよい。
このような構成によれば、各センサの検出値から、高精度にディスプレイの姿勢を検出することができる。また、特に、3軸加速度センサ及び3軸地磁気の検出値を利用して、絶対座標系における姿勢を算出することも可能である。
また、本発明は、仮想空間観察方法として観念することもできる。すなわち、仮想空間観察方法は、ディスプレイ上に表示された画像を通じて認識される仮想空間を観察する仮想空間観察方法であって、前記ディスプレイの姿勢を検出するモーション検出ステップと、前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、前記情報処理ステップは、さらに、ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える。
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる方法を提供することができる。
さらに、本発明は、仮想空間観察用コンピュータプログラムとして観念することもできる。すなわち、コンピュータを、上述の仮想空間観察システムにおける情報処理部として機能させる仮想空間観察用コンピュータプログラムとして観念することができる。
このような構成によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができるコンピュータプログラムを提供することができる。
本発明によれば、ディスプレイ姿勢を変化させることなく、仮想空間内における観察方向を任意に変更することができる仮想空間観察システムを提供することができる。これにより、仮想空間内の観察にあたって直観的な観察体験を提供しつつも、身体への負担や安全面への配慮がなされた仮想空間観察システムを提供することができる。
図1は、システムの使用状態を示す説明図である。 図2は、頭部装着具の外観を示す斜視図である。 図3は、頭部装着具へのスマートフォン組み込み手順の説明図である。 図4は、頭部装着具の使用状態を示す説明図である。 図5は、スマートフォンの電気的ハードウエア構成を示すブロック図である。 図6は、コントローラの外観を示す斜視図である。 図7は、コントローラの電気的ハードウエア構成を示すブロック図である。 図8は、遊戯の準備手順に関するフローチャートである。 図9は、モード選択に関するフローチャートである。 図10は、ゲームの初期状態の画面図である。 図11は、視差画像の表示例について示す説明図である。 図12は、全球画像を用いた場合の概念図である。 図13は、ヘッドトラッキング処理に関するフローチャートである。 図14は、座標系に関する説明図である。 図15は、座標系の整合に関する概念図である。 図16は、ヘッドトラッキングの様子について説明する説明図である。 図17は、仮想空間内における移動動作に関する割込処理フローチャートである。 図18は、仮想空間における前進動作に関する説明図である。 図19は、仮想空間内における観察方向の変更動作に関する割込処理フローチャート(その1)である。 図20は、観察方向の変更態様に関する説明図(第1の実施形態)である。 図21は、画格枠の移動軌道についての説明図である。 図22は、仮想空間内における観察方向の変更動作に関する割込処理フローチャート(その2)である。 図23は、観察方向の変更態様に関する説明図(第2の実施形態)である。 図24は、観察方向の変更態様に関する説明図(第3の実施形態)である。 図25は、観察方向の変更態様に関する説明図(第4の実施形態)である。 図26は、パノラマ画像を用いた場合の概念図である。 図27は、半球画像を用いた場合の概念図である。 図28は、主となる情報処理を外部装置にて行う場合の概念図である。 図29は、非没入型の場合の変形例に関する説明図である。
以下に、本発明に係る仮想空間観察用システムの好適な実施の一形態を、添付の図面を参照しながら詳細に説明する。
[1.第1の実施形態]
[1.1 システムの全体構成]
図1に、本発明に係る仮想空間観察システム1の一例の使用状態に関する外観図が示されている。同図から明らかな通り、この例にあっては、仮想空間観察システム1は、ユーザ(又は操作者)40の手に把持される手持ち型の操作装置であるコントローラ10と、ユーザ40の頭部41に頭周ベルト21を介して装着される頭部装着具20と、頭部装着具20の内部に組み込まれる情報処理装置であるスマートフォン50とから構成されている。なお、同図において、スマートフォン50は頭部装着具20の内部に組み込まれているため図示されていない。
[1.2 頭部装着具の構成]
図2〜図4を参照しつつ、頭部装着具20の構成について説明する。図2及び図3に示される通り、頭部装着具20は、前面に開口24を有しかつ後面はユーザ40の両眼43にあてがわれる本体23を有する。この本体23は、ユーザ40の頭部周囲にあてがわれる頭周ベルト21と頭頂部にあてがわれる頭頂ベルト22と結合している。前面開口24には、外側へ開くようにした蓋板25が開閉自在にヒンジ結合されており、この蓋板25によって、前面開口24は閉じられ、蓋板留め具27、28によって両者は固定される。蓋板25の内面側には、表示画面51を内面側に向けて、スマートフォン50が適当な保持具26で固定される。
図3(a)及び図3(b)に、頭部装着具20へのスマートフォン50の組み込み手順の詳細が示されている。まず、図3(a)に示される通り、スマートフォン50は、頭部装着具20の前面の蓋板25を開いた状態において、蓋板25の内面側に配置された4つの保持具26の中央部へと配置されて組み込まれる。スマートフォン50が組み込まれた後の頭部装着具20が図3(b)に示されている。同図から明らかな通り、スマートフォン50は、蓋板25の内面側の保持具26によりその各辺を着脱自在に保持されている。この状態において、雄側の蓋板留め具28と雌側の蓋板留め具27とを係合させて蓋板25を閉じることで、表示画面51を本体23の内面側に向けた状態でスマートフォン50を固定することができる。
ユーザ40が、スマートフォン50の組み込まれた頭部装着具20を頭部41に装着すると、図4に示されるように、操作者40の眼43の前には、仕切り板29に保持された光学系30を介して、スマートフォン50の表示画面51が対面する。そのため、頭部装着具20は、いわゆるヘッドマウントディスプレイ(HMD)として機能する。
[1.3 スマートフォンの構成]
スマートフォン50は、図3又は図6等に示される通り、一方の面の中央部にディスプレイ51、その上下に操作ボタン、スピーカ、インカメラを有し、他方の面にアウトカメラを有している。後に、図5を参照して説明するように、スマートフォン50には、モーションセンサを構成する3軸加速度センサ506、3軸角速度センサ507、及び3軸地磁気センサ508がそれぞれ組み込まれている。そのため、それらのセンサによって、スマートフォン10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
スマートフォンの電気的ハードウェア構成の一例を示すブロック図が、図5に示されている。同図に示されるように、スマートフォン50の電気回路は、制御部501、記憶部502、ディスプレイ部51、入力操作部(タッチパネル)504、入力操作部(ボタン)505、3軸加速度センサ506、3軸角速度センサ507、3軸地磁気センサ508、GPSユニット509、照度センサ510、タイマ511、バッテリ512、振動部513、通信ユニット514、音声出力部515、音声入力部516、スピーカ部517、カメラユニット518、及びコネクタ519を含んで構成される。
制御部501は、スマートフォンの各種動作等を制御するプログラムを実行するCPU等(SoC(System−on−chip)、MCU(Micro Control Unit)、又はFPGA(Field−Programmable Gate Array)などを含む)を備える。
記憶部502は、ROM,RAM又はストレージ等から構成され、スマートフォン50の一般的機能を実現するためのプログラムのほか、後述するゲームプログラムその他の各種のデータが保存される。
ディスプレイ51は、液晶ディスプレイ、有機ELディスプレイ、又は無機ELディスプレイ等の表示デバイスを備えており、文字、図形又は記号等が表示される。このディスプレイ51は、本発明に関連して、ヘッドマウントディスプレイ(HMD)の表示部としても機能する。すなわち、このディスプレイ51の表示画面に、ビデオゲーム等を構成する画像が表示される。この画像は、好ましくは、公知の手法により3D処理が施される。3D表示を行う手法の一例として、ディスプレイ51の横長表示画面を左右に2分割し、それぞれに、視差を有する2つの画像を表示する手法が採用される。
通信ユニット514は、外部機器とLAN又はインターネット等を介して無線通信を行うものである。無線通信規格としては例えば、2G、3G、4G、IEEE802.11、Bluetooth(登録商標)等の規格がある。特に、本発明と関連して、スマートフォン50は、操作部10との間でBluetoothを介して短距離通信を行う。
スピーカ部517は、当該スマートフォンから音楽等を出力するものであり、このスピーカ部517は、本発明に関連して、ゲームサウンドを生成するためにも使用される。
3軸加速度センサ506は、スマートフォン筐体に働く加速度の方向及び大きさを検出するものであり、3軸角速度センサ507はスマートフォン筐体の角度及び角速度を検出するものであり、3軸地磁気センサ508は、地磁気の向きを検出するものである。これら3つのセンサ506、507、508によって、本発明におけるモーションセンサが構成されている。そして、それら3つのセンサ506,507,508の各出力に基づいて、ユーザ40の頭部41の向きが検出される。なお、各センサ506、507、508の詳細については後述する。
カメラユニット518は、例えば、スマートフォン50の筐体の表面又は裏面に設けられるインカメラ又はアウトカメラ等と接続され、静止画像又は動画像を撮像する際に用いられるものである。カメラユニット518は、後述するように、本発明と関連して、ディスプレイ51の背面側に設けられたアウトカメラを用いて現実世界の画像を撮像したり、或いは、ディスプレイ51と同一の面に設けられたインカメラにより視線画像を取得することにも利用可能である。
音声入力部516は、スマートフォン50を用いて通話等を行う際に音声の入力を行うものである(マイク等)。本発明と関連して、後述するように、音声入力部516を介して入力された音声を解析して、スマートフォンやアプリケーションプログラムの種々の操作を行ってもよい。
その他、振動部513は、各種アプリケーションプログラム等で用いられる振動部であり、例えば、電磁コイルを利用した振動機構その他各種の振動モータ等で構成することができる。コネクタ519は、他の機器との接続に用いられる端子である。当該端子は、USB、HDMI(登録商標)等の汎用的な端子であってもよい。音声出力部515は、当該スマートフォンを用いて通話等を行う際に音声出力を行うものである。入力操作部504は例えばタッチ方式の入力操作部であり、指、ペン又はスタイラスペン等の接触検知により、各種の入力を行うものである。GPS(Grand Positioning System)ユニット509は、スマートフォンの位置を検出する。照度センサ510は、照度を検出する。なお、照度とは、光の強さ、明るさ、又は輝度を示す。タイマ511は時間の計測を行うものである。なお、当該タイマはCPU等と一体に設けられても良い。バッテリ512は、充電により、スマートフォンの電源として機能するものである。
[1.4 コントローラの構成]
操作装置であるコントローラ10の外観斜視図が図6に示されている。コントローラ10は、長手方向の前面下部に窪みを有するよう形成されており、当該窪みの背後側に設けられユーザ40が握った時に少なくとも小指、薬指及び親指の付け根にて包まれて手に馴染む形状の握り部11と、前記握り部11と連接されて前記窪みの前面側に設けられた突設部12と、から構成されている。握り部11の上面には、把持した際に親指で操作される第1の操作子14と第2の操作子15が設けられている。突設部の前面側には、上下に、把持した際に人差し指又は中指にて操作される第3の操作子16及び第4の操作子17が設けられている。前記窪みの背面側にあたるコントローラ10の最上面には方向指示操作子13が設けられており、自在な方向指示が可能に構成されている。コントローラ10の側面には、切替式操作子18が設けられている。なお、これらの操作子はいずれも押し続けられている間、連続的に操作信号を生成するモメンタリ式の操作子である。
後に、図7を参照して説明するように、コントローラ10には、操作装置用モーションセンサを構成する3軸加速度センサ1003、3軸角速度センサ1004、及び3軸地磁気センサ1005がそれぞれ組み込まれている。そのため、それらのセンサによって、コントローラ10の位置、姿勢、及び/又は、それらの動きも含めた変化を自在に検知可能とされている。
コントローラ10の電気的ハードウェア構成を示すブロック図が、図7に示されている。同図に示されるように、操作子内部の電気回路は、マイクロプロセッサやASIC等で構成されて、操作子全体を統括制御する制御部1001と.Bluetooth等の短距離通信を実現するための通信ユニット1002と、操作装置用モーションセンサを構成する3つのセンサ、すなわち3軸加速度センサ1003、3軸角速度センサ1004、及び3軸磁気センサ1005と、バッテリ1006と、記憶部1007と、第1の操作子14と連動してオンオフする第1のスイッチ14aと、第2の操作子15と連動してオンオフする第2のスイッチ15aと、第3の操作子16と連動してオンオフする第3のスイッチ16a、第4の操作子17と連動してオンオフする第4のスイッチ17aとを含んで構成されている。
3軸加速度センサ1003とは、当業者にはよく知られているように、X軸・Y軸・Z軸の3方向の加速度を1つのデバイスで測定できるセンサであって、三次元の加速度が検出でき、重力(静的加速度)の計測にも対応できる。3軸加速度センサの多くは、半導体製造技術やレーザ加工技術などの微細加工技術を応用し、シリコン基板上に微小な機械構造を集積化する「微小電気機械素子創製技術(Micro Electro Mechanical Systems、MEMS、メムス、マイクロマシン)」により小型化されたMEMSセンサである。MEMS・3軸加速度センサは、±数gの範囲の測定が可能で、0Hz?数百Hzまでの加速度変動に追従できる「low g」タイプとよばれる。この場合の0Hzというのは、センサに重力加速度のみが加わっている状態であり、このときのX軸・Y軸・Z軸の加速ベクトルの合計から地面に対しての向きを測定することができる。MEMS・3軸加速度センサは、大きく分けて半導体ピエゾ抵抗型3軸加速度センサ、静電容量型3軸加速度センサ、熱検知型(ガス温度分布型)3軸加速度センサの3種類があり、それぞれ加速度の測定方法が異なる。半導体ピエゾ抵抗型3軸加速度センサは、加速度が錘に作用したときに発生するダイアフラムの歪みを検出して加速度を測定する。静電容量型3軸加速度センサは加速度の測定に静電容量の変化を、熱検知型(ガス温度分布型)3軸加速度センサは、ヒータで熱されたガスの移動を利用して加速度を測定する。
3軸角速度センサ1004とは、当業者には、よく知られているように、回転角速度の測定を直交3軸(X軸,Y軸,Z軸)で実現する慣性センサの一種であって、ジャイロセンサとも称される。角速度センサは加速度センサでは反応しない回転の動きを測定する。ジャイロセンサは、回転を検知する方式により分類することができる。現在、最も一般的に民生機器に搭載されているのは、ICタイプのMEMS(Micro Electro Mechanical System)技術を使った振動式ジャイロセンサである。MEMS技術を利用した慣性センサはその名前が示す通り、機械的な動きをする素子と、その信号を処理する電子回路を組み合わせた技術でセンサを構成し、動きを検知する。振動式ジャイロセンサの中には、シリコンを使う静電容量方式と、水晶や他の圧電材料を使うピエゾ方式の種類がある。振動式ジャイロセンサ以外の種別としては、地磁気式、光学式、機械式などがある。3軸は、一般に上下、左右、前後の3つの軸として定義され、上下軸は「ヨー軸」、左右軸は「ピッチ(ピッチング)軸」、前後軸は「ロール軸」と呼ばれることが多い。振動式のジャイロセンサは全てコリオリの力(転向力)を利用して回転を検知する。
3軸地磁気センサ1005とは、当業者には、よく知られているように、磁気センサの一種であって、地磁気の向きを検知し,方位を直交3軸(X軸、Y軸、Z軸)の値で算出するセンサを言う。すなわち、このセンサは、前後方向と左右方向の第1、第2の磁気センサに加えて上下方向の地磁気を検出する第3の地磁気センサを持っている。このため、たとえば、操作子を持つ角度に電子コンパスを傾けた状態でも、何度傾けて持っているかがわかれば、その傾き分を差し引いて水平方向の地磁気を計算し、正しい方位を表示できる。3軸地磁気センサに組み込まれる地磁気センサICで利用されている磁気センサ素子には主に3種類が知られている。それらは、MR(magneto-resistive)素子,MI(magneto-impedance)素子,ホール素子である。MR素子は、例えば外部磁界の強度変化とともに抵抗値が変わるパーマロイ(NiFe)など金属軟磁性体のMR効果、MI素子は外部磁界が変動したときにインピーダンスが変わるアモルファス・ワイヤのMI効果を利用する。ワイヤにはパルス電流を流しておく。ホール素子では,半導体のホール効果によって生じた電位差を検出することで,外部磁界の変化を測定する。地磁気センサICには、一般にこうした磁気センサ素子のほか,駆動回路や増幅回路などを内蔵している。
[1.5 動作]
次に、本実施形態に係る仮想空間観察システムの動作について説明する。
[1.5.1 準備手順]
まず、図8及び図9を参照しつつ、本実施形態に係る仮想空間観察システム1を使用する場合の一連の準備手順について説明する。本実施形態に係る仮想空間観察システム1を使用するユーザ40は、まず、スマートフォン50とコントローラ10との間の近距離無線通信の接続設定を行う(S101)。これにより、スマートフォン50とコントローラ10との間で互いに通信が可能となり、例えば、コントローラ10からの操作信号やコントローラに備えられたモーションセンサ1003、1004、1005の検出値などの各種情報をスマートフォン50へと送信すること等が可能となる。通信規格は、公知のいずれの規格も採用可能であるが、本実施形態ではBluetooth(登録商標)が採用される。
近距離無線通信の接続設定がなされた後、スマートフォン50のタッチパネル504を操作して、アプリケーションプログラムの一覧から仮想空間画像を表示するアプリケーションプログラムを選択する(S102)。この選択操作により、アプリケーションプログラムが起動し、後述するように仮想空間の観察ゲームが開始することができる。なお、このアプリケーションプログラムは、アプリケーションプログラム配信サーバから予めダウンロードされ、記憶部502に記憶されていたものである。
アプリケーションプログラムが起動した状態のスマートフォン50は、図3で示した通りに頭部装着具20へと組み込まれ(S103)、当該頭部装着具20はユーザ40の頭部へと装着される(S104)。これらの工程により、ユーザ40の眼前にスマートフォン50のディスプレイ51が配置され、ユーザに仮想空間を提示することが可能となる。
その後、この例にあっては、アプリケーションプログラムの起動後、所定のモード選択を行う。図9に、モード選択に関するフローチャートが示されている。この例にあっては、「ゲーム開始」、「ゲーム終了」、「ゲーム設定」の3つのモードが用意されており、ユーザ40は、コントローラ10の姿勢や位置又は操作子の操作に対応して画面上に表示されるカーソルを用いて、それら3つの選択肢の中から1つを選択することができる。ユーザ40が、「ゲーム開始」を選択すると後述する仮想空間の観察ゲームが開始する(S202)。ユーザ40が「ゲーム終了」を選択すると、アプリケーションプログラムの実行を終了する(S203)。ユーザ40が「ゲーム設定」を選択すると、各種ゲームの設定処理を行うことができる(S204)。
[1.5.2 仮想空間観察ゲームの動作]
次に、仮想空間観察ゲームの一連の動作について説明する。
[1.5.2.1 ゲームの初期画面]
図10〜図12を参照しつつ、ゲームの初期画面について説明する。ゲームが開始すると(S203)、ディスプレイ51上には、図10に示される初期画面が表示される。同図から明らかな通り、仮想空間におけるユーザ40の視野に対応する画像は、仮想空間における観察方向の画角枠に対応する背景画像52と、コントローラ10の延長上に配置される照準53とから構成されている。このような仮想空間を知覚させる画像により、ユーザ40は、あたかも宇宙空間を探索しているような体験をすることができる。
なお、図10に示される初期画面は、ユーザ40に奥行き感を知覚させるものであり、実際には、スマートフォン50のディスプレイ51上には、図11で示される視差を有するL(左)画像とR(右)画像とが左右に配置されて表示されている。また、背景画像52は、宇宙空間を模擬した仮想空間の一部であり、図12に示される通り、実際には、ユーザ40の周囲には、全球状に画像が空間に固定されるよう配置されている。
[1.5.2.2 ヘッドトラッキング処理]
図13〜図15を参照しつつ、ヘッドトラッキング処理について説明する。ゲームが開始すると(S203)、ヘッドトラッキング処理が同時に開始される。図13に、ヘッドトラッキング処理に関するフローチャートが示されている。処理が開始すると、制御部501は、スマートフォン50に備えられた各モーションセンサ506、507、508の各検出値を取得する(S301)。各検出値の取得後、制御部501は、スマートフォン50の位置座標(すなわち、ユーザ40の頭部41の位置)P(p,q,r)と、当該位置からの観察方向(視線方向)V(θ1,φ1)を演算する(S302)。
スマートフォン50の位置座標Pと観察方向Vとを演算するのに平行して、コントローラ10の制御部1001も、コントローラ10に備えられた各モーションセンサ1003、1004、1005の各検出値を取得する(S303)。各検出値の取得後、制御部1001は、コントローラ10の位置座標Q(u,v,w)と、当該位置からの指示方向U(θ2,φ2)を演算する(S304)。この演算の後、コントローラ10からスマートフォン50へと演算結果が送信される。
ここで、図14を参照しつつ、仮想空間における座標系について説明する。点P(p,q,r)は、仮想空間内におけるスマートフォン50の位置座標であり、当該点Pを中心として、球状に画像が観察される。点Pからの観察方向Vは、観察方向VとX−Y平面(又はX'−Y'平面)とのなす角φ1と、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸(又はX'軸)とのなす角θ1とを用いて定義され、当該観察方向Vの所定画角枠内の画像が観察されることとなる。なお、コントローラ10についても同様に、コントローラ10の位置座標Q(u,v,w)と、その指示方向U(θ2,φ2)として定義される。なお、スマートン50の位置座標PとコントローラQの位置座標とは連動してもよい。
図13に戻り、スマートフォン50の現在位置P及びコントローラ10の現在位置Q、観察方向V及び指示方向Uが算出されると、次に、所定の演算処理により、ディスプレイ51上に最終的に表示される画像の描画領域の特定処理が行われる(S305)。この描画領域は、観察方向Vの延長線上であって観察中心から所定距離離れた位置に存在する平面上の画角枠に対応する領域である。
また、この描画領域が決定した後、指示方向Uの延長線と画角枠内の描画領域とが交点を持つか否か、持つ場合には描画領域上のその座標が演算される。この演算を行うにあたっては、スマートフォン50とコントローラ10の座標系同士を整合させることにより行われる。図15に、座標系同士の整合の概念図が示されている。同図から明らかな通り、スマートフォン50を内部に組み込んだ頭部装着具20の座標系(図15(a))と、コントローラ10の座標系(図15(b))とは、図15(c)で示される通り、座標軸を共用するように整合される。このような座標系の整合により、共通の座標系上で、種々の演算を行うことが可能となる。
描画領域の特定処理(S305)が終了すると、背景画像の描画処理及びディスプレイ51上への表示処理が行われる(S306)。また、上述の処理により、コントローラ10の指示方向Uと描画領域とが交点を持つ場合(S307YES)には、描画領域内に照準有りとして、背景画像上の交点座標に照準が描かれ表示される(S308)。その後、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。一方、コントローラ10の指示方向Uと描画領域とが交点を持たない場合(S307NO)には、描画領域内に照準無しとして、背景画像上に照準を描くことなく、再び各モーションセンサのセンサ検出値を取得し、上述の処理が繰り返される。すなわち、本実施形態に係るヘッドトラッキング処理によれば、ディスプレイ51上には、仮想空間内におけるスマートフォン50の観察方向(又は視線方向)と、コントローラ10の指示方向に対応して、所定の画格枠内の背景画像と照準画像とが、常に表示されることなる。
図16を参照しつつ、ヘッドトラッキング処理がなされる場合の頭部の動きと表示画面との関係について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
図16(a)に示される通り、頭部41が「前方」を向き、操作装置10も「前方」であって画面中央を指示している場合、同図右側に示される通り、前方に配置される所定の背景画像と(S306)、背景画像の中央に照準53が描かれる(S307YES、S308)。
一方、図16(b)に示される通り、頭部41が「右側方」を向き、操作装置10は「前方」を指示している場合、同図右側に示される通り、コントローラ10の指示方向上に頭部41の方向に対応する画角枠が存在しないため、照準53は描かれず(S307NO)、右側方に配置される所定の画格枠内の背景画像のみが描かれる(S306)。
すなわち、ユーザ40の頭部41の向きに応じて所定画角枠内の背景画像が描かれ、当該画像上にコントローラ10の指示方向の延長線との交点が存在する場合には、当該交点座標に対応する位置に照準画像53が描かれることとなる。
[1.5.2.3 仮想空間内における並進移動処理]
次に、図17および図18を参照しつつ、仮想空間内における並進移動動作について説明する。
図17に、仮想空間内における観測地点の並進移動動作についての割込処理フローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の突設部12に設けられた第3の操作子16が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
割込処理が開始されると、まず、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(視線方向)Vを取得する(S401)。次に、当該現在位置Pと現在の観察方向Vとに基づいて、仮想空間内における並進移動処理を行う(S402)。具体的には、現在の観察位置Pから、現在の観察方向VへとΔLの距離だけ観察位置を移動させ、観察位置をPからP'へと移動させる。その後、新たな観察位置P'から観察方向Vに存在する画角枠内の背景画像が、ディスプレイ51上に表示される(S403)。このとき、制御部501は、コントローラ10に関する情報も取得し、コントローラ10の指示方向の延長線上に上記画角枠が存在する場合には、その交点に対応する座標に照準53を描画し表示する(S403)。このようにして、新たな観察位置(又は観察中心)からの所定の観察画像を表示した後、割込処理は終了する(割込リターン)。
図18を参照しつつ、仮想空間内における観察地点の移動動作について詳細に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が示されており、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
図18(a)は、割込処理が行われる直前の状態を示しており、ユーザ40の頭部41は「前方」、コントローラ10の指示方向も「前方」である。また、このとき、眼前には、同図の右側で示される背景画像、及び、その中央に照準53が表示されている。
図18(b)は、図18(a)の状態において第3の操作子16を操作した後の状態を示している。第3の操作子16を操作したことにより、観察方向である「前方」に、ΔLだけ観察位置が移動すると(S402)、この移動に伴って、ΔL離れた新たな観察位置から観測される画像が新たに描画される(S403)。具体的には、同図右側の画面図から明らかな通り、ΔLだけ前方に進んでいることから、前方画像を若干拡大したような画面図が描写され表示される。
このような構成によれば、仮想空間内において観察地点そのものも自在に移動させることができるので、仮想空間内を自在に探索することができる。
[1.5.2.4 仮想空間内における観察方向変更処理]
次に、図19及び図20を参照しつつ、仮想空間内における観察方向の変更処理について説明する。
図19は、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートである。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S501)。現在位置Pと現在の観察方向Vを取得した後、制御部501は、観察方向Vへと所定角度Δθ1を加算し、新たな観察方向V'を得る(S502)。これにより、観察方向VをX−Y平面(又はX'−Y'平面)へと射影した直線とX軸とのなす角が大きくなり、鉛直上方から見た場合に、Z軸(又はZ'軸)まわりに時計回りに水平かつ連続的に観察方向(又は視線方向)が回転することとなる。
この新たな観察方向V'を取得した後、当該観察方向V'に対応する画角枠内の背景画像と、存在する場合には、照準画像が描写され、ディスプレイ51上に表示される(S503)。この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S504YES)、再び所定角度Δθを加算する処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続する限り、所定角度Δθが累積的に加算されていくこととなり、換言すれば、観察方向のZ軸まわりの回転が継続することとなる。
一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S504NO)、観察方向の回転は停止し、それまでのΔθの累積的な加算に基づく総回転量ΔΘが算出される。この総回転量ΔΘを用いて、新たな観察方向に対応するようにコントローラ10の指示方向の基準を補正した後(S505)、割込処理は終了する(割込リターン)。すなわち、ユーザ40は、仮想空間における直近の観察方向を、自身の正面方向と対応付けることができる。
図20を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。
図20(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。このときの仮想空間における観察方向は0度であり、すなわち、現実の頭部41の方向と一致している。
次に、ユーザがコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を継続すると(S504YES)、ユーザ40の頭部41の物理的な方向及びコントローラ10の物理的な方向は変化していないにも拘わらず、仮想空間における観察方向のみが変更される(S502、S503)。図20(b)は、仮想空間における観察方向が回転していく過程において、90度観察方向が変化している状態を示している。このとき、実際の頭部41の方向とは90度のずれが生じている。
図20(c)は、ユーザ40が、押しボタン式の第2の操作子15を介した入力操作を継続し、丁度180度観察方向が変化したところで入力操作を解除した場合(S504NO)の状態を示している。このときも、やはりユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているものの、仮想空間における観察方向は、現実の頭部41方向とは180度ずれている。
すなわち、このような構成によれば、首や上半身を後方に捻ることなく、仮想空間内における観察方向を任意に変更することができる。そのため、ヘッドトラッキング処理を基本としつつも、ディスプレイ姿勢を変化させることなく、必要に応じて仮想空間内における観察方向を任意に変更することができる。
また、仮想空間における観察方向が180度回転した直後に、上述の併進移動処理を行えば、仮想空間においては頭部41の観察方向である180度後方へと観察位置を進めることができる。すなわち、以上の構成によれば、ユーザ40は、仮想空間内を自在に探索することができる。
さらに、このような構成によれば、観察方向が変更されていく過程を連続的な画像を通じて確認することができる。そのため、仮想空間内においてどちらの方向に向かって観察方向を変更しているのかを直感的に把握することができるのと共に、目的とする観察方向までの様子を観察することもできる。
加えて、このような構成によれば、観察方向を回転させると、1周して再び元の方向へと戻って来ることとなる。そのため、仮想空間内において自身の観察方向を見失うおそれが少なくなる。
また、このような構成によれば、水平面に沿って観察方向を回転させることができる。そのため、画面酔いのおそれが少なくなる。
さらに、このような構成によれば、操作子による入力が行われている間だけ観察方向を変更することができる。そのため、観察方向の変更動作を、直感的かつ簡易な操作で実現することができる。
なお、本実形態の例においては、180度後方まで仮想空間における観察方向を変更することとしたが、目標角度はこれに限定されることはなく、例えば、操作子の入力操作を途中で解除すること(すなわち、押しボタンを離すこと)により、観察方向を任意に設定することができる。
[1.6 変形例]
上述の実施形態においては、仮想空間における観察方向に対応する画角枠の移動は、水平面上の円軌道に沿って直線的に行われることとした。しかしながら、本発明はこのような構成に限定されない。
従って、例えば、図21(a)に示されるように、円軌道ではあっても水平面上の円軌道ではなく、他の軌道、例えば、斜め右上方向に画角枠が移動しそのまま1周する軌道、或いは、ほぼ垂直上方に画角枠が移動しそのまま1周する軌道としてもよい。
また、図21(b)に示されるように、直線的な軌道ではなく、他の軌道、例えば、曲線的な軌道に沿って画角枠を移動させてもよい。
[2.第2の実施形態]
図22及び図23を参照しつつ、コントローラ10の姿勢や動きに応じて観察方向の変更処理を行う第2の実施形態について説明する。なお、本実施形態に係る仮想空間観察システムもスマートフォン50、頭部装着具20及びコントローラ10とから成り、各装置のハードウエア構成は第1の実施形態において説明したものと、以下の点を除き、略同一であるから、ここではハードウエア構成に関する説明を割愛する。
図22には、仮想空間内における観察方向の変更動作に関する割込処理のフローチャートが示されている。この例にあっては、上述のヘッドトラッキング処理が実行されている状態において、コントローラ10の握り部11に設けられた押しボタン式の第2の操作子15が操作されると、ヘッドトラッキング処理に対する割込処理が開始する。
割込処理が開始すると、スマートフォン50の制御部501は、各モーションセンサ506、507、508の検出値などに基づいて、スマートフォン50(又はユーザ40の頭部41)の仮想空間上における現在位置Pと、現在の観察方向(すなわち、視線方向)Vを取得する(S601)。
次に、コントローラ10は、各モーションセンサ1003、1004、1005の検出値などに基づいて、コントローラ10の仮想空間上における現在位置Q(u,v,w)と、コントローラ10の現在の指示方向U(θ2,φ2)とを取得し、それらをスマートフォン50へと送信する(S602)。
その後、制御部501は、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標を演算し、当該座標を始点として記憶する(S603)。その後、コントローラ10を移動させると、コントローラ10の指示方向の延長線と仮想空間における観察方向Vに対応する画角枠内の画像領域との交点座標が指示点として演算され、上述の始点と指示点との相対的位置関係に対応して、画角枠、すなわち観察方向Vが前記始点を中心として点対称に移動される(S604)。この画角枠の移動に応じて所定の背景画像、及び、存在する場合には照準が表示される(S605)。
この表示処理の後、未だ押しボタン式の第2の操作子15において入力操作が継続されていると検出された場合には(S606YES)、再び指示点の演算処理からの処理が繰り返される。すなわち、押しボタン式の第2の操作子15において入力操作が継続された状態で、コントローラ10の指示点を変更することで、上述の始点を基準として、所謂ドラッグを行うかのように点対称に、画角枠乃至は観察方向を変更することができる。
一方、表示処理の後、押しボタン式の第2の操作子15において入力操作が検出されなかった場合(S606NO)、新たな観察方向と対応するようにコントローラ10の指示方向の基準を補正し(S607)、割込処理を終了する(割込リターン)。
図23を参照しつつ、観察方向が変更される態様に関して具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
図23(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。
次に、ユーザ40は、図23(b)に示される通り、画像を確認しつつ、コントローラ10の指示方向の延長に描画された照準53を用いて、始点とした領域、すなわち、この例にあっては、右上の輪を伴う惑星のやや下の領域を指示し、その状態でコントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される(S603)。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称に前記画角枠、すなわち、観察方向が移動する(S604、S605、S606YES)。
図23(c)は、第2の操作子15の入力状態を維持しつつ、図23(a)の状態へと再びコントローラ10を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると(S606NO)、上述の割込処理が終了する。このような一連の操作によれば、コントローラ10を用いて、始点とした所望の領域を仮想空間における自身の正面方向へと配置させることができる。特に、画面中央を終点として、照準を移動させれば、所望の観察方向をユーザ40の正面中心に配置することができる。
すなわち、このような構成によれば、画角枠内の画像の所定領域を始点として、ドラッグするかのように仮想空間内における観察方向を変更することができる。
[3.第3の実施形態]
次に、第3の実施形態に係る仮想空間観察システムについて説明する。第3の実施形態に係る仮想空間観察システムの基本的な構成は、第2の実施形態に係る仮想空間観察システムと略同一である。すなわち、仮想空間内における観察方向を、頭部41の姿勢によらず、コントローラ10の姿勢や動きの変化により変更することができる。しかしながら、第2の実施形態とは異なり、第3の実施形態においては、所定画角枠内の所定領域を始点として指示領域を移動させたときに、始点を中心として、所定画角枠又は観察方向が点対称に移動するのではなく、始点と指示領域との間の相対的位置関係と一致するように移動する。
図24を参照しつつ、第3の実施形態に係る観察方向の変更態様について具体的に説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図右側には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が示されている。
図24(a)に示される通り、初期状態において、ユーザ40の頭部41は「前方」、コントローラ10は「前方」へと向けられているので、ユーザ40の眼前のディスプレイ51には、正面方向の画角枠内の背景画像と照準53とが表示されている。この状態において、コントローラ50に備えられた押しボタン式の第2の操作子15の入力操作を行うと(押しボタンを押すと)、本実施形態に係る割込処理が開始すると共に、照準53の位置と対応する指示領域が始点として記憶される(S603)。この例にあっては、始点は画面の中心である。
次に、図24(b)に示される通り、ユーザ40は、第2の操作子15への入力状態を保持したまま(押しボタンを押したままの状態で)、コントローラ10を右側方へと90度移動する。このとき、ディスプレイ51上には、その過程において観察方向が前方画像から右側方画像まで所定画角枠内の画像が連続的に表示され、最終的に図24(b)の右側の図に示される右側方を向いたときの画像が表示される。このコントローラ10が右側方を向いた状態において、第2の操作子15の入力状態を解除する(押しボタンを離す)ことで、観察方向の変更動作は終了する。
その後、ユーザ40がコントローラ10を前方へと戻した後、照準53に関する所定のキャリブレーション操作などを行い、コントローラ10を前方中心に向けたときに照準53が再び中心と来るように設定すれば、図24(c)に示される通り、実際に首を右側方へと向けることなく、仮想空間上の観察方向のみを右側方へと向けることができる。
以上の構成によれば、コントローラ10を用いた直感的な操作により、観察方向を変更することができる。
[4.第4の実施形態]
次に、第4の実施形態に係る仮想空間観察システムについて説明する。第1〜第3の実施形態に係る仮想空間観察システムは、没入型の頭部装着具20を用いてディスプレイ51上に完全に仮想的な空間画像を表示させるものであった。本実施形態では、ディスプレイ上に現実の世界画像を表示し、その上に特定のオブジェクト画像を表示させる所謂AR(Augmented Reality)技術への本発明の展開例を示す。本実施形態におけるスマートフォン50は、そのアウトカメラからの画像をカメラユニット518を介して制御部51へと取り込み、当該画像をディスプレイ51上に表示することができる。なお、仮想空間における観察方向の変更手法は第2の実施形態に係る仮想空間観察システムのそれと類似する。
図25を参照しつつ、観察方向の変更態様について説明する。なお、同図左側には、コントローラ10を右手に把持し、頭部装着具20を頭部41に装着したユーザ40を鉛直上方から観察した姿が、同図中央には、頭部41の向き及びコントローラ10の向きに対応してディスプレイ51を介して観察される所定画角枠内の画像が、同図右側には、仮想空間内における水平面上の観察方向を矢印で示した概念図が示されている。
図25(a)から明らかな通り、初期状態において、ヘッドトラッキング機能を備えたスマートフォン50を組み込んだ頭部装着具20を頭部41へと装着したユーザ40が、右側方を観察すると、右側方に存在する現実の道路画像上に、モンスターの形状を有するオブジェクト画像が重畳されて表示されて確認される。
図25(b)に示される通り、右側方へと仮想空間における観察方向を変更したいユーザ40は、その頭部41を前方へと向けた後、コントローラ10を把持した右手を側方に伸ばし、押しボタン式の第2の操作子15の入力操作を行う(押しボタンを押す)。これにより、本実施形態に係る割込処理が開始すると共に、当該領域が始点として記憶される。その後、第2の操作子15の入力状態を維持したまま、コントローラ10の指示領域に応じた照準53を移動させることで、前記始点と指示領域との関係とは点対称な態様で前記画角枠、すなわち、観察方向が右側方へと90度回転する。
図25(c)は、第2の操作子15の入力状態を維持しつつ、図25(a)の状態へと再びコントローラ10の位置及び姿勢を戻した状態を表している。この状態において、ユーザが第2の操作子15の入力状態を解除すると、上述の割込処理が終了する。同図から明らかな通り、当初、ユーザ40の右側方に存在したオブジェクト画像は、ユーザ40の前方の現実世界画像に重畳されて表示されている。
すなわち、このような構成によれば、首や上半身を捻ることなく、仮想空間内における観察方向を任意に変更することができ、これにより、重畳させる仮想空間に関するオブジェクト画像のみを変更することができる。
[5.その他]
[5.1 音声入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、音声を用いて仮想空間における観察方向の制御を行ってもよい。
本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、音声入力部516を介して入力された音声を公知の音声解析アルゴリズムにより解析する音声入力処理部が設けられている。
音声入力処理部では、音声入力部516を介して「回転」との音声が入力されたことを検出すると、仮想空間内における観察方向を所定の方向、例えば右方向へと水平回転させる。また、「停止」との音声が入力されたことを検出すると、仮想空間内において回転中の観察方向を停止させる。すなわち、ユーザ40は、「回転」と「停止」の言葉を用いて自在に観察方向を変更することができる。なお、検出される言葉はこれらの言葉に限定されることはなく、命令にあたっては種々の言葉が採用可能である。
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。
[5.2 視線入力を用いた変形例]
上述の実施形態においては、ディスプレイ姿勢の変化を伴わない仮想空間における観察方向の制御にあたり、コントローラ10の操作信号或いはコントローラの姿勢及び/又は動きを利用したが、本発明はこのような構成に限定されない。従って、例えば、視線を用いて仮想空間における観察方向の制御を行ってもよい。
本変形例においては、コントローラ10自体を用いないか、或いは、コントローラ10を仮想空間における観察方向の制御には用いない。その代わりに、スマートフォン50の制御部501には、ディスプレイ51と同一の面に設けられたインカメラにより撮像された画像をカメラユニット518を介して制御部501へと取り込む。本変形例において、制御部501には、インカメラ画像に基づいて、公知の視線検出アルゴリズムによりユーザ40の視線を検出し、画面上のどの領域を見ているかを推定する視線検出処理部が設けられている。
この視線検出処理部は、画像内の所定の領域に所定時間以上視線が置かれた場合には、当該領域を注視領域とし、当該注視領域が観察方向の中心となるように視線方向を変更する。すなわち、頭部姿勢などを変化させることなく、視線のみにより、仮想空間内における観察方向を変更することができる。
このような構成によれば、観察方向の変更操作にあたって何ら操作装置などを持つ必要がなく、両手が自由になるとともに、頭部装着具を装着して視界が限定され又は皆無の状態であっても、適格に仮想空間内における観察方向の変更を行うことができる。
[5.3 その他の変形例]
上述の実施形態においては全球状の仮想空間を想定したが、本発明はこのような構成に限定されない。従って、例えば、図26に示されたパノラマ画像のような仮想空間を採用してもよいし、或いは、図27に示された半球状の仮想空間を採用してもよい。
また、上述の実施形態においては、制御部501がスマートフォン50の中等に含まれるものとしたが、本発明はこのような構成に限定されない。従って、例えば、図28に示されるように、情報処理部70を外部の装置として設け、比較的に演算コストの高い処理、或いはすべての演算処理を、当該外部の情報処理部70にて行う構成としてもよい。
さらに、上述の実施形態においては、ディスプレイ51以外の視界が遮られた、所謂没入型のヘッドマウントディスプレイが採用されていたものの、本発明はこのような構成に限定されない。従って、例えば、空間に固定された座標系を有する仮想空間内において、ディスプレイ51姿勢を検出可能なスマートフォン50などをかざすことにより、当該かざした方向の様子を観察する仮想空間観察システムを採用してもよい。
図29は、空間に固定された座標系を有する仮想空間をスマートフォン50をかざすことにより観察する非没入型の仮想空間観察システムについての説明図である。図29(a)に示される通り、例えば、椅子などに座ったユーザ40は、手に持ったスマートフォン50のディスプレイ51を介して、周囲の仮想空間画像を確認することができる。スマートフォン50にはモーションセンサが組み込まれているので、スマートフォンの姿勢を変えることにより、仮想空間内の観察方向を変更することができる。このような状態において、ユーザ40が左右の仮想空間を観察するには、図29(b)に示される通り、首や上半身を左右へと捻り手に持ったスマートフォンを左右方向へとそれぞれ向けなければならず、やはりこの仮想空間観察システムにおいても仮想空間における観察方向の変更に伴う身体への負担が大きい。そこで、この例にあっては、図29(c)に示される通り、ディスプレイ51の背景画像52の右下の領域に、ディスプレイ姿勢を変えることなく仮想空間において観察方向を変更するためのソフトウエアボタンが設けられている。このソフトウエアボタンは、観察位置(又は観察中心)を観察方向へと進める前進動作ボタン54、右方向へと水平面上を回転させる右回転ボタン56、左方向へと水平面上を回転させる左回転ボタン58、上方向へと垂直に回転させる上回転ボタン55、下方向へと垂直に回転させる下回転ボタン57とを有しており、いずれのソフトウエアボタンも押下の間、入力信号が連続して生成されるモメンタリ式である。
このような構成によれば、ディスプレイを任意の方向に向けることなく、ソフトウエアボタンを操作することにより、仮想空間における観察方向を任意に変更することができる。
なお、上述の実施形態ではいずれも仮想空間観察システムとして説明したが、それを構成する装置、その処理過程としての方法或いはプログラムとして観念することができることは勿論である。特に、上述の実施形態においては、汎用的なスマートフォン50を頭部装着具20へと組み込む構成としたが、本発明はこのような構成に限定されず、仮想空間観察システム専用のヘッドマウントディスプレイとして構成してもよい。
また、上述の説明では、ゲームを例示しつつ仮想空間観察システムについて説明したが、本発明はゲーム用途に限定されない。従って、本発明をあらゆる用途の仮想空間観察システムに適用可能であることは勿論である。
本発明によれば、仮想空間観察システムが提供される。これにより、例えば、仮想空間内を観察又は探索するビデオゲームなどを提供することができる。
1 仮想空間観察システム
10 コントローラ
11 握り部
12 突設部
13 方向指示操作子
14 第1の操作子
15 第2の操作子
16 第3の操作子
17 第4の操作子
18 切替式操作子
1001 制御部
1002 通信ユニット
1003 3軸加速度センサ
1004 3軸角速度センサ
1005 3軸地磁気センサ
1006 バッテリ
20 頭部装着具
21 頭周ベルト
22 頭頂ベルト
23 本体
24 開口
25 蓋板
26 保持具
27 雌側の蓋板留め具
28 雄側の蓋板留め具
29 仕切り板
30 光学系
40 ユーザ
41 頭部
43 眼
50 スマートフォン(又は情報処理装置)
51 ディスプレイ
52 背景画像
52L 左眼用画像
52R 右眼用画像
53 照準
501 制御部
502 記憶部
504 入力操作部(タッチパネル)
505 入力操作部(ボタン)
506 三軸加速度センサ
507 三軸角速度センサ
508 三軸地磁気センサ
509 GPSユニット
510 照度センサ
511 タイマ
512 バッテリ
513 振動部
514 通信ユニット
515 音声出力部
516 音声入力部
517 スピーカ部
518 カメラユニット
519 コネクタ
54 前進動作ボタン
55 上回転ボタン
56 右回転ボタン
57 下回転ボタン
58 左回転ボタン
70 情報処理部

Claims (17)

  1. ディスプレイと、
    前記ディスプレイの姿勢を検出可能なモーションセンサと、
    前記ディスプレイ上に、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理部と、
    を備えた仮想空間観察システムであって、
    前記情報処理部は、さらに、
    前記仮想空間観察システムのユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御部を備える、仮想空間観察システム。
  2. 前記観察方向制御部は、さらに、
    連続的な観察方向制御信号に応じて、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示する、請求項1に記載の仮想空間観察システム。
  3. 前記所定の画角枠内の画像の連続的な表示は、前記仮想空間における観察地点を中心とする所定の円軌道に沿って行われる、請求項2に記載の仮想空間観察システム。
  4. 前記情報処理部は、さらに、
    所定の観察地点移動信号に応じて、前記仮想空間における観察地点を直近の観察方向へと所定距離移動させる観察地点制御部を備える、請求項3に記載の仮想空間観察システム。
  5. 前記ディスプレイと、前記モーションセンサと、前記情報処理部とは、単一の情報処理装置に含まれ、
    前記仮想空間観察システムは、さらに、
    前記ディスプレイが眼前に配置されるように前記情報処理装置を組込可能であって、ユーザの頭部に装着可能な頭部装着具と、
    所定の操作子を有し、前記情報処理装置と有線又は無線により通信接続可能な手持ち型又は身体装着型の操作装置と、を備える、請求項1に記載の仮想空間観察システム。
  6. 前記観察方向制御信号は、前記操作装置の前記操作子を操作することにより生成される、請求項5に記載の仮想空間観察システム。
  7. 前記観察方向制御信号は、
    前記操作装置の前記操作子を用いて入力操作が行われている間、前記仮想空間内における前記観察方向を連続的に変更し、それにより、前記ディスプレイ上に前記観察方向に対応する所定の画角枠内の画像を連続的に表示するものである、請求項6に記載の仮想空間観察システム。
  8. 前記操作装置は、さらに、前記操作装置の姿勢及び動きを検出する操作装置用モーションセンサを備え、
    前記観察方向制御信号は、前記操作装置の姿勢又は動きに応じて生成される、請求項5に記載の仮想空間観察システム。
  9. 前記観察方向制御部は、
    前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点を中心として、前記指示領域の移動とは点対称に観察方向を変更する、請求項8に記載の仮想空間観察システム。
  10. 前記観察方向制御部は、
    前記操作装置により所定の方向を指示しているときの画角枠内の指示領域を始点とし、前記始点から指示領域が移動した場合に、前記始点と前記指示領域との相対的位置関係と一致するように観察方向を変更する、請求項8に記載の仮想空間観察システム。
  11. 前記仮想空間観察システムは、さらに、
    現実世界画像を撮像するカメラを含み、
    前記情報処理部は、前記ディスプレイ上に、前記現実世界画像を表示すると共に、前記現実世界画像に重畳して、前記所定の画角枠内の画像に代えて、前記モーションセンサにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画像を表示する、請求項1に記載の仮想空間観察システム。
  12. 前記仮想空間観察システムは、さらに、
    音声入力のためのマイクを備え、
    前記情報処理部は、さらに、
    マイク入力に基づいて、前記観察方向制御信号を生成し、それにより、前記仮想空間内における前記観察方向を変更する音声入力処理部を備える、請求項1に記載の仮想空間観察システム。
  13. 前記仮想空間観察システムは、さらに、
    視線検出のためのカメラを備え、
    前記観察方向制御部は、さらに、
    カメラ入力に基づいて、前記所定画角枠内の画像内の注視領域を検出し、所定時間以上、同一の領域が注視されたことが検出された場合に、当該領域が画像の中心となるよう観察方向を変更する視線検出処理部を備える、請求項1に記載の仮想空間観察システム。
  14. 前記モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含む、請求項1に記載の仮想空間観察システム。
  15. 前記操作装置用モーションセンサは、少なくとも3軸加速度センサ、3軸角速度センサ、及び3軸地磁気センサを含む、請求項5に記載の仮想空間観察システム。
  16. ディスプレイ上に表示された画像を通じて認識される仮想空間を観察する仮想空間観察方法であって、
    前記ディスプレイの姿勢を検出するモーション検出ステップと、
    前記ディスプレイ上に、前記モーション検出ステップにより検出された前記ディスプレイの姿勢に対応して、仮想空間内における所定の観察方向の所定画角枠内の画像を表示する情報処理ステップと、を備え、
    前記情報処理ステップは、さらに、
    ユーザによる所定の操作に基づいて前記ディスプレイの姿勢変化とは無関係に生成された観察方向制御信号に応じて、前記仮想空間内における観察方向を変更する観察方向制御ステップを備える、仮想空間観察方法。
  17. コンピュータを、請求項1に記載の仮想空間観察システムにおける情報処理部として機能させるためのコンピュータプログラム。
JP2016167187A 2016-08-29 2016-08-29 仮想空間観察システム、方法及びプログラム Pending JP2018036720A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167187A JP2018036720A (ja) 2016-08-29 2016-08-29 仮想空間観察システム、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167187A JP2018036720A (ja) 2016-08-29 2016-08-29 仮想空間観察システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2018036720A true JP2018036720A (ja) 2018-03-08

Family

ID=61567523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167187A Pending JP2018036720A (ja) 2016-08-29 2016-08-29 仮想空間観察システム、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2018036720A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (ja) * 2018-05-01 2019-11-07 株式会社カプコン ゲームプログラム及びゲーム装置
WO2019231090A1 (ko) * 2018-05-29 2019-12-05 삼성전자 주식회사 외부 전자 장치의 위치 및 움직임에 기반하여 외부 전자 장치와 관련된 객체를 표시하는 전자 장치 및 방법
JP2020107092A (ja) * 2018-12-27 2020-07-09 株式会社コロプラ プログラム、方法および情報処理装置
CN111461020A (zh) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 不安全使用手机行为的识别方法、设备及相关存储介质
WO2020166582A1 (ja) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
JP2020134620A (ja) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
CN112330823A (zh) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、设备及可读存储介质
JPWO2023106353A1 (ja) * 2021-12-07 2023-06-15
JPWO2023106354A1 (ja) * 2021-12-07 2023-06-15
JP2023091513A (ja) * 2021-12-20 2023-06-30 株式会社Psychic VR Lab 仮想現実表示装置、仮想現実表示システム、仮想現実表示プログラム、仮想現実表示プログラムが記録された記憶媒体、及び仮想現実表示方法
JP2024018887A (ja) * 2022-07-29 2024-02-08 小派科技(上海)有限責任公司 インテリジェント端末、ハンドヘルドデバイス、仮想システム及びインテリジェント端末の空間位置決め方法
WO2025225189A1 (ja) * 2024-04-23 2025-10-30 ソニーグループ株式会社 情報処理システムおよび情報処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728591A (ja) * 1993-05-13 1995-01-31 Toshiba Corp 空間操作マウスシステム及び空間動作パターン入力方法
JP2009205245A (ja) * 2008-02-26 2009-09-10 Nikon Corp 画像再生システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JP2014002748A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置及びその制御方法
JP2014153802A (ja) * 2013-02-06 2014-08-25 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2017055173A (ja) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP2017138832A (ja) * 2016-02-04 2017-08-10 株式会社コロプラ 仮想空間の提供方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728591A (ja) * 1993-05-13 1995-01-31 Toshiba Corp 空間操作マウスシステム及び空間動作パターン入力方法
JP2009205245A (ja) * 2008-02-26 2009-09-10 Nikon Corp 画像再生システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JP2014002748A (ja) * 2012-06-20 2014-01-09 Samsung Electronics Co Ltd 遠隔制御装置及びその制御方法
JP2014153802A (ja) * 2013-02-06 2014-08-25 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2017055173A (ja) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP2017138832A (ja) * 2016-02-04 2017-08-10 株式会社コロプラ 仮想空間の提供方法、およびプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (ja) * 2018-05-01 2019-11-07 株式会社カプコン ゲームプログラム及びゲーム装置
US11442274B2 (en) 2018-05-29 2022-09-13 Samsung Electronics Co., Ltd. Electronic device and method for displaying object associated with external electronic device on basis of position and movement of external electronic device
WO2019231090A1 (ko) * 2018-05-29 2019-12-05 삼성전자 주식회사 외부 전자 장치의 위치 및 움직임에 기반하여 외부 전자 장치와 관련된 객체를 표시하는 전자 장치 및 방법
JP2020107092A (ja) * 2018-12-27 2020-07-09 株式会社コロプラ プログラム、方法および情報処理装置
JP7271171B2 (ja) 2018-12-27 2023-05-11 株式会社コロプラ プログラム、方法および情報処理装置
JP7167760B2 (ja) 2019-02-15 2022-11-09 株式会社Jvcケンウッド 画像調整システム
JP2020134620A (ja) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
WO2020166582A1 (ja) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
CN111461020A (zh) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 不安全使用手机行为的识别方法、设备及相关存储介质
CN111461020B (zh) * 2020-04-01 2024-01-19 浙江大华技术股份有限公司 不安全使用手机行为的识别方法、设备及相关存储介质
CN112330823A (zh) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、设备及可读存储介质
CN112330823B (zh) * 2020-11-05 2023-06-16 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、设备及可读存储介质
JPWO2023106353A1 (ja) * 2021-12-07 2023-06-15
JPWO2023106354A1 (ja) * 2021-12-07 2023-06-15
JP2023091513A (ja) * 2021-12-20 2023-06-30 株式会社Psychic VR Lab 仮想現実表示装置、仮想現実表示システム、仮想現実表示プログラム、仮想現実表示プログラムが記録された記憶媒体、及び仮想現実表示方法
JP2024018887A (ja) * 2022-07-29 2024-02-08 小派科技(上海)有限責任公司 インテリジェント端末、ハンドヘルドデバイス、仮想システム及びインテリジェント端末の空間位置決め方法
JP7654274B2 (ja) 2022-07-29 2025-04-01 小派科技(杭州)有限公司 インテリジェント端末、ハンドヘルドデバイス、仮想システム及びインテリジェント端末の空間位置決め方法
WO2025225189A1 (ja) * 2024-04-23 2025-10-30 ソニーグループ株式会社 情報処理システムおよび情報処理方法

Similar Documents

Publication Publication Date Title
JP2018036720A (ja) 仮想空間観察システム、方法及びプログラム
JP5944600B1 (ja) 頭部装着型ディスプレイを備えた情報処理装置
US20220283646A1 (en) Hand gesture-based emojis
US11353967B2 (en) Interacting with a virtual environment using a pointing controller
CN108780360B (zh) 虚拟现实导航
JP6355978B2 (ja) プログラムおよび画像生成装置
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
EP3156110A1 (en) Information processing device provided with head-mounted display
JP2020149584A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
WO2017136125A2 (en) Object motion tracking with remote device
EP2466440B1 (en) Display control program, display control apparatus, display control system, and display control method
JP6523233B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2013258614A (ja) 画像生成装置および画像生成方法
JP2015231445A (ja) プログラムおよび画像生成装置
WO2018047384A1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム、当該情報処理方法が実行される情報処理装置、及び情報処理システム
JP2018037034A (ja) 情報処理システム
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
CN109844600A (zh) 信息处理设备、信息处理方法和程序
JPWO2009072471A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP4413203B2 (ja) 画像呈示装置
JP4678428B2 (ja) 仮想空間内位置指示装置
JP2018032217A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6278546B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020140618A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2013212316A (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200909