[go: up one dir, main page]

JP2005038008A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2005038008A
JP2005038008A JP2003197267A JP2003197267A JP2005038008A JP 2005038008 A JP2005038008 A JP 2005038008A JP 2003197267 A JP2003197267 A JP 2003197267A JP 2003197267 A JP2003197267 A JP 2003197267A JP 2005038008 A JP2005038008 A JP 2005038008A
Authority
JP
Japan
Prior art keywords
virtual object
image
annotation
watched
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003197267A
Other languages
English (en)
Inventor
Hideo Noro
英生 野呂
Yasuhiro Okuno
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003197267A priority Critical patent/JP2005038008A/ja
Publication of JP2005038008A publication Critical patent/JP2005038008A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】観察者の興味に応じて仮想物体に関する情報の表示制御を行う技術を提供すること。
【解決手段】仮想空間画像生成部302はHMDの位置姿勢に応じた仮想オブジェクトの画像を生成する。アノテーションデータ表示制御部303は注視している仮想オブジェクトのIDを特定し、仮想オブジェクトが注視され続けている時間tをカウントする。t≧T1の場合、仮想空間画像生成部302は上記IDに対応するアノテーションデータを用いて、アノテーションの画像を生成し、仮想オブジェクトの位置から若干ずれた位置に位置させる。合成部305は、入力した現実空間の画像と仮想空間の画像(生成した仮想オブジェクトの画像、t≧T1の場合には更に、生成したアノテーションの画像)との合成画像を生成する。
【選択図】 図3

Description

【0001】
【発明の属する技術分野】
本発明は、頭部装着型表示装置を介して見える仮想物体に関する情報を頭部装着型表示装置を装着する観察者に対して提示する技術に関するものである。
【0002】
【従来の技術】
近年、複合現実感技術(MR技術)に関する研究が盛んに行われている。複合現実感技術とは、現実空間と仮想空間とを融合した空間(複合現実空間)を観察者に対して提供するための技術である。観察者に対して複合現実空間を提供する方法としては一般には、観察者の頭部に装着されたHMD(ヘッドマウントディスプレイ)に備わっている表示画面上に複合現実空間を表す画像を表示するという方法がある。
【0003】
MR技術の応用としては例えば、現実空間における空き地に仮想物体としてCG(Computer Graphics)で表現されたビルを建てたり、観察者の周囲に仮想物体としてCGで表現された魚を泳がせたりといったことができる。
【0004】
CGのビルにしても、CGの魚にしても、観察者はCGで表示されたそれら物体に関する情報を知りたいと思うことがある。魚の場合であれば、俗称や学名、食餌、体長や主な生息地等である。よってその場合には、物体に関する情報をアノテーションとして観察者に提示する必要があるので、HMDの表示画面上において、物体のCG近傍にアノテーションのデータを表示させ、観察者に物体の情報を提示する。
【0005】
このアノテーションを表示する際に、背景色に対してアノテーションが目立つように色調整する技術が従来から開示されている(例えば特許文献1を参照)。この技術として例えば、
・ 色変更が所定値以上の場合は、表示位置を変更する。
【0006】
・ テキストの色を設定するために、テキスト情報を囲むバウンダリーボックス領域内の現実画像の色の平均値を求め、その補色をテキスト色として設定する。
がある。
【0007】
【特許文献1】
特開2002−163670号公報
【0008】
【発明が解決しようとする課題】
しかしながら、HMDの表示画面上に多数の物体が表示されると、それに伴って夫々の物体に対するアノテーションも同時に表示されることになるので、HMDの表示画面はアノテーションが込み入って表示されることになり、この表示画面を見る観察者に不快感を与える。また、臨場感やMR特有の感覚である現実との融合感が著しく損なわれることにもなる。
【0009】
また、情報提示をする物体の数を絞り、夫々の物体のCGとアノテーションを一定時間間隔やあるコンテンツ制作者の定めるシナリオやストーリーに沿った順で表示する場合も考えられるが、この場合、コンテンツ制作者は制作にあたって情報提示のタイミングを考慮しなければならず、更に観察者にとっては必ずしも自分が知りたい物体の情報が提示されているわけではないので、フラストレーションがたまる、という問題がある。
【0010】
本発明は以上の問題に鑑みてなされたものであり、その目的は、観察者の興味に応じて仮想物体に関する情報の表示制御を行う技術を提供することにある。
【0011】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
【0012】
すなわち、頭部装着型表示装置と接続しており、外部の計測装置によって計測された前記頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して前記頭部装着型表示装置の表示部に出力する画像処理装置が行う画像処理方法であって、
前記計測装置によって計測された位置姿勢情報を参照して、前記仮想空間内に設定されたオブジェクトのうち、注視されているオブジェクトを特定する特定工程と、
当該特定工程で特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報を前記表示部上に表示する表示制御工程と
を備えることを特徴とする。
【0013】
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
【0014】
すなわち、頭部装着型表示装置と接続しており、外部の計測装置によって計測された前記頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して前記頭部装着型表示装置の表示部に出力する画像処理装置であって、
前記計測装置によって計測された位置姿勢情報を参照して、前記仮想空間内に設定されたオブジェクトのうち、注視されているオブジェクトを特定する特定手段と、
当該特定手段が特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報を前記表示部上に表示する表示制御手段とを備えることを特徴とする。
【0015】
【発明の実施の形態】
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
【0016】
[第1の実施形態]
図1は観察者に対して複合現実空間を体感させると共に、観察者の興味に応じた仮想オブジェクトに関する情報を観察者に提示するシステムの模式図である。
【0017】
同図において100は観察者で、頭部装着型表示装置としてのHMD110を介して現実空間と仮想空間とが融合された複合現実空間を体感する。同図では160が仮想オブジェクトの配置可能な領域であるので、観察者100はこの空間160内での複合現実空間を体感することになる。170は現実物体である。110はHMDで、図2に示す構成を備える。
【0018】
図2は本実施形態で用いるHMD110の構成を示す図である。HMD110は、LCD等の小型表示装置112と、小型ビデオカメラ111、及びプリズム114、115で構成される。
【0019】
小型ビデオカメラ111は観察者の頭部が向いている方向の現実空間を撮像し、撮像した現実空間の画像をコンピュータ140に出力する。小型表示装置112は位置姿勢センサ113、トランスミッタ130、本体131の夫々によって求められるHMD110の位置姿勢に応じた合成画像(後述のコンピュータ140により生成される、小型ビデオカメラ111により撮像された現実空間の画像と、仮想空間の画像との合成画像)を表示する。小型表示装置112は観察者100の眼前に常に位置しているので、観察者100は自分の頭部の向いている方向に応じた合成画像を小型表示装置112の表示画面上に見ることができる。
【0020】
位置姿勢センサ113はHMD110に固定して取り付けられており、トランスミッタ130が発生する交流磁界を検知し、検知結果に応じた信号を本体(位置姿勢計測部)131に出力する。本実施形態では位置姿勢センサ113として、米国Polhemus社製FASTRAK(登録商標)を用いる。
【0021】
トランスミッタ130は本体131による制御に基づいて交流磁界を発生させる。本体(位置姿勢計測部)131は位置姿勢センサ113が検知した磁界の変化を求め、求めた変化に基づいて、HMD110の(厳密には位置姿勢センサ113の)位置姿勢を求め、求めた位置姿勢情報をコンピュータ140に出力する。
【0022】
上記位置姿勢センサ113、トランスミッタ130、及び本体131を用いた位置姿勢の計測方法については周知の技術であるので、これ以上の詳細な説明は省略する。
【0023】
コンピュータ140は一般にはPC(パーソナルコンピュータ)やワークステーションなどにより構成されるものであって、本体131から出力されたHMD110の位置姿勢情報を用いて、この位置姿勢に応じた仮想空間の画像を生成し、生成した仮想空間の画像と、HMD110の小型ビデオカメラ111から出力された現実空間の画像とを合成した合成画像を生成してHMD110の小型表示装置112に出力する処理を行う。
【0024】
なお、コンピュータ140は合成画像を生成する際、各仮想オブジェクトの画像と現実物体170との前後関係を考慮し、適切な隠れ処理を行ったオブジェクト画像を現実空間画像に合成する。これにより、観察者100はあたかも現実空間内に仮想オブジェクトが存在するかのような映像を観察することになる。コンピュータ140が行う処理の詳細については後述する。
【0025】
図3はコンピュータ140の機能構成示す図である。なお同図において、仮想オブジェクトデータDB(データベース)301、アノテーションデータDB304は本実施形態では夫々のデータを保持するハードディスクやCD−ROM、DVD−ROMなどの記憶媒体を含む記憶装置である。また、仮想空間画像生成部302、アノテーションデータ表示制御部303、合成部305は本実施形態ではプログラムにより構成され、コンピュータ140のCPUにより実行されることで、各部の機能を実現する。なお、上述の各部の実現形態はこれに限定されるものではない。
【0026】
同図において301は仮想オブジェクトデータDB301で、仮想空間における各仮想オブジェクト毎のオブジェクトデータを保持する。オブジェクトデータには、仮想オブジェクトの形状データやテクスチャデータ等の仮想オブジェクトの画像を生成するために必要なデータや、仮想オブジェクトの仮想空間における位置データ(仮想空間において定位置に静止しているものであればその定位置のデータ、仮想空間において位置を常に/もしくは適当な時間間隔で変化させるものであれば、移動する各位置のデータ)等がこれに含まれる。なお、仮想オブジェクトの移動を仮想空間画像生成部302が制御する場合には、位置データは初期位置のデータのみとなる。
【0027】
また、各仮想オブジェクトのオブジェクトデータには固有のIDが付けられており、例えばID=5の仮想オブジェクトは現在仮想空間のどの位置に位置するのかといったように、各オブジェクトを管理することができる。図6は、仮想オブジェクトデータDB301に保持されている、各オブジェクトデータを示す図である。
【0028】
上述の通り、各オブジェクトデータにはIDが付けられおり、「ID=2の仮想オブジェクトのオブジェクトデータはオブジェクトデータ2」というように、各オブジェクトデータを管理している。
【0029】
仮想空間画像生成部302は、本体131から出力されたHMD110の位置姿勢情報に応じた仮想空間の画像を生成する処理を行う。この「仮想空間の画像」は基本的には、仮想オブジェクトの画像により構成されているのであるが、この仮想オブジェクトが所定時間以上注視され続けている場合にはこの仮想オブジェクトに係る説明文が記載された仮想物体(アノテーション)の画像が含まれる。
【0030】
「仮想オブジェクトの画像」の生成については、本体131から出力されたHMD110の位置姿勢と、上記仮想オブジェクトデータDB301が保持するオブジェクトデータを用いて、この位置姿勢に応じた仮想オブジェクトの画像(HMD110の位置を視点位置、HMD110の姿勢を視線方向とした場合に、この視点位置からこの視線方向に、予め決まった画角などで決まる視界内に見える仮想オブジェクトの画像)を生成する。なお、所定の視点位置から見た3次元仮想物体の画像の生成方法については周知の技術であるので、ここでの説明は省略する。
【0031】
なお、仮想オブジェクトが仮想空間において位置を常に/もしくは適当な時間間隔で変化させるものであれば、その移動の制御も行う。また、予めストーリーデータがコンピュータ140に保持されている場合には、仮想空間画像生成部302は、ストーリーの進行に伴い、逐次仮想オブジェクトの登場のタイミング制御や形状、色の変化制御なども行う。
【0032】
一方、「アノテーションの画像」の生成については、本体131から出力されたHMD110の位置姿勢と、後述のアノテーションデータDB304が保持するアノテーションデータ(上記夫々の仮想オブジェクトに対する説明文が記載された仮想物体のデータ)のうち、後述のアノテーションデータ表示制御部303が指示したアノテーションデータとを用いて、HMD110の位置姿勢から説明文が見えるように、アノテーションデータ表示制御部303が後述の処理により特定した「注視されている仮想オブジェクト」に対する説明文が記載された仮想物体(アノテーション)を生成する。なお、このアノテーションも上記仮想オブジェクトと同様に3次元仮想物体であるので、アノテーションの画像の生成方法についても仮想オブジェクトと同様の処理により行われる。
【0033】
アノテーションデータDB304は、上記夫々の仮想オブジェクトに対する説明文が記載された仮想物体のデータ(アノテーションデータ)を保持している。アノテーションデータとしては、例えば上記夫々の仮想オブジェクトに対する説明文が記載されたテクスチャのデータ、そしてこのテクスチャデータを貼り付ける対象(小型表示装置112の表示画面上に表示されるアノテーション)の形状データにより構成される。
【0034】
また、夫々のアノテーションデータには、それがどの仮想オブジェクトに対する説明文が記載されたものであるかを示すために、対応する仮想オブジェクトのIDが付けられている。図7は、アノテーションデータDB304に保持されている各アノテーションデータを示す図である。
【0035】
上述の通り、各アノテーションデータには対応する仮想オブジェクトのIDが付けられており、例えばアノテーションデータ2はID=2の仮想オブジェクトに対するアノテーションのデータである。
【0036】
アノテーションデータ表示制御部303は、本体131から出力されたHMD110の位置姿勢情報と、仮想オブジェクトデータDB301に保持されている各仮想オブジェクトの位置情報(仮想オブジェクトの移動制御を仮想空間画像生成部302が行う場合には、その仮想空間画像生成部302から得られる仮想オブジェクトの位置情報)を用いて、注視されている仮想オブジェクトを特定する。
【0037】
注視されている仮想オブジェクトの特定方法は特には限定しないがその一例について以下に説明する。アノテーションデータ表示制御部303は、本体131から出力されたHMD110の位置姿勢情報を参照し、HMD110の位置を視点位置、HMD110の姿勢成分を方向ベクトルとするベクトルが示す方向を視線方向とした場合に、視点位置から視線方向に延長した直線(視線直線)と交差する仮想オブジェクトを、注視されている仮想オブジェクトとして特定する。視線直線と交差する仮想オブジェクトが複数存在した場合には、視点位置に最も近い仮想オブジェクトを注視されているオブジェクトとして特定する。
【0038】
上述の通り、各仮想オブジェクトの位置情報は仮想オブジェクトデータDB301に保持されたオブジェクトデータから(仮想オブジェクトの移動制御を仮想空間画像生成部302が行う場合には、その仮想空間画像生成部302から)得ることができるので、どの仮想オブジェクトが視線直線と交差するのかは算術的に求めることができる(ただし実際には仮想オブジェクトの位置と視線直線が交差することは希であるので、例えば仮想オブジェクトの位置を中心とした所定サイズの球を仮想的に設定し、視線直線がどの仮想オブジェクトの球と交差するのかを求めても良い)。
【0039】
また各オブジェクトデータにはIDが付けられているので、視線直線と交差する仮想オブジェクトのIDも同時に得ることができる。よって、アノテーションデータ表示制御部303はこのIDに対応するアノテーションデータをアノテーションデータDB304から取得することで、注視している仮想オブジェクトのアノテーションデータを特定することができる。
【0040】
ここで、アノテーションデータ表示制御部303は、注視されている仮想オブジェクトとして特定された仮想オブジェクトが、注視され続けている時間をカウントする。ここで、アノテーションデータ表示制御部303は、注視されている仮想オブジェクトを常に特定する処理を行っているが、前回特定した仮想オブジェクトのIDと今回特定した仮想オブジェクトのIDとが異なってしまった場合(他の仮想オブジェクトが注視されているとされた場合、もしくは注視している仮想オブジェクトが視界から消えてしまった場合など)にはこのカウントを0にリセットする。
【0041】
一方、カウントした時間が所定時間以上(例えばT1以上)になった場合には、この仮想オブジェクトに対するアノテーションデータに従ったアノテーションの画像をHMD110の小型表示装置112に表示すべきと判断し、仮想空間画像生成部302に、この仮想オブジェクトのアノテーションデータ、及びこの仮想オブジェクトの位置情報(上述の通り、各仮想オブジェクトの位置情報は仮想オブジェクトデータDB301に保持されたオブジェクトデータから(仮想オブジェクトの移動制御を仮想空間画像生成部302が行う場合には、その仮想空間画像生成部302から)得ることができる)を出力する。即ち、仮想空間画像生成部302に、この仮想オブジェクトのアノテーションの画像を生成するよう、指示する。
【0042】
仮想空間画像生成部302はアノテーションデータ表示制御部303によりアノテーションの画像の生成の指示を受けると、受けたアノテーションデータを用いて、上記仮想オブジェクトの画像の生成と同様の処理を行い、アノテーションの画像を生成する。
【0043】
また、このアノテーションの仮想空間における位置は仮想オブジェクトの近傍であることが好ましいので、仮想空間画像生成部302は、アノテーションデータ表示制御部303から受けた仮想オブジェクトの位置のデータを用いて、この位置から若干ずれた位置(但し、アノテーションに対する焦点を仮想オブジェクトに対する焦点と略一致させるため、視点位置からアノテーションまでの奥行きが、視点位置から仮想オブジェクトまでの奥行きとほぼ同じであることが条件である)にアノテーションを位置させる。
【0044】
仮想空間画像生成部302は以上の処理により、各仮想オブジェクトの画像と、アノテーションの画像とを生成することができ、これにより、仮想空間の画像を生成することができる。
【0045】
合成部305は仮想空間画像生成部302から出力された仮想空間の画像と、HMD110の小型ビデオカメラ111から出力された現実空間の画像とを合成した合成画像を生成、HMD110の小型表示装置112に出力する。
【0046】
これより、HMD110の小型表示装置112には、時間T1以上注視続けた仮想オブジェクトに対するアノテーションの画像を表示させることができる。図8は仮想オブジェクトを魚や岩などに適用した場合に、HMD110の小型表示装置112に表示された、時間T1以上注視続けた仮想オブジェクト(魚)に対するアノテーションの表示例を示す図である。
【0047】
同図において800は小型表示装置112の表示画面で、801は時間T1以上注視続けた仮想オブジェクトの画像、802は仮想オブジェクト801に対するアノテーションの画像を示す。なお、説明文の表示形態はこれに限定されるものではなく、他の表示形態であっても良い。また、同図では仮想オブジェクトの適用対象は魚や岩などであったが、これに限定されるものではない。
【0048】
図4は、コンピュータ140が行う上述の処理のフローチャートである。各ステップにおける処理については上述の通りであるので、ここでは簡単に説明する。まず、仮想空間画像生成部302は、本体131から出力されたHMD110の位置姿勢情報を入力する(ステップS401)。次に、合成部305は、HMD110の小型ビデオカメラ111から、現実空間の画像を入力する(ステップS402)。ステップS401,S402の各ステップにおける処理の順序はこれに限定されるものではない。
【0049】
次に、仮想空間画像生成部302は、本体131から出力されたHMD110の位置姿勢情報を用いて、この位置姿勢に応じた仮想オブジェクトの画像(HMD110の位置を視点位置、HMD110の姿勢成分を方向ベクトルとするベクトルが示す方向を視線方向とした場合に、この視点位置からこの視線方向に、予め決まった画角などで決まる視界内に見える仮想オブジェクトの画像)を生成する(ステップS403)。
【0050】
次に、アノテーションデータ表示制御部303は、注視している仮想オブジェクトのIDを特定する(ステップS404)。ここで、アノテーションデータ表示制御部303は、注視されている仮想オブジェクトが、注視され続けている時間tをカウントする(ステップS405)。そしてt≧T1となった場合、処理をステップS406に進め、アノテーションデータ表示制御部303はステップS404で特定したIDに対応するアノテーションデータをアノテーションデータDB304から特定し、特定したアノテーションデータを、注視されている仮想オブジェクトの位置情報と共に仮想空間画像生成部302に出力する(ステップS406)。
【0051】
仮想空間画像生成部302はアノテーションデータ表示制御部303によりアノテーションの生成の指示を受けると、受けたアノテーションデータを用いて、上記仮想オブジェクトの画像の生成と同様の処理を行い、アノテーションの画像を生成し、更に、アノテーションデータ表示制御部303から受けた仮想オブジェクトの位置のデータを用いて、この位置から若干ずれた位置にアノテーションを位置させる(ステップS407)。
【0052】
そして、合成部305は、ステップS402で入力した現実空間の画像と、仮想空間の画像(ステップS403で生成した仮想オブジェクトの画像、そしてt≧T1の場合には更に、ステップS407で生成したアノテーションの画像)との合成画像を生成する(ステップS408)。そしてこの合成画像は小型表示装置112に出力される(ステップS409)。
【0053】
以上の処理によって、小型表示装置112の表示画面上に多数の仮想オブジェクトが表示されていても、観察者の所望の仮想オブジェクトのみの説明を表示させることができ、見やすい表示画面を実現させることができる。これにより、観察者に不要な不快感を与えず、更には、臨場感や現実との融合感も損なわずに済む。
【0054】
また、簡単なアクション(所望の仮想オブジェクトを所定時間以上注視し続ける)により、説明文が見たい仮想オブジェクトを指示することができる。
またアノテーション提示のタイミングは観察者が決定することになるため、コンテンツ制作者がシナリオやストーリーの制作にあたって仮想オブジェクトのアノテーション提示タイミングを考慮する手間を省くことができる。観察者にとっては注視している仮想オブジェクトは、多くの場合詳細を知りたい仮想オブジェクトであるため、結果として、詳細を知りたい仮想オブジェクトのアノテーションが提示されることになり、アノテーション提示によるフラストレーションがたまる、という問題は軽減できる。
【0055】
なお上記説明では触れなかったが、注視している仮想オブジェクトに対するアノテーションの画像が表示されている状態で、この仮想オブジェクトに対する注視をやめた場合、その時点から、若しくは所定時間後このアノテーションの画像の表示をやめる。しかし再度、この仮想オブジェクトに対してT1以上の時間注視し続けた場合には、再びこの仮想物体に対するアノテーションの画像が表示される。
【0056】
なお本実施形態では、注視している仮想オブジェクトを特定する場合などには、各仮想オブジェクト固有に付けられたIDを用いていたが、特定方法はこれに限定されるものではない。
【0057】
また本実施形態では、位置姿勢センサ113として、米国Polhemus社製FASTRAK(登録商標)を用いていたが、これに限定されるものではない。
【0058】
また本実施形態ではビデオシースルータイプのHMDを用いていたが、光学シースルータイプのものを用いても良い。その場合、合成部305は、仮想オブジェクトの画像のみによる仮想空間の画像を出力、もしくは、仮想オブジェクトの画像とアノテーションの画像とを含む仮想空間の画像を出力することになる。
【0059】
また、本実施形態におけるアノテーションは、仮想オブジェクトに関する情報として、仮想オブジェクトに対する説明文が記載された仮想物体としたが、これに限定されるものではなく、例えば仮想オブジェクトのCGに関する説明文が記載された仮想物体としても良い。
【0060】
[第2の実施形態]
第1の実施形態では、仮想オブジェクトを所定時間T1以上注視し続けると、この仮想物体に対するアノテーションの画像が小型表示装置112の表示画面上に表示されていた。本実施形態では、更に注視続けると、「観察者はこの仮想物体に対する更に詳細な説明を要求している」と解釈して、より詳細な説明文が記載されたアノテーションの画像に切り替えて表示する。
【0061】
本実施形態は基本的には第1の実施形態と同じであるが、アノテーションデータ表示制御部303が行う処理が異なり、更に、アノテーションデータDB304に保持されるアノテーションデータも異なる。図9は、本実施形態に係るアノテーションデータDB304に保持されている各アノテーションデータを示す図である。
【0062】
本実施形態では、各仮想オブジェクトに対する説明文が記載された仮想物体のデータ(アノテーションデータ)は2種類あり、第1のアノテーションデータは第1の実施形態におけるアノテーションデータと同様のもので、第2のアノテーションデータは、第1のアノテーションデータよりも詳細な説明文が記載された仮想物体のデータである。第1のアノテーションデータ、第2のアノテーションデータには、それがどの仮想オブジェクトに対する説明文であるかを示すために、対応する仮想オブジェクトのIDが付けられている。
【0063】
例えばアノテーションデータ はID=2の仮想オブジェクトに対する第1のアノテーションデータ、アノテーションデータ はID=0の仮想オブジェクトに対する第2のアノテーションデータを示す。
【0064】
図5は、コンピュータ140が行う本実施形態に係る処理のフローチャートである。ステップS501からステップS504までの各ステップにおける処理は夫々、ステップS401からステップS404までの各ステップにおける処理と同じであるので説明を省略する。
【0065】
そしてアノテーションデータ表示制御部303は、注視されている仮想オブジェクトが、注視され続けている時間tをカウントする。そしてt≧T2(>T1)となった場合(ステップS506)、処理をステップS507に進め、アノテーションデータ表示制御部303はステップS504で特定したIDに対応する第2のアノテーションデータをアノテーションデータDB304から特定し、特定したアノテーションデータを、注視されている仮想オブジェクトの位置情報と共に仮想空間画像生成部302に出力する(ステップS507)。
【0066】
また、時間tがt<T2である場合には処理をステップS506からステップS508に移行し、t≧T1である場合、処理をステップS509に進め、アノテーションデータ表示制御部303はステップS504で特定したIDに対応する第1のアノテーションデータをアノテーションデータDB304から特定し、特定したアノテーションデータを、注視されている仮想オブジェクトの位置情報と共に仮想空間画像生成部302に出力する(ステップS509)。
【0067】
仮想空間画像生成部302はアノテーションデータ表示制御部303によりアノテーションの生成の指示を受けると、受けた第1のアノテーションデータ若しくは第2のアノテーションデータを用いて、上記仮想オブジェクトの画像の生成と同様の処理を行い、アノテーションの画像を生成し、更に、アノテーションデータ表示制御部303から受けた仮想オブジェクトの位置のデータを用いて、この位置から若干ずれた位置にアノテーションを位置させる(ステップS510)。
【0068】
そして、合成部305は、ステップS502で入力した現実空間の画像と、仮想空間の画像(ステップS503で生成した仮想オブジェクトの画像、そしてt≧T1もしくはt≧T2の場合には更に、ステップS507もしくはステップS509で生成したアノテーションの画像)との合成画像を生成する(ステップS511)。そしてこの合成画像は小型表示装置112に出力される(ステップS512)。
【0069】
図10は図8に示した仮想オブジェクト801を時間T2以上注視し続けた場合に、HMD110の小型表示装置112に表示された、この仮想オブジェクト801に対するより詳細な説明が記載されたアノテーションの画像(第2のアノテーションデータに従った画像)の表示例を示す図である。図8と同じ部分については同じ番号を付けており、その説明を省略する。
【0070】
同図において1001は第2のアノテーションデータに従ったアノテーションの画像であって、図8に示した画像802に記載された内容よりもより詳細な説明文が記載されたアノテーションの画像となっている。なお、説明文の表示形態はこれに限定されるものではなく、他の表示形態であっても良い。また、同図では仮想オブジェクトの適用対象は魚や岩などであったが、これに限定されるものではない。
【0071】
以上の処理によって、簡単なアクション(所望の仮想オブジェクトを所定時間以上注視し続ける)により、第1の実施形態に加えてより詳細な説明文が見たい仮想オブジェクトを指示することができる。
【0072】
また、観察者が一定時間以上特定の仮想オブジェクトを注視し続けた場合にこの仮想オブジェクトに関する簡易な情報を提示し、さらに一定時間以上この仮想オブジェクトを注視し続けた場合に、この仮想オブジェクトに関する詳細な情報を提示することにより、簡易な情報を知りたいにも関わらず詳細な情報が表示されたり、その逆に詳細な情報を知りたいにも関わらず簡易な情報しか表示されないことによる、観察者が感じるフラストレーションをさらに軽減することができる。
【0073】
なお上記説明では触れなかったが、注視している仮想オブジェクトに対するアノテーションの画像が表示されている状態で、この仮想オブジェクトに対する注視をやめた場合、その時点から、若しくは所定時間後このアノテーションの画像の表示をやめる。しかし再度、この仮想オブジェクトに対してT1以上の時間注視し続けた場合には、再びこの仮想物体に対するアノテーションの画像が表示される。
【0074】
よって本実施形態では、より長い時間注視していればより詳細な説明を順次表示することが出来、この時点で注視をやめれば、やめた時間から時間の経過に従って順次簡単な説明の表示となる。
【0075】
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
【0076】
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0077】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0078】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0079】
【発明の効果】
以上の説明により、本発明によって、観察者の興味に応じて仮想物体に関する情報の表示制御を行うことができる。
【図面の簡単な説明】
【図1】観察者に対して複合現実空間を体感させると共に、観察者の興味に応じた仮想オブジェクトに関する情報を観察者に提示するシステムの模式図である。
【図2】本発明の第1の実施形態で用いるHMD110の構成を示す図である。
【図3】コンピュータ140の機能構成示す図である。
【図4】コンピュータ140が行う第1の実施形態に係る処理のフローチャートである。
【図5】コンピュータ140が行う第2の実施形態に係る処理のフローチャートである。
【図6】仮想オブジェクトデータDB301に保持されている、各オブジェクトデータを示す図である。
【図7】アノテーションデータDB304に保持されている各アノテーションデータを示す図である。
【図8】仮想オブジェクトを魚や岩などに適用した場合に、HMD110の小型表示装置112に表示された、時間T1以上注視続けた仮想オブジェクト(魚)に対する説明文が記載されたアノテーションの画像の表示例を示す図である。
【図9】本発明の第2の実施形態に係るアノテーションデータDB304に保持されている各アノテーションデータを示す図である。
【図10】図8に示した仮想オブジェクト801を時間T2以上注視し続けた場合に、HMD110の小型表示装置112に表示された、この仮想オブジェクト801に対するより詳細な説明文が記載されたアノテーションの画像(第2のアノテーションデータに従った画像)の表示例を示す図である。

Claims (7)

  1. 頭部装着型表示装置と接続しており、外部の計測装置によって計測された前記頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して前記頭部装着型表示装置の表示部に出力する画像処理装置が行う画像処理方法であって、
    前記計測装置によって計測された位置姿勢情報を参照して、前記仮想空間内に設定されたオブジェクトのうち、注視されているオブジェクトを特定する特定工程と、
    当該特定工程で特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報を前記表示部上に表示する表示制御工程とを備えることを特徴とする画像処理方法。
  2. 前記特定工程で特定したオブジェクトが、前記第1の時間よりも長い第2の時間以上注視されている場合、
    前記表示制御工程では、前記表示部上に表示されている前記オブジェクトに関する第1の情報を、より詳細な第2の情報に切り替えて表示することを特徴とする請求項1に記載の画像処理方法。
  3. 前記計測装置によって計測された頭部装着型表示装置の位置を視点位置、前記計測装置によって計測された頭部装着型表示装置の姿勢を視線方向とした場合に、
    前記特定工程では、前記視点位置から前記視線方向に延長した直線と交差するオブジェクトのうち、最も前記視点位置に近いオブジェクトを、注視されているオブジェクトとして特定することを特徴とする請求項1又は2に記載の画像処理方法。
  4. 頭部装着型表示装置と接続しており、外部の計測装置によって計測された前記頭部装着型表示装置の位置姿勢に応じた仮想空間画像を生成して前記頭部装着型表示装置の表示部に出力する画像処理装置であって、
    前記計測装置によって計測された位置姿勢情報を参照して、前記仮想空間内に設定されたオブジェクトのうち、注視されているオブジェクトを特定する特定手段と、
    当該特定手段が特定したオブジェクトが、第1の時間以上注視されている場合、当該オブジェクトに関する情報を前記表示部上に表示する表示制御手段とを備えることを特徴とする画像処理装置。
  5. コンピュータを請求項4に記載の画像処理装置として機能させることを特徴とするプログラム。
  6. コンピュータに請求項1乃至3の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
  7. 請求項5又は6に記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2003197267A 2003-07-15 2003-07-15 画像処理方法、画像処理装置 Pending JP2005038008A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003197267A JP2005038008A (ja) 2003-07-15 2003-07-15 画像処理方法、画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003197267A JP2005038008A (ja) 2003-07-15 2003-07-15 画像処理方法、画像処理装置

Publications (1)

Publication Number Publication Date
JP2005038008A true JP2005038008A (ja) 2005-02-10

Family

ID=34207476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003197267A Pending JP2005038008A (ja) 2003-07-15 2003-07-15 画像処理方法、画像処理装置

Country Status (1)

Country Link
JP (1) JP2005038008A (ja)

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115167A (ja) * 2005-10-24 2007-05-10 Sanyo Electric Co Ltd 情報処理システム、および携帯情報端末
JP2009182627A (ja) * 2008-01-30 2009-08-13 Sony Corp 情報処理装置および情報提供方法
JP2010200209A (ja) * 2009-02-27 2010-09-09 Brother Ind Ltd ヘッドマウントディスプレイ
JP4856291B1 (ja) * 2011-01-26 2012-01-18 パイオニア株式会社 表示装置及び制御方法
JP2012160096A (ja) * 2011-02-02 2012-08-23 Brother Ind Ltd 情報処理装置、情報処理プログラムおよび情報処理システム
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
JP2013125372A (ja) * 2011-12-14 2013-06-24 Kyocera Corp 文字表示装置、補助情報出力プログラムおよび補助情報出力方法
JP2013156670A (ja) * 2012-01-26 2013-08-15 Fujitsu Ltd 表示方法及び表示装置
JP2014035642A (ja) * 2012-08-08 2014-02-24 Canon Inc 表示装置及びその制御方法、表示システム、プログラム
JP2014071663A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP2015118578A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
JP2015132786A (ja) * 2014-01-16 2015-07-23 コニカミノルタ株式会社 眼鏡型表示装置
KR20150096474A (ko) * 2012-12-19 2015-08-24 퀄컴 인코포레이티드 시선 추적을 이용한 증강 현실의 인에이블링
KR20160020571A (ko) * 2013-06-18 2016-02-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 다단계 가상 객체 선택
JP5914739B1 (ja) * 2015-08-27 2016-05-11 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
JP2017033334A (ja) * 2015-08-03 2017-02-09 株式会社オプティム ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
WO2017030037A1 (ja) * 2015-08-17 2017-02-23 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、仮想空間を提供するための装置
JP2017041229A (ja) * 2016-06-08 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
JP2017040971A (ja) * 2015-08-17 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
WO2017033777A1 (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2017058971A (ja) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2017058969A (ja) * 2015-09-16 2017-03-23 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
JPWO2016021034A1 (ja) * 2014-08-07 2017-05-25 フォーブ インコーポレーテッド 3次元上の注視点の位置特定アルゴリズム
WO2017110632A1 (ja) * 2015-12-21 2017-06-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2018037755A (ja) * 2016-08-30 2018-03-08 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
JP2018045462A (ja) * 2016-09-14 2018-03-22 株式会社スクウェア・エニックス 表示システム、表示方法、及び、コンピュータ装置
WO2018101227A1 (ja) * 2016-11-29 2018-06-07 シャープ株式会社 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム
JP2018112753A (ja) * 2018-03-20 2018-07-19 マクセル株式会社 情報表示端末及び情報表示方法
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2018147334A (ja) * 2017-03-08 2018-09-20 株式会社コロプラ 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP2018207517A (ja) * 2018-08-17 2018-12-27 株式会社コロプラ ヘッドマウントデバイスにおける表示を制御するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および情報処理装置
JP2019012551A (ja) * 2018-09-10 2019-01-24 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
WO2019097726A1 (ja) * 2017-11-20 2019-05-23 楽天株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019101330A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2019101943A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2019146035A (ja) * 2018-02-21 2019-08-29 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019174811A (ja) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2019193697A (ja) * 2018-05-01 2019-11-07 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
US10477198B2 (en) 2016-04-08 2019-11-12 Colopl, Inc. Display control method and system for executing the display control method
JPWO2018179230A1 (ja) * 2017-03-30 2019-11-14 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP2020096878A (ja) * 2018-09-10 2020-06-25 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP2020142792A (ja) * 2017-03-17 2020-09-10 マクセル株式会社 Ar表示装置
JP2022036160A (ja) * 2013-03-11 2022-03-04 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
JPWO2022123663A1 (ja) * 2020-12-08 2022-06-16
JP2023033300A (ja) * 2020-02-06 2023-03-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP2023123389A (ja) * 2022-02-24 2023-09-05 株式会社ワントゥーテン コミュニケーションシステム
JP2023548795A (ja) * 2020-10-20 2023-11-21 ロヴィ ガイズ, インコーポレイテッド 眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム
US11880909B2 (en) 2017-03-17 2024-01-23 Maxell, Ltd. AR display apparatus and AR display method
US12260018B2 (en) 2020-10-20 2025-03-25 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions
US12373029B2 (en) 2020-10-20 2025-07-29 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions
US12436609B2 (en) 2020-10-20 2025-10-07 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2000123198A (ja) * 1997-12-05 2000-04-28 Wall:Kk 3次元都市デ―タベ―スを利用した応用装置
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2001522498A (ja) * 1998-02-21 2001-11-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 仮想環境における注意に基づく相互作用
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
JP2002316466A (ja) * 2001-04-20 2002-10-29 Konica Corp 画像形成装置及び画像形成方法並びに情報記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2000123198A (ja) * 1997-12-05 2000-04-28 Wall:Kk 3次元都市デ―タベ―スを利用した応用装置
JP2001522498A (ja) * 1998-02-21 2001-11-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 仮想環境における注意に基づく相互作用
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2002092647A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 情報呈示システム及びモデル誤差検出システム
JP2002316466A (ja) * 2001-04-20 2002-10-29 Konica Corp 画像形成装置及び画像形成方法並びに情報記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宇佐美潔忠、外2名: "共有仮想空間におけるコンテンツ作成統合環境の開発", 電子情報通信学会技術研究報告 画像工学 IE96−14〜34, vol. 第96巻 第116号, JPN6008057388, 21 June 1996 (1996-06-21), JP, pages 13 - 18, ISSN: 0001178533 *
浦谷謙吾、外3名: "AR環境における奥行きの明示的表現を用いた注釈提示手法とその評価", 電子情報通信学会技術研究報告 MVE2003−39〜56 マルチメディア・仮想環境基礎, vol. 103, no. 210, JPN6008057391, 11 July 2003 (2003-07-11), JP, pages 77 - 82, ISSN: 0001178534 *

Cited By (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115167A (ja) * 2005-10-24 2007-05-10 Sanyo Electric Co Ltd 情報処理システム、および携帯情報端末
US8813130B2 (en) 2008-01-30 2014-08-19 Sony Corporation Information processing device and information providing method
JP2009182627A (ja) * 2008-01-30 2009-08-13 Sony Corp 情報処理装置および情報提供方法
JP2010200209A (ja) * 2009-02-27 2010-09-09 Brother Ind Ltd ヘッドマウントディスプレイ
JP4856291B1 (ja) * 2011-01-26 2012-01-18 パイオニア株式会社 表示装置及び制御方法
WO2012101778A1 (ja) * 2011-01-26 2012-08-02 パイオニア株式会社 表示装置、制御方法、プログラム、及び記憶媒体
JP2012160096A (ja) * 2011-02-02 2012-08-23 Brother Ind Ltd 情報処理装置、情報処理プログラムおよび情報処理システム
JP2013069211A (ja) * 2011-09-26 2013-04-18 Nec Casio Mobile Communications Ltd 表示装置、表示方法およびプログラム
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
US9395814B2 (en) 2011-09-26 2016-07-19 Nec Corporation Display device
JP2013125372A (ja) * 2011-12-14 2013-06-24 Kyocera Corp 文字表示装置、補助情報出力プログラムおよび補助情報出力方法
JP2013156670A (ja) * 2012-01-26 2013-08-15 Fujitsu Ltd 表示方法及び表示装置
JP2014035642A (ja) * 2012-08-08 2014-02-24 Canon Inc 表示装置及びその制御方法、表示システム、プログラム
JP2014071663A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US10474233B2 (en) 2012-12-19 2019-11-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
KR102166861B1 (ko) * 2012-12-19 2020-10-16 퀄컴 인코포레이티드 시선 추적을 이용한 증강 현실의 인에이블링
KR20150096474A (ko) * 2012-12-19 2015-08-24 퀄컴 인코포레이티드 시선 추적을 이용한 증강 현실의 인에이블링
US11079841B2 (en) 2012-12-19 2021-08-03 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP2016509705A (ja) * 2012-12-19 2016-03-31 クアルコム,インコーポレイテッド 視線追跡を使用して拡張現実を可能にする
JP2022036160A (ja) * 2013-03-11 2022-03-04 マジック リープ, インコーポレイテッド 拡張現実および仮想現実のためのシステムおよび方法
JP2016530600A (ja) * 2013-06-18 2016-09-29 マイクロソフト テクノロジー ライセンシング,エルエルシー 多ステップ仮想オブジェクト選択
KR102296122B1 (ko) * 2013-06-18 2021-08-30 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 다단계 가상 객체 선택
KR20160020571A (ko) * 2013-06-18 2016-02-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 다단계 가상 객체 선택
JP2015118578A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
JP2015132786A (ja) * 2014-01-16 2015-07-23 コニカミノルタ株式会社 眼鏡型表示装置
JPWO2016021034A1 (ja) * 2014-08-07 2017-05-25 フォーブ インコーポレーテッド 3次元上の注視点の位置特定アルゴリズム
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP2017033334A (ja) * 2015-08-03 2017-02-09 株式会社オプティム ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
JP2017040971A (ja) * 2015-08-17 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
US10311640B2 (en) 2015-08-17 2019-06-04 Colopl, Inc. Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method
WO2017030037A1 (ja) * 2015-08-17 2017-02-23 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、仮想空間を提供するための装置
JP2017040970A (ja) * 2015-08-17 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
US9779702B2 (en) 2015-08-27 2017-10-03 Colopl, Inc. Method of controlling head-mounted display system
WO2017033777A1 (ja) * 2015-08-27 2017-03-02 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
JP5914739B1 (ja) * 2015-08-27 2016-05-11 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するプログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
US11311798B2 (en) 2015-09-16 2022-04-26 Gree, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method
US11896897B2 (en) 2015-09-16 2024-02-13 Gree, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method
US10406432B2 (en) 2015-09-16 2019-09-10 Gree, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method
JP2017058969A (ja) * 2015-09-16 2017-03-23 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
US12350583B2 (en) 2015-09-16 2025-07-08 Gree Holdings, Inc. Virtual image display program, virtual image display apparatus, and virtual image display method
JP2017058971A (ja) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
WO2017110632A1 (ja) * 2015-12-21 2017-06-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
JP2017182217A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US10477198B2 (en) 2016-04-08 2019-11-12 Colopl, Inc. Display control method and system for executing the display control method
JP2017041229A (ja) * 2016-06-08 2017-02-23 株式会社コロプラ ヘッドマウントディスプレイシステムを制御する方法、および、プログラム
US10452917B2 (en) 2016-08-30 2019-10-22 Alpha Code Inc. Attention object-related information providing system and information providing method
JP2018037755A (ja) * 2016-08-30 2018-03-08 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
CN109644293A (zh) * 2016-08-30 2019-04-16 株式会社阿尔法代码 与关注对象物相关的信息提供系统以及信息提供方法
US10802279B2 (en) 2016-09-14 2020-10-13 Square Enix Co., Ltd. Display system, display method, and computer apparatus for displaying additional information of a game character based on line of sight
JP2018045462A (ja) * 2016-09-14 2018-03-22 株式会社スクウェア・エニックス 表示システム、表示方法、及び、コンピュータ装置
JPWO2018101227A1 (ja) * 2016-11-29 2019-10-31 シャープ株式会社 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム
WO2018101227A1 (ja) * 2016-11-29 2018-06-07 シャープ株式会社 表示制御装置、ヘッドマウントディスプレイ、表示制御装置の制御方法、および制御プログラム
CN109983532A (zh) * 2016-11-29 2019-07-05 夏普株式会社 显示控制装置、头戴式显示器、显示控制装置的控制方法以及控制程序
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2018147334A (ja) * 2017-03-08 2018-09-20 株式会社コロプラ 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置
US11880909B2 (en) 2017-03-17 2024-01-23 Maxell, Ltd. AR display apparatus and AR display method
JP2020142792A (ja) * 2017-03-17 2020-09-10 マクセル株式会社 Ar表示装置
JPWO2018179230A1 (ja) * 2017-03-30 2019-11-14 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2019097726A1 (ja) * 2017-11-20 2019-05-23 楽天株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JPWO2019097726A1 (ja) * 2017-11-20 2019-11-21 楽天株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2019101330A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2019101943A (ja) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2019146035A (ja) * 2018-02-21 2019-08-29 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018112753A (ja) * 2018-03-20 2018-07-19 マクセル株式会社 情報表示端末及び情報表示方法
JP2019193697A (ja) * 2018-05-01 2019-11-07 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
JP2018207517A (ja) * 2018-08-17 2018-12-27 株式会社コロプラ ヘッドマウントデバイスにおける表示を制御するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および情報処理装置
JP2020096878A (ja) * 2018-09-10 2020-06-25 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP2019012551A (ja) * 2018-09-10 2019-01-24 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
JP2019174811A (ja) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス 表示システム及び表示方法
JP2023033300A (ja) * 2020-02-06 2023-03-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示システム及び仮想画像表示方法
JP7713517B2 (ja) 2020-10-20 2025-07-25 アデイア ガイズ インコーポレイテッド 眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム
JP2023548795A (ja) * 2020-10-20 2023-11-21 ロヴィ ガイズ, インコーポレイテッド 眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム
US12260018B2 (en) 2020-10-20 2025-03-25 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions
US12373029B2 (en) 2020-10-20 2025-07-29 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions
US12436609B2 (en) 2020-10-20 2025-10-07 Adeia Guides Inc. Methods and systems of extended reality environment interaction based on eye motions
JP7538886B2 (ja) 2020-12-08 2024-08-22 マクセル株式会社 画像表示装置および画像表示方法
US12153734B2 (en) 2020-12-08 2024-11-26 Maxell, Ltd. Image display device and image display method
WO2022123663A1 (ja) * 2020-12-08 2022-06-16 マクセル株式会社 画像表示装置および画像表示方法
JPWO2022123663A1 (ja) * 2020-12-08 2022-06-16
US12436613B2 (en) 2020-12-08 2025-10-07 Maxell, Ltd. Image display device and image display method
JP2023123389A (ja) * 2022-02-24 2023-09-05 株式会社ワントゥーテン コミュニケーションシステム
JP7634853B2 (ja) 2022-02-24 2025-02-25 株式会社ワントゥーテン コミュニケーションシステム

Similar Documents

Publication Publication Date Title
JP2005038008A (ja) 画像処理方法、画像処理装置
Schmalstieg et al. Augmented reality: principles and practice
JP7042644B2 (ja) 情報処理装置、画像生成方法およびコンピュータプログラム
US10539797B2 (en) Method of providing virtual space, program therefor, and recording medium
US7292240B2 (en) Virtual reality presentation device and information processing method
CN106468950B (zh) 电子系统、便携式显示装置及导引装置
US20180321798A1 (en) Information processing apparatus and operation reception method
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
KR20220047882A (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP6920057B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US20220172447A1 (en) Image processing device, image processing method, and program
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
US20190347864A1 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP2018190380A (ja) 仮想空間の立体視映像を提供するためのプログラム、システム、及び方法
KR20190031805A (ko) 가상 현실 콘텐츠에 참여하고 있는 사용자에 대한 코칭 시스템
JP2017208808A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
US12468378B2 (en) Head mounted information processing apparatus and head mounted display system
JP2021166091A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP2005251118A (ja) 画像処理方法、画像処理装置
KR20190084936A (ko) 가상 현실 콘텐츠에 참여하고 있는 사용자에 대한 코칭 시스템
JP2017208809A (ja) 仮想空間を提供する方法、プログラム及び記録媒体
US20260037057A1 (en) Head mounted information processing apparatus and head mounted display system
US20240078767A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090416

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090522