JP6369005B2 - 頭部装着型表示装置および頭部装着型表示装置の制御方法 - Google Patents
頭部装着型表示装置および頭部装着型表示装置の制御方法 Download PDFInfo
- Publication number
- JP6369005B2 JP6369005B2 JP2013222143A JP2013222143A JP6369005B2 JP 6369005 B2 JP6369005 B2 JP 6369005B2 JP 2013222143 A JP2013222143 A JP 2013222143A JP 2013222143 A JP2013222143 A JP 2013222143A JP 6369005 B2 JP6369005 B2 JP 6369005B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- user
- image data
- image
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 115
- 238000012545 processing Methods 0.000 claims description 235
- 230000003190 augmentative effect Effects 0.000 claims description 126
- 230000000007 visual effect Effects 0.000 claims description 44
- 206010052143 Ocular discomfort Diseases 0.000 claims description 25
- 210000003128 head Anatomy 0.000 claims description 19
- 238000005259 measurement Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 description 57
- 230000008569 process Effects 0.000 description 42
- 230000000694 effects Effects 0.000 description 29
- 230000033001 locomotion Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 8
- 230000006854 communication Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000009966 trimming Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000008054 signal transmission Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 210000000554 iris Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明の第2の形態態は、例えば、使用者が虚像と外景を視認可能な頭部装着型表示装置であって;前記使用者に前記虚像を視認させる画像表示部と;前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトを表す前記虚像を、前記使用者の視覚的な違和感を緩和するための視覚効果を付与して、前記画像表示部に形成させる拡張現実処理部と;を備え;前記拡張現実処理部は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し;前記画像表示部は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ;さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を記憶する画素視差角記憶部を備え;前記拡張現実処理部は、前記画素視差角記憶部に記憶されている前記差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置として提供される。
本発明の第3の形態は、例えば、使用者が虚像と外景を視認可能な頭部装着型表示装置の制御方法であって;前記使用者に前記虚像を視認させる工程と;前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトを表す前記虚像を、前記使用者の視覚的な違和感を緩和するための視覚効果を付与して形成する工程と;を備え;前記形成する工程は、前記使用者の周囲の環境を、3次元的に表した立体物を含む仮想的な3次元空間として表した3次元情報を用いて、前記仮想オブジェクトに前記環境に応じた前記視覚効果を加えることで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置の制御方法として提供される。
本発明の第4の形態は、使用者が虚像と外景を視認可能な頭部装着型表示装置の制御方法であって;前記使用者に前記虚像を視認させる工程と;前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトを表す前記虚像を、前記使用者の視覚的な違和感を緩和するための視覚効果を付与して形成する工程と;を備え;前記形成する工程は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し;前記視認させる工程は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ;前記形成する工程は、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置の制御方法として提供される。
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
AR処理部142は、以下の手順a1〜a3によって拡張現実処理を実行する。
(a1)仮想オブジェクトを視認させる目標距離を決定する。
(a2)仮想オブジェクトを表す画像データーを生成する。
(a3)画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・使用者の現在位置座標と頭の動きとを解析する。この場合、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。
・同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の初期輻輳角θaを測定する。
・1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の輻輳角θcを測定する。
・初期輻輳角θaと輻輳角θcとの差分を求める(θc−θa)。なお、通常はθc>θaとなることが想定されるため、ここでは、輻輳角θcから初期輻輳角θaを減ずることとする。
・片眼あたりの輻輳角の差分とするため、初期輻輳角θaと輻輳角θcとの差分を2で除する。
tan(θb/2)=(DL/2)/Lb
tan(θb/2)=DL/(2×Lb)
θb/2=arctan{DL/(2×Lb)}
θb=2×arctan{DL/(2×Lb)} ・・・(1)
θx=(θb−θa)/2 ・・・(2)
式2において、例えば、設定位置を無限遠にした場合、θxは、θx=−θa/2として表される。
第2実施例の拡張現実処理では、AR処理部142は、3D(Three Dimensions)モデル空間内の仮想的な立体物から使用者の動きに応じた仮想オブジェクトを表す画像データーを生成し、生成した画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。第1実施例の拡張現実処理との相違は、手順a2、a3に代えて、図7の手順を実行する点である。なお、手順a1は第1実施例と同様であるため、説明を省略する。
(b1)AR処理部142は、手順a1で決定した目標距離Lbを上記式1に当てはめ、目標輻輳角θbを算出する。
(b2)AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを上記式2に当てはめ、目標視差角θxを算出する。
(b3)ステップS112により得られた仮想カメラCMLの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS112により得られた仮想カメラCMLの2D投影画像を拡大/縮小する。この際、AR処理部142は、右LCD241の解像度を考慮する。
(b3)ステップS122により得られた仮想カメラCMRの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS122により得られた仮想カメラCMRの2D投影画像を拡大/縮小する。この際、AR処理部142は、左LCD242の解像度を考慮する。
第3実施例の拡張現実処理では、第2実施例の拡張現実処理において、使用者の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。以下では、第2実施例の拡張現実処理と異なる手順についてのみ説明する。なお、図中において第2実施例と同様の部分については先に説明した第2実施例と同様の符号を付し、その詳細な説明を省略する。
本発明の第2実施形態では、「使用者の視覚的な違和感を緩和可能な視覚効果」として、第1実施形態で例示した「仮想オブジェクトの立体視を可能にするための視覚効果」に代えて、「仮想オブジェクトを使用者の周囲の環境に調和させるための視覚効果」を採用する場合の構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
図11は、第2実施形態におけるヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aの記憶部120には、領域情報122と識別画像記憶部124と(図2)が含まれていない。また、制御部10aは、AR処理部142に代えてAR処理部142aを備える。AR処理部142aは、実行する「拡張現実処理」の処理内容が、第1実施形態とは異なる。具体的には、AR処理部142aは、第1〜第3実施例として説明した第1実施形態の拡張現実処理に代えて、次に説明する拡張現実処理を実行する。
図12は、第2実施形態における拡張現実処理の手順を示すフローチャートである。ステップS302においてAR処理部142aは、使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を取得する。この3次元情報は、使用者の周囲の環境を表現した、いわゆる「3Dモデル」である。AR処理部142aは、3次元情報を、以下のc1〜c3に示すいずれかの方法を用いて取得することができる。
(c2)3次元情報が予め記憶部120に記憶されている場合、AR処理部142aは、記憶部120から3次元情報を取得する。
(c3)AR処理部142aは、カメラ61により撮影された外景画像や、使用者の眼前への赤外光の照射等の手段を用いて、使用者の周囲の環境を表現した3次元情報を生成し、生成した3次元情報を取得する。
(d2)AR処理部142aは、ステップS302で取得された3次元情報に含まれる緯度経度の情報と、ステップS304の時点でGPSモジュール134によって取得された使用者の現在位置座標(緯度経度)を比較することで、3次元情報内の仮想的な使用者の現在位置を特定する。また、AR処理部142aは、9軸センサー66によって取得された使用者の頭部の動きを用いて、3次元情報内の仮想的な使用者の視線方向を特定する。
(d3)現実空間上に予め信号発生装置が複数配置されている場合、AR処理部142aは、信号発生装置から受信する電波や超音波の受信強度を用いて、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・GPSモジュール134によって取得された使用者の現在位置座標と、9軸センサー66によって取得された使用者の頭の動きとを解析する。
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記第1実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
上記第1実施形態において、AR処理部は、カメラによって取得された使用者の視界方向の外景画像を、画素視差角によりパターンマッチングさせて、拡張現実処理を実現してもよい。具体的には、画像表示部は、右眼用カメラと、左眼用カメラとを備える構成とする。右眼用カメラは、画像表示部の使用者の右眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。左眼用カメラは、画像表示部の使用者の左眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。AR処理部は、右眼用カメラにより撮像された画像に含まれる対象物体(仮想オブジェクトを近傍に表示させる対象となる物体)と、左眼用カメラにより撮像された画像に含まれる対象物体との間のずれ量を求め、当該ずれ量と画素視差角とを用いて、拡張現実処理における「目標距離」を決定してもよい。
上記第1実施形態において、AR処理部は、上記の拡張現実処理を、所定の条件が満足される場合に限って実行してもよい。例えば、画像表示部に対して使用者の視線の方向を検出可能な構成を備えたうえで、AR処理部は、検出された視線の方向が以下の条件のうちの少なくともいずれか1つを満たす場合に限って、上記の拡張現実処理を実行してもよい。
・水平約200°、垂直約125°(例えば、下方向75°、上方向50°)の視野角の範囲内であるとき。
・情報受容能力に優れる有効視野である、水平約30°、垂直約20°の範囲内であるとき。
・注視点が迅速に安定して見える安定注視野である、水平60°〜90°、垂直45°〜70°の範囲内であるとき。
・映像に誘発される自己運動感覚(ベクション)の誘発が起こりはじめる水平約20°から、自己運動感覚が飽和する約110°の範囲内であるとき。
上記第2実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…瞳孔間距離測定部
110…入力情報取得部
100、100a…ヘッドマウントディスプレイ(頭部装着型表示装置)
120…記憶部
122…眼間距離(眼間距離記憶部)
124…画素視差角(画素視差角記憶部)
130…電源
140…CPU
142、142a…AR処理部(拡張現実処理部)
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
RE…右眼
LE…左眼
VI…虚像
ER…端部
EL…端部
AP…先端部
VR…視野
VD…視点方向
IV…仮想視点
OB…仮想オブジェクト
OB1…仮想オブジェクト
OB2…仮想オブジェクト
OBS…仮想オブジェクトの影
CM…仮想カメラ
CML…仮想カメラ
CMR…仮想カメラ
DI…仮想オブジェクトの動き
VM…マスクオブジェクト
θa…初期輻輳角(第1の輻輳角)
θb…目標輻輳角
θc…輻輳角(第2の輻輳角θ)
θx…目標視差角
Claims (6)
- 使用者が虚像と外景を視認可能な頭部装着型表示装置であって、
前記使用者に前記虚像を視認させる画像表示部と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトを表す前記虚像を、前記使用者の視覚的な違和感を緩和するための視覚効果を付与して、前記画像表示部に形成させる拡張現実処理部と、
を備え、
前記拡張現実処理部は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記画像表示部は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を記憶する画素視差角記憶部を備え、
前記拡張現実処理部は、前記画素視差角記憶部に記憶されている前記差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、前記仮想オブジェクトを表す単一の画像データーから、前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離に基づいて、3Dモデル空間上に2D投影画像を取得するための2箇所の仮想カメラを設定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、一方の前記仮想カメラによる2D投影画像をスケーリングして前記右眼用画像データーを生成し、他方の前記仮想カメラによる2D投影画像をスケーリングして前記左眼用画像データーを生成する、頭部装着型表示装置。 - 請求項3に記載の頭部装着型表示装置であって、さらに、
前記使用者の眼間距離を記憶する眼間距離記憶部を備え、
前記拡張現実処理部は、前記2箇所の仮想カメラを設定する際、前記決定した目標距離に基づいて、3Dモデル空間上に仮想的な視点である仮想視点を配置し、配置された前記仮想視点から眼間距離/2離れた位置に一方の仮想カメラを配置し、配置された前記仮想視点から眼間距離/2離れた位置に他方の仮想カメラを配置する、頭部装着型表示装置。 - 請求項4に記載の頭部装着型表示装置であって、さらに、
前記使用者の瞳孔間距離を測定する瞳孔間距離測定部を備え、
前記瞳孔間距離測定部による測定結果は、前記眼間距離として前記眼間距離記憶部に記憶される、頭部装着型表示装置。 - 使用者が虚像と外景を視認可能な頭部装着型表示装置の制御方法であって、
前記使用者に前記虚像を視認させる工程と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトを表す前記虚像を、前記使用者の視覚的な違和感を緩和するための視覚効果を付与して形成する工程と、
を備え、
前記形成する工程は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記視認させる工程は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
前記形成する工程は、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置の制御方法。
Priority Applications (10)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013222143A JP6369005B2 (ja) | 2013-10-25 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
| KR1020157030674A KR101845350B1 (ko) | 2013-03-26 | 2014-03-14 | 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법 |
| PCT/JP2014/001464 WO2014156033A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| EP14718781.9A EP2979446A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| BR112015024910A BR112015024910A2 (pt) | 2013-03-26 | 2014-03-14 | dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição |
| US14/773,689 US20160033770A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| RU2015145510A RU2015145510A (ru) | 2013-03-26 | 2014-03-14 | Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения |
| TW103110753A TW201437688A (zh) | 2013-03-26 | 2014-03-21 | 頭部配戴型顯示裝置、頭部配戴型顯示裝置之控制方法及顯示系統 |
| CN201410111332.7A CN104076513B (zh) | 2013-03-26 | 2014-03-24 | 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统 |
| US16/293,975 US11054650B2 (en) | 2013-03-26 | 2019-03-06 | Head-mounted display device, control method of head-mounted display device, and display system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013222143A JP6369005B2 (ja) | 2013-10-25 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018131946A Division JP6683218B2 (ja) | 2018-07-12 | 2018-07-12 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015084150A JP2015084150A (ja) | 2015-04-30 |
| JP6369005B2 true JP6369005B2 (ja) | 2018-08-08 |
Family
ID=53047727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013222143A Active JP6369005B2 (ja) | 2013-03-26 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6369005B2 (ja) |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016191953A1 (zh) * | 2015-05-29 | 2016-12-08 | 深圳市柔宇科技有限公司 | 自适配显示调节的方法及头戴式显示设备 |
| US10757399B2 (en) | 2015-09-10 | 2020-08-25 | Google Llc | Stereo rendering system |
| US10650601B2 (en) | 2016-03-29 | 2020-05-12 | Sony Corporation | Information processing device and information processing method |
| JP6693223B2 (ja) * | 2016-03-29 | 2020-05-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP6736944B2 (ja) * | 2016-03-29 | 2020-08-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP6517255B2 (ja) * | 2017-02-27 | 2019-05-22 | Kddi株式会社 | キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム |
| JP7036572B2 (ja) * | 2017-11-02 | 2022-03-15 | マクセル株式会社 | 虚像表示装置およびそれを用いたヘッドマウントディスプレイ |
| JP6780865B2 (ja) * | 2018-07-31 | 2020-11-04 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
| JP2020098152A (ja) * | 2018-12-18 | 2020-06-25 | 株式会社中電工 | 表示システム |
| JP6647433B1 (ja) * | 2019-02-19 | 2020-02-14 | 株式会社メディア工房 | 点群データ通信システム、点群データ送信装置および点群データ送信方法 |
| CA3045133C (en) * | 2019-06-03 | 2023-03-21 | Eidos Interactive Corp. | Systems and methods for augmented reality applications |
| US11069104B1 (en) * | 2020-05-13 | 2021-07-20 | Facebook Technologies, Llc | Display that uses a light sensor to generate environmentally matched artificial reality content |
| JP7703180B2 (ja) * | 2021-05-17 | 2025-07-07 | Cellid株式会社 | 眼鏡型端末、プログラム及び画像表示方法 |
| CN113670232B (zh) * | 2021-08-18 | 2024-06-25 | 歌尔光学科技有限公司 | 虚拟现实设备偏心标样及标样偏心值测量方法 |
| EP4343516A4 (en) | 2021-08-23 | 2024-04-24 | Samsung Electronics Co., Ltd. | PORTABLE ELECTRONIC DEVICE HAVING AUGMENTED REALITY OBJECT DISPLAYED THEREOF AND METHOD OF OPERATING THE SAME |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3717653B2 (ja) * | 1998-01-20 | 2005-11-16 | 株式会社リコー | 頭部搭載型画像表示装置 |
| JP2004234549A (ja) * | 2003-01-31 | 2004-08-19 | Canon Inc | 現実物体モデル作成方法 |
| JP5237066B2 (ja) * | 2008-11-28 | 2013-07-17 | キヤノン株式会社 | 複合現実感提示システムおよび複合現実感提示方法、プログラム |
| US20110234631A1 (en) * | 2010-03-25 | 2011-09-29 | Bizmodeline Co., Ltd. | Augmented reality systems |
| US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
| CN103460256B (zh) * | 2011-03-29 | 2016-09-14 | 高通股份有限公司 | 在扩增现实系统中将虚拟图像锚定到真实世界表面 |
| WO2013054462A1 (ja) * | 2011-10-13 | 2013-04-18 | パナソニック株式会社 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
| US8872853B2 (en) * | 2011-12-01 | 2014-10-28 | Microsoft Corporation | Virtual light in augmented reality |
-
2013
- 2013-10-25 JP JP2013222143A patent/JP6369005B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2015084150A (ja) | 2015-04-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11054650B2 (en) | Head-mounted display device, control method of head-mounted display device, and display system | |
| JP6369005B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP6337418B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP6459421B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
| CN110068926B (zh) | 显示装置 | |
| JP6217244B2 (ja) | 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム | |
| US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
| JP6232763B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| US10567730B2 (en) | Display device and control method therefor | |
| WO2016063504A1 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6645096B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
| JP6492673B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
| JP6620417B2 (ja) | 表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP2016109710A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
| JP6451222B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
| JP6287399B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP2016186658A (ja) | 頭部装着型表示装置および方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160530 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160817 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171117 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171212 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180529 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6369005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |