JP2015084150A - 頭部装着型表示装置および頭部装着型表示装置の制御方法 - Google Patents
頭部装着型表示装置および頭部装着型表示装置の制御方法 Download PDFInfo
- Publication number
- JP2015084150A JP2015084150A JP2013222143A JP2013222143A JP2015084150A JP 2015084150 A JP2015084150 A JP 2015084150A JP 2013222143 A JP2013222143 A JP 2013222143A JP 2013222143 A JP2013222143 A JP 2013222143A JP 2015084150 A JP2015084150 A JP 2015084150A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- head
- user
- display device
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
AR処理部142は、以下の手順a1〜a3によって拡張現実処理を実行する。
(a1)仮想オブジェクトを視認させる目標距離を決定する。
(a2)仮想オブジェクトを表す画像データーを生成する。
(a3)画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・使用者の現在位置座標と頭の動きとを解析する。この場合、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。
・同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の初期輻輳角θaを測定する。
・1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の輻輳角θcを測定する。
・初期輻輳角θaと輻輳角θcとの差分を求める(θc−θa)。なお、通常はθc>θaとなることが想定されるため、ここでは、輻輳角θcから初期輻輳角θaを減ずることとする。
・片眼あたりの輻輳角の差分とするため、初期輻輳角θaと輻輳角θcとの差分を2で除する。
tan(θb/2)=(DL/2)/Lb
tan(θb/2)=DL/(2×Lb)
θb/2=arctan{DL/(2×Lb)}
θb=2×arctan{DL/(2×Lb)} ・・・(1)
θx=(θb−θa)/2 ・・・(2)
式2において、例えば、設定位置を無限遠にした場合、θxは、θx=−θa/2として表される。
第2実施例の拡張現実処理では、AR処理部142は、3D(Three Dimensions)モデル空間内の仮想的な立体物から使用者の動きに応じた仮想オブジェクトを表す画像データーを生成し、生成した画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。第1実施例の拡張現実処理との相違は、手順a2、a3に代えて、図7の手順を実行する点である。なお、手順a1は第1実施例と同様であるため、説明を省略する。
(b1)AR処理部142は、手順a1で決定した目標距離Lbを上記式1に当てはめ、目標輻輳角θbを算出する。
(b2)AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを上記式2に当てはめ、目標視差角θxを算出する。
(b3)ステップS112により得られた仮想カメラCMLの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS112により得られた仮想カメラCMLの2D投影画像を拡大/縮小する。この際、AR処理部142は、右LCD241の解像度を考慮する。
(b3)ステップS122により得られた仮想カメラCMRの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS122により得られた仮想カメラCMRの2D投影画像を拡大/縮小する。この際、AR処理部142は、左LCD242の解像度を考慮する。
第3実施例の拡張現実処理では、第2実施例の拡張現実処理において、使用者の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。以下では、第2実施例の拡張現実処理と異なる手順についてのみ説明する。なお、図中において第2実施例と同様の部分については先に説明した第2実施例と同様の符号を付し、その詳細な説明を省略する。
本発明の第2実施形態では、「使用者の視覚的な違和感を緩和可能な視覚効果」として、第1実施形態で例示した「仮想オブジェクトの立体視を可能にするための視覚効果」に代えて、「仮想オブジェクトを使用者の周囲の環境に調和させるための視覚効果」を採用する場合の構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
図11は、第2実施形態におけるヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aの記憶部120には、領域情報122と識別画像記憶部124と(図2)が含まれていない。また、制御部10aは、AR処理部142に代えてAR処理部142aを備える。AR処理部142aは、実行する「拡張現実処理」の処理内容が、第1実施形態とは異なる。具体的には、AR処理部142aは、第1〜第3実施例として説明した第1実施形態の拡張現実処理に代えて、次に説明する拡張現実処理を実行する。
図12は、第2実施形態における拡張現実処理の手順を示すフローチャートである。ステップS302においてAR処理部142aは、使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を取得する。この3次元情報は、使用者の周囲の環境を表現した、いわゆる「3Dモデル」である。AR処理部142aは、3次元情報を、以下のc1〜c3に示すいずれかの方法を用いて取得することができる。
(c2)3次元情報が予め記憶部120に記憶されている場合、AR処理部142aは、記憶部120から3次元情報を取得する。
(c3)AR処理部142aは、カメラ61により撮影された外景画像や、使用者の眼前への赤外光の照射等の手段を用いて、使用者の周囲の環境を表現した3次元情報を生成し、生成した3次元情報を取得する。
(d2)AR処理部142aは、ステップS302で取得された3次元情報に含まれる緯度経度の情報と、ステップS304の時点でGPSモジュール134によって取得された使用者の現在位置座標(緯度経度)を比較することで、3次元情報内の仮想的な使用者の現在位置を特定する。また、AR処理部142aは、9軸センサー66によって取得された使用者の頭部の動きを用いて、3次元情報内の仮想的な使用者の視線方向を特定する。
(d3)現実空間上に予め信号発生装置が複数配置されている場合、AR処理部142aは、信号発生装置から受信する電波や超音波の受信強度を用いて、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・GPSモジュール134によって取得された使用者の現在位置座標と、9軸センサー66によって取得された使用者の頭の動きとを解析する。
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記第1実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
上記第1実施形態において、AR処理部は、カメラによって取得された使用者の視界方向の外景画像を、画素視差角によりパターンマッチングさせて、拡張現実処理を実現してもよい。具体的には、画像表示部は、右眼用カメラと、左眼用カメラとを備える構成とする。右眼用カメラは、画像表示部の使用者の右眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。左眼用カメラは、画像表示部の使用者の左眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。AR処理部は、右眼用カメラにより撮像された画像に含まれる対象物体(仮想オブジェクトを近傍に表示させる対象となる物体)と、左眼用カメラにより撮像された画像に含まれる対象物体との間のずれ量を求め、当該ずれ量と画素視差角とを用いて、拡張現実処理における「目標距離」を決定してもよい。
上記第1実施形態において、AR処理部は、上記の拡張現実処理を、所定の条件が満足される場合に限って実行してもよい。例えば、画像表示部に対して使用者の視線の方向を検出可能な構成を備えたうえで、AR処理部は、検出された視線の方向が以下の条件のうちの少なくともいずれか1つを満たす場合に限って、上記の拡張現実処理を実行してもよい。
・水平約200°、垂直約125°(例えば、下方向75°、上方向50°)の視野角の範囲内であるとき。
・情報受容能力に優れる有効視野である、水平約30°、垂直約20°の範囲内であるとき。
・注視点が迅速に安定して見える安定注視野である、水平60°〜90°、垂直45°〜70°の範囲内であるとき。
・映像に誘発される自己運動感覚(ベクション)の誘発が起こりはじめる水平約20°から、自己運動感覚が飽和する約110°の範囲内であるとき。
上記第2実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…瞳孔間距離測定部
110…入力情報取得部
100、100a…ヘッドマウントディスプレイ(頭部装着型表示装置)
120…記憶部
122…眼間距離(眼間距離記憶部)
124…画素視差角(画素視差角記憶部)
130…電源
140…CPU
142、142a…AR処理部(拡張現実処理部)
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
RE…右眼
LE…左眼
VI…虚像
ER…端部
EL…端部
AP…先端部
VR…視野
VD…視点方向
IV…仮想視点
OB…仮想オブジェクト
OB1…仮想オブジェクト
OB2…仮想オブジェクト
OBS…仮想オブジェクトの影
CM…仮想カメラ
CML…仮想カメラ
CMR…仮想カメラ
DI…仮想オブジェクトの動き
VM…マスクオブジェクト
θa…初期輻輳角(第1の輻輳角)
θb…目標輻輳角
θc…輻輳角(第2の輻輳角θ)
θx…目標視差角
Claims (14)
- 使用者が虚像と外景を視認可能な頭部装着型表示装置であって、
前記使用者に前記虚像を視認させる画像表示部と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトであって、前記使用者の視覚的な違和感が緩和された前記仮想オブジェクトを表す前記虚像を、前記画像表示部に形成させる拡張現実処理部と、
を備える、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を用いて、前記仮想オブジェクトを前記環境に調和させることで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置。 - 請求項2に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記3次元情報内に前記仮想オブジェクトを配置し、
前記仮想オブジェクトと前記3次元情報とのうちの少なくとも一方に対して、前記環境に応じた視覚効果を加えた後、前記仮想オブジェクトを2次元化することで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置。 - 請求項3に記載の頭部装着型表示装置であって、
前記環境に応じた視覚効果は、少なくとも、
前記仮想オブジェクトのうち前記3次元情報内の前記立体物の陰になる部分のトリミングと、
前記環境に準じた前記仮想オブジェクトのライティングと、
前記環境に準じて設定された前記3次元情報内の前記立体物の反発係数と摩擦係数との少なくとも一方に基づく、前記仮想オブジェクトの挙動の調整と、のうちのいずれか一つを含む、頭部装着型表示装置。 - 請求項3または請求項4に記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置を装着した状態における前記使用者の視界方向の画像を取得する画像取得部を備え、
前記拡張現実処理部は、前記画像取得部によって取得された前記視界方向の画像を画像認識することで、前記環境を推定する、頭部装着型表示装置。 - 請求項3から請求項5のいずれか一項に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記仮想オブジェクトを2次元化する際に、前記使用者の眼から前記使用者の注視点までの間の距離を考慮する、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記画像表示部は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を記憶する画素視差角記憶部を備え、
前記拡張現実処理部は、前記画素視差角記憶部に記憶されている前記差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。 - 請求項7に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、前記仮想オブジェクトを表す単一の画像データーから、前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。 - 請求項7に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離に基づいて、3Dモデル空間上に2D投影画像を取得するための2箇所の仮想カメラを設定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、一方の前記仮想カメラによる2D投影画像をスケーリングして前記右眼用画像データーを生成し、他方の前記仮想カメラによる2D投影画像をスケーリングして前記左眼用画像データーを生成する、頭部装着型表示装置。 - 請求項9に記載の頭部装着型表示装置であって、さらに、
前記使用者の眼間距離を記憶する眼間距離記憶部を備え、
前記拡張現実処理部は、前記2箇所の仮想カメラを設定する際、前記決定した目標距離に基づいて、3Dモデル空間上に仮想的な視点である仮想視点を配置し、配置された前記仮想視点から眼間距離/2離れた位置に一方の仮想カメラを配置し、配置された前記仮想視点から眼間距離/2離れた位置に他方の仮想カメラを配置する、頭部装着型表示装置。 - 請求項10に記載の頭部装着型表示装置であって、さらに、
前記使用者の瞳孔間距離を測定する瞳孔間距離測定部を備え、
前記瞳孔間距離測定部による測定結果は、前記眼間距離として前記眼間距離記憶部に記憶される、頭部装着型表示装置。 - 使用者が虚像と外景を視認可能な頭部装着型表示装置の制御方法であって、
前記使用者に前記虚像を視認させる工程と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトであって、前記使用者の視覚的な違和感が緩和された前記仮想オブジェクトを表す前記虚像を、前記視認させる工程において形成させる工程と、
を備える、頭部装着型表示装置の制御方法。 - 請求項12に記載の頭部装着型表示装置の制御方法であって、
前記生成する工程は、前記使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を用いて、前記仮想オブジェクトを前記環境に調和させることで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置の制御方法。 - 請求項12に記載の頭部装着型表示装置の制御方法であって、
前記生成する工程は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記視認させる工程は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
前記生成する工程は、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置の制御方法。
Priority Applications (10)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013222143A JP6369005B2 (ja) | 2013-10-25 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
| RU2015145510A RU2015145510A (ru) | 2013-03-26 | 2014-03-14 | Наголовное устройство отображения, способ управления наголовным устройством отображения и система отображения |
| US14/773,689 US20160033770A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| BR112015024910A BR112015024910A2 (pt) | 2013-03-26 | 2014-03-14 | dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição |
| KR1020157030674A KR101845350B1 (ko) | 2013-03-26 | 2014-03-14 | 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법 |
| EP14718781.9A EP2979446A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| PCT/JP2014/001464 WO2014156033A1 (en) | 2013-03-26 | 2014-03-14 | Head-mounted display device, control method of head-mounted display device, and display system |
| TW103110753A TW201437688A (zh) | 2013-03-26 | 2014-03-21 | 頭部配戴型顯示裝置、頭部配戴型顯示裝置之控制方法及顯示系統 |
| CN201410111332.7A CN104076513B (zh) | 2013-03-26 | 2014-03-24 | 头戴式显示装置、头戴式显示装置的控制方法、以及显示系统 |
| US16/293,975 US11054650B2 (en) | 2013-03-26 | 2019-03-06 | Head-mounted display device, control method of head-mounted display device, and display system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013222143A JP6369005B2 (ja) | 2013-10-25 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018131946A Division JP6683218B2 (ja) | 2018-07-12 | 2018-07-12 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015084150A true JP2015084150A (ja) | 2015-04-30 |
| JP6369005B2 JP6369005B2 (ja) | 2018-08-08 |
Family
ID=53047727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013222143A Active JP6369005B2 (ja) | 2013-03-26 | 2013-10-25 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6369005B2 (ja) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017169272A1 (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2017182340A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2017181666A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP2018518707A (ja) * | 2015-05-29 | 2018-07-12 | シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. | 自己適応ディスプレイ調整方法及びヘッドマウントディスプレイデバイス |
| JP2018142090A (ja) * | 2017-02-27 | 2018-09-13 | Kddi株式会社 | キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム |
| JP2018533232A (ja) * | 2015-09-10 | 2018-11-08 | グーグル エルエルシー | ステレオレンダリングシステム |
| JP2018198075A (ja) * | 2018-07-31 | 2018-12-13 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
| JP2020098152A (ja) * | 2018-12-18 | 2020-06-25 | 株式会社中電工 | 表示システム |
| JP2020136882A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社メディア工房 | 点群データ通信システム、点群データ送信装置および点群データ送信方法 |
| JP2020198066A (ja) * | 2019-06-03 | 2020-12-10 | アイドス インタラクティブ コープ | 拡張現実アプリケーション用システム及び方法 |
| CN113670232A (zh) * | 2021-08-18 | 2021-11-19 | 歌尔光学科技有限公司 | 虚拟现实设备偏心标样及标样偏心值测量方法 |
| JP2022082551A (ja) * | 2017-11-02 | 2022-06-02 | マクセル株式会社 | 虚像表示装置およびそれを用いたヘッドマウントディスプレイ |
| JP2022176559A (ja) * | 2021-05-17 | 2022-11-30 | Cellid株式会社 | 眼鏡型端末、プログラム及び画像表示方法 |
| JP2023525191A (ja) * | 2020-05-13 | 2023-06-15 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | 環境的に整合した人工現実コンテンツを生成するために光センサーを使用するディスプレイ |
| US11941315B2 (en) | 2021-08-23 | 2024-03-26 | Samsung Electronics Co., Ltd. | Wearable electronic device for displaying augmented reality object and method for operating the same |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11202256A (ja) * | 1998-01-20 | 1999-07-30 | Ricoh Co Ltd | 頭部搭載型画像表示装置 |
| JP2004234549A (ja) * | 2003-01-31 | 2004-08-19 | Canon Inc | 現実物体モデル作成方法 |
| JP2010128986A (ja) * | 2008-11-28 | 2010-06-10 | Canon Inc | 複合現実感提示システムと仮想光源の輝度調整方法 |
| US20120206452A1 (en) * | 2010-10-15 | 2012-08-16 | Geisner Kevin A | Realistic occlusion for a head mounted augmented reality display |
| WO2012135553A1 (en) * | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
| WO2013054462A1 (ja) * | 2011-10-13 | 2013-04-18 | パナソニック株式会社 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
| JP2013517579A (ja) * | 2010-03-25 | 2013-05-16 | ビズモードライン カンパニー リミテッド | 拡張現実システム |
| US20130141434A1 (en) * | 2011-12-01 | 2013-06-06 | Ben Sugden | Virtual light in augmented reality |
-
2013
- 2013-10-25 JP JP2013222143A patent/JP6369005B2/ja active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11202256A (ja) * | 1998-01-20 | 1999-07-30 | Ricoh Co Ltd | 頭部搭載型画像表示装置 |
| JP2004234549A (ja) * | 2003-01-31 | 2004-08-19 | Canon Inc | 現実物体モデル作成方法 |
| JP2010128986A (ja) * | 2008-11-28 | 2010-06-10 | Canon Inc | 複合現実感提示システムと仮想光源の輝度調整方法 |
| JP2013517579A (ja) * | 2010-03-25 | 2013-05-16 | ビズモードライン カンパニー リミテッド | 拡張現実システム |
| US20120206452A1 (en) * | 2010-10-15 | 2012-08-16 | Geisner Kevin A | Realistic occlusion for a head mounted augmented reality display |
| WO2012135553A1 (en) * | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Selective hand occlusion over virtual projections onto physical surfaces using skeletal tracking |
| WO2013054462A1 (ja) * | 2011-10-13 | 2013-04-18 | パナソニック株式会社 | ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路 |
| US20130141434A1 (en) * | 2011-12-01 | 2013-06-06 | Ben Sugden | Virtual light in augmented reality |
Non-Patent Citations (2)
| Title |
|---|
| 内山英昭, 外1名: ""戦略解析に基づくビリヤード支援システム"", 情報処理学会研究報告, vol. 第2007巻, 第18号, JPN6018011675, 2 March 2007 (2007-03-02), JP, pages 71 - 78, ISSN: 0003770938 * |
| 角田哲也, 外2名: ""影付け平面を用いた複合現実感における高速陰影表現手法"", 映像情報メディア学会誌, vol. 第62巻, 第5号, JPN6017047077, 1 May 2008 (2008-05-01), JP, pages 788 - 795, ISSN: 0003698219 * |
Cited By (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018518707A (ja) * | 2015-05-29 | 2018-07-12 | シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. | 自己適応ディスプレイ調整方法及びヘッドマウントディスプレイデバイス |
| JP2018533232A (ja) * | 2015-09-10 | 2018-11-08 | グーグル エルエルシー | ステレオレンダリングシステム |
| US10757399B2 (en) | 2015-09-10 | 2020-08-25 | Google Llc | Stereo rendering system |
| WO2017169272A1 (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| WO2017169081A1 (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP2017181666A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| WO2017169273A1 (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2017182340A (ja) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| CN108885856A (zh) * | 2016-03-29 | 2018-11-23 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
| CN108885856B (zh) * | 2016-03-29 | 2021-11-09 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
| US10650601B2 (en) | 2016-03-29 | 2020-05-12 | Sony Corporation | Information processing device and information processing method |
| US11004273B2 (en) | 2016-03-29 | 2021-05-11 | Sony Corporation | Information processing device and information processing method |
| US10755482B2 (en) | 2016-03-29 | 2020-08-25 | Sony Corporation | Information processing device and information processing method |
| JP2018142090A (ja) * | 2017-02-27 | 2018-09-13 | Kddi株式会社 | キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム |
| JP2022082551A (ja) * | 2017-11-02 | 2022-06-02 | マクセル株式会社 | 虚像表示装置およびそれを用いたヘッドマウントディスプレイ |
| US11991345B2 (en) | 2017-11-02 | 2024-05-21 | Maxell, Ltd. | Virtual image display device and head mounted display using same |
| JP7431267B2 (ja) | 2017-11-02 | 2024-02-14 | マクセル株式会社 | 虚像表示装置およびそれを用いたヘッドマウントディスプレイ |
| JP2018198075A (ja) * | 2018-07-31 | 2018-12-13 | 株式会社コナミデジタルエンタテインメント | 端末装置、及びプログラム |
| JP2020098152A (ja) * | 2018-12-18 | 2020-06-25 | 株式会社中電工 | 表示システム |
| JP2020136882A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社メディア工房 | 点群データ通信システム、点群データ送信装置および点群データ送信方法 |
| JP7089495B2 (ja) | 2019-06-03 | 2022-06-22 | アイドス インタラクティブ コープ | 拡張現実アプリケーション用システム及び方法 |
| JP2020198066A (ja) * | 2019-06-03 | 2020-12-10 | アイドス インタラクティブ コープ | 拡張現実アプリケーション用システム及び方法 |
| JP2023525191A (ja) * | 2020-05-13 | 2023-06-15 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | 環境的に整合した人工現実コンテンツを生成するために光センサーを使用するディスプレイ |
| JP2022176559A (ja) * | 2021-05-17 | 2022-11-30 | Cellid株式会社 | 眼鏡型端末、プログラム及び画像表示方法 |
| JP7703180B2 (ja) | 2021-05-17 | 2025-07-07 | Cellid株式会社 | 眼鏡型端末、プログラム及び画像表示方法 |
| CN113670232A (zh) * | 2021-08-18 | 2021-11-19 | 歌尔光学科技有限公司 | 虚拟现实设备偏心标样及标样偏心值测量方法 |
| US11941315B2 (en) | 2021-08-23 | 2024-03-26 | Samsung Electronics Co., Ltd. | Wearable electronic device for displaying augmented reality object and method for operating the same |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6369005B2 (ja) | 2018-08-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11054650B2 (en) | Head-mounted display device, control method of head-mounted display device, and display system | |
| JP6369005B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP6337418B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP6459421B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
| CN110068926B (zh) | 显示装置 | |
| US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
| JP6217244B2 (ja) | 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム | |
| JP6232763B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| US10567730B2 (en) | Display device and control method therefor | |
| WO2016063504A1 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6645096B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
| JP6492673B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
| JP6620417B2 (ja) | 表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
| JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
| JP2016109710A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
| JP6451222B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
| JP6287399B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160530 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160817 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171117 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171212 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180529 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6369005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |