JP2015125641A - 情報処理装置、その制御方法、及びプログラム - Google Patents
情報処理装置、その制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2015125641A JP2015125641A JP2013270325A JP2013270325A JP2015125641A JP 2015125641 A JP2015125641 A JP 2015125641A JP 2013270325 A JP2013270325 A JP 2013270325A JP 2013270325 A JP2013270325 A JP 2013270325A JP 2015125641 A JP2015125641 A JP 2015125641A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- information processing
- work object
- image data
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims description 17
- 238000003384 imaging method Methods 0.000 claims description 31
- 239000003550 marker Substances 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】複合現実感を提示する仕組みにおいて、ユーザの装着するヘッドマウントディスプレイが備えるデプスセンサを用いて、作業対象物の位置に当該作業対象物を示す3次元モデルを表示すること。【解決手段】情報処理装置101は、ユーザが装着するHMD102に備えられたデプスセンサ105が計測した作業対象物の座標を取得する。情報処理装置101は、当該座標を用いて作業対象物を示す第1の3次元モデルを生成し、当該作業対象物の位置に相当する仮想空間上の位置に配置する。そして、HMD102の位置・姿勢に応じて当該仮想空間を撮像し、撮像した画像データと現実空間を撮像した画像データとを重畳した画像データをHMD102に送信する。【選択図】図1
Description
本発明は、複合現実感(Mixed Reality)技術に関し、特にユーザの装着するヘッドマウントディスプレイが備えるデプスセンサを用いて、精度よく作業対象物の位置に当該作業対象物を示す3次元モデルを表示することの可能な情報処理装置、その制御方法、及びプログラムに関する。
従来、ヘッドマウントディスプレイ(HMD)やスマートフォンで撮像した現実の世界(以下、現実空間)の画像に、コンピュータで生成された仮想の世界(以下、仮想空間)の画像を重畳させて、HMDやスマートフォンの画面に表示する技術が存在する。例えば、複合現実感(Mixed Reality、以下、MR)技術や拡張現実感(Augmented Reality)技術などがある。
このMR技術では、複合現実感を高めるために、ユーザの視点位置・姿勢をリアルタイムで取得し、現実空間を撮像した画像の変化に追従させて仮想空間の画像を生成し、HMDを通じてユーザに対してリアルタイムに表示する必要がある。そのため、MR技術では、センサ等によって計測したユーザの視点位置・姿勢を仮想空間での仮想の視点位置・姿勢として設定し、この設定に基づいて仮想空間の画像をCGにより描画し、現実空間の画像と合成している。この技術により、ユーザはあたかも現実空間の中に仮想の物体が存在しているかのような画像を観察することができる。
こうした仕組みにおいては、HMDが備える左目用のビデオカメラと右目用のビデオカメラとを用いることで、現実空間にある物体(以下、作業対象物)の位置を計測することができる。より具体的には、この2つのビデオカメラの撮像により生成された画像データから作業対象物を検出し、いわゆる三角測量の分野で広く利用される計算技術を用いることで、当該作業対象物の位置を計測することが可能である。
二眼のHMDを用いて三角測量により現実空間にある物体の位置を計測する仕組みが、下記の特許文献1に開示されている。下記の特許文献1では、ユーザの手の位置を三角測量によって求めている。
しかしながら、前述した二眼のHMDを用いた三角測量では、現実空間の作業対象物の位置を精度よく検出することができない問題がある。二眼のHMDを用いた三角測量では、画像データを解析して作業対象物を検出する必要がある。そこで画像データから作業対象物を検出するべく画像処理を行うのだが、この画像処理のロジックや撮像される作業対象物の周辺の状況によっては、精度よく作業対象物の位置を検出できず、誤差が生じてしまう可能性がある。
そのため、作業対象物の位置に計測した結果の第1の3次元モデルと、完成形の作業対象物を示す第2の3次元モデルとを表示させようとしても、計測した結果の3次元モデルが実際の位置よりもずれて表示されてしまう。
例えば、図9には第1の3次元モデル900と第2の3次元モデル910とが表示されている。本来であれば、第1の3次元モデル900は、第2の3次元モデル910の位置に表示されなければならないが、前述した誤差により第1の3次元モデル900がずれて表示されてしまっている。作業対象物に加工を加えると、三角測量により逐一計算されて第1の3次元モデル900の形状も変化するが、第2の3次元モデル910とずれて表示されているため、加工した結果が完成形の作業対象物に近づいているのか否かを確認しづらい。
そこで本発明の目的は、複合現実感を提示する仕組みにおいて、ユーザの装着するヘッドマウントディスプレイが備えるデプスセンサを用いて、作業対象物の位置に当該作業対象物を示す3次元モデルを表示する仕組みを提供することである。
上記の目的を達成するために本発明の情報処理装置は、作業対象物の座標を計測するデプスセンサと、現実空間を撮像する現実空間撮像手段とを備えるヘッドマウントディスプレイと通信可能に接続される情報処理装置であって、前記デプスセンサが計測した前記作業対象物の座標を取得する座標取得手段と、前記座標取得手段で取得した前記作業対象物の座標を用いて、当該作業対象物を示す第1の3次元モデルを生成する3次元モデル生成手段と、前記座標取得手段で取得した前記作業対象物の座標を用いて、前記3次元モデル生成手段で生成された3次元モデルを当該作業対象物の位置に表示可能な仮想空間を生成する仮想空間生成手段と、前記ヘッドマウントディスプレイを装着するユーザの位置及び姿勢を取得する位置姿勢取得手段と、前記位置姿勢取得手段で取得した位置及び姿勢を用いて、前記仮想空間生成手段で生成された仮想空間を撮像する仮想空間撮像手段と、前記現実空間撮像手段で撮像することにより生成された画像データと、前記仮想空間撮像手段で撮像することにより生成された画像データとを重畳した画像データを生成する重畳画像生成手段と、前記重畳画像生成手段で生成された画像データをユーザに提示するよう、当該画像データを前記ヘッドマウントディスプレイに送信する画像データ送信手段とを備えることを特徴とする。
本発明によれば、複合現実感を提示する仕組みにおいて、ユーザの装着するヘッドマウントディスプレイが備えるデプスセンサを用いて、作業対象物の位置に当該作業対象物を示す3次元モデルを表示することの可能な効果を奏する。
以下、図面を参照しながら、本発明の実施形態の一例について説明する。
図1は、本発明の実施形態におけるMRシステムのシステム構成の一例を示す図である。MRシステムは、複合現実感(Mixed Reality、以下、MR)をユーザに提供するシステムである。MRシステムは、情報処理装置101、HMD102、赤外線カメラ104、デプスセンサ105とを含む。情報処理装置101にHMD102と、赤外線カメラ104と、デプスセンサ105とが接続されており、情報処理装置101はこれらと相互にデータ通信可能に有線または無線で接続されている。尚、図1のシステム上に接続される各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。
情報処理装置101は、パーソナルコンピュータのような装置である。情報処理装置101は、HMD102で撮像(撮像)された現実空間の画像(以下、現実空間画像)と、情報処理装置101で生成された仮想空間の画像(以下、仮想空間画像)とを重畳した画像(以下、複合現実画像)を生成し、HMD102に送信する。MRの技術に関しては従来技術を用いるため、詳細な説明は省略する。
HMD102は、いわゆるヘッドマウントディスプレイである。HMD102は、ユーザの頭部に装着するディスプレイ装置であり、右目用と左目用のビデオカメラと、右目用と左目用のディスプレイを備えている。HMD102は、HMD102のビデオカメラで撮像された現実空間画像を情報処理装置101に送信する。そして、情報処理装置101から送信されてきた複合現実画像を受信し、ディスプレイに表示する。更に、右目用と左目用のビデオカメラとディスプレイを設けているので、視差によって立体感を得ることができる。尚、HMD102で撮像する現実空間画像、及び表示する複合現実画像は、動画形式が望ましいが、所定の間隔で撮像された画像であってもよい。
赤外線カメラ104は、赤外線を照射することで現実空間を撮像する装置である。本実施形態では、赤外線カメラ104はHMD102が備えるオプティカルマーカ103を検出し、HMD102の位置や姿勢を検出する。どのような状況下でもオプティカルマーカ103を検出できるように、赤外線カメラ104を複数設置することが望ましい。尚、本実施形態では赤外線カメラ104とHMD102が備えるオプティカルマーカ103を用いてHMD102の位置・姿勢を取得するが、HMD102の位置・姿勢が検出できればどのような形態でも構わない。例えば、磁気センサを用いてもよいし、HMD102で撮像された映像を解析して位置・姿勢を特定してもよい。
デプスセンサ105は、現実空間の物体の位置を検出するためのセンサである。デプスセンサ105はHMD102に備えられており、HMD102を装着するユーザの視線方向に存在する現実空間の物体の位置を示す座標を取得する。そのため、デプスセンサ105はHMD102を装着するユーザの視線方向と同様の方向に向けてHMD102に固定されている。
図2は、情報処理装置101のハードウェア構成を示す図である。尚、図2の情報処理装置101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例がある。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムや、各種装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
また、入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
ビデオコントローラ(VC)206は、HMD102が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、赤外線カメラ104、デプスセンサ105との通信も制御する。
汎用バス209は、HMD102の右目・左目ビデオカメラ221(現実空間撮像手段)からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。
本発明の情報処理装置101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
図3は、情報処理装置101の機能構成を示す機能構成図である。尚、図3の情報処理装置101の機能構成は一例であり、用途や目的に応じて様々な構成例がある。
情報処理装置101は、通信制御部301、3次元モデル管理部302、現実空間画像取得部303、マーカ検出部304、仮想空間生成部305、位置姿勢取得部306、物体座標取得部307、複合現実画像生成部308を備える。
通信制御部301は、HMD102、赤外線カメラ104、デプスセンサ105等の装置と情報の送受信を行うための機能部である。3次元モデル管理部302は、外部メモリ211等に記憶され、仮想空間に表示可能な3次元モデルを管理する機能部である。現実空間画像取得部303は、HMD102の右目・左目ビデオカメラ221の撮像により生成される現実空間画像を取得するための機能部である。
マーカ検出部304は、現実空間画像取得部303で取得した現実空間画像に含まれるマーカを検出するための機能部である。マーカとは、情報処理装置101が現実空間の物体の位置・姿勢を認識するための二次元コードである。このマーカの例を図4のマーカ402に示す。図4は本実施形態のMRシステムを利用するユーザとそのユーザの周辺の様子を示す図である。ユーザはデプスセンサ105を備えるHMD102を装着しており、更にマーカ402が複数貼り付けられた作業対象物401が存在している。情報処理装置101のマーカ検出部304は現実空間画像に所定の画像処理を実行し、このマーカ402を検出する。マーカ402を検出することで、複雑な画像処理を行うことなく、現実空間の物体の位置・姿勢を認識することができる。
仮想空間生成部305(仮想空間生成手段)は、現実空間に重畳させて表示するための仮想空間を生成する機能部である。仮想空間生成部305は、3次元モデルを3次元モデル管理部302から取得し、所定の座標位置と向きで当該3次元モデルを配置することで、仮想空間を生成する。
位置姿勢取得部306は、赤外線カメラ104から送信されるHMD102の位置・姿勢を取得するための機能部である。赤外線カメラ104から送信される位置・姿勢は、現実空間における位置・姿勢であるので、これを当該現実空間に対して位置合わせされた仮想空間における位置・姿勢として変換し、取得する機能も有する。
物体座標取得部307は、HMD102が備えるデプスセンサ105が計測した現実空間の物体の位置座標を取得する。デプスセンサ105は、計測用の画素ごとに現実空間の物体に対して位置座標を計測するので、この複数の位置座標を物体座標取得部307が取得することになる。
複合現実画像生成部308は、現実空間画像取得部303で取得した現実空間画像と、仮想空間生成部305で生成した仮想空間を撮像した仮想空間画像とを重畳して、複合現実画像を生成するための機能部である。
次に、本発明の実施形態における情報処理装置101によって行われる一連の処理について、図5に示すフローチャートを用いて説明する。
図5の説明の前に図4を参照して本発明の概要について説明する。図4は、前述した通り、本実施形態のMRシステムを利用するユーザとそのユーザの周辺の様子を示す図である。ユーザはデプスセンサ105を備えるHMD102を装着しており、更にマーカ402が複数貼り付けられた作業対象物401が存在している。MRシステムは、この加工をする際の基準となる3次元モデルである基準モデル(第2の3次元モデル)を、マーカ402を用いて作業対象物401の位置に表示する。更には、デプスセンサ105で計測した結果生成される、現実空間の物体(作業対象物401や床や壁等)を示す3次元モデルである計測モデル(第1の3次元モデル)を現実空間の当該物体の位置に表示する。
ユーザは、こうして表示された計測モデルの形を基準モデルの形に合わせるように工具を用いて加工していく。ユーザが作業対象物401を加工すると当該作業対象物401の形状が変化する。そしてこの形状が変化した作業対象物401をデプスセンサ105が計測し、計測モデルを再生成するため、リアルタイムに加工の結果が正しいか否かを確認することができる。
従来はこうした計測モデルを生成するときにHMD102から取得する現実空間画像を用いていたが、画像処理のロジックによって計測モデルを表示する位置が変わってきてしまう。そのため、本発明ではデプスセンサ105をHMD102に備え、当該デプスセンサ105の計測結果を用いることで、より精度のよい位置で計測モデルを表示することができる。以下、これらの詳細な処理について図5のフローチャートを用いて説明する。
まずステップS501では、情報処理装置101のCPU201は、情報処理装置101の赤外線カメラ104から送信される現実空間におけるHMD102の位置・姿勢、すなわちHMD102を装着するユーザの位置・姿勢を取得する(位置姿勢取得手段)。そして、取得した位置・姿勢に対応する仮想空間における位置・姿勢を取得する。現実空間と仮想空間とはあらかじめ位置合わせがなされている。そのため、現実空間における位置・姿勢がわかれば、それに対応する仮想空間の位置・姿勢も取得できる。
ステップS502では、情報処理装置101のCPU201は、HMD102に備えられたデプスセンサ105から送信される現実空間の物体(作業対象物401や床や壁等)の深度座標を取得する(座標取得手段)。ここでいう深度座標とは、デプスセンサ105が計測した座標である。デプスセンサ105は情報処理装置101が把握する仮想空間や現実空間とは異なる独自の座標系を持っている。本実施形態ではこの座標系に基づいた座標を深度座標と呼ぶ。
より具体的には、図6の座標系イメージ600と座標系イメージ610に示す通りである。座標系イメージ600に示す通り、デプスセンサ105を原点とし、デプスセンサ105の視線方向602をZ軸とし、当該Z軸に対して直交する上下方向601をY軸としている。更には、座標系イメージ610に示すとおり、Y軸とZ軸に直交する左右方向611をX座標としている。この3軸の座標系に基づいて、デプスセンサ105が現実空間の物体の深度座標を取得する。
ステップS503では、情報処理装置101のCPU201は、HMD102の右目・左目ビデオカメラ221から送信された現実空間画像を取得する。そして、ステップS504では、情報処理装置101のCPU201は、ステップS503で取得した現実空間画像から作業対象物401に付されたマーカ402を検出する。現実空間画像からマーカ402を検出する技術については、従来技術を用いるため説明は省略する。
ステップS505では、情報処理装置101のCPU201は、ステップS504で現実空間画像から作業対象物401に付されたマーカ402を検出したか否かを判定する。マーカ402を検出したと判定した場合には、ステップS506に処理を進める。マーカ402を検出していないと判定した場合には、本一連の処理を終了する。
ステップS506では、情報処理装置101のCPU201は、ステップS504で検出したマーカ402に対応する基準モデルを外部メモリ211等から取得する。当該基準モデルはマーカ402が付された作業対象物401を加工した結果の完成形を示す3次元モデルである。基準モデルはあらかじめ作成し、情報処理装置101の外部メモリ211等にマーカ402と対応付けて記憶しておく。
ステップS507では、情報処理装置101のCPU201は、ステップS504で検出したマーカ402に基づいて、ステップS506で取得した基準モデルを表示する仮想空間上の座標と向きを特定する(位置特定手段)。外部メモリ211等では、作業対象物401に付されるマーカ402ごとに、仮想空間において基準モデルをどのような向きで表示するべきかを記憶している。更に、ステップS501で取得したHMD102の仮想空間における位置・姿勢と、現実空間画像から取得可能なマーカ402の向きや形状とを用いて、HMD102とマーカ402との位置関係を特定できる。よって、この位置関係に基づいて基準モデルを表示する仮想空間上の座標を特定する。
ステップS508では、情報処理装置101のCPU201は、ステップS507で特定した座標と向きで、ステップS506で取得した基準モデル(第2の3次元モデル)を配置する。すなわち、この配置された位置は、現実空間の作業対象物401に対応する位置である。
ステップS509では、情報処理装置101のCPU201は、ステップS502で取得した現実空間の物体の深度座標を、ステップS501で取得したHMD102の位置・姿勢に応じて、仮想空間の座標に変換する。すなわち、デプスセンサ105で取得した座標の座標系を仮想空間の座標系に変換するということである。デプスセンサ105はHMD102に備えられているので、デプスセンサ105の位置・姿勢は、HMD102の位置・姿勢と同等である。これを利用して、深度座標をHMD102の位置・姿勢に応じて仮想空間上の座標に変換する。尚、デプスセンサ105の設置位置に応じて座標の補正を行うことが望ましい。
ステップS510では、情報処理装置101のCPU201は、ステップS509で変換した仮想空間の座標が示す点同士を線分で接続し、作業対象物401を示す格子状の計測モデル(第1の3次元モデル)を仮想空間上に生成する(3次元モデル生成手段)。情報処理装置101がデプスセンサ105から取得するのは、現実空間の物体を示す点の座標群である。よって、この点を線で結ぶことでユーザが視認しやすい形態としている。
ステップS511では、情報処理装置101のCPU201は、ステップS501で取得したHMD102の位置・姿勢に応じて仮想空間上に仮想的なカメラを設置し、当該カメラから撮像した仮想空間画像を生成する(仮想空間撮像手段)。そして、ステップS512では、情報処理装置101のCPU201は、ステップS511で取得した仮想空間画像とステップS503で取得した現実空間画像とを重畳し、複合現実画像を生成する(重畳画像生成手段)。
ステップS513では、情報処理装置101のCPU201は、ステップS512で生成した複合現実画像をHMD102に送信し、HMD102の右目・左目ディスプレイ222を通じて複合現実画像をユーザに提示する(画像データ送信手段)。
以上のステップS501乃至ステップS513の処理をユーザから終了の指示があるまで、繰り返し実行する。例えば、図5のフローチャートを実行した結果として図7に示すような複合現実画像が右目・左目ディスプレイ222に表示される。図7にはステップS510で生成した計測モデル700と、ステップS508で配置した基準モデル710とが表示されている。図7では図示していないが、これらは作業対象物401の位置に重ねて表示されている。ユーザはこの複合現実画像を見ながら、基準モデル710に合うように作業対象物401を加工していく。作業対象物401の位置に重ねて表示されているため、計測モデル700に対して加工を施すイメージで作業が行える。そして、図5のフローチャートを繰り返し実行するため、加工に応じて変化する作業対象物401の形状が計測モデル700に反映される。
計測モデル700と基準モデル710とが一致するように加工を行っていくと、図8に示すような複合現実画像となる。つまり、計測モデル700と基準モデル710とが一致したということは、作業対象物401が基準モデル710と同じ形状になったということである。このようにして、作業対象物401の加工作業を支援する。
以上説明したように、本実施形態によれば、複合現実感を提示する仕組みにおいて、ユーザの装着するヘッドマウントディスプレイが備えるデプスセンサを用いて、作業対象物の位置に当該作業対象物を示す3次元モデルを表示することの可能な効果を奏する。
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 情報処理装置
102 HMD
103 オプティカルマーカ
104 赤外線カメラ
105 デプスセンサ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 汎用バス
210 入力デバイス
211 外部メモリ
221 右目・左目ビデオカメラ
222 右目・左目ディスプレイ
102 HMD
103 オプティカルマーカ
104 赤外線カメラ
105 デプスセンサ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 汎用バス
210 入力デバイス
211 外部メモリ
221 右目・左目ビデオカメラ
222 右目・左目ディスプレイ
Claims (7)
- 作業対象物の座標を計測するデプスセンサと、現実空間を撮像する現実空間撮像手段とを備えるヘッドマウントディスプレイと通信可能に接続される情報処理装置であって、
前記デプスセンサが計測した前記作業対象物の座標を取得する座標取得手段と、
前記座標取得手段で取得した前記作業対象物の座標を用いて、当該作業対象物を示す第1の3次元モデルを生成する3次元モデル生成手段と、
前記座標取得手段で取得した前記作業対象物の座標を用いて、前記3次元モデル生成手段で生成された3次元モデルを当該作業対象物の位置に表示可能な仮想空間を生成する仮想空間生成手段と、
前記ヘッドマウントディスプレイを装着するユーザの位置及び姿勢を取得する位置姿勢取得手段と、
前記位置姿勢取得手段で取得した位置及び姿勢を用いて、前記仮想空間生成手段で生成された仮想空間を撮像する仮想空間撮像手段と、
前記現実空間撮像手段で撮像することにより生成された画像データと、前記仮想空間撮像手段で撮像することにより生成された画像データとを重畳した画像データを生成する重畳画像生成手段と、
前記重畳画像生成手段で生成された画像データをユーザに提示するよう、当該画像データを前記ヘッドマウントディスプレイに送信する画像データ送信手段と
を備えることを特徴とする情報処理装置。 - 前記仮想空間生成手段は、更に前記作業対象物の基準となる第2の3次元モデルを当該作業対象物の位置に表示可能な仮想空間を生成することを特徴とする請求項1に記載の情報処理装置。
- 前記情報処理装置は、
前記現実空間撮像手段で前記作業対象物を含む現実空間を撮像することにより生成された画像データを用いて、前記作業対象物の位置を特定する位置特定手段を更に備え、
前記仮想空間生成手段は、更に前記作業対象物の基準となる第2の3次元モデルを前記位置特定手段で特定した位置に表示可能な仮想空間を生成することを特徴とする請求項1または2に記載の情報処理装置。 - 前記位置特定手段は、前記作業対象物に付されたマーカを用いて、当該作業対象物の位置を特定することを特徴とする請求項3に記載の情報処理装置。
- 前記位置姿勢取得手段は、前記ヘッドマウントディスプレイが備えるオプティカルマーカを検出する赤外線カメラから情報に基づいて、当該ヘッドマウントディスプレイを装着するユーザの位置及び姿勢を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 作業対象物の座標を計測するデプスセンサと、現実空間を撮像する現実空間撮像手段とを備えるヘッドマウントディスプレイと通信可能に接続される情報処理装置の制御方法であって、
前記情報処理装置の座標取得手段が、前記デプスセンサが計測した前記作業対象物の座標を取得する座標取得ステップと、
前記情報処理装置の3次元モデル生成手段が、前記座標取得ステップで取得した前記作業対象物の座標を用いて、当該作業対象物を示す第1の3次元モデルを生成する3次元モデル生成ステップと、
前記情報処理装置の仮想空間生成手段が、前記座標取得ステップで取得した前記作業対象物の座標を用いて、前記3次元モデル生成ステップで生成された3次元モデルを当該作業対象物の位置に表示可能な仮想空間を生成する仮想空間生成ステップと、
前記情報処理装置の位置姿勢取得手段が、前記ヘッドマウントディスプレイを装着するユーザの位置及び姿勢を取得する位置姿勢取得ステップと、
前記情報処理装置の仮想空間撮像手段が、前記位置姿勢取得ステップで取得した位置及び姿勢を用いて、前記仮想空間生成ステップで生成された仮想空間を撮像する仮想空間撮像ステップと、
前記情報処理装置の複合現実画像生成手段が、前記現実空間撮像手段で撮像することにより生成された画像データと、前記仮想空間撮像ステップで撮像することにより生成された画像データとを重畳した画像データを生成する重畳画像生成ステップと、
前記情報処理装置の画像データ送信手段が、前記重畳画像生成ステップで生成された画像データをユーザに提示するよう、当該画像データを前記ヘッドマウントディスプレイに送信する画像データ送信ステップと
を備えることを特徴とする情報処理装置の制御方法。 - 作業対象物の座標を計測するデプスセンサと、現実空間を撮像する現実空間撮像手段とを備えるヘッドマウントディスプレイと通信可能に接続される情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
前記デプスセンサが計測した前記作業対象物の座標を取得する座標取得手段と、
前記座標取得手段で取得した前記作業対象物の座標を用いて、当該作業対象物を示す第1の3次元モデルを生成する3次元モデル生成手段と、
前記座標取得手段で取得した前記作業対象物の座標を用いて、前記3次元モデル生成手段で生成された3次元モデルを当該作業対象物の位置に表示可能な仮想空間を生成する仮想空間生成手段と、
前記ヘッドマウントディスプレイを装着するユーザの位置及び姿勢を取得する位置姿勢取得手段と、
前記位置姿勢取得手段で取得した位置及び姿勢を用いて、前記仮想空間生成手段で生成された仮想空間を撮像する仮想空間撮像手段と、
前記現実空間撮像手段で撮像することにより生成された画像データと、前記仮想空間撮像手段で撮像することにより生成された画像データとを重畳した画像データを生成する重畳画像生成手段と、
前記重畳画像生成手段で生成された画像データをユーザに提示するよう、当該画像データを前記ヘッドマウントディスプレイに送信する画像データ送信手段
として機能させることを特徴とするプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013270325A JP2015125641A (ja) | 2013-12-26 | 2013-12-26 | 情報処理装置、その制御方法、及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013270325A JP2015125641A (ja) | 2013-12-26 | 2013-12-26 | 情報処理装置、その制御方法、及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015125641A true JP2015125641A (ja) | 2015-07-06 |
Family
ID=53536295
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013270325A Pending JP2015125641A (ja) | 2013-12-26 | 2013-12-26 | 情報処理装置、その制御方法、及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015125641A (ja) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106547458A (zh) * | 2016-11-29 | 2017-03-29 | 北京小鸟看看科技有限公司 | 一种虚拟现实系统及其空间定位装置 |
| WO2017051570A1 (ja) * | 2015-09-24 | 2017-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP2017199237A (ja) * | 2016-04-28 | 2017-11-02 | 株式会社カプコン | 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム |
| JP2019506768A (ja) * | 2015-12-16 | 2019-03-07 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | レンジゲート式デプスカメラ部品 |
| JP2019533918A (ja) * | 2016-08-25 | 2019-11-21 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 深度マッピング用のアレイ検出器 |
| CN110574078A (zh) * | 2017-07-14 | 2019-12-13 | 株式会社小松制作所 | 显示控制装置、显示控制方法、程序以及显示系统 |
| EP3454304A4 (en) * | 2016-05-02 | 2019-12-18 | Sony Interactive Entertainment Inc. | IMAGING DEVICE |
| JP2020513590A (ja) * | 2016-12-13 | 2020-05-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 検出された特徴を用いた3dオブジェクトレンダリング |
| CN111667582A (zh) * | 2019-03-06 | 2020-09-15 | 广达电脑股份有限公司 | 电子装置及增强现实的三维对象的尺寸调整方法 |
| US11238653B2 (en) | 2017-12-29 | 2022-02-01 | Fujitsu Limited | Information processing device, information processing system, and non-transitory computer-readable storage medium for storing program |
| WO2022201736A1 (ja) * | 2021-03-25 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
| CN115941921A (zh) * | 2022-09-13 | 2023-04-07 | 株式会社万代 | 图像处理方法、信息处理装置、计算机程序及存储介质 |
| WO2024095871A1 (ja) * | 2022-11-02 | 2024-05-10 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 方法、サーバー、および、撮影装置 |
-
2013
- 2013-12-26 JP JP2013270325A patent/JP2015125641A/ja active Pending
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10855925B2 (en) | 2015-09-24 | 2020-12-01 | Sony Corporation | Information processing device, information processing method, and program |
| WO2017051570A1 (ja) * | 2015-09-24 | 2017-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP2019506768A (ja) * | 2015-12-16 | 2019-03-07 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | レンジゲート式デプスカメラ部品 |
| JP7076368B2 (ja) | 2015-12-16 | 2022-05-27 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー | レンジゲート式デプスカメラ部品 |
| JP2017199237A (ja) * | 2016-04-28 | 2017-11-02 | 株式会社カプコン | 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム |
| EP3454304A4 (en) * | 2016-05-02 | 2019-12-18 | Sony Interactive Entertainment Inc. | IMAGING DEVICE |
| US10540825B2 (en) | 2016-05-02 | 2020-01-21 | Sony Interactive Entertainment Inc. | Image processing apparatus |
| US11102467B2 (en) | 2016-08-25 | 2021-08-24 | Facebook Technologies, Llc | Array detector for depth mapping |
| JP2019533918A (ja) * | 2016-08-25 | 2019-11-21 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 深度マッピング用のアレイ検出器 |
| CN106547458A (zh) * | 2016-11-29 | 2017-03-29 | 北京小鸟看看科技有限公司 | 一种虚拟现实系统及其空间定位装置 |
| JP7038713B2 (ja) | 2016-12-13 | 2022-03-18 | マジック リープ, インコーポレイテッド | 検出された特徴を用いた3dオブジェクトレンダリング |
| JP2020513590A (ja) * | 2016-12-13 | 2020-05-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 検出された特徴を用いた3dオブジェクトレンダリング |
| US11461982B2 (en) | 2016-12-13 | 2022-10-04 | Magic Leap, Inc. | 3D object rendering using detected features |
| CN110574078A (zh) * | 2017-07-14 | 2019-12-13 | 株式会社小松制作所 | 显示控制装置、显示控制方法、程序以及显示系统 |
| CN110574078B (zh) * | 2017-07-14 | 2023-03-28 | 株式会社小松制作所 | 显示控制装置、显示控制方法、记录介质以及显示系统 |
| US11238653B2 (en) | 2017-12-29 | 2022-02-01 | Fujitsu Limited | Information processing device, information processing system, and non-transitory computer-readable storage medium for storing program |
| CN111667582A (zh) * | 2019-03-06 | 2020-09-15 | 广达电脑股份有限公司 | 电子装置及增强现实的三维对象的尺寸调整方法 |
| CN111667582B (zh) * | 2019-03-06 | 2023-03-31 | 广达电脑股份有限公司 | 电子装置及增强现实的三维对象的尺寸调整方法 |
| WO2022201736A1 (ja) * | 2021-03-25 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
| CN115941921A (zh) * | 2022-09-13 | 2023-04-07 | 株式会社万代 | 图像处理方法、信息处理装置、计算机程序及存储介质 |
| WO2024095871A1 (ja) * | 2022-11-02 | 2024-05-10 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 方法、サーバー、および、撮影装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2015125641A (ja) | 情報処理装置、その制御方法、及びプログラム | |
| JP6978701B2 (ja) | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム | |
| JP6618681B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、情報処理システム | |
| JP6295296B2 (ja) | 複合システム及びターゲットマーカ | |
| JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6677890B2 (ja) | 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム | |
| JP6409861B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP2017107349A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP2017033299A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6364389B2 (ja) | 検査方法及び検査システム | |
| JP6730577B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6164177B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6357412B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
| JP6011567B2 (ja) | 情報処理装置、その制御方法、及びプログラム | |
| JP7279113B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
| JP5874698B2 (ja) | 情報処理装置、その制御方法、及びプログラム | |
| JP6152888B2 (ja) | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム | |
| JP6376251B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP2017084215A (ja) | 情報処理システム、その制御方法、及びプログラム | |
| JP6372131B2 (ja) | 情報処理装置、その制御方法、及びプログラム | |
| JP2019012334A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6741939B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
| JP6683919B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
| JP6703283B2 (ja) | 情報処理装置、その制御方法、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150410 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161101 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161101 |