JP2009146140A - Three-dimensional image display device - Google Patents
Three-dimensional image display device Download PDFInfo
- Publication number
- JP2009146140A JP2009146140A JP2007322301A JP2007322301A JP2009146140A JP 2009146140 A JP2009146140 A JP 2009146140A JP 2007322301 A JP2007322301 A JP 2007322301A JP 2007322301 A JP2007322301 A JP 2007322301A JP 2009146140 A JP2009146140 A JP 2009146140A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint position
- image
- viewer
- dimensional image
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は3次元画像を表示する装置に関し、特に、視認者の視点位置に応じた3次元画像を表示する装置に関する。 The present invention relates to an apparatus that displays a three-dimensional image, and more particularly, to an apparatus that displays a three-dimensional image according to a viewer's viewpoint position.
コンピュータグラフィックス(CG)の世界において3次元(3D)画像の表示はバーチャルな世界を表現するための手段として用いられる一般的な手法である。例えば、CAD(Computer Aided Design)やカーナビゲーションシステムのような実用的な分野や、映画、アニメ、コンピュータゲーム等のエンターテイメントの分野における種々のアプリケーションにおいて3次元画像の表示が行われている。 In the world of computer graphics (CG), display of a three-dimensional (3D) image is a general technique used as a means for expressing a virtual world. For example, three-dimensional images are displayed in various applications in a practical field such as CAD (Computer Aided Design) and a car navigation system, and in an entertainment field such as a movie, animation, and a computer game.
従来、CADやゲームにおいて3次元画像を表示させる場合、ユーザはキーパッドやマウス等の操作により視点位置を変化させることで、その視点位置から見たオブジェクトの3次元画像が表示される。3次元画像表示において視点位置は重要なファクタの1つであり、視点位置に応じて画像を変化させるための種々の技術が考案されている(例えば特許文献1参照)。 Conventionally, when displaying a three-dimensional image in CAD or a game, the user changes the viewpoint position by operating a keypad, a mouse, or the like, so that the three-dimensional image of the object viewed from the viewpoint position is displayed. In the 3D image display, the viewpoint position is one of the important factors, and various techniques for changing the image according to the viewpoint position have been devised (see, for example, Patent Document 1).
一方、コンピュータゲームの世界において、センサを組み込んだ装置を傾けたり、振動させたりすることで、従来のようなキーパッドの操作を行わずに直感的にユーザの操作を可能とするインタフェースが開発されている。このようなインタフェースは例えば携帯電話のゲーム用のインタフェースとして取り入られており、ユーザが携帯電話を傾けたり、振動させたりすることで操作を行い、ゲームを進行することを可能としている。 On the other hand, in the world of computer games, an interface has been developed that allows users to operate intuitively by tilting or vibrating a device that incorporates a sensor without operating a keypad as in the past. ing. Such an interface is taken in as an interface for a mobile phone game, for example, and allows a user to operate the game by inclining or vibrating the mobile phone and proceeding with the game.
上記のようなインタフェースを用いたゲームでは、ユーザはキーパッドやマウスを用いずに操作ができ、より人間の感覚に近い操作を行うことができる。今後、益々このようなゲームが普及すると考えられる。それに伴い、画面上に表示される3次元画像についても、ユーザがより直感的かつリアルにオブジェクトを認識できるような表示技術が要望される。 In a game using the interface as described above, the user can operate without using a keypad or a mouse, and can perform an operation closer to a human sense. In the future, such games are expected to become increasingly popular. Accordingly, there is a demand for a display technique that allows the user to recognize an object more intuitively and realistically for a three-dimensional image displayed on the screen.
本発明は上記課題を解決すべくなされたものであり、その目的とするところは、ユーザが直感的かつリアルにオブジェクトを認識できる3次元画像を表示する画像表示装置を提供することにある。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image display device that displays a three-dimensional image that allows a user to recognize an object intuitively and realistically.
本発明に係る3次元画像表示装置は、オブジェクトの3次元画像を表示する装置であって、視認者の仮想の視点位置を検出する視点位置検出手段と、検出された仮想の視点位置に基づき、その仮想の視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を生成するパース演算処理手段と、生成された3次元画像を表示装置に表示する手段とを備える。 A three-dimensional image display device according to the present invention is a device that displays a three-dimensional image of an object, based on viewpoint position detection means for detecting a viewer's virtual viewpoint position, and the detected virtual viewpoint position, A parsing calculation processing unit that generates a three-dimensional image of the object that is visible when the object is viewed from the virtual viewpoint position, and a unit that displays the generated three-dimensional image on a display device.
本発明に係る画像表示プログラムは、オブジェクトの3次元画像を表示する制御を行うコンピュータ読み取り可能なプログラムであって、以下の手順をコンピュータに実行させる。
−視認者の位置に関する情報を入力手段を介して受信する手順
−受信した視認者の位置に関する情報に基づき、視認者の仮想の視点位置を演算手段により検出する手順
−検出した視点位置に基づき、その視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を演算手段により生成する手順
−生成された3次元画像を表示手段に表示させる手順
The image display program according to the present invention is a computer-readable program that performs control to display a three-dimensional image of an object, and causes the computer to execute the following procedure.
-Procedure for receiving information on the viewer's position via the input means-Procedure for detecting the viewer's virtual viewpoint position by the calculation means based on the received information on the viewer's position-Based on the detected viewpoint position Procedure for generating a three-dimensional image of an object that can be seen when the object is viewed from the viewpoint position by the calculation means-Procedure for displaying the generated three-dimensional image on the display means
本発明によれば、ユーザ(視認者)の仮想の視点位置を検出し、その視点位置から見たときに見える3次元画像をリアルタイムで表示することで、ユーザは表示面の奧にオブジェクトが実在するように感じることができ、より直感的かつリアルにオブジェクトを認識することができる。 According to the present invention, a virtual viewpoint position of a user (viewer) is detected, and a three-dimensional image that can be seen when viewed from the viewpoint position is displayed in real time, so that the user actually has an object on the side of the display surface. The object can be recognized more intuitively and realistically.
以下、添付の図面を参照して本発明の実施形態を説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
(第1の実施形態)
1.画像表示装置の構成
図1に、本発明の第1の実施の形態の画像表示装置の構成を示す。図1において、画像表示装置100は、視認者(ユーザ)及びその近傍の画像を撮像する撮像装置10と、撮像された画像から視認者の視点位置(仮想の視点位置)を検出し、検出した視点位置に基づき表示すべき3次元画像(以下「3D画像」という。)を生成する画像処理装置11と、3D画像を表示する表示装置14と、視認者が操作を行う操作部19とを備える。なお、以下の説明では、表示装置14の表示面の水平方向をx方向、垂直方向をy方向、奥行き方向(視認者側から見て画面の奧に向かう方向)をz方向とする。
(First embodiment)
1. Configuration of Image Display Device FIG. 1 shows the configuration of the image display device according to the first embodiment of the present invention. In FIG. 1, the
画像処理装置11は、撮像装置10から画像情報を受信するインタフェース13と、表示すべき画像の生成、表示処理を行う制御部15と、制御部15が実行するプログラムや画像データ等を格納したデータ格納部17とを有する。制御部15は例えばCPUで構成され、データ格納部17に所定の制御プログラムと協働し、後述する種々の機能を実現する。制御部15は、視認者(ユーザ)及びその近傍の画像が含まれる撮像画像から視認者の視点位置(仮想の視点位置)を検出し、最新のものに更新する視点位置演算処理部21と、表示すべき3D画像のデータを求めるパース演算処理部23とを含む。操作部19は視認者が操作を行うための操作ボタンを含むキーパッドやキーボードであるが、マウスであってもよい。
The
データ格納部17は例えばROM、ハードディスク、光ディスク等のデータ記憶手段により構成される。データ格納部17は、制御部11で実行される制御プログラム31と、表示すべき3Dオブジェクトの座標データ32(詳細は後述)と、座標変換テーブル33(詳細は後述)とを格納する。
The
撮像装置10は、レンズ及びレンズを介して入射した光学的信号を電気信号に変換する撮像素子等を含み、撮像した画像情報を電気信号として画像処理装置11に出力する。撮像装置10は所定の時間間隔で画像処理装置に画像情報を送信する。表示装置14は液晶ディスプレイ(LCD)等からなり、画像処理装置11で生成された画像を表示する。本実施形態の画像表示装置100は例えば、カメラ付き携帯電話やカメラ及びディスプレイが接続されたパーソナルコンピュータ(PC)のような情報処理機器である。
The
2.視点位置に応じた3D画像表示
本実施形態の画像表示装置100は、表示装置14上に3次元画像を表示する機能を有するが、特に、視認者を撮像した画像から視認者の視点位置(仮想視点位置)をリアルタイムで検出し、その視点位置から見たときに見えるであろうと予測される3次元画像をリアルタイムで表示する。以下、このような3次元画像の表示について図2を参照し、具体的に説明する。
2. 3D image display according to viewpoint position The
例えば、視認者の視点位置が、表示装置14の表示面の中心に対して正面位置(以下「基準位置」という。)にあると判断した場合、表示装置14上にはオブジェクト(表示対象物)50を真正面から見たときに見える画像を表示する(図2(a)参照)。また、視認者の視点が正面位置(基準位置)に対してやや左側にあると判断した場合、その視点位置において通常見えるであろうと予想されるオブジェクトの画像を表示する。すなわち、図2(b)に示すように、オブジェクト50の右側面が見えるように画像が表示される。同様に、正面位置に対して左上にずれた位置に視点位置があると判断した場合、図2(c)に示すように、オブジェクト50の右側面及び上面が見えるように画像が表示される。このように本実施形態の画像表示装置は、視認者の視点位置に応じた3次元画像を表示し、これにより視認者は、表示装置14の表示面の奥行き方向(表示面を挟んで視認者と反対側)にオブジェクトが実際に存在するかのようにオブジェクトを視覚的に認識することができる。
For example, when it is determined that the viewer's viewpoint position is at the front position (hereinafter referred to as “reference position”) with respect to the center of the display surface of the
ここで、図3及び図4を参照して、視認者の視点位置に応じて表示される3次元画についてより具体的に説明する。 Here, with reference to FIG.3 and FIG.4, it demonstrates more concretely about the three-dimensional image displayed according to a viewer's viewpoint position.
図3に示すように、表示装置14の表示面210と平行に所定距離(d)だけ離れた位置に視点座標面200を設定し、視点座標面200上に座標系を設定する。その座標系の座標を用いて、視点座標面200における視認者の視点位置が表される。そして、視点座標面200上の視点位置に応じて、表示面210上に表示するオブジェクトの画像の形状を変化させる。
As shown in FIG. 3, the
例えば、図4において、視点位置Vaは視点座標面200の中心位置(基準位置)であり、この場合、視認者は表示装置の表示面210と正対することになるため、表示装置14にはオブジェクトを正面から見たときの画像Aが表示される。視点位置Vbは視点位置Vaからx方向に−Δxだけずれた位置であり、この場合、視認者は表示面210の中心に対してやや左側にずれた位置から表示装置14の画面を見ることになる。このため、表示装置14にはオブジェクトを正面に対してやや左側から見たときの画像Bが表示される。また、視点位置Vcは視点位置Vaからx方向に−Δx、y方向に−Δyだけずれた位置であり、この場合、視認者は表示面210の中心に対してやや左上側にずれた位置から表示装置14の画面を見ることになる。このため、表示装置14にはオブジェクトを正面に対してやや左上側から見たときの画像Cが表示される。
For example, in FIG. 4, the viewpoint position Va is the center position (reference position) of the
上記のような、各視点位置から見た3D画像を表示するために画像表示装置100はデータ格納部17においてオブジェクト座標データ32と座標変換テーブル33とを格納している。
The
特に、視点位置に応じた3D画像を表示するため、画像表示装置100は、複数の視点位置のそれぞれに対して、各視点から見たときに見える画像の3次元座標データをオブジェクト座標データ32として格納している。すなわち、オブジェクト座標データは、ある視点から見た場合に見えるオブジェクトの座標データ(オブジェクトを構成する各頂点の3次元座標データ)を含む。例えば、図4に示す視点位置Vbに対するオブジェクト座標データは、画像Bのように見えるオブジェクトを構成する各頂点の座標のデータを含む。画像Bのように見えるオブジェクトを構成する各頂点の座標のデータと、画像Aのように見えるオブジェクトを構成する各頂点の座標のデータとが異なることは言うまでもない。
In particular, in order to display a 3D image corresponding to the viewpoint position, the
座標変換テーブル33は、視点位置(座標)と、その視点位置のときに表示させるオブジェクトの画像データ(パス名+ファイル名)とを関連づけて管理するテーブルである。図5(a)に座標変換テーブル33のデータ構成例を示す。座標変換テーブル33を参照することで、視点位置が決まれば、そのときに表示させる3D画像のデータを得ることができる。例えば、視点位置がV2の場合、そのときに表示させる画像データは、”画像0003.DAT”であることが分かる。なお、図5(a)に示すような、3D画像の頂点座標のデータを含む画像座標データを用いた座標変換テーブル33の代わりに、ビットマップやTIFF形式のような画素データで構成される画像データと、視点位置とを関連づけた表示画像テーブル34を用いることもできる。(図5(b)参照)。 The coordinate conversion table 33 is a table that manages the viewpoint position (coordinates) and the image data (path name + file name) of the object displayed at the viewpoint position in association with each other. FIG. 5A shows a data configuration example of the coordinate conversion table 33. By referring to the coordinate conversion table 33, if the viewpoint position is determined, 3D image data to be displayed at that time can be obtained. For example, when the viewpoint position is V2, the image data to be displayed at that time is “image 0003.DAT”. In addition, instead of the coordinate conversion table 33 using the image coordinate data including the vertex coordinate data of the 3D image as shown in FIG. 5A, an image composed of pixel data such as a bitmap or TIFF format. It is also possible to use a display image table 34 that associates data with viewpoint positions. (See FIG. 5 (b)).
3.画像表示装置の動作
図6のフローチャートを参照して画像表示装置100の動作を説明する。なお、以下の処理は、視認者による表示終了の要求(指示)があるまで実行される(S11)。まず、撮像装置10により視認者及びその近傍の画像が撮像される(S12)。撮像画像の情報は制御部15のパース演算処理部23に送られる。なお、画像表示装置10の動作中は、撮像装置10のレンズは視認者またはその近傍の方向に向けられているものとする。
3. Operation of Image Display Device The operation of the
制御部15は、視認者からのリセット要求を受信したか否かを判断する(S13)。リセット要求は、視認者が操作部19上のリセットボタンを押下したときに操作部19から制御部15へ送信される。
The
リセット要求を受信した場合、制御部15は視点位置を基準位置にリセットする(S14)。なお、本実施形態では、視点位置の基準位置は視点座標面200の中心位置としているが、これに限定されるものではない。リセット要求を受信していない場合、制御部15は、撮像された画像情報に基づいて視点位置の更新処理を行う(S15)。視点位置の更新処理の詳細は後述する。
When the reset request is received, the
その後、パース演算処理部23は設定された視点位置に基づき新たに表示すべき、オブジェクトの3D画像データを生成または取得する、パース演算処理を行う(S16)。パース演算処理の詳細は後述する。そして、制御部15は3D画像データを表示装置14へ送信し、3D画像を表示させる(S17)。
Thereafter, the parse
図7のフローチャートを参照し、視点位置の更新処理(S15)の詳細を説明する。視点位置の更新処理において、視点位置演算処理部21は撮像画像のデータを撮像装置10から受けると(S21)、前回撮像した画像と今回撮像した画像について画像の全体または一部の特徴部を比較し、画像の差分に基づいて画像の移動量を検出する(S22)。このような検出技術の一例として、例えばジェスチャーテック社(GestureTek Inc)のモーショントラック技術(GestureTek EyeMobaile)がある。例えば、図8(a)に示すように撮像画像の位置Aから位置A’への移動が検出された場合、その移動量Δx、Δyが求められる(図8(b)参照)。撮像画像220の移動量がΔx、Δyの場合、視点座標面200上での移動量は−Δx、Δyとなる。よって、新たな視点Va'は、前回の視点Vaをx方向に−Δx、y方向にΔyだけシフトさせることで求められる(図8(c)参照)。そして、上述のようにして求めた移動量に基づき新たな視点位置を設定する(S23)。以上のようにして、撮像画像に基づいて視点位置を更新することができる。
Details of the viewpoint position update processing (S15) will be described with reference to the flowchart of FIG. In the viewpoint position update process, when the viewpoint position
次に、図9のフローチャートを参照してパース演算処理(S16)の詳細を説明する。パース演算処理において、まず、座標変換テーブル33を参照し、ステップS14またはS15にて設定した視点位置に対応するオブジェクトの座標データを取得する(S31)。そして、取得したオブジェクトの座標データに基づき、3D画像データを生成する(S32)。 Next, details of the parsing calculation process (S16) will be described with reference to the flowchart of FIG. In the parsing calculation process, first, the coordinate conversion table 33 is referred to, and the coordinate data of the object corresponding to the viewpoint position set in step S14 or S15 is acquired (S31). Then, 3D image data is generated based on the acquired coordinate data of the object (S32).
なお、上記の例では、1つのオブジェクトに対して、複数の視点から見たオブジェクトの座標データを予め用意し座標変換テーブル33で管理していたが、必ずしも座標変換テーブル33を用いる必要はない。パース演算処理部23において、オブジェクトを構成する各頂点の3D座標データをそのときの視点位置の座標に基づき計算により求めることもできる。以下、この3D座標データの計算方法について説明する。
In the above example, coordinate data of an object viewed from a plurality of viewpoints is prepared in advance and managed by the coordinate conversion table 33 for one object. However, the coordinate conversion table 33 is not necessarily used. In the parse
図10に示すようなオブジェクト50の3D画像表示に対して視点位置Vから見る場合を想定する。図11の(a)は、視点位置がVのときに表示されるオブジェクト50を示した図である。同図に示すように、オブジェクト50の正面画像に加えて右側面と上面の画像とも合わせて表示することで3D画像を表現している。この場合に3D画像を構成する頂点P、Q、Rの座標の求め方を以下に説明する。
Assume that the 3D image display of the
図11(b)は、3D空間においてオブジェクト50を左側面側からすなわちB−C線側から見たときの各頂点の位置関係を説明した図である。図11(c)は、3D空間においてオブジェクト50を真上から、すなわちA−B線側から見たときの各頂点の位置関係を説明した図である。図11の関係から、視点Vから見た場合のオブジェクト50の頂点Pのx座標は、図11(c)のz−x平面において、点Pと点Vを結ぶ直線と線分A−Bの交点座標P’のx座標(P'x)となる。また、視点Vから見た場合のオブジェクト50の頂点Pのy座標は、図11(b)のy−z平面において、点Pと点Vを結ぶ直線と線分B−Cの交点座標P’のy座標(P'y)となる。具体的には、以下の式で求められる。
P'x = (Pz・Vx - Px・Vz)/(Pz - Vz) (1a)
P'y = (Pz・Vy - Py・Vz)/(Pz - Vz) (1b)
FIG. 11B is a diagram illustrating the positional relationship between the vertices when the
P'x = (Pz ・ Vx-Px ・ Vz) / (Pz-Vz) (1a)
P'y = (Pz ・ Vy-Py ・ Vz) / (Pz-Vz) (1b)
ここで、オブジェクト50の頂点Pの本来の座標を(Px, Py, Pz)とし、視点Vの座標を(Vx, Vy, Vz)としている。他の頂点Q、Rについても同様にして求めることができる。以上のようにして、視点位置Vの座標に基づき、その視点位置から見た場合に得られる3D画像の各頂点を計算で求めることができる。
Here, the original coordinates of the vertex P of the
以上のように、本実施形態の画像表示装置によれば、視認者を撮像した画像に基づき視認者の仮想の視点位置を推定し、表示する3D画像を視認者の視点位置に応じてリアルタイムで変化させることで、その視点位置から実際に見える画像を表示することができる。これにより、視認者は表示面の奥行方向にオブジェクトが実際に存在しているかのようにオブジェクトを認識でき、オブジェクト全体の形状を容易かつ正確に把握することができる。 As described above, according to the image display device of the present embodiment, the virtual viewpoint position of the viewer is estimated based on the image obtained by capturing the viewer, and the 3D image to be displayed is displayed in real time according to the viewpoint position of the viewer. By changing the image, it is possible to display an image that is actually seen from the viewpoint position. Thereby, the viewer can recognize the object as if the object actually exists in the depth direction of the display surface, and can easily and accurately grasp the shape of the entire object.
なお、本実施形態では、撮像装置10により撮像した画像の変化量に基づき視点位置を決定したが、撮像装置は必須ではない。撮像装置の代わりに、表示装置14の表示面の動きを検出する加速度センサまたは水平器、歯車等の機械的な機構を用いてもよい。これらのセンサ等からの出力に基づき表示装置14の表示面の角度の変化を検知することによっても、視点位置のx方向の変化量(Δθ)、y方向の変化量(Δφ)を検出でき、視点位置を特定することができる。また、撮像装置10を複数個設けてもよい。これにより撮像画像に基づき視点位置の奥行き方向(z方向)の移動量も検出できる。この場合、座標変換テーブル33において視点座標を3次元で管理するか、または上記式(1a)、(1b)を用いてオブジェクトの頂点座標を算出することで、新たな視点位置に対して表示すべき3D画像を得ることができる。
In the present embodiment, the viewpoint position is determined based on the change amount of the image captured by the
(第2の実施形態)
第1の実施形態では、視認者の視点位置を推定するために撮像画像を用いた。本実施形態では、視点位置を推定するために、視認者の立ち位置をセンサで検出する位置検出装置を用いた例を説明する。
(Second Embodiment)
In the first embodiment, the captured image is used to estimate the viewer's viewpoint position. In the present embodiment, an example will be described in which a position detection device that detects a standing position of a viewer with a sensor in order to estimate a viewpoint position.
図12は、第2の実施形態における画像表示装置の構成を示した図である。本実施形態の画像表示装置101は撮像装置10の代わりに位置検出装置12を備えた点が第1の実施の形態の画像処理装置の構成と異なる。
FIG. 12 is a diagram illustrating a configuration of an image display device according to the second embodiment. The
位置検出装置12はセンサにより視認者の立ち位置を検出するものである。センサとしては、赤外線センサ、静電誘導式スイッチ、機械式スイッチ等が利用できる。図13(a)に位置検出装置12の構成の一例を示す。同図に示す位置検出装置12は、視認者の位置を感知するセンサ12bが複数個x方向に1次元的に配置されており、視認者の位置を示す位置検出信号を出力する。視点位置演算処理部21は位置検出装置12からの位置検出信号に基づき、視点位置を更新する。その後の処理は第1の実施形態で説明したものと同様である。
The
図13(b)に本実施形態の画像表示装置101の適用例を示す。表示装置14を店舗のショーウインドウに配置し、位置検出装置12を店舗の前の道路や壁等に埋め込んでおく。位置検出装置12により通行人(視認者)の位置が検出されると、画像処理装置11はその検出位置に基づき視点位置を算出し、その視点位置から観察したときに得られる画像を表示装置14に表示する。これにより、例えば、図13(b)において通行人が位置Aから位置A’へ移動した場合、表示装置14上に表示される3D画像は図13(c)に示すように変化する。このように通行人の移動とともに画像を変化させることで、通行人は、表示装置14の画面の奥行き方向(z方向)にあたかもオブジェクトが実在しているようにオブジェクトを認識することができる。
FIG. 13B shows an application example of the
なお、上記の例では位置検出装置12はx方向の位置を検出したが、y方向またはz方向の位置を検出してもよい。また、位置検出装置12において複数のセンサ12bを2次元的に配置してもよい。または、位置検出装置12を、視認者の位置を3次元的に検出できるよう構成してもよい。いずれの場合であっても、複数の視点位置のそれぞれに対応した3D画像を予め用意しておくか、または、各視点位置から見た3D画像の座標を視点位置が更新される毎に算出することにより、視点位置に応じた3D画像を表示することが可能となる。
In the above example, the
また、各センサ12bの出力値が3つ以上の値をとる場合、隣接するセンサ間で検知範囲が重複するように各センサ12bを設置しておき、各センサ12bで検知した値を平均した値に基づき視認者の位置を検出してもよい。
In addition, when the output value of each
(第3の実施形態)
上述の実施形態では、静止画の3D表示の場合について説明したが、本実施形態では、オブジェクトに動きがある場合の3D表示の場合について説明する。本実施形態における画像表示装置の構成は図1または図12に示すものと同様である。
(Third embodiment)
In the above-described embodiment, the case of 3D display of a still image has been described. However, in this embodiment, the case of 3D display when an object has movement will be described. The configuration of the image display apparatus in this embodiment is the same as that shown in FIG. 1 or FIG.
本実施形態の画像表示装置におけるパース演算処理部23は、動画を構成する時系列で表示される各画像を表示する際に、そのときに検出した視点位置に応じた画像を生成する。このような方法により、動画の場合であっても、静止画の場合と同様に視認者の視点位置から見た3D画像の表示が可能となる。
The parse
図14は、x−y平面内でz軸に平行な軸を中心として時計回りに回転するオブジェクトを基準位置から見た場合に、時系列で表示される画像を説明した図である。すなわち、#0から#11までのオブジェクトの画像(静止画)を順次所定のフレームレートで表示することで回転するオブジェクトの動画が実現できる。
FIG. 14 is a diagram illustrating images displayed in time series when an object that rotates clockwise around an axis parallel to the z axis in the xy plane is viewed from the reference position. That is, a moving object moving image can be realized by sequentially displaying images (still images) of
基準位置から右上側にずれた視点位置から見たときの3D表示は、図14の各画像に対して、図15に示すような基準位置から右上側にずれた視点位置から見たときの画像を表示させることで実現できる。 The 3D display when viewed from the viewpoint position shifted to the upper right side from the reference position is an image when viewed from the viewpoint position shifted to the upper right side from the reference position as shown in FIG. This can be realized by displaying.
3D画像の動画を描画するツールとして従来より種々のものが知られている。例えば、「RenderWare」が知られている。また、描画ライブラリとして「OpenGL」、「DirectX」等が知られている。これらのツールを使用して3D画像を描画する際に、カメラ位置のパラメータとして最新の視点位置の情報を与えてやることで、視点位置に応じた画像の描画が可能となる。 Various tools have been conventionally known as tools for drawing moving images of 3D images. For example, “RenderWare” is known. Further, “OpenGL”, “DirectX” and the like are known as drawing libraries. When a 3D image is drawn using these tools, the latest viewpoint position information is given as a camera position parameter, so that an image corresponding to the viewpoint position can be drawn.
本発明は、視認者の視点位置に基づき、その視点位置から観察できる3D画像を表示できるため、視認者はより自然に近い間隔で3D画像を視認できる。このため、本発明は種々のコンピュータゲームや、イベント、ショールーム、展示会等で使用されるディスプレイ等のバーチャルな3D表示を行う様々な技術分野に適用できる。 Since the present invention can display a 3D image that can be observed from the viewpoint position based on the viewpoint position of the viewer, the viewer can visually recognize the 3D image at a more natural interval. Therefore, the present invention can be applied to various technical fields that perform virtual 3D display such as displays used in various computer games, events, showrooms, exhibitions, and the like.
10 撮像装置
11 画像処理装置
13 インタフェース
14 表示装置
15 制御部
19 操作部
17 データ格納部
32 オブジェクト座標データ
33 座標変換テーブル
50 オブジェクト
100、101 画像表示装置
200 視点座標面
210 表示装置の表示面
DESCRIPTION OF
Claims (5)
視認者の仮想の視点位置を検出する視点位置検出手段と、
検出された仮想の視点位置に基づき、その仮想の視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を生成するパース演算処理手段と、
生成された3次元画像を表示装置に表示する手段と
を備えた3次元画像表示装置。 An image display device that displays a three-dimensional image of an object,
Viewpoint position detecting means for detecting the virtual viewpoint position of the viewer;
Based on the detected virtual viewpoint position, a parse calculation processing means for generating a three-dimensional image of the object seen when the object is viewed from the virtual viewpoint position;
A three-dimensional image display device comprising: means for displaying the generated three-dimensional image on a display device.
前記パース演算処理手段は、前記座標変換テーブルを参照し、検出された仮想の視点位置に応じたオブジェクトの各頂点の座標を読み出し、該読み出した座標に基づきオブジェクトの3次元画像を生成する、
請求項1記載の3次元画像表示装置。 Storage means for storing a coordinate conversion table for managing coordinates of vertices constituting the object for a plurality of virtual viewpoint positions;
The parse calculation processing means refers to the coordinate conversion table, reads the coordinates of each vertex of the object according to the detected virtual viewpoint position, and generates a three-dimensional image of the object based on the read coordinates.
The three-dimensional image display apparatus according to claim 1.
前記視点位置検出手段は、前記撮像手段により撮像された視認者またはその近傍を撮像した画像を受信し、該画像の全体または一部の動きに基づいて前記仮想の視点位置を検出する、請求項1記載の3次元画像表示装置。 It further comprises imaging means for taking an image,
The viewpoint position detection unit receives an image of a viewer captured by the imaging unit or the vicinity thereof, and detects the virtual viewpoint position based on the movement of the whole or a part of the image. 3. The three-dimensional image display device according to 1.
前記視点位置検出手段は、前記検出手段から視認者の立ち位置に関する情報を受信し、視認者の立ち位置に基づいて前記仮想の視点位置を検出する、請求項1記載の3次元画像表示装置。 It further comprises detection means for detecting the standing position of the viewer,
The three-dimensional image display device according to claim 1, wherein the viewpoint position detection unit receives information on the standing position of the viewer from the detection unit and detects the virtual viewpoint position based on the standing position of the viewer.
視認者の位置に関する情報を入力手段を介して受信する手順と、
受信した視認者の位置に関する情報に基づき、視認者の仮想の視点位置を演算手段(21)により検出する手順と、
検出した視点位置に基づき、その視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を演算手段により生成する手順と、
生成された3次元画像を表示手段に表示させる手順と
をコンピュータに実行させる、3次元画像表示プログラム。 A computer-readable three-dimensional image display program for performing control to display a three-dimensional image of an object,
A procedure for receiving information about the position of the viewer via the input means;
A procedure for detecting the virtual viewpoint position of the viewer by the calculation means (21) based on the received information on the position of the viewer;
Based on the detected viewpoint position, a procedure for generating a three-dimensional image of the object that is seen when the object is viewed from the viewpoint position by the calculation means;
A three-dimensional image display program for causing a computer to execute a procedure for causing a display unit to display a generated three-dimensional image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007322301A JP2009146140A (en) | 2007-12-13 | 2007-12-13 | Three-dimensional image display device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007322301A JP2009146140A (en) | 2007-12-13 | 2007-12-13 | Three-dimensional image display device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009146140A true JP2009146140A (en) | 2009-07-02 |
Family
ID=40916680
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007322301A Pending JP2009146140A (en) | 2007-12-13 | 2007-12-13 | Three-dimensional image display device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009146140A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011090400A (en) * | 2009-10-20 | 2011-05-06 | Sony Corp | Image display device, method, and program |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10198822A (en) * | 1997-01-10 | 1998-07-31 | Sharp Corp | Image synthesis device |
| JP2001222726A (en) * | 1999-12-22 | 2001-08-17 | Lucent Technol Inc | Method and device for image processing |
| JP2005157610A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processing apparatus and method |
| JP2006127004A (en) * | 2004-10-27 | 2006-05-18 | Kyushu Univ | CG presentation device, method and program thereof, and CG display system |
| JP2006301654A (en) * | 2006-05-08 | 2006-11-02 | Fujitsu Ltd | Image presentation device |
| JP2006318015A (en) * | 2005-05-10 | 2006-11-24 | Sony Corp | Image processing apparatus, image processing method, image display system, and program |
-
2007
- 2007-12-13 JP JP2007322301A patent/JP2009146140A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10198822A (en) * | 1997-01-10 | 1998-07-31 | Sharp Corp | Image synthesis device |
| JP2001222726A (en) * | 1999-12-22 | 2001-08-17 | Lucent Technol Inc | Method and device for image processing |
| JP2005157610A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processing apparatus and method |
| JP2006127004A (en) * | 2004-10-27 | 2006-05-18 | Kyushu Univ | CG presentation device, method and program thereof, and CG display system |
| JP2006318015A (en) * | 2005-05-10 | 2006-11-24 | Sony Corp | Image processing apparatus, image processing method, image display system, and program |
| JP2006301654A (en) * | 2006-05-08 | 2006-11-02 | Fujitsu Ltd | Image presentation device |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011090400A (en) * | 2009-10-20 | 2011-05-06 | Sony Corp | Image display device, method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
| JP5966510B2 (en) | Information processing system | |
| US9778815B2 (en) | Three dimensional user interface effects on a display | |
| US10095458B2 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
| US9268410B2 (en) | Image processing device, image processing method, and program | |
| JP5724543B2 (en) | Terminal device, object control method, and program | |
| JP5524417B2 (en) | 3D user interface effect on display by using motion characteristics | |
| US20130215230A1 (en) | Augmented Reality System Using a Portable Device | |
| US10884576B2 (en) | Mediated reality | |
| TW201911133A (en) | Controller tracking for multiple degrees of freedom | |
| CN105074617A (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
| US20100188355A1 (en) | Apparatus and method for detecting an object pointed by a user | |
| WO2011043645A1 (en) | Display system and method for displaying a three dimensional model of an object | |
| JP2000181601A (en) | Information display system | |
| JP2009146140A (en) | Three-dimensional image display device | |
| CN118747039A (en) | Method, device, electronic device and storage medium for moving virtual objects | |
| JP4493082B2 (en) | CG presentation device, program thereof, and CG display system | |
| JP5830899B2 (en) | Projection system, projection apparatus, projection method and program | |
| KR20060027180A (en) | Method and method for reflecting motion in 3D space of portable terminal to image information | |
| JP5520772B2 (en) | Stereoscopic image display system and display method | |
| JP2012103888A (en) | Virtual space sharing system, portable terminal and virtual space sharing method | |
| CN120714237A (en) | Method, device, electronic device and storage medium for controlling virtual objects | |
| CN206892844U (en) | A kind of LED display of three-dimensional imaging | |
| Tokuhara et al. | Development of a City Presentation Method by Linking Viewpoints of a Physical Scale Model and VR | |
| CN118349109A (en) | A data interactive display method and system based on mixed reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100520 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100722 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100810 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101005 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101026 |