[go: up one dir, main page]

JP2009146140A - Three-dimensional image display device - Google Patents

Three-dimensional image display device Download PDF

Info

Publication number
JP2009146140A
JP2009146140A JP2007322301A JP2007322301A JP2009146140A JP 2009146140 A JP2009146140 A JP 2009146140A JP 2007322301 A JP2007322301 A JP 2007322301A JP 2007322301 A JP2007322301 A JP 2007322301A JP 2009146140 A JP2009146140 A JP 2009146140A
Authority
JP
Japan
Prior art keywords
viewpoint position
image
viewer
dimensional image
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007322301A
Other languages
Japanese (ja)
Inventor
Naoya Motomura
直也 本村
Takayuki Domoto
孝幸 堂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PONOS CORP
Original Assignee
PONOS CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PONOS CORP filed Critical PONOS CORP
Priority to JP2007322301A priority Critical patent/JP2009146140A/en
Publication of JP2009146140A publication Critical patent/JP2009146140A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device which displays three-dimensional images by which a user (viewer) can recognize an object instinctively and realistically. <P>SOLUTION: The image display device (100) which shows three-dimensional images of an object includes a vision point detecting means (21) that detects a virtual vision point of the viewer, a perspective arithmetic processing means (23) which generates the three-dimensional images of the object which can be viewed when the object is viewed from such virtual vision point based on the detected virtual vision point, and a means (15) for displaying the generated three-dimensional images on a display device. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は3次元画像を表示する装置に関し、特に、視認者の視点位置に応じた3次元画像を表示する装置に関する。   The present invention relates to an apparatus that displays a three-dimensional image, and more particularly, to an apparatus that displays a three-dimensional image according to a viewer's viewpoint position.

コンピュータグラフィックス(CG)の世界において3次元(3D)画像の表示はバーチャルな世界を表現するための手段として用いられる一般的な手法である。例えば、CAD(Computer Aided Design)やカーナビゲーションシステムのような実用的な分野や、映画、アニメ、コンピュータゲーム等のエンターテイメントの分野における種々のアプリケーションにおいて3次元画像の表示が行われている。   In the world of computer graphics (CG), display of a three-dimensional (3D) image is a general technique used as a means for expressing a virtual world. For example, three-dimensional images are displayed in various applications in a practical field such as CAD (Computer Aided Design) and a car navigation system, and in an entertainment field such as a movie, animation, and a computer game.

従来、CADやゲームにおいて3次元画像を表示させる場合、ユーザはキーパッドやマウス等の操作により視点位置を変化させることで、その視点位置から見たオブジェクトの3次元画像が表示される。3次元画像表示において視点位置は重要なファクタの1つであり、視点位置に応じて画像を変化させるための種々の技術が考案されている(例えば特許文献1参照)。   Conventionally, when displaying a three-dimensional image in CAD or a game, the user changes the viewpoint position by operating a keypad, a mouse, or the like, so that the three-dimensional image of the object viewed from the viewpoint position is displayed. In the 3D image display, the viewpoint position is one of the important factors, and various techniques for changing the image according to the viewpoint position have been devised (see, for example, Patent Document 1).

特開2000−076481号公報JP 2000-076481 A

一方、コンピュータゲームの世界において、センサを組み込んだ装置を傾けたり、振動させたりすることで、従来のようなキーパッドの操作を行わずに直感的にユーザの操作を可能とするインタフェースが開発されている。このようなインタフェースは例えば携帯電話のゲーム用のインタフェースとして取り入られており、ユーザが携帯電話を傾けたり、振動させたりすることで操作を行い、ゲームを進行することを可能としている。   On the other hand, in the world of computer games, an interface has been developed that allows users to operate intuitively by tilting or vibrating a device that incorporates a sensor without operating a keypad as in the past. ing. Such an interface is taken in as an interface for a mobile phone game, for example, and allows a user to operate the game by inclining or vibrating the mobile phone and proceeding with the game.

上記のようなインタフェースを用いたゲームでは、ユーザはキーパッドやマウスを用いずに操作ができ、より人間の感覚に近い操作を行うことができる。今後、益々このようなゲームが普及すると考えられる。それに伴い、画面上に表示される3次元画像についても、ユーザがより直感的かつリアルにオブジェクトを認識できるような表示技術が要望される。   In a game using the interface as described above, the user can operate without using a keypad or a mouse, and can perform an operation closer to a human sense. In the future, such games are expected to become increasingly popular. Accordingly, there is a demand for a display technique that allows the user to recognize an object more intuitively and realistically for a three-dimensional image displayed on the screen.

本発明は上記課題を解決すべくなされたものであり、その目的とするところは、ユーザが直感的かつリアルにオブジェクトを認識できる3次元画像を表示する画像表示装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image display device that displays a three-dimensional image that allows a user to recognize an object intuitively and realistically.

本発明に係る3次元画像表示装置は、オブジェクトの3次元画像を表示する装置であって、視認者の仮想の視点位置を検出する視点位置検出手段と、検出された仮想の視点位置に基づき、その仮想の視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を生成するパース演算処理手段と、生成された3次元画像を表示装置に表示する手段とを備える。   A three-dimensional image display device according to the present invention is a device that displays a three-dimensional image of an object, based on viewpoint position detection means for detecting a viewer's virtual viewpoint position, and the detected virtual viewpoint position, A parsing calculation processing unit that generates a three-dimensional image of the object that is visible when the object is viewed from the virtual viewpoint position, and a unit that displays the generated three-dimensional image on a display device.

本発明に係る画像表示プログラムは、オブジェクトの3次元画像を表示する制御を行うコンピュータ読み取り可能なプログラムであって、以下の手順をコンピュータに実行させる。
−視認者の位置に関する情報を入力手段を介して受信する手順
−受信した視認者の位置に関する情報に基づき、視認者の仮想の視点位置を演算手段により検出する手順
−検出した視点位置に基づき、その視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を演算手段により生成する手順
−生成された3次元画像を表示手段に表示させる手順
The image display program according to the present invention is a computer-readable program that performs control to display a three-dimensional image of an object, and causes the computer to execute the following procedure.
-Procedure for receiving information on the viewer's position via the input means-Procedure for detecting the viewer's virtual viewpoint position by the calculation means based on the received information on the viewer's position-Based on the detected viewpoint position Procedure for generating a three-dimensional image of an object that can be seen when the object is viewed from the viewpoint position by the calculation means-Procedure for displaying the generated three-dimensional image on the display means

本発明によれば、ユーザ(視認者)の仮想の視点位置を検出し、その視点位置から見たときに見える3次元画像をリアルタイムで表示することで、ユーザは表示面の奧にオブジェクトが実在するように感じることができ、より直感的かつリアルにオブジェクトを認識することができる。   According to the present invention, a virtual viewpoint position of a user (viewer) is detected, and a three-dimensional image that can be seen when viewed from the viewpoint position is displayed in real time, so that the user actually has an object on the side of the display surface. The object can be recognized more intuitively and realistically.

以下、添付の図面を参照して本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

(第1の実施形態)
1.画像表示装置の構成
図1に、本発明の第1の実施の形態の画像表示装置の構成を示す。図1において、画像表示装置100は、視認者(ユーザ)及びその近傍の画像を撮像する撮像装置10と、撮像された画像から視認者の視点位置(仮想の視点位置)を検出し、検出した視点位置に基づき表示すべき3次元画像(以下「3D画像」という。)を生成する画像処理装置11と、3D画像を表示する表示装置14と、視認者が操作を行う操作部19とを備える。なお、以下の説明では、表示装置14の表示面の水平方向をx方向、垂直方向をy方向、奥行き方向(視認者側から見て画面の奧に向かう方向)をz方向とする。
(First embodiment)
1. Configuration of Image Display Device FIG. 1 shows the configuration of the image display device according to the first embodiment of the present invention. In FIG. 1, the image display device 100 detects and detects the viewer (user) and an image capturing device 10 that captures an image in the vicinity thereof, and the viewer's viewpoint position (virtual viewpoint position) from the captured image. The image processing apparatus 11 which produces | generates the three-dimensional image (henceforth a "3D image") which should be displayed based on a viewpoint position, the display apparatus 14 which displays a 3D image, and the operation part 19 which a viewer operates are provided. . In the following description, the horizontal direction of the display surface of the display device 14 is the x direction, the vertical direction is the y direction, and the depth direction (the direction toward the eyelid of the screen when viewed from the viewer side) is the z direction.

画像処理装置11は、撮像装置10から画像情報を受信するインタフェース13と、表示すべき画像の生成、表示処理を行う制御部15と、制御部15が実行するプログラムや画像データ等を格納したデータ格納部17とを有する。制御部15は例えばCPUで構成され、データ格納部17に所定の制御プログラムと協働し、後述する種々の機能を実現する。制御部15は、視認者(ユーザ)及びその近傍の画像が含まれる撮像画像から視認者の視点位置(仮想の視点位置)を検出し、最新のものに更新する視点位置演算処理部21と、表示すべき3D画像のデータを求めるパース演算処理部23とを含む。操作部19は視認者が操作を行うための操作ボタンを含むキーパッドやキーボードであるが、マウスであってもよい。   The image processing device 11 includes an interface 13 that receives image information from the imaging device 10, a control unit 15 that performs generation and display processing of an image to be displayed, and data that stores programs executed by the control unit 15, image data, and the like. And a storage unit 17. The control unit 15 is constituted by a CPU, for example, and realizes various functions to be described later in cooperation with a predetermined control program in the data storage unit 17. The control unit 15 detects the viewer's viewpoint position (virtual viewpoint position) from the captured image including the viewer (user) and images in the vicinity thereof, and updates the viewpoint position calculation processing unit 21 to the latest one, A parsing calculation processing unit 23 for obtaining data of a 3D image to be displayed. The operation unit 19 is a keypad or a keyboard including operation buttons for a viewer to perform an operation, but may be a mouse.

データ格納部17は例えばROM、ハードディスク、光ディスク等のデータ記憶手段により構成される。データ格納部17は、制御部11で実行される制御プログラム31と、表示すべき3Dオブジェクトの座標データ32(詳細は後述)と、座標変換テーブル33(詳細は後述)とを格納する。   The data storage unit 17 includes data storage means such as a ROM, a hard disk, and an optical disk. The data storage unit 17 stores a control program 31 executed by the control unit 11, coordinate data 32 (details will be described later) of a 3D object to be displayed, and a coordinate conversion table 33 (details will be described later).

撮像装置10は、レンズ及びレンズを介して入射した光学的信号を電気信号に変換する撮像素子等を含み、撮像した画像情報を電気信号として画像処理装置11に出力する。撮像装置10は所定の時間間隔で画像処理装置に画像情報を送信する。表示装置14は液晶ディスプレイ(LCD)等からなり、画像処理装置11で生成された画像を表示する。本実施形態の画像表示装置100は例えば、カメラ付き携帯電話やカメラ及びディスプレイが接続されたパーソナルコンピュータ(PC)のような情報処理機器である。   The imaging device 10 includes a lens and an imaging device that converts an optical signal incident through the lens into an electrical signal, and outputs captured image information to the image processing device 11 as an electrical signal. The imaging device 10 transmits image information to the image processing device at predetermined time intervals. The display device 14 includes a liquid crystal display (LCD) and the like, and displays an image generated by the image processing device 11. The image display apparatus 100 according to the present embodiment is an information processing device such as a mobile phone with a camera or a personal computer (PC) to which a camera and a display are connected.

2.視点位置に応じた3D画像表示
本実施形態の画像表示装置100は、表示装置14上に3次元画像を表示する機能を有するが、特に、視認者を撮像した画像から視認者の視点位置(仮想視点位置)をリアルタイムで検出し、その視点位置から見たときに見えるであろうと予測される3次元画像をリアルタイムで表示する。以下、このような3次元画像の表示について図2を参照し、具体的に説明する。
2. 3D image display according to viewpoint position The image display apparatus 100 according to the present embodiment has a function of displaying a three-dimensional image on the display apparatus 14, and in particular, a viewer's viewpoint position (virtual position from an image obtained by capturing the viewer. (Viewpoint position) is detected in real time, and a three-dimensional image predicted to be seen when viewed from the viewpoint position is displayed in real time. Hereinafter, the display of such a three-dimensional image will be specifically described with reference to FIG.

例えば、視認者の視点位置が、表示装置14の表示面の中心に対して正面位置(以下「基準位置」という。)にあると判断した場合、表示装置14上にはオブジェクト(表示対象物)50を真正面から見たときに見える画像を表示する(図2(a)参照)。また、視認者の視点が正面位置(基準位置)に対してやや左側にあると判断した場合、その視点位置において通常見えるであろうと予想されるオブジェクトの画像を表示する。すなわち、図2(b)に示すように、オブジェクト50の右側面が見えるように画像が表示される。同様に、正面位置に対して左上にずれた位置に視点位置があると判断した場合、図2(c)に示すように、オブジェクト50の右側面及び上面が見えるように画像が表示される。このように本実施形態の画像表示装置は、視認者の視点位置に応じた3次元画像を表示し、これにより視認者は、表示装置14の表示面の奥行き方向(表示面を挟んで視認者と反対側)にオブジェクトが実際に存在するかのようにオブジェクトを視覚的に認識することができる。   For example, when it is determined that the viewer's viewpoint position is at the front position (hereinafter referred to as “reference position”) with respect to the center of the display surface of the display device 14, an object (display target) is displayed on the display device 14. An image that is visible when 50 is viewed from the front is displayed (see FIG. 2A). Further, when it is determined that the viewer's viewpoint is slightly on the left side with respect to the front position (reference position), an image of an object that is normally expected to be viewed at the viewpoint position is displayed. That is, as shown in FIG. 2B, the image is displayed so that the right side surface of the object 50 can be seen. Similarly, when it is determined that the viewpoint position is at a position shifted to the upper left with respect to the front position, an image is displayed so that the right side surface and the upper surface of the object 50 can be seen as shown in FIG. As described above, the image display apparatus according to the present embodiment displays a three-dimensional image corresponding to the viewpoint position of the viewer, whereby the viewer can view the viewer in the depth direction of the display surface of the display device 14 (the viewer sandwiching the display surface) The object can be visually recognized as if the object actually exists on the other side.

ここで、図3及び図4を参照して、視認者の視点位置に応じて表示される3次元画についてより具体的に説明する。   Here, with reference to FIG.3 and FIG.4, it demonstrates more concretely about the three-dimensional image displayed according to a viewer's viewpoint position.

図3に示すように、表示装置14の表示面210と平行に所定距離(d)だけ離れた位置に視点座標面200を設定し、視点座標面200上に座標系を設定する。その座標系の座標を用いて、視点座標面200における視認者の視点位置が表される。そして、視点座標面200上の視点位置に応じて、表示面210上に表示するオブジェクトの画像の形状を変化させる。   As shown in FIG. 3, the viewpoint coordinate plane 200 is set at a position separated by a predetermined distance (d) parallel to the display surface 210 of the display device 14, and the coordinate system is set on the viewpoint coordinate plane 200. Using the coordinates of the coordinate system, the viewer's viewpoint position on the viewpoint coordinate plane 200 is represented. Then, the shape of the image of the object displayed on the display surface 210 is changed according to the viewpoint position on the viewpoint coordinate plane 200.

例えば、図4において、視点位置Vaは視点座標面200の中心位置(基準位置)であり、この場合、視認者は表示装置の表示面210と正対することになるため、表示装置14にはオブジェクトを正面から見たときの画像Aが表示される。視点位置Vbは視点位置Vaからx方向に−Δxだけずれた位置であり、この場合、視認者は表示面210の中心に対してやや左側にずれた位置から表示装置14の画面を見ることになる。このため、表示装置14にはオブジェクトを正面に対してやや左側から見たときの画像Bが表示される。また、視点位置Vcは視点位置Vaからx方向に−Δx、y方向に−Δyだけずれた位置であり、この場合、視認者は表示面210の中心に対してやや左上側にずれた位置から表示装置14の画面を見ることになる。このため、表示装置14にはオブジェクトを正面に対してやや左上側から見たときの画像Cが表示される。   For example, in FIG. 4, the viewpoint position Va is the center position (reference position) of the viewpoint coordinate plane 200. In this case, the viewer faces the display plane 210 of the display apparatus. Is displayed from the front. The viewpoint position Vb is a position shifted by −Δx from the viewpoint position Va in the x direction. In this case, the viewer views the screen of the display device 14 from a position slightly shifted to the left side with respect to the center of the display surface 210. Become. For this reason, the display device 14 displays an image B when the object is viewed from the left slightly with respect to the front. Further, the viewpoint position Vc is a position that is shifted by −Δx in the x direction and −Δy in the y direction from the viewpoint position Va. In this case, the viewer is moved from a position slightly shifted to the upper left with respect to the center of the display surface 210. The screen of the display device 14 is seen. For this reason, the image C when the object is viewed from the upper left side with respect to the front is displayed on the display device 14.

上記のような、各視点位置から見た3D画像を表示するために画像表示装置100はデータ格納部17においてオブジェクト座標データ32と座標変換テーブル33とを格納している。   The image display device 100 stores the object coordinate data 32 and the coordinate conversion table 33 in the data storage unit 17 in order to display the 3D image viewed from each viewpoint position as described above.

特に、視点位置に応じた3D画像を表示するため、画像表示装置100は、複数の視点位置のそれぞれに対して、各視点から見たときに見える画像の3次元座標データをオブジェクト座標データ32として格納している。すなわち、オブジェクト座標データは、ある視点から見た場合に見えるオブジェクトの座標データ(オブジェクトを構成する各頂点の3次元座標データ)を含む。例えば、図4に示す視点位置Vbに対するオブジェクト座標データは、画像Bのように見えるオブジェクトを構成する各頂点の座標のデータを含む。画像Bのように見えるオブジェクトを構成する各頂点の座標のデータと、画像Aのように見えるオブジェクトを構成する各頂点の座標のデータとが異なることは言うまでもない。   In particular, in order to display a 3D image corresponding to the viewpoint position, the image display apparatus 100 uses, as object coordinate data 32, the three-dimensional coordinate data of the image seen when viewed from each viewpoint for each of a plurality of viewpoint positions. Storing. That is, the object coordinate data includes object coordinate data (three-dimensional coordinate data of each vertex constituting the object) seen when viewed from a certain viewpoint. For example, the object coordinate data for the viewpoint position Vb shown in FIG. 4 includes the coordinate data of each vertex constituting the object that looks like the image B. It goes without saying that the coordinate data of each vertex constituting the object that looks like the image B is different from the coordinate data of each vertex that constitutes the object that looks like the image A.

座標変換テーブル33は、視点位置(座標)と、その視点位置のときに表示させるオブジェクトの画像データ(パス名+ファイル名)とを関連づけて管理するテーブルである。図5(a)に座標変換テーブル33のデータ構成例を示す。座標変換テーブル33を参照することで、視点位置が決まれば、そのときに表示させる3D画像のデータを得ることができる。例えば、視点位置がV2の場合、そのときに表示させる画像データは、”画像0003.DAT”であることが分かる。なお、図5(a)に示すような、3D画像の頂点座標のデータを含む画像座標データを用いた座標変換テーブル33の代わりに、ビットマップやTIFF形式のような画素データで構成される画像データと、視点位置とを関連づけた表示画像テーブル34を用いることもできる。(図5(b)参照)。   The coordinate conversion table 33 is a table that manages the viewpoint position (coordinates) and the image data (path name + file name) of the object displayed at the viewpoint position in association with each other. FIG. 5A shows a data configuration example of the coordinate conversion table 33. By referring to the coordinate conversion table 33, if the viewpoint position is determined, 3D image data to be displayed at that time can be obtained. For example, when the viewpoint position is V2, the image data to be displayed at that time is “image 0003.DAT”. In addition, instead of the coordinate conversion table 33 using the image coordinate data including the vertex coordinate data of the 3D image as shown in FIG. 5A, an image composed of pixel data such as a bitmap or TIFF format. It is also possible to use a display image table 34 that associates data with viewpoint positions. (See FIG. 5 (b)).

3.画像表示装置の動作
図6のフローチャートを参照して画像表示装置100の動作を説明する。なお、以下の処理は、視認者による表示終了の要求(指示)があるまで実行される(S11)。まず、撮像装置10により視認者及びその近傍の画像が撮像される(S12)。撮像画像の情報は制御部15のパース演算処理部23に送られる。なお、画像表示装置10の動作中は、撮像装置10のレンズは視認者またはその近傍の方向に向けられているものとする。
3. Operation of Image Display Device The operation of the image display device 100 will be described with reference to the flowchart of FIG. Note that the following processing is executed until there is a display termination request (instruction) by the viewer (S11). First, an image of the viewer and its vicinity is captured by the imaging device 10 (S12). Information on the captured image is sent to the parse calculation processing unit 23 of the control unit 15. Note that during the operation of the image display apparatus 10, the lens of the imaging apparatus 10 is directed toward the viewer or the vicinity thereof.

制御部15は、視認者からのリセット要求を受信したか否かを判断する(S13)。リセット要求は、視認者が操作部19上のリセットボタンを押下したときに操作部19から制御部15へ送信される。   The control unit 15 determines whether or not a reset request from the viewer has been received (S13). The reset request is transmitted from the operation unit 19 to the control unit 15 when the viewer presses the reset button on the operation unit 19.

リセット要求を受信した場合、制御部15は視点位置を基準位置にリセットする(S14)。なお、本実施形態では、視点位置の基準位置は視点座標面200の中心位置としているが、これに限定されるものではない。リセット要求を受信していない場合、制御部15は、撮像された画像情報に基づいて視点位置の更新処理を行う(S15)。視点位置の更新処理の詳細は後述する。   When the reset request is received, the control unit 15 resets the viewpoint position to the reference position (S14). In the present embodiment, the reference position of the viewpoint position is the center position of the viewpoint coordinate plane 200, but is not limited to this. When the reset request has not been received, the control unit 15 performs a viewpoint position update process based on the captured image information (S15). Details of the viewpoint position update processing will be described later.

その後、パース演算処理部23は設定された視点位置に基づき新たに表示すべき、オブジェクトの3D画像データを生成または取得する、パース演算処理を行う(S16)。パース演算処理の詳細は後述する。そして、制御部15は3D画像データを表示装置14へ送信し、3D画像を表示させる(S17)。   Thereafter, the parse calculation processing unit 23 performs a parse calculation process for generating or acquiring 3D image data of an object to be newly displayed based on the set viewpoint position (S16). Details of the parsing calculation process will be described later. And the control part 15 transmits 3D image data to the display apparatus 14, and displays a 3D image (S17).

図7のフローチャートを参照し、視点位置の更新処理(S15)の詳細を説明する。視点位置の更新処理において、視点位置演算処理部21は撮像画像のデータを撮像装置10から受けると(S21)、前回撮像した画像と今回撮像した画像について画像の全体または一部の特徴部を比較し、画像の差分に基づいて画像の移動量を検出する(S22)。このような検出技術の一例として、例えばジェスチャーテック社(GestureTek Inc)のモーショントラック技術(GestureTek EyeMobaile)がある。例えば、図8(a)に示すように撮像画像の位置Aから位置A’への移動が検出された場合、その移動量Δx、Δyが求められる(図8(b)参照)。撮像画像220の移動量がΔx、Δyの場合、視点座標面200上での移動量は−Δx、Δyとなる。よって、新たな視点Va'は、前回の視点Vaをx方向に−Δx、y方向にΔyだけシフトさせることで求められる(図8(c)参照)。そして、上述のようにして求めた移動量に基づき新たな視点位置を設定する(S23)。以上のようにして、撮像画像に基づいて視点位置を更新することができる。   Details of the viewpoint position update processing (S15) will be described with reference to the flowchart of FIG. In the viewpoint position update process, when the viewpoint position calculation processing unit 21 receives data of the captured image from the imaging apparatus 10 (S21), the whole captured image part or a part of the characteristic part of the image captured this time is compared with the image captured this time. Then, the moving amount of the image is detected based on the difference between the images (S22). As an example of such a detection technique, for example, there is a motion track technique (GestureTek EyeMobaile) of GestureTek Inc. For example, when movement of the captured image from position A to position A ′ is detected as shown in FIG. 8A, the movement amounts Δx and Δy are obtained (see FIG. 8B). When the movement amounts of the captured image 220 are Δx and Δy, the movement amounts on the viewpoint coordinate plane 200 are −Δx and Δy. Therefore, a new viewpoint Va ′ is obtained by shifting the previous viewpoint Va by −Δx in the x direction and Δy in the y direction (see FIG. 8C). Then, a new viewpoint position is set based on the movement amount obtained as described above (S23). As described above, the viewpoint position can be updated based on the captured image.

次に、図9のフローチャートを参照してパース演算処理(S16)の詳細を説明する。パース演算処理において、まず、座標変換テーブル33を参照し、ステップS14またはS15にて設定した視点位置に対応するオブジェクトの座標データを取得する(S31)。そして、取得したオブジェクトの座標データに基づき、3D画像データを生成する(S32)。   Next, details of the parsing calculation process (S16) will be described with reference to the flowchart of FIG. In the parsing calculation process, first, the coordinate conversion table 33 is referred to, and the coordinate data of the object corresponding to the viewpoint position set in step S14 or S15 is acquired (S31). Then, 3D image data is generated based on the acquired coordinate data of the object (S32).

なお、上記の例では、1つのオブジェクトに対して、複数の視点から見たオブジェクトの座標データを予め用意し座標変換テーブル33で管理していたが、必ずしも座標変換テーブル33を用いる必要はない。パース演算処理部23において、オブジェクトを構成する各頂点の3D座標データをそのときの視点位置の座標に基づき計算により求めることもできる。以下、この3D座標データの計算方法について説明する。   In the above example, coordinate data of an object viewed from a plurality of viewpoints is prepared in advance and managed by the coordinate conversion table 33 for one object. However, the coordinate conversion table 33 is not necessarily used. In the parse calculation processing unit 23, the 3D coordinate data of each vertex constituting the object can also be obtained by calculation based on the coordinates of the viewpoint position at that time. Hereinafter, a method for calculating the 3D coordinate data will be described.

図10に示すようなオブジェクト50の3D画像表示に対して視点位置Vから見る場合を想定する。図11の(a)は、視点位置がVのときに表示されるオブジェクト50を示した図である。同図に示すように、オブジェクト50の正面画像に加えて右側面と上面の画像とも合わせて表示することで3D画像を表現している。この場合に3D画像を構成する頂点P、Q、Rの座標の求め方を以下に説明する。   Assume that the 3D image display of the object 50 as shown in FIG. FIG. 11A shows an object 50 that is displayed when the viewpoint position is V. FIG. As shown in the figure, in addition to the front image of the object 50, the 3D image is expressed by displaying the right side image and the upper surface image together. In this case, how to obtain the coordinates of the vertices P, Q, and R constituting the 3D image will be described below.

図11(b)は、3D空間においてオブジェクト50を左側面側からすなわちB−C線側から見たときの各頂点の位置関係を説明した図である。図11(c)は、3D空間においてオブジェクト50を真上から、すなわちA−B線側から見たときの各頂点の位置関係を説明した図である。図11の関係から、視点Vから見た場合のオブジェクト50の頂点Pのx座標は、図11(c)のz−x平面において、点Pと点Vを結ぶ直線と線分A−Bの交点座標P’のx座標(P'x)となる。また、視点Vから見た場合のオブジェクト50の頂点Pのy座標は、図11(b)のy−z平面において、点Pと点Vを結ぶ直線と線分B−Cの交点座標P’のy座標(P'y)となる。具体的には、以下の式で求められる。
P'x = (Pz・Vx - Px・Vz)/(Pz - Vz) (1a)
P'y = (Pz・Vy - Py・Vz)/(Pz - Vz) (1b)
FIG. 11B is a diagram illustrating the positional relationship between the vertices when the object 50 is viewed from the left side, that is, from the B-C line side in the 3D space. FIG. 11C illustrates the positional relationship between the vertices when the object 50 is viewed from directly above, that is, from the AB line side in the 3D space. From the relationship of FIG. 11, the x coordinate of the vertex P of the object 50 when viewed from the viewpoint V is the straight line connecting the point P and the point V and the line segment AB on the z-x plane of FIG. The x coordinate (P′x) of the intersection coordinate P ′ is obtained. Further, the y coordinate of the vertex P of the object 50 when viewed from the viewpoint V is the intersection coordinate P ′ of the straight line connecting the point P and the point V and the line segment BC on the yz plane of FIG. Y coordinate (P'y). Specifically, it is obtained by the following formula.
P'x = (Pz ・ Vx-Px ・ Vz) / (Pz-Vz) (1a)
P'y = (Pz ・ Vy-Py ・ Vz) / (Pz-Vz) (1b)

ここで、オブジェクト50の頂点Pの本来の座標を(Px, Py, Pz)とし、視点Vの座標を(Vx, Vy, Vz)としている。他の頂点Q、Rについても同様にして求めることができる。以上のようにして、視点位置Vの座標に基づき、その視点位置から見た場合に得られる3D画像の各頂点を計算で求めることができる。   Here, the original coordinates of the vertex P of the object 50 are (Px, Py, Pz), and the coordinates of the viewpoint V are (Vx, Vy, Vz). The other vertices Q and R can be obtained in the same manner. As described above, based on the coordinates of the viewpoint position V, each vertex of the 3D image obtained when viewed from the viewpoint position can be calculated.

以上のように、本実施形態の画像表示装置によれば、視認者を撮像した画像に基づき視認者の仮想の視点位置を推定し、表示する3D画像を視認者の視点位置に応じてリアルタイムで変化させることで、その視点位置から実際に見える画像を表示することができる。これにより、視認者は表示面の奥行方向にオブジェクトが実際に存在しているかのようにオブジェクトを認識でき、オブジェクト全体の形状を容易かつ正確に把握することができる。   As described above, according to the image display device of the present embodiment, the virtual viewpoint position of the viewer is estimated based on the image obtained by capturing the viewer, and the 3D image to be displayed is displayed in real time according to the viewpoint position of the viewer. By changing the image, it is possible to display an image that is actually seen from the viewpoint position. Thereby, the viewer can recognize the object as if the object actually exists in the depth direction of the display surface, and can easily and accurately grasp the shape of the entire object.

なお、本実施形態では、撮像装置10により撮像した画像の変化量に基づき視点位置を決定したが、撮像装置は必須ではない。撮像装置の代わりに、表示装置14の表示面の動きを検出する加速度センサまたは水平器、歯車等の機械的な機構を用いてもよい。これらのセンサ等からの出力に基づき表示装置14の表示面の角度の変化を検知することによっても、視点位置のx方向の変化量(Δθ)、y方向の変化量(Δφ)を検出でき、視点位置を特定することができる。また、撮像装置10を複数個設けてもよい。これにより撮像画像に基づき視点位置の奥行き方向(z方向)の移動量も検出できる。この場合、座標変換テーブル33において視点座標を3次元で管理するか、または上記式(1a)、(1b)を用いてオブジェクトの頂点座標を算出することで、新たな視点位置に対して表示すべき3D画像を得ることができる。   In the present embodiment, the viewpoint position is determined based on the change amount of the image captured by the imaging device 10, but the imaging device is not essential. Instead of the imaging device, an acceleration sensor that detects the movement of the display surface of the display device 14 or a mechanical mechanism such as a leveler or a gear may be used. By detecting the change in the angle of the display surface of the display device 14 based on the output from these sensors or the like, the change amount (Δθ) in the x direction and the change amount (Δφ) in the y direction of the viewpoint position can be detected. The viewpoint position can be specified. A plurality of imaging devices 10 may be provided. Thereby, the movement amount of the viewpoint position in the depth direction (z direction) can also be detected based on the captured image. In this case, the viewpoint coordinates are managed three-dimensionally in the coordinate conversion table 33, or the vertex coordinates of the object are calculated using the above formulas (1a) and (1b) to display the new viewpoint position. A power 3D image can be obtained.

(第2の実施形態)
第1の実施形態では、視認者の視点位置を推定するために撮像画像を用いた。本実施形態では、視点位置を推定するために、視認者の立ち位置をセンサで検出する位置検出装置を用いた例を説明する。
(Second Embodiment)
In the first embodiment, the captured image is used to estimate the viewer's viewpoint position. In the present embodiment, an example will be described in which a position detection device that detects a standing position of a viewer with a sensor in order to estimate a viewpoint position.

図12は、第2の実施形態における画像表示装置の構成を示した図である。本実施形態の画像表示装置101は撮像装置10の代わりに位置検出装置12を備えた点が第1の実施の形態の画像処理装置の構成と異なる。   FIG. 12 is a diagram illustrating a configuration of an image display device according to the second embodiment. The image display apparatus 101 of the present embodiment is different from the configuration of the image processing apparatus of the first embodiment in that a position detection device 12 is provided instead of the imaging device 10.

位置検出装置12はセンサにより視認者の立ち位置を検出するものである。センサとしては、赤外線センサ、静電誘導式スイッチ、機械式スイッチ等が利用できる。図13(a)に位置検出装置12の構成の一例を示す。同図に示す位置検出装置12は、視認者の位置を感知するセンサ12bが複数個x方向に1次元的に配置されており、視認者の位置を示す位置検出信号を出力する。視点位置演算処理部21は位置検出装置12からの位置検出信号に基づき、視点位置を更新する。その後の処理は第1の実施形態で説明したものと同様である。   The position detection device 12 detects the standing position of the viewer using a sensor. As the sensor, an infrared sensor, an electrostatic induction switch, a mechanical switch, or the like can be used. FIG. 13A shows an example of the configuration of the position detection device 12. In the position detection device 12 shown in the figure, a plurality of sensors 12b for detecting the position of the viewer are arranged one-dimensionally in the x direction, and a position detection signal indicating the position of the viewer is output. The viewpoint position calculation processing unit 21 updates the viewpoint position based on the position detection signal from the position detection device 12. Subsequent processing is the same as that described in the first embodiment.

図13(b)に本実施形態の画像表示装置101の適用例を示す。表示装置14を店舗のショーウインドウに配置し、位置検出装置12を店舗の前の道路や壁等に埋め込んでおく。位置検出装置12により通行人(視認者)の位置が検出されると、画像処理装置11はその検出位置に基づき視点位置を算出し、その視点位置から観察したときに得られる画像を表示装置14に表示する。これにより、例えば、図13(b)において通行人が位置Aから位置A’へ移動した場合、表示装置14上に表示される3D画像は図13(c)に示すように変化する。このように通行人の移動とともに画像を変化させることで、通行人は、表示装置14の画面の奥行き方向(z方向)にあたかもオブジェクトが実在しているようにオブジェクトを認識することができる。   FIG. 13B shows an application example of the image display apparatus 101 of the present embodiment. The display device 14 is arranged in a shop show window, and the position detection device 12 is embedded in a road or a wall in front of the store. When the position of the passerby (viewer) is detected by the position detection device 12, the image processing device 11 calculates a viewpoint position based on the detected position, and displays an image obtained when observing from the viewpoint position. To display. Accordingly, for example, when the passerby moves from position A to position A ′ in FIG. 13B, the 3D image displayed on the display device 14 changes as shown in FIG. 13C. By changing the image as the passerby moves in this manner, the passerby can recognize the object as if it existed in the depth direction (z direction) of the screen of the display device 14.

なお、上記の例では位置検出装置12はx方向の位置を検出したが、y方向またはz方向の位置を検出してもよい。また、位置検出装置12において複数のセンサ12bを2次元的に配置してもよい。または、位置検出装置12を、視認者の位置を3次元的に検出できるよう構成してもよい。いずれの場合であっても、複数の視点位置のそれぞれに対応した3D画像を予め用意しておくか、または、各視点位置から見た3D画像の座標を視点位置が更新される毎に算出することにより、視点位置に応じた3D画像を表示することが可能となる。   In the above example, the position detection device 12 detects the position in the x direction, but may detect the position in the y direction or the z direction. In the position detection device 12, a plurality of sensors 12b may be two-dimensionally arranged. Or you may comprise the position detection apparatus 12 so that a viewer's position can be detected three-dimensionally. In any case, a 3D image corresponding to each of a plurality of viewpoint positions is prepared in advance, or the coordinates of the 3D image viewed from each viewpoint position are calculated each time the viewpoint position is updated. Thus, it is possible to display a 3D image corresponding to the viewpoint position.

また、各センサ12bの出力値が3つ以上の値をとる場合、隣接するセンサ間で検知範囲が重複するように各センサ12bを設置しておき、各センサ12bで検知した値を平均した値に基づき視認者の位置を検出してもよい。   In addition, when the output value of each sensor 12b takes three or more values, each sensor 12b is installed so that the detection ranges overlap between adjacent sensors, and the value detected by each sensor 12b is averaged. The position of the viewer may be detected based on the above.

(第3の実施形態)
上述の実施形態では、静止画の3D表示の場合について説明したが、本実施形態では、オブジェクトに動きがある場合の3D表示の場合について説明する。本実施形態における画像表示装置の構成は図1または図12に示すものと同様である。
(Third embodiment)
In the above-described embodiment, the case of 3D display of a still image has been described. However, in this embodiment, the case of 3D display when an object has movement will be described. The configuration of the image display apparatus in this embodiment is the same as that shown in FIG. 1 or FIG.

本実施形態の画像表示装置におけるパース演算処理部23は、動画を構成する時系列で表示される各画像を表示する際に、そのときに検出した視点位置に応じた画像を生成する。このような方法により、動画の場合であっても、静止画の場合と同様に視認者の視点位置から見た3D画像の表示が可能となる。   The parse calculation processing unit 23 in the image display apparatus according to the present embodiment generates an image corresponding to the viewpoint position detected at the time when displaying each image displayed in time series constituting the moving image. By such a method, even in the case of a moving image, it is possible to display a 3D image viewed from the viewpoint position of the viewer, as in the case of a still image.

図14は、x−y平面内でz軸に平行な軸を中心として時計回りに回転するオブジェクトを基準位置から見た場合に、時系列で表示される画像を説明した図である。すなわち、#0から#11までのオブジェクトの画像(静止画)を順次所定のフレームレートで表示することで回転するオブジェクトの動画が実現できる。   FIG. 14 is a diagram illustrating images displayed in time series when an object that rotates clockwise around an axis parallel to the z axis in the xy plane is viewed from the reference position. That is, a moving object moving image can be realized by sequentially displaying images (still images) of objects # 0 to # 11 at a predetermined frame rate.

基準位置から右上側にずれた視点位置から見たときの3D表示は、図14の各画像に対して、図15に示すような基準位置から右上側にずれた視点位置から見たときの画像を表示させることで実現できる。   The 3D display when viewed from the viewpoint position shifted to the upper right side from the reference position is an image when viewed from the viewpoint position shifted to the upper right side from the reference position as shown in FIG. This can be realized by displaying.

3D画像の動画を描画するツールとして従来より種々のものが知られている。例えば、「RenderWare」が知られている。また、描画ライブラリとして「OpenGL」、「DirectX」等が知られている。これらのツールを使用して3D画像を描画する際に、カメラ位置のパラメータとして最新の視点位置の情報を与えてやることで、視点位置に応じた画像の描画が可能となる。   Various tools have been conventionally known as tools for drawing moving images of 3D images. For example, “RenderWare” is known. Further, “OpenGL”, “DirectX” and the like are known as drawing libraries. When a 3D image is drawn using these tools, the latest viewpoint position information is given as a camera position parameter, so that an image corresponding to the viewpoint position can be drawn.

本発明は、視認者の視点位置に基づき、その視点位置から観察できる3D画像を表示できるため、視認者はより自然に近い間隔で3D画像を視認できる。このため、本発明は種々のコンピュータゲームや、イベント、ショールーム、展示会等で使用されるディスプレイ等のバーチャルな3D表示を行う様々な技術分野に適用できる。   Since the present invention can display a 3D image that can be observed from the viewpoint position based on the viewpoint position of the viewer, the viewer can visually recognize the 3D image at a more natural interval. Therefore, the present invention can be applied to various technical fields that perform virtual 3D display such as displays used in various computer games, events, showrooms, exhibitions, and the like.

本発明の第1の実施形態の画像表示装置の構成を示す図The figure which shows the structure of the image display apparatus of the 1st Embodiment of this invention. 本発明の実施形態の画像表示装置による、視点位置に応じて表示される3次元画像の表示例を説明した図The figure explaining the example of a display of the three-dimensional image displayed according to a viewpoint position by the image display apparatus of embodiment of this invention. 視点座標面を説明するための図Illustration for explaining the viewpoint coordinate plane 視認者の視点位置に応じて表示される3次元画像を説明した図The figure explaining the three-dimensional image displayed according to a viewer's viewpoint position (a)座標変換テーブルを説明した図、(b)表示画像テーブルを説明した図(A) The figure explaining the coordinate conversion table, (b) The figure explaining the display image table 第1の実施形態の画像表示装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image display apparatus of 1st Embodiment. 視点位置の更新処理のフローチャートFlow chart of viewpoint position update processing 視点位置の移動の検出方法を説明した図Diagram explaining how to detect the movement of the viewpoint パース演算処理のフローチャートFlow chart of parse calculation processing 視点移動後のオブジェクトの頂点座標の計算方法を説明するための図Illustration for explaining how to calculate the vertex coordinates of an object after moving the viewpoint 視点移動後のオブジェクトの頂点座標の計算方法を説明するための図Illustration for explaining how to calculate the vertex coordinates of an object after moving the viewpoint 本発明の第2の実施形態の画像表示装置の構成を示す図The figure which shows the structure of the image display apparatus of the 2nd Embodiment of this invention. (a)位置検出装置の例を示した図、(b)視認者の立ち位置の移動を説明するための図、(c)視認者の立ち位置に応じて変化する3D画像の例を説明した図(A) The figure which showed the example of a position detection apparatus, (b) The figure for demonstrating the movement of a viewer's standing position, (c) The example of the 3D image which changes according to a viewer's standing position was demonstrated. Figure 本発明の第3の実施形態の画像表示装置による、仮想の視点位置が基準位置である場合に表示される、オブジェクトの動画を構成する各フレームの画像を説明した図The figure explaining the image of each flame | frame which comprises the moving image of an object displayed when the virtual viewpoint position is a reference | standard position by the image display apparatus of the 3rd Embodiment of this invention. 本発明の第3の実施形態の画像表示装置による、仮想の視点位置が基準視点位置から右上方向にシフトした位置である場合に表示される、オブジェクトの動画を構成する各フレームの画像を説明した図The image of each frame constituting the moving image of the object displayed when the virtual viewpoint position is shifted to the upper right direction from the reference viewpoint position by the image display device according to the third embodiment of the present invention has been described. Figure

符号の説明Explanation of symbols

10 撮像装置
11 画像処理装置
13 インタフェース
14 表示装置
15 制御部
19 操作部
17 データ格納部
32 オブジェクト座標データ
33 座標変換テーブル
50 オブジェクト
100、101 画像表示装置
200 視点座標面
210 表示装置の表示面
DESCRIPTION OF SYMBOLS 10 Imaging device 11 Image processing apparatus 13 Interface 14 Display apparatus 15 Control part 19 Operation part 17 Data storage part 32 Object coordinate data 33 Coordinate conversion table 50 Object 100, 101 Image display apparatus 200 Viewpoint coordinate plane 210 Display surface of display apparatus

Claims (5)

オブジェクトの3次元画像を表示する画像表示装置であって、
視認者の仮想の視点位置を検出する視点位置検出手段と、
検出された仮想の視点位置に基づき、その仮想の視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を生成するパース演算処理手段と、
生成された3次元画像を表示装置に表示する手段と
を備えた3次元画像表示装置。
An image display device that displays a three-dimensional image of an object,
Viewpoint position detecting means for detecting the virtual viewpoint position of the viewer;
Based on the detected virtual viewpoint position, a parse calculation processing means for generating a three-dimensional image of the object seen when the object is viewed from the virtual viewpoint position;
A three-dimensional image display device comprising: means for displaying the generated three-dimensional image on a display device.
複数の仮想の視点位置に対して、オブジェクトを構成する頂点の座標を管理する座標変換テーブルを格納する記憶手段をさらに備え、
前記パース演算処理手段は、前記座標変換テーブルを参照し、検出された仮想の視点位置に応じたオブジェクトの各頂点の座標を読み出し、該読み出した座標に基づきオブジェクトの3次元画像を生成する、
請求項1記載の3次元画像表示装置。
Storage means for storing a coordinate conversion table for managing coordinates of vertices constituting the object for a plurality of virtual viewpoint positions;
The parse calculation processing means refers to the coordinate conversion table, reads the coordinates of each vertex of the object according to the detected virtual viewpoint position, and generates a three-dimensional image of the object based on the read coordinates.
The three-dimensional image display apparatus according to claim 1.
画像を撮像する撮像手段をさらに備え、
前記視点位置検出手段は、前記撮像手段により撮像された視認者またはその近傍を撮像した画像を受信し、該画像の全体または一部の動きに基づいて前記仮想の視点位置を検出する、請求項1記載の3次元画像表示装置。
It further comprises imaging means for taking an image,
The viewpoint position detection unit receives an image of a viewer captured by the imaging unit or the vicinity thereof, and detects the virtual viewpoint position based on the movement of the whole or a part of the image. 3. The three-dimensional image display device according to 1.
視認者の立ち位置を検出する検出手段をさらに備え、
前記視点位置検出手段は、前記検出手段から視認者の立ち位置に関する情報を受信し、視認者の立ち位置に基づいて前記仮想の視点位置を検出する、請求項1記載の3次元画像表示装置。
It further comprises detection means for detecting the standing position of the viewer,
The three-dimensional image display device according to claim 1, wherein the viewpoint position detection unit receives information on the standing position of the viewer from the detection unit and detects the virtual viewpoint position based on the standing position of the viewer.
オブジェクトの3次元画像を表示する制御を行う、コンピュータ読み取り可能な3次元画像表示プログラムであって、
視認者の位置に関する情報を入力手段を介して受信する手順と、
受信した視認者の位置に関する情報に基づき、視認者の仮想の視点位置を演算手段(21)により検出する手順と、
検出した視点位置に基づき、その視点位置からオブジェクトを見たときに見えるオブジェクトの3次元画像を演算手段により生成する手順と、
生成された3次元画像を表示手段に表示させる手順と
をコンピュータに実行させる、3次元画像表示プログラム。
A computer-readable three-dimensional image display program for performing control to display a three-dimensional image of an object,
A procedure for receiving information about the position of the viewer via the input means;
A procedure for detecting the virtual viewpoint position of the viewer by the calculation means (21) based on the received information on the position of the viewer;
Based on the detected viewpoint position, a procedure for generating a three-dimensional image of the object that is seen when the object is viewed from the viewpoint position by the calculation means;
A three-dimensional image display program for causing a computer to execute a procedure for causing a display unit to display a generated three-dimensional image.
JP2007322301A 2007-12-13 2007-12-13 Three-dimensional image display device Pending JP2009146140A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322301A JP2009146140A (en) 2007-12-13 2007-12-13 Three-dimensional image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322301A JP2009146140A (en) 2007-12-13 2007-12-13 Three-dimensional image display device

Publications (1)

Publication Number Publication Date
JP2009146140A true JP2009146140A (en) 2009-07-02

Family

ID=40916680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322301A Pending JP2009146140A (en) 2007-12-13 2007-12-13 Three-dimensional image display device

Country Status (1)

Country Link
JP (1) JP2009146140A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090400A (en) * 2009-10-20 2011-05-06 Sony Corp Image display device, method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198822A (en) * 1997-01-10 1998-07-31 Sharp Corp Image synthesis device
JP2001222726A (en) * 1999-12-22 2001-08-17 Lucent Technol Inc Method and device for image processing
JP2005157610A (en) * 2003-11-25 2005-06-16 Canon Inc Image processing apparatus and method
JP2006127004A (en) * 2004-10-27 2006-05-18 Kyushu Univ CG presentation device, method and program thereof, and CG display system
JP2006301654A (en) * 2006-05-08 2006-11-02 Fujitsu Ltd Image presentation device
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing apparatus, image processing method, image display system, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198822A (en) * 1997-01-10 1998-07-31 Sharp Corp Image synthesis device
JP2001222726A (en) * 1999-12-22 2001-08-17 Lucent Technol Inc Method and device for image processing
JP2005157610A (en) * 2003-11-25 2005-06-16 Canon Inc Image processing apparatus and method
JP2006127004A (en) * 2004-10-27 2006-05-18 Kyushu Univ CG presentation device, method and program thereof, and CG display system
JP2006318015A (en) * 2005-05-10 2006-11-24 Sony Corp Image processing apparatus, image processing method, image display system, and program
JP2006301654A (en) * 2006-05-08 2006-11-02 Fujitsu Ltd Image presentation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090400A (en) * 2009-10-20 2011-05-06 Sony Corp Image display device, method, and program

Similar Documents

Publication Publication Date Title
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP5966510B2 (en) Information processing system
US9778815B2 (en) Three dimensional user interface effects on a display
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US9268410B2 (en) Image processing device, image processing method, and program
JP5724543B2 (en) Terminal device, object control method, and program
JP5524417B2 (en) 3D user interface effect on display by using motion characteristics
US20130215230A1 (en) Augmented Reality System Using a Portable Device
US10884576B2 (en) Mediated reality
TW201911133A (en) Controller tracking for multiple degrees of freedom
CN105074617A (en) Three-dimensional user interface device and three-dimensional operation processing method
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
WO2011043645A1 (en) Display system and method for displaying a three dimensional model of an object
JP2000181601A (en) Information display system
JP2009146140A (en) Three-dimensional image display device
CN118747039A (en) Method, device, electronic device and storage medium for moving virtual objects
JP4493082B2 (en) CG presentation device, program thereof, and CG display system
JP5830899B2 (en) Projection system, projection apparatus, projection method and program
KR20060027180A (en) Method and method for reflecting motion in 3D space of portable terminal to image information
JP5520772B2 (en) Stereoscopic image display system and display method
JP2012103888A (en) Virtual space sharing system, portable terminal and virtual space sharing method
CN120714237A (en) Method, device, electronic device and storage medium for controlling virtual objects
CN206892844U (en) A kind of LED display of three-dimensional imaging
Tokuhara et al. Development of a City Presentation Method by Linking Viewpoints of a Physical Scale Model and VR
CN118349109A (en) A data interactive display method and system based on mixed reality

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101026