JP2006101329A - Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium - Google Patents
Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium Download PDFInfo
- Publication number
- JP2006101329A JP2006101329A JP2004286621A JP2004286621A JP2006101329A JP 2006101329 A JP2006101329 A JP 2006101329A JP 2004286621 A JP2004286621 A JP 2004286621A JP 2004286621 A JP2004286621 A JP 2004286621A JP 2006101329 A JP2006101329 A JP 2006101329A
- Authority
- JP
- Japan
- Prior art keywords
- rendering
- image
- stereoscopic image
- peer
- volume data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【課題】CTやMRI等の医療用画像診断機器により得られた3次元医用画像データの遠隔観察に好適な立体視画像観察装置を提供する。
【解決手段】ボリュームデータからレンダリング画像を生成する共有サーバ1と、レンダリング画像に基づいて立体視画像を表示する複数のクライアント端末2とがネットワーク3を介して相互に接続されている。共有サーバ1は、レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成して各クライアント端末へ送信する。共有サーバ1はさらに、観察条件の変更要求をクライアント端末2から受信すると、この変更要求に応答してレンダリングパラメータを変更し、改めてレンダリング処理を実施する。この結果、一のクライアント端末から入力された観察条件の変更要求に応答して、全てのクライアント端末において立体視画像の観察条件が変更される。
【選択図】図1
A stereoscopic image observation apparatus suitable for remote observation of three-dimensional medical image data obtained by a medical image diagnostic device such as CT or MRI is provided.
A shared server that generates a rendering image from volume data and a plurality of client terminals that display a stereoscopic image based on the rendering image are connected to each other via a network. The shared server 1 performs a rendering process according to the rendering parameter on the volume data, generates a rendered image, and transmits it to each client terminal. Further, when the shared server 1 receives a request for changing the observation condition from the client terminal 2, the shared server 1 changes the rendering parameter in response to the change request, and performs the rendering process again. As a result, in response to the change request for the viewing condition input from one client terminal, the viewing condition for the stereoscopic image is changed in all the client terminals.
[Selection] Figure 1
Description
本発明は、立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末に係り、特に、CTやMRI等の医療用画像診断機器により得られた3次元医用画像データの遠隔観察に好適な立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末に関する。 The present invention relates to a stereoscopic image observation apparatus and its shared server, client terminal and peer-to-peer terminal, and in particular, remote observation of three-dimensional medical image data obtained by medical image diagnostic equipment such as CT and MRI. And a shared server, a client terminal, and a peer-to-peer terminal.
CTやMRI等の医療用画像診断機器により得られた3次元の画素配置をもつ医用画像データ(以下、ボリュームデータと表現する)に光の透過係数などを設定し、陰影を追加することで立体的な2次元CG画像を作成するレンダリング技術が確立されている。また、立体視表示が行える表示装置を用いることにより、単に2次元画像ではなく、視点の空間座標が異なる2つの画像を右眼と左眼別々に入力することができ、奥行きを持った立体的な空間として視覚的に認識される。 By setting a light transmission coefficient and adding a shadow to medical image data (hereinafter referred to as volume data) having a three-dimensional pixel arrangement obtained by medical diagnostic imaging equipment such as CT and MRI Rendering technology to create a typical 2D CG image has been established. In addition, by using a display device that can perform stereoscopic display, two images with different spatial coordinates of the viewpoint can be input separately for the right eye and the left eye, not just a two-dimensional image, and a stereoscopic three-dimensional image with depth. It is visually recognized as a space.
これまでの立体視の方法として一般的なものは、左眼用と右眼用の2種類の画像を用いる2眼式立体視である。例えば動画の世界では、2つのプロジェクターを使って左右で直交させた偏光フィルターを通した映像を投射し、それを同じく偏光フィルターを使っためがねで見るポラライザー方式が普及している。この他にも、毎秒30フレームというビデオ映像のフレームごとに左右別々の映像を画面に表示させ、それに同期させた液晶メガネで右の映像が映っているときは左目をブラックアウトさせるという方法で立体映像をつくり出す技術もある。また近年では、ディスプレイの表面にスリットを配し、視聴者の見る位置に合わせて異なる画像が見える多眼式立体視と呼ばれるものがある。 A conventional stereoscopic viewing method is binocular stereoscopic viewing using two types of images for the left eye and the right eye. For example, in the world of moving images, a polarizer system that uses two projectors to project an image through a polarizing filter that is orthogonal to the left and right, and views the image with glasses using the polarizing filter is also widespread. In addition to this, the left and right separate images are displayed on the screen for each video image frame of 30 frames per second, and the left eye is blacked out when the right image is reflected in the synchronized LCD glasses. There is also a technology for creating images. In recent years, there is a so-called multi-view stereoscopic view in which a slit is provided on the surface of a display so that different images can be seen according to the position viewed by the viewer.
一方、医療用ボリュームデータをレンダリングして表示する装置としては、表示装置に蓄積してあるボリュームデータをレンダリングする形態のものと、表示装置とは別のサーバ装置に存在するボリュームデータをサーバ上でレンダリングし、結果を表示装置に伝送し表示する形態のものがある。医療用ボリュームレンダリングは、特許文献1に開示されている。
同一のボリュームデータを遠隔配置された複数の表示端末に表示させて同時に観察しようとする際、特に医療分野では、各表示端末にTV会議システム等のコミュニケーションツールを併設し、各表示端末の観察者が互いにコミュニケーションをとりながら観察を行えるシステムが必要とされている。さらに、このような観察システムでは、いずれかの表示端末において視点変更等の観察条件を変更する操作が行われると、これが当該表示端末のみならず他の全ての表示端末にも反映され、各表示端末には同一視点から見込んだ同一画像が常に表示されるようにすることが望ましい。しかしながら、従来の観察システムでは、一の表示端末で行われた観察条件の変更を他の表示端末に反映させることができなかった。 When you want to display the same volume data on multiple remotely arranged display terminals and observe them simultaneously, especially in the medical field, each display terminal is equipped with a communication tool such as a TV conference system, and the viewer of each display terminal There is a need for a system that enables observation while communicating with each other. Furthermore, in such an observation system, when an operation for changing an observation condition such as a viewpoint change is performed on any display terminal, this is reflected not only on the display terminal but also on all other display terminals. It is desirable to always display the same image viewed from the same viewpoint on the terminal. However, in the conventional observation system, the change of the observation condition performed on one display terminal cannot be reflected on another display terminal.
本発明の目的は、上記した従来技術の課題を解決し、同一のボリュームデータを複数の表示端末で観察する立体視画像観察装置において、いずれかの表示端末において視点等の観察条件が変更されると、これが全ての表示端末に反映され、全ての表示端末において常に同一画像の観察が可能になる立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体を提供することにある。 An object of the present invention is to solve the above-described problems of the prior art, and in a stereoscopic image observation apparatus that observes the same volume data on a plurality of display terminals, the observation conditions such as the viewpoint are changed on any of the display terminals. This is reflected in all display terminals, and a stereoscopic image observation apparatus that can always observe the same image in all display terminals, its shared server, client terminal and peer-to-peer terminal, rendering image generation method, and A stereoscopic image display method, a program thereof, and a storage medium are provided.
上記した目的を達成するために、本発明は、3次元の画素配置を持つボリュームデータから生成されたレンダリング画像に基づいて、複数の表示端末に立体視画像を表示する立体視画像観察装置を対象とし、一の表示端末において観察条件の変更が要求されると、当該一の表示端末は、自身がサーバ/クライアントモデルのクライアント端末であれば、ボリュームデータをレンダリングして各端末へ供給する共有サーバに対してレンダリングコマンドを送信し、レンダリングパラメータの変更を要求する。共有サーバは、変更されたレンダリングパラメータに基づいて再レンダリングを実施し、レンダリング画像を改めて全クライアント端末へ送信するので、一の表示端末で行われた観察条件の変更を他の表示端末に反映させることができる。 In order to achieve the above object, the present invention is directed to a stereoscopic image observation apparatus that displays stereoscopic images on a plurality of display terminals based on a rendering image generated from volume data having a three-dimensional pixel arrangement. When a change in viewing conditions is requested in one display terminal, the one display terminal renders volume data and supplies it to each terminal if it is a client terminal of a server / client model A rendering command is sent to and a change of rendering parameters is requested. Since the shared server performs re-rendering based on the changed rendering parameter and transmits the rendered image to all the client terminals again, the change of the observation condition performed on one display terminal is reflected on the other display terminals. be able to.
また、前記一の表示端末は、自身が相手端末とピア・ツー・ピアで接続されるピア・ツー・ピア端末であれば、自端末から観察条件の変更が要求されると、自身のレンダリングパラメータを変更すると共に、相手端末に対してレンダリングコマンドを送信し、レンダリングパラメータの変更を要求する。この結果、自端末および相手端末の双方において、同一のボリュームデータに対して同一のレンダリングパラメータに応じたレンダリング処理が実施されるので、自端末で行われた観察条件の変更を相手端末に反映させることができる。 In addition, if the one display terminal is a peer-to-peer terminal connected to the other terminal in a peer-to-peer manner, when its own terminal requests a change in observation conditions, And a rendering command is transmitted to the counterpart terminal to request a change of the rendering parameter. As a result, since the rendering processing corresponding to the same rendering parameter is performed on the same volume data in both the own terminal and the partner terminal, the change of the observation condition performed in the own terminal is reflected in the partner terminal. be able to.
本発明によれば、以下のような効果が達成される。
(1)ボリュームデータから立体視用のレンダリング画像を生成する共有サーバと、立体視用のレンダリング画像に基づいて立体視画像を表示する少なくとも一つのクライアント端末とがネットワークを介して相互に接続された立体視画像観察装置において、いずれかのクライアント端末において視点等の観察条件が変更されると、これが全ての表示端末に反映されるので、全ての端末において常に同一画像の観察が可能になる。
(2)ボリュームデータから生成されたレンダリング画像に基づいて立体視画像を表示する一対の端末が、ネットワークを介してピア・ツー・ピアで接続された立体視画像観察装置において、一方の端末において視点等の観察条件が変更されると、これが他方の端末に反映されるので、各端末において常に同一画像の観察が可能になる。
(3)観察条件の変更内容を予測して予めレンダリング予測画像を生成しておき、観察条件の変更が要求されると、この要求に合致したレンダリング予測画像が既登録であれば、レンダリング処理を実施することなく当該レンダリング予測画像を出力するので、処理時間の短縮が可能になる。
(4)各端末同士がTV会議機能を利用して相互に通話できるので、立体視画像を観察しながらリアルタイムでコミュニケーションを取ることができる。
According to the present invention, the following effects are achieved.
(1) A shared server that generates a stereoscopic rendering image from volume data and at least one client terminal that displays a stereoscopic image based on the stereoscopic rendering image are connected to each other via a network. In the stereoscopic image observation apparatus, when the observation condition such as the viewpoint is changed in any of the client terminals, this is reflected in all the display terminals, so that the same image can always be observed in all the terminals.
(2) In a stereoscopic image observation apparatus in which a pair of terminals that display a stereoscopic image based on a rendering image generated from volume data is connected peer-to-peer via a network, a viewpoint at one terminal When the observation conditions such as the above are changed, this is reflected on the other terminal, so that the same image can always be observed on each terminal.
(3) Predicting the changes in the viewing conditions and generating a rendering prediction image in advance.When a change in the viewing conditions is requested, if a rendering prediction image that matches this request has already been registered, the rendering process is performed. Since the rendering prediction image is output without performing, the processing time can be shortened.
(4) Since each terminal can talk to each other using the TV conference function, it is possible to communicate in real time while observing a stereoscopic image.
以下、図面を参照して本発明の好ましい実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係る立体視画像観察装置の構成を示したブロック図であり、ここでは、3次元の画素配置を持つボリュームデータから立体視用のレンダリング画像を生成する共有サーバ1と、この共有サーバ1上でボリュームデータを共有し、その立体視画像を同一視点で表示する複数のクライアント端末2とがネットワーク3を介して接続され、サーバ・クライアント型のシステムを構成している。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the stereoscopic image observation apparatus according to the first embodiment of the present invention. Here, a stereoscopic rendering image is generated from volume data having a three-dimensional pixel arrangement. A shared server 1 and a plurality of
図2は、前記共有サーバ1の主要部の構成を示したブロック図であり、ボリュームデータのデータベース(DB)101には、3次元空間上の各点が値を有する状態をモデル化した各種のボリュームデータが蓄積されている。このボリュームデータDB101上では、各ボリュームデータが識別情報で一義的に管理されている。レンダリング処理部102は、制御部100から提供される、少なくとも視点情報を含むレンダリングパラメータに応じて、前記ボリュームデータに対してレンダリング処理を実施し、視点の異なる複数のレンダリング画像を生成する。
FIG. 2 is a block diagram showing the configuration of the main part of the shared server 1. In the volume data database (DB) 101, various types of models in which each point in the three-dimensional space has a value are modeled. Volume data is accumulated. On the
送信画像バッファ103には、前記レンダリング処理部102から出力される複数のレンダリング画像が一時的に保持される。圧縮・暗号化処理部104は、前記送信画像バッファ103からレンダリング画像を読み出して符号化圧縮すると共に、必要に応じて暗号化処理を施す。画像送信部105からは、レンダリング画像の符号化データが全てのクライアント端末2に向けて送信される。
The
コマンド受信部106は、レンダリングパラメータを変更するためにクライアント端末2から送信されるレンダリングコマンドや、TV会議への参加を希望するクライアント端末2から送信されるのTV会議接続要求コマンドを受信する。前記制御部100は、受信されたレンダリングコマンドに基づいてレンダリングパラメータを変更し、前記レンダリング処理部102に対して、変更後のレンダリングパラメータによる再レンダリングを指示する。
The
接続端末リスト107には、TV会議接続を許可するクライアント端末2の識別情報が予め登録されている。認証部108は、前記TV会議接続要求を送信したクライアント端末2の識別情報が前記接続端末リスト107に既登録であるか否かに基づいて認証を行い、権限を有するクライアント端末2からの接続要求であれば、これを許可する。TV会議情報配信部109は、各クライアント端末2から送信されたTV会議映像およびTV会議音声を受信し、これらを合成した後に全てのクライアント端末2へ配信する。
In the
図3は、前記レンダリング処理部102の構成を示したブロック図であり、ここでは、二眼式を例にして説明する。
FIG. 3 is a block diagram showing the configuration of the
レンダリング処理部102は、ボリュームデータを空間上の任意の視点xから見込んだ2次元のレンダリング画像(右眼画像)を作成する第1レンダリング処理部141aと、前記視点xを右眼視点としたときに、当該視点xとは僅かに離間されて左眼視点となる他の視点x’から同じボリュームデータを見込んだ2次元のレンダリング画像(左眼画像)を作成する第2レンダリング処理部141bとを含む。これ以後、立体視画像を表現するために必要な第1および第2レンダリング画像のペアを単にレンダリング画像と表現する場合もある。前記各視点x,x’の座標位置は、レンダリングパラメータの一部として制御部100から提供される。前記第1および第2レンダリング処理部141a,141bでは、視点以外に関しては同一のレンダリングパラメータを用いてレンダリングが行われる。
The
図4は、前記レンダリング処理部102の他の構成を示したブロック図であり、上記した左右一対のレンダリング処理部141(141a,141b)を複数組設け、それぞれに異なる視点から見込んだレンダリング画像を生成する多眼式の構成を示している。なお、上記した2眼式および多眼式のいずれにおいても、第1および第2レンダリング画像をそのまま出力するのではなく、例えば第1レンダリング画像に対する第2レンダリング画像の差分データを求め、第1レンダリング画像および差分データのペアを立体視用のレンダリング画像として出力するようにしても良い。
FIG. 4 is a block diagram showing another configuration of the
図5は、前記クライアント端末2の構成を示したブロック図であり、いずれのクライアント端末も同一または同等の構成を備えている。
FIG. 5 is a block diagram showing the configuration of the
レンダリング通信部212は、前記共有サーバ1の画像送信部105およびコマンド受信部106と通信し、共有サーバ1から送信されるレンダリング画像の受信、および共有サーバ1へのレンダリングコマンドの送信を制御する。画像デコーダ207は、受信されたレンダリング画像の符号化データを復号化して左右一対のレンダリング画像を再生する。なお、レンダリング画像が第1レンダリング画像(右眼画像)および差分データのペアであれば、第1レンダリング画像と差分データとに基づいて第2レンダリング画像(左眼画像)が再生される。立体視画像表示装置202は、前記左右一対のレンダリング画像に基づいて立体視画像を表示する。
The
入力操作子201は、マウス、キーボードあるいはジョイスティック等の入力装置であり、オペレータは入力操作子201を適宜に操作することにより、前記立体視画像表示装置202に表示されている立体視画像の視点変更、カッティングライン変更、画像の拡大や縮小、あるいは色調、明度、コントラストの変更、CT画像であればCT値や透過度の変更といった観察条件の変更を行うことができる。コマンド生成部206は、前記入力操作子201に対する操作に基づいて観察条件の変更要求を検知し、この観察条件に応じてレンダリングパラメータの変更を共有サーバ1に対して要求するためのレンダリングコマンドを生成する。このレンダリングコマンドは、前記レンダリング通信部212から共有サーバ1へ送信される。
The
TV会議通信部213は前記共有サーバ1のTV会議情報配信部109と通信し、TV会議映像およびTV会議音声の送受信を制御する。音声デコーダ209は、共有サーバ1を経由して受信されるTV会議音声をデコードしてスピーカ203で再生させる。マイク204で検知されたTV会議音声は、音声エンコーダ210でエンコードされた後にTV会議通信部213から共有サーバ1へ送信される。カメラ205で撮影されたTV会議映像は、映像エンコーダ211でエンコードされた後にTV会議通信部213から共有サーバ1へ送信される。
The TV
図6,7は、本実施形態の動作を示したフローチャートであり、図6は共有サーバ1の動作を示し、図7は各クライアント端末2の動作を示している。ここでは、レンダリング処理部102が二眼式である場合を例にして説明する。
6 and 7 are flowcharts showing the operation of the present embodiment, FIG. 6 shows the operation of the shared server 1, and FIG. 7 shows the operation of each
共有サーバ1では、図6のステップS1において、制御部100からレンダリング処理部102へ、ボリュームデータ識別子およびレンダリングパラメータを含むレンダリング開始指令が出力される。ステップS2では、前記レンダリング処理部102において、前記ボリュームデータ識別子に対応したボリュームデータに対して、前記レンダリングパラメータに応じた条件でレンダリング処理が実施され、立体視画像を表現するために必要な2つのレンダリング画像が生成される。
In the shared server 1, in step S <b> 1 of FIG. 6, a rendering start command including a volume data identifier and a rendering parameter is output from the
ステップS3では、前記レンダリング画像が送信画像バッファ103を経由して圧縮・暗号化処理部104へ出力される。ステップS4では、前記レンダリング画像が符号化圧縮されると共に、必要に応じてさらに暗号化され、ステップS5において、画像送信部105から全てのクライアント端末2へ送信される。ステップS6では、いずれかのクライアント端末2から送信されるレンダリングコマンドの受信に備えて待機する。
In
クライアント端末2では、図7のステップS51において、前記共有サーバ1から送信されたレンダリング画像の符号化データがレンダリング通信部212で受信されると、ステップS52では、この符号化データが画像デコーダ207で復号化される。ステップS53では、復号化されたレンダリング画像が立体視表示装置202へ出力され、その画面上に立体視画像が可視表示される。
When the
ステップS54では、前記コマンド生成部206において、観察条件に関する変更要求の有無が判定される。ここで、クライアント端末2のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS55へ進む。ステップS55では、要求された視点から見込んだレンダリング画像の生成を要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS56では、前記レンダリングコマンドがレンダリング通信部212から共有サーバ1へ送信される。
In step S54, the
図6へ戻り、共有サーバ1では、ステップS6において前記レンダリングコマンドが受信されると、ステップS7では、制御部100においてレンダリングパラメータが変更され、レンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。
Returning to FIG. 6, in the shared server 1, when the rendering command is received in step S <b> 6, the rendering parameter is changed in the
その後、当該処理はステップS2へ戻り、前記変更されたレンダリングパラメータに基づいてレンダリング処理が改めて実施され、ステップS5において、新たに生成されたレンダリング画像が各クライアント端末2へ送信される。この結果、本実施形態では一のクライアント端末2における視点変更が、他の全てのクライアント端末2に反映されるので、全てのクライアント端末2において立体視画像を常に同一視点から観察できるようになる。
Thereafter, the process returns to step S2, and the rendering process is performed again based on the changed rendering parameter, and the newly generated rendered image is transmitted to each
図8は、本発明の第2実施形態に係る共有サーバ1の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。 FIG. 8 is a block diagram showing the configuration of the main part of the shared server 1 according to the second embodiment of the present invention. The same reference numerals as those described above represent the same or equivalent parts.
本実施形態では、観察条件の変更内容を予測する変更予測部100aを制御部100に設けると共に、その予測結果に基づいて生成されたレンダリング予測画像を記憶する予測画像バッファ110を設けた点に特徴がある。前記変更予測部100aは、現在のレンダリングパラメータと前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降に受信するレンダリングコマンドで設定されるレンダリングパラメータを予測する。レンダリング処理部102は、前記レンダリングパラメータの予測結果に基づいてレンダリング画像を予め生成し、これを予測画像バッファ110へ蓄積する。
The present embodiment is characterized in that the
図9は、本実施形態における共有サーバ1の動作を示したフローチャートであり、前記と同一の符号を付したステップでは、前記と同一または同等の処理が実施される。 FIG. 9 is a flowchart showing the operation of the shared server 1 in the present embodiment. In the steps denoted by the same reference numerals as those described above, the same or equivalent processes are performed.
本実施形態では、ステップS5においてレンダリング画像の送信を完了するとステップS8へ進み、レンダリングパラメータの予測結果に基づくレンダリング予測画像の生成およびその蓄積が既に完了しているか否かが判定される。最初は完了していないと判定されるので、ステップS9のレンダリング予測処理へ進む。 In the present embodiment, when the transmission of the rendering image is completed in step S5, the process proceeds to step S8, and it is determined whether the generation and accumulation of the rendering predicted image based on the rendering parameter prediction result have already been completed. Since it is determined that the process is not completed at first, the process proceeds to the rendering prediction process in step S9.
図10は、前記レンダリング予測処理の手順を示したフローチャートであり、ステップS91では、これまでに受信されたレンダリングコマンドで設定されたレンダリングパラメータの履歴に基づいて、次回以降に設定されるレンダリングパラメータが予測される。本実施形態では、視点を変更するレンダリングコマンドが受信されていれば、視点に関する現在のレンダリングパラメータと、前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降の視点に関するレンダリングパラメータが、外挿、内挿あるいは二次回帰等の適宜の数学的演算に基づいて予測される。ステップS92では、前記レンダリングパラメータの予測結果に基づいてレンダリング処理が実施され、前記予測結果に応じたレンダリング予測画像が生成される。ステップS93では、前記生成されたレンダリング予測画像が予測画像バッファ110に蓄積される。
FIG. 10 is a flowchart showing the procedure of the rendering prediction process. In step S91, based on the rendering parameter history set by the rendering commands received so far, the rendering parameters to be set next time are shown. is expected. In the present embodiment, if a rendering command for changing the viewpoint has been received, the rendering parameter for the next and subsequent viewpoints is extrapolated based on the current rendering parameter for the viewpoint and at least one rendering parameter before and after the previous viewpoint. , Based on appropriate mathematical operations such as interpolation or quadratic regression. In step S92, a rendering process is performed based on the prediction result of the rendering parameter, and a rendering prediction image corresponding to the prediction result is generated. In step S <b> 93, the generated rendering predicted image is stored in the predicted
なお、このレンダリング予測処理は、ステップS91で予測パラメータや予測アルゴリズムを変更しながら繰り返し実行され、レンダリングパラメータの変更を要求するレンダリングコマンドが新たに受信されるか、あるいはレンダリングコマンドが受信されなくても所定数のレンダリング予測画像の蓄積が完了すると終了し、図9のステップS6へ戻る。 Note that this rendering prediction process is repeatedly executed in step S91 while changing the prediction parameter and the prediction algorithm, and even if a rendering command for requesting a change of the rendering parameter is newly received or no rendering command is received. When the accumulation of the predetermined number of predicted rendering images is completed, the process ends, and the process returns to step S6 in FIG.
その後、いずれかのクライアント端末2から送信されたレンダリングコマンドがステップS6で受信されると、ステップS10では、受信したレンダリングコマンドで指定されるレンダリングパラメータで予めレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS7へ進み、上記した第1実施形態と同様に、制御部100においてレンダリングパラメータがレンダリングコマンドに基づいて変更され、レンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。
Thereafter, when a rendering command transmitted from any one of the
これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS11へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS3,4,5において全てのクライアント端末2へ送信される。
On the other hand, if the rendered image is already registered in the predicted
本実施形態によれば、共有サーバ1がレンダリングパラメータの履歴に基づいて今後の推移を予測し、待機時間を利用してレンダリング予測画像を予め生成するので、レンダリングコマンドに応答した立体視画像を表示させるための応答時間を短縮できるようになる。 According to the present embodiment, the shared server 1 predicts future transitions based on the rendering parameter history and generates a predicted rendering image in advance using the standby time, so that a stereoscopic image in response to the rendering command is displayed. It is possible to shorten the response time for
図11は、本発明の第3実施形態に係る立体視画像観察装置の構成を示したブロック図であり、ここでは、一組の端末4がネットワーク3を介してピア・ツー・ピアで接続されている。
FIG. 11 is a block diagram showing a configuration of a stereoscopic image observation apparatus according to the third embodiment of the present invention. Here, a pair of terminals 4 are connected via a
図12は、前記ピア・ツー・ピア(P2P)端末4の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。 FIG. 12 is a block diagram showing a configuration of a main part of the peer-to-peer (P2P) terminal 4, and the same reference numerals as those described above represent the same or equivalent parts.
本実施形態では、各P2P端末4が立体視画像表示装置202と共にボリュームデータDB101,レンダリング処理部102を備え、制御部200は、相手端末とレンダリングコマンドおよびボリュームデータ識別子を交換して両者のレンダリングパラメータおよび観察対象のボリュームデータを整合させる。レンダリング処理部102は、制御部200によって指定されるボリュームデータ識別子に対応したボリュームデータを前記ボリュームデータDB101から読み出し、これにレンダリングパラメータにしたがってレンダリング処理を実施する。生成されたレンダリング画像は、自身の立体視画像表示装置202において立体視画像として表示される。
In the present embodiment, each P2P terminal 4 includes a
図13は、本実施形態の動作を示したフローチャートであり、ステップS61では、各P2P端末4のボリュームデータDB101に、観察対象のボリュームデータが蓄積される。このボリュームデータは、ネットワーク3上のサーバ(図示せず)から各端末4が独自に取得しても良いし、あるいは一方の端末4のボリュームデータDB101に既に蓄積されているボリュームデータならば、これを読み出して相手のP2P端末へ提供するようにしても良い。
FIG. 13 is a flowchart showing the operation of the present embodiment. In step S61, the volume data to be observed is accumulated in the
ステップS62では、レンダリングパラメータをP2P端末間で整合させる処理が実行され、各P2P端末4に同一のレンダリングパラメータが設定される。ステップS63では、前記ボリュームデータDB101に蓄積されているボリュームデータに対して前記設定されたレンダリングパラメータに応じたレンダリング処理が実施され、上記した第1実施形態と同様にレンダリング画像が生成される。ステップS64では、前記レンダリング画像が立体視画像表示装置202へ出力され、各P2P端末4の画面上に同一視点の立体視画像が表示される。
In step S62, processing for matching rendering parameters between P2P terminals is executed, and the same rendering parameters are set in each P2P terminal 4. In step S63, a rendering process corresponding to the set rendering parameter is performed on the volume data stored in the
ステップS65,S69では、観察条件に関する変更要求の有無が判定され、ステップS65では、前記コマンド生成部206において、自端末のオペレータによる観察条件の変更要求の有無が判定される。自端末のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS66へ進む。ステップS66では、オペレータが要求している視点に合わせてレンダリングパラメータが変更される。
In steps S65 and S69, it is determined whether or not there is a request for changing the observation condition. In step S65, the
ステップS67では、前記オペレータが要求している視点に対応したレンダリング画像の生成を要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS68では、前記レンダリングコマンドがレンダリング通信部21から相手端末へ送信される。
In step S67, the
相手のP2P端末4では、ステップS69において前記レンダリングコマンドが受信されると、ステップS70では、制御部100においてレンダリングパラメータが変更される。その後、いずれのP2P端末4でも当該処理はステップS63へ戻るので、前記変更後のレンダリングパラメータに基づいてレンダリング処理が再度実施され、前記オペレータが要求している視点から見込んだ立体視画像が立体視画像表示装置202へ表示されることになる。
In the partner P2P terminal 4, when the rendering command is received in step S69, the rendering parameter is changed in the
このように、本実施形態では一方のP2P端末4における視点変更が、自端末のみならず他方のP2P端末4にも反映されるので、各P2P端末において立体視画像を常に同一視点から観察できるようになる。 As described above, in this embodiment, the viewpoint change in one P2P terminal 4 is reflected not only on the own terminal but also on the other P2P terminal 4, so that each P2P terminal can always observe a stereoscopic image from the same viewpoint. become.
図14は、本発明の第4実施形態に係るピア・ツー・ピア端末4の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。 FIG. 14 is a block diagram showing the configuration of the main part of the peer-to-peer terminal 4 according to the fourth embodiment of the present invention. The same reference numerals as those described above represent the same or equivalent parts.
本実施形態では、制御部200にレンダリングパラメータに関する変更予測部200aを設けると共に、レンダリングパラメータの予測結果に基づいて生成されたレンダリング予測画像を記憶する予測画像バッファ110を設けた点に特徴がある。前記変更予測部200aは、現在のレンダリングパラメータと前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降のレンダリングパラメータを予測する。レンダリング処理部102は、前記レンダリングパラメータの予測結果に基づいてレンダリング画像を生成し、これを予測画像バッファ110へ蓄積する。
The present embodiment is characterized in that the
図15は、本実施形態の動作を示したフローチャートであり、前記と同一の符号を付したステップでは、前記と同一または同等の処理が実施される。 FIG. 15 is a flowchart showing the operation of the present embodiment. In the steps denoted by the same reference numerals as those described above, the same or equivalent processes are performed.
本実施形態では、ステップS64においてレンダリング画像の表示を完了するとステップS65へ進み、前記コマンド生成部206において、観察条件に関する変更要求の有無が判定される。ここで、P2P端末4のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS66へ進む。ステップS66では、オペレータが要求している視点に合わせてレンダリングパラメータが変更される。ステップS67では、前記オペレータが要求している視点に対応したレンダリング画像の生成を相手端末4に要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS68では、前記レンダリングコマンドがレンダリング通信部21から相手端末4へ送信される。
In this embodiment, when the display of the rendering image is completed in step S64, the process proceeds to step S65, and the
ステップS95では、変更後のレンダリングパラメータでレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS63へ戻り、制御部100からレンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。
In step S95, it is determined whether or not the predicted image rendered with the changed rendering parameter is already registered in the predicted
これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS96へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS64へ戻って表示される。
On the other hand, if the rendered image is already registered in the predicted
一方、前記ステップS65において、自端末のオペレータによる観察条件の変更要求が検知されていないとステップS69へ進み、レンダリングコマンドの受信の有無が判定される。ここで、相手端末から送信されたレンダリングコマンドが受信されると、ステップS70では、制御部100においてレンダリングパラメータが変更される。ステップS97では、変更後のレンダリングパラメータでレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS63へ戻り、制御部100からレンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリング処理が指示される。
On the other hand, in step S65, if a request for changing the observation condition by the operator of the terminal is not detected, the process proceeds to step S69, and it is determined whether or not a rendering command has been received. Here, when the rendering command transmitted from the counterpart terminal is received, the rendering parameter is changed in the
これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS98へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS64へ戻って表示される。
On the other hand, if the rendered image is already registered in the predicted
なお、前記ステップS69において、レンダリングコマンドが受信されていないと判定されればステップS8へ進み、上記した第2実施形態と同様に、待機時間を利用してレンダリング予測画像が生成され、前記予測画像バッファ110に登録される。
If it is determined in step S69 that a rendering command has not been received, the process proceeds to step S8, and similarly to the second embodiment described above, a rendering prediction image is generated using a waiting time, and the prediction image is generated. Registered in the
本実施形態によれば、各P2P端末4がレンダリングパラメータの履歴に基づいて今後の推移を予測し、待機時間を利用してレンダリング予測画像を予め生成するので、レンダリングコマンドに応答した立体視画像を表示させるための応答時間を短縮できるようになる。 According to the present embodiment, each P2P terminal 4 predicts a future transition based on the rendering parameter history, and generates a rendering predicted image in advance using the standby time. Therefore, a stereoscopic image in response to the rendering command is generated. The response time for display can be shortened.
1…共有サーバ,2…クライアント端末,3…ネットワーク,4…ピア・ツー・ピア(P2P)端末,100…制御部,101…ボリュームデータDB,102…レンダリング処理部,103…送信画像バッファ,104…圧縮・暗号化処理部,105…画像送信部,106…コマンド受信部,107…接続端末リスト,108…認証部,109…TV会議情報配信部 DESCRIPTION OF SYMBOLS 1 ... Shared server, 2 ... Client terminal, 3 ... Network, 4 ... Peer to peer (P2P) terminal, 100 ... Control part, 101 ... Volume data DB, 102 ... Rendering processing part, 103 ... Transmission image buffer, 104 ... compression / encryption processing unit, 105 ... image transmission unit, 106 ... command reception unit, 107 ... connected terminal list, 108 ... authentication unit, 109 ... TV conference information distribution unit
Claims (23)
前記共有サーバが、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像をクライアント端末へ送信する手段と、
観察条件の変更要求を前記クライアント端末から受信する手段と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手段とを含み、
前記各クライアント端末が、
レンダリング画像を共有サーバから受信する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記変更要求を共有サーバへ送信する手段とを含み、
一のクライアント端末から入力された観察条件の変更要求に応答して、当該一のクライアント端末を含む全てのクライアント端末において立体視画像の観察条件が変更されることを特徴とする立体視画像観察装置。 A shared server that generates a stereoscopic rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the stereoscopic rendering image via a network In the stereoscopic image observation apparatus connected to each other,
The shared server is
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for transmitting the rendered image to a client terminal;
Means for receiving an observation condition change request from the client terminal;
Means for changing a rendering parameter setting in response to the change request;
Each of the client terminals is
Means for receiving a rendered image from a shared server;
Means for displaying a stereoscopic image based on the rendered image;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for transmitting the change request to a shared server,
A stereoscopic image observation apparatus characterized in that a stereoscopic image observation condition is changed in all client terminals including the one client terminal in response to an observation condition change request input from the one client terminal. .
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手段とを含むことを特徴とする請求項1に記載の立体視画像観察装置。 The shared server further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
2. The apparatus according to claim 1, further comprising means for transmitting the registered rendering prediction image as a rendering image when a rendering prediction image that matches the received request for changing the observation condition is already registered in the storage unit. The stereoscopic image observation apparatus described in 1.
前記共有サーバは、各クライアント端末で検知されたTV会議情報を収集し、これらを合成して全てのクライアント端末へ配信することを特徴とする請求項1または2に記載の立体視画像観察装置。 The shared server and each client terminal have a TV conference function,
The stereoscopic image observation apparatus according to claim 1, wherein the shared server collects video conference information detected by each client terminal, combines them, and distributes the information to all client terminals.
前記各ピア・ツー・ピア端末が、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
観察条件の変更要求を相手端末から受信する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手段と、
前記操作子から入力された観察条件の変更要求を相手端末へ送信する手段とを含み、
一方のピア・ツー・ピア端末から入力された観察条件の変更要求に応答して、当該一方および他方のピア・ツー・ピア端末において立体視画像の観察条件が変更されることを特徴とする立体視画像観察装置。 In a stereoscopic image observation apparatus in which a pair of terminals displaying a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement is connected peer-to-peer via a network,
Each said peer-to-peer terminal is
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
Means for receiving an observation condition change request from the other terminal;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for changing the setting of the rendering parameter in response to the change request for each observation condition;
Means for transmitting a change request for the observation condition input from the operation element to the counterpart terminal,
A stereoscopic image viewing condition is changed in one and the other peer-to-peer terminal in response to a request for changing the viewing condition input from one peer-to-peer terminal. Visual image observation device.
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項4に記載の立体視画像観察装置。 Each peer to peer terminal further includes:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input request for changing the observation condition is already registered in the storage unit. 4. The stereoscopic image observation apparatus according to 4.
一方のピア・ツー・ピア端末は、他方のピア・ツー・ピア端末で検知されたTV会議情報を収集し、これを再生することを特徴とする請求項4または5に記載の立体視画像観察装置。 Each of the peer-to-peer terminals has a video conference function,
6. The stereoscopic image observation according to claim 4, wherein one peer-to-peer terminal collects and reproduces the video conference information detected by the other peer-to-peer terminal. apparatus.
前記ボリュームデータを空間上の第1視点から見込んだ2次元の第1レンダリング画像を生成する第1レンダリング処理部と、
前記ボリュームデータを前記第1視点とは異なる第2視点から見込んだ2次元の第2レンダリング画像を生成する第2レンダリング処理部とを含み、
前記第1および第2レンダリング画像のペアをレンダリング画像とする2眼式であることを特徴とする請求項1ないし6のいずれかに記載の立体視画像観察装置。 Means for generating the rendered image;
A first rendering processing unit for generating a two-dimensional first rendering image in which the volume data is viewed from a first viewpoint in space;
A second rendering processing unit that generates a two-dimensional second rendering image in which the volume data is viewed from a second viewpoint different from the first viewpoint,
The stereoscopic image observation apparatus according to claim 1, wherein the stereoscopic image observation apparatus is a binocular system in which a pair of the first and second rendering images is a rendering image.
前記第1および第2レンダリング処理部を複数組備え、視点の異なる複数の第1および第2レンダリング画像のペアをレンダリング画像とする多眼式であることを特徴とする請求項7に記載の立体視画像観察装置。 Means for generating the rendered image;
The three-dimensional system according to claim 7, wherein the three-dimensional system includes a plurality of sets of the first and second rendering processing units, and a plurality of first and second rendering image pairs having different viewpoints. Visual image observation device.
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像をクライアント端末へ送信する手段と、
観察条件の変更要求を前記クライアント端末から受信する手段と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手段とを含むことを特徴とする立体視画像観察装置の共有サーバ。 A stereoscopic image in which a shared server that generates a rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the rendering image are connected to each other via a network In the shared server of the observation device,
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for transmitting the rendered image to a client terminal;
Means for receiving an observation condition change request from the client terminal;
Means for changing a setting of a rendering parameter in response to the change request, and a shared server for a stereoscopic image observation apparatus.
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手段とを含むことを特徴とする請求項10に記載の立体視画像観察装置の共有サーバ。 The shared server further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
11. The information processing apparatus according to claim 10, further comprising: a transmission unit configured to transmit the registered rendering prediction image as a rendering image when a rendering prediction image that matches the received request for changing the observation condition is already registered in the storage unit. A shared server of the stereoscopic image observation apparatus according to 1.
レンダリング画像を受信する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記観察条件の変更要求を共有サーバへ送信する手段とを含むことを特徴とする立体視画像表示装置のクライアント端末。 A stereoscopic image in which a shared server that generates a rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the rendering image are connected to each other via a network In the client terminal of the observation device,
Means for receiving a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
An operator for inputting a request to change the observation condition of the stereoscopic image;
A client terminal of the stereoscopic image display apparatus, comprising: means for transmitting the observation condition change request to a shared server.
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
観察条件の変更要求を相手端末から受信する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手段と、
前記操作子から入力された観察条件の変更要求を相手端末へ送信する手段とを含むことを特徴とする立体視画像観察装置のピア・ツー・ピア端末。 A pair of terminals that display a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement is connected to a peer image of a stereoscopic image observation apparatus connected peer-to-peer via a network. In a two-peer terminal,
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
Means for receiving an observation condition change request from the other terminal;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for changing the setting of the rendering parameter in response to the change request for each observation condition;
A peer-to-peer terminal of a stereoscopic image observation apparatus, comprising: means for transmitting a request for changing an observation condition input from the operator to a partner terminal.
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段とを含み、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項13に記載の立体視画像観察装置のピア・ツー・ピア端末。 The peer-to-peer terminal further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input request for changing the observation condition is already registered in the storage unit. 14. A peer-to-peer terminal of the stereoscopic image observation apparatus according to 13.
ボリュームデータを蓄積する手順と、
少なくとも視点情報を含むレンダリングパラメータを設定する手順と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手順と、
前記レンダリング画像を前記クライアント端末へ送信する手順と、
観察条件の変更要求を前記クライアント端末から受信する手順と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手順とを含むことを特徴とするレンダリング画像生成方法。 In a method in which a shared server connected to at least one client terminal via a network generates a rendering image from volume data having a three-dimensional pixel arrangement,
Procedure for storing volume data,
A procedure for setting rendering parameters including at least viewpoint information;
A procedure for performing rendering processing according to the rendering parameter on volume data and generating a rendered image;
Transmitting the rendered image to the client terminal;
A procedure for receiving an observation condition change request from the client terminal;
And a procedure for changing a setting of a rendering parameter in response to the change request.
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手順と、
前記レンダリング予測画像を登録する手順と、
受信された観察条件の変更要求に合致したレンダリング予測画像が既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手順とを含むことを特徴とする請求項15に記載のレンダリング画像生成方法。 A procedure for predicting the content of a change request relating to the observation condition;
A procedure for performing rendering processing according to the prediction result on the volume data and generating a rendering predicted image;
Registering the rendering prediction image;
16. The rendering according to claim 15, further comprising a step of transmitting the registered rendering prediction image as a rendering image when the rendering prediction image that matches the received request for changing the observation condition is already registered. Image generation method.
レンダリング画像を受信する手順と、
前記レンダリング画像に基づいて立体視画像を表示する手順と、
前記立体視画像の観察条件の変更要求を入力する手順と、
前記観察条件の変更要求を前記共有サーバへ送信する手順とを含むことを特徴とする立体視画像表示方法。 In a method in which a client terminal receives a rendering image generated from volume data having a three-dimensional pixel arrangement from a shared server and displays a stereoscopic image,
Receiving the rendered image; and
Displaying a stereoscopic image based on the rendered image;
A procedure for inputting a request for changing the viewing condition of the stereoscopic image;
And a procedure for transmitting the observation condition change request to the shared server.
ボリュームデータを蓄積する手順と、
少なくとも視点情報を含むレンダリングパラメータを設定する手順と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手順と、
前記レンダリング画像に基づいて立体視画像を表示する手順と、
観察条件の変更要求を相手端末から受信する手順と、
前記立体視画像の観察条件の変更要求を入力する手順と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手順と、
前記入力された観察条件の変更要求を相手端末へ送信する手順とを含むことを特徴とする立体視画像表示方法。 In a method for displaying a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement at each terminal connected by peer-to-peer,
Procedure for storing volume data,
A procedure for setting rendering parameters including at least viewpoint information;
A procedure for performing rendering processing according to the rendering parameter on volume data and generating a rendered image;
Displaying a stereoscopic image based on the rendered image;
A procedure for receiving an observation condition change request from the partner terminal;
A procedure for inputting a request for changing the viewing condition of the stereoscopic image;
A procedure for changing the setting of the rendering parameter in response to the change request for each observation condition;
And a procedure for transmitting the input request for changing the observation condition to the counterpart terminal.
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手順と、
前記レンダリング予測画像を登録する手順とを含み、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項18に記載の立体視画像表示方法。 A procedure for predicting the content of a change request relating to the observation condition;
A procedure for performing rendering processing according to the prediction result on the volume data and generating a rendering predicted image;
Registering the rendering prediction image,
19. The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input change request for the observation condition is already registered. Stereoscopic image display method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004286621A JP2006101329A (en) | 2004-09-30 | 2004-09-30 | Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004286621A JP2006101329A (en) | 2004-09-30 | 2004-09-30 | Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006101329A true JP2006101329A (en) | 2006-04-13 |
Family
ID=36240700
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004286621A Pending JP2006101329A (en) | 2004-09-30 | 2004-09-30 | Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006101329A (en) |
Cited By (32)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2247117A2 (en) | 2009-04-27 | 2010-11-03 | Mitsubishi Electric Corporation | Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus |
| JP2011109371A (en) * | 2009-11-17 | 2011-06-02 | Kddi Corp | Server, terminal, program, and method for superimposing comment text on three-dimensional image for display |
| KR20120095983A (en) * | 2009-11-18 | 2012-08-29 | 톰슨 라이센싱 | Methods and systems for three dimensional content delivery with flexible disparity selection |
| WO2012137821A1 (en) * | 2011-04-07 | 2012-10-11 | 株式会社東芝 | Image processing system, apparatus, method and program |
| JP2012231235A (en) * | 2011-04-25 | 2012-11-22 | Toshiba Corp | Image processing system, apparatus, method, and program |
| WO2012161193A1 (en) * | 2011-05-24 | 2012-11-29 | 株式会社東芝 | Medical image diagnostic apparatus, medical image-processing apparatus and method |
| CN102821694A (en) * | 2011-04-08 | 2012-12-12 | 株式会社东芝 | Medical image processing system, medical image processing device, medical image diagnosis device, medical image processing method, and medical image processing program |
| JP2013005052A (en) * | 2011-06-13 | 2013-01-07 | Toshiba Corp | Image processing system, apparatus, method and program |
| JP2013017056A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Image processing system, image processing method, and medical image diagnostic device |
| WO2013012042A1 (en) * | 2011-07-19 | 2013-01-24 | 株式会社東芝 | Image processing system, device and method, and medical image diagnostic device |
| JP2013021459A (en) * | 2011-07-08 | 2013-01-31 | Toshiba Corp | Image processor, image processing method, image processing system and medical image diagnostic device |
| JP2013026792A (en) * | 2011-07-20 | 2013-02-04 | Toshiba Corp | Image processing device, image processing method, image processing system, and medical image diagnostic device |
| JP2013026736A (en) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | Image processing system, device, method, and program |
| JP2013034197A (en) * | 2011-07-04 | 2013-02-14 | Toshiba Corp | Image processing apparatus, image processing method, and medical image diagnostic apparatus |
| JP2013038467A (en) * | 2011-08-03 | 2013-02-21 | Toshiba Corp | Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program |
| JP2013039351A (en) * | 2011-07-19 | 2013-02-28 | Toshiba Corp | Image processing system, image processing device, image processing method, and medical image diagnostic device |
| JP2013066241A (en) * | 2011-06-09 | 2013-04-11 | Toshiba Corp | Image processing system and method |
| JP2013066242A (en) * | 2012-12-25 | 2013-04-11 | Toshiba Corp | Image display system, device, and method, and medical image diagnostic device |
| JP2013078141A (en) * | 2011-07-19 | 2013-04-25 | Toshiba Corp | Image processing system, device, method, and medical image diagnostic device |
| JP2013122770A (en) * | 2012-12-25 | 2013-06-20 | Toshiba Corp | Image processing system, device, method, and program |
| JP2013123227A (en) * | 2012-12-25 | 2013-06-20 | Toshiba Corp | Image processing system, device, method, and medical image diagnostic device |
| JP2013214884A (en) * | 2012-04-02 | 2013-10-17 | Toshiba Corp | Image processing device, method, program, and stereoscopic image display device |
| JP2013229828A (en) * | 2012-04-26 | 2013-11-07 | Toshiba Corp | Image processing device, method, program, and stereoscopic image display device |
| JP2014500999A (en) * | 2010-11-05 | 2014-01-16 | コーニンクレッカ フィリップス エヌ ヴェ | Image content based prediction and image cache controller |
| JP2014050487A (en) * | 2012-09-05 | 2014-03-20 | Toshiba Corp | Medical image processor, medical image processing method and medical image processing program |
| JP2014135771A (en) * | 2014-04-22 | 2014-07-24 | Nintendo Co Ltd | Stereoscopic display control program, stereoscopic display control system, stereoscopic display controller, and stereoscopic display control method |
| WO2015104849A1 (en) * | 2014-01-09 | 2015-07-16 | Square Enix Holdings Co., Ltd. | Video gaming device with remote rendering capability |
| JP2015201853A (en) * | 2015-05-11 | 2015-11-12 | 株式会社東芝 | Image processing system, image processing method and medical image diagnostic device |
| JP2015534160A (en) * | 2012-09-10 | 2015-11-26 | カルガリー サイエンティフィック インコーポレイテッド | Client-side image rendering in client-server image browsing architecture |
| JP6441426B1 (en) * | 2017-08-28 | 2018-12-19 | 株式会社エイビック | Character video display system |
| CN114301880A (en) * | 2021-12-23 | 2022-04-08 | 聚好看科技股份有限公司 | Three-dimensional data transmission method, electronic equipment and signaling server |
| JP2024056777A (en) * | 2018-06-27 | 2024-04-23 | コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション | Method and apparatus for efficiently rendering, managing, recording, and playing back interactive multi-user virtual reality experiences - Patents.com |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04255192A (en) * | 1991-02-06 | 1992-09-10 | Nec Corp | Picture changeover controller and group common share picture changeover controller |
| JPH05292498A (en) * | 1992-04-16 | 1993-11-05 | Hitachi Ltd | Image synthesis method and multipoint video conference apparatus using the same |
| JPH07306955A (en) * | 1992-07-24 | 1995-11-21 | Walt Disney Co:The | Method and system for generation of three-dimensional illusion |
| JPH1074269A (en) * | 1996-06-26 | 1998-03-17 | Matsushita Electric Ind Co Ltd | Stereoscopic cg moving image generator |
| JPH10191393A (en) * | 1996-12-24 | 1998-07-21 | Sharp Corp | Multi-view image coding device |
| JP2001177849A (en) * | 1999-12-15 | 2001-06-29 | Mitsubishi Electric Corp | Three-dimensional image generation system and three-dimensional image generation device |
| JP2001251596A (en) * | 2000-03-03 | 2001-09-14 | Kddi Corp | Image transmission device, received image reading device, and image transmission / reading device with TV conference function |
| JP2002095018A (en) * | 2000-09-12 | 2002-03-29 | Canon Inc | Image display control device, image display system, and image data display method |
| JP2003208633A (en) * | 2002-01-10 | 2003-07-25 | Mitsubishi Electric Corp | Server and client, transmission system and transmission method |
| JP2004062457A (en) * | 2002-07-26 | 2004-02-26 | Matsushita Electric Works Ltd | Merchandise information providing system |
| JP2004187743A (en) * | 2002-12-09 | 2004-07-08 | Hitachi Medical Corp | Medical three-dimensional image display device |
| JP2004188002A (en) * | 2002-12-12 | 2004-07-08 | Fuji Photo Film Co Ltd | Image display device |
| JP2004264907A (en) * | 2003-02-17 | 2004-09-24 | Sony Computer Entertainment Inc | Image generation system, image generation device, and image generation method |
-
2004
- 2004-09-30 JP JP2004286621A patent/JP2006101329A/en active Pending
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04255192A (en) * | 1991-02-06 | 1992-09-10 | Nec Corp | Picture changeover controller and group common share picture changeover controller |
| JPH05292498A (en) * | 1992-04-16 | 1993-11-05 | Hitachi Ltd | Image synthesis method and multipoint video conference apparatus using the same |
| JPH07306955A (en) * | 1992-07-24 | 1995-11-21 | Walt Disney Co:The | Method and system for generation of three-dimensional illusion |
| JPH1074269A (en) * | 1996-06-26 | 1998-03-17 | Matsushita Electric Ind Co Ltd | Stereoscopic cg moving image generator |
| JPH10191393A (en) * | 1996-12-24 | 1998-07-21 | Sharp Corp | Multi-view image coding device |
| JP2001177849A (en) * | 1999-12-15 | 2001-06-29 | Mitsubishi Electric Corp | Three-dimensional image generation system and three-dimensional image generation device |
| JP2001251596A (en) * | 2000-03-03 | 2001-09-14 | Kddi Corp | Image transmission device, received image reading device, and image transmission / reading device with TV conference function |
| JP2002095018A (en) * | 2000-09-12 | 2002-03-29 | Canon Inc | Image display control device, image display system, and image data display method |
| JP2003208633A (en) * | 2002-01-10 | 2003-07-25 | Mitsubishi Electric Corp | Server and client, transmission system and transmission method |
| JP2004062457A (en) * | 2002-07-26 | 2004-02-26 | Matsushita Electric Works Ltd | Merchandise information providing system |
| JP2004187743A (en) * | 2002-12-09 | 2004-07-08 | Hitachi Medical Corp | Medical three-dimensional image display device |
| JP2004188002A (en) * | 2002-12-12 | 2004-07-08 | Fuji Photo Film Co Ltd | Image display device |
| JP2004264907A (en) * | 2003-02-17 | 2004-09-24 | Sony Computer Entertainment Inc | Image generation system, image generation device, and image generation method |
Cited By (53)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2247117A2 (en) | 2009-04-27 | 2010-11-03 | Mitsubishi Electric Corporation | Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus |
| JP2011109371A (en) * | 2009-11-17 | 2011-06-02 | Kddi Corp | Server, terminal, program, and method for superimposing comment text on three-dimensional image for display |
| KR101699957B1 (en) * | 2009-11-18 | 2017-01-25 | 톰슨 라이센싱 | Methods and systems for three dimensional content delivery with flexible disparity selection |
| KR20120095983A (en) * | 2009-11-18 | 2012-08-29 | 톰슨 라이센싱 | Methods and systems for three dimensional content delivery with flexible disparity selection |
| US20120229604A1 (en) * | 2009-11-18 | 2012-09-13 | Boyce Jill Macdonald | Methods And Systems For Three Dimensional Content Delivery With Flexible Disparity Selection |
| JP2013511889A (en) * | 2009-11-18 | 2013-04-04 | トムソン ライセンシング | Method and system for 3D content distribution with flexible parallax selection |
| US10015250B2 (en) | 2010-11-05 | 2018-07-03 | Koninklijke Philips N.V. | Image content based prediction and image cache controller |
| JP2014500999A (en) * | 2010-11-05 | 2014-01-16 | コーニンクレッカ フィリップス エヌ ヴェ | Image content based prediction and image cache controller |
| WO2012137821A1 (en) * | 2011-04-07 | 2012-10-11 | 株式会社東芝 | Image processing system, apparatus, method and program |
| CN102821695A (en) * | 2011-04-07 | 2012-12-12 | 株式会社东芝 | Image processing system, device, method and program |
| US9445082B2 (en) | 2011-04-07 | 2016-09-13 | Toshiba Medical Systems Corporation | System, apparatus, and method for image processing |
| JP2012217591A (en) * | 2011-04-07 | 2012-11-12 | Toshiba Corp | Image processing system, device, method and program |
| CN107595313A (en) * | 2011-04-07 | 2018-01-19 | 东芝医疗系统株式会社 | Image processing system, device and method |
| CN102821694A (en) * | 2011-04-08 | 2012-12-12 | 株式会社东芝 | Medical image processing system, medical image processing device, medical image diagnosis device, medical image processing method, and medical image processing program |
| US10140752B2 (en) | 2011-04-08 | 2018-11-27 | Toshiba Medical Systems Corporation | Medical image processing system, medical image processing apparatus, medical image diagnosis apparatus, and medical image processing method, related to a stereoscopic medical image process |
| CN107233095A (en) * | 2011-04-08 | 2017-10-10 | 东芝医疗系统株式会社 | Medical image processing system, device and method and medical diagnostic imaging apparatus |
| JP2012231235A (en) * | 2011-04-25 | 2012-11-22 | Toshiba Corp | Image processing system, apparatus, method, and program |
| WO2012161193A1 (en) * | 2011-05-24 | 2012-11-29 | 株式会社東芝 | Medical image diagnostic apparatus, medical image-processing apparatus and method |
| JP2013006022A (en) * | 2011-05-24 | 2013-01-10 | Toshiba Corp | Medical image diagnostic apparatus, medical image processing apparatus, and method |
| US9361726B2 (en) | 2011-05-24 | 2016-06-07 | Kabushiki Kaisha Toshiba | Medical image diagnostic apparatus, medical image processing apparatus, and methods therefor |
| CN103561655B (en) * | 2011-05-24 | 2016-03-16 | 株式会社东芝 | Medical diagnostic imaging apparatus, medical image-processing apparatus and method |
| CN103561655A (en) * | 2011-05-24 | 2014-02-05 | 株式会社东芝 | Medical image diagnostic apparatus, medical image-processing apparatus and method |
| JP2013066241A (en) * | 2011-06-09 | 2013-04-11 | Toshiba Corp | Image processing system and method |
| US9578303B2 (en) | 2011-06-13 | 2017-02-21 | Toshiba Medical Systems Corporation | Image processing system, image processing apparatus, and image processing method for displaying a scale on a stereoscopic display device |
| JP2013005052A (en) * | 2011-06-13 | 2013-01-07 | Toshiba Corp | Image processing system, apparatus, method and program |
| JP2013034197A (en) * | 2011-07-04 | 2013-02-14 | Toshiba Corp | Image processing apparatus, image processing method, and medical image diagnostic apparatus |
| US9628773B2 (en) | 2011-07-04 | 2017-04-18 | Toshiba Medical Systems Corporation | Image processing apparatus, image processing method, and medical image diagnosis apparatus |
| JP2013017056A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Image processing system, image processing method, and medical image diagnostic device |
| JP2013021459A (en) * | 2011-07-08 | 2013-01-31 | Toshiba Corp | Image processor, image processing method, image processing system and medical image diagnostic device |
| US9479753B2 (en) | 2011-07-19 | 2016-10-25 | Toshiba Medical Systems Corporation | Image processing system for multiple viewpoint parallax image group |
| WO2013012042A1 (en) * | 2011-07-19 | 2013-01-24 | 株式会社東芝 | Image processing system, device and method, and medical image diagnostic device |
| JP2013026736A (en) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | Image processing system, device, method, and program |
| JP2013039351A (en) * | 2011-07-19 | 2013-02-28 | Toshiba Corp | Image processing system, image processing device, image processing method, and medical image diagnostic device |
| JP2013078141A (en) * | 2011-07-19 | 2013-04-25 | Toshiba Corp | Image processing system, device, method, and medical image diagnostic device |
| JP2013026792A (en) * | 2011-07-20 | 2013-02-04 | Toshiba Corp | Image processing device, image processing method, image processing system, and medical image diagnostic device |
| JP2013038467A (en) * | 2011-08-03 | 2013-02-21 | Toshiba Corp | Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program |
| JP2013214884A (en) * | 2012-04-02 | 2013-10-17 | Toshiba Corp | Image processing device, method, program, and stereoscopic image display device |
| JP2013229828A (en) * | 2012-04-26 | 2013-11-07 | Toshiba Corp | Image processing device, method, program, and stereoscopic image display device |
| JP2014050487A (en) * | 2012-09-05 | 2014-03-20 | Toshiba Corp | Medical image processor, medical image processing method and medical image processing program |
| JP2015534160A (en) * | 2012-09-10 | 2015-11-26 | カルガリー サイエンティフィック インコーポレイテッド | Client-side image rendering in client-server image browsing architecture |
| JP2013123227A (en) * | 2012-12-25 | 2013-06-20 | Toshiba Corp | Image processing system, device, method, and medical image diagnostic device |
| JP2013122770A (en) * | 2012-12-25 | 2013-06-20 | Toshiba Corp | Image processing system, device, method, and program |
| JP2013066242A (en) * | 2012-12-25 | 2013-04-11 | Toshiba Corp | Image display system, device, and method, and medical image diagnostic device |
| US9901822B2 (en) | 2014-01-09 | 2018-02-27 | Square Enix Holding Co., Ltd. | Video gaming device with remote rendering capability |
| WO2015104849A1 (en) * | 2014-01-09 | 2015-07-16 | Square Enix Holdings Co., Ltd. | Video gaming device with remote rendering capability |
| JP2016509485A (en) * | 2014-01-09 | 2016-03-31 | 株式会社スクウェア・エニックス・ホールディングス | Video game device having remote drawing capability |
| JP2014135771A (en) * | 2014-04-22 | 2014-07-24 | Nintendo Co Ltd | Stereoscopic display control program, stereoscopic display control system, stereoscopic display controller, and stereoscopic display control method |
| JP2015201853A (en) * | 2015-05-11 | 2015-11-12 | 株式会社東芝 | Image processing system, image processing method and medical image diagnostic device |
| JP6441426B1 (en) * | 2017-08-28 | 2018-12-19 | 株式会社エイビック | Character video display system |
| JP2019040485A (en) * | 2017-08-28 | 2019-03-14 | 株式会社エイビック | Character moving image display system |
| JP2024056777A (en) * | 2018-06-27 | 2024-04-23 | コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション | Method and apparatus for efficiently rendering, managing, recording, and playing back interactive multi-user virtual reality experiences - Patents.com |
| CN114301880A (en) * | 2021-12-23 | 2022-04-08 | 聚好看科技股份有限公司 | Three-dimensional data transmission method, electronic equipment and signaling server |
| CN114301880B (en) * | 2021-12-23 | 2023-05-12 | 聚好看科技股份有限公司 | Three-dimensional data transmission method, electronic equipment and signaling server |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2006101329A (en) | Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium | |
| US20020030675A1 (en) | Image display control apparatus | |
| US10482673B2 (en) | System and method for role negotiation in multi-reality environments | |
| EP2290968B1 (en) | Method, device and system for 3d video communication | |
| US6747610B1 (en) | Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image | |
| TWI523488B (en) | A method of processing parallax information comprised in a signal | |
| EP0961506B1 (en) | Autostereoscopic display | |
| CN113099204B (en) | Remote live-action augmented reality method based on VR head-mounted display equipment | |
| US6765568B2 (en) | Electronic stereoscopic media delivery system | |
| US20060227151A1 (en) | Information processing method and apparatus | |
| TWI520569B (en) | Depth infornation generator, depth infornation generating method, and depth adjustment apparatus | |
| WO2009111150A2 (en) | Non-linear depth rendering of stereoscopic animated images | |
| WO2003081921A1 (en) | 3-dimensional image processing method and device | |
| JP2003111101A (en) | Method, apparatus and system for processing stereoscopic image | |
| JP2011164781A (en) | Stereoscopic image generation program, information storage medium, apparatus and method for generating stereoscopic image | |
| JP2014501086A (en) | Stereo image acquisition system and method | |
| JPWO2017141584A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
| JP2003067784A (en) | Information processing equipment | |
| US20150085086A1 (en) | Method and a device for creating images | |
| WO2025001561A9 (en) | Image processing method, apparatus and system | |
| CN112929635A (en) | Display control method of naked eye 3D display screen and multi-view naked eye 3D display | |
| JP2005175539A (en) | 3D image display apparatus and image display method | |
| KR101826025B1 (en) | System and method for generating 3d image contents that user interaction is possible | |
| JP2016054415A (en) | Stereo imaging device and stereo imaging program | |
| US20160150209A1 (en) | Depth Range Adjustment of a 3D Video to Match the Depth Range Permissible by a 3D Display Device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070309 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091225 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100203 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100331 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100929 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110209 |