[go: up one dir, main page]

JP2006101329A - Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium - Google Patents

Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium Download PDF

Info

Publication number
JP2006101329A
JP2006101329A JP2004286621A JP2004286621A JP2006101329A JP 2006101329 A JP2006101329 A JP 2006101329A JP 2004286621 A JP2004286621 A JP 2004286621A JP 2004286621 A JP2004286621 A JP 2004286621A JP 2006101329 A JP2006101329 A JP 2006101329A
Authority
JP
Japan
Prior art keywords
rendering
image
stereoscopic image
peer
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004286621A
Other languages
Japanese (ja)
Inventor
Masayuki Hashimoto
真幸 橋本
Atsushi Koike
淳 小池
Fumio Okuyama
文雄 奥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
R & D Okuyama kk
KDDI Corp
Original Assignee
R & D Okuyama kk
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by R & D Okuyama kk, KDDI Corp filed Critical R & D Okuyama kk
Priority to JP2004286621A priority Critical patent/JP2006101329A/en
Publication of JP2006101329A publication Critical patent/JP2006101329A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】CTやMRI等の医療用画像診断機器により得られた3次元医用画像データの遠隔観察に好適な立体視画像観察装置を提供する。
【解決手段】ボリュームデータからレンダリング画像を生成する共有サーバ1と、レンダリング画像に基づいて立体視画像を表示する複数のクライアント端末2とがネットワーク3を介して相互に接続されている。共有サーバ1は、レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成して各クライアント端末へ送信する。共有サーバ1はさらに、観察条件の変更要求をクライアント端末2から受信すると、この変更要求に応答してレンダリングパラメータを変更し、改めてレンダリング処理を実施する。この結果、一のクライアント端末から入力された観察条件の変更要求に応答して、全てのクライアント端末において立体視画像の観察条件が変更される。
【選択図】図1
A stereoscopic image observation apparatus suitable for remote observation of three-dimensional medical image data obtained by a medical image diagnostic device such as CT or MRI is provided.
A shared server that generates a rendering image from volume data and a plurality of client terminals that display a stereoscopic image based on the rendering image are connected to each other via a network. The shared server 1 performs a rendering process according to the rendering parameter on the volume data, generates a rendered image, and transmits it to each client terminal. Further, when the shared server 1 receives a request for changing the observation condition from the client terminal 2, the shared server 1 changes the rendering parameter in response to the change request, and performs the rendering process again. As a result, in response to the change request for the viewing condition input from one client terminal, the viewing condition for the stereoscopic image is changed in all the client terminals.
[Selection] Figure 1

Description

本発明は、立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末に係り、特に、CTやMRI等の医療用画像診断機器により得られた3次元医用画像データの遠隔観察に好適な立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末に関する。   The present invention relates to a stereoscopic image observation apparatus and its shared server, client terminal and peer-to-peer terminal, and in particular, remote observation of three-dimensional medical image data obtained by medical image diagnostic equipment such as CT and MRI. And a shared server, a client terminal, and a peer-to-peer terminal.

CTやMRI等の医療用画像診断機器により得られた3次元の画素配置をもつ医用画像データ(以下、ボリュームデータと表現する)に光の透過係数などを設定し、陰影を追加することで立体的な2次元CG画像を作成するレンダリング技術が確立されている。また、立体視表示が行える表示装置を用いることにより、単に2次元画像ではなく、視点の空間座標が異なる2つの画像を右眼と左眼別々に入力することができ、奥行きを持った立体的な空間として視覚的に認識される。   By setting a light transmission coefficient and adding a shadow to medical image data (hereinafter referred to as volume data) having a three-dimensional pixel arrangement obtained by medical diagnostic imaging equipment such as CT and MRI Rendering technology to create a typical 2D CG image has been established. In addition, by using a display device that can perform stereoscopic display, two images with different spatial coordinates of the viewpoint can be input separately for the right eye and the left eye, not just a two-dimensional image, and a stereoscopic three-dimensional image with depth. It is visually recognized as a space.

これまでの立体視の方法として一般的なものは、左眼用と右眼用の2種類の画像を用いる2眼式立体視である。例えば動画の世界では、2つのプロジェクターを使って左右で直交させた偏光フィルターを通した映像を投射し、それを同じく偏光フィルターを使っためがねで見るポラライザー方式が普及している。この他にも、毎秒30フレームというビデオ映像のフレームごとに左右別々の映像を画面に表示させ、それに同期させた液晶メガネで右の映像が映っているときは左目をブラックアウトさせるという方法で立体映像をつくり出す技術もある。また近年では、ディスプレイの表面にスリットを配し、視聴者の見る位置に合わせて異なる画像が見える多眼式立体視と呼ばれるものがある。   A conventional stereoscopic viewing method is binocular stereoscopic viewing using two types of images for the left eye and the right eye. For example, in the world of moving images, a polarizer system that uses two projectors to project an image through a polarizing filter that is orthogonal to the left and right, and views the image with glasses using the polarizing filter is also widespread. In addition to this, the left and right separate images are displayed on the screen for each video image frame of 30 frames per second, and the left eye is blacked out when the right image is reflected in the synchronized LCD glasses. There is also a technology for creating images. In recent years, there is a so-called multi-view stereoscopic view in which a slit is provided on the surface of a display so that different images can be seen according to the position viewed by the viewer.

一方、医療用ボリュームデータをレンダリングして表示する装置としては、表示装置に蓄積してあるボリュームデータをレンダリングする形態のものと、表示装置とは別のサーバ装置に存在するボリュームデータをサーバ上でレンダリングし、結果を表示装置に伝送し表示する形態のものがある。医療用ボリュームレンダリングは、特許文献1に開示されている。
特開2004−187743号公報
On the other hand, as a device that renders and displays medical volume data, a device that renders volume data stored in a display device and a volume data that exists on a server device different from the display device are displayed on the server. There is a form of rendering and transmitting the result to a display device for display. The medical volume rendering is disclosed in Japanese Patent Application Laid-Open No. 2004-228561.
JP 2004-187743 A

同一のボリュームデータを遠隔配置された複数の表示端末に表示させて同時に観察しようとする際、特に医療分野では、各表示端末にTV会議システム等のコミュニケーションツールを併設し、各表示端末の観察者が互いにコミュニケーションをとりながら観察を行えるシステムが必要とされている。さらに、このような観察システムでは、いずれかの表示端末において視点変更等の観察条件を変更する操作が行われると、これが当該表示端末のみならず他の全ての表示端末にも反映され、各表示端末には同一視点から見込んだ同一画像が常に表示されるようにすることが望ましい。しかしながら、従来の観察システムでは、一の表示端末で行われた観察条件の変更を他の表示端末に反映させることができなかった。   When you want to display the same volume data on multiple remotely arranged display terminals and observe them simultaneously, especially in the medical field, each display terminal is equipped with a communication tool such as a TV conference system, and the viewer of each display terminal There is a need for a system that enables observation while communicating with each other. Furthermore, in such an observation system, when an operation for changing an observation condition such as a viewpoint change is performed on any display terminal, this is reflected not only on the display terminal but also on all other display terminals. It is desirable to always display the same image viewed from the same viewpoint on the terminal. However, in the conventional observation system, the change of the observation condition performed on one display terminal cannot be reflected on another display terminal.

本発明の目的は、上記した従来技術の課題を解決し、同一のボリュームデータを複数の表示端末で観察する立体視画像観察装置において、いずれかの表示端末において視点等の観察条件が変更されると、これが全ての表示端末に反映され、全ての表示端末において常に同一画像の観察が可能になる立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体を提供することにある。   An object of the present invention is to solve the above-described problems of the prior art, and in a stereoscopic image observation apparatus that observes the same volume data on a plurality of display terminals, the observation conditions such as the viewpoint are changed on any of the display terminals. This is reflected in all display terminals, and a stereoscopic image observation apparatus that can always observe the same image in all display terminals, its shared server, client terminal and peer-to-peer terminal, rendering image generation method, and A stereoscopic image display method, a program thereof, and a storage medium are provided.

上記した目的を達成するために、本発明は、3次元の画素配置を持つボリュームデータから生成されたレンダリング画像に基づいて、複数の表示端末に立体視画像を表示する立体視画像観察装置を対象とし、一の表示端末において観察条件の変更が要求されると、当該一の表示端末は、自身がサーバ/クライアントモデルのクライアント端末であれば、ボリュームデータをレンダリングして各端末へ供給する共有サーバに対してレンダリングコマンドを送信し、レンダリングパラメータの変更を要求する。共有サーバは、変更されたレンダリングパラメータに基づいて再レンダリングを実施し、レンダリング画像を改めて全クライアント端末へ送信するので、一の表示端末で行われた観察条件の変更を他の表示端末に反映させることができる。   In order to achieve the above object, the present invention is directed to a stereoscopic image observation apparatus that displays stereoscopic images on a plurality of display terminals based on a rendering image generated from volume data having a three-dimensional pixel arrangement. When a change in viewing conditions is requested in one display terminal, the one display terminal renders volume data and supplies it to each terminal if it is a client terminal of a server / client model A rendering command is sent to and a change of rendering parameters is requested. Since the shared server performs re-rendering based on the changed rendering parameter and transmits the rendered image to all the client terminals again, the change of the observation condition performed on one display terminal is reflected on the other display terminals. be able to.

また、前記一の表示端末は、自身が相手端末とピア・ツー・ピアで接続されるピア・ツー・ピア端末であれば、自端末から観察条件の変更が要求されると、自身のレンダリングパラメータを変更すると共に、相手端末に対してレンダリングコマンドを送信し、レンダリングパラメータの変更を要求する。この結果、自端末および相手端末の双方において、同一のボリュームデータに対して同一のレンダリングパラメータに応じたレンダリング処理が実施されるので、自端末で行われた観察条件の変更を相手端末に反映させることができる。   In addition, if the one display terminal is a peer-to-peer terminal connected to the other terminal in a peer-to-peer manner, when its own terminal requests a change in observation conditions, And a rendering command is transmitted to the counterpart terminal to request a change of the rendering parameter. As a result, since the rendering processing corresponding to the same rendering parameter is performed on the same volume data in both the own terminal and the partner terminal, the change of the observation condition performed in the own terminal is reflected in the partner terminal. be able to.

本発明によれば、以下のような効果が達成される。
(1)ボリュームデータから立体視用のレンダリング画像を生成する共有サーバと、立体視用のレンダリング画像に基づいて立体視画像を表示する少なくとも一つのクライアント端末とがネットワークを介して相互に接続された立体視画像観察装置において、いずれかのクライアント端末において視点等の観察条件が変更されると、これが全ての表示端末に反映されるので、全ての端末において常に同一画像の観察が可能になる。
(2)ボリュームデータから生成されたレンダリング画像に基づいて立体視画像を表示する一対の端末が、ネットワークを介してピア・ツー・ピアで接続された立体視画像観察装置において、一方の端末において視点等の観察条件が変更されると、これが他方の端末に反映されるので、各端末において常に同一画像の観察が可能になる。
(3)観察条件の変更内容を予測して予めレンダリング予測画像を生成しておき、観察条件の変更が要求されると、この要求に合致したレンダリング予測画像が既登録であれば、レンダリング処理を実施することなく当該レンダリング予測画像を出力するので、処理時間の短縮が可能になる。
(4)各端末同士がTV会議機能を利用して相互に通話できるので、立体視画像を観察しながらリアルタイムでコミュニケーションを取ることができる。
According to the present invention, the following effects are achieved.
(1) A shared server that generates a stereoscopic rendering image from volume data and at least one client terminal that displays a stereoscopic image based on the stereoscopic rendering image are connected to each other via a network. In the stereoscopic image observation apparatus, when the observation condition such as the viewpoint is changed in any of the client terminals, this is reflected in all the display terminals, so that the same image can always be observed in all the terminals.
(2) In a stereoscopic image observation apparatus in which a pair of terminals that display a stereoscopic image based on a rendering image generated from volume data is connected peer-to-peer via a network, a viewpoint at one terminal When the observation conditions such as the above are changed, this is reflected on the other terminal, so that the same image can always be observed on each terminal.
(3) Predicting the changes in the viewing conditions and generating a rendering prediction image in advance.When a change in the viewing conditions is requested, if a rendering prediction image that matches this request has already been registered, the rendering process is performed. Since the rendering prediction image is output without performing, the processing time can be shortened.
(4) Since each terminal can talk to each other using the TV conference function, it is possible to communicate in real time while observing a stereoscopic image.

以下、図面を参照して本発明の好ましい実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係る立体視画像観察装置の構成を示したブロック図であり、ここでは、3次元の画素配置を持つボリュームデータから立体視用のレンダリング画像を生成する共有サーバ1と、この共有サーバ1上でボリュームデータを共有し、その立体視画像を同一視点で表示する複数のクライアント端末2とがネットワーク3を介して接続され、サーバ・クライアント型のシステムを構成している。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the stereoscopic image observation apparatus according to the first embodiment of the present invention. Here, a stereoscopic rendering image is generated from volume data having a three-dimensional pixel arrangement. A shared server 1 and a plurality of client terminals 2 that share volume data on the shared server 1 and display the stereoscopic image from the same viewpoint are connected via a network 3 to form a server / client system. is doing.

図2は、前記共有サーバ1の主要部の構成を示したブロック図であり、ボリュームデータのデータベース(DB)101には、3次元空間上の各点が値を有する状態をモデル化した各種のボリュームデータが蓄積されている。このボリュームデータDB101上では、各ボリュームデータが識別情報で一義的に管理されている。レンダリング処理部102は、制御部100から提供される、少なくとも視点情報を含むレンダリングパラメータに応じて、前記ボリュームデータに対してレンダリング処理を実施し、視点の異なる複数のレンダリング画像を生成する。   FIG. 2 is a block diagram showing the configuration of the main part of the shared server 1. In the volume data database (DB) 101, various types of models in which each point in the three-dimensional space has a value are modeled. Volume data is accumulated. On the volume data DB 101, each volume data is uniquely managed by identification information. The rendering processing unit 102 performs a rendering process on the volume data according to a rendering parameter including at least viewpoint information provided from the control unit 100, and generates a plurality of rendering images having different viewpoints.

送信画像バッファ103には、前記レンダリング処理部102から出力される複数のレンダリング画像が一時的に保持される。圧縮・暗号化処理部104は、前記送信画像バッファ103からレンダリング画像を読み出して符号化圧縮すると共に、必要に応じて暗号化処理を施す。画像送信部105からは、レンダリング画像の符号化データが全てのクライアント端末2に向けて送信される。   The transmission image buffer 103 temporarily holds a plurality of rendering images output from the rendering processing unit 102. The compression / encryption processing unit 104 reads out the rendering image from the transmission image buffer 103, encodes and compresses it, and performs encryption processing as necessary. From the image transmission unit 105, encoded data of the rendering image is transmitted to all the client terminals 2.

コマンド受信部106は、レンダリングパラメータを変更するためにクライアント端末2から送信されるレンダリングコマンドや、TV会議への参加を希望するクライアント端末2から送信されるのTV会議接続要求コマンドを受信する。前記制御部100は、受信されたレンダリングコマンドに基づいてレンダリングパラメータを変更し、前記レンダリング処理部102に対して、変更後のレンダリングパラメータによる再レンダリングを指示する。   The command receiving unit 106 receives a rendering command transmitted from the client terminal 2 in order to change a rendering parameter, and a TV conference connection request command transmitted from the client terminal 2 that desires to participate in the TV conference. The control unit 100 changes the rendering parameter based on the received rendering command, and instructs the rendering processing unit 102 to perform re-rendering with the changed rendering parameter.

接続端末リスト107には、TV会議接続を許可するクライアント端末2の識別情報が予め登録されている。認証部108は、前記TV会議接続要求を送信したクライアント端末2の識別情報が前記接続端末リスト107に既登録であるか否かに基づいて認証を行い、権限を有するクライアント端末2からの接続要求であれば、これを許可する。TV会議情報配信部109は、各クライアント端末2から送信されたTV会議映像およびTV会議音声を受信し、これらを合成した後に全てのクライアント端末2へ配信する。   In the connection terminal list 107, identification information of the client terminal 2 that permits the video conference connection is registered in advance. The authentication unit 108 performs authentication based on whether or not the identification information of the client terminal 2 that has transmitted the video conference connection request is already registered in the connection terminal list 107, and a connection request from an authorized client terminal 2 If so, allow this. The TV conference information distribution unit 109 receives the TV conference video and the TV conference audio transmitted from each client terminal 2, combines them, and distributes them to all the client terminals 2.

図3は、前記レンダリング処理部102の構成を示したブロック図であり、ここでは、二眼式を例にして説明する。   FIG. 3 is a block diagram showing the configuration of the rendering processing unit 102. Here, a twin-lens method will be described as an example.

レンダリング処理部102は、ボリュームデータを空間上の任意の視点xから見込んだ2次元のレンダリング画像(右眼画像)を作成する第1レンダリング処理部141aと、前記視点xを右眼視点としたときに、当該視点xとは僅かに離間されて左眼視点となる他の視点x’から同じボリュームデータを見込んだ2次元のレンダリング画像(左眼画像)を作成する第2レンダリング処理部141bとを含む。これ以後、立体視画像を表現するために必要な第1および第2レンダリング画像のペアを単にレンダリング画像と表現する場合もある。前記各視点x,x’の座標位置は、レンダリングパラメータの一部として制御部100から提供される。前記第1および第2レンダリング処理部141a,141bでは、視点以外に関しては同一のレンダリングパラメータを用いてレンダリングが行われる。   The rendering processing unit 102 generates a two-dimensional rendering image (right eye image) in which volume data is viewed from an arbitrary viewpoint x in space, and when the viewpoint x is a right eye viewpoint. And a second rendering processing unit 141b that creates a two-dimensional rendering image (left-eye image) in which the same volume data is expected from another viewpoint x ′ that is slightly separated from the viewpoint x and becomes the left-eye viewpoint. Including. Thereafter, a pair of first and second rendering images necessary for expressing a stereoscopic image may be simply expressed as a rendered image. The coordinate positions of the viewpoints x and x 'are provided from the control unit 100 as part of the rendering parameters. In the first and second rendering processing units 141a and 141b, rendering is performed using the same rendering parameters except for the viewpoint.

図4は、前記レンダリング処理部102の他の構成を示したブロック図であり、上記した左右一対のレンダリング処理部141(141a,141b)を複数組設け、それぞれに異なる視点から見込んだレンダリング画像を生成する多眼式の構成を示している。なお、上記した2眼式および多眼式のいずれにおいても、第1および第2レンダリング画像をそのまま出力するのではなく、例えば第1レンダリング画像に対する第2レンダリング画像の差分データを求め、第1レンダリング画像および差分データのペアを立体視用のレンダリング画像として出力するようにしても良い。   FIG. 4 is a block diagram showing another configuration of the rendering processing unit 102. A plurality of pairs of the left and right rendering processing units 141 (141a, 141b) described above are provided, and rendering images viewed from different viewpoints are respectively provided. A multi-view configuration to be generated is shown. In both of the above-described binocular and multi-view types, the first and second rendered images are not output as they are, but for example, the difference data of the second rendered image with respect to the first rendered image is obtained to obtain the first rendering. You may make it output the pair of an image and difference data as a rendering image for stereoscopic vision.

図5は、前記クライアント端末2の構成を示したブロック図であり、いずれのクライアント端末も同一または同等の構成を備えている。   FIG. 5 is a block diagram showing the configuration of the client terminal 2, and all the client terminals have the same or equivalent configuration.

レンダリング通信部212は、前記共有サーバ1の画像送信部105およびコマンド受信部106と通信し、共有サーバ1から送信されるレンダリング画像の受信、および共有サーバ1へのレンダリングコマンドの送信を制御する。画像デコーダ207は、受信されたレンダリング画像の符号化データを復号化して左右一対のレンダリング画像を再生する。なお、レンダリング画像が第1レンダリング画像(右眼画像)および差分データのペアであれば、第1レンダリング画像と差分データとに基づいて第2レンダリング画像(左眼画像)が再生される。立体視画像表示装置202は、前記左右一対のレンダリング画像に基づいて立体視画像を表示する。   The rendering communication unit 212 communicates with the image transmission unit 105 and the command reception unit 106 of the shared server 1 and controls reception of a rendering image transmitted from the shared server 1 and transmission of a rendering command to the shared server 1. The image decoder 207 decodes the encoded data of the received rendering image and reproduces a pair of left and right rendering images. If the rendering image is a pair of the first rendering image (right eye image) and difference data, the second rendering image (left eye image) is reproduced based on the first rendering image and the difference data. The stereoscopic image display device 202 displays a stereoscopic image based on the pair of left and right rendering images.

入力操作子201は、マウス、キーボードあるいはジョイスティック等の入力装置であり、オペレータは入力操作子201を適宜に操作することにより、前記立体視画像表示装置202に表示されている立体視画像の視点変更、カッティングライン変更、画像の拡大や縮小、あるいは色調、明度、コントラストの変更、CT画像であればCT値や透過度の変更といった観察条件の変更を行うことができる。コマンド生成部206は、前記入力操作子201に対する操作に基づいて観察条件の変更要求を検知し、この観察条件に応じてレンダリングパラメータの変更を共有サーバ1に対して要求するためのレンダリングコマンドを生成する。このレンダリングコマンドは、前記レンダリング通信部212から共有サーバ1へ送信される。   The input operator 201 is an input device such as a mouse, a keyboard, or a joystick. The operator appropriately changes the viewpoint of the stereoscopic image displayed on the stereoscopic image display device 202 by operating the input operator 201 appropriately. It is possible to change the observation conditions such as cutting line change, image enlargement or reduction, color tone, brightness, contrast change, CT image or transmittance change for CT images. The command generation unit 206 detects a viewing condition change request based on an operation on the input operator 201, and generates a rendering command for requesting the shared server 1 to change a rendering parameter in accordance with the viewing condition. To do. This rendering command is transmitted from the rendering communication unit 212 to the shared server 1.

TV会議通信部213は前記共有サーバ1のTV会議情報配信部109と通信し、TV会議映像およびTV会議音声の送受信を制御する。音声デコーダ209は、共有サーバ1を経由して受信されるTV会議音声をデコードしてスピーカ203で再生させる。マイク204で検知されたTV会議音声は、音声エンコーダ210でエンコードされた後にTV会議通信部213から共有サーバ1へ送信される。カメラ205で撮影されたTV会議映像は、映像エンコーダ211でエンコードされた後にTV会議通信部213から共有サーバ1へ送信される。   The TV conference communication unit 213 communicates with the TV conference information distribution unit 109 of the shared server 1 and controls transmission / reception of the TV conference video and the TV conference audio. The audio decoder 209 decodes the video conference audio received via the shared server 1 and causes the speaker 203 to reproduce it. The video conference audio detected by the microphone 204 is encoded by the audio encoder 210 and then transmitted from the video conference communication unit 213 to the shared server 1. The video conference video captured by the camera 205 is encoded by the video encoder 211 and then transmitted from the video conference communication unit 213 to the shared server 1.

図6,7は、本実施形態の動作を示したフローチャートであり、図6は共有サーバ1の動作を示し、図7は各クライアント端末2の動作を示している。ここでは、レンダリング処理部102が二眼式である場合を例にして説明する。   6 and 7 are flowcharts showing the operation of the present embodiment, FIG. 6 shows the operation of the shared server 1, and FIG. 7 shows the operation of each client terminal 2. Here, a case where the rendering processing unit 102 is a twin-lens type will be described as an example.

共有サーバ1では、図6のステップS1において、制御部100からレンダリング処理部102へ、ボリュームデータ識別子およびレンダリングパラメータを含むレンダリング開始指令が出力される。ステップS2では、前記レンダリング処理部102において、前記ボリュームデータ識別子に対応したボリュームデータに対して、前記レンダリングパラメータに応じた条件でレンダリング処理が実施され、立体視画像を表現するために必要な2つのレンダリング画像が生成される。   In the shared server 1, in step S <b> 1 of FIG. 6, a rendering start command including a volume data identifier and a rendering parameter is output from the control unit 100 to the rendering processing unit 102. In step S2, the rendering processing unit 102 performs rendering processing on the volume data corresponding to the volume data identifier under conditions according to the rendering parameters, and two necessary for expressing the stereoscopic image. A rendered image is generated.

ステップS3では、前記レンダリング画像が送信画像バッファ103を経由して圧縮・暗号化処理部104へ出力される。ステップS4では、前記レンダリング画像が符号化圧縮されると共に、必要に応じてさらに暗号化され、ステップS5において、画像送信部105から全てのクライアント端末2へ送信される。ステップS6では、いずれかのクライアント端末2から送信されるレンダリングコマンドの受信に備えて待機する。   In step S 3, the rendered image is output to the compression / encryption processing unit 104 via the transmission image buffer 103. In step S4, the rendered image is encoded and compressed, and further encrypted as necessary. In step S5, the rendered image is transmitted from the image transmission unit 105 to all the client terminals 2. In step S6, the apparatus stands by in preparation for receiving a rendering command transmitted from any of the client terminals 2.

クライアント端末2では、図7のステップS51において、前記共有サーバ1から送信されたレンダリング画像の符号化データがレンダリング通信部212で受信されると、ステップS52では、この符号化データが画像デコーダ207で復号化される。ステップS53では、復号化されたレンダリング画像が立体視表示装置202へ出力され、その画面上に立体視画像が可視表示される。   When the client terminal 2 receives the encoded data of the rendering image transmitted from the shared server 1 in step S51 of FIG. 7, the rendering communication unit 212 receives the encoded data in the image decoder 207 in step S52. Decrypted. In step S53, the decoded rendering image is output to the stereoscopic display device 202, and the stereoscopic image is visibly displayed on the screen.

ステップS54では、前記コマンド生成部206において、観察条件に関する変更要求の有無が判定される。ここで、クライアント端末2のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS55へ進む。ステップS55では、要求された視点から見込んだレンダリング画像の生成を要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS56では、前記レンダリングコマンドがレンダリング通信部212から共有サーバ1へ送信される。   In step S54, the command generator 206 determines whether or not there is a change request regarding the observation condition. Here, if the operator of the client terminal 2 operates the input operator 201 in order to observe the displayed stereoscopic image from a different viewpoint, this is determined as a request for changing the observation condition, and the process proceeds to step S55. In step S55, the command generation unit 206 generates a rendering command that requests generation of a rendering image viewed from the requested viewpoint. In step S <b> 56, the rendering command is transmitted from the rendering communication unit 212 to the shared server 1.

図6へ戻り、共有サーバ1では、ステップS6において前記レンダリングコマンドが受信されると、ステップS7では、制御部100においてレンダリングパラメータが変更され、レンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。   Returning to FIG. 6, in the shared server 1, when the rendering command is received in step S <b> 6, the rendering parameter is changed in the control unit 100 in step S <b> 7, and the rendered rendering parameter is changed to the rendering processing unit 102. Based on re-rendering is directed.

その後、当該処理はステップS2へ戻り、前記変更されたレンダリングパラメータに基づいてレンダリング処理が改めて実施され、ステップS5において、新たに生成されたレンダリング画像が各クライアント端末2へ送信される。この結果、本実施形態では一のクライアント端末2における視点変更が、他の全てのクライアント端末2に反映されるので、全てのクライアント端末2において立体視画像を常に同一視点から観察できるようになる。   Thereafter, the process returns to step S2, and the rendering process is performed again based on the changed rendering parameter, and the newly generated rendered image is transmitted to each client terminal 2 in step S5. As a result, in this embodiment, the viewpoint change in one client terminal 2 is reflected in all the other client terminals 2, so that the stereoscopic image can always be observed from the same viewpoint in all the client terminals 2.

図8は、本発明の第2実施形態に係る共有サーバ1の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。   FIG. 8 is a block diagram showing the configuration of the main part of the shared server 1 according to the second embodiment of the present invention. The same reference numerals as those described above represent the same or equivalent parts.

本実施形態では、観察条件の変更内容を予測する変更予測部100aを制御部100に設けると共に、その予測結果に基づいて生成されたレンダリング予測画像を記憶する予測画像バッファ110を設けた点に特徴がある。前記変更予測部100aは、現在のレンダリングパラメータと前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降に受信するレンダリングコマンドで設定されるレンダリングパラメータを予測する。レンダリング処理部102は、前記レンダリングパラメータの予測結果に基づいてレンダリング画像を予め生成し、これを予測画像バッファ110へ蓄積する。   The present embodiment is characterized in that the control unit 100 is provided with a change prediction unit 100a that predicts the change contents of the observation condition, and a prediction image buffer 110 that stores a rendering prediction image generated based on the prediction result. There is. The change predicting unit 100a predicts a rendering parameter set by a rendering command received after the next time based on the current rendering parameter and at least one rendering parameter before and after the previous time. The rendering processing unit 102 generates a rendering image in advance based on the prediction result of the rendering parameter, and stores this in the prediction image buffer 110.

図9は、本実施形態における共有サーバ1の動作を示したフローチャートであり、前記と同一の符号を付したステップでは、前記と同一または同等の処理が実施される。   FIG. 9 is a flowchart showing the operation of the shared server 1 in the present embodiment. In the steps denoted by the same reference numerals as those described above, the same or equivalent processes are performed.

本実施形態では、ステップS5においてレンダリング画像の送信を完了するとステップS8へ進み、レンダリングパラメータの予測結果に基づくレンダリング予測画像の生成およびその蓄積が既に完了しているか否かが判定される。最初は完了していないと判定されるので、ステップS9のレンダリング予測処理へ進む。   In the present embodiment, when the transmission of the rendering image is completed in step S5, the process proceeds to step S8, and it is determined whether the generation and accumulation of the rendering predicted image based on the rendering parameter prediction result have already been completed. Since it is determined that the process is not completed at first, the process proceeds to the rendering prediction process in step S9.

図10は、前記レンダリング予測処理の手順を示したフローチャートであり、ステップS91では、これまでに受信されたレンダリングコマンドで設定されたレンダリングパラメータの履歴に基づいて、次回以降に設定されるレンダリングパラメータが予測される。本実施形態では、視点を変更するレンダリングコマンドが受信されていれば、視点に関する現在のレンダリングパラメータと、前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降の視点に関するレンダリングパラメータが、外挿、内挿あるいは二次回帰等の適宜の数学的演算に基づいて予測される。ステップS92では、前記レンダリングパラメータの予測結果に基づいてレンダリング処理が実施され、前記予測結果に応じたレンダリング予測画像が生成される。ステップS93では、前記生成されたレンダリング予測画像が予測画像バッファ110に蓄積される。   FIG. 10 is a flowchart showing the procedure of the rendering prediction process. In step S91, based on the rendering parameter history set by the rendering commands received so far, the rendering parameters to be set next time are shown. is expected. In the present embodiment, if a rendering command for changing the viewpoint has been received, the rendering parameter for the next and subsequent viewpoints is extrapolated based on the current rendering parameter for the viewpoint and at least one rendering parameter before and after the previous viewpoint. , Based on appropriate mathematical operations such as interpolation or quadratic regression. In step S92, a rendering process is performed based on the prediction result of the rendering parameter, and a rendering prediction image corresponding to the prediction result is generated. In step S <b> 93, the generated rendering predicted image is stored in the predicted image buffer 110.

なお、このレンダリング予測処理は、ステップS91で予測パラメータや予測アルゴリズムを変更しながら繰り返し実行され、レンダリングパラメータの変更を要求するレンダリングコマンドが新たに受信されるか、あるいはレンダリングコマンドが受信されなくても所定数のレンダリング予測画像の蓄積が完了すると終了し、図9のステップS6へ戻る。   Note that this rendering prediction process is repeatedly executed in step S91 while changing the prediction parameter and the prediction algorithm, and even if a rendering command for requesting a change of the rendering parameter is newly received or no rendering command is received. When the accumulation of the predetermined number of predicted rendering images is completed, the process ends, and the process returns to step S6 in FIG.

その後、いずれかのクライアント端末2から送信されたレンダリングコマンドがステップS6で受信されると、ステップS10では、受信したレンダリングコマンドで指定されるレンダリングパラメータで予めレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS7へ進み、上記した第1実施形態と同様に、制御部100においてレンダリングパラメータがレンダリングコマンドに基づいて変更され、レンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。   Thereafter, when a rendering command transmitted from any one of the client terminals 2 is received in step S6, in step S10, a predicted image previously rendered with a rendering parameter specified by the received rendering command is displayed in the predicted image buffer 110. It is determined whether or not already registered. If it is determined that it is not registered, the process proceeds to step S7, and the rendering parameter is changed based on the rendering command in the control unit 100 in the same manner as in the first embodiment described above, and the rendered rendering parameter is changed to the rendering processing unit 102. Re-rendering based on is directed.

これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS11へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS3,4,5において全てのクライアント端末2へ送信される。   On the other hand, if the rendered image is already registered in the predicted image buffer 110, the process proceeds to step S11, and the rendered predicted image is extracted from the predicted image buffer 110 and transmitted to all the client terminals 2 in steps S3, 4, and 5. Is done.

本実施形態によれば、共有サーバ1がレンダリングパラメータの履歴に基づいて今後の推移を予測し、待機時間を利用してレンダリング予測画像を予め生成するので、レンダリングコマンドに応答した立体視画像を表示させるための応答時間を短縮できるようになる。   According to the present embodiment, the shared server 1 predicts future transitions based on the rendering parameter history and generates a predicted rendering image in advance using the standby time, so that a stereoscopic image in response to the rendering command is displayed. It is possible to shorten the response time for

図11は、本発明の第3実施形態に係る立体視画像観察装置の構成を示したブロック図であり、ここでは、一組の端末4がネットワーク3を介してピア・ツー・ピアで接続されている。   FIG. 11 is a block diagram showing a configuration of a stereoscopic image observation apparatus according to the third embodiment of the present invention. Here, a pair of terminals 4 are connected via a network 3 on a peer-to-peer basis. ing.

図12は、前記ピア・ツー・ピア(P2P)端末4の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。   FIG. 12 is a block diagram showing a configuration of a main part of the peer-to-peer (P2P) terminal 4, and the same reference numerals as those described above represent the same or equivalent parts.

本実施形態では、各P2P端末4が立体視画像表示装置202と共にボリュームデータDB101,レンダリング処理部102を備え、制御部200は、相手端末とレンダリングコマンドおよびボリュームデータ識別子を交換して両者のレンダリングパラメータおよび観察対象のボリュームデータを整合させる。レンダリング処理部102は、制御部200によって指定されるボリュームデータ識別子に対応したボリュームデータを前記ボリュームデータDB101から読み出し、これにレンダリングパラメータにしたがってレンダリング処理を実施する。生成されたレンダリング画像は、自身の立体視画像表示装置202において立体視画像として表示される。   In the present embodiment, each P2P terminal 4 includes a volume data DB 101 and a rendering processing unit 102 together with the stereoscopic image display device 202, and the control unit 200 exchanges rendering commands and volume data identifiers with the counterpart terminal and renders both rendering parameters. And matching the volume data of the object to be observed. The rendering processing unit 102 reads volume data corresponding to the volume data identifier specified by the control unit 200 from the volume data DB 101, and performs rendering processing on the data according to the rendering parameter. The generated rendering image is displayed as a stereoscopic image on its own stereoscopic image display device 202.

図13は、本実施形態の動作を示したフローチャートであり、ステップS61では、各P2P端末4のボリュームデータDB101に、観察対象のボリュームデータが蓄積される。このボリュームデータは、ネットワーク3上のサーバ(図示せず)から各端末4が独自に取得しても良いし、あるいは一方の端末4のボリュームデータDB101に既に蓄積されているボリュームデータならば、これを読み出して相手のP2P端末へ提供するようにしても良い。   FIG. 13 is a flowchart showing the operation of the present embodiment. In step S61, the volume data to be observed is accumulated in the volume data DB 101 of each P2P terminal 4. This volume data may be obtained independently by each terminal 4 from a server (not shown) on the network 3, or if it is already stored in the volume data DB 101 of one terminal 4, this May be read and provided to the other party's P2P terminal.

ステップS62では、レンダリングパラメータをP2P端末間で整合させる処理が実行され、各P2P端末4に同一のレンダリングパラメータが設定される。ステップS63では、前記ボリュームデータDB101に蓄積されているボリュームデータに対して前記設定されたレンダリングパラメータに応じたレンダリング処理が実施され、上記した第1実施形態と同様にレンダリング画像が生成される。ステップS64では、前記レンダリング画像が立体視画像表示装置202へ出力され、各P2P端末4の画面上に同一視点の立体視画像が表示される。   In step S62, processing for matching rendering parameters between P2P terminals is executed, and the same rendering parameters are set in each P2P terminal 4. In step S63, a rendering process corresponding to the set rendering parameter is performed on the volume data stored in the volume data DB 101, and a rendering image is generated in the same manner as in the first embodiment. In step S64, the rendered image is output to the stereoscopic image display device 202, and the stereoscopic image of the same viewpoint is displayed on the screen of each P2P terminal 4.

ステップS65,S69では、観察条件に関する変更要求の有無が判定され、ステップS65では、前記コマンド生成部206において、自端末のオペレータによる観察条件の変更要求の有無が判定される。自端末のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS66へ進む。ステップS66では、オペレータが要求している視点に合わせてレンダリングパラメータが変更される。   In steps S65 and S69, it is determined whether or not there is a request for changing the observation condition. In step S65, the command generation unit 206 determines whether or not there is a request for changing the observation condition by the operator of the terminal itself. When the operator of the own terminal operates the input operator 201 to observe the displayed stereoscopic image from a different viewpoint, this is determined as a request for changing the observation condition, and the process proceeds to step S66. In step S66, the rendering parameters are changed according to the viewpoint requested by the operator.

ステップS67では、前記オペレータが要求している視点に対応したレンダリング画像の生成を要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS68では、前記レンダリングコマンドがレンダリング通信部21から相手端末へ送信される。   In step S67, the command generation unit 206 generates a rendering command for requesting generation of a rendering image corresponding to the viewpoint requested by the operator. In step S68, the rendering command is transmitted from the rendering communication unit 21 to the partner terminal.

相手のP2P端末4では、ステップS69において前記レンダリングコマンドが受信されると、ステップS70では、制御部100においてレンダリングパラメータが変更される。その後、いずれのP2P端末4でも当該処理はステップS63へ戻るので、前記変更後のレンダリングパラメータに基づいてレンダリング処理が再度実施され、前記オペレータが要求している視点から見込んだ立体視画像が立体視画像表示装置202へ表示されることになる。   In the partner P2P terminal 4, when the rendering command is received in step S69, the rendering parameter is changed in the control unit 100 in step S70. Thereafter, since the process returns to step S63 in any P2P terminal 4, the rendering process is performed again based on the changed rendering parameter, and the stereoscopic image viewed from the viewpoint requested by the operator is stereoscopically viewed. It is displayed on the image display device 202.

このように、本実施形態では一方のP2P端末4における視点変更が、自端末のみならず他方のP2P端末4にも反映されるので、各P2P端末において立体視画像を常に同一視点から観察できるようになる。   As described above, in this embodiment, the viewpoint change in one P2P terminal 4 is reflected not only on the own terminal but also on the other P2P terminal 4, so that each P2P terminal can always observe a stereoscopic image from the same viewpoint. become.

図14は、本発明の第4実施形態に係るピア・ツー・ピア端末4の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等部分を表している。   FIG. 14 is a block diagram showing the configuration of the main part of the peer-to-peer terminal 4 according to the fourth embodiment of the present invention. The same reference numerals as those described above represent the same or equivalent parts.

本実施形態では、制御部200にレンダリングパラメータに関する変更予測部200aを設けると共に、レンダリングパラメータの予測結果に基づいて生成されたレンダリング予測画像を記憶する予測画像バッファ110を設けた点に特徴がある。前記変更予測部200aは、現在のレンダリングパラメータと前回以前の少なくとも一つのレンダリングパラメータとに基づいて、次回以降のレンダリングパラメータを予測する。レンダリング処理部102は、前記レンダリングパラメータの予測結果に基づいてレンダリング画像を生成し、これを予測画像バッファ110へ蓄積する。   The present embodiment is characterized in that the control unit 200 is provided with a change prediction unit 200a related to rendering parameters and a prediction image buffer 110 that stores a rendering prediction image generated based on the prediction result of the rendering parameters. The change prediction unit 200a predicts the next and subsequent rendering parameters based on the current rendering parameter and at least one rendering parameter before and after the previous time. The rendering processing unit 102 generates a rendering image based on the prediction result of the rendering parameter, and accumulates the rendering image in the prediction image buffer 110.

図15は、本実施形態の動作を示したフローチャートであり、前記と同一の符号を付したステップでは、前記と同一または同等の処理が実施される。   FIG. 15 is a flowchart showing the operation of the present embodiment. In the steps denoted by the same reference numerals as those described above, the same or equivalent processes are performed.

本実施形態では、ステップS64においてレンダリング画像の表示を完了するとステップS65へ進み、前記コマンド生成部206において、観察条件に関する変更要求の有無が判定される。ここで、P2P端末4のオペレータが、表示されている立体視画像を異なる視点から観察するために前記入力操作子201を操作すると、これが観察条件の変更要求と判定されてステップS66へ進む。ステップS66では、オペレータが要求している視点に合わせてレンダリングパラメータが変更される。ステップS67では、前記オペレータが要求している視点に対応したレンダリング画像の生成を相手端末4に要求するレンダリングコマンドが、前記コマンド生成部206において生成される。ステップS68では、前記レンダリングコマンドがレンダリング通信部21から相手端末4へ送信される。   In this embodiment, when the display of the rendering image is completed in step S64, the process proceeds to step S65, and the command generation unit 206 determines whether there is a change request regarding the observation condition. Here, when the operator of the P2P terminal 4 operates the input operator 201 in order to observe the displayed stereoscopic image from a different viewpoint, this is determined to be an observation condition change request, and the process proceeds to step S66. In step S66, the rendering parameters are changed according to the viewpoint requested by the operator. In step S67, the command generation unit 206 generates a rendering command that requests the counterpart terminal 4 to generate a rendering image corresponding to the viewpoint requested by the operator. In step S68, the rendering command is transmitted from the rendering communication unit 21 to the counterpart terminal 4.

ステップS95では、変更後のレンダリングパラメータでレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS63へ戻り、制御部100からレンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリングが指示される。   In step S95, it is determined whether or not the predicted image rendered with the changed rendering parameter is already registered in the predicted image buffer 110. If it is determined that it is not registered, the process returns to step S63, and re-rendering based on the changed rendering parameter is instructed from the control unit 100 to the rendering processing unit 102.

これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS96へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS64へ戻って表示される。   On the other hand, if the rendered image is already registered in the predicted image buffer 110, the process proceeds to step S96, where the rendered predicted image is extracted from the predicted image buffer 110, and returned to step S64 for display.

一方、前記ステップS65において、自端末のオペレータによる観察条件の変更要求が検知されていないとステップS69へ進み、レンダリングコマンドの受信の有無が判定される。ここで、相手端末から送信されたレンダリングコマンドが受信されると、ステップS70では、制御部100においてレンダリングパラメータが変更される。ステップS97では、変更後のレンダリングパラメータでレンダリングされた予測画像が前記予測画像バッファ110に既登録であるか否かが判定される。未登録と判定されればステップS63へ戻り、制御部100からレンダリング処理部102に対して、変更後のレンダリングパラメータに基づく再レンダリング処理が指示される。   On the other hand, in step S65, if a request for changing the observation condition by the operator of the terminal is not detected, the process proceeds to step S69, and it is determined whether or not a rendering command has been received. Here, when the rendering command transmitted from the counterpart terminal is received, the rendering parameter is changed in the control unit 100 in step S70. In step S97, it is determined whether or not the predicted image rendered with the changed rendering parameter is already registered in the predicted image buffer 110. If it is determined that it is not registered, the process returns to step S63, and the re-rendering process based on the changed rendering parameter is instructed from the control unit 100 to the rendering processing unit 102.

これに対して、レンダリング画像が予測画像バッファ110に既登録であればステップS98へ進み、当該レンダリング予測画像が予測画像バッファ110から抽出され、ステップS64へ戻って表示される。   On the other hand, if the rendered image is already registered in the predicted image buffer 110, the process proceeds to step S98, the rendered predicted image is extracted from the predicted image buffer 110, and the process returns to step S64 to be displayed.

なお、前記ステップS69において、レンダリングコマンドが受信されていないと判定されればステップS8へ進み、上記した第2実施形態と同様に、待機時間を利用してレンダリング予測画像が生成され、前記予測画像バッファ110に登録される。   If it is determined in step S69 that a rendering command has not been received, the process proceeds to step S8, and similarly to the second embodiment described above, a rendering prediction image is generated using a waiting time, and the prediction image is generated. Registered in the buffer 110.

本実施形態によれば、各P2P端末4がレンダリングパラメータの履歴に基づいて今後の推移を予測し、待機時間を利用してレンダリング予測画像を予め生成するので、レンダリングコマンドに応答した立体視画像を表示させるための応答時間を短縮できるようになる。   According to the present embodiment, each P2P terminal 4 predicts a future transition based on the rendering parameter history, and generates a rendering predicted image in advance using the standby time. Therefore, a stereoscopic image in response to the rendering command is generated. The response time for display can be shortened.

本発明の第1実施形態に係る立体視画像観察装置のブロック図である。1 is a block diagram of a stereoscopic image observation apparatus according to a first embodiment of the present invention. 共有サーバの主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of a shared server. レンダリング処理部の構成(二眼式)を示したブロック図である。It is the block diagram which showed the structure (two eyes type) of the rendering process part. レンダリング処理部の構成(多眼式)を示したブロック図である。It is the block diagram which showed the structure (multi-view type) of the rendering process part. クライアント端末の構成を示したブロック図である。It is the block diagram which showed the structure of the client terminal. 第1実施形態における共有サーバの動作を示したフローチャートである。It is the flowchart which showed operation | movement of the shared server in 1st Embodiment. 第1実施形態におけるクライアント端末の動作を示したフローチャートである。It is the flowchart which showed the operation | movement of the client terminal in 1st Embodiment. 発明の第2実施形態に係る共有サーバの主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of the shared server which concerns on 2nd Embodiment of invention. 第2実施形態における共有サーバの動作を示したフローチャートである。It is the flowchart which showed the operation | movement of the shared server in 2nd Embodiment. レンダリング予測処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the rendering prediction process. 第3実施形態に係る立体視画像観察装置の構成を示したブロック図である。It is the block diagram which showed the structure of the stereoscopic vision image observation apparatus which concerns on 3rd Embodiment. ピア・ツー・ピア端末の主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of a peer to peer terminal. 第3実施形態におけるピア・ツー・ピア端末の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the peer to peer terminal in 3rd Embodiment. 第4実施形態に係るピア・ツー・ピア端末の構成を示したブロック図である。It is the block diagram which showed the structure of the peer to peer terminal which concerns on 4th Embodiment. 第4実施形態におけるピア・ツー・ピア端末の動作を示したフローチャートである。It is the flowchart which showed the operation | movement of the peer to peer terminal in 4th Embodiment.

符号の説明Explanation of symbols

1…共有サーバ,2…クライアント端末,3…ネットワーク,4…ピア・ツー・ピア(P2P)端末,100…制御部,101…ボリュームデータDB,102…レンダリング処理部,103…送信画像バッファ,104…圧縮・暗号化処理部,105…画像送信部,106…コマンド受信部,107…接続端末リスト,108…認証部,109…TV会議情報配信部   DESCRIPTION OF SYMBOLS 1 ... Shared server, 2 ... Client terminal, 3 ... Network, 4 ... Peer to peer (P2P) terminal, 100 ... Control part, 101 ... Volume data DB, 102 ... Rendering processing part, 103 ... Transmission image buffer, 104 ... compression / encryption processing unit, 105 ... image transmission unit, 106 ... command reception unit, 107 ... connected terminal list, 108 ... authentication unit, 109 ... TV conference information distribution unit

Claims (23)

3次元の画素配置を持つボリュームデータから立体視用のレンダリング画像を生成する共有サーバと、立体視用のレンダリング画像に基づいて立体視画像を表示する少なくとも一つのクライアント端末とが、ネットワークを介して相互に接続された立体視画像観察装置において、
前記共有サーバが、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像をクライアント端末へ送信する手段と、
観察条件の変更要求を前記クライアント端末から受信する手段と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手段とを含み、
前記各クライアント端末が、
レンダリング画像を共有サーバから受信する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記変更要求を共有サーバへ送信する手段とを含み、
一のクライアント端末から入力された観察条件の変更要求に応答して、当該一のクライアント端末を含む全てのクライアント端末において立体視画像の観察条件が変更されることを特徴とする立体視画像観察装置。
A shared server that generates a stereoscopic rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the stereoscopic rendering image via a network In the stereoscopic image observation apparatus connected to each other,
The shared server is
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for transmitting the rendered image to a client terminal;
Means for receiving an observation condition change request from the client terminal;
Means for changing a rendering parameter setting in response to the change request;
Each of the client terminals is
Means for receiving a rendered image from a shared server;
Means for displaying a stereoscopic image based on the rendered image;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for transmitting the change request to a shared server,
A stereoscopic image observation apparatus characterized in that a stereoscopic image observation condition is changed in all client terminals including the one client terminal in response to an observation condition change request input from the one client terminal. .
前記共有サーバがさらに、
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手段とを含むことを特徴とする請求項1に記載の立体視画像観察装置。
The shared server further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
2. The apparatus according to claim 1, further comprising means for transmitting the registered rendering prediction image as a rendering image when a rendering prediction image that matches the received request for changing the observation condition is already registered in the storage unit. The stereoscopic image observation apparatus described in 1.
前記共有サーバおよび各クライアント端末がTV会議機能を備え、
前記共有サーバは、各クライアント端末で検知されたTV会議情報を収集し、これらを合成して全てのクライアント端末へ配信することを特徴とする請求項1または2に記載の立体視画像観察装置。
The shared server and each client terminal have a TV conference function,
The stereoscopic image observation apparatus according to claim 1, wherein the shared server collects video conference information detected by each client terminal, combines them, and distributes the information to all client terminals.
3次元の画素配置を持つボリュームデータから生成されたレンダリング画像に基づいて立体視画像を表示する一対の端末が、ネットワークを介してピア・ツー・ピアで接続された立体視画像観察装置において、
前記各ピア・ツー・ピア端末が、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
観察条件の変更要求を相手端末から受信する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手段と、
前記操作子から入力された観察条件の変更要求を相手端末へ送信する手段とを含み、
一方のピア・ツー・ピア端末から入力された観察条件の変更要求に応答して、当該一方および他方のピア・ツー・ピア端末において立体視画像の観察条件が変更されることを特徴とする立体視画像観察装置。
In a stereoscopic image observation apparatus in which a pair of terminals displaying a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement is connected peer-to-peer via a network,
Each said peer-to-peer terminal is
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
Means for receiving an observation condition change request from the other terminal;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for changing the setting of the rendering parameter in response to the change request for each observation condition;
Means for transmitting a change request for the observation condition input from the operation element to the counterpart terminal,
A stereoscopic image viewing condition is changed in one and the other peer-to-peer terminal in response to a request for changing the viewing condition input from one peer-to-peer terminal. Visual image observation device.
前記各ピア・ツー・ピア端末がさらに、
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項4に記載の立体視画像観察装置。
Each peer to peer terminal further includes:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input request for changing the observation condition is already registered in the storage unit. 4. The stereoscopic image observation apparatus according to 4.
前記各ピア・ツー・ピア端末がTV会議機能を備え、
一方のピア・ツー・ピア端末は、他方のピア・ツー・ピア端末で検知されたTV会議情報を収集し、これを再生することを特徴とする請求項4または5に記載の立体視画像観察装置。
Each of the peer-to-peer terminals has a video conference function,
6. The stereoscopic image observation according to claim 4, wherein one peer-to-peer terminal collects and reproduces the video conference information detected by the other peer-to-peer terminal. apparatus.
前記レンダリング画像を生成する手段が、
前記ボリュームデータを空間上の第1視点から見込んだ2次元の第1レンダリング画像を生成する第1レンダリング処理部と、
前記ボリュームデータを前記第1視点とは異なる第2視点から見込んだ2次元の第2レンダリング画像を生成する第2レンダリング処理部とを含み、
前記第1および第2レンダリング画像のペアをレンダリング画像とする2眼式であることを特徴とする請求項1ないし6のいずれかに記載の立体視画像観察装置。
Means for generating the rendered image;
A first rendering processing unit for generating a two-dimensional first rendering image in which the volume data is viewed from a first viewpoint in space;
A second rendering processing unit that generates a two-dimensional second rendering image in which the volume data is viewed from a second viewpoint different from the first viewpoint,
The stereoscopic image observation apparatus according to claim 1, wherein the stereoscopic image observation apparatus is a binocular system in which a pair of the first and second rendering images is a rendering image.
前記レンダリング画像を生成する手段が、
前記第1および第2レンダリング処理部を複数組備え、視点の異なる複数の第1および第2レンダリング画像のペアをレンダリング画像とする多眼式であることを特徴とする請求項7に記載の立体視画像観察装置。
Means for generating the rendered image;
The three-dimensional system according to claim 7, wherein the three-dimensional system includes a plurality of sets of the first and second rendering processing units, and a plurality of first and second rendering image pairs having different viewpoints. Visual image observation device.
前記第1レンダリング画像に対する第2レンダリング画像の差分を求める手段をさらに具備し、前記第1レンダリング画像および前記差分のペアをレンダリング画像とすることを特徴とする請求項7または8に記載の立体視画像観察装置。   The stereoscopic view according to claim 7 or 8, further comprising means for obtaining a difference between the second rendering image and the first rendering image, wherein the pair of the first rendering image and the difference is a rendering image. Image observation device. 3次元の画素配置を持つボリュームデータからレンダリング画像を生成する共有サーバと、レンダリング画像に基づいて立体視画像を表示する少なくとも一つのクライアント端末とが、ネットワークを介して相互に接続された立体視画像観察装置の共有サーバにおいて、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像をクライアント端末へ送信する手段と、
観察条件の変更要求を前記クライアント端末から受信する手段と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手段とを含むことを特徴とする立体視画像観察装置の共有サーバ。
A stereoscopic image in which a shared server that generates a rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the rendering image are connected to each other via a network In the shared server of the observation device,
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for transmitting the rendered image to a client terminal;
Means for receiving an observation condition change request from the client terminal;
Means for changing a setting of a rendering parameter in response to the change request, and a shared server for a stereoscopic image observation apparatus.
前記共有サーバがさらに、
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段と、
受信された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手段とを含むことを特徴とする請求項10に記載の立体視画像観察装置の共有サーバ。
The shared server further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
11. The information processing apparatus according to claim 10, further comprising: a transmission unit configured to transmit the registered rendering prediction image as a rendering image when a rendering prediction image that matches the received request for changing the observation condition is already registered in the storage unit. A shared server of the stereoscopic image observation apparatus according to 1.
3次元の画素配置を持つボリュームデータからレンダリング画像を生成する共有サーバと、レンダリング画像に基づいて立体視画像を表示する少なくとも一つのクライアント端末とが、ネットワークを介して相互に接続された立体視画像観察装置のクライアント端末において、
レンダリング画像を受信する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記観察条件の変更要求を共有サーバへ送信する手段とを含むことを特徴とする立体視画像表示装置のクライアント端末。
A stereoscopic image in which a shared server that generates a rendering image from volume data having a three-dimensional pixel arrangement and at least one client terminal that displays a stereoscopic image based on the rendering image are connected to each other via a network In the client terminal of the observation device,
Means for receiving a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
An operator for inputting a request to change the observation condition of the stereoscopic image;
A client terminal of the stereoscopic image display apparatus, comprising: means for transmitting the observation condition change request to a shared server.
3次元の画素配置を持つボリュームデータから生成されたレンダリング画像に基づいて立体視画像を表示する一対の端末が、ネットワークを介してピア・ツー・ピアで接続された立体視画像観察装置のピア・ツー・ピア端末において、
ボリュームデータを蓄積する手段と、
少なくとも視点情報を含むレンダリングパラメータを設定する手段と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手段と、
前記レンダリング画像に基づいて立体視画像を表示する手段と、
観察条件の変更要求を相手端末から受信する手段と、
前記立体視画像の観察条件の変更要求を入力する操作子と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手段と、
前記操作子から入力された観察条件の変更要求を相手端末へ送信する手段とを含むことを特徴とする立体視画像観察装置のピア・ツー・ピア端末。
A pair of terminals that display a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement is connected to a peer image of a stereoscopic image observation apparatus connected peer-to-peer via a network. In a two-peer terminal,
Means for storing volume data;
Means for setting a rendering parameter including at least viewpoint information;
Means for performing rendering processing according to the rendering parameter on the volume data and generating a rendered image;
Means for displaying a stereoscopic image based on the rendered image;
Means for receiving an observation condition change request from the other terminal;
An operator for inputting a request to change the observation condition of the stereoscopic image;
Means for changing the setting of the rendering parameter in response to the change request for each observation condition;
A peer-to-peer terminal of a stereoscopic image observation apparatus, comprising: means for transmitting a request for changing an observation condition input from the operator to a partner terminal.
前記ピア・ツー・ピア端末がさらに、
観察条件に関する変更要求の内容を予測する手段と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手段と、
前記レンダリング予測画像を記憶する手段とを含み、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が前記記憶手段に既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項13に記載の立体視画像観察装置のピア・ツー・ピア端末。
The peer-to-peer terminal further comprises:
Means for predicting the content of the change request regarding the observation conditions;
Means for performing rendering processing according to the prediction result on the volume data and generating a rendering prediction image;
Means for storing the rendered predicted image;
The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input request for changing the observation condition is already registered in the storage unit. 14. A peer-to-peer terminal of the stereoscopic image observation apparatus according to 13.
少なくとも一つのクライアント端末とネットワークを介して接続された共有サーバが、3次元の画素配置を持つボリュームデータからレンダリング画像を生成する方法において、
ボリュームデータを蓄積する手順と、
少なくとも視点情報を含むレンダリングパラメータを設定する手順と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手順と、
前記レンダリング画像を前記クライアント端末へ送信する手順と、
観察条件の変更要求を前記クライアント端末から受信する手順と、
前記変更要求に応答してレンダリングパラメータの設定を変更する手順とを含むことを特徴とするレンダリング画像生成方法。
In a method in which a shared server connected to at least one client terminal via a network generates a rendering image from volume data having a three-dimensional pixel arrangement,
Procedure for storing volume data,
A procedure for setting rendering parameters including at least viewpoint information;
A procedure for performing rendering processing according to the rendering parameter on volume data and generating a rendered image;
Transmitting the rendered image to the client terminal;
A procedure for receiving an observation condition change request from the client terminal;
And a procedure for changing a setting of a rendering parameter in response to the change request.
前記観察条件に関する変更要求の内容を予測する手順と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手順と、
前記レンダリング予測画像を登録する手順と、
受信された観察条件の変更要求に合致したレンダリング予測画像が既登録であると、前記既登録のレンダリング予測画像をレンダリング画像として送信する手順とを含むことを特徴とする請求項15に記載のレンダリング画像生成方法。
A procedure for predicting the content of a change request relating to the observation condition;
A procedure for performing rendering processing according to the prediction result on the volume data and generating a rendering predicted image;
Registering the rendering prediction image;
16. The rendering according to claim 15, further comprising a step of transmitting the registered rendering prediction image as a rendering image when the rendering prediction image that matches the received request for changing the observation condition is already registered. Image generation method.
クライアント端末が、3次元の画素配置を持つボリュームデータから生成されたレンダリング画像を共有サーバから受信して立体視画像を表示する方法において、
レンダリング画像を受信する手順と、
前記レンダリング画像に基づいて立体視画像を表示する手順と、
前記立体視画像の観察条件の変更要求を入力する手順と、
前記観察条件の変更要求を前記共有サーバへ送信する手順とを含むことを特徴とする立体視画像表示方法。
In a method in which a client terminal receives a rendering image generated from volume data having a three-dimensional pixel arrangement from a shared server and displays a stereoscopic image,
Receiving the rendered image; and
Displaying a stereoscopic image based on the rendered image;
A procedure for inputting a request for changing the viewing condition of the stereoscopic image;
And a procedure for transmitting the observation condition change request to the shared server.
ピア・ツー・ピアで接続された各端末で、3次元の画素配置を持つボリュームデータから生成されたレンダリング画像に基づいて立体視画像を表示する方法において、
ボリュームデータを蓄積する手順と、
少なくとも視点情報を含むレンダリングパラメータを設定する手順と、
前記レンダリングパラメータに応じたレンダリング処理をボリュームデータに対して実施し、レンダリング画像を生成する手順と、
前記レンダリング画像に基づいて立体視画像を表示する手順と、
観察条件の変更要求を相手端末から受信する手順と、
前記立体視画像の観察条件の変更要求を入力する手順と、
前記各観察条件の変更要求に応答して前記レンダリングパラメータの設定を変更する手順と、
前記入力された観察条件の変更要求を相手端末へ送信する手順とを含むことを特徴とする立体視画像表示方法。
In a method for displaying a stereoscopic image based on a rendering image generated from volume data having a three-dimensional pixel arrangement at each terminal connected by peer-to-peer,
Procedure for storing volume data,
A procedure for setting rendering parameters including at least viewpoint information;
A procedure for performing rendering processing according to the rendering parameter on volume data and generating a rendered image;
Displaying a stereoscopic image based on the rendered image;
A procedure for receiving an observation condition change request from the partner terminal;
A procedure for inputting a request for changing the viewing condition of the stereoscopic image;
A procedure for changing the setting of the rendering parameter in response to the change request for each observation condition;
And a procedure for transmitting the input request for changing the observation condition to the counterpart terminal.
前記観察条件に関する変更要求の内容を予測する手順と、
前記予測結果に応じたレンダリング処理をボリュームデータに対して実施し、レンダリング予測画像を生成する手順と、
前記レンダリング予測画像を登録する手順とを含み、
受信または入力された観察条件の変更要求に合致したレンダリング予測画像が既登録であると、前記既登録のレンダリング予測画像に基づいて立体視画像を表示することを特徴とする請求項18に記載の立体視画像表示方法。
A procedure for predicting the content of a change request relating to the observation condition;
A procedure for performing rendering processing according to the prediction result on the volume data and generating a rendering predicted image;
Registering the rendering prediction image,
19. The stereoscopic image is displayed based on the registered rendering prediction image when the rendering prediction image that matches the received or input change request for the observation condition is already registered. Stereoscopic image display method.
請求項15または16に記載のレンダリング画像生成方法を共有サーバに実行させるためのレンダリング画像生成プログラム。   A rendering image generation program for causing a shared server to execute the rendering image generation method according to claim 15 or 16. 請求項20に記載のレンダリング画像生成プログラムを共有サーバによる読み出し可能に記憶したレンダリング画像生成プログラムの記憶媒体。   A storage medium for a rendering image generation program in which the rendering image generation program according to claim 20 is stored so as to be readable by a shared server. 請求項17ないし19のいずれかに記載の立体視画像表示方法をコンピュータに実行させるための立体視画像表示プログラム。   A stereoscopic image display program for causing a computer to execute the stereoscopic image display method according to claim 17. 請求項22に記載の立体視画像表示プログラムをコンピュータによる読み出し可能に記憶した立体視画像表示プログラムの記憶媒体。   A storage medium for a stereoscopic image display program in which the stereoscopic image display program according to claim 22 is stored so as to be readable by a computer.
JP2004286621A 2004-09-30 2004-09-30 Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium Pending JP2006101329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004286621A JP2006101329A (en) 2004-09-30 2004-09-30 Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004286621A JP2006101329A (en) 2004-09-30 2004-09-30 Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium

Publications (1)

Publication Number Publication Date
JP2006101329A true JP2006101329A (en) 2006-04-13

Family

ID=36240700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004286621A Pending JP2006101329A (en) 2004-09-30 2004-09-30 Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium

Country Status (1)

Country Link
JP (1) JP2006101329A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2247117A2 (en) 2009-04-27 2010-11-03 Mitsubishi Electric Corporation Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus
JP2011109371A (en) * 2009-11-17 2011-06-02 Kddi Corp Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
KR20120095983A (en) * 2009-11-18 2012-08-29 톰슨 라이센싱 Methods and systems for three dimensional content delivery with flexible disparity selection
WO2012137821A1 (en) * 2011-04-07 2012-10-11 株式会社東芝 Image processing system, apparatus, method and program
JP2012231235A (en) * 2011-04-25 2012-11-22 Toshiba Corp Image processing system, apparatus, method, and program
WO2012161193A1 (en) * 2011-05-24 2012-11-29 株式会社東芝 Medical image diagnostic apparatus, medical image-processing apparatus and method
CN102821694A (en) * 2011-04-08 2012-12-12 株式会社东芝 Medical image processing system, medical image processing device, medical image diagnosis device, medical image processing method, and medical image processing program
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
JP2013017056A (en) * 2011-07-04 2013-01-24 Toshiba Corp Image processing system, image processing method, and medical image diagnostic device
WO2013012042A1 (en) * 2011-07-19 2013-01-24 株式会社東芝 Image processing system, device and method, and medical image diagnostic device
JP2013021459A (en) * 2011-07-08 2013-01-31 Toshiba Corp Image processor, image processing method, image processing system and medical image diagnostic device
JP2013026792A (en) * 2011-07-20 2013-02-04 Toshiba Corp Image processing device, image processing method, image processing system, and medical image diagnostic device
JP2013026736A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device, method, and program
JP2013034197A (en) * 2011-07-04 2013-02-14 Toshiba Corp Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP2013038467A (en) * 2011-08-03 2013-02-21 Toshiba Corp Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program
JP2013039351A (en) * 2011-07-19 2013-02-28 Toshiba Corp Image processing system, image processing device, image processing method, and medical image diagnostic device
JP2013066241A (en) * 2011-06-09 2013-04-11 Toshiba Corp Image processing system and method
JP2013066242A (en) * 2012-12-25 2013-04-11 Toshiba Corp Image display system, device, and method, and medical image diagnostic device
JP2013078141A (en) * 2011-07-19 2013-04-25 Toshiba Corp Image processing system, device, method, and medical image diagnostic device
JP2013122770A (en) * 2012-12-25 2013-06-20 Toshiba Corp Image processing system, device, method, and program
JP2013123227A (en) * 2012-12-25 2013-06-20 Toshiba Corp Image processing system, device, method, and medical image diagnostic device
JP2013214884A (en) * 2012-04-02 2013-10-17 Toshiba Corp Image processing device, method, program, and stereoscopic image display device
JP2013229828A (en) * 2012-04-26 2013-11-07 Toshiba Corp Image processing device, method, program, and stereoscopic image display device
JP2014500999A (en) * 2010-11-05 2014-01-16 コーニンクレッカ フィリップス エヌ ヴェ Image content based prediction and image cache controller
JP2014050487A (en) * 2012-09-05 2014-03-20 Toshiba Corp Medical image processor, medical image processing method and medical image processing program
JP2014135771A (en) * 2014-04-22 2014-07-24 Nintendo Co Ltd Stereoscopic display control program, stereoscopic display control system, stereoscopic display controller, and stereoscopic display control method
WO2015104849A1 (en) * 2014-01-09 2015-07-16 Square Enix Holdings Co., Ltd. Video gaming device with remote rendering capability
JP2015201853A (en) * 2015-05-11 2015-11-12 株式会社東芝 Image processing system, image processing method and medical image diagnostic device
JP2015534160A (en) * 2012-09-10 2015-11-26 カルガリー サイエンティフィック インコーポレイテッド Client-side image rendering in client-server image browsing architecture
JP6441426B1 (en) * 2017-08-28 2018-12-19 株式会社エイビック Character video display system
CN114301880A (en) * 2021-12-23 2022-04-08 聚好看科技股份有限公司 Three-dimensional data transmission method, electronic equipment and signaling server
JP2024056777A (en) * 2018-06-27 2024-04-23 コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション Method and apparatus for efficiently rendering, managing, recording, and playing back interactive multi-user virtual reality experiences - Patents.com

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04255192A (en) * 1991-02-06 1992-09-10 Nec Corp Picture changeover controller and group common share picture changeover controller
JPH05292498A (en) * 1992-04-16 1993-11-05 Hitachi Ltd Image synthesis method and multipoint video conference apparatus using the same
JPH07306955A (en) * 1992-07-24 1995-11-21 Walt Disney Co:The Method and system for generation of three-dimensional illusion
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
JPH10191393A (en) * 1996-12-24 1998-07-21 Sharp Corp Multi-view image coding device
JP2001177849A (en) * 1999-12-15 2001-06-29 Mitsubishi Electric Corp Three-dimensional image generation system and three-dimensional image generation device
JP2001251596A (en) * 2000-03-03 2001-09-14 Kddi Corp Image transmission device, received image reading device, and image transmission / reading device with TV conference function
JP2002095018A (en) * 2000-09-12 2002-03-29 Canon Inc Image display control device, image display system, and image data display method
JP2003208633A (en) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp Server and client, transmission system and transmission method
JP2004062457A (en) * 2002-07-26 2004-02-26 Matsushita Electric Works Ltd Merchandise information providing system
JP2004187743A (en) * 2002-12-09 2004-07-08 Hitachi Medical Corp Medical three-dimensional image display device
JP2004188002A (en) * 2002-12-12 2004-07-08 Fuji Photo Film Co Ltd Image display device
JP2004264907A (en) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc Image generation system, image generation device, and image generation method

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04255192A (en) * 1991-02-06 1992-09-10 Nec Corp Picture changeover controller and group common share picture changeover controller
JPH05292498A (en) * 1992-04-16 1993-11-05 Hitachi Ltd Image synthesis method and multipoint video conference apparatus using the same
JPH07306955A (en) * 1992-07-24 1995-11-21 Walt Disney Co:The Method and system for generation of three-dimensional illusion
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
JPH10191393A (en) * 1996-12-24 1998-07-21 Sharp Corp Multi-view image coding device
JP2001177849A (en) * 1999-12-15 2001-06-29 Mitsubishi Electric Corp Three-dimensional image generation system and three-dimensional image generation device
JP2001251596A (en) * 2000-03-03 2001-09-14 Kddi Corp Image transmission device, received image reading device, and image transmission / reading device with TV conference function
JP2002095018A (en) * 2000-09-12 2002-03-29 Canon Inc Image display control device, image display system, and image data display method
JP2003208633A (en) * 2002-01-10 2003-07-25 Mitsubishi Electric Corp Server and client, transmission system and transmission method
JP2004062457A (en) * 2002-07-26 2004-02-26 Matsushita Electric Works Ltd Merchandise information providing system
JP2004187743A (en) * 2002-12-09 2004-07-08 Hitachi Medical Corp Medical three-dimensional image display device
JP2004188002A (en) * 2002-12-12 2004-07-08 Fuji Photo Film Co Ltd Image display device
JP2004264907A (en) * 2003-02-17 2004-09-24 Sony Computer Entertainment Inc Image generation system, image generation device, and image generation method

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2247117A2 (en) 2009-04-27 2010-11-03 Mitsubishi Electric Corporation Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus
JP2011109371A (en) * 2009-11-17 2011-06-02 Kddi Corp Server, terminal, program, and method for superimposing comment text on three-dimensional image for display
KR101699957B1 (en) * 2009-11-18 2017-01-25 톰슨 라이센싱 Methods and systems for three dimensional content delivery with flexible disparity selection
KR20120095983A (en) * 2009-11-18 2012-08-29 톰슨 라이센싱 Methods and systems for three dimensional content delivery with flexible disparity selection
US20120229604A1 (en) * 2009-11-18 2012-09-13 Boyce Jill Macdonald Methods And Systems For Three Dimensional Content Delivery With Flexible Disparity Selection
JP2013511889A (en) * 2009-11-18 2013-04-04 トムソン ライセンシング Method and system for 3D content distribution with flexible parallax selection
US10015250B2 (en) 2010-11-05 2018-07-03 Koninklijke Philips N.V. Image content based prediction and image cache controller
JP2014500999A (en) * 2010-11-05 2014-01-16 コーニンクレッカ フィリップス エヌ ヴェ Image content based prediction and image cache controller
WO2012137821A1 (en) * 2011-04-07 2012-10-11 株式会社東芝 Image processing system, apparatus, method and program
CN102821695A (en) * 2011-04-07 2012-12-12 株式会社东芝 Image processing system, device, method and program
US9445082B2 (en) 2011-04-07 2016-09-13 Toshiba Medical Systems Corporation System, apparatus, and method for image processing
JP2012217591A (en) * 2011-04-07 2012-11-12 Toshiba Corp Image processing system, device, method and program
CN107595313A (en) * 2011-04-07 2018-01-19 东芝医疗系统株式会社 Image processing system, device and method
CN102821694A (en) * 2011-04-08 2012-12-12 株式会社东芝 Medical image processing system, medical image processing device, medical image diagnosis device, medical image processing method, and medical image processing program
US10140752B2 (en) 2011-04-08 2018-11-27 Toshiba Medical Systems Corporation Medical image processing system, medical image processing apparatus, medical image diagnosis apparatus, and medical image processing method, related to a stereoscopic medical image process
CN107233095A (en) * 2011-04-08 2017-10-10 东芝医疗系统株式会社 Medical image processing system, device and method and medical diagnostic imaging apparatus
JP2012231235A (en) * 2011-04-25 2012-11-22 Toshiba Corp Image processing system, apparatus, method, and program
WO2012161193A1 (en) * 2011-05-24 2012-11-29 株式会社東芝 Medical image diagnostic apparatus, medical image-processing apparatus and method
JP2013006022A (en) * 2011-05-24 2013-01-10 Toshiba Corp Medical image diagnostic apparatus, medical image processing apparatus, and method
US9361726B2 (en) 2011-05-24 2016-06-07 Kabushiki Kaisha Toshiba Medical image diagnostic apparatus, medical image processing apparatus, and methods therefor
CN103561655B (en) * 2011-05-24 2016-03-16 株式会社东芝 Medical diagnostic imaging apparatus, medical image-processing apparatus and method
CN103561655A (en) * 2011-05-24 2014-02-05 株式会社东芝 Medical image diagnostic apparatus, medical image-processing apparatus and method
JP2013066241A (en) * 2011-06-09 2013-04-11 Toshiba Corp Image processing system and method
US9578303B2 (en) 2011-06-13 2017-02-21 Toshiba Medical Systems Corporation Image processing system, image processing apparatus, and image processing method for displaying a scale on a stereoscopic display device
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
JP2013034197A (en) * 2011-07-04 2013-02-14 Toshiba Corp Image processing apparatus, image processing method, and medical image diagnostic apparatus
US9628773B2 (en) 2011-07-04 2017-04-18 Toshiba Medical Systems Corporation Image processing apparatus, image processing method, and medical image diagnosis apparatus
JP2013017056A (en) * 2011-07-04 2013-01-24 Toshiba Corp Image processing system, image processing method, and medical image diagnostic device
JP2013021459A (en) * 2011-07-08 2013-01-31 Toshiba Corp Image processor, image processing method, image processing system and medical image diagnostic device
US9479753B2 (en) 2011-07-19 2016-10-25 Toshiba Medical Systems Corporation Image processing system for multiple viewpoint parallax image group
WO2013012042A1 (en) * 2011-07-19 2013-01-24 株式会社東芝 Image processing system, device and method, and medical image diagnostic device
JP2013026736A (en) * 2011-07-19 2013-02-04 Toshiba Corp Image processing system, device, method, and program
JP2013039351A (en) * 2011-07-19 2013-02-28 Toshiba Corp Image processing system, image processing device, image processing method, and medical image diagnostic device
JP2013078141A (en) * 2011-07-19 2013-04-25 Toshiba Corp Image processing system, device, method, and medical image diagnostic device
JP2013026792A (en) * 2011-07-20 2013-02-04 Toshiba Corp Image processing device, image processing method, image processing system, and medical image diagnostic device
JP2013038467A (en) * 2011-08-03 2013-02-21 Toshiba Corp Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program
JP2013214884A (en) * 2012-04-02 2013-10-17 Toshiba Corp Image processing device, method, program, and stereoscopic image display device
JP2013229828A (en) * 2012-04-26 2013-11-07 Toshiba Corp Image processing device, method, program, and stereoscopic image display device
JP2014050487A (en) * 2012-09-05 2014-03-20 Toshiba Corp Medical image processor, medical image processing method and medical image processing program
JP2015534160A (en) * 2012-09-10 2015-11-26 カルガリー サイエンティフィック インコーポレイテッド Client-side image rendering in client-server image browsing architecture
JP2013123227A (en) * 2012-12-25 2013-06-20 Toshiba Corp Image processing system, device, method, and medical image diagnostic device
JP2013122770A (en) * 2012-12-25 2013-06-20 Toshiba Corp Image processing system, device, method, and program
JP2013066242A (en) * 2012-12-25 2013-04-11 Toshiba Corp Image display system, device, and method, and medical image diagnostic device
US9901822B2 (en) 2014-01-09 2018-02-27 Square Enix Holding Co., Ltd. Video gaming device with remote rendering capability
WO2015104849A1 (en) * 2014-01-09 2015-07-16 Square Enix Holdings Co., Ltd. Video gaming device with remote rendering capability
JP2016509485A (en) * 2014-01-09 2016-03-31 株式会社スクウェア・エニックス・ホールディングス Video game device having remote drawing capability
JP2014135771A (en) * 2014-04-22 2014-07-24 Nintendo Co Ltd Stereoscopic display control program, stereoscopic display control system, stereoscopic display controller, and stereoscopic display control method
JP2015201853A (en) * 2015-05-11 2015-11-12 株式会社東芝 Image processing system, image processing method and medical image diagnostic device
JP6441426B1 (en) * 2017-08-28 2018-12-19 株式会社エイビック Character video display system
JP2019040485A (en) * 2017-08-28 2019-03-14 株式会社エイビック Character moving image display system
JP2024056777A (en) * 2018-06-27 2024-04-23 コロラド・ステート・ユニバーシティ・リサーチ・ファウンデーション Method and apparatus for efficiently rendering, managing, recording, and playing back interactive multi-user virtual reality experiences - Patents.com
CN114301880A (en) * 2021-12-23 2022-04-08 聚好看科技股份有限公司 Three-dimensional data transmission method, electronic equipment and signaling server
CN114301880B (en) * 2021-12-23 2023-05-12 聚好看科技股份有限公司 Three-dimensional data transmission method, electronic equipment and signaling server

Similar Documents

Publication Publication Date Title
JP2006101329A (en) Stereoscopic image observation apparatus and shared server, client terminal and peer-to-peer terminal, rendering image generation method, stereoscopic image display method, program thereof, and storage medium
US20020030675A1 (en) Image display control apparatus
US10482673B2 (en) System and method for role negotiation in multi-reality environments
EP2290968B1 (en) Method, device and system for 3d video communication
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
TWI523488B (en) A method of processing parallax information comprised in a signal
EP0961506B1 (en) Autostereoscopic display
CN113099204B (en) Remote live-action augmented reality method based on VR head-mounted display equipment
US6765568B2 (en) Electronic stereoscopic media delivery system
US20060227151A1 (en) Information processing method and apparatus
TWI520569B (en) Depth infornation generator, depth infornation generating method, and depth adjustment apparatus
WO2009111150A2 (en) Non-linear depth rendering of stereoscopic animated images
WO2003081921A1 (en) 3-dimensional image processing method and device
JP2003111101A (en) Method, apparatus and system for processing stereoscopic image
JP2011164781A (en) Stereoscopic image generation program, information storage medium, apparatus and method for generating stereoscopic image
JP2014501086A (en) Stereo image acquisition system and method
JPWO2017141584A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP2003067784A (en) Information processing equipment
US20150085086A1 (en) Method and a device for creating images
WO2025001561A9 (en) Image processing method, apparatus and system
CN112929635A (en) Display control method of naked eye 3D display screen and multi-view naked eye 3D display
JP2005175539A (en) 3D image display apparatus and image display method
KR101826025B1 (en) System and method for generating 3d image contents that user interaction is possible
JP2016054415A (en) Stereo imaging device and stereo imaging program
US20160150209A1 (en) Depth Range Adjustment of a 3D Video to Match the Depth Range Permissible by a 3D Display Device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110209