JPH11232486A - 3D video playback device and method - Google Patents
3D video playback device and methodInfo
- Publication number
- JPH11232486A JPH11232486A JP10029967A JP2996798A JPH11232486A JP H11232486 A JPH11232486 A JP H11232486A JP 10029967 A JP10029967 A JP 10029967A JP 2996798 A JP2996798 A JP 2996798A JP H11232486 A JPH11232486 A JP H11232486A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- dimensional
- pixel set
- image data
- invisible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
(57)【要約】
【課題】 圧縮画像データを伸長した動画データが3次
元オブジェクトと仮想的な3次元空間にあるものとして
表示するに際し、動画再生時の負荷を減らす。
【解決手段】 ディスプレイ7の表示画面9に、仮想的
な3次元空間にある3次元オブジェクト10と表示領域
11とが視野からみた状態で表示され、この表示領域1
1には、圧縮動画データを伸張して得られる動画データ
が表示される。これら3次元オブジェクト10と表示領
域11とは、その3次元空間内での位置に応じて、部分
的に重なる場合があり、これらの重なり部分で表示領域
11での3次元オブジェクト10よりも視点から遠い場
所にあるときには、この部分を不可視領域11aとし、
この不可視領域11aでの圧縮動画データの伸張処理を
しないようにする。これにより、無駄な伸張処理を省く
ことができる。
(57) [Summary] [PROBLEMS] To reduce the load at the time of moving image reproduction when displaying moving image data obtained by expanding compressed image data as being in a virtual 3D space with a 3D object. SOLUTION: A three-dimensional object 10 and a display area 11 in a virtual three-dimensional space are displayed on a display screen 9 of a display 7 as viewed from a visual field.
1 displays moving image data obtained by expanding the compressed moving image data. The three-dimensional object 10 and the display area 11 may partially overlap with each other depending on the position in the three-dimensional space. When it is in a distant place, this part is defined as an invisible area 11a,
The compression moving image data is not expanded in the invisible area 11a. As a result, unnecessary extension processing can be omitted.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、動画データの再生
に係り、特に、仮想的な3次元空間内の指定した領域に
圧縮された動画データの動画を表示する3次元動画再生
装置及び方式に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the reproduction of moving picture data, and more particularly to a three-dimensional moving picture reproducing apparatus and method for displaying a moving picture of moving picture data in a designated area in a virtual three-dimensional space. .
【0002】[0002]
【従来の技術】3次元オブジェクトを2次元画像として
表示するための3次元グラフィックス、特に、インタラ
クティブな3次元グラフィックス技術としては、例え
ば、VRML(Virtual Reality Modeling Language)が知ら
れている。このVRMLでは、WWW(World Wide Web)上で3
次元データのやり取りを行ない、表示画面内での仮想的
な3次元空間でユーザの操作に応じて視点を変え(即
ち、この3次元空間内でオブジェクトを移動させたり、
回転させたりしてこのオブジェクトを見る方向を変
え)、空間内の様々なオブジェクトの変形表示を実現で
きる。2. Description of the Related Art As three-dimensional graphics for displaying a three-dimensional object as a two-dimensional image, in particular, for example, VRML (Virtual Reality Modeling Language) is known as an interactive three-dimensional graphics technology. In this VRML, 3 on the WWW (World Wide Web)
The user exchanges dimensional data and changes the viewpoint according to the operation of the user in a virtual three-dimensional space in the display screen (that is, moving an object in this three-dimensional space,
By changing the direction in which the object is viewed by rotating the object, it is possible to realize a deformed display of various objects in the space.
【0003】一方、動画データの圧縮技術としては、例
えば、MPEG(Moving Picture Experts Group)規格が知ら
れている。この規格は、アナログ信号として扱われてい
たオーディオ・ビジュアル情報をデジタル化し、その情
報量の圧縮を実現するものであり、ビデオCDやDVD(Digi
tal Versatile Disc)、さらに、衛星放送などで広く利
用されている。On the other hand, as a technique for compressing moving image data, for example, the MPEG (Moving Picture Experts Group) standard is known. This standard digitizes audio-visual information that has been treated as an analog signal, and achieves compression of the information amount.
tal Versatile Disc), as well as satellite broadcasting.
【0004】そして、これらのインタラクティブな3次
元グラフィックスと圧縮動画データの再生とを組み合わ
せ、かかるグラフィックスと圧縮動画データによる動画
とをパソコンなどの同じ表示画面上に表示するようにし
た技術が知られている。A technique is known in which these interactive three-dimensional graphics are combined with the reproduction of compressed moving image data to display such graphics and moving images based on the compressed moving image data on the same display screen such as a personal computer. Have been.
【0005】[0005]
【発明が解決しようとする課題】ところで、このように
3次元グラフィックスと圧縮動画データによる動画とを
共通の表示画面に組み合わせて表示させる場合、いずれ
の従来技術においても、圧縮動画データを全て伸張処理
して伸張した動画データを得、これを3次元空間内の指
定された表示領域へマッピングして動画表示するもので
あるが、圧縮動画データの伸張処理をするに際しては、
3次元空間内でのこの表示領域の位置などは反映されて
いない。In the case where the three-dimensional graphics and the moving image based on the compressed moving image data are combined and displayed on a common display screen as described above, all of the conventional techniques decompress the compressed moving image data. Processing is performed to obtain decompressed moving image data, which is mapped to a designated display area in a three-dimensional space and displayed as a moving image. When decompressing compressed moving image data,
The position of the display area in the three-dimensional space is not reflected.
【0006】一般に、画質を落とさずに圧縮率を高める
程伸張処理の負荷は高くなり、その結果として、伸張処
理を実現する装置に高い処理能力が要求される。しか
し、従来の3次元空間内で圧縮動画データを再生する装
置では、この伸張処理の負荷を軽減する試みはなされて
おらず、このため、かかる装置に用いられるCPUなど
には、大きな負担がかかることになる。In general, as the compression ratio is increased without deteriorating the image quality, the load of the decompression process increases, and as a result, a device for realizing the decompression process requires a high processing capability. However, in a conventional apparatus for reproducing compressed moving image data in a three-dimensional space, no attempt has been made to reduce the load of the decompression processing, and therefore, a heavy load is imposed on a CPU and the like used in such an apparatus. Will be.
【0007】本発明の目的は、かかる問題を解消し、圧
縮動画データの伸張処理を効率的に行なうことにより、
その負荷を低減することができるようにした3次元動画
再生装置及び方式を提供することにある。SUMMARY OF THE INVENTION An object of the present invention is to solve such a problem and to efficiently perform expansion processing of compressed moving image data.
It is an object of the present invention to provide a three-dimensional moving image reproducing apparatus and method capable of reducing the load.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に、本発明は、3次元オブジェクトデータの座標変換や
ライティング計算などを行なうジオメトリ計算手段と、
該ジオメトリ計算手段で作成されたデータを2次元の表
示データに変換するレンダリング手段とからなり、1つ
または複数の動画データを該3次元オブジェクトの表面
などの3次元空間内の1つまたは複数の指定した表示領
域に配置し表示する3次元動画再生装置において、動画
データの表示領域の不可視部分を判定しその判定結果に
応じて圧縮動画データの可視部分のみ伸張を行なうもの
である。To achieve the above object, the present invention provides a geometry calculating means for performing coordinate conversion, lighting calculation, and the like of three-dimensional object data,
Rendering means for converting the data created by the geometry calculation means into two-dimensional display data, and converting one or more moving image data into one or more data in a three-dimensional space such as the surface of the three-dimensional object. In a three-dimensional moving image reproducing apparatus arranged and displayed in a designated display area, an invisible part of a display area of moving image data is determined, and only a visible part of the compressed moving image data is expanded in accordance with the determination result.
【0009】[0009]
【発明の実施の形態】以下、本発明の実施形態を図面に
より説明する 。Embodiments of the present invention will be described below with reference to the drawings.
【0010】図1は本発明による3次元動画再生装置及
び方式の一実施形態を示すブロック図であって、1,2
は記憶手段、3は入力手段、4はメモリ、5は3次元描
画処理手段、6はディスプレイ駆動手段、7はディスプ
レイ、8はCPU、9は表示画面、10は3次元オブジ
ェクト、11は表示領域である。FIG. 1 is a block diagram showing one embodiment of a three-dimensional moving picture reproducing apparatus and method according to the present invention.
Is a storage means, 3 is an input means, 4 is a memory, 5 is a three-dimensional drawing processing means, 6 is a display driving means, 7 is a display, 8 is a CPU, 9 is a display screen, 10 is a three-dimensional object, and 11 is a display area. It is.
【0011】同図において、CPU8は、メモリ4内に
格納されているプログラムに従って、3次元描画処理手
段5や入力手段3など3次元動画再生装置全体の制御を
行なう。記憶手段1には、圧縮された動画データが記憶
されており、記憶手段2には、3次元オブジェクトの位
置座標や色の情報などで構成される3次元データが記憶
される。In FIG. 1, a CPU 8 controls the entire three-dimensional moving image reproducing apparatus such as the three-dimensional drawing processing means 5 and the input means 3 according to a program stored in the memory 4. The storage unit 1 stores compressed moving image data, and the storage unit 2 stores three-dimensional data including information on the position coordinates and colors of the three-dimensional object.
【0012】これら記憶手段1,2内の記憶データは必
要に応じてメモリ4に書き込まれ、3次元描画処理手段
5により、3次元空間内に位置づけられた視点から見た
ときの2次元画像データに変換され、これがディスプレ
イ駆動手段6により、ディスプレイ7の表示画面9に表
示される。ここで、この表示画面9は、3次元空間内の
設定された視点から見た視野内の画像が表示されるもの
であり、以下では、この表示画面9を視野画面ともい
う。The data stored in the storage means 1 and 2 is written into the memory 4 as required, and the two-dimensional image data as viewed from the viewpoint positioned in the three-dimensional space by the three-dimensional drawing processing means 5 Is displayed on the display screen 9 of the display 7 by the display driving means 6. Here, the display screen 9 displays an image in a visual field viewed from a set viewpoint in a three-dimensional space. Hereinafter, the display screen 9 is also referred to as a visual field screen.
【0013】この表示画面9では、記憶手段2から読み
出された3次元データによる3次元オブジェクト10が
表示されるとともに、表示領域11が設定され、この表
示領域11内に記憶手段から読み出された圧縮動画デー
タによる動画像が表示される。このことからして、この
表示領域11は、動画像を表示する表示パネルというオ
ブジェクトとみることもできる。On the display screen 9, a three-dimensional object 10 based on the three-dimensional data read from the storage means 2 is displayed, a display area 11 is set, and the display area 11 is read from the storage means. A moving image based on the compressed moving image data is displayed. For this reason, the display area 11 can be regarded as an object called a display panel for displaying a moving image.
【0014】入力手段3はマウスやキーボードなどから
なり、3次元描画処理手段5の処理の開始や終了、3次
元空間内の視点の移動、視野範囲(3次元空間の表示画
面9で表示される範囲)及び光源位置の設定、3次元空
間内の表示領域11の位置や向きなどの指定などのため
のデータ入力が行なわれる。The input means 3 is composed of a mouse, a keyboard, or the like, and starts or ends the processing of the three-dimensional drawing processing means 5, moves the viewpoint in the three-dimensional space, and displays the visual field range (displayed on the display screen 9 in the three-dimensional space). Data input is performed for setting a range, a light source position, and designating the position and orientation of the display area 11 in a three-dimensional space.
【0015】なお、ここでは、記憶手段1内の圧縮動画
データや記憶手段2内の3次元データが、3次元動画再
生装置に直接接続されている記憶媒体上のデータとして
読み込まれるものとする。しかし、これに限らず、ネッ
トワークを通して別のデータ源からこの3次元動画再生
装置に伝送されてくるような構成とすることも可能であ
る。また、3次元描画処理手段5を専用回路として実現
する構成としたが、汎用のCPUやその上で実行される
ソフトウェア,3次元描画専用のプロセッサ,動画伸張
専用のプロセッサなどの組み合わせでの実現も可能であ
る。Here, it is assumed that the compressed moving image data in the storage means 1 and the three-dimensional data in the storage means 2 are read as data on a storage medium directly connected to the three-dimensional moving image reproducing apparatus. However, the present invention is not limited to this, and it is also possible to adopt a configuration in which the data is transmitted from another data source to the three-dimensional moving image reproducing apparatus through a network. Although the three-dimensional drawing processing means 5 is configured as a dedicated circuit, it may be realized by a combination of a general-purpose CPU, software executed thereon, a processor dedicated to three-dimensional drawing, a processor dedicated to moving image expansion, and the like. It is possible.
【0016】この実施形態は、CPU8の制御のもと
に、3次元描画処理手段5で、記憶手段1からの圧縮動
画データを伸張処理し、また、記憶手段2からの3次元
データを2次元画像データに変換して、夫々を合成し、
ディスプレイ7の表示画面9において、図示するよう
に、表示領域11に動画像が3次元オブジェクト10と
ともに表示するものであるが、3次元描画処理手段5で
は、さらに、3次元オブジェクト10と表示領域11と
の重なり具合を判定することにより、この表示領域11
での3次元オブジェクト10と重なって視点から見えな
い部分を検出して不可視部分とし、圧縮画像データのう
ちのこの不可視部分に含まれる部分については伸張処理
を行なわないようにするものである。In this embodiment, under the control of the CPU 8, the three-dimensional drawing processing means 5 decompresses the compressed moving image data from the storage means 1, and converts the three-dimensional data from the storage means 2 into two-dimensional data. Convert to image data, combine each,
On the display screen 9 of the display 7, as shown, a moving image is displayed in the display area 11 together with the three-dimensional object 10. In the three-dimensional drawing processing means 5, the three-dimensional object 10 and the display area 11 are further displayed. By determining the degree of overlap with the display area 11
In this case, a part that is invisible from the viewpoint and overlaps with the three-dimensional object 10 is detected as an invisible part, and the part included in the invisible part of the compressed image data is not subjected to the expansion processing.
【0017】これにより、3次元描画処理手段5は、圧
縮画像データ伸張処理に対する処理量を低減できて負荷
が軽減する。この結果、3次元描画処理手段5がかかる
3次元動画再生処理以外の他の処理にも兼用する場合に
は、圧縮画像データの伸張処理に対する占有率を低くす
ることができて、他の処理も余裕をもって行なうことが
できるし、また、3次元描画処理手段5が圧縮画像デー
タの伸張処理専用のものである場合でも、限られた能力
で迅速な伸張処理を可能とする。As a result, the three-dimensional drawing processing means 5 can reduce the processing amount for the compressed image data decompression processing, and the load is reduced. As a result, when the three-dimensional drawing processing means 5 is also used for processing other than the three-dimensional moving image reproduction processing, the occupancy of the decompression processing of the compressed image data can be reduced, and other processing is also performed. This can be performed with a margin, and even when the three-dimensional rendering processing means 5 is dedicated to the expansion processing of the compressed image data, the expansion processing can be performed quickly with limited capability.
【0018】図2は図1における3次元描画処理手段5
の一具体例を示すブロック図であって、12はジオメト
リ計算手段、13はレンダリング手段であり、図1に対
応する部分には同一符号をつけている。FIG. 2 shows the three-dimensional drawing processing means 5 in FIG.
FIG. 2 is a block diagram showing a specific example, wherein 12 is a geometry calculation means, 13 is a rendering means, and portions corresponding to those in FIG.
【0019】同図において、3次元描画処理手段5は、
ジオメトリ計算手段12とレンダリング手段13とで構
成されている。In FIG. 1, the three-dimensional drawing processing means 5 comprises:
It comprises a geometry calculation means 12 and a rendering means 13.
【0020】ジオメトリ計算手段12は、記憶手段2か
らの表示すべきオブジェクトの3次元データをポリゴン
と呼ばれる閉平面図形の集合からなるデータに変換し、
入力手段3(図1)の入力データに応じて、3次元空間
内に位置づけられた視点やオブジェクトの動きに応じて
変形,回転,拡大,縮小を夫々のポリゴンに施こし、さ
らに、光源の種類と位置,オブジェクトの形状に応じて
生じる光と影の計算をポリゴン毎に行なう。The geometry calculation means 12 converts the three-dimensional data of the object to be displayed from the storage means 2 into data consisting of a set of closed plane figures called polygons.
In accordance with the input data of the input means 3 (FIG. 1), deformation, rotation, enlargement, and reduction are performed on each polygon in accordance with the movement of a viewpoint or an object positioned in a three-dimensional space. The calculation of light and shadow generated according to the position, the position, and the shape of the object is performed for each polygon.
【0021】ここで、最も基本的なポリゴン形状は三角
形であり、夫々のポリゴンは三角形を構成する3つの頂
点の表示画面9(図1)上での座標で記述できる。従っ
て、これら3つの頂点で囲まれる範囲が表示画面9での
このポリゴンの表示範囲であり、3次元オブジェクト1
0(図1)を構成するポリゴン夫々の表示範囲の集合が
この3次元オブジェクトの表示画面9での表示範囲であ
る。Here, the most basic polygon shape is a triangle, and each polygon can be described by coordinates on the display screen 9 (FIG. 1) of three vertices constituting the triangle. Therefore, the range surrounded by these three vertices is the display range of this polygon on the display screen 9, and the three-dimensional object 1
A set of the display ranges of the respective polygons constituting 0 (FIG. 1) is the display range of the three-dimensional object on the display screen 9.
【0022】また、ジオメトリ計算手段12は、入力手
段3からの入力データにより、表示領域11の3次元空
間内(従って、表示画面9)での位置座標を初期設定す
る。この表示領域11についても、3次元空間内に位置
づけられた視点の動きなどに応じて、その位置や向きな
どが3次元的に変化する処理が施される。The geometry calculating means 12 initializes the position coordinates of the display area 11 in the three-dimensional space (accordingly, the display screen 9) based on the input data from the input means 3. The display area 11 is also subjected to a process of three-dimensionally changing its position, orientation, and the like according to the movement of the viewpoint positioned in the three-dimensional space.
【0023】レンダリング手段13は、ジオメトリ手段
201で作成された3次元オブジェクトや表示領域11
のデータを2次元の表示データに変換し、また、記憶手
段1からの圧縮動画データを伸張処理して表示領域11
内にマッピングするものであり、このようにして得られ
た2次元の表示データはディスプレイ駆動手段6によっ
てディスプレイ7(図1)に表示される。The rendering means 13 includes the three-dimensional object and the display area 11 created by the geometry means 201.
Is converted into two-dimensional display data, and the compressed moving image data from the storage means 1 is subjected to decompression processing to display data in the display area 11.
The two-dimensional display data obtained in this way is displayed on the display 7 (FIG. 1) by the display driving means 6.
【0024】図3は図2におけるレンダリング手段13
の一具体例を示すブロック図であって、14は不可視判
定手段、15は動画伸張手段、16はマッピング手段で
あり、図2に対応する部分には同一符号をつけている。FIG. 3 shows the rendering means 13 in FIG.
2 is a block diagram showing one specific example, wherein 14 is an invisible judging unit, 15 is a moving image decompressing unit, and 16 is a mapping unit, and portions corresponding to those in FIG.
【0025】同図において、レンダリング手段13は、
不可視判定手段14と動画伸張手段15とマッピング手
段16とで構成されている。In the figure, the rendering means 13
It is composed of an invisibility judging means 14, a moving picture expanding means 15, and a mapping means 16.
【0026】不可視判定手段14は、ジオメトリ計算手
段12(図2)によって計算された3次元空間内の表示
領域11の座標とオブジェクトの座標と記憶手段1内の
圧縮動画データに含まれる動画像の表示サイズなどのデ
ータとを取得し、これらから動画データによる動画での
3次元オブジェクトによって隠れる不可視部分を判定す
る。この不可視部分の判定処理については、後に図5を
用いて詳述する。The invisibility judging means 14 calculates the coordinates of the display area 11 and the coordinates of the object in the three-dimensional space calculated by the geometry calculating means 12 (FIG. 2) and the moving image included in the compressed moving image data in the storage means 1. Data such as a display size is acquired, and an invisible portion hidden by the three-dimensional object in the moving image based on the moving image data is determined from these data. The invisible portion determination process will be described later in detail with reference to FIG.
【0027】動画伸張手段15は、動画像のうちの設定
された表示領域11に含まれて表示される範囲の圧縮動
画データを記憶手段1から読み取り、その圧縮単位とし
ての画素集合(MPEG規格では、マクロブロック)毎に圧
縮動画データの伸張処理を行なうものであるが、この伸
張処理を行なう際に、この画素集合が不可視判定手段1
4で不可視部分と判定された領域内にあるかどうかを判
定し、不可視部分にあるときには、その伸張を行なわ
ず、可視部分である画素集合に対してのみその圧縮動画
データの伸張を行なうものである。なお、圧縮動画の伸
張処理については、後に図9を用いて詳述する。The moving image decompression means 15 reads compressed moving image data in a range included in the set display area 11 of the moving image and displayed from the storage means 1, and a pixel set as a compression unit (in the MPEG standard) , Macroblock), the compressed moving image data is expanded. When the expansion processing is performed, this pixel set is invisible.
It is determined whether or not it is within the area determined to be an invisible part in step 4, and if it is in the invisible part, its expansion is not performed, and the compressed moving image data is expanded only for a pixel set that is a visible part. is there. The expansion process of the compressed moving image will be described later in detail with reference to FIG.
【0028】マッピング手段16は、動画伸張手段15
で伸張された動画データをジオメトリ計算手段12(図
2)で計算された3次元空間内の表示領域11に貼り付
けるものである。このようなマッピング手段16を実現
する方式としては、テクスチャマッピングが一般に知ら
れており、例えば、「3次元コンピュータグラフィック
ス」昭晃堂(1986)に記述され、ここでは、詳細な説
明を省略する。The mapping means 16 includes a moving image decompression means 15
Is attached to the display area 11 in the three-dimensional space calculated by the geometry calculation means 12 (FIG. 2). As a method for realizing such a mapping means 16, texture mapping is generally known, and is described in, for example, "3D Computer Graphics" Shokodo (1986), and detailed description is omitted here. .
【0029】図4は記憶手段1に記憶される圧縮動画デ
ータの1再生フレーム分のデータ構造を説明するための
図である。FIG. 4 is a view for explaining the data structure of one playback frame of the compressed moving image data stored in the storage means 1.
【0030】動画データは再生フレーム毎に圧縮,伸長
される。この再生フレーム401は、図4(a)に示す
ように、n×m個の圧縮,伸長単位としての画素集合
(この画素集合は、上記のように、画像圧縮方式がMP
EG規格である場合、マクロブロック)402から構成
されている。ここで、再生フレーム401でのi行j列
目の画素集合402を画素集合(i,j)とする。The moving image data is compressed and decompressed for each reproduction frame. As shown in FIG. 4A, this reproduced frame 401 is composed of n × m sets of pixels as compression and decompression units.
In the case of the EG standard, it is composed of a macro block) 402. Here, the pixel set 402 in the i-th row and the j-th column in the reproduction frame 401 is referred to as a pixel set (i, j).
【0031】かかる2次元の動画データは、再生フレー
ム401毎に、画素集合単位で連結パターン403に沿
う順に(即ち、左から右方向に画素集合の配列順で、か
つこの配列の上から下へ順に)圧縮されて連結され、図
4(b)に示すように、伸張の際に必要となるヘッダ情
報405が先頭に付加された一次元の圧縮動画データ4
04が形成される。図4(c)はこのヘッダ情報405
のデータ構造を示すものであり、この圧縮画像データを
伸張して得られる動画像を表示画面9(図1)に表示し
たときの高さ(動画像の高さ)H,幅(動画像の幅)W
や、そのときの画素集合の高さh,幅wなどのデータを
含んでいる。これらの情報は図3における不可視判定手
段14及び動画伸張手段15で用いられる。The two-dimensional moving image data is arranged in the order along the connected pattern 403 in units of pixel sets (ie, from left to right in the arrangement order of the pixel sets, and from top to bottom of this array) for each playback frame 401. 4B. One-dimensional compressed moving image data 4 in which header information 405 required at the time of decompression is added to the head as shown in FIG.
04 is formed. FIG. 4C shows the header information 405.
The height (height of the moving image) H and the width (height of the moving image) when a moving image obtained by expanding the compressed image data is displayed on the display screen 9 (FIG. 1). Width) W
And data such as the height h and the width w of the pixel set at that time. These pieces of information are used by the invisibility determination unit 14 and the moving image expansion unit 15 in FIG.
【0032】なお、この圧縮動画データ404の連結パ
ターン403は、動画データや動画再生装置の特性に応
じて変更可能である。The connection pattern 403 of the compressed moving image data 404 can be changed according to moving image data and characteristics of the moving image reproducing apparatus.
【0033】図5は図3における不可視判定手段14の
処理手順を示すフローチャートである。FIG. 5 is a flowchart showing a processing procedure of the invisible determining means 14 in FIG.
【0034】不可視であるかどうかの判定は、図4
(a)に示す再生フレーム401毎に、画素集合402
を単位として行なわれる。The determination as to whether or not the object is invisible is performed by referring to FIG.
For each reproduction frame 401 shown in FIG.
Is performed as a unit.
【0035】図4及び図5において、まず、画素集合4
02の座標変換処理が行なわれる(ステップ501)。
ここでは、圧縮動画データ404のヘッダ情報405と
ジオメトリ計算手段12(図2)の計算結果とから、動
画データの再生フレーム401の高さHと幅W,画素集
合402の高さhと幅w(以上、図6(a)参照。これ
らは初期値であって、再生フレーム401の高さHと幅
Wは、そのまま画像表示したときには、ディスプレイ7
の表示画面9全体に表示されるような大きさのものでも
よいし、それよりも小さい大きさのものであってもよ
く、一定のものである。また、上記のように、再生フレ
ーム401がn×m個の画素集合402から構成されて
いるときには、h=H/n,w=W/mとなる)と、3次
元空間内の表示領域11の3次元座標とを取得し、これ
らの値を用いて、各画素集合402の表示領域11での
3次元座標を計算する。この場合の3次元座標は、画素
集合の1つの特定の画素(例えば、画素集合の中心の画
素)の座標とする。座標変換処理501については、後
に図6を用いて詳述する。4 and 5, first, the pixel set 4
02 is performed (step 501).
Here, from the header information 405 of the compressed moving image data 404 and the calculation result of the geometry calculation unit 12 (FIG. 2), the height H and width W of the playback frame 401 of the moving image data and the height h and width w of the pixel set 402 are determined. (See FIG. 6A. These are initial values, and the height H and width W of the reproduction frame 401 are the same as those on the display 7 when the image is displayed as it is.
The size may be such that it is displayed on the entire display screen 9, or may be smaller. Further, as described above, when the reproduction frame 401 is composed of n × m pixel sets 402, h = H / n, w = W / m) and the display area 11 in the three-dimensional space. And the three-dimensional coordinates of the pixel set 402 in the display area 11 are calculated using these values. In this case, the three-dimensional coordinates are coordinates of one specific pixel of the pixel set (for example, a pixel at the center of the pixel set). The coordinate conversion processing 501 will be described later in detail with reference to FIG.
【0036】次に、画素集合402の奥行き情報の計算
が行なわれる(ステップ502)。ここでは、視点の3
次元座標及び視野範囲と、ステップ501によって計算
された画素集合402の3次元座標とを取得し、これら
の値を用いて、視野範囲に含まれる各画素集合402の
視点からの奥行き値を計算する。Next, the depth information of the pixel set 402 is calculated (step 502). Here, the viewpoint 3
The three-dimensional coordinates of the pixel set 402 calculated in step 501 are obtained using the dimensional coordinates and the visual field range, and the depth value from the viewpoint of each pixel set 402 included in the visual field range is calculated using these values. .
【0037】次の奥行き情報の比較処理(ステップ50
3)では、ジオメトリ計算手段12で計算されたオブジ
ェクトの3次元座標を取得してその奥行き値を計算し、
視野画面(図1でのディスプレイ7の表示画面9)で画
素集合402と重なって見える部分について、そのオブ
ジェクトの奥行き値と画素集合402の奥行き値との比
較を行なう。The next depth information comparison process (step 50)
In 3), the three-dimensional coordinates of the object calculated by the geometry calculation means 12 are obtained, and the depth value is calculated.
For a portion that appears to overlap with the pixel set 402 on the visual field screen (the display screen 9 of the display 7 in FIG. 1), the depth value of the object and the depth value of the pixel set 402 are compared.
【0038】そして、これら奥行き値の比較の結果、表
示領域11内での動画の画素集合402が3次元オブジ
ェクトと重なって不可視となる場合には、この画素集合
に対応する不可視フラグを1に設定し、不可視であるこ
とを示すようにする(ステップ504)。このように不
可視フラグを1に設定した後、あるいは、表示領域11
内での動画の画素集合402が3次元オブジェクトによ
って不可視とならない場合には、3次元空間内の全ての
オブジェクトについてかかる奥行き情報の比較が行なわ
れたか否かを判定し(ステップ505)、比較が行なわ
れていないオブジェクトが存在する場合には、そのオブ
シェクトについてステップ503からの処理を繰り返
す。As a result of comparing these depth values, when the pixel set 402 of the moving image in the display area 11 overlaps with the three-dimensional object and becomes invisible, the invisible flag corresponding to this pixel set is set to 1. Then, an invisible state is indicated (step 504). After setting the invisible flag to 1 as described above, or in the display area 11
If the pixel set 402 of the moving image in the image is not made invisible by the three-dimensional object, it is determined whether or not the comparison of the depth information has been performed for all the objects in the three-dimensional space (step 505). If there is an object that has not been performed, the processing from step 503 is repeated for that object.
【0039】図5のステップ501での画素集合402
の座標変換処理過程を図6により説明する。The pixel set 402 in step 501 of FIG.
Will be described with reference to FIG.
【0040】図6(a)は画素集合からなる動画データ
の再生フレーム401を示すものであって、図4(a)
で示したものと同様である。まず、図4(b)に示した
圧縮動画データ404のヘッダ情報405から動画デー
タの再生フレーム401の高さHと幅W、画素集合40
2の高さhと幅wを夫々取得し、各画素集合402の再
生フレーム401上での位置座標を求める。この際、画
素集合402の座標としては、この画素集合402の中
心画素の座標を用いるものとする。勿論、それ以外の特
定の画素を用いてもよいが、この特定の画素は、全ての
画素集合について、画素集合での相対位置(例えば、左
上隅など)が同じである画素とする。FIG. 6A shows a reproduction frame 401 of moving image data composed of a set of pixels, and FIG.
It is the same as that shown by. First, from the header information 405 of the compressed moving image data 404 shown in FIG. 4B, the height H and width W of the reproduced frame 401 of the moving image data, the pixel set 40
2, the height h and the width w of each pixel are obtained, and the position coordinates of each pixel set 402 on the reproduction frame 401 are obtained. At this time, the coordinates of the center pixel of the pixel set 402 are used as the coordinates of the pixel set 402. Of course, other specific pixels may be used, but this specific pixel is a pixel having the same relative position (for example, upper left corner) in the pixel set for all pixel sets.
【0041】次に、3次元空間内の表示領域11の形状
に合わせ、画素集合402の位置をスケーリングする。
例えば、図6(b)に示す高さH’,幅W’の表示領域
11に対しては、再生フレーム401上の画素集合40
2の位置は垂直方向にW'/W倍、水平方向にH'/H倍に
スケーリングされる。このようにスケーリングされた画
像集合402の位置は、表示領域11上での基準点をO
Lとする座標系での座標位置であり、これは、基準点O
Lからの相対座標vijとして保存されるとともに、さら
に、3次元空間上での基準座標系に変換される。Next, the position of the pixel set 402 is scaled according to the shape of the display area 11 in the three-dimensional space.
For example, for a display area 11 having a height H ′ and a width W ′ shown in FIG.
The position 2 is scaled W '/ W times vertically and H' / H times horizontally. The position of the image set 402 scaled in this way is determined by setting the reference point on the display area 11 to O.
L is the coordinate position in the coordinate system, which is the reference point O
The coordinates are stored as relative coordinates v ij from L, and further converted to a reference coordinate system on a three-dimensional space.
【0042】図6(c)はその座標変換を示すものであ
って、(XW,YW,ZW)が3次元空間での基準座標系
であり、(XL,YL,ZL)が表示領域11上での座標
系である。そこで、上記のように、再生フレーム401
での各画素集合402が表示領域11での座標系
(XW,YW,ZW)で位置付けられると、次の演算 XW=a11XL+a12YL+a13ZL YW=a21XL+a22YL+a23ZL ……(1) ZW=a31XL+a32YL+a33ZL により、各画素集合の位置が3次元空間の基準座標系で
表わされることになる。FIG. 6C shows the coordinate transformation, where (X W , Y W , Z W ) is a reference coordinate system in a three-dimensional space, and (X L , Y L , Z L). ) Is a coordinate system on the display area 11. Therefore, as described above, the reproduction frame 401
Coordinate system in each pixel group 402 is a display area 11 in the (X W, Y W, Z W) when positioned in the next calculation X W = a 11 X L + a 12 Y L + a 13 Z L Y W = by a 21 X L + a 22 Y L + a 23 Z L ...... (1) Z W = a 31 X L + a 32 Y L + a 33 Z L, the position of each pixel group is represented in the reference coordinate system of the three-dimensional space Will be.
【0043】ここで、入力手段3(図1)のデータ入力に
よって3次元空間内での表示領域11や視点の移動があ
ったとき、視点からのこの表示領域11の見え方が変わ
ることになる。このことは、表示領域11上での座標系
(XL,YL,ZL)が3次元空間での基準座標系(XW,
YW,ZW)内で移動したり、回転したり、その両方が行
なわれたりすることになるのであるが、これは、上記式
(1)での変換係数a11〜a13,a21〜a23,a31〜a33
が変化することに相当するものである。従って、このよ
うに3次元空間内での表示領域11や視点の移動があっ
ても、上記のように、表示領域11上の座標系(XL,
YL,ZL)での各画素集合402の座標位置が保存され
ているので、簡単に各画素集合402の3次元空間の基
準座標系(XW,YW,ZW)での座標位置を求めることが
できる。Here, when the display area 11 and the viewpoint in the three-dimensional space are moved by the data input of the input means 3 (FIG. 1), the appearance of the display area 11 from the viewpoint changes. . This means that the coordinate system on the display area 11
(X L, Y L, Z L) the reference coordinate system in three-dimensional space (X W,
Y W , Z W ), move, rotate, or both, according to the above equation.
Conversion coefficients a 11 to a 13 , a 21 to a 23 , and a 31 to a 33 in (1)
Changes. Therefore, even if the display area 11 and the viewpoint move in the three-dimensional space in this manner, as described above, the coordinate system ( XL ,
Since the coordinate position of each pixel set 402 in Y L , Z L ) is stored, the coordinate position of each pixel set 402 in the reference coordinate system (X W , Y W , Z W ) in the three-dimensional space can be easily obtained. Can be requested.
【0044】図7は画素集合の不可視フラグ及び奥行き
値を格納する奥行き情報バッファのデータ構造を示す図
である。FIG. 7 is a diagram showing a data structure of a depth information buffer for storing an invisible flag and a depth value of a pixel set.
【0045】同図において、奥行き情報バッファ4aは
メモリ4(図1)に設けられており、画素集合402毎に
不可視フラグと奥行き値を持つ構造となっている。図5
のステップ502で夫々の画素集合402の奥行き値が
計算されると、これら奥行き値は順次奥行き情報バッフ
ァ4aに格納されるが、この格納場所のアドレスが、同
様にメモリ4に設けられているポインタバッファ4bに
格納される。In the figure, a depth information buffer 4a is provided in the memory 4 (FIG. 1) and has a structure having an invisible flag and a depth value for each pixel set 402. FIG.
When the depth values of the respective pixel sets 402 are calculated in step 502, the depth values are sequentially stored in the depth information buffer 4a. The data is stored in the buffer 4b.
【0046】ポインタバッファ4bは、視野画面(図1
でのディスプレイ7の表示画面9)の画素数と同じ個数
の要素(区分された枠で示す)を有しており、夫々の要
素は視野画面上の各画素に一対一に対応している。The pointer buffer 4b stores a view screen (FIG. 1).
Has the same number of elements (indicated by the divided frames) as the number of pixels of the display screen 9) of the display 7, and each element corresponds one-to-one to each pixel on the visual field screen.
【0047】ここでは、表示領域11での画素集合は視
野画面で1つの画素に相当するものである。即ち、伸張
された動画データを視野画面、即ち、ディスプレイ7の
表示画面9での表示領域11に表示するときには、この
動画データの画素集合402毎に1画素ずつ表示される
ことになる。この画素集合402毎の表示される画素と
しては、その画素集合402での中心画素などの上記特
定された画素とする。従って、例えば、画像圧縮方式を
MPEG方式とし、画素集合402を16×16画素の1マ
クロブロックとすると、表示領域11に表示される動画
の画素数は、もとの画素数の1/(16×16)となる。Here, a set of pixels in the display area 11 corresponds to one pixel on the visual field screen. That is, when the expanded moving image data is displayed on the visual field screen, that is, the display area 11 on the display screen 9 of the display 7, one pixel is displayed for each pixel group 402 of the moving image data. The pixel to be displayed for each pixel set 402 is the specified pixel such as the center pixel in the pixel set 402. Therefore, for example, the image compression method
Assuming that the MPEG system is used and the pixel set 402 is one macroblock of 16 × 16 pixels, the number of pixels of the moving image displayed in the display area 11 is 1 / (16 × 16) of the original number of pixels.
【0048】いま、不可視フラグや奥行き値が奥行き情
報バッファ4aに格納された任意の画素集合402を画
素集合(i,j)として、奥行き情報バッファ4aでの
この画素集合(i,j)のこれら情報が格納されたアド
レスをAijとすると、このアドレスAijは、ポインタバ
ッファ4bにおいて、この画素集合(i,j)の視野画面
上での位置に対応する要素に書き込まれる。Now, an arbitrary pixel set 402 in which the invisible flag and the depth value are stored in the depth information buffer 4a is defined as a pixel set (i, j), and these pixel sets (i, j) in the depth information buffer 4a are Assuming that the address where the information is stored is A ij , the address A ij is written in the pointer buffer 4b to an element corresponding to the position of this pixel set (i, j) on the visual field screen.
【0049】奥行き情報バッファ4aは、3次元空間内
の視点毎に同じ空間内に存在する動画データの表示領域
11毎に設けられ、これに対応して、ポインタバッファ
4bも、夫々の表示領域11毎に設けられている。即
ち、ポインタバッファ4bの各要素は、アドレスを持た
ないポインタ(以下、nullポインタという)によっ
て初期化されており、視点が移動する毎に、異なる奥行
き情報バッファ4aとポインタバッファ4bとが使用さ
れることになる。A depth information buffer 4a is provided for each display area 11 of moving image data existing in the same space for each viewpoint in the three-dimensional space, and correspondingly, the pointer buffer 4b is also provided in each display area 11a. It is provided for each. That is, each element of the pointer buffer 4b is initialized by a pointer having no address (hereinafter, referred to as a null pointer), and a different depth information buffer 4a and a different pointer buffer 4b are used every time the viewpoint moves. Will be.
【0050】図5のステップ502で動画データの各画
素集合402の奥行き値が計算されて、夫々の奥行き値
が奥行き情報バッファ4aに格納され、その格納アドレ
スがポインタバッファ4bに格納されると、ポインタバ
ッファ4bでの表示領域11に相当する範囲内での要素
にかかるアドレスが書き込まれていることになる。At step 502 in FIG. 5, the depth value of each pixel set 402 of the moving image data is calculated, and each depth value is stored in the depth information buffer 4a. When the storage address is stored in the pointer buffer 4b, This means that the addresses of the elements within the range corresponding to the display area 11 in the pointer buffer 4b have been written.
【0051】そこで、図5のステップ503では、この
ポインタバッファ4bの表示領域11に相当する範囲内
での要素からアドレスを読み出し、さらに、このこのア
ドレスに対応する奥行き情報バッファ4aの格納場所か
ら奥行き値を読み出して、この要素に相当する位置にあ
る3次元オブジェクトのポリゴンの奥行き値とを比較
し、このときの画素集合402が3次元オブジェクトに
対して不可視状態になるかどうかを判定する。この判定
の結果、不可視状態になるものであるならば、図5のス
テップ504において、奥行き情報バッファ4aでのこ
の画素集合402に対応する格納場所に不可視フラグを
1に設定するのである。Therefore, in step 503 of FIG. 5, an address is read from an element within a range corresponding to the display area 11 of the pointer buffer 4b, and a depth is stored from a storage location of the depth information buffer 4a corresponding to this address. The value is read and compared with the depth value of the polygon of the three-dimensional object at the position corresponding to this element, and it is determined whether or not the pixel set 402 at this time is invisible to the three-dimensional object. If the result of this determination is that the invisible state is set, the invisible flag is set to 1 at the storage location corresponding to this pixel set 402 in the depth information buffer 4a in step 504 of FIG.
【0052】図8は図5におけるステップ502(奥行
き情報の計算処理),ステップ503(奥行き情報の比
較処理)及びステップ505の処理手順の一具体例を示
すフローチャートである。FIG. 8 is a flowchart showing one specific example of the processing procedure of step 502 (depth information calculation processing), step 503 (depth information comparison processing) and step 505 in FIG.
【0053】図7及び図8において、ステップ502
(奥行き情報の計算処理)では、圧縮動画データの画素
集合402毎に奥行き情報を計算して(ステップ80
1)、奥行き情報バッファ4aにその値を書き込む(ス
テップ802)とともに、不可視フラグを0に設定し
(ステップ803)、その奥行き情報が格納されている
場所のアドレスをこの画素集合402の視野画面上での
位置に対応しているポインタバッファ4bの要素に書き
込む(ステップ804)。In FIG. 7 and FIG.
In the (depth information calculation process), depth information is calculated for each pixel set 402 of the compressed moving image data (step 80).
1), the value is written to the depth information buffer 4a (step 802), the invisible flag is set to 0 (step 803), and the address of the location where the depth information is stored is set on the view screen of the pixel set 402. Is written to the element of the pointer buffer 4b corresponding to the position of (4) (step 804).
【0054】ここで、画素集合402の視野画面上での
位置については、複数の表示領域11を設定した場合の
他の圧縮動画データの画素集合も含め、複数の画素集合
が同じ位置となる場合もあり得る。このような場合に
は、既にポインタバッファ4bの同じ要素に書き込まれ
ているアドレスの画素集合の奥行き値と新たに書き込も
うとする画素集合の奥行き値とを比較し、新たに書き込
もうとする画素集合の奥行き値の方が小さい場合、即
ち、視点側にある場合のみ、ポインタバッファ4b中の
対応する要素を書き換える。Here, regarding the position of the pixel set 402 on the visual field screen, a case where a plurality of pixel sets are at the same position, including a pixel set of another compressed moving image data when a plurality of display areas 11 are set. It is possible. In such a case, the depth value of the pixel set at the address already written in the same element of the pointer buffer 4b is compared with the depth value of the pixel set to be newly written, and the pixel set to be newly written is compared. Only when the depth value is smaller, that is, when the depth value is on the viewpoint side, the corresponding element in the pointer buffer 4b is rewritten.
【0055】次のステッブ503(奥行き情報の比較処
理)では、まず、3次元オブジェクトの視点からの奥行
き値を計算し(ステップ805)、視野画面上でその3次
元オブジェクトが画素集合と重なるか否かを、ポインタ
バッファ4b中の対応する要素がNullポインタか否
かで判定する(ステップ806)。Nullポインタでな
い場合には、重なっている画素集合の奥行き値を奥行き
情報バッファ4aから取得し(ステップ807)、この画
素集合の奥行き値とステップ805で計算した3次元オ
ブジェクトの奥行き値とを比較する(ステップ808)。
視野画面上で3次元オブジェクトと重なる画素集合の奥
行き値は、ポインタバッファ4bに格納されているポイ
ンタが指す奥行き情報バッファ4aの格納場所から取得
できる。In the next step 503 (depth information comparison processing), first, a depth value from the viewpoint of the three-dimensional object is calculated (step 805), and whether or not the three-dimensional object overlaps the pixel set on the visual field screen is determined. It is determined whether the corresponding element in the pointer buffer 4b is a null pointer (step 806). If the pointer is not a null pointer, the depth value of the overlapping pixel set is obtained from the depth information buffer 4a (step 807), and the depth value of this pixel set is compared with the depth value of the three-dimensional object calculated in step 805. (Step 808).
The depth value of the pixel set overlapping the three-dimensional object on the visual field screen can be obtained from the storage location of the depth information buffer 4a pointed to by the pointer stored in the pointer buffer 4b.
【0056】ステップ808の処理結果に基づいて、画
素集合402の奥行き値のほうが大きい場合、即ち、こ
の画素集合402が視点から見て遠くにある場合、その
画素集合402は不可視であると判定し、不可視フラグ
を1に設定する(ステップ504)。Based on the processing result of step 808, if the depth value of the pixel set 402 is larger, that is, if this pixel set 402 is far from the viewpoint, it is determined that the pixel set 402 is invisible. , The invisible flag is set to 1 (step 504).
【0057】次のステップ505では、3次元空間内の
全ての3次元オブジェクトについて奥行き情報の比較処
理503が行なわれたか否かを判定し(ステップ81
0)、まだ比較が行なわれていない3次元オブジェクト
が存在する場合には、その3次元オブジェクトに対して
ステップ805からの処理を繰り返す。全ての3次元オ
ブジェクトとの比較が完了している場合には、ポインタ
バッファ4bの各要素にNullポインタを代入し、ポ
インタバッファ4bをクリアする(ステップ811)。In the next step 505, it is determined whether or not the depth information comparison processing 503 has been performed for all three-dimensional objects in the three-dimensional space (step 81).
0) If there is a three-dimensional object that has not been compared yet, the processing from step 805 is repeated for the three-dimensional object. If the comparison with all the three-dimensional objects has been completed, the Null pointer is assigned to each element of the pointer buffer 4b, and the pointer buffer 4b is cleared (step 811).
【0058】以上のステップ801〜811の処理は、
再生フレーム毎、または、視点の移動毎に行なわれるこ
とになる。The processing in steps 801 to 811 is as follows.
This is performed for each playback frame or each time the viewpoint is moved.
【0059】図9は図3での動画伸張手段15の処理手
順を示すフローチャートである。動画伸張処理は、図4
(b)に示す圧縮画像データ404の画素集合402毎
に、その配列順に行なわれる。FIG. 9 is a flow chart showing the processing procedure of the moving picture expansion means 15 in FIG. The video decompression process is shown in FIG.
This is performed for each pixel set 402 of the compressed image data 404 shown in FIG.
【0060】図9において、いま、動画伸張処理する画
素集合402を画素集合(i,j)とし、また、この画素
集合(i,j)に対する不可視フラグを不可視フラグ(i,
j)として、まず、不可視判定手段14(図3)で設定さ
れた奥行き情報バッファ4aから、この画素集合(i,
j)が不可視であるか否かを示す不可視フラグ(i,j)
を取得する(ステップ901)。1つの動画データに対
し、不可視フラグ(i,j)は視点毎にその動画データの
表示領域の数だけ存在する。そして、この画素集合(i,
j)の全ての不可視フラグ(i,j)と“1”との比較を
行ない(ステップ902)、全ての不可視フラグ(i,
j)が1である場合には、この画素集合(i,j)は不可
視であると判定する。かかる画素集合(i,j)に対して
は伸張処理をスキップし(即ち、行なわず)、圧縮動画
データ404上でのこの画素集合(i,j)の次に位置し
ている画素集合402について、ステップ901からの
同じ動画伸張処理を繰り返す。In FIG. 9, the pixel set 402 to be subjected to moving image decompression processing is referred to as a pixel set (i, j), and the invisible flag for this pixel set (i, j) is set to the invisible flag (i, j).
j), first, from the depth information buffer 4a set by the invisibility determining means 14 (FIG. 3), this pixel set (i,
an invisible flag (i, j) indicating whether or not j) is invisible
Is acquired (step 901). For one piece of moving image data, invisible flags (i, j) exist for each viewpoint in the number of display areas of the moving image data. Then, this pixel set (i,
All invisible flags (i, j) of j) are compared with “1” (step 902), and all invisible flags (i, j) are compared.
If j) is 1, it is determined that this pixel set (i, j) is invisible. The decompression process is skipped (that is, not performed) for the pixel set (i, j), and the pixel set 402 located next to the pixel set (i, j) on the compressed moving image data 404 is extracted. The same moving image decompression process from step 901 is repeated.
【0061】但し、各画素集合402が可変長符号化さ
れていて、それらのデータの大きさが不明である場合に
は、圧縮動画データ404上の上記の画素集合(i,j)
の次に位置している画素集合402を取得するため、画
素集合(i,j)を固定長のデータに復号する処理が必要
となる。However, if each pixel set 402 is variable-length coded and the size of the data is unknown, the above pixel set (i, j) on the compressed moving image data 404
In order to acquire the pixel set 402 located next to, a process of decoding the pixel set (i, j) into fixed-length data is required.
【0062】また、少なくとも1つの不可視フラグ(i,
j)が0である場合には、この画素集合 (i,j) は可
視であると判定され、圧縮動画データ404のこの画素
集合(i,j)に対応する部分でステップ903の伸張処
理が行なわれる。Further, at least one invisible flag (i,
If j) is 0, it is determined that this pixel set (i, j) is visible, and the decompression processing of step 903 is performed on the portion of the compressed moving image data 404 corresponding to this pixel set (i, j). Done.
【0063】圧縮動画データ404の伸張処理は、圧縮
の際に行なわれた処理とは逆の処理を行なうことで実現
される。例えば、離散コサイン変換及び量子化によって
圧縮された動画データは逆量子化及び逆離散コサイン変
換によって伸張できる。The decompression process of the compressed moving image data 404 is realized by performing a process reverse to the process performed at the time of compression. For example, video data compressed by discrete cosine transform and quantization can be expanded by inverse quantization and inverse discrete cosine transform.
【0064】なお、動画伸張手段15では、各再生フレ
ーム401が互いに独立して圧縮されていることを前提
としているが、各再生フレーム401が互いに依存し合
っているような場合には、他の再生フレーム401から
参照されている再生フレーム401を、可視,不可視に
かかわらず、全て伸張し、他の再生フレーム401を参
照している再生フレーム401のみ、不可視判定手段3
01の処理結果を用いて、伸張処理を行なうという構成
も可能である。The moving image decompression means 15 assumes that each playback frame 401 is compressed independently of each other. However, if the playback frames 401 depend on each other, the other The reproduction frame 401 referred to from the reproduction frame 401 is all expanded regardless of whether it is visible or invisible, and only the reproduction frame 401 which refers to another reproduction frame 401 is invisible.
A configuration is also possible in which the decompression process is performed using the processing result of No. 01.
【0065】図10は図1でのディスプレイ7での再生
画面の一具体例を示す図であって、11aは3次元空間
内に指定された動画データの表示領域の不可視領域、1
7は操作パネルであり、図1に対応する部分には同一符
号を付けている。FIG. 10 is a diagram showing a specific example of a playback screen on the display 7 in FIG. 1. Reference numeral 11a denotes an invisible area of a display area of moving image data designated in a three-dimensional space.
Reference numeral 7 denotes an operation panel, and portions corresponding to those in FIG.
【0066】同図において、操作パネル17は図1での
入力手段3の一部を構成しており、3次元描画処理手段
5(図1)の処理の開始,終了や、3次元空間内の視点
の移動、視野範囲及び光源位置の設定、3次元空間内の
動画データの表示領域の指定などのためのデータ入力を
インタラクティブに行なうためのものである。動画デー
タの表示領域11中の不可視領域17は、視点からみて
3次元オブジェクト10に遮られる部分であって、視点
や表示領域11,3次元オブジェクト10の移動に伴っ
て変わるが、この不可視領域17の伸張は、不可視判定
手段301と動画伸張手段15とにより、常にスキップ
される。In the figure, an operation panel 17 constitutes a part of the input means 3 shown in FIG. 1, and starts and ends the processing of the three-dimensional drawing processing means 5 (FIG. 1), and operates in the three-dimensional space. This is for interactively inputting data for moving a viewpoint, setting a visual field range and a light source position, specifying a display area of moving image data in a three-dimensional space, and the like. The invisible area 17 in the display area 11 of the moving image data is a part that is blocked by the three-dimensional object 10 from the viewpoint, and changes with the movement of the viewpoint, the display area 11, and the three-dimensional object 10. Is always skipped by the invisibility determining unit 301 and the moving image expanding unit 15.
【0067】以上のように、この実施形態では、視野画
面上で可視となる部分についてのみ圧縮動画データの伸
張及び再生を行なうものであるから、3次元動画再生装
置に掛る伸張や再生時の負荷を軽減し、処理能力の限ら
れた装置でも、効率良く短時間で3次元動画表示の処理
が可能となるし、圧縮動画データを全て伸張処理する従
来の3次元動画再生装置に比べて、無駄な処理をなくし
て処理能力も小さくでき、また、CPU8(図1)が3
次元動画表示処理以外の他の処理に兼用する場合でも、
この3次元動画表示処理に対する占有率を低くすること
ができ、この他の処理も効果的に実行することを可能に
する。As described above, in this embodiment, expansion and reproduction of compressed moving image data are performed only for a portion that is visible on the visual field screen. This makes it possible to efficiently process 3D moving images in a short time even with a device having a limited processing capability, and is more wasteful than a conventional 3D moving image reproducing device that expands all compressed moving image data. Processing capacity can be reduced by eliminating unnecessary processing, and the CPU 8 (FIG. 1)
Even when shared with other processing other than the two-dimensional moving image display processing,
The occupancy of the three-dimensional moving image display process can be reduced, and other processes can be executed effectively.
【0068】[0068]
【発明の効果】以上説明したように、本発明によれば、
動画データの再生時の負荷を軽減することができるた
め、リアルタイム性を損なわずに動画データの画質の向
上が可能となるし、再生できる動画データの数を増やす
ことが可能となる。また、再生する動画データの画質や
数が同じである場合には、要求される処理能力を小さく
することができ、少ないコストで3次元動画再生を実現
できる。As described above, according to the present invention,
Since the load at the time of reproducing the moving image data can be reduced, the image quality of the moving image data can be improved without deteriorating the real-time property, and the number of reproducible moving image data can be increased. Further, when the image quality and the number of the moving image data to be reproduced are the same, the required processing capacity can be reduced, and the three-dimensional moving image reproduction can be realized at a low cost.
【図1】本発明による3次元動画再生装置及び方式の一
実施形態を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of a three-dimensional moving picture reproducing apparatus and method according to the present invention.
【図2】図1における3次元描画処理手段の一具体例を
示すブロック図である。FIG. 2 is a block diagram showing a specific example of a three-dimensional drawing processing unit in FIG.
【図3】図2におけるレンダリング手段の一具体例を示
すブロック図である。FIG. 3 is a block diagram illustrating a specific example of a rendering unit in FIG. 2;
【図4】図3での記憶手段に記憶されている圧縮動画デ
ータのデータ構造を示す図である。FIG. 4 is a diagram showing a data structure of compressed moving image data stored in a storage unit in FIG. 3;
【図5】図3における不可視判定手段の処理手順を示す
フローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of an invisible determining unit in FIG. 3;
【図6】図5におけるステップ501の処理による座標
変換過程を示す図である。FIG. 6 is a diagram showing a coordinate conversion process by a process of step 501 in FIG. 5;
【図7】不可視フラグ及び奥行き値を格納する奥行き情
報バッファのデータ構造を示す図である。FIG. 7 is a diagram illustrating a data structure of a depth information buffer that stores an invisible flag and a depth value.
【図8】図5におけるステップ502,503及び50
5の一具体例を示すフローチャートである。FIG. 8 shows steps 502, 503 and 50 in FIG.
9 is a flowchart showing a specific example of the fifth embodiment.
【図9】図3における動画処理手段の処理手順を示すフ
ローチャートである。FIG. 9 is a flowchart illustrating a processing procedure of a moving image processing unit in FIG. 3;
【図10】図1におけるディスプレイでの再生画面の一
具体例を示す図である。FIG. 10 is a diagram showing a specific example of a playback screen on the display in FIG. 1;
1,2 記憶手段 3 入力手段 4 メモリ 5 3次元描画処理手段 6 ディスプレイ駆動手段 7 ディスプレイ 8 CPU 9 表示画面(視野画面) 10 3次元オブジェクト 11 動画データの表示領域 11a 不可視領域 12 ジオメトリ計算手段 13 レンダリング手段 14 不可視判定手段 15 動画伸張手段 16 マッピング手段 1, storage means 3 input means 4 memory 5 three-dimensional drawing processing means 6 display driving means 7 display 8 CPU 9 display screen (view field screen) 10 three-dimensional object 11 display area of video data 11a invisible area 12 geometry calculation means 13 rendering Means 14 Invisible judgment means 15 Moving picture expansion means 16 Mapping means
Claims (16)
ライティング計算などを行なうジオメトリ計算手段と、
該ジオメトリ計算手段で作成されたデータを2次元の表
示データに変換するレンダリング手段とからなり、1つ
または複数の圧縮された動画データを該3次元オブジェ
クトの表面など3次元空間内の1つまたは複数の指定し
た表示領域に配置して表示する3次元動画再生装置にお
いて、 動画データの表示領域の不可視部分を判定する不可視判
定手段と、 該不可視判定手段の判定結果に応じて圧縮動画データの
可視部分のみ伸張処理を行なう動画伸張手段とを備える
ことを特徴とする3次元動画再生装置。1. Geometry calculation means for performing coordinate conversion, lighting calculation, and the like of three-dimensional object data,
Rendering means for converting the data created by the geometry calculation means into two-dimensional display data, and converting one or more compressed moving image data into one or three-dimensional space such as the surface of the three-dimensional object. In a three-dimensional moving image reproducing apparatus arranged and displayed in a plurality of designated display areas, an invisible judging means for judging an invisible part of a display area of moving image data; A three-dimensional moving image reproducing apparatus, comprising: moving image decompressing means for decompressing only a part.
いて、 前記動画伸張手段は任意のサイズ(高さ,幅)の圧縮動
画データを伸張可能であることを特徴とする3次元動画
再生装置。2. The three-dimensional moving image reproducing apparatus according to claim 1, wherein said moving image decompressing means is capable of decompressing compressed moving image data of any size (height, width). .
いて、 前記動画伸張手段は画素集合毎に圧縮・構築された圧縮
動画データを伸張可能であることを特徴とする3次元動
画再生装置。3. The three-dimensional moving image reproducing apparatus according to claim 1, wherein said moving image decompressing means is capable of decompressing compressed moving image data compressed and constructed for each pixel set.
いて、 前記不可視判定手段は、不可視部分の判定を画素集合単
位で行ない、該画素集合の伸張及び再生表示を行なうか
否かの決定が可能であることを特徴とする3次元動画再
生装置。4. The three-dimensional moving image reproducing apparatus according to claim 1, wherein the invisible judging means judges an invisible part for each pixel set, and determines whether or not to perform expansion and reproduction display of the pixel set. A three-dimensional moving image reproducing apparatus characterized in that it is possible.
いて、 前記不可視判定手段は、動画データの画素集合の視点か
らの奥行き情報と3次元オブジェクトの視点からの奥行
き情報とを比較することにより、該画素集合が不可視で
あるか否かの判定が可能であることを特徴とする3次元
動画再生装置。5. The three-dimensional moving image reproducing apparatus according to claim 4, wherein the invisibility determining means compares depth information from a viewpoint of a pixel set of the moving image data with depth information from a viewpoint of the three-dimensional object. A three-dimensional moving image reproducing apparatus capable of determining whether or not the pixel set is invisible.
いて、 前記不可視判定手段は、画素集合の視点からの奥行き情
報として画素集合の中心座標の視点からの奥行き値を用
いることにより、該画素集合が不可視であるか否かの判
定が可能であることを特徴とする3次元動画再生装置。6. The three-dimensional moving image reproducing apparatus according to claim 5, wherein the invisibility determining means uses the depth value from the viewpoint of the central coordinates of the pixel set as the depth information from the viewpoint of the pixel set. A three-dimensional moving image reproducing apparatus capable of determining whether a set is invisible or not.
いて、 前記不可視判定手段は、画素集合の座標を動画データの
表示領域からの相対座標として保持しておき、前記表示
領域の移動あるいは視点の移動に対応して画素集合の絶
対座標を再計算し、奥行き値を取得することにより、該
画素集合が不可視であるか否かの判定が可能であること
を特徴とする3次元動画再生装置。7. The three-dimensional moving image reproducing apparatus according to claim 6, wherein the invisible judging unit holds coordinates of a pixel set as relative coordinates from a display area of the moving image data, and moves or moves the display area. 3D moving image reproducing apparatus characterized in that it is possible to determine whether or not the pixel set is invisible by recalculating the absolute coordinates of the pixel set and acquiring the depth value in response to the movement of .
いて、 前記不可視判定手段は、前記3次元空間内の視点からの
奥行き情報を格納できる奥行き情報バッファを視点毎に
動画データの表示領域の数だけ備え、動画データの各画
素集合の奥行き情報を該奥行き情報バッファに格納する
ことにより、奥行き情報の比較が可能であることを特徴
とする3次元動画再生装置。8. The three-dimensional moving image reproducing apparatus according to claim 7, wherein the invisibility judging means includes a depth information buffer capable of storing depth information from a viewpoint in the three-dimensional space for each of the viewpoints. A three-dimensional moving image reproducing apparatus comprising a plurality of moving image data and storing depth information of each pixel set of the moving image data in the depth information buffer, so that the depth information can be compared.
ライティング計算などを行なうジオメトリ計算手段と、
該ジオメトリ計算手段で作成されたデータを2次元の表
示データに変換するレンダリング手段とからなり、1つ
または複数の動画データを該3次元オブジェクトの表面
など3次元空間内の1つまたは複数の指定した表示領域
に配置して表示する3次元動画再生方式において、 動画データの表示領域の不可視部分を判定し、 その判定結果に応じて圧縮動画データの可視部分のみ伸
張を行なうことを特徴とする3次元動画再生方式。9. A geometry calculation means for performing coordinate conversion, lighting calculation, and the like of three-dimensional object data,
Rendering means for converting the data created by the geometry calculation means into two-dimensional display data; and converting one or more moving image data into one or more designations in a three-dimensional space such as the surface of the three-dimensional object. In the three-dimensional moving image reproducing method of displaying and arranging in the displayed display area, an invisible part of the display area of the moving image data is determined, and only the visible part of the compressed moving image data is expanded according to the determination result. Dimensional video playback system.
おいて、 任意のサイズ(高さ,幅)の圧縮動画データを伸張可能
であることを特徴とする3次元動画再生方式。10. The three-dimensional moving image reproducing method according to claim 9, wherein compressed moving image data of an arbitrary size (height, width) can be expanded.
おいて、 画素集合毎に圧縮・構築された圧縮動画データを伸張可
能であることを特徴とする3次元動画再生方式。11. The three-dimensional moving image reproducing method according to claim 9, wherein compressed moving image data compressed and constructed for each pixel set can be expanded.
おいて、 不可視部分の判定を画素集合単位で行ない、該画素集合
の伸張及び再生表示を行なうか否かの決定が可能である
ことを特徴とする3次元動画再生方式。12. The three-dimensional moving image reproducing method according to claim 9, wherein the determination of the invisible portion is performed in units of a pixel set, and it is possible to determine whether to expand and display the pixel set. 3D moving image playback method.
において、 動画データの画素集合の視点からの奥行き情報と3次元
オブジェクトの視点からの奥行き情報とを比較すること
により、該画素集合が不可視であるか否かの判定が可能
であることを特徴とする3次元動画再生方式。13. The three-dimensional moving image reproduction method according to claim 12, wherein the pixel set is invisible by comparing depth information from the viewpoint of the pixel set of the moving image data with depth information from the viewpoint of the three-dimensional object. A three-dimensional moving image reproducing method, wherein it is possible to determine whether or not the moving image is
において、 画素集合の視点からの奥行き情報として画素集合の中心
座標の視点からの奥行き値を用いることにより、該画素
集合が不可視であるか否かの判定が可能であることを特
徴とする3次元動画再生方式。14. The three-dimensional video playback system according to claim 13, wherein the depth value from the viewpoint of the center coordinates of the pixel set is used as the depth information from the viewpoint of the pixel set to determine whether the pixel set is invisible. A three-dimensional moving image reproducing method, characterized in that it is possible to determine whether or not the moving image is reproduced.
において、 画素集合の座標を動画データの表示領域からの相対座標
として保持しておき、前記表示領域の移動あるいは視点
の移動に対応して画素集合の絶対座標を再計算し、奥行
き値を取得することにより、該画素集合が不可視である
か否かの判定が可能であることを特徴とする3次元動画
再生方式。15. The three-dimensional moving image reproducing method according to claim 14, wherein the coordinates of the pixel set are held as relative coordinates from a display area of the moving image data, and the coordinates of the pixel set correspond to the movement of the display area or the movement of the viewpoint. A three-dimensional moving image reproduction method, wherein it is possible to determine whether or not the pixel set is invisible by recalculating the absolute coordinates of the pixel set and obtaining a depth value.
において、 前記3次元空間内の視点からの奥行き情報を格納できる
奥行き情報バッファを視点毎に動画データの表示領域の
数だけ備え、動画データの各画素集合の奥行き情報を該
奥行き情報バッファに格納することにより、奥行き情報
の比較が可能であることを特徴とする3次元動画再生方
式。16. The three-dimensional moving image reproduction method according to claim 15, wherein the depth information buffers capable of storing depth information from the viewpoints in the three-dimensional space are provided for each viewpoint in the number of display areas of the moving image data. A depth information of each pixel set is stored in the depth information buffer so that the depth information can be compared.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10029967A JPH11232486A (en) | 1998-02-12 | 1998-02-12 | 3D video playback device and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10029967A JPH11232486A (en) | 1998-02-12 | 1998-02-12 | 3D video playback device and method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11232486A true JPH11232486A (en) | 1999-08-27 |
Family
ID=12290750
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10029967A Pending JPH11232486A (en) | 1998-02-12 | 1998-02-12 | 3D video playback device and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH11232486A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011508498A (en) * | 2007-12-20 | 2011-03-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image encoding method for stereoscopic rendering |
| CN102759770A (en) * | 2012-07-04 | 2012-10-31 | 天马微电子股份有限公司 | Polaroid and three-dimensional display with same |
| CN111047656A (en) * | 2019-11-18 | 2020-04-21 | 中国航空工业集团公司西安航空计算技术研究所 | Dynamic reference point depth offset Z value compression algorithm |
| CN111583365A (en) * | 2020-04-24 | 2020-08-25 | 完美世界(北京)软件科技发展有限公司 | Animation element display processing method and device, storage medium and terminal |
-
1998
- 1998-02-12 JP JP10029967A patent/JPH11232486A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011508498A (en) * | 2007-12-20 | 2011-03-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image encoding method for stereoscopic rendering |
| CN102759770A (en) * | 2012-07-04 | 2012-10-31 | 天马微电子股份有限公司 | Polaroid and three-dimensional display with same |
| CN111047656A (en) * | 2019-11-18 | 2020-04-21 | 中国航空工业集团公司西安航空计算技术研究所 | Dynamic reference point depth offset Z value compression algorithm |
| CN111583365A (en) * | 2020-04-24 | 2020-08-25 | 完美世界(北京)软件科技发展有限公司 | Animation element display processing method and device, storage medium and terminal |
| CN111583365B (en) * | 2020-04-24 | 2023-09-19 | 完美世界(北京)软件科技发展有限公司 | Processing method and device for animation element display, storage medium and terminal |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6028584A (en) | Real-time player for panoramic imaged-based virtual worlds | |
| KR100411534B1 (en) | Video data generation method, generation device and generation circuit, and game playback device | |
| KR100609614B1 (en) | Method and apparatus for transmitting picture data, processing pictures and recording medium therefor | |
| US5784070A (en) | Method and apparatus for producing a polygonal image representation through operation of plotting commands on image data | |
| JP3492761B2 (en) | Image generation method and apparatus | |
| US5917504A (en) | Image processing apparatus, switching between images having pixels of first and second numbers of bits | |
| JP3514947B2 (en) | Three-dimensional image processing apparatus and three-dimensional image processing method | |
| JPH08161525A (en) | Image information generating method, image information processing apparatus, and recording medium | |
| JPH09212680A (en) | Drawing device and drawing method | |
| JP2014064142A (en) | Moving image compression device, image processing device, moving image compression method, image processing method, and data structure of moving image compression file | |
| JPH11506846A (en) | Method and apparatus for efficient digital modeling and texture mapping | |
| JP2002140722A (en) | Apparatus and method for drawing an image from which aliasing has been removed | |
| US5892518A (en) | Image generating apparatus with pixel calculation circuit including texture mapping and motion compensation | |
| US6392643B1 (en) | Image generation apparatus | |
| JPH11232486A (en) | 3D video playback device and method | |
| US6424344B1 (en) | Apparatus for providing a visual navigation interface | |
| KR0166106B1 (en) | Apparatus and method for image processing | |
| JP3287977B2 (en) | Motion vector detecting method and apparatus and moving picture coding method and apparatus | |
| JP3910259B2 (en) | Image processing apparatus and method, and rendering apparatus and method | |
| KR100330740B1 (en) | Image processing method | |
| JP3022334B2 (en) | Image generation device, moving image decompression mapping device, and multimedia device | |
| JP4806578B2 (en) | Program, information storage medium, and image generation system | |
| JPH06301792A (en) | Texture mapping device | |
| JP3712139B2 (en) | Image creating apparatus and method | |
| JP3238567B2 (en) | Image generation method and apparatus |