[go: up one dir, main page]

JP2001148032A - Method and device for plotting image, recording medium and program - Google Patents

Method and device for plotting image, recording medium and program

Info

Publication number
JP2001148032A
JP2001148032A JP2000273266A JP2000273266A JP2001148032A JP 2001148032 A JP2001148032 A JP 2001148032A JP 2000273266 A JP2000273266 A JP 2000273266A JP 2000273266 A JP2000273266 A JP 2000273266A JP 2001148032 A JP2001148032 A JP 2001148032A
Authority
JP
Japan
Prior art keywords
viewpoint
background image
image
vertex
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000273266A
Other languages
Japanese (ja)
Other versions
JP3517637B2 (en
Inventor
Hajime Sugiyama
一 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2000273266A priority Critical patent/JP3517637B2/en
Publication of JP2001148032A publication Critical patent/JP2001148032A/en
Application granted granted Critical
Publication of JP3517637B2 publication Critical patent/JP3517637B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To make fast expressible a phenomenon (refraction phenomenon) at the time when light is transmitted through an object and is refracted, in a three-dimensional image and to simply and also make fast expressible a moving transparent object. SOLUTION: This device plots a face being farther from a viewpoint in turn, advances from the viewpoint to a background image 100, also finds a range (texture range 120) to be used) that is subjected to transparent transformation with a vector obtained by considering refraction at each of vertexes (a to d) constituting a corresponding face A1, performs texture mapping about the face A1 by using the texture. The device advances from the viewpoint to the image 100 about one surface A5, also finds a range (texture range 130 to be used) that is subjected to transparent transformation with a vector obtained by considering refraction at each of vertexes (a, b, g and h) constituting the surface A5 and performs texture mapping about the surface A5 by using the texture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば光が物体を
透過して屈折するときの現象(屈折現象)を3次元画像
で高速に表現する際に好適な画像描画方法及び画像描画
装置、前記画像処理を実現させることができるプログラ
ムやデータが記録された記録媒体、並びにプログラム自
体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image drawing method and an image drawing apparatus suitable for, for example, expressing a phenomenon (refraction phenomenon) when light passes through an object and is refracted by a three-dimensional image at a high speed. The present invention relates to a recording medium on which a program or data capable of realizing image processing is recorded, and the program itself.

【0002】[0002]

【従来の技術】近時、隠線処理、隠面消去処理、スムー
ズシェーディング、テクスチャマッピング等のコンピュ
ータグラフィックス(CG)処理が、ハードウエアの飛
躍的な発達と相俟って急速に進歩している。
2. Description of the Related Art Recently, computer graphics (CG) processing such as hidden line processing, hidden surface elimination processing, smooth shading, and texture mapping has been rapidly progressing in conjunction with rapid development of hardware. I have.

【0003】CG処理としては、一般に、CADの3次
元モデリングによって複数の3次元形状(オブジェク
ト)を作成し、これらのオブジェクトに対して色や陰影
をつけ、鏡面反射、拡散反射、屈折、透明感などの光学
的特性を付加し、表面模様をつけ、更に、まわりの状況
(窓や景色の映り込みや光の回り込み等)に応じて描画
するというレンダリング処理が行われる。
In the CG process, generally, a plurality of three-dimensional shapes (objects) are created by CAD three-dimensional modeling, and these objects are colored and shaded, and specular reflection, diffuse reflection, refraction, and transparency. Rendering processing is performed in which optical characteristics such as are added, a surface pattern is attached, and drawing is performed in accordance with surrounding conditions (reflection of windows and scenery, reflection of light, etc.).

【0004】[0004]

【発明が解決しようとする課題】ところで、例えば光が
物体を透過して屈折するときの表現を3次元画像で表す
場合、光学的な物理現象を再現することが考えられる。
この場合、視点から放たれた光線ベクトルの屈折は、光
線が物体内に進入したときと、物体から出たときに発生
する。
By the way, for example, when the expression when light is transmitted through an object and refracted is represented by a three-dimensional image, it is conceivable to reproduce an optical physical phenomenon.
In this case, the refraction of the ray vector emitted from the viewpoint occurs when the ray enters the object and when the ray exits the object.

【0005】上述の屈折現象を3次元画像で表現するに
は、ポリゴンを用いた方法よりもレイトレーシング法
(光線追跡法)を使用することが考えられる。
In order to express the above-mentioned refraction phenomenon by a three-dimensional image, it is conceivable to use a ray tracing method (ray tracing method) rather than a method using polygons.

【0006】このレイトレーシング法は、物体が置かれ
た空間内での光線の動きを探索し、光線と物体との交点
からその物体を描く方法である。換言すれば、視点に到
達する光の強度を物体の表面の反射や屈折を現実と同じ
ように再現させながら視点から逆向きにたどっていく方
法である。
The ray tracing method is a method of searching for the movement of a light beam in a space where an object is placed, and drawing the object from an intersection between the light beam and the object. In other words, it is a method in which the intensity of light reaching the viewpoint is traced in the opposite direction from the viewpoint while reproducing the reflection and refraction of the surface of the object in the same manner as in reality.

【0007】具体的な手法としては、視点を定めて画面
上の画素を通じて物体との交点を求め、交点がある場合
は、物体の反射や透過などその先の視線の行き先まで追
いかける。この交点に関する情報は、画面上の対応する
画素の情報として記憶される。つまり、画素毎に色相、
彩度、明度に関する固有色、反射、屈折、光沢やつやな
どに関する質感や素材感あるいは陰影などの情報が求め
られる。
As a specific method, an intersection with an object is determined through a pixel on a screen by determining a viewpoint, and if there is an intersection, the point of sight is tracked to the destination of the line of sight, such as reflection or transmission of the object. Information on the intersection is stored as information on a corresponding pixel on the screen. That is, the hue,
Information such as texture, texture, shading, and the like regarding intrinsic colors, reflection, refraction, gloss and gloss, etc. relating to saturation and lightness is required.

【0008】しかし、前記レイトレーシング法は、画素
毎に固有色、反射、屈折、陰影などの情報が存在するた
め、全体のデータ量は膨大なものとなり、演算時間も長
くなるという不都合がある。
However, in the ray tracing method, since information such as a unique color, reflection, refraction, and shading exists for each pixel, the entire data amount is enormous, and there is a disadvantage that the calculation time is long.

【0009】本発明はこのような課題を考慮してなされ
たものであり、例えば光が物体を透過して屈折するとき
の現象(屈折現象)を3次元画像で高速に表現すること
ができ、移動する透明物体を簡単にかつ高速に表現する
ことが可能な画像描画方法、画像描画装置、記録媒体及
びプログラムを提供することを目的とする。
The present invention has been made in view of such a problem, and for example, a phenomenon (refraction phenomenon) when light passes through an object and is refracted can be expressed at a high speed in a three-dimensional image. An object of the present invention is to provide an image drawing method, an image drawing device, a recording medium, and a program capable of easily and quickly expressing a moving transparent object.

【0010】[0010]

【課題を解決するための手段】本発明に係る画像描画方
法は、屈折が起こるオブジェクトを描画する際に、前記
オブジェクトを構成する面のうち、視点より遠い面から
描画を行い、各面の描画の際に、それぞれの面の背景画
像をテクスチャとして使用することを特徴とする。
According to the image drawing method of the present invention, when drawing an object where refraction occurs, drawing is performed from a surface of the object that is farther from the viewpoint, and the drawing of each surface is performed. In this case, the background image of each surface is used as a texture.

【0011】また、本発明に係る画像描画装置は、屈折
が起こるオブジェクトを描画する際に、前記オブジェク
トを構成する面のうち、視点より遠い面から描画を行
い、各面の描画の際に、それぞれの面の背景画像をテク
スチャとして使用する描画手段を有することを特徴とす
る。
Further, the image drawing apparatus according to the present invention, when drawing an object in which refraction occurs, performs drawing from a surface of the object that is farther from the viewpoint, and draws each surface. It is characterized by having drawing means for using a background image of each surface as a texture.

【0012】また、本発明に係る記録媒体は、屈折が起
こるオブジェクトを描画する際に、前記オブジェクトを
構成する面のうち、視点より遠い面から描画を行い、各
面の描画の際に、それぞれの面の背景画像をテクスチャ
として使用する描画ステップを含むプログラムやデータ
が記録されていることを特徴とする。
In the recording medium according to the present invention, when drawing an object in which refraction occurs, drawing is performed from a surface of the object that is farther from the viewpoint, and when drawing each surface, A program and data including a drawing step of using a background image of the surface as a texture are recorded.

【0013】また、本発明に係るプログラムは、コンピ
ュータにて読み取り、実行可能なプログラムにおいて、
屈折が起こるオブジェクトを描画する際に、前記オブジ
ェクトを構成する面のうち、視点より遠い面から描画を
行い、各面の描画の際に、それぞれの面の背景画像をテ
クスチャとして使用する描画ステップを有することを特
徴とする。
[0013] The program according to the present invention is a program readable and executable by a computer.
When drawing an object in which refraction occurs, among the surfaces constituting the object, drawing is performed from a surface farther from the viewpoint, and when drawing each surface, a drawing step of using a background image of each surface as a texture is performed. It is characterized by having.

【0014】これにより、各面を描画する際に、それぞ
れの面の背景画像をテクスチャとして利用していくだけ
でよいため、高速に処理することができる。そのため、
例えば光が物体を透過して屈折するときの現象(屈折現
象)を3次元画像で高速に表現することができ、移動す
る透明物体を簡単にかつ高速に表現することが可能とな
る。
Thus, when rendering each surface, it is only necessary to use the background image of each surface as a texture, so that high-speed processing can be performed. for that reason,
For example, a phenomenon (refraction phenomenon) when light passes through an object and is refracted can be expressed at a high speed in a three-dimensional image, and a moving transparent object can be easily and quickly expressed.

【0015】そして、本発明においては、1つの面の描
画の際に、該面の背景画像のうち、前記面について前記
視点から背景画像に向かい、かつ、前記面を構成する各
頂点での屈折を考慮したベクトルで透視変換(3次元物
体を2次元平面に投影すること)した範囲の背景画像を
テクスチャとして使用することが好ましい。
In the present invention, when drawing one surface, of the background image of the surface, the surface is directed from the viewpoint to the background image and refracted at each vertex constituting the surface. It is preferable to use, as a texture, a background image in a range in which perspective transformation (projection of a three-dimensional object onto a two-dimensional plane) is performed using a vector in consideration of the following.

【0016】この場合、前記面を構成する各頂点での屈
折を考慮したベクトルは、少なくとも前記面の視点座標
系における法線の方向と、前記視点から各頂点に向かう
線分の方向に基づいて求めることができる。
In this case, the vector considering the refraction at each vertex of the surface is based on at least the direction of the normal line in the viewpoint coordinate system of the surface and the direction of the line segment from the viewpoint to each vertex. You can ask.

【0017】具体的には、前記各頂点における前記背景
画像のu軸と視点座標系のz軸から構成されるuz平面
上への投影位置を求め、少なくとも前記視点から前記各
投影位置に向かう線分の方向と前記法線の前記uz平面
上での方向に基づいて、前記各頂点の前記背景画像にお
けるu軸上での座標を求め、前記各頂点における前記背
景画像のv軸と視点座標系のz軸から構成されるvz平
面上への投影位置を求め、少なくとも前記視点から前記
各投影位置に向かう線分の方向と前記法線の前記vz平
面上での方向に基づいて、前記各頂点の前記背景画像に
おけるv軸上での座標を求めることにより、前記面の背
景画像上の位置を得るようにしてもよい。
More specifically, a projection position on the uz plane composed of the u-axis of the background image and the z-axis of the viewpoint coordinate system at each vertex is determined, and at least a line from the viewpoint to each of the projection positions is obtained. Based on the direction of the minute and the direction of the normal on the uz plane, the coordinates of each vertex on the u-axis in the background image are obtained, and the v-axis of the background image at each vertex and the viewpoint coordinate system A projection position on a vz plane composed of the z-axis of the plurality of vertexes is determined based on at least a direction of a line segment from the viewpoint to each of the projection positions and a direction of the normal on the vz plane. The position of the surface on the background image may be obtained by obtaining coordinates on the v-axis of the background image.

【0018】この方法によって、当該面に貼り付けるべ
き背景画像を簡単に求めることができ、屈折現象の3次
元画像表示を更に高速に行うことができる。
According to this method, a background image to be attached to the surface can be easily obtained, and a three-dimensional image display of the refraction phenomenon can be performed at higher speed.

【0019】[0019]

【発明の実施の形態】以下、本発明に係る画像描画方法
及び画像描画装置を例えば3次元のCG処理を行うエン
タテインメント装置に適用した実施の形態例(以下、単
に実施の形態に係るエンタテインメント装置と記す)
と、本発明に係る記録媒体並びにプログラムをエンタテ
インメント装置で実行されるプログラムやデータが記録
された記録媒体並びにプログラムに適用した実施の形態
例を図1〜図10を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment in which an image drawing method and an image drawing apparatus according to the present invention are applied to an entertainment apparatus for performing, for example, three-dimensional CG processing (hereinafter, simply referred to as an entertainment apparatus according to the embodiment, Write)
An embodiment in which a recording medium and a program according to the present invention are applied to a recording medium and a program in which a program or data to be executed by an entertainment apparatus is recorded will be described with reference to FIGS.

【0020】本実施の形態に係るエンタテインメント装
置10は、図1に示すように、このエンタテインメント
装置10を制御するMPU12と、各種プログラムの動
作や各種データの格納等に使用されるメインメモリ14
と、ジオメトリ処理に必要な浮動小数点ベクトル演算を
行うためのベクトル演算ユニット16と、前記MPU1
2の制御に基づいて画像データを生成し、モニタ18
(この例ではCRT)に出力する画像処理部20と、M
PU12やベクトル演算ユニット16と画像処理部20
との転送パスの調停等を行うグラフィックインターフェ
ース(GIF)22と、外部機器とのデータの送受信を
行うための入出力ポート24と、例えばフラッシュメモ
リにより構成され、カーネル等の制御を行うためのOS
D機能を内蔵したROM(OSDROM)26と、カレ
ンダ・時計機能を有するリアルタイムクロック28とを
具備して構成されている。
As shown in FIG. 1, an entertainment device 10 according to the present embodiment includes an MPU 12 for controlling the entertainment device 10 and a main memory 14 used for operations of various programs and storage of various data.
A vector operation unit 16 for performing a floating-point vector operation required for geometry processing;
2 generates image data based on the control of
(CRT in this example) and M
PU 12 and vector operation unit 16 and image processing unit 20
A graphic interface (GIF) 22 for arbitrating a transfer path with the I / O, an input / output port 24 for transmitting and receiving data to and from an external device, and an OS for controlling a kernel or the like, which is constituted by, for example, a flash memory.
It comprises a ROM (OSDROM) 26 with a built-in D function and a real-time clock 28 with a calendar / clock function.

【0021】前記MPU12には、バス30を介して、
メインメモリ14、ベクトル演算ユニット16、GIF
22、OSDROM26、リアルタイムクロック28及
び入出力ポート24等が接続される。
The MPU 12 is connected to the MPU 12 via a bus 30.
Main memory 14, Vector operation unit 16, GIF
22, OSDROM 26, real-time clock 28, input / output port 24, and the like.

【0022】入出力ポート24には、例えばこのエンタ
テインメント装置10に対してデータ(キー入力データ
や座標データ等)を入力するための入力装置32や、各
種プログラムやデータ(オブジェクトに関するデータや
テクスチャデータ等)が記録された例えばCD−ROM
等の光ディスク34を再生する光ディスク装置36等が
接続される。
The input / output port 24 includes, for example, an input device 32 for inputting data (key input data, coordinate data, etc.) to the entertainment device 10 and various programs and data (data relating to objects, texture data, etc.). ) Is recorded, for example, a CD-ROM
An optical disk device 36 for reproducing an optical disk 34 such as an optical disk is connected.

【0023】前記画像処理部20は、レンダリングエン
ジン70、メモリインターフェース72、画像メモリ7
4、表示制御装置76(例えばプログラマブルCRTコ
ントローラ等)を有する。
The image processing unit 20 includes a rendering engine 70, a memory interface 72, and an image memory 7.
4. It has a display control device 76 (for example, a programmable CRT controller or the like).

【0024】レンダリングエンジン70は、MPU12
から供給される描画コマンドに対応して、メモリインタ
ーフェース72を介して、画像メモリ74に所定の画像
データを描画する動作を実行する。
The rendering engine 70 is an MPU 12
In response to the drawing command supplied from the CPU, an operation of drawing predetermined image data in the image memory 74 via the memory interface 72 is executed.

【0025】メモリインターフェース72とレンダリン
グエンジン70との間には第1のバス78が接続され、
メモリインターフェース72と画像メモリ74との間に
は第2のバス80が接続されている。第1及び第2のバ
ス78及び80は、それぞれ例えば128ビットのビッ
ト幅を有し、レンダリングエンジン70が画像メモリ7
4に対して高速に描画処理を実行することができるよう
になっている。
A first bus 78 is connected between the memory interface 72 and the rendering engine 70,
A second bus 80 is connected between the memory interface 72 and the image memory 74. Each of the first and second buses 78 and 80 has a bit width of, for example, 128 bits.
4 can be executed at a high speed.

【0026】レンダリングエンジン70は、例えばNT
SC方式、あるいはPAL方式などの320×240画
素の画像データ、あるいは640×480画素の画像デ
ータを、リアルタイムに、即ち1/60秒〜1/30秒
の間に、10数回〜数10回以上描画できる能力を有す
る。
The rendering engine 70 is, for example, NT
The image data of 320 × 240 pixels or the image data of 640 × 480 pixels of the SC system or the PAL system, etc., is transferred in real time, that is, 10 / s to 1/30 seconds, more than 10 to 10 times. It has the ability to draw.

【0027】画像メモリ74は、例えばテクスチャ描画
領域と表示描画領域を同一のエリアに指定することがで
きるユニファイドメモリ構造のものが採用されている。
The image memory 74 employs, for example, a unified memory structure capable of designating a texture drawing area and a display drawing area in the same area.

【0028】表示制御装置76は、光ディスク34から
光ディスク装置36を通じて取り込まれたテクスチャデ
ータやメインメモリ14上で作成されたテクスチャデー
タをメモリインターフェース72を介して画像メモリ7
4のテクスチャ描画領域に書き込んだり、画像メモリ7
4の表示描画領域に描画された画像データをメモリイン
ターフェース72を介して読み取り、これをモニタ18
に出力し、画面上に表示させるように構成されている。
The display control device 76 transmits texture data fetched from the optical disk 34 through the optical disk device 36 and texture data created on the main memory 14 to the image memory 7 via the memory interface 72.
4 in the texture drawing area or the image memory 7
4 is read via the memory interface 72 and is read by the monitor 18.
To be displayed on a screen.

【0029】次に、本実施の形態に係るエンタテインメ
ント装置10が有する特徴的な機能について図2〜図1
0を参照しながら説明する。
Next, the characteristic functions of the entertainment apparatus 10 according to the present embodiment will be described with reference to FIGS.
This will be described with reference to FIG.

【0030】この機能は、屈折が起こるオブジェクトを
描画する際に、前記オブジェクトを構成する面のうち、
視点より遠い面から描画を行い、各面の描画の際に、そ
れぞれの面の背景画像をテクスチャとして使用するもの
である。
This function is used when drawing an object where refraction occurs, of the surfaces constituting the object.
Drawing is performed from a plane farther from the viewpoint, and a background image of each plane is used as a texture when drawing each plane.

【0031】例えば、1つの面の描画の際に、該面の背
景画像のうち、前記面について前記視点から背景画像に
向かい、かつ、前記面を構成する各頂点での屈折を考慮
したベクトルで透視変換した範囲の背景画像をテクスチ
ャとして使用する。
For example, at the time of drawing one surface, of the background image of the surface, the vector is directed to the background image from the viewpoint with respect to the surface, and is a vector in which refraction at each vertex constituting the surface is considered. The background image in the perspective-transformed range is used as a texture.

【0032】前記面を構成する各頂点での屈折を考慮し
たベクトルは、少なくとも前記面の視点座標系における
法線の方向と、前記視点から各頂点に向かう線分の方向
に基づいて求めることができる。
The vector considering the refraction at each vertex of the surface can be obtained based on at least the direction of the normal in the viewpoint coordinate system of the surface and the direction of the line segment from the viewpoint to each vertex. it can.

【0033】この方法の具体的な手順について図2〜図
7を参照しながら説明する。図2は、背景画像100と
して描かれた山の風景の手前に、ガラスのような物質の
立方体102が置かれている映像を示し、この映像のう
ち、立方体102を透過する光の屈折処理は、上述の方
法で作成したものである。
The specific procedure of this method will be described with reference to FIGS. FIG. 2 shows an image in which a cube 102 of a substance such as glass is placed in front of a mountain landscape drawn as a background image 100. In this image, refraction processing of light transmitted through the cube 102 is performed. , Created by the method described above.

【0034】通常、図3に示すように、視点から放たれ
た光線ベクトルの屈折現象は、光線Laが立方体102
に進入するときと、光線Laが立方体102から出ると
きに生じる。ここで、例えば、視点104から見て手前
の面における光線Laの屈折は、空間の屈折率をn1、
立方体102の屈折率をn2、光線Laの面への入射角
(法線106とのなす角)をθ1、光線Laの出射角
(法線106とのなす角)をθ2としたとき、スネル法
則から以下の関係で示すことができる。
Normally, as shown in FIG. 3, the refraction phenomenon of the ray vector emitted from the viewpoint is such that the ray La
And when the ray La exits the cube 102. Here, for example, the refraction of the light ray La on the front surface viewed from the viewpoint 104 is such that the refractive index of the space is n1,
Assuming that the refractive index of the cube 102 is n2, the incident angle of the light beam La on the surface (the angle formed with the normal 106) is θ1, and the output angle of the light beam La (the angle formed with the normal 106) is θ2, Snell's law From the following relationship.

【0035】n1sinθ1=n2sinθ2 この関係は、視点104から見て奥にある面における光
線Laの屈折においても同様である。
N1 sin θ1 = n2 sin θ2 This relationship is the same for the refraction of the light ray La on the surface that is farther from the viewpoint 104.

【0036】そして、本実施の形態に係る画像描画方法
は、この関係を利用して立方体102を構成する各面の
背景画像上での位置を求めるようにしている。
In the image drawing method according to the present embodiment, the position of each surface constituting the cube 102 on the background image is obtained by utilizing this relationship.

【0037】具体的に説明すると、図4A及び図4Bに
示すように、立方体102を構成する6つの面のうち、
まず、視点から最も遠い面A1を選択し、この面A1を
構成する各頂点(a,b,c,d)の背景画像100上
での位置(正確にはこの面A1の背景画像100上の位
置)を、少なくとも前記面A1の視点座標系における法
線の方向と、視点から各頂点(a,b,c,d)に向か
う線分の方向に基づいて求める。
More specifically, as shown in FIGS. 4A and 4B, of the six faces constituting the cube 102,
First, the plane A1 farthest from the viewpoint is selected, and the vertices (a, b, c, d) constituting the plane A1 are positioned on the background image 100 (to be exact, the plane A1 is positioned on the background image 100). Position) is obtained based on at least the direction of the normal line of the plane A1 in the viewpoint coordinate system and the direction of a line segment from the viewpoint to each vertex (a, b, c, d).

【0038】背景画像100上の位置とは、画像メモリ
74に描画された背景画像100上の位置であって、そ
の位置を求めるとは、背景画像100の水平軸をu軸、
垂直軸をv軸としたとき、uv座標系の位置を求めるこ
とにほかならない。
The position on the background image 100 is a position on the background image 100 drawn in the image memory 74, and the position is obtained by setting the horizontal axis of the background image 100 to the u-axis.
Assuming that the vertical axis is the v-axis, this is nothing but finding the position of the uv coordinate system.

【0039】そして、まず、背景画像100のu軸と視
点座標系のz軸から構成されるuz平面に対する各頂点
(a,b,c,d)の投影位置を求め、少なくとも視点
104から各投影位置に向かう線分の方向と、面A1に
おける法線のuz平面上での方向に基づいて、各頂点
(a,b,c,d)の前記背景画像100におけるu軸
上での座標を求める。
First, the projection position of each vertex (a, b, c, d) on the uz plane composed of the u axis of the background image 100 and the z axis of the viewpoint coordinate system is determined. The coordinates of each vertex (a, b, c, d) on the u-axis in the background image 100 are obtained based on the direction of the line segment toward the position and the direction of the normal on the plane A1 on the uz plane. .

【0040】例えば、図5に示すように、1つの裏の面
A1の1つの頂点aを例に説明すると、視点104から
該頂点aへの線分110を考えたとき、該線分110の
法線112とのなす角(入射角)θ1と、立方体102
の屈折率n2と空間の屈折率n1に基づいて、頂点aか
ら背景画像100に向かう方向(出射角θ2)が求ま
る。そして、この出射角θ2によって決まる線分114
のベクトルに従って頂点aを背景画像100に透視変換
することにより、該頂点aにおける背景画像100上の
u座標の位置が定まる。これは、該面A1に含まれる他
の頂点b、c及びdについても同様である。
For example, as shown in FIG. 5, taking one vertex a of one back surface A1 as an example, considering a line segment 110 from the viewpoint 104 to the vertex a, The angle (incident angle) θ1 between the normal line 112 and the cube 102
Is determined from the vertex a toward the background image 100 (the emission angle θ2) based on the refractive index n2 of the space and the refractive index n1 of the space. Then, a line segment 114 determined by the emission angle θ2
By performing perspective transformation of the vertex a into the background image 100 in accordance with the vector of (i), the position of the u coordinate on the background image 100 at the vertex a is determined. This is the same for the other vertices b, c and d included in the surface A1.

【0041】次に、背景画像100のv軸と視点座標系
のz軸から構成されるvz平面に対する各頂点(a,
b,c,d)の投影位置を求め、少なくとも視点104
から各投影位置に向かう線分の方向と法線のvz平面上
での方向に基づいて、各頂点(a,b,c,d)の背景
画像100におけるv軸上での座標を求める。
Next, vertices (a, a, b) on a vz plane composed of the v axis of the background image 100 and the z axis of the viewpoint coordinate system
b, c, d) are obtained, and at least the viewpoint 104
Then, the coordinates of each vertex (a, b, c, d) on the v-axis in the background image 100 are obtained based on the direction of the line segment from the to each projection position and the direction of the normal on the vz plane.

【0042】例えば、ここでは図示しないが、1つの頂
点aを例に説明すると、視点104から該頂点aへの線
分を考えたとき、該線分の法線とのなす角(入射角)θ
1と、立方体102の屈折率n2と空間の屈折率n1に
基づいて、頂点aから背景画像100に向かう方向(出
射角θ2)が求まる。そして、この出射角θ2によって
決まる線分のベクトルに従って頂点aを背景画像100
に透視変換することにより、該頂点aにおける背景画像
100上のv座標の位置が定まる。これは、該面A1に
含まれる他の頂点b、c及びdについても同様である。
For example, although not shown here, taking one vertex a as an example, when a line segment from the viewpoint 104 to the vertex a is considered, an angle (incident angle) between the line segment and the normal line is considered. θ
1, a direction (emission angle θ2) from the vertex a toward the background image 100 is obtained based on the refractive index n2 of the cube 102 and the refractive index n1 of the space. Then, the vertex a is set to the background image 100 according to the vector of the line segment determined by the emission angle θ2.
, The position of the v coordinate at the vertex a on the background image 100 is determined. This is the same for the other vertices b, c and d included in the surface A1.

【0043】このようにして、1つの裏の面A1の1つ
の頂点aにおける背景画像100上でのuv座標(u,
v)が求まる。以下、同様にして、他の頂点について背
景画像100上での座標を求めることによって、図4A
及び図4Bに示すように、1つの面A1について視点1
04から背景画像100に向かい、かつ、該面A1を構
成する各頂点(a,b,c,d)での屈折を考慮したベ
クトルで透視変換した範囲、つまり、使用すべきテクス
チャの範囲120が求まり、前記1つの面A1について
のテクスチャマッピングが行われて画像メモリ74への
描画が行われる。
As described above, the uv coordinate (u, u, 1) on the background image 100 at one vertex a of one back surface A1
v) is obtained. Hereinafter, similarly, by obtaining the coordinates of the other vertices on the background image 100, FIG.
As shown in FIG. 4B and FIG.
04 to the background image 100, and a range obtained by performing a perspective transformation using a vector considering the refraction at each vertex (a, b, c, d) constituting the surface A1, that is, a range 120 of the texture to be used. Then, texture mapping is performed on the one surface A1 and drawing on the image memory 74 is performed.

【0044】そして、前記1つの面A1について画像メ
モリ74への描画が終了した段階で、次の裏の面A2が
選択されて上述と同様の処理が行われる。立方体102
を構成する各面の選択順序は、図1に示すように、面A
1→面A2→面A3→面A4→面A5→面A6の順であ
る。
When the drawing of the one surface A1 in the image memory 74 is completed, the next back surface A2 is selected and the same processing as described above is performed. Cube 102
Are selected in the order of the faces A as shown in FIG.
The order is 1 → surface A2 → surface A3 → surface A4 → surface A5 → surface A6.

【0045】立方体102の3つの裏の面A1、A2及
びA3が終了した段階で、次に、立方体102の3つの
表の面A4、A5及びA6が処理されることになる。表
の面A4、A5及びA6の処理も上述と同様である。
When the three back faces A1, A2, and A3 of the cube 102 are completed, the three front faces A4, A5, and A6 of the cube 102 are processed next. The processes on the front surfaces A4, A5, and A6 are the same as described above.

【0046】図6に示すように、例えば1つの面A5の
1つの頂点aを例に説明すると、視点104から該頂点
aへの線分122を考えたとき、該線分122における
面A5の法線124とのなす角(入射角)θ1と、空間
の屈折率n1と立方体102の屈折率n2に基づいて、
頂点aから背景画像100に向かう方向(出射角θ2)
が求まる。そして、この出射角θ2によって決まる線分
126のベクトルに従って頂点aを背景画像100に透
視変換することにより、該頂点aにおける背景画像10
0上のu座標の位置が定まる。これは、該面A5に含ま
れる他の頂点b、g及びhについても同様である。
As shown in FIG. 6, for example, taking one vertex a of one plane A5 as an example, when considering a line segment 122 from the viewpoint 104 to the vertex a, the plane A5 of the line segment 122 Based on the angle (incident angle) θ1 between the normal 124 and the refractive index n1 of the space and the refractive index n2 of the cube 102,
Direction from vertex a to background image 100 (emission angle θ2)
Is found. The vertex a is perspectively transformed into the background image 100 according to the vector of the line segment 126 determined by the emission angle θ2, so that the background image 10 at the vertex a is
The position of the u coordinate on 0 is determined. This is the same for the other vertices b, g, and h included in the surface A5.

【0047】次に、前記頂点aにおける背景画像100
上のv座標の位置を求める。この手法は、上述した方法
と同じであるため、その詳細な説明は省略する。
Next, the background image 100 at the vertex a
Find the position of the v coordinate above. This method is the same as the above-described method, and a detailed description thereof will be omitted.

【0048】このようにして、表の面A5の1つの頂点
aにおける背景画像100上でのuv座標(u,v)が
求まる。以下、同様にして、他の頂点b、g及びhにつ
いて背景画像100上でのuv座標を求めることによっ
て、図4B及び図4Cに示すように、1つ表の面A5に
ついて視点104から背景画像100に向かい、かつ、
該面A5を構成する各頂点(a,b,g,h)での屈折
を考慮したベクトルで透視変換した範囲、つまり、使用
すべきテクスチャの範囲130が求まり、前記1つの面
A5についてのテクスチャマッピングが行われて画像メ
モリ74への描画が行われる。このとき、この表の面A
5の背景画像100には、山の風景に3つの裏の面A
1、A2及びA3が描画された画像が描画されており、
表の面A5に使用されるテクスチャとしては、裏の面A
1、A2及びA3が描画された画像が含まれることにな
る。
In this way, the uv coordinate (u, v) on the background image 100 at one vertex a of the surface A5 of the table is obtained. Hereinafter, similarly, by obtaining the uv coordinates on the background image 100 for the other vertices b, g, and h, as shown in FIG. 4B and FIG. Go to 100, and
A range that is perspectively transformed by a vector considering the refraction at each vertex (a, b, g, h) of the surface A5, that is, a range 130 of a texture to be used, is determined, and the texture of the one surface A5 is determined. Mapping is performed, and drawing to the image memory 74 is performed. At this time, surface A of this table
5, the background image 100 includes three back surfaces A in the mountain scenery.
Images in which 1, A2 and A3 are drawn are drawn,
As the texture used for the front surface A5, the back surface A
An image in which 1, A2, and A3 are drawn is included.

【0049】そして、前記1つの表の面A5について画
像メモリ74への描画が終了した段階で、次の表の面A
6が選択されて上述と同様の処理が行われる。
Then, at the stage where drawing of the surface A5 of the one table in the image memory 74 has been completed, the surface A5 of the next table is completed.
6 is selected and the same processing as described above is performed.

【0050】上述の例では、山の風景に1つの立方体1
02を置いた場合を示したが、その他、図7に示すよう
に、山の風景に複数の立方体102A及び102Bを置
いた場合であっても同様に適用させることができる。こ
の場合、視点104から遠い立方体102Aから処理が
行われることになる。
In the above example, one cube 1
Although the case where 02 is placed is shown, as shown in FIG. 7, the same applies to a case where a plurality of cubes 102A and 102B are placed in a mountain landscape. In this case, the processing is performed from the cube 102A far from the viewpoint 104.

【0051】次に、上述の機能を達成させるためのソフ
トウエア(描画手段200)の一例について図8〜図1
0を参照しながら説明する。
Next, an example of software (drawing means 200) for achieving the above functions will be described with reference to FIGS.
This will be described with reference to FIG.

【0052】この描画手段200は、例えばCD−RO
Mやメモリカードのようなランダムアクセス可能な記録
媒体、さらにはネットワークによってエンタテインメン
ト装置10に提供されるようになっている。ここでは、
CD−ROMのような光ディスク34からエンタテイン
メント装置10に読み込まれて動作する場合を想定して
説明を進める。
The drawing means 200 is, for example, a CD-RO
The storage device is provided to the entertainment apparatus 10 through a network that can be accessed randomly, such as an M or a memory card, or a network. here,
The description will proceed on the assumption that the entertainment apparatus 10 operates by being read from an optical disc 34 such as a CD-ROM.

【0053】即ち、描画手段200は、例えば予めエン
タテインメント装置10にて再生される特定の光ディス
ク34から所定の処理を経てエンタテインメント装置1
0のメインメモリ14にダウンロードされることによっ
て、MPU12上で動作されるようになっている。
That is, for example, the drawing unit 200 performs a predetermined process from a specific optical disc 34 reproduced in advance by the entertainment apparatus 10 through the entertainment apparatus 1.
0 is downloaded to the main memory 14 to operate on the MPU 12.

【0054】そして、この描画手段200は、図8に示
すように、オブジェクトデータファイル202に登録さ
れた多数のオブジェクトのうち、視点から遠い順にオブ
ジェクトに関するオブジェクトデータ204を選択する
オブジェクト選択手段206と、選択されたオブジェク
トデータ204が示すオブジェクトを構成する複数の面
のうち、視点104から遠い順に面を選択する面選択手
段208と、選択された面におけるuz座標系とvz座
標系の法線方向を決定する法線方向決定手段210と、
選択された面を構成する各頂点のuz平面上への投影位
置を求める第1の投影位置演算手段212と、入射角θ
1と出射角θ2を求める角度演算手段214と、各頂点
についてuz平面上の投影位置と出射角θ2に基づいて
背景画像100上でのu座標を求める第1の座標演算手
段216とを有する。
As shown in FIG. 8, the drawing means 200 includes, as shown in FIG. 8, an object selecting means 206 for selecting object data 204 relating to the objects in order of distance from the viewpoint, out of a large number of objects registered in the object data file 202. Among a plurality of surfaces constituting the object indicated by the selected object data 204, a surface selecting means 208 for selecting a surface in order from a point farthest from the viewpoint 104; A normal direction determining means 210 for determining;
A first projection position calculating unit 212 for determining a projection position of each vertex constituting the selected surface on the uz plane, and an incident angle θ
1 and an angle calculating means 214 for calculating the emission angle θ2, and a first coordinate calculating means 216 for calculating the u coordinate on the background image 100 based on the projection position on the uz plane and the emission angle θ2 for each vertex.

【0055】また、この描画手段200は、選択された
面を構成する各頂点のvz平面上への投影位置を求める
第2の投影位置演算手段218と、各頂点についてvz
平面上の投影位置と出射角θ2に基づいて背景画像10
0上でのv座標を求める第2の座標演算手段220と、
各頂点のuv座標に基づいて背景画像100から使用す
べきテクスチャ画像を決定するテクスチャ画像決定手段
222と、決定したテクスチャ画像を選択された面に貼
り付けるテクスチャマッピング手段224と、処理の完
了を判別する終了判別手段226とを有する。
The drawing means 200 includes a second projection position calculating means 218 for calculating a projection position of each vertex constituting the selected surface on the vz plane, and a vz
The background image 10 based on the projection position on the plane and the emission angle θ2
A second coordinate calculating means 220 for calculating a v coordinate on 0,
A texture image determining unit 222 that determines a texture image to be used from the background image 100 based on the uv coordinates of each vertex, a texture mapping unit 224 that pastes the determined texture image on a selected surface, and determines completion of processing. End determination means 226 that performs the operation.

【0056】次に、前記描画手段200の処理動作を図
9及び図10のフローチャートを参照しながら説明す
る。
Next, the processing operation of the drawing means 200 will be described with reference to the flowcharts of FIGS.

【0057】この描画手段200は、まず、図9のステ
ップS1において、オブジェクトの検索に使用されるイ
ンデックスレジスタmに初期値「1」を格納して、該イ
ンデックスレジスタmを初期化する。
First, in step S1 of FIG. 9, the drawing means 200 stores an initial value "1" in an index register m used for searching for an object, and initializes the index register m.

【0058】次に、ステップS2において、オブジェク
ト選択手段206を通じて、オブジェクトデータファイ
ル202に登録された多数のオブジェクトのうち、視点
から遠い順にオブジェクトに関するオブジェクトデータ
204を選択する。
Next, in step S2, the object data 204 relating to the object is selected from the many objects registered in the object data file 202 in order from the viewpoint farthest through the object selecting means 206.

【0059】次に、ステップS3において、オブジェク
トを構成する面の検索に使用されるインデックスレジス
タiに初期値「1」を格納して、該インデックスレジス
タiを初期化する。
Next, in step S3, an initial value "1" is stored in an index register i used for searching for a surface constituting an object, and the index register i is initialized.

【0060】次に、ステップS4において、面選択手段
208を通じて、前記選択されたオブジェクトデータ2
04に登録されたオブジェクトを構成する複数の面のう
ち、視点から遠い順に面(i番目の面)を選択する。
Next, in step S4, the selected object data 2
A surface (i-th surface) is selected from a plurality of surfaces constituting the object registered in 04 in order from the viewpoint farthest from the viewpoint.

【0061】次に、ステップS5において、i番目の面
を構成する頂点の数を決定する。その後、ステップS6
において、法線方向決定手段210を通じて、i番目の
面におけるuz平面上の法線の方向とvz平面上の法線
の方向を求める。
Next, in step S5, the number of vertices constituting the i-th surface is determined. Then, step S6
In step (1), the direction of the normal on the uz plane and the direction of the normal on the vz plane in the i-th plane are obtained through the normal direction determining means 210.

【0062】次に、ステップS7において、頂点の検索
に使用されるインデックスレジスタjに初期値「1」を
格納して、該インデックスレジスタjを初期化した後、
次のステップS8において、第1の投影位置演算手段2
12を通じて、j番目の頂点のuz平面上への投影位置
(座標)を求める。
Next, in step S7, an initial value "1" is stored in an index register j used for searching for a vertex, and the index register j is initialized.
In the next step S8, the first projection position calculating means 2
Through 12, the projection position (coordinates) of the j-th vertex on the uz plane is obtained.

【0063】次に、ステップS9において、角度演算手
段214を通じて、視点とj番目の頂点とを結ぶ線分と
法線(uz平面上の法線)とのなす角(入射角θ1)を
求め、次のステップS10において、同じく角度演算手
段214を通じて、入射側の屈折率と出射側の屈折率と
入射角θ1に基づいて出射角θ2を求める。
Next, in step S9, the angle (incident angle θ1) between the line segment connecting the viewpoint and the j-th vertex and the normal line (normal line on the uz plane) is obtained through the angle calculation means 214. In the next step S10, similarly, the output angle θ2 is obtained based on the refractive index on the incident side, the refractive index on the output side, and the incident angle θ1 via the angle calculating means 214.

【0064】次に、ステップS11において、第1の座
標演算手段216を通じて、j番目の頂点のuz平面上
の投影位置(座標)と出射角θ2とで決定される方向
に、該j番目の頂点を透視変換し、該j番目の頂点にお
ける背景画像100上での位置(u座標)を求める。
Next, in step S11, the j-th vertex is moved through the first coordinate calculating means 216 in the direction determined by the projection position (coordinate) of the j-th vertex on the uz plane and the emission angle θ2. Is perspective-transformed, and the position (u coordinate) of the j-th vertex on the background image 100 is obtained.

【0065】次に、図10のステップS12において、
第2の投影位置演算手段218を通じて、j番目の頂点
のvz平面上への投影位置(座標)を求める。
Next, in step S12 of FIG.
Through the second projection position calculation means 218, the projection position (coordinates) of the j-th vertex on the vz plane is obtained.

【0066】次に、ステップS13において、角度演算
手段214を通じて、視点とj番目の頂点とを結ぶ線分
の法線(vz平面上の法線)とのなす角(入射角θ1)
を求め、次のステップS14において、同じく角度演算
手段214を通じて、入射側の屈折率と出射側の屈折率
と入射角θ1に基づいて出射角θ2を求める。
Next, in step S13, the angle (incident angle θ1) formed by the angle calculating means 214 with the normal (the normal on the vz plane) of the line connecting the viewpoint and the j-th vertex.
In the next step S14, the output angle θ2 is calculated based on the refractive index on the incident side, the refractive index on the output side, and the incident angle θ1 through the angle calculation means 214 in the same manner.

【0067】次に、ステップS15において、第2の座
標演算手段220を通じて、j番目の頂点のvz平面上
の投影位置(座標)と出射角θ2とで決定される方向
に、該j番目の頂点を透視変換し、該j番目の頂点にお
ける背景画像100上での位置(v座標)を求める。
Next, in step S15, the j-th vertex is moved in the direction determined by the projection position (coordinate) of the j-th vertex on the vz plane and the emission angle θ2 through the second coordinate calculating means 220. Is perspective-transformed, and the position (v coordinate) of the j-th vertex on the background image 100 is obtained.

【0068】次に、ステップS16において、インデッ
クスレジスタjの値を+1更新した後、ステップS17
において、i番目の面を構成する各頂点についてそれぞ
れuv座標を求めたか否かが判別される。この判別は、
インデックスレジスタjの値が頂点の数Nより大きいか
どうかで行われる。
Next, in step S16, the value of the index register j is updated by +1.
In, it is determined whether or not uv coordinates have been obtained for each vertex of the i-th surface. This determination is
This is performed depending on whether the value of the index register j is larger than the number N of vertices.

【0069】各頂点についてのuv座標を求めていない
場合は、前記ステップS8に進み、次の頂点についてu
v座標を求め、処理が完了した場合は、次のステップS
18に進み、テクスチャ画像決定手段222を通じて、
背景画像100のうち、該i番目の面を構成する各頂点
のuv座標で囲まれた範囲の背景画像100をテクスチ
ャ画像として決定する。
If the uv coordinate for each vertex has not been obtained, the process proceeds to step S8, where u
When the v coordinate is obtained and the processing is completed, the next step S
18, and through the texture image determining means 222,
Of the background image 100, the background image 100 in a range surrounded by the uv coordinates of each vertex constituting the i-th surface is determined as a texture image.

【0070】次に、ステップS19において、テクスチ
ャマッピング手段224を通じて、前記決定されたテク
スチャ画像をi番目の面にテクスチャマッピングして画
像メモリ74に描画する。
Next, in step S 19, the determined texture image is texture-mapped to the i-th surface through the texture mapping means 224 and drawn in the image memory 74.

【0071】次に、ステップS20において、インデッ
クスレジスタiの値を+1更新した後、次のステップS
21において、終了判別手段226を通じて、オブジェ
クトを構成する全ての面について処理が完了したか否か
が判別される。この判別は、インデックスレジスタiの
値がオブジェクトを構成する面の数Mより大きいかどう
かで行われる。
Next, in step S20, the value of the index register i is updated by +1 and then the next step S20 is executed.
At 21, it is determined through the end determination means 226 whether or not the processing has been completed for all surfaces constituting the object. This determination is made based on whether or not the value of the index register i is larger than the number M of the surfaces constituting the object.

【0072】全ての面についてテクスチャマッピングし
ていない場合は、前記ステップS4に進み、次の面につ
いて処理を行い、全ての面についてテクスチャマッピン
グした場合は、次のステップS22において、インデッ
クスレジスタmの値を+1更新した後、次のステップS
23において、終了判別手段226を通じて、全てのオ
ブジェクトについて処理が完了したか否かが判別され
る。この判別は、インデックスレジスタmの値がオブジ
ェクトの数Pより大きいかどうかで行われる。
If texture mapping has not been performed on all surfaces, the process proceeds to step S4, where processing is performed on the next surface. If texture mapping has been performed on all surfaces, the value of the index register m is determined in step S22. Is updated by +1 and then the next step S
At 23, it is determined through the end determination means 226 whether or not the processing has been completed for all objects. This determination is made based on whether the value of the index register m is larger than the number P of objects.

【0073】全てのオブジェクトについて処理が完了し
ていない場合は、前記ステップS2に進み、次のオブジ
ェクトについて処理を行い、全てのオブジェクトについ
て処理を終えた場合は、この描画手段200での処理が
終了する。
If the processing has not been completed for all the objects, the process proceeds to step S2, where the processing is performed for the next object, and when the processing has been completed for all the objects, the processing by the drawing means 200 ends. I do.

【0074】このように、本実施の形態に係る描画手段
200においては、屈折が起こるオブジェクトの各面を
描画する際に、それぞれの面の背景画像100をテクス
チャとして利用していくだけでよいため、高速に処理す
ることができる。そのため、例えば光が物体を透過して
屈折するときの現象(屈折現象)を3次元画像で高速に
表現することができ、移動する透明物体を簡単にかつ高
速に表現することが可能となる。
As described above, in the drawing means 200 according to the present embodiment, when drawing each surface of the object where refraction occurs, it is only necessary to use the background image 100 of each surface as a texture. It can be processed at high speed. Therefore, for example, a phenomenon (refraction phenomenon) when light passes through an object and is refracted can be expressed at a high speed in a three-dimensional image, and a moving transparent object can be easily and quickly expressed.

【0075】なお、この発明に係る画像描画方法、画像
描画装置、記録媒体及びプログラムは、上述の実施の形
態に限らず、この発明の要旨を逸脱することなく、種々
の構成を採り得ることはもちろんである。
The image drawing method, the image drawing apparatus, the recording medium, and the program according to the present invention are not limited to the above-described embodiments, but may adopt various configurations without departing from the gist of the present invention. Of course.

【0076】[0076]

【発明の効果】以上説明したように、本発明に係る画像
描画方法、画像描画装置、記録媒体及びプログラムによ
れば、例えば光が物体を透過して屈折するときの現象
(屈折現象)を3次元画像で高速に表現することがで
き、移動する透明物体を簡単にかつ高速に表現すること
が可能となる。
As described above, according to the image drawing method, the image drawing apparatus, the recording medium, and the program according to the present invention, for example, the phenomenon (refraction phenomenon) when light passes through an object and is refracted is three times. It is possible to express a three-dimensional image at high speed, and it is possible to easily and quickly express a moving transparent object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態に係るエンタテインメント装置の
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an entertainment device according to the present embodiment.

【図2】背景画像として描かれた山の風景の手前に、ガ
ラスのような物質の1つの立方体を置いた状態の映像を
示す説明図である。
FIG. 2 is an explanatory diagram showing an image of a state in which one cube of a substance such as glass is placed in front of a mountain scene drawn as a background image.

【図3】視点から放たれた光線ベクトルの立方体での屈
折現象を示す説明図である。
FIG. 3 is an explanatory diagram showing a refraction phenomenon in a cube of a ray vector emitted from a viewpoint.

【図4】図4Aは、立方体の1つの裏の面に使用するテ
クスチャ画像の範囲を示す説明図であり、図4Bは、図
4Aに示すテクスチャ画像を貼り付けた状態と、立方体
の1つの表の面に使用するテクスチャ画像の範囲を示す
説明図であり、図4Cは、図4Bに示すテクスチャ画像
を貼り付けた状態を示す説明図である。
FIG. 4A is an explanatory diagram showing a range of a texture image used on one back surface of a cube; FIG. 4B is a diagram showing a state where the texture image shown in FIG. 4A is pasted; FIG. 4C is an explanatory diagram showing a range of the texture image used on the front surface, and FIG. 4C is an explanatory diagram showing a state where the texture image shown in FIG. 4B is pasted.

【図5】立方体の1つの裏の面を構成する頂点を屈折を
考慮して背景画像に透視変換する方法を説明するための
図である。
FIG. 5 is a diagram for explaining a method of perspective-transforming a vertex forming one back surface of a cube into a background image in consideration of refraction.

【図6】立方体の1つの表の面を構成する頂点を屈折を
考慮して背景画像に透視変換する方法を説明するための
図である。
FIG. 6 is a diagram for explaining a method of performing perspective transformation of a vertex constituting one surface of a cube into a background image in consideration of refraction.

【図7】背景画像として描かれた山の風景の手前に、ガ
ラスのような物質の2つの立方体を置いた状態の映像を
示す説明図である。
FIG. 7 is an explanatory diagram showing an image in a state where two cubes of a material such as glass are placed in front of a mountain landscape drawn as a background image.

【図8】本実施の形態に係る描画手段の構成を示す機能
ブロック図である。
FIG. 8 is a functional block diagram illustrating a configuration of a drawing unit according to the present embodiment.

【図9】本実施の形態に係る描画手段の処理動作を示す
フローチャート(その1)である。
FIG. 9 is a flowchart (part 1) illustrating a processing operation of a drawing unit according to the present embodiment;

【図10】本実施の形態に係る描画手段の処理動作を示
すフローチャート(その2)である。
FIG. 10 is a flowchart (No. 2) showing the processing operation of the drawing means according to the present embodiment.

【符号の説明】[Explanation of symbols]

10…エンタテインメント装置 34…光ディス
ク 74…画像メモリ 100…背景画
像 102、102A、102B…立方体 104…視点 120、130…テクスチャの範囲 200…描画手
段 202…オブジェクトデータファイル 204…オブジ
ェクトデータ 206…オブジェクト選択手段 208…面選択
手段 210…法線方向決定手段 212…第1の
投影位置演算手段 214…角度演算手段 216…第1の
座標演算手段 218…第2の投影位置演算手段 220…第2の
座標演算手段 222…テクスチャ画像決定手段 224…テクス
チャマッピング手段
DESCRIPTION OF SYMBOLS 10 ... Entertainment apparatus 34 ... Optical disk 74 ... Image memory 100 ... Background image 102, 102A, 102B ... Cube 104 ... View point 120, 130 ... Texture range 200 ... Drawing means 202 ... Object data file 204 ... Object data 206 ... Object selection means 208 surface selection means 210 normal direction determination means 212 first projection position calculation means 214 angle calculation means 216 first coordinate calculation means 218 second projection position calculation means 220 second coordinate calculation Means 222: Texture image determination means 224: Texture mapping means

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】屈折が起こるオブジェクトを描画する際
に、前記オブジェクトを構成する面のうち、視点より遠
い面から描画を行い、 各面の描画の際に、それぞれの面の背景画像をテクスチ
ャとして使用することを特徴とする画像描画方法。
When drawing an object in which refraction occurs, drawing is performed from a surface that is farther from a viewpoint among surfaces constituting the object, and a background image of each surface is used as a texture when drawing each surface. An image drawing method characterized by being used.
【請求項2】請求項1記載の画像描画方法において、 1つの面の描画の際に、該面の背景画像のうち、前記面
について前記視点から背景画像に向かい、かつ、前記面
を構成する各頂点での屈折を考慮したベクトルで透視変
換した範囲の背景画像をテクスチャとして使用すること
を特徴とする画像描画方法。
2. The image drawing method according to claim 1, wherein, when drawing one surface, among the background images of the surface, the surface is directed from the viewpoint to the background image and the surface is formed. An image drawing method characterized by using, as a texture, a background image in a range perspective-transformed with a vector considering refraction at each vertex.
【請求項3】請求項2記載の画像描画方法において、 前記面を構成する各頂点での屈折を考慮したベクトル
は、少なくとも前記面の視点座標系における法線の方向
と、前記視点から各頂点に向かう線分の方向に基づいて
求めることを特徴とする画像描画方法。
3. The image drawing method according to claim 2, wherein the vector considering the refraction at each vertex of the surface is at least a direction of a normal in a viewpoint coordinate system of the surface and each vertex from the viewpoint. An image drawing method characterized in that it is determined based on the direction of a line segment heading toward.
【請求項4】請求項3記載の画像描画方法において、 前記背景画像のu軸と視点座標系のz軸から構成される
uz平面に対する前記各頂点の投影位置を求め、 少なくとも前記視点から前記各投影位置に向かう線分の
方向と前記法線の前記uz平面上での方向に基づいて、
前記各頂点の前記背景画像におけるu軸上での座標を求
め、 前記背景画像のv軸と視点座標系のz軸から構成される
vz平面に対する前記各頂点の投影位置を求め、 少なくとも前記視点から前記各投影位置に向かう線分の
方向と前記法線の前記vz平面上での方向に基づいて、
前記各頂点の前記背景画像におけるv軸上での座標を求
めることにより、 前記面の背景画像上の位置を得ることを特徴とする画像
描画方法。
4. The image drawing method according to claim 3, wherein a projection position of each vertex on a uz plane composed of a u-axis of the background image and a z-axis of a viewpoint coordinate system is determined, and at least each of the projection positions is determined from the viewpoint. Based on the direction of the line segment toward the projection position and the direction of the normal on the uz plane,
Finding the coordinates of each vertex on the u axis in the background image, Finding the projection position of each vertex on a vz plane composed of the v axis of the background image and the z axis of the viewpoint coordinate system, at least from the viewpoint Based on the direction of the line segment toward each of the projection positions and the direction of the normal on the vz plane,
An image drawing method, wherein a position of the surface on the background image is obtained by obtaining coordinates of each vertex on the v-axis in the background image.
【請求項5】屈折が起こるオブジェクトを描画する際
に、前記オブジェクトを構成する面のうち、視点より遠
い面から描画を行い、 各面の描画の際に、それぞれの面の背景画像をテクスチ
ャとして使用する描画手段を有することを特徴とする画
像描画装置。
5. When drawing an object in which refraction occurs, drawing is performed from a surface that is farther from the viewpoint among surfaces constituting the object, and when drawing each surface, a background image of each surface is used as a texture. An image drawing apparatus comprising drawing means to be used.
【請求項6】請求項5記載の画像描画装置において、 前記描画手段は、 1つの面の描画の際に、該面の背景画像のうち、前記面
について前記視点から背景画像に向かい、かつ、前記面
を構成する各頂点での屈折を考慮したベクトルで透視変
換した範囲の背景画像をテクスチャとして使用すること
を特徴とする画像描画装置。
6. An image drawing apparatus according to claim 5, wherein said drawing means, when drawing one surface, of said background image of said surface, goes from said viewpoint to said background image for said surface, and An image drawing apparatus, wherein a background image in a range perspective-transformed by a vector taking into account refraction at each vertex of the surface is used as a texture.
【請求項7】請求項6記載の画像描画装置において、 前記描画手段は、 前記面を構成する各頂点での屈折を考慮したベクトル
は、少なくとも前記面の視点座標系における法線の方向
と、前記視点から各頂点に向かう線分の方向に基づいて
求めるテクスチャ座標演算手段を有することを特徴とす
る画像描画装置。
7. The image drawing apparatus according to claim 6, wherein said drawing means includes: a vector considering a refraction at each vertex of the surface, at least a direction of a normal in a viewpoint coordinate system of the surface; An image drawing apparatus comprising: a texture coordinate calculating unit that obtains a texture coordinate based on a direction of a line segment from the viewpoint to each vertex.
【請求項8】請求項7記載の画像描画装置において、 前記テクスチャ座標演算手段は、 前記各頂点における前記背景画像のu軸と視点座標系の
z軸から構成されるuz平面上への投影位置を求める第
1の投影位置演算手段と、 少なくとも前記視点から前記各投影位置に向かう線分の
方向と前記法線の前記uz平面上での方向に基づいて、
前記各頂点の前記背景画像におけるu軸上での座標を求
める第1の座標演算手段と、 前記各頂点における前記背景画像のv軸と視点座標系の
z軸から構成されるvz平面上への投影位置を求める第
2の投影位置演算手段と、 少なくとも前記視点から各投影位置に向かう線分の方向
と前記法線の前記vz平面上での方向に基づいて、前記
各頂点の前記背景画像におけるv軸上での座標を求める
第2の座標演算手段とを有することを特徴とする画像描
画装置。
8. The image drawing apparatus according to claim 7, wherein the texture coordinate calculating means is configured to project a projection position on each of the vertices on a uz plane including a u-axis of the background image and a z-axis of a viewpoint coordinate system. A first projection position calculating means for determining the direction of a line segment from the viewpoint to each of the projection positions and a direction of the normal on the uz plane.
First coordinate calculating means for obtaining coordinates of each vertex on the u-axis in the background image; and a vz plane comprising the v-axis of the background image and the z-axis of the viewpoint coordinate system at each vertex. A second projection position calculating means for determining a projection position, based on at least a direction of a line segment from the viewpoint to each projection position and a direction of the normal on the vz plane in the background image. an image drawing device comprising: a second coordinate calculation unit that obtains coordinates on a v-axis.
【請求項9】屈折が起こるオブジェクトを描画する際
に、前記オブジェクトを構成する面のうち、視点より遠
い面から描画を行い、 各面の描画の際に、それぞれの面の背景画像をテクスチ
ャとして使用する描画ステップを含むプログラムやデー
タが記録されていることを特徴とする記録媒体。
9. When drawing an object in which refraction occurs, drawing is performed from a surface that is farther from the viewpoint among surfaces constituting the object, and a background image of each surface is used as a texture when drawing each surface. A recording medium characterized by recording a program and data including a drawing step to be used.
【請求項10】請求項9記載の記録媒体において、 前記描画ステップは、 1つの面の描画の際に、該面の背景画像のうち、前記面
について前記視点から背景画像に向かい、かつ、前記面
を構成する各頂点での屈折を考慮したベクトルで透視変
換した範囲の背景画像をテクスチャとして使用すること
を特徴とする記録媒体。
10. The recording medium according to claim 9, wherein the drawing step includes, when drawing one surface, of the background image of the surface, from the viewpoint to the background image with respect to the surface, and A recording medium characterized by using a background image in a range perspective-transformed by a vector considering refraction at each vertex of a surface as a texture.
【請求項11】請求項10記載の記録媒体において、 前記描画ステップは、 前記面を構成する各頂点での屈折を考慮したベクトル
を、少なくとも前記面の視点座標系における法線の方向
と、前記視点から各頂点に向かう線分の方向に基づいて
求めるテクスチャ座標演算ステップを含むことを特徴と
する記録媒体。
11. The recording medium according to claim 10, wherein, in the drawing step, a vector in consideration of refraction at each vertex of the surface is defined by at least a direction of a normal in a viewpoint coordinate system of the surface, and A recording medium comprising a texture coordinate calculation step for obtaining based on a direction of a line segment from a viewpoint to each vertex.
【請求項12】請求項11記載の記録媒体において、 前記テクスチャ座標演算ステップは、 前記各頂点における前記背景画像のu軸と視点座標系の
z軸から構成されるuz平面上への投影位置を求める第
1の投影位置演算ステップと、 少なくとも前記視点から前記各投影位置に向かう線分の
方向と前記法線の前記uz平面上での方向に基づいて、
前記各頂点の前記背景画像におけるu軸上での座標を求
める第1の座標演算ステップと、 前記各頂点における前記背景画像のv軸と視点座標系の
z軸から構成されるvz平面上への投影位置を求める第
2の投影位置演算ステップと、 少なくとも前記視点から各投影位置に向かう線分の方向
と前記法線の前記vz平面上での方向に基づいて、前記
各頂点の前記背景画像におけるv軸上での座標を求める
第2の座標演算ステップとを含むことを特徴とする記録
媒体。
12. The recording medium according to claim 11, wherein the texture coordinate calculating step includes: projecting a projection position on each of the vertices on a uz plane including a u-axis of the background image and a z-axis of a viewpoint coordinate system. Calculating a first projection position calculating step, based on at least a direction of a line segment from the viewpoint to each of the projection positions and a direction of the normal on the uz plane,
A first coordinate calculation step for obtaining coordinates of each of the vertices on the u axis in the background image; and a vz plane formed by the v axis of the background image and the z axis of the viewpoint coordinate system at each vertex. A second projection position calculation step of calculating a projection position, based on at least a direction of a line segment from the viewpoint to each projection position and a direction of the normal on the vz plane in the background image of each vertex. a second coordinate calculation step for obtaining coordinates on the v-axis.
【請求項13】コンピュータにて読み取り、実行可能な
プログラムにおいて、 屈折が起こるオブジェクトを描画する際に、前記オブジ
ェクトを構成する面のうち、視点より遠い面から描画を
行い、各面の描画の際に、それぞれの面の背景画像をテ
クスチャとして使用する描画ステップを有することを特
徴とするプログラム。
13. A computer-readable and executable program comprising: when drawing an object in which refraction occurs, drawing from a surface of the object that is farther from the viewpoint; A drawing step of using a background image of each surface as a texture.
JP2000273266A 1999-09-10 2000-09-08 Image drawing method, image drawing apparatus, and recording medium Expired - Fee Related JP3517637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000273266A JP3517637B2 (en) 1999-09-10 2000-09-08 Image drawing method, image drawing apparatus, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-257565 1999-09-10
JP25756599 1999-09-10
JP2000273266A JP3517637B2 (en) 1999-09-10 2000-09-08 Image drawing method, image drawing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001148032A true JP2001148032A (en) 2001-05-29
JP3517637B2 JP3517637B2 (en) 2004-04-12

Family

ID=26543268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000273266A Expired - Fee Related JP3517637B2 (en) 1999-09-10 2000-09-08 Image drawing method, image drawing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3517637B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952205B2 (en) 2001-08-24 2005-10-04 Konami Corporation Recording medium storing 3D image processing program, the program, 3D image processing method and video game apparatus
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method
JP2007299080A (en) * 2006-04-28 2007-11-15 Sgi Japan Ltd Image generation method and image generation device
JP2010026905A (en) * 2008-07-23 2010-02-04 Sammy Corp Image generation device, game machine and program
JP2019144774A (en) * 2018-02-19 2019-08-29 株式会社あかつき Three-d model display device, 3d model display method and 3d model display program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952205B2 (en) 2001-08-24 2005-10-04 Konami Corporation Recording medium storing 3D image processing program, the program, 3D image processing method and video game apparatus
JP2005346165A (en) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc Image processor, and image processing method
JP2007299080A (en) * 2006-04-28 2007-11-15 Sgi Japan Ltd Image generation method and image generation device
JP2010026905A (en) * 2008-07-23 2010-02-04 Sammy Corp Image generation device, game machine and program
JP2019144774A (en) * 2018-02-19 2019-08-29 株式会社あかつき Three-d model display device, 3d model display method and 3d model display program
JP7125847B2 (en) 2018-02-19 2022-08-25 株式会社あかつき 3D model display device, 3D model display method and 3D model display program

Also Published As

Publication number Publication date
JP3517637B2 (en) 2004-04-12

Similar Documents

Publication Publication Date Title
KR100700307B1 (en) Method and apparatus for rendering images with refraction
JP3588351B2 (en) System and method for creating real-time shadows of transparent objects
US20100238172A1 (en) Cone-culled soft shadows
JP2009525526A (en) Method for synthesizing virtual images by beam emission
CN116670723A (en) System and method for high quality rendering of synthetic views of customized products
US9401044B1 (en) Method for conformal visualization
KR102151443B1 (en) Graphics processing apparatus based on hybrid gpu architecture
US20240203030A1 (en) 3d model rendering method and apparatus, electronic device, and storage medium
JP3951362B2 (en) Image processing apparatus, game apparatus, method thereof, and recording medium
EP1083521A2 (en) Method of and apparatus for rendering image, recording medium, and program
JP4983793B2 (en) Image processing program and image processing apparatus
JP2692783B2 (en) System and method for generating a two-dimensional representation of a three-dimensional object
KR100489572B1 (en) Image processing method
JP2001148032A (en) Method and device for plotting image, recording medium and program
KR100295709B1 (en) Spotlight characteristic forming method and image processor using the same
JP2007512603A (en) Image drawing
CN111862338B (en) Display method and device for simulated eyeglass wearing image
JP2001243493A (en) Method and device for image plotting, recording medium, and program
JP2007299080A (en) Image generation method and image generation device
JPH0729034A (en) Shadow processing device and image generation device
JP2001148031A (en) Method and device for plotting image, recording medium and program
JP2518712B2 (en) Method and apparatus for producing high quality rendering drawing in computer graphic
WO2025148225A1 (en) Rendering method and rendering system for oblique photography model
JP2633909B2 (en) 3D graphic display method
CN121392104A (en) Rendering processing method, rendering processing device, rendering processing equipment, storage medium and program product

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040126

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140130

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees