[go: up one dir, main page]

JPH05303623A - Method for generating simulated visibility - Google Patents

Method for generating simulated visibility

Info

Publication number
JPH05303623A
JPH05303623A JP12982992A JP12982992A JPH05303623A JP H05303623 A JPH05303623 A JP H05303623A JP 12982992 A JP12982992 A JP 12982992A JP 12982992 A JP12982992 A JP 12982992A JP H05303623 A JPH05303623 A JP H05303623A
Authority
JP
Japan
Prior art keywords
light
pattern
viewpoint
plane
earth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP12982992A
Other languages
Japanese (ja)
Other versions
JP3143208B2 (en
Inventor
Yasuhiro Enomoto
保宏 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Precision Co Ltd
Original Assignee
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Precision Co Ltd filed Critical Mitsubishi Precision Co Ltd
Priority to JP12982992A priority Critical patent/JP3143208B2/en
Publication of JPH05303623A publication Critical patent/JPH05303623A/en
Application granted granted Critical
Publication of JP3143208B2 publication Critical patent/JP3143208B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To make a mapping of brightness which changes frame by frame on the topography and to make a simulation of illumination by applying the texture stored in a pattern memory on the light plane moving with the view point. CONSTITUTION:A light plane 13 is a virtual one corresponding to a memory holding the shape and brightness of the illumination from a light source 12, which is not in the space of the earth coordinates in the database but kept in a brightness pattern 14 formed by the circular illumination. The direction and location of the light plane 13 is defined by a light vector L which coincides with the perpendicular down from a view point 11 to the light plane 13 and which is directed to illuminate the light source 12. The distance L from the original 130 of the light plane 13 to the view point 11 is kept constant and the direction moves with the view point 11 to be changed individually. A pilot sees the two-dimensional picture of the scene on the earth coordinates through a screen 15 from the view point 1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、コンピュータを用い
た模擬視界発生方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulated visual field generating method using a computer.

【0002】[0002]

【従来の技術】コンピュータグラッフィックスにおい
て、データベース上に格納され仮定された三次元の情景
を構成する多角形面上に必要な模様を付して、指定され
た視点から見た二次元画像として表示を行なう方法があ
る。情景を構成する多角形(「ポリゴン」という)面上
の必要な模様は、テクスチャと呼ばれ、複雑で不均一な
色や輝度のパターンを言う。各ポリゴンは、一枚一枚の
平面で構成され、データベース上の平面を視点から見た
情景になるように平行回転移動をして表示されるため、
テクスチャを与えない場合は、海面や地面などは単なる
青あるいは茶色の平面として表示される。図8(a)に
テクスチャを与えない海面、図8(b)にテクスチャを
与えた海面の表示例を示す。
2. Description of the Related Art In a computer graphics, a required pattern is attached to a polygonal surface which is stored in a database and constitutes an assumed three-dimensional scene, and is displayed as a two-dimensional image viewed from a designated viewpoint. There is a way to do. The necessary pattern on the polygonal surface (called "polygon") that makes up the scene is called a texture, which is a complex and non-uniform color or brightness pattern. Each polygon is composed of a single plane, and is displayed by performing parallel rotation movement so that the plane on the database can be seen from the viewpoint.
If you don't give a texture, the sea and ground will be displayed as plain blue or brown planes. FIG. 8A shows a display example of the sea surface without texture, and FIG. 8B shows a display example of the sea surface with texture.

【0003】このようなテクスチャを与えるのは、主に
以下の理由による。
The reason for providing such a texture is mainly for the following reasons.

【0004】まず、第1に図8からもわかるように、
映像を実界に近いリアルなものとすることができる。
First, as can be seen from FIG.
Images can be made to be realistic, close to the real world.

【0005】第2にコンピュータグラフィックを応用
して飛行機、自動車等の訓練用シミュレータを構成した
場合、パイロット等の訓練者に速度感や距離感などをよ
り正確に与えることができる。
Secondly, when computer graphics are applied to construct a training simulator for airplanes, automobiles, etc., the trainees such as pilots can be given a sense of speed and distance more accurately.

【0006】第3に複雑な模様表現をポリゴンを用い
ずに発生させることができるため、ハードウェアの計算
量を減らせることができる。などである。
Thirdly, since a complicated pattern expression can be generated without using polygons, the amount of hardware calculation can be reduced. And so on.

【0007】テクスチャの発生原理は、通常のポリゴン
とは逆の経路で、表示装置であるCRT上の各画素を予
めパターンがストアされているテクスチャメモリのアド
レスへ対応させることによっている。この操作を「マッ
ピング」と呼ぶ。
The principle of texture generation is that the pixel on the CRT, which is a display device, is made to correspond to the address of the texture memory in which a pattern is stored in advance, in a route opposite to that of a normal polygon. This operation is called "mapping".

【0008】図9に通常の模擬視界発生の変換、図10
にテクスチャマッピングで用いられる逆変換の手順を模
式的にしたものを示す。
FIG. 9 shows the conversion of normal simulated visual field generation, and FIG.
Shows a schematic procedure of the inverse transformation used in texture mapping.

【0009】図9は、通常の変換、すなわちデータベー
ス座標系で定義されたポリゴンをスクリーン座標に変換
する過程を示す。データベース座標系で定義されたバー
テックス(例えば、図9の立方体の一点)は、パイロッ
トの視点位置および向きに応じて平行移動、回転移動の
変換を施されて、視点座標系に変換される。視点座標系
に変換されたバーテックスは、さらにバーテックスが囲
むポリゴンが視点から見えるような幾何学的処理、すな
わち透視変換を受け、スクリーン座標に変換される。す
なわち、データベース座標でのある点(Xe,Ye
e)は、平行および回転移動により、視点座標系の点
(XP,YP,ZP)に変換され、さらに透視変換によっ
てスクリーン座標(XS,YS)に変換される。
FIG. 9 shows a normal conversion process, that is, a process of converting a polygon defined in a database coordinate system into screen coordinates. The vertex defined in the database coordinate system (for example, one point of the cube in FIG. 9) is converted into the parallel coordinate system and the rotational motion according to the viewpoint position and orientation of the pilot, and then converted into the viewpoint coordinate system. The vertex converted into the viewpoint coordinate system is further subjected to geometrical processing such that the polygon surrounded by the vertex can be seen from the viewpoint, that is, perspective conversion, and converted into screen coordinates. That is, a point (X e , Y e ,
Z e ) is converted into points (X P , Y P , Z P ) in the viewpoint coordinate system by parallel and rotational movement, and further converted into screen coordinates (X S , Y S ) by perspective transformation.

【0010】これに対して、テクスチャマッピングは、
図10に示すようなスクリーン座標(XS,YS)からデ
ータベース座標系への逆変換として表される。図11の
フロー図に示すように、スクリーン座標から地球座標系
への変換は次の通りである。CRT上の各画素すなわち
スクリーン座標上の一点(XS,YS)は、逆透視投影変
換により、例えばパイロットの視点を原点とした点(X
P,YP,ZP)に変換され、さらに回転及び平行移動に
より、地球座標系のポリゴン平面上の一点(Xe,Ye
e)に変換された後、仮定した水平平面すなわちテク
スチャプレーンに正射影させるテクスチャ空間マッピン
グにより、テクスチャ座標(XT,YT)に変換される。
(XT,YT)は、与えられたスクリーン座標(XS
S,ZS)に対応するテクスチャ値を得るために予めテ
クスチャパターンをストアしたメモリのアドレスとな
る。
On the other hand, texture mapping is
It is represented as an inverse transformation from screen coordinates (X S , Y S ) as shown in FIG. 10 to a database coordinate system. As shown in the flow chart of FIG. 11, the conversion from screen coordinates to the earth coordinate system is as follows. Each pixel on the CRT, that is, one point (X S , Y S ) on the screen coordinates is, for example, a point (X
P , Y P , Z P ), and further by rotation and translation, one point (X e , Y e , on the polygon plane of the earth coordinate system).
After being converted to Z e ), it is converted to texture coordinates (X T , Y T ) by texture space mapping for orthographic projection onto an assumed horizontal plane, that is, a texture plane.
(X T , Y T ) is the given screen coordinate (X S ,
It becomes the address of the memory in which the texture pattern is stored in advance in order to obtain the texture value corresponding to Y S , Z S ).

【0011】スクリーン上の座標(XS,YS,ZS)と
地球座標上の一点(Xe,Ye,Ze)の関係は、以下の
通りである。
The relationship between the coordinates (X S , Y S , Z S ) on the screen and one point (X e , Y e , Z e ) on the earth coordinates is as follows.

【0012】[0012]

【数1】 [Equation 1]

【0013】ここでWhere

【0014】[0014]

【数2】 [Equation 2]

【0015】は地球座標系で表した視点座標。Is a viewpoint coordinate expressed in the earth coordinate system.

【0016】[0016]

【数3】 [Equation 3]

【0017】は地球座標系に対するスクリーンの方向及
びスクリーンサイズ等から決するマトリクス。
Is a matrix determined from the screen direction with respect to the earth coordinate system, the screen size, and the like.

【0018】このような逆変換が正確に行われることに
よって視点が移動しても、ポリゴン上に与えられたテク
スチャパターンは、あたかもそのポリゴンに付属してい
るように固定してCRT上に表示することができる。
Even if the viewpoint moves due to the accurate inverse transformation, the texture pattern given on the polygon is fixed and displayed on the CRT as if it were attached to the polygon. be able to.

【0019】図12のように、テクスチャを地面120
1にマッピングする場合を例にとる。地球座標系で表さ
れたテクスチャの原点1202を(XTO,YTO,ZTO
とすると、テクスチャ座標(XT,YT)は、以下のよう
になる。テクスチャはテクスチャプレーン1203のテ
クスチャ座標(XT,YT)をアドレスとして指定するこ
とにより図示しないテクスチャメモリから読出される。
なお、1204は視点(座標(XO,YO,ZO))、1
205はスクリーン、1206は地球座標系の原点であ
る。
As shown in FIG. 12, the texture is applied to the ground 120.
The case of mapping to 1 will be taken as an example. Set the origin 1202 of the texture expressed in the earth coordinate system (X TO , Y TO , Z TO )
Then, the texture coordinates (X T , Y T ) are as follows. The texture is read from a texture memory (not shown) by designating the texture coordinates (X T , Y T ) of the texture plane 1203 as an address.
Note that 1204 is a viewpoint (coordinates (X O , Y O , Z O )), 1
205 is a screen and 1206 is the origin of the earth coordinate system.

【0020】[0020]

【数4】 [Equation 4]

【0021】MT:テクスチャマッピングマトリクスM T : Texture mapping matrix

【0022】ここで、図12のように、テクスチャを地
面へ正射影するときは、
Here, as shown in FIG. 12, when the texture is orthographically projected onto the ground,

【0023】[0023]

【数5】 [Equation 5]

【0024】と表わされる。Is represented by

【0025】従来のテクスチャマッピングは、このよう
に、CRT上に表示されるテクスチャが定義されたポリ
ゴン上の各画素について逆変換を施し、テクスチャパタ
ーン値を得ることでテクスチャマッピングを行ってい
る。
In the conventional texture mapping, the texture mapping is performed by performing the inverse conversion for each pixel on the polygon in which the texture displayed on the CRT is defined and obtaining the texture pattern value.

【0026】[0026]

【発明が解決しようとする課題】従来の方法では、テク
スチャパターンを地形上に固定して見えるようにマッピ
ングしていた。従って、テクスチャパターンが移動する
場合、例えば、航空機からのランディングライトや、自
動車の前照燈の地面への照明が地面上を移動するものに
ついては、実現することはできなかった。
In the conventional method, the texture pattern is mapped so that it looks fixed on the terrain. Therefore, when the texture pattern moves, it has not been possible to realize, for example, a landing light from an aircraft or a headlight of an automobile that illuminates the ground on the ground.

【0027】この発明が解決しようとする課題は、視点
の移動に伴い動的に変化する輝度パターンを地形上へマ
ッピングして、ランディングライト等の模擬を可能にす
る模擬視界発生方法を提供することにある。
The problem to be solved by the present invention is to provide a simulated field-of-view generation method that enables a landing light or the like to be simulated by mapping a luminance pattern that dynamically changes with the movement of the viewpoint on the terrain. It is in.

【0028】[0028]

【課題を解決するための手段】本発明に係る模擬視界発
生方法は、データベース上に格納され仮定された三次元
の情景を構成する多角形面上に必要な模様を付して、指
定された視点から見た二次元画像として表示を行なう方
法において、仮定する移動体が備え指向性を有する光源
から放射された光が、視点位置から常に一定位置に存在
すると仮定するライトプレーンを照らすときに形成され
る輝度パターンを予めパターンメモリに格納し、スクリ
ーン面上の位置を視点から見たデータベースが仮定する
地球上の座標へ逆変換し、前記ライトプレーンから当該
地球上の座標点に投影したときの位置をパターンメモリ
のアドレスとして求め、パターンメモリから読出した輝
度パターンより前記地球上の座標点におけるライト照明
として表示するものである。
A simulated visual field generating method according to the present invention is designated with a necessary pattern on a polygonal surface which is stored in a database and constitutes an assumed three-dimensional scene. In the method of displaying as a two-dimensional image viewed from the viewpoint, the light emitted from the directional light source included in the assumed moving body illuminates the light plane, which is assumed to always exist at a fixed position from the viewpoint position. The luminance pattern to be stored in the pattern memory in advance, the position on the screen surface is converted back to the coordinates on the earth assumed by the database from the viewpoint, and when projected from the light plane to the coordinates on the earth. The position is obtained as the address of the pattern memory and displayed as the light illumination at the coordinate point on the earth from the brightness pattern read from the pattern memory. It is.

【0029】[0029]

【作用】ライトプレーンは常に視点から一定位置にある
と仮定するので、視点の位置にある光源から放射される
光は、常に同一の輝度パターンでライトプレーンを照ら
すことになる。これを予めパターンメモリに格納してお
く。視点の移動に伴って、表示装置のスクリーン面上に
写し出される地形が変化すると、常に同一の輝度パター
ンで照らされたライトプレーンも移動する。スクリーン
面上の情景の位置を視点から見たデータベースが仮定す
る地球上の座標へ変換する。その地球座標上にある点に
ライトプレーンから投影することにより、ライトプレー
ンの点とスクリーン面上に表示される地球座標上の点と
を対応させる。この対応させた座標をアドレスとしてパ
ターンメモリを読出す。読出された輝度パターンのデー
タは、対応する地球上の座標点からのデータと同じよう
に扱われて、視点から地形を見たときに光源からの光が
地形を照らしたように変換され、スクリーン面上に表示
される。
Since it is assumed that the light plane is always located at a fixed position from the viewpoint, the light emitted from the light source located at the viewpoint always illuminates the light plane with the same brightness pattern. This is stored in the pattern memory in advance. When the terrain projected on the screen surface of the display device changes as the viewpoint moves, the light plane illuminated by the same brightness pattern always moves. The position of the scene on the screen is converted into the coordinates on the earth that the database assumes from the viewpoint. By projecting from the light plane to the point on the earth coordinate, the point on the light plane and the point on the earth coordinate displayed on the screen surface correspond to each other. The pattern memory is read by using the coordinate thus made correspondent as an address. The read luminance pattern data is treated in the same manner as the data from the corresponding coordinate points on the earth, and when the terrain is viewed from the viewpoint, the light from the light source is converted to illuminate the terrain, and the screen is displayed. Displayed on the surface.

【0030】[0030]

【実施例】本発明に係る模擬視界発生方法の一実施例を
図面を用いて説明する。図1は、一実施例を説明する概
念図である。図2は手順を示すフロー図である。スクリ
ーン座標(XS,YS,ZS)(ZS=1)を地球座標に変
換することは、従来の技術として説明した手法と同様で
あり、上述の式(1)により説明される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a simulated visual field generating method according to the present invention will be described with reference to the drawings. FIG. 1 is a conceptual diagram illustrating an embodiment. FIG. 2 is a flowchart showing the procedure. Converting the screen coordinates (X S , Y S , Z S ) (Z S = 1) into the earth coordinates is similar to the method described as the conventional technique, and is described by the above-mentioned formula (1).

【0031】仮想する地球空間に例えば航空機のパイロ
ットの視点11があり、パイロットの操縦に従って移動
する。視点11とほぼ同一位置には光源12があり、視
点11とともに移動する。光源12は指向性を有し、一
定方向を照明するものとする。本発明において、ライト
プレーン13が特徴的な概念である。図1に示したライ
トプレーン13は、光源12からのライト照明の形状及
び輝度を保持するメモリに対応した仮想的な平面であ
り、データベースにおける地球座標の空間上に存在する
ものではない。実施例の場合は、光源12からの円形の
ライト照明による輝度パターン14が保持されていると
考える。ライトプレーン13の向き及び位置は、視点1
1からライトプレーン13に下ろした垂線に一致するラ
イトベクトルLにより定義され、その方向(ベクトル
L)は光源12の照らし出す方向と定義している。ライ
トプレーン13の原点130から視点11までの距離|
L|は、常に一定であり、その方向は視点11とともに
移動し、さらに独立に変えることができる。パイロット
は視点11位置からスクリーン15を通して地球座標上
の情景をスクリーン15に投影した2次元画像を見るこ
とになる。なお、16は地球座標系の原点である。
In a virtual earth space, for example, the viewpoint 11 of an aircraft pilot moves, and moves according to the pilot's control. The light source 12 is located at substantially the same position as the viewpoint 11, and moves with the viewpoint 11. The light source 12 has directivity and illuminates a fixed direction. In the present invention, the light plane 13 is a characteristic concept. The light plane 13 shown in FIG. 1 is a virtual plane corresponding to a memory that holds the shape and brightness of the light illumination from the light source 12, and does not exist in the space of earth coordinates in the database. In the case of the embodiment, it is considered that the luminance pattern 14 by the circular light illumination from the light source 12 is held. The orientation and position of the light plane 13 is the viewpoint 1
It is defined by a light vector L that coincides with a perpendicular drawn from 1 to the light plane 13, and its direction (vector L) is defined as the direction in which the light source 12 illuminates. Distance from the origin 130 of the light plane 13 to the viewpoint 11 |
L | is always constant, and its direction moves with the viewpoint 11 and can be changed independently. The pilot will see a two-dimensional image in which the scene on the earth coordinates is projected on the screen 15 through the screen 15 from the viewpoint 11 position. Note that 16 is the origin of the earth coordinate system.

【0032】上述のように、スクリーン座標(XS
S,ZS)(ZS=1)を式(1)により地球座標
(Xe,Ye,Ze)に変換してある。次に、地球座標系
で定義されたライトプレーン13の原点を(XLO
LO,ZLO)とすると、スクリーン座標(XS,YS,Z
S)におけるライトプレーン13上の座標(XL,YL
は、
As described above, the screen coordinates (X S ,
Y S , Z S ) (Z S = 1) is converted into the earth coordinates (X e , Y e , Z e ) by the equation (1). Next, the origin of the light plane 13 defined in the earth coordinate system is set to (X LO ,
Y LO , Z LO ), screen coordinates (X S , Y S , Z
Coordinates (X L , Y L ) on the light plane 13 in S )
Is

【0033】[0033]

【数6】 [Equation 6]

【0034】ここで、Here,

【0035】[0035]

【数7】 [Equation 7]

【0036】MT:ライトプレーンから、地面への正射
影を示すマトリクス。
M T : Matrix showing the orthogonal projection from the light plane to the ground.

【0037】[0037]

【数8】 [Equation 8]

【0038】ML:ライトプレーンの地球座標系に対す
る姿勢を示すマトリクス。ライトベクトルLにより計算
される。
ML : Matrix indicating the attitude of the light plane with respect to the earth coordinate system. It is calculated by the light vector L.

【0039】のように表わすことができる。It can be expressed as

【0040】このときの射影の状態は、図1に示すよう
に、ライトプレーン13からライトの形状が、ポリゴン
17で構成された地形上に正射影されるようになる。従
って、ライトプレーン13に照らされる輝度パターン1
4が円形であるとし、ライトプレーン13が地球平面の
ポリゴンに対して平行であれば、ポリゴン上のライト照
明は、円となり、斜めであれば楕円となる。
As for the projection state at this time, as shown in FIG. 1, the shape of the light is orthographically projected from the light plane 13 onto the terrain formed by the polygons 17. Therefore, the brightness pattern 1 illuminated by the light plane 13
If 4 is a circle and the light plane 13 is parallel to the polygon of the earth plane, the light illumination on the polygon is a circle, and if it is oblique, it is an ellipse.

【0041】式(2),(3)により、(XL,YL)の
値は以下の形に表わすことができる。
From the expressions (2) and (3), the value of (X L , Y L ) can be expressed in the following form.

【0042】 XL=a0+(a1S+a2S+a3)/ZS (4)X L = a 0 + (a 1 X S + a 2 Y S + a 3 ) / Z S (4)

【0043】 YL=b0+(b1S+b2S+b3)/ZS (5)Y L = b 0 + (b 1 X S + b 2 Y S + b 3 ) / Z S (5)

【0044】ここで、a0,a1,a2,a3,b0,b1
2,b3は、フレーム毎に一定の定数である。
Here, a 0 , a 1 , a 2 , a 3 , b 0 , b 1 ,
b 2 and b 3 are constant constants for each frame.

【0045】また、平面では、In the plane,

【0046】 ZS=c1S+c2S+c3 (6)Z S = c 1 X S + c 2 Y S + c 3 (6)

【0047】の関係がある。There is a relationship of

【0048】(XL,YL)に座標変換されたスクリーン
座標(XS,YS,ZS)は、(XL,YL)をアドレスと
して、ライトプレーン13を構成しているメモリをアク
セスする。メモリにはあらかじめライト照明の形状、輝
度値がストアされている。このメモリは、例えばランデ
ィングライトの輝度パターンを保持するだけの容量を持
ち、ライト照明の範囲外になった(XL,YL)は、リミ
ットされ輝度値は最小となる。読出された(XL,YL
は、対応する地球座標点における輝度を有する点とし
て、対応する背景(対応する地形面)の輝度と加算さ
れ、ビデオ信号が得られる。
[0048] (X L, Y L) to coordinate transformation the screen coordinates (X S, Y S, Z S) as address (X L, Y L), the memory constituting the light plane 13 to access. The shape of the light illumination and the brightness value are stored in advance in the memory. This memory is, for example, has a capacity to hold a luminance pattern of the landing light, falls outside the range of the light illumination (X L, Y L) is a limit to luminance values is minimized. Read out (X L , Y L )
Is added to the luminance of the corresponding background (corresponding terrain surface) as a point having the luminance at the corresponding earth coordinate point to obtain a video signal.

【0049】次に、本発明に使用する模擬視界発生装置
について、図3により説明する。図3に示したディジタ
ル計算機301及びビデオ計算機302は、従来からの
テクスチャの計算に用いているものと同様のものであ
る。ランディングライト発生装置320は新たに付加し
た装置である。
Next, the simulated visual field generator used in the present invention will be described with reference to FIG. The digital computer 301 and the video computer 302 shown in FIG. 3 are the same as those used in the conventional texture calculation. The landing light generator 320 is a newly added device.

【0050】ディジタル計算機301は、上記した原理
に基づいてマトリクス等の計算を行い、式(4),
(5),(6)で示した、各定数を計算する。
The digital computer 301 calculates a matrix or the like based on the above-mentioned principle, and formula (4),
Each constant shown in (5) and (6) is calculated.

【0051】ビデオ信号計算機302は、従来の模擬視
界発生装置に用いるものと同様のものであり、スクリー
ン座標(XS,YS,ZS)における色を計算する。
The video signal calculator 302 is similar to the one used in the conventional simulated visual field generator, and calculates the color at the screen coordinates (X S , Y S , Z S ).

【0052】マトリクスアキュムレータ311a,31
1bは、ディジタル計算機301で計算された定数に基
づきそれぞれ、a1S+a2S+a3,b1S+b2S
+b3の計算を行う。
Matrix accumulators 311a, 31
1b is based on the constants calculated by the digital computer 301, a 1 XS + a 2 Y s + a 3 , b 1 XS + b 2 Y s
Calculate + b 3 .

【0053】Zインバータ303は、マッピングされる
平面の方程式から、1/Zs=1/(c1s+c2s+c
3)の計算を行うものであり、従来の技術として説明した
場合にも用いるものである。
The Z inverter 303 calculates 1 / Z s = 1 / (c 1 X s + c 2 Y s + c) from the equation of the plane to be mapped.
It is used to calculate 3 ) and is also used in the case described as a conventional technique.

【0054】乗算器313a,313bは、マトリクス
アキュムレータ311a,311bで計算された、a1
S+a2S+a3,b1S+b2S+b3と、Zインバ
ータ303からの1/Zsとの乗算を行う。
The multipliers 313a and 313b are a 1 calculated by the matrix accumulators 311a and 311b.
And X S + a 2 Y S + a 3, b 1 X S + b 2 Y S + b 3, a multiplication with 1 / Z s from Z inverter 303 performs.

【0055】アドレス発生器314a,314bは、乗
算器313a,313bによって乗算された値にそれぞ
れ定数a0,b0を加算し、式(4),(5)に示したよ
うに、XL,YLの値をそれぞれ計算する。
The address generators 314a and 314b add constants a 0 and b 0 to the values multiplied by the multipliers 313a and 313b, respectively, and as shown in equations (4) and (5), X L , Calculate each Y L value.

【0056】リミッタ315a,315bは、アドレス
発生器314a,314bで計算されたXL,YLが、輝
度パターンのあらかじめ定められた座標からその外にあ
る座標値であるかの判断を行い、外にあるものに対して
は最小の輝度となるアドレスをパターンメモリ316に
送る。
The limiters 315a and 315b determine whether X L and Y L calculated by the address generators 314a and 314b are coordinate values outside the predetermined coordinates of the luminance pattern, and determine whether or not they are outside. The address having the minimum luminance is sent to the pattern memory 316 for the ones in.

【0057】パターンメモリ316は、輝度パターンを
ストアするメモリであり、光源によりライトプレーンを
照らしたときの照明の形状及びその輝度分布がストアさ
れる。その状態を模式的に示したものが、図4である。
The pattern memory 316 is a memory for storing the brightness pattern, and stores the shape of the illumination and the brightness distribution when the light plane is illuminated by the light source. FIG. 4 schematically shows the state.

【0058】減衰テーブル317は、視点から地形上ま
での距離に応じて適当な明るさになるように、パターン
メモリ316から読出されたライトプレーンの輝度を減
衰させるテーブルである。この減衰テーブル317は、
ディジタル計算機301の指示により、光源のオン/オ
フの制御も行う。光源がオフされた場合は、輝度は最小
値となる。
The attenuation table 317 is a table that attenuates the brightness of the light plane read from the pattern memory 316 so that the brightness becomes appropriate according to the distance from the viewpoint to the topography. This attenuation table 317 is
On / off control of the light source is also performed according to an instruction from the digital computer 301. When the light source is turned off, the brightness has a minimum value.

【0059】方向を変えられる複数の光源を模擬する場
合、2つの光源のライト方向のよって重なる部分が出
来、そのような場合、加算器318は、ライト照明のパ
ターンが重なった部分の輝度を加算することによって高
くする。複数の光源を持つ場合は、図3において点線で
囲んだランディングライト発生装置320を当該複数分
だけ備え、それらから外部輝度入力319として入力し
て加算することで模擬が可能となる。図5にこれらラン
ディングライト発生装置320A,320B,320C
の接続を示す。図5では、光源A,B,Cの3個がある
場合である。これによる輝度が、図6のようになったと
すると、各ランディングライト発生装置320B,32
0C内の各加算器318は、異なる光源からの照明ライ
ト60A,60B,60Cの重なった部分の輝度を足し
合わせて、明るくする働きがある。
When simulating a plurality of light sources whose directions can be changed, an overlapping portion is created due to the light directions of the two light sources. In such a case, the adder 318 adds the luminances of the overlapping portions of the light illumination patterns. Increase by doing. In the case of having a plurality of light sources, a plurality of landing light generators 320 surrounded by a dotted line in FIG. 3 are provided, and an external luminance input 319 is input from them and added, whereby a simulation can be performed. FIG. 5 shows these landing light generators 320A, 320B, 320C.
Shows the connection of. In FIG. 5, there are three light sources A, B, and C. Assuming that the resulting luminance is as shown in FIG. 6, the landing light generators 320B, 32
Each adder 318 in 0C has a function of adding up the brightness of the overlapping portions of the illumination lights 60A, 60B, and 60C from different light sources to make them brighter.

【0060】このように計算されたスクリーン座標(X
S,YS,ZS)におけるランディングライトによる輝度
は、ビデオ信号計算機302に入力され、背景であるも
のの輝度に加算される。
The screen coordinates (X
The brightness due to the landing light at S , Y S , Z S ) is input to the video signal calculator 302 and added to the brightness of the background.

【0061】前記実施例では、輝度パターンは光源1個
で照射されることから円形とし、複数の光源から照射す
るときは図5のように重ね合わせているが、輝度パター
ンそのものを図7のように複数光源による照射状態にし
て、それらの内いずれかを選択するようにしてもよい。
この場合はどれを選択するかのコードを図3のディジタ
ル計算機301よりパターンメモリ316に送る必要が
ある。
In the above embodiment, the luminance pattern is circular because it is illuminated by one light source, and when it is illuminated from a plurality of light sources, they are superimposed as shown in FIG. 5, but the luminance pattern itself is as shown in FIG. Alternatively, one of the light sources may be selected by irradiating with a plurality of light sources.
In this case, it is necessary to send to the pattern memory 316 from the digital computer 301 shown in FIG.

【0062】[0062]

【発明の効果】以上のように、この発明によれば視点と
ともに移動するラインプレーン上のパターンメモリに格
納したテクスチャを応用することにより、フレーム毎に
動的に変化する輝度を地形上へマッピングするため、視
点とともに移動する光源からのライト照明の模擬が可能
となる。
As described above, according to the present invention, by applying the texture stored in the pattern memory on the line plane which moves with the viewpoint, the brightness which dynamically changes for each frame is mapped on the terrain. Therefore, it is possible to simulate light illumination from a light source that moves with the viewpoint.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を説明する概念図である。FIG. 1 is a conceptual diagram illustrating an embodiment of the present invention.

【図2】本発明の手順を示すフロー図である。FIG. 2 is a flowchart showing the procedure of the present invention.

【図3】本発明に使用する模擬視界発生装置のブロック
図である。
FIG. 3 is a block diagram of a simulated visual field generator used in the present invention.

【図4】パターンメモリにストアした輝度パターンの形
状及びその輝度分布の状態を模式的に示した図である。
FIG. 4 is a diagram schematically showing a shape of a luminance pattern stored in a pattern memory and a state of its luminance distribution.

【図5】ランディングライト発生装置320を複数接続
した図である。
FIG. 5 is a diagram in which a plurality of landing light generators 320 are connected.

【図6】加算器318の働きを説明する図であり、3個
の光源A,B,Cによる輝度を足し合わせる図である。
FIG. 6 is a diagram for explaining the operation of an adder 318, and is a diagram for summing the luminances of three light sources A, B, and C.

【図7】単一及び複数光源による4種類の輝度パターン
を示す図である。
FIG. 7 is a diagram showing four types of luminance patterns by a single light source and a plurality of light sources.

【図8】テクスチャを説明する図である。FIG. 8 is a diagram illustrating a texture.

【図9】通常の模擬視界発生の変換の手順を模式的に説
明する図である。
FIG. 9 is a diagram schematically illustrating a procedure for converting a normal simulated visual field generation.

【図10】従来のテクスチャマッピングで用いられる逆
変換の手順を模式的に説明する図である。
FIG. 10 is a diagram schematically illustrating an inverse transformation procedure used in conventional texture mapping.

【図11】従来のテクスチャマッピングにおける座標変
換を説明するフロー図である。
FIG. 11 is a flowchart illustrating coordinate conversion in conventional texture mapping.

【図12】テクスチャを地面にマッピングする従来の例
を説明する図である。
FIG. 12 is a diagram illustrating a conventional example of mapping a texture on the ground.

【符号の説明】[Explanation of symbols]

11 視点 12 光源 13 ライトプレーン 14 輝度パターン 15 スクリーン 16 地球座標系の原点 17 ポリゴン 301 ディジタル計算機 302 ビデオ計算機302 320 ランディングライト発生装置 311a,311b マトリクスアキュムレータ 303 Zインバータ 313a,313b 乗算器 314a,314b アドレス発生器 315a,315b リミッタ 316 パターンメモリ 317 減衰テーブル 318 加算器 11 viewpoints 12 light source 13 light plane 14 luminance pattern 15 screen 16 origin of earth coordinate system 17 polygon 301 digital computer 302 video computer 302 320 landing light generator 311a, 311b matrix accumulator 303 Z inverter 313a, 313b multiplier 314a, 314b address generation 315a, 315b Limiter 316 Pattern memory 317 Attenuation table 318 Adder

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 データベース上に格納され仮定された三
次元の情景を構成する多角形面上に必要な模様を付し
て、指定された視点から見た二次元画像として表示を行
なう模擬視界発生方法において、仮定する移動体が備え
指向性を有する光源から放射された光が、視点位置から
常に一定位置に存在すると仮定するライトプレーンを照
らすときに形成される輝度パターンを予めパターンメモ
リに格納し、スクリーン面上の位置を視点から見たデー
タベースが仮定する地球上の座標へ逆変換し、前記ライ
トプレーンから当該地球上の座標点に投影したときの位
置をパターンメモリのアドレスとして求め、パターンメ
モリから読出した輝度パターンより前記地球上の座標点
におけるライト照明として表示することを特徴とする模
擬視界発生方法。
1. A simulated view generation for displaying a two-dimensional image viewed from a designated viewpoint with a necessary pattern on a polygonal surface which is stored in a database and constitutes an assumed three-dimensional scene. In the method, a light pattern emitted from a directional light source included in a hypothetical moving body is stored in advance in a pattern memory when a light plane is assumed to illuminate a light plane, which is assumed to always exist at a fixed position from a viewpoint position. , The position on the screen is inversely converted to the coordinates on the earth assumed by the database from the viewpoint, and the position when projected from the light plane to the coordinates on the earth is obtained as the address of the pattern memory, and the pattern memory A method for generating a simulated field of view, which is displayed as light illumination at the coordinate point on the earth based on the luminance pattern read from the above.
JP12982992A 1992-04-24 1992-04-24 Simulated view generation method Expired - Fee Related JP3143208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12982992A JP3143208B2 (en) 1992-04-24 1992-04-24 Simulated view generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12982992A JP3143208B2 (en) 1992-04-24 1992-04-24 Simulated view generation method

Publications (2)

Publication Number Publication Date
JPH05303623A true JPH05303623A (en) 1993-11-16
JP3143208B2 JP3143208B2 (en) 2001-03-07

Family

ID=15019260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12982992A Expired - Fee Related JP3143208B2 (en) 1992-04-24 1992-04-24 Simulated view generation method

Country Status (1)

Country Link
JP (1) JP3143208B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161528A (en) * 1994-12-01 1996-06-21 Namco Ltd Image synthesizing apparatus and image synthesizing method
WO1999034333A1 (en) * 1997-12-24 1999-07-08 Sega Enterprises, Ltd. Image generating device and image generating method
US6100895A (en) * 1994-12-01 2000-08-08 Namco Ltd. Apparatus and method of image synthesization

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161528A (en) * 1994-12-01 1996-06-21 Namco Ltd Image synthesizing apparatus and image synthesizing method
US6100895A (en) * 1994-12-01 2000-08-08 Namco Ltd. Apparatus and method of image synthesization
WO1999034333A1 (en) * 1997-12-24 1999-07-08 Sega Enterprises, Ltd. Image generating device and image generating method
US6667741B1 (en) 1997-12-24 2003-12-23 Kabushiki Kaisha Sega Enterprises Image generating device and image generating method

Also Published As

Publication number Publication date
JP3143208B2 (en) 2001-03-07

Similar Documents

Publication Publication Date Title
US5841441A (en) High-speed three-dimensional texture mapping systems and methods
JP2667835B2 (en) Computer Graphics Display
US5870098A (en) Method for rendering shadows on a graphical display
US4855934A (en) System for texturing computer graphics images
US8648856B2 (en) Omnidirectional shadow texture mapping
JP3461980B2 (en) High-speed drawing method and apparatus
US4763280A (en) Curvilinear dynamic image generation system
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
US8907950B2 (en) Driving simulation apparatus, wide-angle camera video simulation apparatus, and image deforming/compositing apparatus
JPH0757117A (en) Method and computer controlled display system for generating an index to a texture map
WO1998038591A9 (en) Method for rendering shadows on a graphical display
GB2256567A (en) Modelling system for imaging three-dimensional models
EP0320166A1 (en) Electronic image processing
KR910009102B1 (en) Image synthesizer
US5550959A (en) Technique and system for the real-time generation of perspective images
GB2051525A (en) C.G.I.-Surface textures
JP3035571B2 (en) Image processing device
JP3143208B2 (en) Simulated view generation method
JP3850080B2 (en) Image generation and display device
JP3501479B2 (en) Image processing device
JPH0241785B2 (en)
JPH05303648A (en) Simulated visual range generating device
JP2825402B2 (en) Anti-aliasing method for pattern generation
JPS5998275A (en) Method of mapping image on observation plane and circuit equipment for image address-memory address mapping of biaxial square array
JP3453410B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees