[go: up one dir, main page]

JPH10198819A - Water surface image display device, its image displaying method, and machine-readable recording medium recording computer program - Google Patents

Water surface image display device, its image displaying method, and machine-readable recording medium recording computer program

Info

Publication number
JPH10198819A
JPH10198819A JP9003222A JP322297A JPH10198819A JP H10198819 A JPH10198819 A JP H10198819A JP 9003222 A JP9003222 A JP 9003222A JP 322297 A JP322297 A JP 322297A JP H10198819 A JPH10198819 A JP H10198819A
Authority
JP
Japan
Prior art keywords
texture
image
polygons
screen
water surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9003222A
Other languages
Japanese (ja)
Other versions
JP2812674B2 (en
Inventor
Tsukasa Tokuda
典 徳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Group Corp
Original Assignee
Konami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corp filed Critical Konami Corp
Priority to JP9003222A priority Critical patent/JP2812674B2/en
Publication of JPH10198819A publication Critical patent/JPH10198819A/en
Application granted granted Critical
Publication of JP2812674B2 publication Critical patent/JP2812674B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/663Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating liquid objects, e.g. water, gas, fog, snow, clouds

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a water surface image display device that can show a water surface image in more real expressing form than conventional ones. SOLUTION: When sea surface image display processing starts, a TB(texture blender) 40 sets RGB values of each point on a screen on which the texture is shown by using texture data that is set by a CPU 1 and data of top and bottom polygons 33 and 34. Then, DB(destination blender) 41 makes a frame buffer store an image in which the polygon 33 to which semitransparent texture is attached is overlapped over the polygon 34 to which opaque texture is attached with a gap between them. A plotting processing processor 10 displays and outputs the contents of the frame buffer on a television monitor 22. Thereby, the beautiful image of sea surface 28 having depth is shown on the screen on the screen.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、仮想3次元空間に
設定された水面の画像を画面に表示する画像表示装置,
その画像表示方法,及び,コンピュータプログラムを記
録した機械読取り可能な記録媒体に関する。
The present invention relates to an image display device for displaying an image of a water surface set in a virtual three-dimensional space on a screen,
The present invention relates to an image display method and a machine-readable recording medium on which a computer program is recorded.

【0002】[0002]

【従来の技術】従来、画面上に表示された仮想3次元の
ゲーム空間の底面に相当する位置に水面(例えば海面)の
画像を表示し、その水面上にゲームプレーヤによって操
作可能な戦闘機等(自キャラクタ)を表示させ、ゲーム空
間内に出現する戦闘機等(敵キャラクタ)をどれだけ破壊
できるかを競うシューティングゲームを実行するビデオ
ゲーム機がある。この種のコンピュータ装置によって表
示される水の画像は、水面(例えば海面)を描いた1つの
テクスチャで形成されるのが一般的であった。
2. Description of the Related Art Conventionally, an image of a water surface (for example, the sea surface) is displayed at a position corresponding to a bottom surface of a virtual three-dimensional game space displayed on a screen, and a fighter or the like operable by a game player on the water surface. 2. Description of the Related Art There is a video game machine that executes a shooting game in which a (own character) is displayed and a fighter or the like (enemy character) appearing in a game space can be destroyed. An image of water displayed by such a computer device is generally formed with a single texture depicting the surface of the water (eg, the surface of the sea).

【0003】[0003]

【発明が解決しようとする課題】ところで、上述したビ
デオゲーム機のゲームプレーヤからは、水面の画像をよ
りリアルな表現形態で表示してほしいとの要望があっ
た。
By the way, there has been a request from the game player of the video game machine described above to display an image of the water surface in a more realistic expression form.

【0004】本発明は上記要望に鑑みなされたものであ
り、画面に表示される仮想3次元空間内に表示される水
面の画像をよりリアルな表現形態で表示することのでき
る水面の画像表示装置,その画像表示方法,及び,コン
ピュータプログラムを記録した機械読取り可能な記録媒
体を提供することを課題とする。
The present invention has been made in view of the above-mentioned demands, and has an image display apparatus for a water surface capable of displaying a water surface image displayed in a virtual three-dimensional space displayed on a screen in a more realistic expression form. , An image display method thereof, and a machine-readable recording medium on which a computer program is recorded.

【0005】[0005]

【課題を解決するための手段】本発明は、上述した課題
を解決するために以下の構成を採用する。すなわち、請
求項1の発明は、仮想3次元空間に設定された水面の画
像を画面に表示する装置であって、水面模様が描かれた
テクスチャの画像情報を記憶する画像情報記憶手段と、
前記テクスチャが貼り付けられる2つのポリゴンのデー
タを記憶するポリゴンデータ記憶手段と、前記テクスチ
ャの画像情報,及び前記2つのポリゴンのデータに基づ
いて、前記2つのポリゴンに前記テクスチャをそれぞれ
貼り付けるとともに、この2つのポリゴンを上下に間隔
をあけて重ねた状態で前記仮想3次元空間内に配置する
第1設定手段と、上側に配置されたポリゴンに貼り付け
られた前記テクスチャの画像を半透明として設定する第
2設定手段と、前記第1設定手段,及び前記第2設定手
段によって設定された2つのポリゴンに貼り付けられた
テクスチャの画像を前記画面に表示出力する出力手段と
を備えたことを特徴とする。請求項1の発明は、本願の
第1の発明に係るものである。
The present invention employs the following configuration to solve the above-mentioned problems. That is, the invention according to claim 1 is an apparatus for displaying an image of a water surface set in a virtual three-dimensional space on a screen, wherein image information storage means for storing image information of a texture on which a water surface pattern is drawn,
Polygon data storage means for storing data of two polygons to which the texture is pasted, and pasting the texture to the two polygons based on image information of the texture and data of the two polygons, respectively; First setting means for arranging the two polygons in the virtual three-dimensional space in a state of being overlapped with an interval above and below, and setting the image of the texture pasted on the polygon arranged on the upper side as translucent A second setting unit, and an output unit for displaying and outputting, on the screen, a texture image pasted on the two polygons set by the first setting unit and the second setting unit. And The invention of claim 1 relates to the first invention of the present application.

【0006】請求項1の発明によれば、仮想3次元空間
に設定された水面の画像を画面に表示する場合には、最
初に、第1設定手段が、前記2つのポリゴンに前記テク
スチャをそれぞれ貼り付けるとともに、この2つのポリ
ゴンを上下に間隔をあけて重ねた状態で前記仮想3次元
空間内に配置する。そして、第2設定手段が、上側に配
置されたポリゴンに貼り付けられたテクスチャの画像を
半透明として設定する。そして、出力手段が、前記設定
された二つのポリゴンに貼り付けられたテクスチャの画
像を画面に表示出力する。これにより、透明感及び深さ
感のあるリアルな水面の画像を画面に表示させることが
できる。
According to the first aspect of the present invention, when an image of a water surface set in a virtual three-dimensional space is displayed on a screen, first, the first setting means applies the texture to the two polygons respectively. At the same time, the two polygons are arranged in the virtual three-dimensional space in a state where the two polygons are overlapped with a space therebetween. Then, the second setting unit sets the texture image pasted on the polygon arranged on the upper side as translucent. Then, the output unit displays and outputs the image of the texture pasted to the two set polygons on a screen. This makes it possible to display a real image of the water surface with a sense of transparency and a sense of depth on the screen.

【0007】請求項2の発明は、仮想3次元空間に設定
された水面の画像を画面に表示する装置であって、水面
模様が描かれたテクスチャの画像情報を記憶する画像情
報記憶手段と、前記テクスチャが貼り付けられる2つの
ポリゴンのデータを記憶するポリゴンデータ記憶手段
と、前記テクスチャの画像情報,及び前記2つのポリゴ
ンのデータに基づいて、前記2つのポリゴンに前記テク
スチャをそれぞれ貼り付けるとともに、この2つのポリ
ゴンを上下に間隔をあけて重ねた状態で前記仮想3次元
空間内に配置する第1設定手段と、上側に配置されたポ
リゴンに貼り付けられたテクスチャの画像を前記画面に
表示された仮想3次元空間の半ばから奥側へ行くに従っ
て透明度が上昇する状態で設定するとともに、下側に配
置されたポリゴンに貼り付けられたテクスチャを前記画
面に表示された仮想3次元空間の半ばから奥側に行くに
従ってフォグが強くかかる状態で設定する第2設定手段
と、前記第1設定手段,及び前記第2設定手段によって
設定された2つのポリゴンに貼り付けられたテクスチャ
の画像を前記画面に表示出力する出力手段とを備えたこ
とを特徴とする。請求項2の発明は、本願の第2の発明
に係るものである。
According to a second aspect of the present invention, there is provided an apparatus for displaying an image of a water surface set in a virtual three-dimensional space on a screen, comprising: image information storage means for storing image information of a texture on which a water surface pattern is drawn; Polygon data storage means for storing data of two polygons to which the texture is pasted, and pasting the texture to the two polygons based on image information of the texture and data of the two polygons, respectively; First setting means for arranging the two polygons in the virtual three-dimensional space in a state of being overlapped with an interval above and below, and an image of a texture pasted on the polygon arranged on the upper side is displayed on the screen. The transparency is set to increase from the middle to the back of the virtual three-dimensional space. Second setting means for setting the attached texture in a state in which fog is applied more strongly from the middle to the far side of the virtual three-dimensional space displayed on the screen, the first setting means, and the second setting means Output means for displaying and outputting on the screen an image of the texture pasted on the two polygons set by the above. The invention of claim 2 relates to the second invention of the present application.

【0008】請求項2の発明によれば、第2設定手段
が、上側のポリゴンのテクスチャの画像を仮想3次元空
間の半ばから奥側へ行くに従って透明度が上昇する状態
で設定するとともに、下側のポリゴンのテクスチャを画
面に表示された仮想3次元空間の半ばから奥側に行くに
従ってフォグが強くかかる状態で設定する。このように
設定された2つのテクスチャの画像を出力手段が画面に
表示出力すると、画面の半ばから奥側にかけて霧がかか
ったような水面の画像が表示される。
According to the second aspect of the present invention, the second setting means sets the texture image of the upper polygon in a state in which the transparency increases from the middle to the back of the virtual three-dimensional space, and sets the texture image on the lower polygon. Is set in such a state that fog is applied more strongly from the middle to the back of the virtual three-dimensional space displayed on the screen. When the output unit displays and outputs the images of the two textures set in this way on the screen, an image of the water surface that looks like fog is displayed from the middle to the back of the screen.

【0009】請求項3の発明は、請求項1又は2記載の
前記2つのポリゴンには、同じ水面模様が描かれたテク
スチャが貼り付けられることで、特定したものである。
請求項4の発明は、請求項1乃至3の何れかに記載の前
記仮想3次元空間が画面の手前側に向かって移動するよ
うに設定され、この仮想3次元空間の移動に応じて、前
記2つのポリゴンにそれぞれ貼り付けられたテクスチャ
の画像がそれぞれ別個に画面の手前側に向かって移動す
るように設定されていることで、特定したものである。
According to a third aspect of the present invention, a texture in which the same water surface pattern is drawn is attached to the two polygons according to the first or second aspect.
According to a fourth aspect of the present invention, the virtual three-dimensional space according to any one of the first to third aspects is set so as to move toward the near side of the screen. This is specified because the texture images pasted on the two polygons are set so as to individually move toward the near side of the screen.

【0010】請求項5記載の発明は、請求項2記載の前
記下側に配置されたポリゴンに貼り付けられたテクスチ
ャの画像に対して設定したフォグのかかり具合に応じた
透明度が、前記上側に配置されたポリゴンに貼り付けら
れたテクスチャの画像に対して設定されることで、特定
したものである。
According to a fifth aspect of the present invention, the transparency according to the degree of fog applied to the image of the texture attached to the polygon disposed on the lower side according to the second aspect of the present invention is set to the upper side. This is specified by being set for the image of the texture pasted on the placed polygon.

【0011】請求項6記載の発明は、仮想3次元空間に
設定された水面の画像を画面に表示する方法であって、
水面模様が描かれたテクスチャの画像情報を読み出し、
前記テクスチャが貼り付けられる2つのポリゴンのデー
タを読み出し、前記テクスチャの画像情報,及び前記2
つのポリゴンのデータに基づいて、前記2つのポリゴン
に前記テクスチャをそれぞれ貼り付けるとともに、この
2つのポリゴンを上下に間隔をあけて重ねた状態で前記
仮想3次元空間内に配置し、上側に配置されたポリゴン
に貼り付けられた前記テクスチャの画像を半透明として
設定し、設定した2つのポリゴンに貼り付けられたテク
スチャの画像を前記画面に表示出力することを特徴とす
る。
The invention according to claim 6 is a method for displaying an image of a water surface set in a virtual three-dimensional space on a screen,
Read the image information of the texture on which the water surface pattern was drawn,
The data of the two polygons to which the texture is pasted is read out, and the image information of the texture and
Based on the data of the two polygons, the textures are pasted on the two polygons, respectively, and the two polygons are arranged in the virtual three-dimensional space in a state of being overlapped with an interval above and below, and arranged on the upper side. The image of the texture pasted on the set polygon is set as translucent, and the image of the texture pasted on the two set polygons is displayed and output on the screen.

【0012】請求項7の発明は、仮想3次元空間に設定
された水面の画像を画面に表示する方法であって、水面
模様が描かれたテクスチャの画像情報を読み出し、前記
テクスチャが貼り付けられる2つのポリゴンのデータを
読み出し、前記テクスチャの画像情報,及び前記2つの
ポリゴンのデータに基づいて、前記2つのポリゴンに前
記テクスチャをそれぞれ貼り付けるとともに、この2つ
のポリゴンを上下に間隔をあけて重ねた状態で前記仮想
3次元空間内に配置し、上側に配置されたポリゴンに貼
り付けられたテクスチャの画像を前記画面に表示された
仮想3次元空間の半ばから奥側へ行くに従って透明度が
上昇する状態で設定するとともに、下側に配置されたポ
リゴンに貼り付けられたテクスチャの画像を前記画面に
表示された仮想3次元空間の半ばから奥側に行くに従っ
てフォグが強くかかる状態で設定し、設定した2つのポ
リゴンに貼り付けられたテクスチャの画像を前記画面に
表示出力することを特徴とする。
A seventh aspect of the present invention is a method for displaying an image of a water surface set in a virtual three-dimensional space on a screen, wherein image information of a texture on which a water surface pattern is drawn is read and the texture is pasted. The data of the two polygons is read, and the texture is pasted on the two polygons based on the image information of the texture and the data of the two polygons, respectively, and the two polygons are overlapped at an interval above and below. In the virtual three-dimensional space, and the transparency of the image of the texture pasted on the polygon arranged on the upper side increases from the middle to the back of the virtual three-dimensional space displayed on the screen. While setting in the state, the image of the texture pasted on the polygon arranged on the lower side is displayed on the virtual 3 Set the mid-dimensional space in a state where the fog is applied strongly toward the far side, and displaying output images of the texture affixed to two polygons is set on the screen.

【0013】請求項8の発明は、仮想3次元空間に設定
された水面の画像を画面に表示出力する処理をコンピュ
ータに実行させるコンピュータプログラムを記録した機
械読取り可能な記録媒体であって、コンピュータに、水
面模様が描かれたテクスチャの画像情報を読み出すステ
ップと、前記テクスチャが貼り付けられる2つのポリゴ
ンのデータを読み出すステップと、前記テクスチャの画
像情報,及び前記2つのポリゴンのデータに基づいて、
前記2つのポリゴンに前記テクスチャをそれぞれ貼り付
けるとともに、この2つのポリゴンを上下に間隔をあけ
て重ねた状態で前記仮想3次元空間内に配置するステッ
プと、上側に配置されたポリゴンに貼り付けられた前記
テクスチャの画像を半透明として設定するステップと、
設定した2つのポリゴンに貼り付けられたテクスチャの
画像を前記画面に表示出力するステップとを実行させる
ためのプログラムを記録した機械読取り可能な記録媒体
である。
According to an eighth aspect of the present invention, there is provided a machine-readable recording medium storing a computer program for causing a computer to execute a process of displaying and outputting an image of a water surface set in a virtual three-dimensional space on a screen. Reading the image information of the texture on which the water surface pattern is drawn, reading the data of the two polygons to which the texture is pasted, and based on the image information of the texture and the data of the two polygons.
Attaching the texture to each of the two polygons, and arranging the two polygons in the virtual three-dimensional space in a state where the two polygons are vertically overlapped with each other; Setting the textured image as translucent,
And outputting a texture image pasted to the two set polygons on the screen. The program is recorded on a machine-readable recording medium.

【0014】請求項9の発明は、仮想3次元空間に設定
された水面の画像を画面に表示出力する処理をコンピュ
ータに実行させるコンピュータプログラムを記録した機
械読取り可能な記録媒体であって、コンピュータに、水
面模様が描かれたテクスチャの画像情報を読み出すステ
ップと、前記テクスチャが貼り付けられる2つのポリゴ
ンのデータを読み出すステップと、前記テクスチャの画
像情報,及び前記2つのポリゴンのデータに基づいて、
前記2つのポリゴンに前記テクスチャをそれぞれ貼り付
けるとともに、この2つのポリゴンを上下に間隔をあけ
て重ねた状態で前記仮想3次元空間内に配置するステッ
プと、上側に配置されたポリゴンに貼り付けられたテク
スチャの画像を前記画面に表示された仮想3次元空間の
半ばから奥側へ行くに従って透明度が上昇する状態で設
定するとともに、下側に配置されたポリゴンに貼り付け
られたテクスチャの画像を前記画面に表示された仮想3
次元空間の半ばから奥側に行くに従ってフォグが強くか
かる状態で設定するステップと、設定した2つのポリゴ
ンに貼り付けられたテクスチャの画像を前記画面に表示
出力するステップとを実行させるためのプログラムを記
録した機械読取り可能な記録媒体である。
According to a ninth aspect of the present invention, there is provided a machine-readable recording medium storing a computer program for causing a computer to execute a process of displaying and outputting an image of a water surface set in a virtual three-dimensional space on a screen. Reading the image information of the texture on which the water surface pattern is drawn, reading the data of the two polygons to which the texture is pasted, and based on the image information of the texture and the data of the two polygons.
Attaching the texture to each of the two polygons, and arranging the two polygons in the virtual three-dimensional space in a state where the two polygons are vertically overlapped with each other; The image of the texture is set in a state in which the transparency increases from the middle to the back of the virtual three-dimensional space displayed on the screen, and the image of the texture pasted on the polygon arranged on the lower side is Virtual 3 displayed on screen
A program for executing a step of setting a state in which fog is applied more strongly from the middle to the depth side of the dimensional space and a step of displaying and outputting a texture image pasted on the two set polygons to the screen is described. This is a machine-readable recording medium on which recording is performed.

【0015】ここに、記録媒体には、RAM,ROM,
CD−ROM,フロッピーディスク,ハードディスク,
光磁気ディスク等が含まれる。
Here, the recording medium includes RAM, ROM,
CD-ROM, floppy disk, hard disk,
Magneto-optical disks and the like are included.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】[0017]

【実施形態1】図1は、実施形態1による水面の画像処
理装置を備えるビデオゲーム機が示されたブロック図で
ある。このビデオゲーム機は、装置本体と、コントロー
ラ21とから構成される。また、装置本体には、ゲーム
プログラム(コンピュータプログラム)を記録した媒体と
してのCD−ROM23が装填されるとともに、テレビ
ジョンモニタ22が接続される。
FIG. 1 is a block diagram showing a video game machine provided with a water surface image processing apparatus according to a first embodiment. This video game machine includes an apparatus main body and a controller 21. Further, a CD-ROM 23 as a medium on which a game program (computer program) is recorded is mounted on the apparatus main body, and a television monitor 22 is connected to the apparatus main body.

【0018】装置本体は、CPU1と、このCPU1に
直結されたグラフィックスデータ生成プロセッサ3と、
CPU1に対してバス(アドレスバス,データバス及び
コントロールバス)2を介して相互に接続されたインタ
ーフェイス回路4,メインメモリ5,ROM6,伸張回
路7,パラレルポート8,シリアルポート9,描画処理
プロセッサ10,音声処理プロセッサ12,デコーダ1
4,及びインターフェイス回路19と、描画処理プロセ
ッサ10に接続されたバッファ11と、音声処理プロセ
ッサ12に接続されたバッファ13及び増幅回路17
と、この増幅回路17に接続されたスピーカ18と、デ
コーダ14に接続されたバッファ15及びCD−ROM
ドライバ16と、インターフェイス回路19に接続され
たメモリ20とから構成される。上述のコントローラ2
1は、インターフェイス回路19に接続されている。ま
た、上述のテレビジョンモニタ22は、描画処理プロセ
ッサ10に接続されている。
The apparatus main body includes a CPU 1, a graphics data generation processor 3 directly connected to the CPU 1,
An interface circuit 4, a main memory 5, a ROM 6, a decompression circuit 7, a parallel port 8, a serial port 9, and a drawing processor 10, which are mutually connected to the CPU 1 via a bus (address bus, data bus and control bus) 2. , Audio processor 12, decoder 1
4, an interface circuit 19, a buffer 11 connected to the rendering processor 10, and a buffer 13 and an amplifier 17 connected to the audio processor 12.
, A speaker 18 connected to the amplifier circuit 17, a buffer 15 and a CD-ROM connected to the decoder 14.
It comprises a driver 16 and a memory 20 connected to an interface circuit 19. Controller 2 described above
1 is connected to the interface circuit 19. The above-described television monitor 22 is connected to the drawing processor 10.

【0019】ここに、グラフィックスデータ生成プロセ
ッサ3は、CPU1のいわばコプロセッサとしての役割
を果たす。すなわち、このグラフィックスデータ生成プ
ロセッサ3は、座標変換や光源計算,例えば固定小数点
形式の行列やベクトルの演算を、並列処理により行う。
このグラフィックスデータ生成プロセッサ3が実行する
主な処理は、CPU1から供給される画像データの2次
元若しくは3次元面内における各頂点の座標データ,移
動量データ及び回転量データとに基づいて処理対象画像
の表示エリア上におけるアドレスを求めるとともに、当
該アドレスデータを再びCPU1に返す処理や、仮想的
に設定された光源からの距離及び角度に応じて画像の輝
度を計算する処理等である。
Here, the graphics data generation processor 3 plays a role as a so-called coprocessor of the CPU 1. That is, the graphics data generation processor 3 performs coordinate transformation and light source calculation, for example, calculation of a matrix or vector in a fixed-point format by parallel processing.
The main processing executed by the graphics data generation processor 3 is a processing target based on coordinate data, movement amount data and rotation amount data of each vertex in a two-dimensional or three-dimensional plane of image data supplied from the CPU 1. The processing includes obtaining an address on the display area of the image and returning the address data to the CPU 1 again, and calculating the luminance of the image in accordance with the distance and angle from the virtually set light source.

【0020】インターフェイス回路4は、周辺デバイ
ス,例えばマウスやトラックボール等のポインティング
デバイス等のインターフェイス用の回路である。ROM
6は、装置本体のオペレーションシステムとしてのプロ
グラムデータを記憶している。メインメモリ5は、CD
−ROM23からのゲームプログラムがロードされるメ
モリである。このメインメモリ5から適宜プログラム及
びデータがCPU1にページングされて、CPU1によ
って処理される。
The interface circuit 4 is an interface circuit for a peripheral device, for example, a pointing device such as a mouse or a trackball. ROM
Reference numeral 6 stores program data as an operation system of the apparatus main body. The main memory 5 is a CD
-A memory in which the game program from the ROM 23 is loaded. Programs and data are appropriately paged from the main memory 5 to the CPU 1 and processed by the CPU 1.

【0021】伸張回路7では、MPEG(Moving Pictur
e Engineering Group)やJPEG(Joint Pincture Engi
nnering Group)に準拠したイントラ符号化により圧縮さ
れた圧縮画像に対し、伸張処理を施す。伸張処理は、デ
コード処理(VLC:Valiable Length Codeによりエン
コードされたデータのデコード),逆量子化処理,ID
CT(Inverse Discrete Cosine Transform)処理,イン
トラ画像の復元処理,等である。
In the expansion circuit 7, MPEG (Moving Pictur)
e Engineering Group) and JPEG (Joint Pincture Engi)
A decompression process is performed on a compressed image that has been compressed by intra-coding conforming to the NNering Group. Decompression processing includes decoding processing (decoding of data encoded by VLC: Valid Length Code), inverse quantization processing, ID
These include CT (Inverse Discrete Cosine Transform) processing, intra-image restoration processing, and the like.

【0022】描画処理プロセッサ10は、CPU1が発
行する描画命令に基づいて、バッファ11に対する描画
処理を行い、バッファ11内に描写された画像をテレビ
ジョンモニタ22に対して出力する。バッファ11は、
表示用エリアと非表示用エリアとからなる。表示用エリ
アは、フレームバッファ等のテレビジョンモニタ22の
表示面上に表示されるデータの展開エリアである。非表
示用エリアは、テクスチャデータやカラーパレットデー
タ等の記憶エリアである。本実施形態では、ビデオゲー
ムのシーン(ステージ)が変更される毎,及び必要に応じ
てCPU1がテクスチャデータを描画処理プロセッサ1
0を介して非表示用エリアに展開する設定とされてい
る。ここに、テクスチャデータは、2次元の画像データ
である。カラーパレットデータは、テクスチャデータ等
の色を指定するためのデータである。CPU1が発行す
る描画命令とは、例えば、ラインを表示するための描画
命令,ポリゴンを用いて立体的な画像を描画するための
描画命令,通常の2次元画像を描画するための描画命
令,等である。
The drawing processor 10 performs a drawing process on the buffer 11 based on a drawing command issued by the CPU 1, and outputs an image drawn in the buffer 11 to the television monitor 22. The buffer 11
It consists of a display area and a non-display area. The display area is an area for developing data displayed on the display surface of the television monitor 22, such as a frame buffer. The non-display area is an area for storing texture data, color pallet data, and the like. In the present embodiment, each time the scene (stage) of the video game is changed, and as necessary, the CPU 1
It is set so as to be expanded to the non-display area via “0”. Here, the texture data is two-dimensional image data. The color pallet data is data for specifying a color such as texture data. The drawing command issued by the CPU 1 includes, for example, a drawing command for displaying a line, a drawing command for drawing a three-dimensional image using polygons, a drawing command for drawing a normal two-dimensional image, and the like. It is.

【0023】また、描画処理プロセッサ10は、図2に
示されるように、テクスチャブレンダ40(以下、「T
B40」という)と、ディスティネーションブレンダ4
1(以下、「DB41」という)とを有している。ここ
に、TB40は、描画処理が施されるポリゴンのデータ
を用い、バッファ11の非表示用エリアに展開されたテ
クスチャのデータを参照して、このテクスチャを表示す
るテレビジョンモニタ22の画面上の各点(ドット)に対
する色を設定する。すなわち、TB40は、テクスチャ
を表示する画面上の各点におけるR(赤),G(緑),B
(青)の値を、CPU1から与えられた条件に従って、そ
れぞれ修正設定する。ここに、R,G,Bは、0(暗)〜
1(明)までの値をとるように設定されている。なお、こ
のTB40は、照明効果等に使用される。
Further, as shown in FIG. 2, the drawing processor 10 includes a texture blender 40 (hereinafter referred to as "T
B40 ”), destination blender 4
1 (hereinafter, referred to as “DB41”). Here, the TB 40 uses the data of the polygon to be subjected to the drawing process, refers to the data of the texture developed in the non-display area of the buffer 11, and displays the texture on the screen of the television monitor 22 for displaying the texture. Set the color for each point (dot). That is, the TB 40 calculates R (red), G (green), and B at each point on the screen displaying the texture.
The value of (blue) is corrected and set according to the condition given by the CPU 1. Here, R, G, and B are from 0 (dark) to
It is set to take a value up to 1 (bright). The TB 40 is used for a lighting effect or the like.

【0024】DB41は、テクスチャを表示する画面上
の各点に設定されたRGBの値をTB40から受け取
る。続いて、テクスチャを表示する画面上の各点に対し
て以下の補間式(式1)の演算を行うことによって、テク
スチャを表示する画面上の各点のRGBの値の一次補間
を行う。そして、DB41は、テクスチャを表示する画
面上の各点についての(式1)の演算結果を、これらの各
点に対応した記憶エリアを有するフレームバッファ(バ
ッファ11の表示用エリア)にそれぞれ書き込む。
The DB 41 receives from the TB 40 the RGB values set for each point on the screen displaying the texture. Subsequently, the following interpolation formula (Equation 1) is calculated for each point on the screen displaying the texture, thereby performing linear interpolation of the RGB values of each point on the screen displaying the texture. Then, the DB 41 writes the calculation result of (Equation 1) for each point on the screen displaying the texture in a frame buffer (display area of the buffer 11) having a storage area corresponding to each point.

【0025】A1×α+B1×(1−α) ・・・(式1) 但し、(式1)中のA1は、TB40から受け取った画面
上の点のRGBの値を示し、(式1)中のB1は、一次補
間の元となる画面上の各点に設定された補間色データの
RGBの値を示す。また、(式1)中のαは、テクスチャ
を表示する画面上の各点にそれぞれ設定される値であ
り、透明度や、フォグの色の強さ等を表す値である。こ
のαは、0≦α≦1で設定されており、本実施形態で
は、透明度を表す値として使用される。すなわち、0
(透明)≦α≦1(不透明)として設定されている。
A1 × α + B1 × (1−α) (Equation 1) Here, A1 in (Equation 1) indicates the RGB value of the point on the screen received from the TB 40, and B1 indicates the RGB value of the interpolation color data set at each point on the screen on which the primary interpolation is based. Further, α in (Equation 1) is a value set for each point on the screen displaying the texture, and is a value representing the degree of transparency, the strength of the fog color, and the like. This α is set as 0 ≦ α ≦ 1, and is used as a value representing the transparency in the present embodiment. That is, 0
(Transparent) ≦ α ≦ 1 (opaque).

【0026】DB41は、(式1)の演算において、最初
に、(式1)中の“A1×α”の演算として、TBから受
け取った画面上の点のRGBの値にそれぞれαを乗算す
る。続いて、(式1)中の“B1×(1−α)”の演算とし
て、一次補間の対象となる画面上の点に設定されたRG
Bの値にそれぞれ(1−α)を乗算する。そして、“A1
×α”の演算結果と“B1×(1−α)”演算結果の和を
求めて(式1)の演算結果を算出する。
In the operation of (Equation 1), the DB 41 first multiplies the RGB values of the points on the screen received from the TB by α as the operation of “A1 × α” in (Equation 1). . Subsequently, as an operation of “B1 × (1−α)” in (Equation 1), the RG set at a point on the screen to be subjected to the primary interpolation is set.
The value of B is multiplied by (1−α). And "A1
The calculation result of (Equation 1) is calculated by obtaining the sum of the calculation result of “× α” and the calculation result of “B1 × (1−α)”.

【0027】なお、本実施形態では、TB40による処
理に使用される各点のRGBの値は、テクスチャデータ
としてバッファ11の非表示用エリアに予め設定されて
おり、適宜読み出される。また、各αの値は、CPU1
によって予め設定されている。
In this embodiment, the RGB values of each point used in the processing by the TB 40 are preset as texture data in the non-display area of the buffer 11, and are read out as appropriate. Also, the value of each α is
Is set in advance.

【0028】上述したTB40及びDB41による処理
は、以下の通りである。すなわち、図3のフローチャー
トに示されるように、S1において、TB40及びDB
41による処理の前処理として、CPU1が、メインメ
モリ5にロードされたプログラムに基づいて、ポリゴン
毎に、そのポリゴンデータ,テクスチャデータ,一次補
間対象色データ(B1のデータ)を設定するとともに、テ
クスチャを表示する画面上の点毎にαを設定する。次
に、S2において、TB40が、描画順が回ってきた1
つのポリゴンに対し、設定されたポリゴンデータ,テク
スチャデータに基づいて、テクスチャを表示する画面上
の各点に対してRGBの値を設定し、各RGBの値をα
の値とともにDB41に渡す。そして、S3において、
DB41が、テクスチャを表示する画面上の各点毎に、
上記した(式1)の演算を行い、その演算結果をフレーム
バッファの対応する記憶エリアにそれぞれ書き込む。
The processing by the TB 40 and the DB 41 described above is as follows. That is, as shown in the flowchart of FIG.
As a pre-process of the process by 41, the CPU 1 sets the polygon data, texture data, and primary interpolation target color data (B1 data) for each polygon based on the program loaded into the main memory 5, and sets the texture. Is set for each point on the screen where is displayed. Next, in S2, the TB 40 determines that the drawing order has turned 1
For each polygon, RGB values are set for each point on the screen displaying the texture based on the set polygon data and texture data, and each RGB value is set to α.
Is passed to the DB 41 together with the value of Then, in S3,
DB41, for each point on the screen to display the texture,
The calculation of the above (Equation 1) is performed, and the calculation result is written to the corresponding storage area of the frame buffer.

【0029】図1に示された音声処理プロセッサ12
は、CD−ROM23から読み出されたPCM音声デー
タを、ADPCMデータに変換する。また、音声処理プ
ロセッサ12により処理されたADPCMデータは、音
声としてスピーカ18から出力される。
The audio processor 12 shown in FIG.
Converts the PCM audio data read from the CD-ROM 23 into ADPCM data. The ADPCM data processed by the audio processor 12 is output from the speaker 18 as audio.

【0030】CD−ROMドライバ16は、CD−RO
M23からプログラムデータ,マップ情報等のデータ及
び音声データを読み出して、読み出したデータをデコー
ダ14へ供給する。
The CD-ROM driver 16 is a CD-RO driver.
The data such as program data and map information and audio data are read from M23, and the read data is supplied to the decoder 14.

【0031】デコーダ14は、CD−ROMドライバ1
6からの再生データに対して、ECC(Error Correctio
n Code)によるエラー訂正処理を施し、エラー訂正処理
が施されたデータを、メインメモリ5若しくは音声処理
プロセッサ12に供給する。
The decoder 14 is a CD-ROM driver 1
ECC (Error Correction)
(n Code), and supplies the error-corrected data to the main memory 5 or the audio processor 12.

【0032】メモリ20は、カード型のメモリであり、
ゲーム中断時の状態を保持するために、ゲーム中断時に
おける各種パラメータを記憶する。コントローラ21
は、左キー,右キー,上キー及び下キーを一体化してな
る十字キー21gと、左ボタン21Lと右ボタン21R
と、スタートボタン21aと、セレクトボタン21b
と、第1〜第4ボタン21c〜21fとを、備えてい
る。十字キー21gは、ゲームプレーヤがCPU1に対
して上下左右を示すコマンドを与えるためのキーであ
る。スタートボタン21aは、ゲームプレーヤが、CD
−ROM23からロードされるゲームプログラムの開始
をCPU1に指示するためのキーである。セレクトボタ
ン21bは、ゲームプレーヤが、メインメモリ5上にロ
ードされているゲームプログラムに関する各種選択を、
CPU1に指示するためのキーである。
The memory 20 is a card type memory,
In order to maintain the state at the time of the game interruption, various parameters at the time of the game interruption are stored. Controller 21
Is a cross key 21g integrating a left key, a right key, an up key, and a down key, a left button 21L and a right button 21R.
, Start button 21a, select button 21b
And first to fourth buttons 21c to 21f. The cross key 21g is a key for the game player to give commands indicating up, down, left, and right to the CPU 1. The start button 21a indicates that the game player
-A key for instructing the CPU 1 to start a game program loaded from the ROM 23. The select button 21 b allows the game player to make various selections regarding the game program loaded on the main memory 5.
These are keys for instructing the CPU 1.

【0033】上述したCD−ROM23には、仮想3次
元のゲーム空間において疑似3次元表示される戦闘機
(自キャラクタ)をゲームプレーヤが操作し、ゲーム空間
に出現する戦闘機,戦艦等(敵キャラクタ)を破壊するシ
ューティングゲームのゲームプログラム,及びゲームプ
ログラムの実行に使用されるデータが記録されている。
このCD−ROM23が装置本体に装填され、電源が投
入されると、ビデオゲーム機のCPU1が、CD−RO
M23のゲームプログラム及びデータを次々と読み出
し、メインメモリ5にロードする。そして、CPU1
が、ゲームプログラムを実行することによって、最初
に、テレビジョンモニタ22に図示せぬゲームのタイト
ル画面を表示する。この状態において、コントローラ2
1のスタートボタン21bが押されると、テレビジョン
モニタ22に表示されたタイトル画面が、上述したシュ
ーティングゲームのゲームプレイ画面に切り替えられ
る。
In the above-described CD-ROM 23, a fighter is displayed in a pseudo three-dimensional manner in a virtual three-dimensional game space.
The game player operates the (own character) to record a game program of a shooting game for destroying a fighter, a battleship, and the like (enemy character) appearing in the game space, and data used for executing the game program.
When the CD-ROM 23 is loaded in the main body of the apparatus and the power is turned on, the CPU 1 of the video game machine causes the CD-RO
The game programs and data of M23 are read one after another and loaded into the main memory 5. And CPU1
However, by executing the game program, first, a title screen of a game (not shown) is displayed on the television monitor 22. In this state, the controller 2
When the first start button 21b is pressed, the title screen displayed on the television monitor 22 is switched to the game play screen of the shooting game described above.

【0034】図2は、ゲームプログラムの実行によって
テレビジョンモニタ22に表示されたゲームプレイ画面
の表示例を示す図である。図2に示す表示例では、鳥瞰
的に見た場合(鳥瞰的な位置に配置された仮想のカメラ
C1(図3参照)によって撮影された場合)の仮想3次元
のゲーム空間が形成され、ゲーム空間の地形としてゲー
ム空間の底面に相当する部位に海面28が表示され、そ
の水平線を境として画面上側に空29が表示されてい
る。また、ゲーム空間における海面28の上空には、ゲ
ームプレーヤが操作可能な戦闘機(自キャラクタ)30
が、疑似3次元画像表示されている。また、ゲーム空間
の奥側の海面28上には、自キャラクタ30の操作によ
ってゲームプレーヤが破壊すべき2つの敵キャラクタ3
1が、疑似3次元画像表示されている。
FIG. 2 is a diagram showing a display example of a game play screen displayed on the television monitor 22 by executing the game program. In the display example shown in FIG. 2, a virtual three-dimensional game space is formed when viewed from a bird's eye (when photographed by a virtual camera C1 (see FIG. 3) arranged at a bird's eye position). A sea surface 28 is displayed on a portion corresponding to the bottom of the game space as the terrain of the space, and a sky 29 is displayed on the upper side of the screen with the horizontal line as a boundary. A fighter (own character) 30 operable by the game player is positioned above the sea surface 28 in the game space.
Are displayed in a pseudo three-dimensional image. Also, on the sea surface 28 on the far side of the game space, two enemy characters 3 to be destroyed by the game player by operating the player character 30 are displayed.
1 is displayed as a pseudo three-dimensional image.

【0035】自キャラクタ30は、コントローラ21の
十字ボタン21gが押されることによって画面上を上下
左右に移動する。また、敵キャラクタ31は、画面の右
側,左側,又は上側(例えば敵キャラクタが戦闘機の場
合等)から出現するように設定されている。さらに、ゲ
ーム空間は、その手前側へ向かって強制的に移動(スク
ロール)するように設定されており、海面28も手前側
へ向かって移動する。これによって、自キャラクタ30
が、海面28上を飛んで行く様子がアニメーション表示
される。このゲーム空間の移動は、本実施形態において
は、上述した仮想のカメラC1の3次元座標をゲーム空
間の奥に向かって前進するように変化させることによっ
て行われる。
The own character 30 moves up, down, left and right on the screen when the cross button 21g of the controller 21 is pressed. The enemy character 31 is set to appear from the right, left, or upper side of the screen (for example, when the enemy character is a fighter). Further, the game space is set to forcibly move (scroll) toward the near side, and the sea surface 28 also moves toward the near side. Thereby, the own character 30
However, the state of flying over the sea surface 28 is displayed as an animation. In the present embodiment, the movement of the game space is performed by changing the above-described three-dimensional coordinates of the virtual camera C1 so as to advance toward the back of the game space.

【0036】次に、テレビジョンモニタ22に表示され
た海面の画像表示方法を説明する。図5は、海面の画像
表示方法の原理図である。図5に示されるように、海面
28は、それぞれに波模様(水面の模様)が描かれたテク
スチャが貼り付けられた矩形平面状の2枚のポリゴン3
3,34のテクスチャからなる。2枚のポリゴン33,
34のテクスチャは、ポリゴン33のテクスチャが半透
明に設定されており、ポリゴン34のテクスチャが不透
明に設定されている。さらに、ポリゴン34の上にポリ
ゴン33が間隔をあけて重ねられた状態で配置されてい
る。そして、この状態におけるポリゴン33,34のテ
クスチャを鳥瞰的な位置に配置された仮想のカメラC1
によって撮影した場合の画像を合成し、テレビジョンモ
ニタ22に海面28の画像として表示する。
Next, a method of displaying an image of the sea surface displayed on the television monitor 22 will be described. FIG. 5 is a principle diagram of a method for displaying an image of the sea surface. As shown in FIG. 5, the sea surface 28 includes two rectangular planar polygons 3 each having a texture on which a wave pattern (water surface pattern) is drawn.
It consists of 3,34 textures. Two polygons 33,
In the texture 34, the texture of the polygon 33 is set to be translucent, and the texture of the polygon 34 is set to be opaque. Further, the polygons 33 are arranged on the polygons 34 in a state of being overlapped at intervals. Then, the textures of the polygons 33 and 34 in this state are virtual cameras C1 arranged at bird's-eye positions.
Are combined and displayed on the television monitor 22 as an image of the sea surface 28.

【0037】このような海面28の画像は、上述したC
PU1,TB40,DB41による処理によって実現さ
れる。具体的に説明すると、海面28の画像をテレビジ
ョンモニタ22に表示するにあたっては、前処理とし
て、CPU1により、ポリゴン33のデータ,ポリゴン
34のデータ,波模様が描かれたテクスチャのデータ,
TB40が使用すべき各RGBの値,一次補間色データ
(式1中のB1に係るデータ),及び各点に設定される透
明度αの値が、設定される。このとき、ポリゴン33,
ポリゴン34に係る一次補間色データの設定として、各
ポリゴン33,34に係る処理の際にフレームバッファ
の対応する各記憶エリアに記憶されているRGBの値を
(式1)中のB1の値とする設定がなされる。
Such an image of the sea surface 28 is represented by the above-mentioned C
This is realized by processing by PU1, TB40 and DB41. More specifically, when displaying the image of the sea surface 28 on the television monitor 22, the CPU 1 executes, as preprocessing, data of the polygon 33, data of the polygon 34, data of the texture on which the wave pattern is drawn,
RGB values to be used by TB40, primary interpolation color data
(Data related to B1 in Equation 1) and the value of the transparency α set for each point are set. At this time, polygon 33,
As the setting of the primary interpolation color data for the polygon 34, the RGB values stored in the corresponding storage areas of the frame buffer at the time of the processing for the polygons 33 and 34 are set.
The setting for the value of B1 in (Equation 1) is made.

【0038】CPU1による設定が終了すると、TB4
1が、仮想のカメラC1に対してより遠い位置にある下
側のポリゴン34のデータを用い、波模様の描かれたテ
クスチャのデータ,及びTB40が使用すべき各RGB
の値を参照しながら、ポリゴン34のテクスチャを表示
する画面上の各点のRGBの値をそれぞれ設定し、設定
した各RGBの値をDB41にそれぞれ供給する。ま
た、TB40は、各点に対して設定された透明度αの値
をDB41に供給する。このポリゴン34のテクスチャ
の透明度αの値としては、α=1(不透明)が設定されて
いる。
When the setting by the CPU 1 is completed, TB4
1 uses the data of the lower polygon 34 located farther from the virtual camera C1, uses the data of the texture in which the wave pattern is drawn, and the RGB 40 to be used by the TB 40.
The RGB values of each point on the screen displaying the texture of the polygon 34 are set while referring to the values of the polygon 34, and the set RGB values are supplied to the DB 41, respectively. Further, the TB 40 supplies the value of the transparency α set for each point to the DB 41. As the value of the transparency α of the texture of the polygon 34, α = 1 (opaque) is set.

【0039】DB41は、TB40から受け取った各R
GBの値に対し、各RGBの値に対応させて設定されて
いる透明度αの値を乗ずる(式1における“A1×α”
の演算)。続いて、DB41は、B1の値として設定さ
れたフレームバッファの対応する記憶エリアに記憶され
たRGBの値を読み出し、読み出したRGBのそれぞれ
の値に対して(1−α)を乗ずる(式1における“B1×
(1−α)”の演算)。続いて、DB41は、“A1×
α”の演算結果と“B1×(1−α)”の演算結果との和
(合計値),すなわち(式1)の演算結果を求める。そし
て、(式1)の演算結果を再びフレームバッファの同じ記
憶エリア(RGBの値を読み出した記憶エリア)に書き込
む。ここでは、ポリゴン34のテクスチャの透明度αの
値がα=1で設定されているため、TB40から受け取
ったRGBの値をそのままフレームバッファの対応する
記憶エリアに書き込むのと同じこととなる。
DB 41 stores each R received from TB 40.
The value of GB is multiplied by the value of transparency α set corresponding to each value of RGB (“A1 × α” in Expression 1).
Operation). Subsequently, the DB 41 reads the RGB values stored in the corresponding storage area of the frame buffer set as the value of B1, and multiplies each of the read RGB values by (1−α) (Equation 1). "B1 ×
(1−α) ”) Subsequently, the DB 41 stores“ A1 ×
sum of the calculation result of “α” and the calculation result of “B1 × (1−α)”
(Total value), that is, the calculation result of (Equation 1) is obtained. Then, the calculation result of (Equation 1) is written again to the same storage area (the storage area from which the RGB values are read) of the frame buffer. Here, since the value of the transparency α of the texture of the polygon 34 is set at α = 1, it is the same as writing the RGB values received from the TB 40 directly to the corresponding storage area of the frame buffer.

【0040】ポリゴン34に関する全ての処理が終了す
ると、次のポリゴン(次に描画順が回ってきたポリゴン)
として、上側のポリゴン33が選択される。すると、T
B40は、ポリゴン33のデータ,波模様が描かれたテ
クスチャのデータに基づいて、テクスチャを表示する画
面上の各点に対し、RGBの値を設定してDB41に供
給する。また、ポリゴン33のテクスチャの透明度αと
して設定されているα=0.5の値をDB41に供給す
る。
When all the processes for the polygon 34 are completed, the next polygon (the polygon whose drawing order has been turned next)
, The upper polygon 33 is selected. Then T
B40 sets RGB values for each point on the screen displaying the texture based on the data of the polygon 33 and the data of the texture on which the wave pattern is drawn, and supplies the RGB values to the DB41. The value of α = 0.5 set as the transparency α of the texture of the polygon 33 is supplied to the DB 41.

【0041】すると、DB41は、同様にして(式1)の
演算を行い、その演算結果をフレームバッファの対応す
る記憶エリアに書き込む。このとき、(式1)中のB1の
値として、現時点においてフレームバッファの対応する
各記憶エリアに記憶されているRGBの値,すなわち、
ポリゴン34のテクスチャについての(式1)の演算結果
が用いられる。従って、ポリゴン34に貼り付けられた
テクスチャのRGBの値(B1)に(1−α)を乗じた値
と、ポリゴン33に貼り付けられたテクスチャを表示す
る画面上の各点のRGBの値(A1)に透明度αを乗じた
値との合計値(式1の演算結果)が、フレームバッファの
対応する記憶エリアに書き込まれることとなる。すなわ
ち、ポリゴン33に貼り付けられたテクスチャのデータ
と、ポリゴン34に貼り付けられたテクスチャのデータ
とがα:1−αの比率で合成されるわけである。
Then, the DB 41 similarly performs the operation of (Equation 1) and writes the operation result to the corresponding storage area of the frame buffer. At this time, as the value of B1 in (Equation 1), the value of RGB currently stored in each corresponding storage area of the frame buffer, that is,
The calculation result of (Equation 1) for the texture of the polygon 34 is used. Therefore, the value obtained by multiplying the RGB value (B1) of the texture pasted on the polygon 34 by (1−α) and the RGB value of each point on the screen displaying the texture pasted on the polygon 33 ( The sum of the value obtained by multiplying A1) by the transparency α (the calculation result of Expression 1) is written to the corresponding storage area of the frame buffer. That is, the data of the texture pasted on the polygon 33 and the data of the texture pasted on the polygon 34 are synthesized at a ratio of α: 1−α.

【0042】そして、このフレームバッファに記憶され
た内容が、描画処理プロセッサ10によってテレビジョ
ンモニタ22に対して出力される。すると、テレビジョ
ンモニタ22の画面には、不透明(透明度α=1)のポリ
ゴン34のテクスチャの上に半透明(透明度α=0.5)
のポリゴン33のテクスチャを間隔をあけて重ねて合成
した画像が、海面28の画像として表示される。このと
き、ポリゴン33,34に貼り付けられたテクスチャに
は、波模様が描かれているため、非常に美しいリアルな
海面の画像が得られる。なお、ポリゴン33に貼り付け
られるテクスチャとポリゴン34に貼り付けられるテク
スチャとは、同じ模様が描かれたものであっても良く、
また、ポリゴン33とポリゴン34とに同一のテクスチ
ャが貼り付けられた状態となるように設定しても良い。
Then, the contents stored in the frame buffer are output to the television monitor 22 by the drawing processor 10. Then, the screen of the television monitor 22 displays a semi-transparent (transparency α = 0.5) on the texture of the opaque (transparency α = 1) polygon 34.
An image obtained by superimposing the textures of the polygons 33 at intervals with each other is displayed as an image of the sea surface 28. At this time, since a wave pattern is drawn on the texture pasted on the polygons 33 and 34, a very beautiful realistic sea surface image can be obtained. Note that the texture pasted on the polygon 33 and the texture pasted on the polygon 34 may be the same pattern drawn.
Further, it may be set so that the same texture is pasted on the polygon 33 and the polygon 34.

【0043】次に、ビデオゲーム機による海面の画像の
表示処理を説明する。図6は、海面の画像の表示処理が
示されたフローチャートである。この表示処理は、例え
ば、テレビジョンモニタ22に図示せぬタイトル画面が
表示されている状態において、スタートボタン21bが
押され、ゲームプレイ画面の表示命令がCPU1に入力
されることにより、海のシーン(ステージ)がスタートす
ることによってスタートする。
Next, the process of displaying an image of the sea surface by the video game machine will be described. FIG. 6 is a flowchart showing the display processing of the image of the sea surface. This display process is performed, for example, when the start button 21b is pressed while a title screen (not shown) is displayed on the television monitor 22, and a display command for a game play screen is input to the CPU 1, thereby displaying a sea scene. It starts when (stage) starts.

【0044】S01では、CPU1が、海のステージの
描画に必要なテクスチャ(波模様,自キャラクタ30,
敵キャラクタ31等のテクスチャ)のデータをメインメ
モリ5から読み出し、描画処理プロセッサ10を介して
バッファ11の非表示用エリアに展開する。そして、処
理がS02に進む。
In S01, the CPU 1 determines the texture (wave pattern, own character 30,
The data of the texture of the enemy character 31 and the like is read out from the main memory 5 and expanded in the non-display area of the buffer 11 via the drawing processor 10. Then, the process proceeds to S02.

【0045】S02では、CPU1が、メインメモリ5
に記憶されたプログラム,ポリゴン33,34等のデー
タに基づいて、ポリゴン33がポリゴン34の上に間隔
をあけて重ねられ、且つテレビジョンモニタ22の画面
に表示される(仮想のカメラC1によって撮影される)仮
想3次元空間の底面に相当する位置に配置された場合の
ポリゴンデータを設定する(第1設定手段に相当)。この
とき、CPU1は、その他の表示物に関するポリゴンデ
ータも設定する。そして、処理がS03に進む。
In S02, the CPU 1 reads the main memory 5
The polygons 33 are superimposed on the polygons 34 at intervals based on the program and the data of the polygons 33, 34, etc., stored on the television monitor 22 and displayed on the screen of the television monitor 22 (photographed by the virtual camera C1). The polygon data when it is arranged at a position corresponding to the bottom surface of the virtual three-dimensional space is set (corresponding to first setting means). At this time, the CPU 1 also sets polygon data relating to other display objects. Then, the process proceeds to S03.

【0046】S03では、TB40が、S02にて設定
された下側のポリゴン34のデータに基づいて、所定位
置に配置されたポリゴン34を構成する各点に対応する
画面上の各点(テクスチャを表示する画面上の各点)のう
ち、何れかの点を選択する。そして、この点に対するR
GBの値を、バッファ11の非表示エリアに展開された
波模様のテクスチャのデータを参照しつつ設定する。そ
して、設定したRGBの値をDB41に供給するととも
に、このRGBの値を設定した点に対して設定されてい
る透明度αの値(α=1)をDB41に供給する。そし
て、処理がS04に進む。なお、二回目以降のS03の
処理においては、未だS03にて選択されていない点が
選択される。
In step S03, the TB 40 determines, based on the data of the lower polygon 34 set in step S02, each point on the screen corresponding to each point constituting the polygon 34 located at a predetermined position (texture (Points on the screen to be displayed)). And R for this point
The GB value is set with reference to the data of the texture of the wave pattern developed in the non-display area of the buffer 11. Then, the set RGB values are supplied to the DB 41, and the transparency α value (α = 1) set for the point where the RGB values are set is supplied to the DB 41. Then, the process proceeds to S04. In the second and subsequent processes of S03, a point not yet selected in S03 is selected.

【0047】S04では、DB41が、TB40からS
03の処理にて得たRGBの値を(式1)のA1として受
け取る。また、TB40から透明度α=1を受け取る。
そして、(式1)のB1の値を、S03にて選択された点
に対応するフレームバッファの記憶エリアに記憶された
RGBの値として設定し、上記した(式1)の演算を行
う。そして、(式1)の演算結果として得たRGBの値
を、B1の値を読み出したフレームバッファの記憶エリ
アに書き込む。そして、処理がS05に進む。
In S04, the DB 41 transmits the data from the TB 40 to the S
The RGB values obtained in the process of 03 are received as A1 in (Equation 1). Further, transparency α = 1 is received from the TB 40.
Then, the value of B1 in (Equation 1) is set as the value of RGB stored in the storage area of the frame buffer corresponding to the point selected in S03, and the calculation of (Equation 1) is performed. Then, the RGB values obtained as the calculation result of (Equation 1) are written in the storage area of the frame buffer from which the value of B1 has been read. Then, the process proceeds to S05.

【0048】S05では、ポリゴン34のテクスチャを
表示する画面上の全ての点についてS03及びS04の
処理が終了したかが判定される。このとき、全ての点に
ついて終了していないと判定された場合には、処理がS
03に戻り、全ての点について終了するまでS03〜S
05の処理が繰り返し行われる。これに対し、全ての点
について終了したと判定された場合には、処理がS06
に進む。
In S05, it is determined whether the processing in S03 and S04 has been completed for all points on the screen displaying the texture of the polygon 34. At this time, if it is determined that the processing has not been completed for all points, the process proceeds to S
03 and return to steps S03 to S
05 is repeated. On the other hand, if it is determined that the processing has been completed for all points, the process proceeds to S06.
Proceed to.

【0049】S06に処理が進んだ場合には、TB40
が、S02にて設定された上側のポリゴン33のデータ
に基づいて、所定位置に配置されたポリゴン33を構成
する各点に対応する画面上の各点(テクスチャを表示す
る画面上の各点)のうち、何れかの点を選択する。そし
て、この点に対するRGBの値を、バッファ11の非表
示エリアに展開されたテクスチャのデータを参照しつつ
設定する。そして、設定したRGBの値をDB41に供
給するとともに、このRGBの値を設定した点に対して
設定されている透明度αの値(α=0.5)をDB41に
供給する。そして、処理がS07に進む。なお、二回目
以降のS06の処理においては、未だS03にて選択さ
れていない点が選択される。S07では、DB41が、
TB40からS06の処理にて得たRGBの値を(式1)
のA1として受け取る。また、TB40から透明度α=
0.5を受け取る。そして、S06にて選択された点に
対応するフレームバッファの記憶エリアに記憶されたR
GBの値(フレームバッファの値),すなわち、S04に
てフレームバッファの記録エリアに書き込まれたRGB
の値を、(式1)におけるB1の値として設定し、上記し
た補間式(式1)の演算を行う。そして、(式1)の演算結
果として得たRGBの値を、B1の値を読み出したフレ
ームバッファの記憶エリアに書き込む。そして、処理が
S05に進む。
When the processing has proceeded to S06, TB40
Are each point on the screen corresponding to each point constituting the polygon 33 arranged at a predetermined position (each point on the screen displaying the texture) based on the data of the upper polygon 33 set in S02. , One of the points is selected. Then, the RGB values for this point are set with reference to the texture data developed in the non-display area of the buffer 11. Then, the set RGB values are supplied to the DB 41, and the transparency α value (α = 0.5) set for the point where the RGB values are set is supplied to the DB 41. Then, the process proceeds to S07. In the second and subsequent processes in S06, points that have not yet been selected in S03 are selected. In S07, the DB 41
The RGB values obtained in the processing from TB40 to S06 are expressed by (Equation 1)
As A1. Also, from TB40, the transparency α =
Receive 0.5. Then, the R stored in the storage area of the frame buffer corresponding to the point selected in S06
The value of GB (the value of the frame buffer), that is, the RGB written in the recording area of the frame buffer in S04.
Is set as the value of B1 in (Equation 1), and the above-described interpolation equation (Equation 1) is calculated. Then, the RGB values obtained as the calculation result of (Equation 1) are written in the storage area of the frame buffer from which the value of B1 has been read. Then, the process proceeds to S05.

【0050】S08では、ポリゴン33のテクスチャを
表示する画面上の全ての点についてS06及びS07の
処理が終了したかが判定される。このとき、全ての点に
ついて終了していないと判定された場合には、処理がS
06に戻り、全ての点について終了するまでS06〜S
08の処理が繰り返し行われる。これに対し、全ての点
について終了したと判定された場合には、処理がS09
に進む。
In S08, it is determined whether the processing in S06 and S07 has been completed for all points on the screen displaying the texture of the polygon 33. At this time, if it is determined that the processing has not been completed for all points, the process proceeds to S
Returning to step S06 to step S06 to S
Step 08 is repeated. On the other hand, if it is determined that the processing has been completed for all points, the process proceeds to S09.
Proceed to.

【0051】S09に処理が進んだ場合には、その他の
処理が行われる。例えば、海面28以外の画面の表示物
である自キャラクタ30や敵キャラクタ31について、
S03及びS04に相当する処理が行われる。また、必
要に応じて画面に二次元のキャラクタを書き込む処理が
行われる。これらの処理結果は、フレームバッファの該
当する記憶エリアに書き込まれる。そして、処理がS1
0に進む。
When the process has proceeded to S09, other processes are performed. For example, regarding the own character 30 and the enemy character 31 that are displayed on the screen other than the sea surface 28,
Processing corresponding to S03 and S04 is performed. Further, a process of writing a two-dimensional character on the screen is performed as needed. These processing results are written to the corresponding storage area of the frame buffer. And the processing is S1
Go to 0.

【0052】S10では、描画処理プロセッサ10が、
フレームバッファに記憶された内容を、テレビジョンモ
ニタ22に対して表示出力する。これによって、テレビ
ジョンモニタ22には、仮想3次元のゲーム空間が表示
されたゲームプレイ画面が表示され、このゲーム空間の
底面に相当する位置には、美しく深みのある海面28の
画像が表示される(図4参照)。S07の処理が終了する
と、海面の表示処理が終了し、処理がS01に戻る。
In S10, the drawing processor 10
The contents stored in the frame buffer are displayed and output to the television monitor 22. As a result, a game play screen displaying a virtual three-dimensional game space is displayed on the television monitor 22, and a beautiful and deep image of the sea surface 28 is displayed at a position corresponding to the bottom of the game space. (See FIG. 4). When the process of S07 ends, the display process of the sea surface ends, and the process returns to S01.

【0053】この海面の画像の表示処理におけるS02
〜S10の処理は、60分の1秒のタームで実行され
る。このとき、海面28は、ゲーム空間の移動に伴って
画面の手前側に移動する。但し、ポリゴン33の画像
は、ポリゴン34の画像よりも、ゲーム空間を撮影する
カメラC1に近い位置にあるため、ポリゴン33の画像
が、ポリゴン34の画像よりも多く移動するように、海
面の画像の表示処理が行われる。これによって、テレビ
ジョンモニタ22に表示された画像では、ポリゴン33
の海面28の画像とポリゴン34の海面の画像とが別個
に移動するように見え、例えば、複雑に波が流れるよう
に見える。また、例えばポリゴン33を右方向にシフト
し、ポリゴン34を左方向にシフトしていくというよう
に、それぞれ独自の方向へずれて行くように各ポリゴン
33,34を動かすことにより、さらに海面28をリア
ルに表示することができる。そして、この海面の画像の
表示処理は、ゲーム空間の地形が海面28の地形から変
更される(例えば、海のステージから他のステージへゲ
ームが移行する)まで、あるいは、ゲームプレイ画面が
他のゲーム画面に切り替えられるまで、連続して実行さ
れる。
S02 in the display processing of the image of the sea surface
The processing of S10 is executed with a term of 1/60 second. At this time, the sea surface 28 moves to the near side of the screen as the game space moves. However, since the image of the polygon 33 is located closer to the camera C1 that shoots the game space than the image of the polygon 34, the image of the sea surface is moved so that the image of the polygon 33 moves more than the image of the polygon 34. Is displayed. Thus, in the image displayed on the television monitor 22, the polygon 33
The image of the sea surface 28 and the image of the sea surface of the polygon 34 appear to move separately, for example, a wave appears to flow in a complicated manner. Further, by moving each of the polygons 33 and 34 so as to be shifted in a unique direction, for example, shifting the polygon 33 to the right and shifting the polygon 34 to the left, the sea surface 28 is further shifted. It can be displayed realistically. Then, the display processing of the image of the sea surface is performed until the terrain of the game space is changed from the terrain of the sea surface 28 (for example, the game shifts from the sea stage to another stage) or the game play screen is displayed on another screen. It is executed continuously until the game screen is switched.

【0054】本実施形態によれば、海面28を不透明の
テクスチャの上に半透明のテクスチャを重ねて合成した
状態の画像をテレビジョンモニタ22の画面に表示させ
ている。このため、従来に比し著しく美しく、且つ深み
のある海面28の画像をテレビジョンモニタ22に表示
させることができる。これによって、従来に比しより多
くのゲームプレーヤの興味を引くことが可能となる。
According to this embodiment, an image in which the sea surface 28 is synthesized by superimposing a translucent texture on an opaque texture is displayed on the screen of the television monitor 22. Therefore, an image of the sea surface 28 which is significantly more beautiful and deeper than that of the related art can be displayed on the television monitor 22. This makes it possible to attract more game players than before.

【0055】ここで、ポリゴン33とポリゴン34と
は、仮想のカメラC1からみて最も後方の位置,すなわ
ち、ゲーム空間の底面に相当する最も低い位置に極めて
広い範囲に設定されている。このため、ゲーム空間を構
築する際に、他の物体(ポリゴン)を配置し易い。
Here, the polygons 33 and 34 are set in an extremely wide range at the rearmost position as viewed from the virtual camera C1, that is, at the lowest position corresponding to the bottom of the game space. Therefore, when constructing the game space, it is easy to arrange other objects (polygons).

【0056】また、ポリゴン33とポリゴン34とを仮
想のカメラC1に対して固定とし、カメラC1の動きに
応じて各ポリゴン33,34に貼り付けられるテクスチ
ャをスクロールさせる構成とすれば、ポリゴンは、画面
に見える部分だけ設定すれば良いこととなる。
If the polygons 33 and 34 are fixed with respect to the virtual camera C1 and the texture attached to each of the polygons 33 and 34 is scrolled according to the movement of the camera C1, the polygons are You only need to set the part that you see on the screen.

【0057】[0057]

【実施形態2】次に、本発明の実施形態2を説明する。
実施形態2は、実施形態1にて説明した水面の画像表示
装置を備えるビデオゲーム機(図1,図2参照)を用い
て、テレビジョンモニタ22の画面に表示された仮想3
次元空間内に水面とフォグとを同時に表示させる場合の
実施形態である。従って、共通点については説明を省略
し、相違点について説明する。
Second Embodiment Next, a second embodiment of the present invention will be described.
In the second embodiment, a virtual 3D image displayed on the screen of the television monitor 22 using a video game machine (see FIGS. 1 and 2) including the water surface image display device described in the first embodiment.
This is an embodiment in a case where a water surface and a fog are simultaneously displayed in a dimensional space. Therefore, the description of the common points will be omitted, and the differences will be described.

【0058】図7は、実施形態2におけるビデオゲーム
機によってテレビジョンモニタ22に表示されたゲーム
プレイ画面の表示例が示された図である。図7に示す表
示例では、鳥瞰的にみた場合の仮想3次元のゲーム空間
が形成され、ゲーム空間の底面に相当する部位に海面2
8が表示され、ゲーム空間の奧側をなす画面の上半分の
部位にフォグ43がかかっている。
FIG. 7 is a view showing a display example of a game play screen displayed on the television monitor 22 by the video game machine according to the second embodiment. In the display example shown in FIG. 7, a virtual three-dimensional game space when viewed from a bird's-eye view is formed, and a sea surface 2 is formed at a portion corresponding to the bottom of the game space.
8 is displayed, and the fog 43 is applied to the upper half portion of the screen that forms the far side of the game space.

【0059】次に、実施形態2における海面の画像表示
方法を説明する。図8(a),(b)は、海面の画像表示方
法の原理図である。図8(a)に示されるように、海面2
8の画像は、それぞれに同じ波模様が描かれたテクスチ
ャが貼り付けられた矩形平面状の上下のポリゴン44,
45からなる。上下のポリゴン44,45は、それぞれ
テレビジョンモニタ22の画面に表示されたゲーム空間
の手前側から半ばまでが水面領域ポリゴン44a,45
aとしてそれぞれ設定され、半ばから奧側がフォグ領域
ポリゴン44b,45bとしてそれぞれ設定されてい
る。上側の水面領域ポリゴン44aのテクスチャは、半
透明で設定されており、上側のフォグ領域ポリゴン44
bのテクスチャは、手前側から奧側にかけて徐々に透明
度が上昇し、最も奧側では透明度が100%(完全な透
明)となる設定とされている。これに対し、下側の水面
領域ポリゴン45aのテクスチャは、不透明で設定され
ており、下側のフォグ領域ポリゴン45bのテクスチャ
は、手前側から奧側にかけて徐々にフォグ43の色に変
化していくように設定されており、最も奧側では完全な
フォグ43の色となる設定とされている。これらの上下
ポリゴン44,45は、下側ポリゴン45の上に上側ポ
リゴン44が間隔をあけて重ねられた状態で設定されて
いる。そして、この状態における上側ポリゴン44及び
下側ポリゴン45を鳥瞰的な位置に配置された仮想のカ
メラC1によって撮影した場合の画像を合成し、テレビ
ジョンモニタ22の画面に表示させると、画面には海面
28にフォグ43がかかったような画像が表示される。
Next, a method for displaying an image of the sea surface according to the second embodiment will be described. FIGS. 8A and 8B are principle diagrams of a method for displaying an image of the sea surface. As shown in FIG.
8 are upper and lower polygons 44, each of which has a rectangular planar shape and a texture on which the same wave pattern is drawn.
It consists of 45. The upper and lower polygons 44 and 45 are water surface area polygons 44 a and 45, respectively, from the near side to the middle of the game space displayed on the screen of the television monitor 22.
a, and the mid-to-rear side is set as fog area polygons 44b and 45b, respectively. The texture of the upper water surface area polygon 44a is set to be translucent, and the upper fog area polygon 44a is textured.
The texture b is set such that the transparency gradually increases from the near side to the far side, and the transparency is 100% (completely transparent) at the farthest side. On the other hand, the texture of the lower water surface area polygon 45a is set to be opaque, and the texture of the lower fog area polygon 45b gradually changes to the color of the fog 43 from the near side to the far side. This is set so that the color of the fog 43 is perfect on the innermost side. These upper and lower polygons 44 and 45 are set in a state where the upper polygon 44 is superimposed on the lower polygon 45 at intervals. Then, an image obtained when the upper polygon 44 and the lower polygon 45 in this state are captured by the virtual camera C1 arranged at a bird's-eye position is synthesized and displayed on the screen of the television monitor 22, and An image is displayed as if the fog 43 was on the sea surface 28.

【0060】海面28及びフォグ43を画面に表示する
に際しては、実施形態1と同様に、CPU1,TB4
0,及びDB41(図2参照)による処理が行われる。こ
こに、CPU1は、実施形態1と同様に、上側ポリゴン
44,下側ポリゴン45のデータ,テクスチャのデー
タ,一次補間色データ等を設定する。
When displaying the sea surface 28 and the fog 43 on the screen, as in the first embodiment, the CPU 1, TB4
0 and the processing by the DB 41 (see FIG. 2). Here, as in the first embodiment, the CPU 1 sets data of the upper polygon 44 and the lower polygon 45, data of texture, primary interpolation color data, and the like.

【0061】ところで、実施形態2では、αは、透明度
を示す値として用られるとともに、フォグ43のかかり
具合(フォグ43の色の強さ)を示す値として用いられ
る。フォグ43のかかり具合を示すαは、0(完全にフ
ォグがかかった状態)≦α≦1(フォグがかかっていない
状態)の値をとるように設定されている。CPU1は、
ポリゴンを構成する点(テクスチャを表示する画面上の
各点)に対して、その奥行き位置に応じて、フォグ43
のかかり具合の設定を行う。また、CPU1は、ポリゴ
ンを構成する各点に対して透明度を示すαを設定する。
もっとも、CPU1が、メインメモリ5に予め記憶され
たαの値を読み出すように構成されていても良い。
In the second embodiment, α is used as a value indicating the degree of transparency and as a value indicating the degree of engagement of the fog 43 (the color intensity of the fog 43). Α indicating the degree of engagement of the fog 43 is set to take a value of 0 (a state where the fog is completely applied) ≦ α ≦ 1 (a state where the fog is not applied). CPU1
For the points constituting the polygon (each point on the screen displaying the texture), the fog 43
Set the degree of the effect. Further, the CPU 1 sets α indicating transparency for each point constituting the polygon.
However, the CPU 1 may be configured to read the value of α stored in the main memory 5 in advance.

【0062】TB40は、CPU1によって設定された
ポリゴンのデータ,及びバッファ11の非表示エリアに
展開されたテクスチャのデータを用い、このテクスチャ
を表示する画面上の各点におけるR(赤),G(緑),B
(青)の値を、それぞれ設定し、DB41へ供給する。
The TB 40 uses the polygon data set by the CPU 1 and the data of the texture developed in the non-display area of the buffer 11, and uses R (red), G () at each point on the screen displaying this texture. Green), B
The value of (blue) is set and supplied to the DB 41.

【0063】DB41は、テクスチャを表示する画面上
の各点におけるRGBの値,設定された透明度を示すα
の値,又は設定されたフォグ43のかかり具合を示すα
の値をTB40から受け取る。そして、DB41は、実
施形態1と同様に、上述した(式1)の演算を行う。実施
形態2では、水面領域ポリゴン44a,45a,及びフ
ォグ領域ポリゴン45aに係る(式1)の演算について
は、αを透明度を示す値として設定し、(式1)中のB1
の値として一次補間の元となる画面上の点に設定された
補間色データのRGBの値を用いる。一方、フォグ領域
ポリゴン45bに係る(式1)の演算については、αをフ
ォグ43のかかり具合を示す値として設定し、(式1)中
のB1の値としてフォグ自体の色(RGB)の値を用い
る。そして、各(式1)の演算結果をフレームバッファの
対応する記録エリアに書き込む。
The DB 41 stores RGB values at each point on the screen on which the texture is displayed and α indicating the set transparency.
Indicating the value of the fog 43 or the degree of engagement of the set fog 43
From the TB 40. Then, similarly to the first embodiment, the DB 41 performs the calculation of (Equation 1) described above. In the second embodiment, for the calculation of (Equation 1) relating to the water surface area polygons 44a and 45a and the fog area polygon 45a, α is set as a value indicating transparency, and B1 in (Equation 1) is set.
The RGB value of the interpolation color data set at the point on the screen that is the basis of the primary interpolation is used as the value of. On the other hand, in the calculation of (Equation 1) relating to the fog area polygon 45b, α is set as a value indicating the degree of application of the fog 43, and the value of the color (RGB) of the fog itself is set as the value of B1 in (Equation 1). Is used. Then, the calculation result of each (Equation 1) is written to the corresponding recording area of the frame buffer.

【0064】次に、実施形態2による海面の画像表示方
法を具体的に説明する。前処理として、CPU1によ
り、水面領域ポリゴン44a,45a,フォグ領域ポリ
ゴン44b,45bのデータ,波模様が描かれたテクス
チャのデータ,TB40が使用すべき各RGBの値,一
次補間色データ(式1中のB1に係るデータ),及び各点
に設定される透明度を示すα又はフォグ43のかかり具
合を示すαの値が、設定される。
Next, a method for displaying an image of the sea surface according to the second embodiment will be specifically described. As pre-processing, the CPU 1 controls the water surface area polygons 44a and 45a, the fog area polygons 44b and 45b, the data of the texture on which the wave pattern is drawn, the values of each RGB to be used by the TB 40, and the primary interpolation color data (Equation 1). The value of α indicating the degree of transparency or α applied to the fog 43 is set.

【0065】CPU1による設定が終了すると、TB4
0が、仮想のカメラC1に対してより遠い位置にある水
面領域ポリゴン45a,フォグ領域ポリゴン45bのデ
ータを用い、波模様の描かれたテクスチャのデータ,T
B40が使用すべきRGBの値を参照しながら、水面領
域ポリゴン45a,フォグ領域ポリゴン45bを構成す
る各点におけるRGBの値をそれぞれ設定する。そし
て、設定した各RGBの値をDB41にそれぞれ供給す
る。
When the setting by the CPU 1 is completed, TB4
0 uses the data of the water surface area polygon 45a and the data of the fog area polygon 45b farther from the virtual camera C1,
The RGB values at each point constituting the water surface area polygon 45a and the fog area polygon 45b are set while referring to the RGB values to be used by B40. Then, the set RGB values are supplied to the DB 41, respectively.

【0066】DB41は、TB40から画面上の各点の
RGBの値を受け取ると、水面領域ポリゴン45aを構
成する各点に対しては、実施形態1と同様の方法によっ
て、(式1)の演算を行う。これに対し、フォグ領域ポリ
ゴン45bを構成する各点については、αをフォグ43
のかかり具合を示す値として設定し、且つ(式1)中のB
1の値をフォグ43自体のRGBの値として設定して
(式1)の演算を行う。そして、各(式1)の演算結果をフ
レームバッファの対応する記憶エリアに書き込む。この
とき、図8(b)に示されるように、水面領域ポリゴン4
5aを構成する各点についてのαの値は、全ての点に対
してα=1(不透明)で設定されている。このため、TB
40から受け取った各RGBの値をそのままフレームバ
ッファに書き込むのと同じこととなる。これに対し、フ
ォグ領域ポリゴン45bを構成する各点についてのαの
値は、その最も手前側がα=1(フォグが全くかかって
いない状態)に設定され、奥側へ行くに従ってαの値が
徐々に減少し、最も奥側ではβ=0(完全にフォグがか
かった状態)に設定されている。従って、フレームバッ
ファの対応する記憶エリアには、フォグ領域ポリゴン4
5bの奥側に対応する記憶エリアに行くに従ってフォグ
43自体の色に近づくようなRGBの値を書き込む状態
となる。
When the DB 41 receives the RGB values of each point on the screen from the TB 40, the DB 41 computes (Equation 1) for each point constituting the water surface area polygon 45a by the same method as in the first embodiment. I do. On the other hand, for each point constituting the fog area polygon 45b, α is set to the fog 43
Is set as a value indicating the extent of the
Set the value of 1 as the RGB value of the fog 43 itself
The calculation of (Equation 1) is performed. Then, the calculation result of each (Equation 1) is written to the corresponding storage area of the frame buffer. At this time, as shown in FIG.
The value of α for each point constituting 5a is set to α = 1 (opaque) for all points. Therefore, TB
This is the same as writing each RGB value received from 40 into the frame buffer as it is. On the other hand, the value of α for each of the points constituting the fog area polygon 45b is set such that α = 1 at the foremost side (the state where no fog is applied), and the value of α gradually increases toward the back side. Is set to β = 0 (the state where fog is completely applied) on the innermost side. Therefore, the fog area polygon 4 is stored in the corresponding storage area of the frame buffer.
An RGB value is written in such a manner as to approach the color of the fog 43 itself as it goes to the storage area corresponding to the back side of 5b.

【0067】次に、TB40は、水面領域ポリゴン44
a,フォグ領域ポリゴン44bのデータを用い、波模様
の描かれたテクスチャのデータ,TB40が使用すべき
RGBの値を参照しながら、水面領域ポリゴン44a,
フォグ領域ポリゴン44bを構成する各点におけるRG
Bの値をそれぞれ設定する。そして、設定した各RGB
の値をDB41にそれぞれ供給する。
Next, TB 40 is a water surface area polygon 44.
a, using the data of the fog area polygon 44b and referring to the data of the texture on which the wave pattern is drawn and the RGB values to be used by the TB 40,
RG at each point constituting the fog area polygon 44b
Set the value of B respectively. And each RGB set
Are supplied to the DB 41 respectively.

【0068】DB41は、TB40から受け取った画面
上の各点のRGBの値を受け取ると、水面領域ポリゴン
44a,フォグ領域ポリゴン44bについて、実施形態
1と同様の方法によって、(式1)の演算を行う。そし
て、各(式1)の演算結果をフレームバッファの対応する
記憶エリアに書き込む。このとき、αの値は、図8(b)
に示されるように、水面領域ポリゴン44aを構成する
各点については、全ての点に対してα=0.5で設定さ
れている。このため、その下に存する水面領域ポリゴン
45aと半々の比率で合成された画像データがフレーム
バッファに記憶された状態となる。これに対し、フォグ
領域ポリゴン44bの各点に対しては、フォグ領域ポリ
ゴン44bの奥側に行くに従って、α=0.5からα=
0に徐々に減少するように設定されている。このため、
フォグ領域ポリゴン44bの奥側へ行くに従って、その
下に存するフォグ領域ポリゴン45bのフォグ43の色
がより強調された比率で合成された画像のデータが、フ
レームバッファに記憶された状態となる。
When the DB 41 receives the RGB values of each point on the screen received from the TB 40, the DB 41 calculates the expression (1) for the water surface area polygon 44a and the fog area polygon 44b in the same manner as in the first embodiment. Do. Then, the calculation result of each (Equation 1) is written to the corresponding storage area of the frame buffer. At this time, the value of α is as shown in FIG.
As shown in (1), for each point constituting the water surface area polygon 44a, α = 0.5 is set for all the points. For this reason, the image data combined with the water surface area polygon 45a thereunder at a half ratio is stored in the frame buffer. On the other hand, for each point of the fog area polygon 44b, α = 0.5 to α = 0.5
It is set to gradually decrease to zero. For this reason,
As the depth of the fog area polygon 44b is increased, the image data in which the color of the fog 43 of the fog area polygon 45b below the fog area polygon 45b is synthesized at a higher rate is stored in the frame buffer.

【0069】そして、フレームバッファの記憶内容をテ
レビジョンモニタ22の画面に表示させると、画面に
は、ゲーム空間の奥側に行くに従ってフォグ43の色が
強調された海面28の画像が表示されることとなる(図
9参照)。なお、上側の水面領域ポリゴン44aに係る
透明度であるα=0.5に、下側のフォグ領域ポリゴン
45を構成する各点に設定されているフォグのかかり具
合αの値を乗算した値が、上側のフォグ領域ポリゴン4
4bを構成する各点に設定される透明度αの値となる設
定とされている。
When the contents stored in the frame buffer are displayed on the screen of the television monitor 22, an image of the sea surface 28 in which the color of the fog 43 is emphasized toward the far side of the game space is displayed on the screen. (See FIG. 9). The value obtained by multiplying the transparency α of the upper water surface area polygon 44a by the value of the degree of fog engagement α set for each point constituting the lower fog area polygon 45 is 0.5. Upper fog area polygon 4
4b is set to be the value of the transparency α set for each of the points constituting 4b.

【0070】次に、実施形態2による海面の画像表示処
理を説明する。図10及び図11は、実施形態2による
海面の画像表示処理が示されたフローチャートである。
この画像表示処理は、例えば、テレビジョンモニタ22
に図示せぬタイトル画面が表示されている状態におい
て、スタートボタン21bが押され、ゲームプレイ画面
の表示命令がCPU1に入力されることにより、海のシ
ーン(ステージ)がスタートすることによってスタートす
る。
Next, the sea surface image display processing according to the second embodiment will be described. FIGS. 10 and 11 are flowcharts illustrating the image display processing of the sea surface according to the second embodiment.
This image display processing is performed by, for example, the television monitor 22.
When a start button 21b is pressed and a display command for a game play screen is input to the CPU 1 in a state where a title screen (not shown) is displayed, a sea scene (stage) starts.

【0071】S101では、CPU1が、海のステージ
の描画に必要なテクスチャ(波模様,自キャラクタ3
0,敵キャラクタ31等のテクスチャ)のデータをメイ
ンメモリ5から読み出し、描画処理プロセッサ10を介
してバッファ11の非表示用エリアに展開する。そし
て、処理がS102に進む。
In S101, the CPU 1 determines the texture (wave pattern, own character 3) required for drawing the sea stage.
0, textures of the enemy character 31 and the like are read from the main memory 5 and are developed in the non-display area of the buffer 11 via the drawing processor 10. Then, the process proceeds to S102.

【0072】S102では、CPU1が、メインメモリ
5に記憶されたプログラム,上下のポリゴン44,45
等のデータに基づいて、ポリゴン44がポリゴン45の
上に間隔をあけて重ねられ、且つテレビジョンモニタ2
2の画面に表示される(仮想のカメラC1によって撮影
される)仮想3次元空間の底面に相当する位置に配置さ
れた場合のポリゴンデータを設定する(第1設定手段に
相当)。このとき、CPU1は、その他の表示物につい
てのポリゴンデータも設定する。そして、処理がS10
3に進む。
In S102, the CPU 1 executes the program stored in the main memory 5, the upper and lower polygons 44 and 45.
And the like, the polygon 44 is superimposed on the polygon 45 at intervals based on data such as
The polygon data when placed at a position corresponding to the bottom surface of the virtual three-dimensional space displayed on the screen 2 (photographed by the virtual camera C1) is set (corresponding to a first setting unit). At this time, the CPU 1 also sets polygon data for other display objects. Then, the process proceeds to S10.
Proceed to 3.

【0073】S103では、TB40が、S102にて
設定された下側のフォグ領域ポリゴン45bのデータに
基づいて、所定位置に配置されたフォグ領域ポリゴン4
5bを構成する各点のうち、何れかの点を選択する。そ
して、この点に対するRGBの値を、バッファ11の非
表示エリアに展開されたテクスチャのデータを参照しつ
つ設定し、DB41に供給する。そして、処理がS10
4に進む。なお、二回目以降のS103の処理において
は、未だ103にて選択されていない点が選択される。
In S103, the TB 40 determines whether the fog area polygon 4b placed at a predetermined position is based on the data of the lower fog area polygon 45b set in S102.
Any one of the points constituting 5b is selected. Then, RGB values for this point are set with reference to the texture data developed in the non-display area of the buffer 11, and are supplied to the DB 41. Then, the process proceeds to S10.
Proceed to 4. In the second and subsequent processes in S103, a point that has not yet been selected in 103 is selected.

【0074】S104では、DB41が、TB40から
S103の処理にて得たRGBの値を(式1)のA1とし
て受け取る。また、DB41は、S103にて選択され
た点に対して設定されたフォグ43のかかり具合を示す
αの値を取得する。さらに、(式1)のB1の値を、この
点に対応して設定されているフォグ43自体の色(RG
B)として設定し、上記した(式1)の演算を行う。そし
て、(式1)の演算結果として得たRGBの値をフレーム
バッファの対応する記憶エリアに書き込む。なお、下側
のフォグ領域ポリゴン45bに係るαの値は、奥に行く
程1に近づくように設定されている。そして、処理がS
105に進む。
In S104, the DB 41 receives the RGB values obtained in the processing of S103 from the TB 40 as A1 in (Equation 1). Further, the DB 41 acquires the value of α indicating the degree of engagement of the fog 43 set for the point selected in S103. Further, the value of B1 in (Equation 1) is changed to the color of the fog 43 itself (RG
B), and the calculation of the above (Equation 1) is performed. Then, the RGB values obtained as the calculation result of (Equation 1) are written to the corresponding storage areas of the frame buffer. The value of α for the lower fog area polygon 45b is set so as to approach 1 as it goes deeper. And the processing is S
Proceed to 105.

【0075】S105では、下側のフォグ領域ポリゴン
45bを構成する点(テクスチャを表示する画面上の点)
の全てについてS103及びS104の処理が終了した
かが判定される。このとき、全ての点について終了して
いないと判定された場合には、処理がS103に戻り、
全ての点について終了するまでS103〜S105の処
理が繰り返し行われる。これに対し、全ての点について
終了したと判定された場合には、処理がS106に進
む。
In S105, the points constituting the lower fog area polygon 45b (points on the screen displaying the texture)
It is determined whether the processing of S103 and S104 has been completed for all of the above. At this time, if it is determined that the processing has not been completed for all points, the process returns to S103,
The processing of S103 to S105 is repeatedly performed until the processing is completed for all points. On the other hand, if it is determined that the processing has been completed for all points, the process proceeds to S106.

【0076】S106〜S108では、下側の水面領域
ポリゴン45aについて、実施形態1におけるS03〜
S05の処理と同様の処理が行われる。従って、説明を
省略する。そして、S108にてYESの判定がなされ
た場合には、処理がS109に進む。
In steps S106 to S108, the lower water surface area polygon 45a is subjected to steps S03 to S108 in the first embodiment.
The same processing as the processing of S05 is performed. Therefore, the description is omitted. Then, when a determination of YES is made in S108, the process proceeds to S109.

【0077】S109に処理が進んだ場合には、TB4
0が、S102にて設定された上側のフォグ領域ポリゴ
ン44bのデータに基づいて、所定位置に配置されたフ
ォグ領域ポリゴン44bを構成する各点のうち、何れか
の点を選択する。そして、この点に対するRGBの値
を、バッファ11の非表示エリアに展開されたテクスチ
ャのデータを参照しつつ設定し、DB41に供給する。
そして、処理がS109に進む。なお、二回目以降のS
109の処理においては、未だ109にて選択されてい
ない点が選択される。
If the processing has proceeded to S109, TB4
0 selects any one of the points constituting the fog area polygon 44b arranged at a predetermined position based on the data of the upper fog area polygon 44b set in S102. Then, RGB values for this point are set with reference to the texture data developed in the non-display area of the buffer 11, and are supplied to the DB 41.
Then, the process proceeds to S109. In addition, S after the second time
In the process at 109, a point not yet selected at 109 is selected.

【0078】S110では、DB41が、TB40から
S110の処理にて得たRGBの値を(式1)のA1とし
て受け取る。また、DB41は、S110にて選択され
た点に対して設定された透明度を示すαの値を取得す
る。さらに、(式1)のB1の値を、この点に対応するフ
レームバッファの記憶エリアに記憶されているRGBの
値として設定し、上記した(式1)の演算を行う。そし
て、(式1)の演算結果として得たRGBの値を、B1の
値を読み出したフレームバッファの対応する記憶エリア
に書き込む。なお、上側のフォグ領域ポリゴン44bに
係るαの値は、奥に行く程0に近づくように設定されて
いる。そして、処理がS111に進む。
In S110, the DB 41 receives the RGB values obtained in the processing of S110 from the TB 40 as A1 in (Equation 1). Further, the DB 41 acquires the value of α indicating the degree of transparency set for the point selected in S110. Further, the value of B1 in (Equation 1) is set as the value of RGB stored in the storage area of the frame buffer corresponding to this point, and the above-described calculation of (Equation 1) is performed. Then, the RGB values obtained as the calculation result of (Equation 1) are written in the corresponding storage area of the frame buffer from which the value of B1 has been read. Note that the value of α relating to the upper fog area polygon 44b is set so as to approach 0 as it goes deeper. Then, the process proceeds to S111.

【0079】S111では、上側のフォグ領域ポリゴン
44bを構成する点(テクスチャを表示する画面上の点)
の全てについてS109及びS110の処理が終了した
かが判定される。このとき、全ての点について終了して
いないと判定された場合には、処理がS109に戻り、
全ての点について終了するまでS109〜S111の処
理が繰り返し行われる。これに対し、全ての点について
終了したと判定された場合には、処理がS112に進
む。
In S111, the points constituting the upper fog area polygon 44b (points on the screen displaying the texture)
It is determined whether or not the processing of S109 and S110 has been completed for all of. At this time, if it is determined that the processing has not been completed for all points, the process returns to S109,
The processing of S109 to S111 is repeatedly performed until the processing is completed for all points. On the other hand, if it is determined that the processing has been completed for all points, the process proceeds to S112.

【0080】S112〜S114では、上側の水面領域
ポリゴン44aについて、実施形態1におけるS06〜
S08の処理と同様の処理が行われる。従って、説明を
省略する。そして、S114にてYESの判定がなされ
た場合には、処理がS115に進む。
In S112 to S114, the upper water surface area polygon 44a is subjected to S06 to S114 in the first embodiment.
The same processing as the processing of S08 is performed. Therefore, the description is omitted. Then, when a determination of YES is made in S114, the process proceeds to S115.

【0081】S115に処理が進んだ場合には、実施形
態1と同様に、その他の処理が行われる。これらの処理
結果は、フレームバッファの該当する記憶エリアに書き
込まれる。そして、処理がS116に進む。
When the process proceeds to S115, other processes are performed as in the first embodiment. These processing results are written to the corresponding storage area of the frame buffer. Then, the process proceeds to S116.

【0082】S116では、描画処理プロセッサ10
が、フレームバッファに記憶された内容を、テレビジョ
ンモニタ22に対して表示出力する。これによって、テ
レビジョンモニタ22には、仮想3次元のゲーム空間が
表示されたゲームプレイ画面が表示され、このゲーム空
間の底面に相当する位置には、美しく深みのある海面2
8の画像が表示されるとともに、ゲーム空間の半ばから
奥側にかけて徐々にフォグ43が強くかかったような画
像が表示される(図7参照)。このS116の処理が終了
すると、海面の表示処理が終了し、処理がS101に戻
る。
In S116, the drawing processor 10
Output the contents stored in the frame buffer to the television monitor 22. As a result, a game play screen on which a virtual three-dimensional game space is displayed is displayed on the television monitor 22, and a beautiful and deep sea surface 2 is provided at a position corresponding to the bottom of the game space.
8 is displayed, and an image in which the fog 43 is gradually applied strongly from the middle to the back of the game space is displayed (see FIG. 7). When the process of S116 ends, the sea surface display process ends, and the process returns to S101.

【0083】実施形態2によれば、実施形態1と同様
に、従来に比し著しく美しく、且つ深みのある海面28
の画像をテレビジョンモニタ22に表示させることがで
きる。また、ハード上の制限から一つのテクスチャに対
して半透明処理とフォグ処理とを同時に施すことができ
ないビデオゲーム機であっても、テレビジョンモニタ2
2に半透明の海面28とフォグ43とを同時に表示する
ことができる。
According to the second embodiment, similarly to the first embodiment, the sea surface 28 which is significantly more beautiful and deeper than the conventional one is provided.
Can be displayed on the television monitor 22. Further, even if the video game machine cannot simultaneously perform the translucent processing and the fog processing on one texture due to hardware restrictions, the television monitor 2
2, the translucent sea surface 28 and the fog 43 can be displayed simultaneously.

【0084】また、本発明による水面の画像表示装置の
実施は、シューティングゲームを実行するビデオゲーム
機に限られず、例えば、アクションゲーム,ロールプレ
イングゲーム,アドベンチャーゲーム,パズルゲーム等
を実行するビデオゲーム機や、画面に表示された仮想3
次元空間に水面を表示するコンピュータ装置等について
実施することも可能である。また、ビデオゲーム機やコ
ンピュータ装置が家庭用であるか業務用であるかは問わ
ない。
Further, the implementation of the water surface image display device according to the present invention is not limited to a video game machine which executes a shooting game, but may be, for example, a video game machine which executes an action game, a role playing game, an adventure game, a puzzle game, or the like. Or virtual 3 displayed on the screen
The present invention can be implemented for a computer device or the like that displays a water surface in a three-dimensional space. It does not matter whether the video game machine or the computer device is for home use or for business use.

【0085】[0085]

【発明の効果】本発明の水面の画像表示装置,その画像
表示方法,及びコンピュータプログラムを記録した機械
読取り可能な記録媒体によると、簡易な構成で従来に比
しリアルな表現形態で水面の画像を表示することができ
る。
According to the water surface image display apparatus of the present invention, the image display method thereof, and the machine-readable recording medium on which the computer program is recorded, the water surface image can be expressed in a simpler and more realistic expression form than before. Can be displayed.

【0086】また、第2の発明によれば、フォグのかか
ったリアルな水面の画像を簡易な構成で表示することが
できる。この場合、一つのテクスチャに対して半透明処
理とフォグ処理とを同時に使用できないコンピュータ装
置であっても、半透明の水面とフォグとを画面に同時に
表示させることが可能となる。
Further, according to the second aspect of the present invention, it is possible to display a real image of a fogged water surface with a simple configuration. In this case, even in a computer device that cannot simultaneously use the translucent process and the fog process for one texture, the translucent water surface and the fog can be simultaneously displayed on the screen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態による水面の画像表示装置を
備えたビデオゲーム機を示すブロック図
FIG. 1 is a block diagram showing a video game machine equipped with a water surface image display device according to an embodiment of the present invention.

【図2】描画処理プロセッサの構成を示すブロック図FIG. 2 is a block diagram illustrating a configuration of a drawing processor;

【図3】TB及びDBの処理を示すフローチャートFIG. 3 is a flowchart showing processing of a TB and a DB;

【図4】実施形態1におけるゲームプレイ画面の表示例
を示す図
FIG. 4 is a diagram showing a display example of a game play screen in the first embodiment.

【図5】実施形態1における水面の画像表示方法の原理
FIG. 5 is a principle diagram of a method for displaying an image of a water surface according to the first embodiment.

【図6】実施形態1における海面の画像表示処理を示す
フローチャート
FIG. 6 is a flowchart illustrating a process of displaying an image of a sea surface according to the first embodiment.

【図7】実施形態2におけるゲームプレイ画面の表示例
を示す図
FIG. 7 is a diagram showing a display example of a game play screen according to the second embodiment.

【図8】実施形態2における海面の画像表示方法の原理
FIG. 8 is a principle diagram of a method for displaying an image of a sea surface according to the second embodiment.

【図9】実施形態2における海面の画像表示方法の原理
FIG. 9 is a principle diagram of a method for displaying an image of a sea surface in the second embodiment.

【図10】実施形態2における海面の画像表示処理を示
すフローチャート
FIG. 10 is a flowchart illustrating a process of displaying an image of a sea surface according to the second embodiment.

【図11】実施形態2における海面の画像表示処理を示
すフローチャート
FIG. 11 is a flowchart illustrating a sea surface image display process according to the second embodiment.

【符号の説明】[Explanation of symbols]

1 CPU 3 グラフィックスデータ生成プロセッサ 5 メインメモリ 10 描画処理プロセッサ 22 テレビジョンモニタ 23 CD−ROM 28 海面 33,34,44,45 ポリゴン 40 テクスチャブレンダ(TB) 41 ディスティネーションブレンダ(DB) 43 フォグ Reference Signs List 1 CPU 3 Graphics data generation processor 5 Main memory 10 Drawing processor 22 Television monitor 23 CD-ROM 28 Sea level 33, 34, 44, 45 Polygon 40 Texture blender (TB) 41 Destination blender (DB) 43 Fog

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】仮想3次元空間に設定された水面の画像を
画面に表示する装置であって、 水面模様が描かれたテクスチャの画像情報を記憶する画
像情報記憶手段と、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを記憶するポリゴンデータ記憶手段と、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置する第1設定手段と、 上側に配置されたポリゴンに貼り付けられた前記テクス
チャの画像を半透明として設定する第2設定手段と、 前記第1設定手段,及び前記第2設定手段によって設定
された2つのポリゴンに貼り付けられたテクスチャの画
像を前記画面に表示出力する出力手段とを備えたことを
特徴とする水面の画像表示装置。
1. An apparatus for displaying an image of a water surface set in a virtual three-dimensional space on a screen, comprising: image information storage means for storing image information of a texture on which a water surface pattern is drawn; Polygon data storage means for storing data of the two polygons to be obtained; and attaching the texture to the two polygons based on the image information of the texture and the data of the two polygons. First setting means for arranging the texture in the virtual three-dimensional space in a state of being overlapped with an interval above and below, and second setting means for setting the texture image pasted on the polygon arranged on the upper side as translucent And an image of a texture pasted on the two polygons set by the first setting means and the second setting means The image display device of the water surface, characterized in that an output means for displaying output to the screen.
【請求項2】仮想3次元空間に設定された水面の画像を
画面に表示する装置であって、 水面模様が描かれたテクスチャの画像情報を記憶する画
像情報記憶手段と、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを記憶するポリゴンデータ記憶手段と、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置する第1設定手段と、 上側に配置されたポリゴンに貼り付けられたテクスチャ
の画像を前記画面に表示された仮想3次元空間の半ばか
ら奥側へ行くに従って透明度が上昇する状態で設定する
とともに、下側に配置されたポリゴンに貼り付けられた
テクスチャの画像を前記画面に表示された仮想3次元空
間の半ばから奥側に行くに従ってフォグが強くかかる状
態で設定する第2設定手段と、 前記第1設定手段,及び前記第2設定手段によって設定
された2つのポリゴンに貼り付けられたテクスチャの画
像を前記画面に表示出力する出力手段とを備えたことを
特徴とする水面の画像表示装置。
2. An apparatus for displaying an image of a water surface set in a virtual three-dimensional space on a screen, comprising: image information storage means for storing image information of a texture on which a water surface pattern is drawn; Polygon data storage means for storing data of the two polygons to be obtained; and attaching the texture to the two polygons based on the image information of the texture and the data of the two polygons. First setting means for arranging in the virtual three-dimensional space in a state of being overlapped with an interval vertically, and a virtual three-dimensional space in which an image of a texture pasted on a polygon arranged on an upper side is displayed on the screen The transparency is set to increase from the middle to the back side, and the text attached to the polygon placed at the bottom is set. Second setting means for setting the image of the texture in a state in which fog is applied strongly from the middle to the back of the virtual three-dimensional space displayed on the screen; and setting by the first setting means and the second setting means Output means for displaying and outputting on the screen an image of the texture pasted on the two polygons thus obtained.
【請求項3】前記2つのポリゴンには、同じ水面模様が
描かれたテクスチャが貼り付けられることを特徴とする
請求項1又は2記載の水面の画像表示装置。
3. The water surface image display device according to claim 1, wherein a texture on which the same water surface pattern is drawn is attached to said two polygons.
【請求項4】前記仮想3次元空間が画面の手前側に向か
って移動するように設定され、この仮想3次元空間の移
動に応じて、前記2つのポリゴンにそれぞれ貼り付けら
れたテクスチャの画像がそれぞれ別個に画面の手前側に
向かって移動するように設定されていることを特徴とす
る請求項1乃至3の何れかに記載の水面の画像表示装
置。
4. The virtual three-dimensional space is set so as to move toward the near side of the screen, and in accordance with the movement of the virtual three-dimensional space, the texture images respectively pasted on the two polygons are changed. The water surface image display device according to any one of claims 1 to 3, wherein the water surface image display device is set so as to individually move toward the front side of the screen.
【請求項5】前記下側に配置されたポリゴンに貼り付け
られたテクスチャの画像に対して設定したフォグのかか
り具合に応じた透明度が、前記上側に配置されたポリゴ
ンに貼り付けられたテクスチャの画像に対して設定され
ることを特徴とする請求項2記載の水面の画像表示装
置。
5. The transparency according to the degree of fog applied to the image of the texture pasted on the polygon disposed on the lower side is determined by the degree of the fog applied to the polygon disposed on the upper side. The water surface image display device according to claim 2, wherein the water surface image display device is set for an image.
【請求項6】仮想3次元空間に設定された水面の画像を
画面に表示する方法であって、 水面模様が描かれたテクスチャの画像情報を読み出し、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを読み出し、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置し、 上側に配置されたポリゴンに貼り付けられた前記テクス
チャの画像を半透明として設定し、 設定した2つのポリゴンに貼り付けられたテクスチャの
画像を前記画面に表示出力することを特徴とする水面の
画像表示方法。
6. A method of displaying an image of a water surface set in a virtual three-dimensional space on a screen, comprising reading out image information of a texture on which a water surface pattern is drawn, and data of two polygons to which the texture is pasted. Based on the image information of the texture and the data of the two polygons, the texture is pasted on the two polygons, respectively, and the two polygons are superimposed at intervals above and below the virtual polygon. It is arranged in a three-dimensional space, the texture image pasted on the polygon arranged on the upper side is set as translucent, and the texture image pasted on the two set polygons is displayed and output on the screen. A method for displaying an image of a water surface, comprising:
【請求項7】仮想3次元空間に設定された水面の画像を
画面に表示する方法であって、 水面模様が描かれたテクスチャの画像情報を読み出し、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを読み出し、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置し、 上側に配置されたポリゴンに貼り付けられたテクスチャ
の画像を前記画面に表示された仮想3次元空間の半ばか
ら奥側へ行くに従って透明度が上昇する状態で設定する
とともに、下側に配置されたポリゴンに貼り付けられた
テクスチャの画像を前記画面に表示された仮想3次元空
間の半ばから奥側に行くに従ってフォグが強くかかる状
態で設定し、 設定した2つのポリゴンに貼り付けられたテクスチャの
画像を前記画面に表示出力することを特徴とする水面の
画像表示方法。
7. A method for displaying an image of a water surface set in a virtual three-dimensional space on a screen, comprising reading out image information of a texture on which a water surface pattern is drawn, and data of two polygons to which the texture is pasted. Based on the image information of the texture and the data of the two polygons, the texture is pasted on the two polygons, respectively, and the two polygons are superimposed at intervals above and below the virtual polygon. The image is placed in the three-dimensional space, and the texture image pasted on the polygon placed on the upper side is set in such a manner that the transparency increases from the middle to the far side of the virtual three-dimensional space displayed on the screen. , The image of the texture pasted on the polygon arranged on the lower side is displayed in the middle of the virtual three-dimensional space displayed on the screen. A water surface image display method comprising: setting the fog to be applied more intensely toward the back side; and outputting the image of the texture pasted to the two set polygons on the screen.
【請求項8】仮想3次元空間に設定された水面の画像を
画面に表示出力する処理をコンピュータに実行させるコ
ンピュータプログラムを記録した機械読取り可能な記録
媒体であって、 コンピュータに、 水面模様が描かれたテクスチャの画像情報を読み出すス
テップと、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを読み出すステップと、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置するステップと、 上側に配置されたポリゴンに貼り付けられた前記テクス
チャの画像を半透明として設定するステップと、 設定した2つのポリゴンに貼り付けられたテクスチャの
画像を前記画面に表示出力するステップとを実行させる
ためのプログラムを記録した機械読取り可能な記録媒
体。
8. A machine-readable recording medium recording a computer program for causing a computer to execute a process of displaying and outputting an image of a water surface set in a virtual three-dimensional space on a screen, wherein the computer draws a water surface pattern. Reading the image information of the texture that has been obtained, reading the data of the two polygons to which the texture is pasted, and adding the two polygons based on the image information of the texture and the data of the two polygons. Placing each texture in the virtual three-dimensional space in a state where the two polygons are superimposed at an interval above and below; and Step of setting as translucent and pasting on the two set polygons Recorded machine-readable recording medium a program for the image of the texture which is to execute a step of displaying output to the screen.
【請求項9】仮想3次元空間に設定された水面の画像を
画面に表示出力する処理をコンピュータに実行させるコ
ンピュータプログラムを記録した機械読取り可能な記録
媒体であって、 コンピュータに、 水面模様が描かれたテクスチャの画像情報を読み出すス
テップと、 前記テクスチャが貼り付けられる2つのポリゴンのデー
タを読み出すステップと、 前記テクスチャの画像情報,及び前記2つのポリゴンの
データに基づいて、前記2つのポリゴンに前記テクスチ
ャをそれぞれ貼り付けるとともに、この2つのポリゴン
を上下に間隔をあけて重ねた状態で前記仮想3次元空間
内に配置するステップと、 上側に配置されたポリゴンに貼り付けられたテクスチャ
の画像を前記画面に表示された仮想3次元空間の半ばか
ら奥側へ行くに従って透明度が上昇する状態で設定する
とともに、下側に配置されたポリゴンに貼り付けられた
テクスチャの画像を前記画面に表示された仮想3次元空
間の半ばから奥側に行くに従ってフォグが強くかかる状
態で設定するステップと、 設定した2つのポリゴンに貼り付けられたテクスチャの
画像を前記画面に表示出力するステップとを実行させる
ためのプログラムを記録した機械読取り可能な記録媒
体。
9. A machine-readable recording medium storing a computer program for causing a computer to execute a process of displaying and outputting an image of a water surface set in a virtual three-dimensional space on a screen, wherein the computer draws a water surface pattern. Reading the image information of the texture that has been obtained, reading the data of the two polygons to which the texture is pasted, and adding the two polygons based on the image information of the texture and the data of the two polygons. Disposing the two polygons in the virtual three-dimensional space in a state where the two polygons are vertically overlapped with an interval therebetween; and attaching the texture image pasted on the polygon disposed on the upper side to the texture. Transparent from the middle to the back of the virtual 3D space displayed on the screen Is set in a state of rising, and the image of the texture pasted on the polygon arranged on the lower side is set in a state where fog is applied more strongly from the middle of the virtual three-dimensional space displayed on the screen to the back side. And a step of displaying and outputting, on the screen, an image of the texture pasted on the two set polygons, a machine-readable recording medium storing a program for executing the program.
JP9003222A 1997-01-10 1997-01-10 Water surface image display apparatus and image display method Expired - Lifetime JP2812674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9003222A JP2812674B2 (en) 1997-01-10 1997-01-10 Water surface image display apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9003222A JP2812674B2 (en) 1997-01-10 1997-01-10 Water surface image display apparatus and image display method

Publications (2)

Publication Number Publication Date
JPH10198819A true JPH10198819A (en) 1998-07-31
JP2812674B2 JP2812674B2 (en) 1998-10-22

Family

ID=11551424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9003222A Expired - Lifetime JP2812674B2 (en) 1997-01-10 1997-01-10 Water surface image display apparatus and image display method

Country Status (1)

Country Link
JP (1) JP2812674B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1036581A3 (en) * 1999-03-16 2000-11-22 Konami Co., Ltd. Image creating method and apparatus, recording medium for recording image creating program, and video game machine
JP2002049929A (en) * 2000-08-04 2002-02-15 Namco Ltd Image generation device, game device, image generation method, and recording medium
EP1151772A3 (en) * 2000-04-26 2002-08-21 Konami Corporation Image generating device, image generating method, readable storage medium storing image generating program, and video game device
EP1139292A3 (en) * 2000-03-24 2003-01-29 Konami Computer Entertainment Japan Inc. Game system, image drawing method for game system, and computer-readable storage medium storing game program
JP2003242526A (en) * 2003-02-07 2003-08-29 Namco Ltd PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2003263652A (en) * 2002-12-26 2003-09-19 Sanyo Product Co Ltd Image display
US6756984B1 (en) 1999-11-17 2004-06-29 Squire Enix Co., Ltd. Object displaying method, a recording medium and game apparatus
US7184051B1 (en) 1999-09-10 2007-02-27 Sony Computer Entertainment Inc. Method of and apparatus for rendering an image simulating fluid motion, with recording medium and program therefor
JP2007164728A (en) * 2005-12-16 2007-06-28 Namco Bandai Games Inc Image generation system, program, and information storage medium
US7495665B2 (en) 2005-05-13 2009-02-24 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
JP2011141898A (en) * 2011-04-08 2011-07-21 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011170881A (en) * 1999-02-03 2011-09-01 Jlb Ventures Llc Method and apparatus for using general three-dimensional (3d) graphics pipeline for cost effective digital image and video editing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3275001B2 (en) 2000-05-09 2002-04-15 株式会社ナムコ Game device and information storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170881A (en) * 1999-02-03 2011-09-01 Jlb Ventures Llc Method and apparatus for using general three-dimensional (3d) graphics pipeline for cost effective digital image and video editing
EP1036581A3 (en) * 1999-03-16 2000-11-22 Konami Co., Ltd. Image creating method and apparatus, recording medium for recording image creating program, and video game machine
US7184051B1 (en) 1999-09-10 2007-02-27 Sony Computer Entertainment Inc. Method of and apparatus for rendering an image simulating fluid motion, with recording medium and program therefor
US6756984B1 (en) 1999-11-17 2004-06-29 Squire Enix Co., Ltd. Object displaying method, a recording medium and game apparatus
EP1139292A3 (en) * 2000-03-24 2003-01-29 Konami Computer Entertainment Japan Inc. Game system, image drawing method for game system, and computer-readable storage medium storing game program
US7245298B2 (en) 2000-03-24 2007-07-17 Konami Computer Entertainment Japan, Inc. Game system, image drawing method for game system, and computer-readable storage medium storing game program
US6781592B2 (en) 2000-04-26 2004-08-24 Konami Corporation Image generating device, image generating method, readable storage medium storing image generating program, and video game device
EP1151772A3 (en) * 2000-04-26 2002-08-21 Konami Corporation Image generating device, image generating method, readable storage medium storing image generating program, and video game device
JP2002049929A (en) * 2000-08-04 2002-02-15 Namco Ltd Image generation device, game device, image generation method, and recording medium
JP2003263652A (en) * 2002-12-26 2003-09-19 Sanyo Product Co Ltd Image display
JP2003242526A (en) * 2003-02-07 2003-08-29 Namco Ltd PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
US7495665B2 (en) 2005-05-13 2009-02-24 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
JP2007164728A (en) * 2005-12-16 2007-06-28 Namco Bandai Games Inc Image generation system, program, and information storage medium
JP2011141898A (en) * 2011-04-08 2011-07-21 Namco Bandai Games Inc Program, information storage medium, and image generation system

Also Published As

Publication number Publication date
JP2812674B2 (en) 1998-10-22

Similar Documents

Publication Publication Date Title
US8602888B2 (en) Video game device and image processing program
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
US8593456B2 (en) Image generating apparatus, method of generating image, program, and recording medium
US8212813B2 (en) Image generating apparatus, method of generating image, program, and recording medium
JP4382117B2 (en) Image generating apparatus and method, program, and recording medium
JP2812674B2 (en) Water surface image display apparatus and image display method
JP2002099927A (en) Method and device for processing three-dimensional image, readable storage medium storing three- dimensional image processing program, and video game device
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
JP4995054B2 (en) GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER
JP2941230B2 (en) Image display processing device, image display processing method, and machine-readable recording medium recording computer program
JP2009140135A5 (en)
KR100543153B1 (en) 3D image processing program, 3D image processing apparatus, 3D image processing method and video game apparatus
JP2005149209A (en) Mixed reality presentation method and mixed reality presentation device
JP2008027064A (en) Program, information recording medium, and image generation system
JP3597792B2 (en) 3D image processing method, apparatus, 3D image processing program, and video game apparatus
JP3737784B2 (en) 3D image processing program, 3D image processing method, and video game apparatus
JP2000093654A (en) Game device, method of playing the game and data memory medium
US7173618B2 (en) Image creation program and method of creating image
JP4749064B2 (en) Program, information storage medium, and image generation system
JP3617960B2 (en) Three-dimensional game image processing program, three-dimensional game image processing method, and video game apparatus
JP3016741B2 (en) Image synthesis display device and image synthesis display method
JP3105817B2 (en) Image display processing device, image display processing method, and machine-readable recording medium recording computer program
JP3048130B2 (en) Pseudo three-dimensional image display device and pseudo three-dimensional image display method
JPH10172006A (en) Method and device for plotting processing of topography and mechanically readable recording medium with computer program recorded
JPH10179932A (en) Display device of explosion pattern, its display method and mechane readable recording medium having computer program recorded therein

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090807

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090807

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090807

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090807

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100807

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110807

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110807

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140807

Year of fee payment: 16

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term