JPH08171657A - Image information generation method and recording medium - Google Patents
Image information generation method and recording mediumInfo
- Publication number
- JPH08171657A JPH08171657A JP31463894A JP31463894A JPH08171657A JP H08171657 A JPH08171657 A JP H08171657A JP 31463894 A JP31463894 A JP 31463894A JP 31463894 A JP31463894 A JP 31463894A JP H08171657 A JPH08171657 A JP H08171657A
- Authority
- JP
- Japan
- Prior art keywords
- data
- packet
- shape data
- image
- bit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、情報処理により画像情
報を作成する画像情報生成方法及びその画像情報が記録
されてなる記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information generating method for generating image information by information processing and a recording medium on which the image information is recorded.
【0002】[0002]
【従来の技術】例えば、家庭用ゲーム機やパーソナルコ
ンピュータ装置或いはグラフィックコンピュータ装置等
において、テレビジョン受像機やモニタ受像機或いはC
RTディスプレイ装置等に出力されて表示される画像は
2次元のものが殆どであり、基本的には2次元の平面的
な背景に2次元のキャラクタ等を適宜に配置して移動さ
せたり、変化させたりするような形態で画像表示が行わ
れている。2. Description of the Related Art For example, in a home game machine, a personal computer device, a graphic computer device, or the like, a television receiver, a monitor receiver, or a C receiver.
Most of the images output and displayed on the RT display device or the like are two-dimensional. Basically, basically, a two-dimensional character or the like is appropriately arranged on a two-dimensional planar background and moved or changed. The image is displayed in such a form that the image is displayed.
【0003】しかしながら、上述したような2次元的な
画像表示や映像では、表現できる背景及びキャラクタや
それらの動きに制限があり、例えばゲームの臨場感を高
めることが困難である。However, in the above-described two-dimensional image display and video, there are restrictions on the background and characters that can be expressed, and their movements, and it is difficult to enhance the sense of presence in a game, for example.
【0004】そこで、例えば次に示すような方法で疑似
的な3次元の画像や映像を作成することが行われてい
る。すなわち、上記キャラクタとしていくつかの方向か
ら見た画像を用意しておき、表示画面中での視点の変化
等に応じてこれらの複数画像の内から1つを選択して表
示したり、2次元の画像を奥行き方向に重ねて疑似的な
3次元画像を表現したりするような方法が挙げられる。
また、画像データを生成或いは作成する際に、いわゆる
テクスチャ(生地、地模様)の画像を多面体等の所望の
面に貼り付けるようなテクスチャマッピング方法や、画
像の色データをいわゆるカラールックアップテーブルを
通して変換することにより表示色を変化させる手法が採
られている。Therefore, for example, a pseudo three-dimensional image or video is created by the following method. That is, as the character, images viewed from several directions are prepared, and one of these images is selected and displayed in accordance with a change in the viewpoint on the display screen, or a two-dimensional image is displayed. There is a method of expressing a pseudo three-dimensional image by superimposing the images in the depth direction.
Also, when generating or creating image data, a texture mapping method that attaches an image of a so-called texture (texture, background pattern) to a desired surface such as a polyhedron, or a so-called color lookup table for the color data of the image is used. A method of changing the display color by converting is adopted.
【0005】ここで、従来の家庭用ゲーム機の概略的な
構成の一例を図24に示す。この図24において、マイ
クロプロセッサ等から成るCPU391は、入力パッド
やジョイスティック等の入力デバイス394の操作情報
をインターフェイス393を介し、メインバス399を
通して取り出す。この操作情報の取り出しと同時に、メ
インメモリ392に記憶されている3次元画像のデータ
がビデオプロセッサ396によってソースビデオメモリ
395に転送され、記憶される。Here, FIG. 24 shows an example of a schematic configuration of a conventional home-use game machine. In FIG. 24, a CPU 391 composed of a microprocessor or the like takes out operation information of an input device 394 such as an input pad or a joystick via an interface 393 and a main bus 399. Simultaneously with the extraction of this operation information, the data of the three-dimensional image stored in the main memory 392 is transferred to and stored in the source video memory 395 by the video processor 396.
【0006】また、上記CPU391は、上記ソースビ
デオメモリ395に記憶された画像を重ね合わせて表示
するための画像データの読み出し順位を上記ビデオプロ
セッサ396に送る。上記ビデオプロセッサ396は上
記画像データの読み出し順位に従って上記ソースビデオ
メモリ395から画像データを読み出し、画像を重ね合
わせて表示する。Further, the CPU 391 sends to the video processor 396 the read order of the image data for superimposing and displaying the images stored in the source video memory 395. The video processor 396 reads the image data from the source video memory 395 according to the order of reading the image data, and displays the images in a superimposed manner.
【0007】上述のように画像を表示すると同時に、上
記取り出された操作情報中の音声情報により、オーディ
オプロセッサ397はオーディオメモリ398内に記憶
されている上記表示される画像に応じた音声データを出
力する。At the same time as displaying the image as described above, the audio processor 397 outputs the audio data corresponding to the displayed image stored in the audio memory 398 according to the audio information in the extracted operation information. To do.
【0008】図25は、図24に示す構成をもつ家庭用
ゲーム機において、2次元画像のデータを用いて3次元
画像を出力する手順を示す図である。この図25では、
市松模様の背景画像上に円筒状の物体を3次元画像とし
て表示する場合を説明する。FIG. 25 is a diagram showing a procedure for outputting a three-dimensional image by using the data of the two-dimensional image in the home-use game machine having the configuration shown in FIG. In FIG. 25,
A case where a cylindrical object is displayed as a three-dimensional image on a checkered background image will be described.
【0009】この図25のソースビデオメモリ395に
は、市松模様の背景画像200と、この背景画像200
上の円筒状の物体の深さ方向の断面を表す矩形の画像、
いわゆるスプライト201、202、203、204の
データが記憶されている。この矩形の画像201、20
2、203、204上の円筒の断面の画像以外の部分は
透明色で描かれている。In the source video memory 395 of FIG. 25, a checkered background image 200 and the background image 200 are shown.
A rectangular image representing the cross-section of the upper cylindrical object in the depth direction,
Data of so-called sprites 201, 202, 203, 204 are stored. This rectangular image 201, 20
Portions other than the image of the cylindrical cross section on 2, 203, and 204 are drawn in a transparent color.
【0010】ビデオプロセッサ396内のシンクジェネ
レータ400は、表示する画像の同期信号に合わせた読
み出しアドレス信号を発生する。また、このシンクジェ
ネレータ400は、上記読み出しアドレス信号をメイン
バス399を介して図24のCPU391から与えられ
た読み出しアドレステーブル401に送る。さらに、こ
のシンクジェネレータ400は上記読み出しアドレステ
ーブル401からの情報に従って上記ソースビデオメモ
リ395内の画像データを読み出す。The sync generator 400 in the video processor 396 generates a read address signal that matches the sync signal of the image to be displayed. Further, the sync generator 400 sends the read address signal to the read address table 401 provided from the CPU 391 of FIG. 24 via the main bus 399. Further, the sync generator 400 reads the image data in the source video memory 395 according to the information from the read address table 401.
【0011】上記読み出された画像データは、上記CP
U391により上記メインバス399を介して与えられ
たプライオリティテーブル402内の画像の重ね合わせ
順位に基づいて、重ね合わせ処理部403で順次重ね合
わせられる。この場合には、上記背景画像200が最も
順位が低く、矩形の画像201、202、203、20
4と順に順位が高くなっているため、背景画像200か
ら順次画像が重ね合わせられる。The read image data is the CP
Based on the superposition order of the images in the priority table 402 given by the U 391 via the main bus 399, the superposition processing unit 403 sequentially superposes the images. In this case, the background image 200 has the lowest rank, and the rectangular images 201, 202, 203, and 20.
Since the rank is higher in the order of 4, the images are sequentially superposed from the background image 200.
【0012】次に、透明色処理部404において、円筒
以外の部分を背景画像で表示するために上記重ね合わせ
られた円筒の断面の画像201、202、203、20
4により表示される円筒以外の部分を透明にする処理を
施す。Next, in the transparent color processing unit 404, the images 201, 202, 203, 20 of the cross-sections of the cylinders that have been superimposed are displayed in order to display a portion other than the cylinders as a background image.
A process for making a portion other than the cylinder displayed by 4 transparent is performed.
【0013】上述した処理により、円筒状の物体の2次
元画像のデータが図25に示す3次元画像VD0 の画像
データとして出力される。By the above processing, the data of the two-dimensional image of the cylindrical object is output as the image data of the three-dimensional image VD 0 shown in FIG.
【0014】[0014]
【発明が解決しようとする課題】ところで、図24のメ
インメモリ392或いはソースビデオメモリ395に記
憶されることになる上記3次元画像のデータである物体
形状データは、例えば外部記録媒体から供給されるもの
であって、ディスプレイ等に表示される3次元の物体を
構成するための基本形状であるポリゴン(描画を行う装
置が扱う図形の最小単位で三角形や四角形等の多角形)
の集合からなり、各ポリゴンはポリゴンの種類(三角形
か四角形かなど)、ポリゴンの属性(不透明か半透明か
など)、ポリゴンの色、頂点の位置を表す3次元座標、
頂点における法線を表す3次元ベクトル、はり付けるテ
クスチャの格納場所を表す2次元座標、などの情報で構
成されている。The object shape data, which is the data of the three-dimensional image to be stored in the main memory 392 or the source video memory 395 of FIG. 24, is supplied from, for example, an external recording medium. A polygon that is a basic shape for constructing a three-dimensional object displayed on a display or the like (a polygon such as a triangle or a quadrangle as a minimum unit of a figure handled by a drawing device)
Each polygon consists of a polygon type (triangle or quadrangle, etc.), polygon attributes (opaque or semi-transparent, etc.), polygon color, three-dimensional coordinates representing the position of vertices,
It is composed of information such as a three-dimensional vector representing the normal line at the vertex and two-dimensional coordinates representing the storage location of the texture to be attached.
【0015】このように、上記メインメモリ392或い
はソースビデオメモリ395に記憶される物体形状デー
タは、例えばポリゴンの種類等が異なる複数の基本形状
データからなるものである。このため、例えば上記CP
U391やビデオプロセッサ396では、当該物体形状
データ内の各基本形状データを上述のように処理してデ
ィスプレイ上に表示されることになる画像データを生成
するために、基本形状データ毎に、分岐処理及び各基本
形状データ固有の処理を行わなければならず、したがっ
て、処理が煩雑になり、かつ処理の高速化の妨げにもな
っている。As described above, the object shape data stored in the main memory 392 or the source video memory 395 is composed of a plurality of basic shape data having different types of polygons, for example. Therefore, for example, the CP
In U391 and the video processor 396, in order to generate the image data to be displayed on the display by processing each basic shape data in the object shape data as described above, the branch processing is performed for each basic shape data. In addition, processing unique to each basic shape data must be performed, which complicates processing and hinders speeding up of processing.
【0016】そこで、本発明は、物体形状データを処理
してディスプレイ上に表示する画像データを生成する際
の処理を簡略化できると共に高速化をも図ることができ
る画像情報を生成する画像情報生成方法、及びその画像
情報を記録してなる記録媒体を提供するものである。Therefore, according to the present invention, the image information generation for generating the image information which can simplify the process when the object shape data is processed to generate the image data to be displayed on the display, and can also speed up the process. A method and a recording medium having image information recorded therein are provided.
【0017】[0017]
【課題を解決するための手段】本発明の画像情報生成方
法は、3次元画像を表す単位となる多角形形状に対応す
る複数の基本形状データの種類を調べ、同種が連続する
ように並べた複数の基本形状データからなる物体形状デ
ータを生成することにより、上述の課題を解決する。According to the image information generation method of the present invention, a plurality of types of basic shape data corresponding to a polygonal shape which is a unit representing a three-dimensional image is examined and arranged so that the same kind is continuous. The object described above is solved by generating object shape data composed of a plurality of basic shape data.
【0018】また、本発明の記録媒体は、3次元画像を
表す単位となる多角形形状に対応する基本形状データを
同種が連続するように並べて生成してなる物体形状デー
タを記録してなるものである。The recording medium of the present invention records object shape data generated by arranging basic shape data corresponding to a polygonal shape, which is a unit representing a three-dimensional image, so that the same kind is continuous. Is.
【0019】[0019]
【作用】本発明によれば、同種が連続するように並べた
複数の基本形状データからなる物体形状データを用いれ
ば、後の画像情報処理の際に、分岐処理及び各基本形状
データ固有の処理を最少にすることができるようにな
る。According to the present invention, if the object shape data consisting of a plurality of basic shape data arranged so that the same type is continuously arranged is used, branch processing and processing unique to each basic shape data are performed in the subsequent image information processing. Will be able to minimize.
【0020】[0020]
【実施例】以下、本発明の好ましい実施例について、図
面を参照しながら説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described below with reference to the drawings.
【0021】先ず、本発明の画像情報生成方法の説明に
先立ち、本実施例にて扱う一具体例のグラフィックスデ
ータフォーマットについて説明する。本発明実施例にて
扱うグラフィックスには、3次元グラフィックスと、基
本とも言うべき2次元グラフィックスの2種類がある。
3次元グラフィックスデータには、例えば、現実感のあ
る物体(描画対象の物体をオブジェクトと称する)の形
状すなわちオブジェクト形状の表面属性を表す物体形状
データ(モデリングデータ、以下TMDデータと呼ぶ)
がある。また2次元グラフィックスデータには、スプラ
イトパターンやテクスチャの素材として使用するイメー
ジデータ、バックグランド(背景)面のマップデータと
スプライトアニメーションを行うためのBGマップデー
タ、セルデータ、情報データ等がある。First, prior to the explanation of the image information generating method of the present invention, a graphics data format of a specific example handled in this embodiment will be explained. There are two types of graphics handled in the embodiments of the present invention, three-dimensional graphics and two-dimensional graphics that should be called basic.
The three-dimensional graphics data includes, for example, object shape data (modeling data, hereinafter referred to as TMD data) representing the shape of a realistic object (the object to be drawn is referred to as an object), that is, the surface attribute of the object shape.
There is. The two-dimensional graphics data includes image data used as a material for sprite patterns and textures, background plane map data, BG map data for sprite animation, cell data, information data, and the like.
【0022】本実施例の物体形状データすなわちモデリ
ングデータのフォーマット(以下TMDフォーマットと
呼ぶ)は、例えば家庭用ゲーム機やパーソナルコンピュ
ータ装置或いはグラフィックコンピュータ装置等に適用
されるものであり、当該TMDフォーマットのファイル
(以下TMDファイルと呼ぶ)が記述するデータは、オ
ブジェクトを構成するポリゴンや直線等のプリミティブ
(PRIMITIVE) の集合体である。1つのTMDファイルで
複数のオブジェクトを持つことができる。また、TMD
ファイル内での座標値は、x軸の正方向が右、y軸が
下、z軸が画面奥を表すようになっている。各オブジェ
クトが持つ空間の座標値は16ビットの符号つき整数値
で、それぞれの軸の座標値の取り得る値は、−3276
7〜+327687になる。The object shape data, that is, the modeling data format (hereinafter referred to as the TMD format) of this embodiment is applied to, for example, a home game machine, a personal computer device, a graphic computer device, or the like. The data described by a file (hereinafter referred to as a TMD file) is a primitive such as a polygon or a straight line forming an object.
It is a collection of (PRIMITIVE). One TMD file can have multiple objects. Also, TMD
Regarding the coordinate values in the file, the positive direction of the x-axis is right, the y-axis is down, and the z-axis is the back of the screen. The coordinate value of the space of each object is a 16-bit signed integer value, and the possible coordinate value of each axis is -3276.
7 to +327687.
【0023】以下に、本発明実施例にて扱うTMDフォ
ーマットについて詳細に説明する。The TMD format used in the embodiment of the present invention will be described in detail below.
【0024】本実施例のTMDフォーマットは、図1に
示すように、TMDファイルの3次元オブジェクトのテ
ーブル(OBJ TABLE) と、これを構成するプリミティブ(P
RIMITIVE) 、頂点(VERTEX)、法線(NORMAL)の3種類のデ
ータの実体を持ち、4つのブロックで構成されている。As shown in FIG. 1, the TMD format of this embodiment has a table (OBJ TABLE) of three-dimensional objects of a TMD file and primitives (PJ
RIMITIVE), vertices (VERTEX), and normals (NORMAL) have three types of data entities and are composed of four blocks.
【0025】この図1に示すTMDフォーマットのヘッ
ダ(HEADER)部は、図2に示すようなデータの構造に関す
る情報を持った3ワード(12バイト)のデータであ
る。この図2において、IDは32ビット長(1ワー
ド)のデータで、TMDファイルのバージョンを表す。
また、FLAGSは、32ビット長(1ワード)のデー
タでTMDフォーマットデータの構成情報を持つ。最下
位ビット(LSB)が後述するFIXPビットで、残り
のビットはリザーブされており、値は全て0である。上
記FIXPビットはオブジェクト構造体が持つポインタ
値が実アドレスかどうかを表す。値が1の時は実アドレ
ス、0の時は先頭からのオフセットである。さらにNO
BJはオブジェクトの個数を表す整数値である。The header (HEADER) portion of the TMD format shown in FIG. 1 is 3-word (12-byte) data having information on the data structure as shown in FIG. In FIG. 2, ID is data having a length of 32 bits (1 word) and represents the version of the TMD file.
FLAGS is 32-bit length (1 word) data and has configuration information of TMD format data. The least significant bit (LSB) is the FIXP bit described later, the remaining bits are reserved, and all the values are 0. The FIXP bit indicates whether the pointer value of the object structure is a real address. When the value is 1, it is the real address, and when it is 0, it is the offset from the beginning. Further NO
BJ is an integer value representing the number of objects.
【0026】次に、図1のオブジェクトテーブル(OBJ T
ABLE) 部は、図3に示すように、各オブジェクトの実体
がどこに格納されているかを示すポインタ情報を持った
構造体が並んだテーブルである。1個のオブジェクト構
造体は次のような構成になっている。Next, the object table (OBJ T
The ABLE) section is a table in which structures having pointer information indicating where the entity of each object is stored are arranged, as shown in FIG. One object structure has the following structure.
【0027】 (メンバの解説) vert _top: VERTEX先頭アドレス n_vert: VERTEX個数 normal _top: NORMAL先頭アドレス n_normal: NORMAL個数 primitive_top: PRIMITIVE 先頭アドレス n_primitive: POLYGON 個数 scale: Scaling factor 上記オブジェクト構造体のメンバの内、ポインタ値(ver
t _top,normal_top,primitive _top)はヘッダ(HEADE
R)部のFIXPビットの値によって意味が変化する。F
IXP=1の場合は実アドレスであるが、FIXP=0
の場合はオブジェクト(OBJECT)部の先頭を0番地とする
相対アドレスを表す。[0027] (Explanation of members) vert_top: VERTEX start address n_vert: VERTEX number normal _top: NORMAL start address n_normal: NORMAL number primitive_top: PRIMITIVE start address n_primitive: POLYGON number scale: Scaling factor Pointer value among the members of the above object structure ( ver
t_top, normal_top, primitive_top) are headers (HEADE
The meaning changes depending on the value of the FIXP bit in the (R) part. F
When IXP = 1, it is a real address, but FIXP = 0
In the case of, it indicates a relative address in which the head of the object (OBJECT) section is address 0.
【0028】スケーリングファクタ(Scaling factor)は
符号付きのlong型で、その2のべき乗値がスケール
値になる。すなわち、上記オブジェクト構造体のスケー
リングファクタ(Scaling factor)の値が0のときが等
倍、2の時はスケール値が4、−1のときはスケール値
が1/2になる。The scaling factor is a long type with a sign, and its power of 2 is the scale value. That is, when the value of the scaling factor of the object structure is 0, the scaling factor is equal to 2, the scale value is 4 when the value is 2, and the scale value is 1/2 when the value is -1.
【0029】次に図1のプリミティブ(PRIMITIVE) 部
は、オブジェクトの構成要素(プリミティブ)の描画パ
ケットが並んだもので、図4のように、1つのパケット
で1個のプリミティブを表す。TMDフォーマットで定
義されるプリミティブは、その後、透視変換処理が行わ
れ、描画プリミティブへ変換される。図4に示す各パケ
ットは可変長で、その大きさ/構造はプリミティブのタ
イプ毎に異なる。Next, in the primitive (PRIMITIVE) part of FIG. 1, drawing packets of the constituent elements (primitives) of the object are arranged, and as shown in FIG. 4, one packet represents one primitive. The primitive defined in the TMD format is then subjected to perspective conversion processing and converted into a drawing primitive. Each packet shown in FIG. 4 has a variable length, and its size / structure differs depending on the type of primitive.
【0030】ここで、図4の描画パケットの内、mod
eはプリミティブの種類や属性を示す8ビットの情報
で、図5のようなビット構成になっている。図5中CO
DE(コード)は構成要素の種類を表す3ビットのコー
ドで、001=ポリゴン(3角,4角)、010=直
線、011=スプライト(矩形)を表す。また、OPT
IONはオプションのビットでCODE(コード)の値
によって変化する(後述するパケットデータ構成の一覧
に併記する)。Here, of the drawing packets in FIG. 4, mod
e is 8-bit information indicating the type and attribute of the primitive and has a bit configuration as shown in FIG. CO in Figure 5
DE (code) is a 3-bit code that represents the type of component, and represents 001 = polygon (triangle, quadrilateral), 010 = straight line, 011 = sprite (rectangle). Also, OPT
ION is an optional bit and changes depending on the value of CODE (code) (also described in the list of packet data configuration described later).
【0031】また、図4の描画パケットの内、flag
はレンダリング時のオプション情報を示す8ビットの情
報で、図6のようなビット構成になっている。図6中G
ORは光源計算ありでテクスチャなしのポリゴンのみ有
効で、1のとき後述するグラデーションポリゴンを、0
のとき単色ポリゴンを示す。FCEは1のとき両面ポリ
ゴン、0のとき片面ポリゴン(CODEの値がポリゴン
の時のみ有効)である。LGTは1のとき光源計算なし
で、0のとき光源計算ありを示す。Also, of the drawing packets in FIG. 4, the flag is
Is 8-bit information indicating option information at the time of rendering, and has a bit configuration as shown in FIG. G in FIG.
OR is valid only for polygons with light source calculation and no texture.
Indicates a monochrome polygon. When FCE is 1, it is a double-sided polygon, and when it is 0, it is a single-sided polygon (valid only when the value of CODE is a polygon). When LGT is 1, light source calculation is not performed, and when LGT is 0, light source calculation is performed.
【0032】さらに、図4中のilenはパケットデー
タ部のワード長を表す8ビットの情報であり、olen
は中間処理で生成する描画プリミティブのワード長を表
す8ビットの情報、Packet dataは頂点/法
線等の各種パラメータでプリミティブのタイプによって
異なる。このPacket dataの構造については
後述する。Further, ilen in FIG. 4 is 8-bit information indicating the word length of the packet data part, and
Is 8-bit information indicating the word length of the drawing primitive generated in the intermediate processing, and Packet data is various parameters such as vertices / normals and varies depending on the primitive type. The structure of this Packet data will be described later.
【0033】次に、図1のVERTEX部は頂点を表す
構造体の列で、1つの構造体のフォーマットは図7に示
すようになっている。なお、図7中のVX,VY,VZ
は頂点座標のx,y,z値(16ビット整数)である。Next, the VERTEX portion of FIG. 1 is a sequence of structures representing vertices, and the format of one structure is as shown in FIG. In addition, VX, VY, VZ in FIG.
Is the x, y, z value (16-bit integer) of the vertex coordinates.
【0034】図1のNORMAL部は法線を表す構造体
の列で、1つの構造体のフォーマットは図8に示すよう
になる。なお、図8中のNX,NY,NZは法線のx,
y,z成分(16ビット固定少数点)である。また、N
X,NY,NZのそれそれの値は4096を1.0とし
て扱う符号つきの16ビット固定少数点で、図9に示す
ようなフォーマットとなっており、符号は1ビット、整
数部は3ビット、少数部は12ビットからなる。The NORMAL part in FIG. 1 is a column of structures representing normals, and the format of one structure is as shown in FIG. In addition, NX, NY, and NZ in FIG.
The y and z components (16-bit fixed decimal point). Also, N
The values of X, NY, and NZ are 16-bit fixed decimal points with a code that treats 4096 as 1.0. The format is as shown in FIG. 9, the code is 1 bit, the integer part is 3 bits, The decimal part consists of 12 bits.
【0035】次にプリミティブの種類別(すなわちパケ
ット型別)に各パケットデータ構成の一覧について説明
する。パケットデータに含まれるパラメータには、以下
に述べるVertex(n) 、Normal(n) 、Un,Vn、Rn,Gn,B
n、TBS 、CBA がある。Next, a list of each packet data structure for each primitive type (that is, each packet type) will be described. The parameters included in the packet data are Vertex (n), Normal (n), Un, Vn, Rn, Gn, B described below.
There are n, TBS and CBA.
【0036】先ず、Vertex(n) は、前記VERTEX(頂点)
をポイントする16ビット長のインデックス値で、その
ポリゴンが属するオブジェクトの前記図1のVERTEX部先
頭から何番目の要素であるかを表す。First, Vertex (n) is the VERTEX (vertex)
A 16-bit length index value that points to, indicating the number of elements from the head of the VERTEX portion in FIG. 1 of the object to which the polygon belongs.
【0037】Normal(n) は、前記NORMAL(法線)をポイ
ントする16ビット長のインデックス値で、上記Vertex
と同様である。Normal (n) is a 16-bit length index value that points to NORMAL, and is the above-mentioned Vertex.
Is the same as
【0038】Un,Vnは、各頂点のテクスチャソース
空間上でのx,y座標値である。Un and Vn are x and y coordinate values in the texture source space of each vertex.
【0039】Rn,Gn,Bnは、ポリゴンの色を表す
R,G,B値で、8ビット符号なしの整数値である。光
源計算なしの場合、予め計算された輝度値を指定してお
く必要がある。Rn, Gn, and Bn are R, G, and B values that represent the color of the polygon, and are 8-bit unsigned integer values. If the light source is not calculated, it is necessary to specify the brightness value calculated in advance.
【0040】TBSは、テクスチャ/スプライトパター
ンに関する情報を持ち、図10のようなフォーマットを
持つ。なお、図10中のTPAGEはテクスチャページ
番号(0〜31)を示す。また、同図中ABRは半透明
レート(混合比率)であり、ABEが1の時のみ有効と
なる。ABRが00のとき50%back+50%polygon 、0
1のとき100 %back+100 %polygon 、10のとき100
%back+50%polygon、11のとき100 %back−100 %p
olygon となる。さらに、同図中TPFは色モードを表
し、00のとき4ビットで表される色のモード、01の
とき8ビットで表される色のモード、10のとき16ビ
ットで表される色のモードを表す。The TBS has information on the texture / sprite pattern and has a format as shown in FIG. Note that TPAGE in FIG. 10 indicates a texture page number (0 to 31). Further, in the figure, ABR is a semi-transparent rate (mixing ratio), and is effective only when ABE is 1. When ABR is 00, 50% back + 50% polygon, 0
100% back + 100% polygon when 1 and 100 when 10
% Back + 50% polygon, when 11 is 100% back−100% p
It will be olygon. Further, in the figure, TPF represents a color mode, where 00 is a color mode represented by 4 bits, 01 is a color mode represented by 8 bits, and 10 is a color mode represented by 16 bits. Represents
【0041】CBAは、図11に示すように、後述する
カラールックアップテーブル(以下CLUTと呼ぶ)の
メモリ内での格納位置を示す。この図11中のCLXは
メモリ上のCLUTのX座標値10ビットの上位6ビッ
トを示し、CLYはメモリ上のCLUTのY座標値9ビ
ットを示す。As shown in FIG. 11, CBA indicates a storage position in a memory of a color lookup table (hereinafter referred to as CLUT) described later. In FIG. 11, CLX indicates the upper 6 bits of the X coordinate value 10 bits of the CLUT on the memory, and CLY indicates the Y coordinate value 9 bits of the CLUT on the memory.
【0042】次にパケットデータ構成例について以下に
説明する。Next, a packet data configuration example will be described below.
【0043】先ず、パケットデータ構成例として3角形
ポリゴンで光源計算無しの場合について説明する。First, as a packet data configuration example, a case of a triangular polygon without light source calculation will be described.
【0044】このときのプリミティブ(PRIMITIVE) 部の
モード値のビット構成は、図12のようになる。この図
12中のIIPは後述するシェーディングモードを示
し、0のときフラットシェーディング(Flat shading)、
1のとき後述するグーローシェーディング(Gouraud sha
ding) となる。また、同図中TMEはテクスチャ指定を
示し、0のときオフ、1のときオンとなる。さらにAB
Eは半透明処理を示し、0のときオフ、1のときオンと
なる。TGEはテクスチャマッピング時の輝度計算を示
し、0のときオン、1のときオフ(テクスチャをそのま
ま描画)となる。なお、これらは他のポリゴンでも同様
である。The bit configuration of the mode value of the primitive (PRIMITIVE) part at this time is as shown in FIG. IIP in FIG. 12 indicates a shading mode described later, and when 0, flat shading (Flat shading),
When it is 1, Gouraud shading, which will be described later,
ding). Further, in the figure, TME indicates texture designation, and is 0 when it is off and 1 when it is on. Further AB
E indicates a semi-transparent process, which is off when 0 and on when 1. TGE indicates brightness calculation at the time of texture mapping, and it is on when 0, and off (texture is drawn as it is) when 1 is set. These are the same for other polygons.
【0045】さらに、このときのパケットデータ構成
は、図13に示すようになる。図13の(a)にはシェ
ーディングモードがフラットシェーディングでテクスチ
ャ指定オフの場合を、図13の(b)にはシェーディン
グモードがグーローシェーディングでテクスチャ指定オ
フのグラデーションの場合、図13の(c)にはシェー
ディングモードがフラットシェーディングでテクスチャ
指定オンの場合、図13の(d)にはシェーディングモ
ードがグーローシェーディングでテクスチャ指定オンの
グラデーションの場合を示している。Further, the packet data structure at this time is as shown in FIG. FIG. 13A shows a case where the shading mode is flat shading and texture designation is OFF, and FIG. 13B is a case where the shading mode is Gouraud shading and texture designation is OFF, and FIG. 13 shows a case where the shading mode is flat shading and texture designation is on, and FIG. 13D shows a case where the shading mode is Gouraud shading and texture designation is on gradation.
【0046】上述のように、本実施例にて扱う基本形状
データ(図1のプリミティブ部の図4に示す描画パケッ
ト)は、それぞれ複数の不定長のデータであり、このよ
うな複数種類の基本形状データの集合で物体形状データ
を構成すると、前述したように当該物体形状データ内の
各基本形状データをディスプレイ上に表示するための画
像データを生成する際には、基本形状データ毎に、分岐
処理及び各基本形状データ固有の処理を行わなければな
らず、したがって、処理が煩雑になり、かつ処理の高速
化の妨げになる。As described above, the basic shape data (drawing packet shown in FIG. 4 of the primitive portion in FIG. 1) handled in this embodiment is a plurality of data of indefinite length, and a plurality of such basic types are used. When the object shape data is composed of a set of shape data, when generating the image data for displaying each basic shape data in the object shape data on the display as described above, the basic shape data is divided into Since processing and processing unique to each basic shape data must be performed, the processing becomes complicated and speeding up of the processing is hindered.
【0047】このようなことから、本発明の画像情報生
成方法では、同種の基本形状データが連続する(パケッ
ト型でまとめる)ようにした物体形状データを生成し、
これにより後の画像情報処理の際に分岐処理及び各基本
形状データ固有の処理を簡易かつ最小化することで、物
体形状データの高速描画が可能になるようにしている。From the above, according to the image information generating method of the present invention, the object shape data in which the same type of basic shape data is continuous (packet type) is generated,
This makes it possible to perform high-speed drawing of the object shape data by simplifying and minimizing the branching processing and the processing unique to each basic shape data in the subsequent image information processing.
【0048】上記同種の基本形状データが連続した物体
形状データを生成するための本発明実施例の画像情報生
成方法について以下に説明する。The image information generating method of the embodiment of the present invention for generating the object shape data in which the same type of basic shape data is continuous will be described below.
【0049】図14には、本発明の画像情報生成方法に
おける生成処理の流れを示す。FIG. 14 shows the flow of generation processing in the image information generation method of the present invention.
【0050】先ず、図14において、ステップS1で
は、現在のパケット(前記図1に示したプリミティブ部
の図4に示した描画パケット)と、現在のパケット型
(プリミティブの種類)と、全パケット型の集合を初期
化する。次のステップS2では、入力した最初のパケッ
トの種類を現在のパケット型とする。ステップS3で
は、現在のパケット型は全パケット型の集合に含まれる
か否かを判断し、含まれないと判断した場合にはステッ
プS6に進み、ここで現在のパケット型を全パケット型
集合に加え、ステップS4に進む。また、ステップS3
において、現在のパケット型は全パケット型の集合に含
まれると判断した場合にも、ステップS4に進む。First, in FIG. 14, in step S1, the current packet (the drawing packet of the primitive part shown in FIG. 1 shown in FIG. 4), the current packet type (type of primitive), and all packet types. Initialize the set of. In the next step S2, the type of the first input packet is set to the current packet type. In step S3, it is determined whether or not the current packet type is included in the set of all packet types. If it is determined that the current packet type is not included in the set of all packet types, the process proceeds to step S6, in which the current packet type is set in the all packet type set. In addition, the process proceeds to step S4. Step S3
In step S4, if it is determined that the current packet type is included in the set of all packet types, the process proceeds to step S4.
【0051】ステップS4では、次のパケットが入力し
たか否かの判断を行う。このステップS4において、次
のパケットが入力したと判断したときにはステップS5
に進み、ここで次のパケットの種類を現在のパケット型
としてステップS3に戻る。一方、ステップS4におい
て次のパケットが入力していないと判断したときには、
ステップS7に進む。上記ステップS6までの処理によ
りTMDデータ中に存在する全てのパケット型が既知に
なる。In step S4, it is determined whether or not the next packet has been input. When it is determined in step S4 that the next packet has been input, step S5
Then, the type of the next packet is set as the current packet type, and the process returns to step S3. On the other hand, when it is determined in step S4 that the next packet is not input,
Proceed to step S7. By the processing up to step S6, all packet types existing in the TMD data are known.
【0052】次のステップS7では、全パケット型の集
合の最初のパケット型を現在のパケット型とする。次の
ステップS8では、最初のパケットを現在のパケットと
した後、ステップS9に進む。In the next step S7, the first packet type in the set of all packet types is set as the current packet type. In the next step S8, the first packet is set as the current packet, and then the process proceeds to step S9.
【0053】当該ステップS9では、現在のパケットの
種類が現在のパケット型と同じか否かの判断を行う。こ
のステップS9で同じと判断した場合にはステップS1
0に進み、ここで現在のパケットを外部記録媒体(すな
わち本発明の記録媒体)に記録した後、ステップS11
に進む。また、ステップS9において、現在のパケット
の種類が現在のパケット型と異なると判断した場合もス
テップS11に進む。In step S9, it is determined whether the type of the current packet is the same as the type of the current packet. If the same is determined in step S9, step S1
0, where the current packet is recorded on the external recording medium (that is, the recording medium of the present invention), and then step S11
Proceed to. Also, if it is determined in step S9 that the type of the current packet is different from the current packet type, the process proceeds to step S11.
【0054】ステップS11では、次のパケットが入力
したか否かの判断を行い、入力したと判断した場合には
ステップS12に進み、ここで当該次のパケットを現在
のパケットとしてステップS9に戻る。一方、ステップ
S11で、次のパケットが入力していないと判断した場
合には、ステップS13に進む。In step S11, it is determined whether or not the next packet is input. If it is determined that the next packet is input, the process proceeds to step S12, where the next packet is regarded as the current packet and the process returns to step S9. On the other hand, if it is determined in step S11 that the next packet is not input, the process proceeds to step S13.
【0055】ステップS13では現在のパケット型を全
パケット型の集合から除き、次のステップS14では全
パケット型の集合中にまだパケット型があるか否かの判
断を行う。当該ステップS14において全パケット型の
集合中にまだパケット型があると判断した場合には、ス
テップS15に進み、ここで全パケット型の集合中の次
のパケット型を現在のパケット型とした後、ステップS
8に戻る。一方、ステップS14において、全パケット
型の集合中にもうパケット型がないと判断した場合には
処理を終了する。In step S13, the current packet type is removed from the set of all packet types, and in the next step S14, it is determined whether or not there is still a packet type in the set of all packet types. If it is determined in step S14 that there is still a packet type in the set of all packet types, the process proceeds to step S15, in which the next packet type in the set of all packet types is set to the current packet type. Step S
Return to 8. On the other hand, if it is determined in step S14 that there is no packet type in the set of all packet types, the process ends.
【0056】上述のようにして同種の基本形状データが
連続した物体形状データを生成した後、この物体形状デ
ータを用いて前記ディスプレイ上に表示するための情報
処理を行う場合の処理の流れは、図15に示すようなも
のとなる。After the object shape data in which the same type of basic shape data is continuous is generated as described above, the flow of the processing when the information processing for displaying the object shape data on the display is performed is as follows. The result is as shown in FIG.
【0057】この図15において、ステップS21で
は、予め同種の基本形状データが連続するように並べら
れた物体形状データが記録された外部記録媒体から、当
該物体形状データが再生されて供給される。次のステッ
プS22では上記物体形状データの各パケット型のパケ
ット数を数え、ステップS23では最初のパケット型を
現在のパケット型とする。In FIG. 15, in step S21, the object shape data is reproduced and supplied from the external recording medium in which the object shape data in which basic shape data of the same type are arranged in succession is recorded. In the next step S22, the number of packets of each packet type of the object shape data is counted, and in step S23, the first packet type is set to the current packet type.
【0058】次のステップS24では現在のパケット型
の最初のパケットに処理のポインタを設定し、ステップ
S25では現在のパケット型のパケットサイズを求め、
ステップS26に進む。このステップS26では、現在
のパケット型のパケット数だけ描画したか否かの判断を
行う。当該ステップS26において描画していないと判
断した場合には、ステップS27に進み、ここでポイン
タの指すパケットの描画を行った後、ステップS28で
パケットサイズの分だけポインタを進め、ステップS2
6に戻る。なお、ステップS27の処理は、例えばキャ
ッシュメモリを用いれば、さらに高速化することができ
る。さらに、ステップS28では、逐一、サイズを得る
必要はない。また、ステップS26において描画したと
判断した場合には、ステップS29に進む。In the next step S24, a processing pointer is set to the first packet of the current packet type, and in step S25, the packet size of the current packet type is obtained.
It proceeds to step S26. In this step S26, it is determined whether or not drawing has been performed by the number of packets of the current packet type. When it is determined in step S26 that the packet is not drawn, the process proceeds to step S27, where the packet pointed by the pointer is drawn, and then the pointer is advanced by the packet size in step S28, and step S2
Return to 6. The processing in step S27 can be further speeded up by using, for example, a cache memory. Further, in step S28, it is not necessary to obtain the size one by one. If it is determined in step S26 that the drawing is performed, the process proceeds to step S29.
【0059】このステップS29では、まだパケット型
があるか否かの判断を行う。当該ステップS29におい
てまだパケット型があると判断した場合には、ステップ
S30に進み、ここで次のパケット型を現在のパケット
型としてステップS25に戻る。一方、ステップS29
において、パケット型がないと判断した場合には、ステ
ップS31に進み、ここで1フレーム分の描画を終了
し、次のフレームの描画へ移るために、ステップS23
に戻る。In step S29, it is determined whether or not there is a packet type. If it is determined in step S29 that there is still a packet type, the process proceeds to step S30, where the next packet type is set as the current packet type, and the process returns to step S25. On the other hand, step S29
If it is determined that there is no packet type in step S23, the process proceeds to step S31, where drawing of one frame is completed and the process proceeds to drawing of the next frame.
Return to
【0060】次に、本発明実施例の画像情報生成方法に
より生成された画像データ(物体形状データ:モデリン
グデータ)を用い、さらに上記図15のフローチャート
に示した処理を行って3次元グラフィックスデータを生
成して表示するような画像処理システムについて説明す
る。本実施例の画像処理システムは、例えば家庭用ゲー
ム機やパーソナルコンピュータ装置或いはグラフィック
コンピュータ装置等に適用されるものであり、図16の
例では家庭用ゲーム機に適用した例を示している。Next, using the image data (object shape data: modeling data) generated by the image information generating method of the embodiment of the present invention, the processing shown in the flowchart of FIG. An image processing system for generating and displaying will be described. The image processing system of this embodiment is applied to, for example, a home game machine, a personal computer device, a graphic computer device, or the like, and the example of FIG. 16 shows an example applied to a home game device.
【0061】本実施例の画像処理システムは、前述した
本発明の画像情報生成方法により生成されたデータが記
録されている本発明の記録媒体である例えば光学ディス
ク(例えばCD−ROM)等から、データ(例えばゲー
ムプログラム)を読み出して実行することにより、使用
者からの指示に応じてゲームを行うようになっており、
図16に示すような構成を有している。The image processing system according to the present embodiment uses, for example, an optical disk (for example, a CD-ROM) which is a recording medium of the present invention in which the data generated by the above-described image information generating method of the present invention is recorded. By reading and executing data (for example, a game program), a game is played according to an instruction from a user.
It has a structure as shown in FIG.
【0062】本実施例の画像処理システムは、中央演算
処理装置(CPU51)及びその周辺装置(周辺デバイ
スコントローラ52等)からなる制御系50と、フレー
ムバッファ63上に描画を行うグラフィックスプロセッ
シングユニット(GPU62)等からなるグラフィック
システム60と、楽音、効果音等を発生するサウンドプ
ロセッシングユニット(SPU71)等からなるサウン
ドシステム70と、補助記憶装置である光学ディスク
(CD−ROMディスク)ドライブ81の制御や再生情
報のデコード等を行う光学ディスク制御部80と、使用
者からの指示を入力するコントローラ92からの指示入
力及びゲームの設定等を記憶する補助メモリ(メモリカ
ード93)からの入出力を制御する通信制御部90と、
上記制御系50から通信制御部90までが接続されてい
るメインバスB等を備えている。The image processing system of the present embodiment includes a control system 50 including a central processing unit (CPU 51) and its peripheral devices (peripheral device controller 52, etc.), and a graphics processing unit (drawing on a frame buffer 63). A graphic system 60 including a GPU 62) and the like, a sound system 70 including a sound processing unit (SPU 71) that generates a musical sound, a sound effect, and the like, and control of an optical disk (CD-ROM disk) drive 81 that is an auxiliary storage device. Input / output is controlled from an optical disk control unit 80 for decoding reproduction information, an instruction input from a controller 92 for inputting an instruction from a user, and an auxiliary memory (memory card 93) for storing game settings and the like. A communication control unit 90,
A main bus B, etc., to which the control system 50 to the communication control unit 90 are connected, is provided.
【0063】上記制御系50は、CPU51と、割り込
み制御、タイムコントロール、メモリコントロール、ダ
イレクトメモリアクセス(DMA)転送の制御等を行う
周辺デバイスコントローラ52と、例えば2メガバイト
のRAMからなる主記憶装置(メインメモリ)53と、
このメインメモリ53や上記グラフィックシステム6
0,サウンドシステム70等の管理を行ういわゆるオペ
レーティングシステム等のプログラムが格納された例え
ば512キロバイトのROM54とを備えている。The control system 50 includes a CPU 51, a peripheral device controller 52 for controlling interrupt control, time control, memory control, direct memory access (DMA) transfer, and the like, and a main storage device (RAM) of, for example, 2 megabytes ( Main memory) 53,
The main memory 53 and the graphic system 6
0, a ROM 54 of, for example, 512 kilobytes in which programs such as a so-called operating system for managing the sound system 70 and the like are stored.
【0064】CPU51は、例えば32ビットのRIS
C(reduced instruction set computor)CPUであり、
ROM54に記憶されているオペレーティングシステム
を実行することにより装置全体の制御を行う。当該CP
U51は命令キャッシュとスクラッチパッドメモリを搭
載し、実メモリの管理も行う。The CPU 51 uses, for example, a 32-bit RIS.
C (reduced instruction set computor) CPU,
The entire device is controlled by executing the operating system stored in the ROM 54. The CP
The U51 is equipped with an instruction cache and a scratchpad memory, and also manages the real memory.
【0065】上記グラフィックシステム60は、座標変
換等の処理を行う座標計算用コプロセッサからなるジオ
メトリトランスファエンジン(GTE)61と、CPU
51からの描画指示に従って描画を行うグラフィックス
プロセッシングユニット(GPU)62と、該GPU6
2により描画された画像を記憶する例えば1メガバイト
のフレームバッファ63と、いわゆる離散コサイン変換
などの直行変換により圧縮されて符号化された画像デー
タを復号化する画像デコーダ(以下MDECと呼ぶ)6
4とを備えている。The graphic system 60 includes a geometry transfer engine (GTE) 61 including a coordinate calculation coprocessor for performing processing such as coordinate conversion, and a CPU.
A graphics processing unit (GPU) 62 for drawing in accordance with a drawing instruction from the GPU 51;
For example, a 1-megabyte frame buffer 63 for storing the image drawn by 2 and an image decoder (hereinafter referred to as MDEC) 6 for decoding image data compressed and encoded by orthogonal transform such as so-called discrete cosine transform
4 and.
【0066】GTE61は、例えば複数の演算を並列に
実行する並列演算機構を備え、CPU51のコプロセッ
サとして、CPU51からの演算要求に応じて座標変
換、光源計算、例えば固定小数点形式の行列やベクトル
の演算を高速に行うことができるようになっている。The GTE 61 has, for example, a parallel operation mechanism for executing a plurality of operations in parallel. As a coprocessor of the CPU 51, the GTE 61 performs coordinate conversion, light source calculation, for example, fixed point format matrix or vector conversion in accordance with an operation request from the CPU 51. The operation can be performed at high speed.
【0067】具体的には、このGTE61は、1つの三
角形状のポリゴンに同じ色で描画するフラットシェーデ
ィングを行う演算の場合では、1秒間に最大150万程
度のポリゴンの座標演算を行うことができるようになっ
ており、これによってこの画像処理システムでは、CP
U51の負荷を低減すると共に、高速な座標演算を行う
ことができるようになっている。Specifically, the GTE 61 can perform coordinate calculation of up to about 1.5 million polygons per second in the case of performing flat shading for drawing in the same color on one triangular polygon. Therefore, in this image processing system, the CP
It is possible to reduce the load on the U51 and perform high-speed coordinate calculation.
【0068】GPU62は、CPU51からのポリゴン
描画命令に従って動作し、フレームバッファ63に対し
て多角形(ポリゴン)等の描画を行う。このGPU62
は、1秒間に最大36万程度のポリゴンの描画を行うこ
とができるようになっている。また、このGPU62
は、CPU51とは独立した2次元のアドレス空間を持
ち、そこにフレームバッファ63がマッピングされるよ
うになっている。The GPU 62 operates in accordance with a polygon drawing command from the CPU 51, and draws a polygon (polygon) on the frame buffer 63. This GPU62
Is capable of drawing up to about 360,000 polygons per second. In addition, this GPU62
Has a two-dimensional address space independent of the CPU 51, and the frame buffer 63 is mapped therein.
【0069】フレームバッファ63は、いわゆるデュア
ルポートRAMからなり、GPU62からの描画あるい
はメインメモリ53からの転送と、表示のための読み出
しとを同時に行うことができるようになっている。The frame buffer 63 is composed of a so-called dual port RAM, and is capable of performing drawing from the GPU 62 or transfer from the main memory 53 and reading for display at the same time.
【0070】このフレームバッファ63は、例えば1メ
ガバイトの容量を有し、それぞれ16ビットの横102
4で縦512の画素のマトリックスとして扱われる。The frame buffer 63 has a capacity of, for example, 1 megabyte, and each has a horizontal width of 16 bits.
4 is treated as a matrix of 512 vertical pixels.
【0071】このフレームバッファ63のうちの任意の
領域を例えばディスプレイ装置等のビデオ出力手段65
に出力することができるようになっている。A video output means 65 such as a display device is provided in an arbitrary area of the frame buffer 63.
It can be output to.
【0072】また、このフレームバッファ63には、ビ
デオ出力として出力される表示領域の他に、GPU62
がポリゴン等の描画を行う際に参照するカラールックア
ップテーブル(CLUT)が記憶されるCLUT領域
と、描画時に座標変換されてGPU62によって描画さ
れるポリゴン等の中に挿入(マッピング)される素材
(テクスチャ)が記憶されるテクスチャ領域が設けられ
ている。これらのCLUT領域とテクスチャ領域は表示
領域の変更等に従って動的に変更されるようになってい
る。すなわち、このフレームバッファ63は、表示中の
領域に対して描画アクセスを実行することができ、ま
た、メインメモリ53との間で高速DMA転送を行うこ
とも可能となっている。In addition to the display area output as a video output, the GPU 62 is also provided in the frame buffer 63.
A CLUT area that stores a color lookup table (CLUT) that is referred to when drawing a polygon or the like, and a material that is coordinate-converted at the time of drawing and is inserted (mapped) into the polygon or the like drawn by the GPU 62 ( A texture area for storing textures is provided. These CLUT area and texture area are dynamically changed according to the change of the display area and the like. That is, the frame buffer 63 can execute drawing access to the area being displayed, and can also perform high-speed DMA transfer with the main memory 53.
【0073】なお、上記GPU62は、上述のフラット
シェーディングの他にポリゴンの頂点の色から補間して
ポリゴン内の色を決めるグーローシェーディングと、上
記テクスチャ領域に記憶されているテクスチャをポリゴ
ンに張り付けるテクスチャマッピングを行うことができ
るようになっている。In addition to the flat shading described above, the GPU 62 pastes the Gouraud shading for interpolating from the colors of the vertices of the polygon to determine the color within the polygon and the texture stored in the texture area on the polygon. Texture mapping can be performed.
【0074】これらのグーローシェーディング又はテク
スチャマッピングを行う場合には、上記GTE61は、
1秒間に最大50万程度のポリゴンの座標演算を行うこ
とができる。When performing these Gouraud shading or texture mapping, the GTE 61 is
A maximum of about 500,000 polygon coordinate operations can be performed per second.
【0075】MDEC64は、上記CPU51からの制
御により、CD−ROMディスクから読み出されてメイ
ンメモリ53に記憶されている静止画あるいは動画の画
像データを復号化して再びメインメモリ53に記憶す
る。具体的には、MDEC64は逆離散コサイン変換
(逆DCT)演算を高速に実行でき、ディスクから読み
出されたカラー静止画圧縮標準(いわゆるJPEG)や
蓄積メディア系動画像符号化標準(いわゆるMPEG、
但し本実施例ではフレーム内圧縮のみ)の圧縮データの
伸張を行うことができるようになっている。Under control of the CPU 51, the MDEC 64 decodes image data of a still image or a moving image read from the CD-ROM disk and stored in the main memory 53, and stores it again in the main memory 53. Specifically, the MDEC64 can perform an inverse discrete cosine transform (inverse DCT) operation at a high speed, and a color still image compression standard (so-called JPEG) read from a disk or a storage media type moving image coding standard (so-called MPEG,
However, in the present embodiment, it is possible to decompress the compressed data (intra-frame compression only).
【0076】また、この再生された画像データは、GP
U62を介してフレームバッファ63に記憶することに
より、上述のGPU62によって描画される画像の背景
として使用することができるようにもなっている。The reproduced image data is GP
By storing it in the frame buffer 63 via U62, it can be used as the background of the image drawn by the GPU 62.
【0077】上記サウンドシステム70は、CPU51
からの指示に基づいて、楽音、効果音等を発生するサウ
ンド再生処理プロセッサ(SPU)71と、CD−RO
Mから読み出された音声,楽音等のデータや音源データ
等が記憶される例えば512キロバイトのサウンドバッ
ファ72と、SPU71によって発生される楽音、効果
音等を出力するサウンド出力手段としてのスピーカ73
とを備えている。The sound system 70 includes a CPU 51
A sound reproduction processor (SPU) 71 for generating a musical sound, a sound effect, etc. based on an instruction from the CD-RO
A sound buffer 72 of, for example, 512 kilobytes in which data such as voices and musical tones read from M and sound source data are stored, and a speaker 73 as a sound output means for outputting musical tones and sound effects generated by the SPU 71.
It has and.
【0078】上記SPU71は、16ビットの音声デー
タを4ビットの差分信号として適応差分符号化(ADP
CM)された音声データを再生するADPCM復号機能
と、サウンドバッファ72に記憶されている音源データ
を再生することにより、効果音等を発生する再生機能
と、サウンドバッファ72に記憶されている音声データ
等を変調させて再生する変調機能等を備えている。すな
わち、当該SPU71は、ルーピングや時間を系数とし
た動作パラメータの自動変更などの機能を持つADPC
M音源24ボイスを内蔵し、CPU51からの操作によ
り動作する。また、SPU71は、サウンドバッファ7
2がマッピングされた独自のアドレス空間を管理し、C
PU51からサウンドバッファ72にADPCMデータ
を転送し、キーオン/キーオフやモジュレーション情報
を直接渡すことによりデータを再生する。The SPU 71 uses 16-bit audio data as a 4-bit differential signal by adaptive differential encoding (ADP).
CM) ADPCM decoding function for reproducing the voice data, a reproduction function for generating a sound effect by reproducing the sound source data stored in the sound buffer 72, and the voice data stored in the sound buffer 72. It has a modulation function and the like for modulating and reproducing the same. That is, the SPU 71 is an ADPC having functions such as looping and automatic change of operating parameters with time as a coefficient.
It has 24 voices of M sound source built in and operates by an operation from the CPU 51. Also, the SPU 71 is a sound buffer 7.
2 manages its own address space mapped to C,
The ADPCM data is transferred from the PU 51 to the sound buffer 72, and the data is reproduced by directly passing the key-on / key-off and the modulation information.
【0079】このような機能を備えることによってこの
サウンドシステム70は、CPU51からの指示によっ
てサウンドバッファ72に記録された音声データ等に基
づいて楽音、効果音等を発生するいわゆるサンプリング
音源として使用することができるようになっている。By having such a function, the sound system 70 can be used as a so-called sampling sound source for generating a musical sound, a sound effect, etc. based on the audio data recorded in the sound buffer 72 according to an instruction from the CPU 51. You can do it.
【0080】上記光学ディスク制御部80は、CD−R
OMディスクである光学ディスクに記録されたプログラ
ム、データ等を再生するディスクドライブ装置81と、
例えばエラー訂正(ECC)符号が付加されて記録され
ているプログラム、データ等を復号するデコーダ82
と、ディスクドライブ装置81からの再生データを一時
的に記憶することにより、ディスクからの読み出された
データを記憶する例えば32キロバイトのバッファ83
とを備えている。すなわち、当該光学ディスク制御部8
0は、上記ドライブ装置81やデコーダ82等のディス
クの読み出しを行うために必要な部品類から構成されて
いる。なお、ここでは、ディスクフォーマットとしてC
D−DA、CD−ROM XAのデータをサポートでき
るようになっている。なお、デコーダ82はサウンドシ
ステム70の一部も構成している。The optical disc controller 80 is a CD-R.
A disc drive device 81 for reproducing programs, data, etc. recorded on an optical disc which is an OM disc;
For example, a decoder 82 for decoding a program, data, etc. recorded with an error correction (ECC) code added
And a buffer 83 of, for example, 32 kilobytes that stores the data read from the disc by temporarily storing the reproduction data from the disc drive device 81.
It has and. That is, the optical disc controller 8
Reference numeral 0 is composed of components necessary for reading the disk, such as the drive device 81 and the decoder 82. In addition, here, as the disk format, C is used.
The data of D-DA and CD-ROM XA can be supported. The decoder 82 also constitutes part of the sound system 70.
【0081】また、ディスクドライブ装置81で再生さ
れるディスクに記録されている音声データとしては、上
述のADPCMデータ(CD−ROM XAのADPC
Mデータ等)の他に音声信号をアナログ/デジタル変換
したいわゆるPCMデータがある。Further, as the audio data recorded on the disc reproduced by the disc drive device 81, the above-mentioned ADPCM data (ADPC of the CD-ROM XA is used.
In addition to M data), there is so-called PCM data obtained by analog / digital converting a voice signal.
【0082】ADPCMデータとして、例えば16ビッ
トのデジタルデータの差分を4ビットで表わして記録さ
れている音声データは、デコーダ82で誤り訂正と復号
化がなされた後、上述のSPU71に供給され、SPU
71でデジタル/アナログ変換等の処理が施された後、
スピーカ73を駆動するために使用される。As ADPCM data, for example, audio data recorded by representing the difference of 16-bit digital data by 4 bits is subjected to error correction and decoding by the decoder 82, and then supplied to the above-mentioned SPU 71, and is sent to the SPU 71.
After processing such as digital / analog conversion at 71,
It is used to drive the speaker 73.
【0083】また、PCMデータとして、例えば16ビ
ットのデジタルデータとして記録されている音声データ
は、デコーダ82で復号化された後、スピーカ73を駆
動するために使用される。なお、当該デコーダ82のオ
ーディオ出力は、一旦SPU71に入り、当該SPU出
力とミックスされ、リバーブユニットを経由して最終の
オーディオ出力となる。Audio data recorded as PCM data, for example, as 16-bit digital data is decoded by the decoder 82 and then used to drive the speaker 73. The audio output of the decoder 82 once enters the SPU 71, is mixed with the SPU output, and becomes the final audio output via the reverb unit.
【0084】また、通信制御部90は、メインバスBを
介してCPU51との通信の制御を行う通信制御デバイ
ス91と、使用者からの指示を入力するコントローラ9
2と、ゲームの設定等を記憶するメモリカード93とを
備えている。Further, the communication control section 90 includes a communication control device 91 for controlling communication with the CPU 51 via the main bus B, and a controller 9 for inputting an instruction from a user.
2 and a memory card 93 for storing game settings and the like.
【0085】コントローラ92は、使用者の意図をアプ
リケーションに伝達するインタフェースであり、使用者
からの指示を入力するために、例えば16個の指示キー
を有し、通信制御デバイス91からの指示に従って、こ
の指示キーの状態を、同期式通信により、通信制御デバ
イス91に毎秒60回程度送信する。そして、通信制御
デバイス91は、コントローラ92の指示キーの状態を
CPU51に送信する。なお、コントローラ92は、本
体に2個のコネクタを有し、その他にマルチタップを使
用して多数のコントローラを接続することも可能となっ
ている。The controller 92 is an interface for transmitting the intention of the user to the application, and has, for example, 16 instruction keys for inputting an instruction from the user, and according to the instruction from the communication control device 91, The state of this instruction key is transmitted to the communication control device 91 about 60 times per second by synchronous communication. Then, the communication control device 91 transmits the state of the instruction key of the controller 92 to the CPU 51. The controller 92 has two connectors on the main body, and in addition, it is possible to connect a large number of controllers using a multi-tap.
【0086】これにより、使用者からの指示がCPU5
1に入力され、CPU51は、実行しているゲームプロ
グラム等に基づいて使用者からの指示に従った処理を行
う。As a result, the instruction from the user is sent to the CPU 5
1 is input to the CPU 51, and the CPU 51 performs processing according to an instruction from the user based on the game program or the like being executed.
【0087】また、CPU51は、実行しているゲーム
の設定等を記憶する必要があるときに、該記憶するデー
タを通信制御デバイス91に送信し、通信制御デバイス
91はCPU51からのデータをメモリカード93に記
憶する。When it is necessary to store the settings of the game being executed, the CPU 51 sends the stored data to the communication control device 91, and the communication control device 91 sends the data from the CPU 51 to the memory card. Store in 93.
【0088】このメモリカード93は、メインバスBか
ら分離されているため、電源を入れた状態で、着脱する
ことができるようになっている。これにより、ゲームの
設定等を複数のメモリカード93に記憶することができ
るようになっている。Since the memory card 93 is separated from the main bus B, it can be attached and detached while the power is on. As a result, game settings and the like can be stored in the plurality of memory cards 93.
【0089】また、本実施例システムは、メインバスB
に接続された16ビットパラレル入出力(I/O)ポー
ト101と、非同期式のシリアル入出力(I/O)ポー
ト102とを備えている。Further, the system of this embodiment has a main bus B
A 16-bit parallel input / output (I / O) port 101 and an asynchronous serial input / output (I / O) port 102 which are connected to each other.
【0090】そして、パラレルI/Oポート101を介
して周辺機器との接続を行うことができるようになって
おり、また、シリアルI/Oポート102を介して他の
ビデオゲーム装置等との通信を行うことができるように
なっている。Then, it is possible to connect to peripheral devices through the parallel I / O port 101, and to communicate with other video game devices through the serial I / O port 102. To be able to do.
【0091】ところで、上記メインメモリ53、GPU
62、MDEC64及びデコーダ82等の間では、プロ
グラムの読み出し、画像の表示あるいは描画等を行う際
に、大量の画像データを高速に転送する必要がある。By the way, the main memory 53, the GPU
A large amount of image data needs to be transferred at high speed between the 62, the MDEC 64, the decoder 82, and the like when reading a program, displaying an image, drawing, or the like.
【0092】このため、この画像処理システムでは、上
述のようにCPU51を介さずに周辺デハイスコントロ
ーラ52からの制御により上記メインメモリ53、GP
U62、MDEC64及びデコーダ82等の間で直接デ
ータの転送を行ういわゆるDMA転送を行うことができ
るようになっている。Therefore, in this image processing system, as described above, the main memory 53, GP is controlled by the control from the peripheral device controller 52 without the intervention of the CPU 51.
It is possible to perform so-called DMA transfer for directly transferring data between the U62, MDEC 64, the decoder 82 and the like.
【0093】これにより、データ転送によるCPU51
の負荷を低減させることができ、高速なデータの転送を
行うことができようになっている。As a result, the CPU 51 by data transfer
It is possible to reduce the load and to perform high-speed data transfer.
【0094】このビデオゲーム装置では、電源が投入さ
れると、CPU51が、ROM54に記憶されているオ
ペレーティングシステムを実行する。In this video game device, when the power is turned on, the CPU 51 executes the operating system stored in the ROM 54.
【0095】このオペレーティングシステムに実行によ
り、CPU51は、上記グラフィックシステム60、サ
ウンドシステム70等の制御を行う。When executed by this operating system, the CPU 51 controls the graphic system 60, the sound system 70 and the like.
【0096】また、オペレーティングシステムが実行さ
れると、CPU51は、動作確認等の装置全体の初期化
を行った後、光学ディスク制御部80を制御して、光学
ディスクに記録されているゲーム等のプログラムを実行
する。When the operating system is executed, the CPU 51 initializes the entire apparatus such as checking the operation, and then controls the optical disk control section 80 to execute the game etc. recorded on the optical disk. Run the program.
【0097】このゲーム等のプログラムの実行により、
CPU51は、使用者からの入力に応じて上記グラフィ
ックシステム60、サウンドシステム70等を制御し
て、画像の表示、効果音、楽音の発生を制御するように
なっている。By executing the program such as this game,
The CPU 51 controls the graphic system 60, the sound system 70, etc. according to an input from the user to control the display of images, the generation of sound effects, and the generation of musical sounds.
【0098】次に、本実施例の画像処理システムにおけ
るディスプレイ上への表示について説明する。Next, the display on the display in the image processing system of this embodiment will be described.
【0099】上記GPU62は、フレームバッファ63
4内の任意の矩形領域の内容を、そのまま上記ビデオ出
力手段65の例えばCRT等のディスプレイ上に表示す
る。この領域を以下表示エリアと呼ぶ。上記矩形領域と
ディスプレイ画面表示の関係は、図17に示すようにな
っている。The GPU 62 has a frame buffer 63.
The content of the arbitrary rectangular area in 4 is displayed as it is on the display of the video output means 65, such as a CRT. This area is hereinafter referred to as a display area. The relationship between the rectangular area and the display on the display screen is as shown in FIG.
【0100】また、上記GPU62は、次の10個の画
面モードをサポートしている。Further, the GPU 62 supports the following 10 screen modes.
【0101】 〔モード〕 〔標準解像度〕 備考 モード0 256(H)×240(V) ノンインターレス モード1 320(H)×240(V) ノンインターレス モード2 512(H)×240(V) ノンインターレス モード3 640(H)×240(V) ノンインターレス モード4 256(H)×480(V) インターレス モード5 320(H)×480(V) インターレス モード6 512(H)×480(V) インターレス モード7 640(H)×480(V) インターレス モード8 384(H)×240(V) ノンインターレス モード9 384(H)×480(V) インターレス 画面サイズすなわちディスプレイ画面上のピクセル数は
可変で、図18のように、水平方向、垂直方向それぞれ
独立に表示開始位置(座標(DTX,DTY))、表示
終了位置(座標(DBX,DBY))を指定することが
できる。[Mode] [Standard resolution] Remark Mode 0 256 (H) × 240 (V) Non-interlace mode 1 320 (H) × 240 (V) Non-interlace mode 2 512 (H) × 240 (V) Non-interlace mode 3 640 (H) × 240 (V) Non-interlace mode 4 256 (H) × 480 (V) Interless mode 5 320 (H) × 480 (V) Interless mode 6 512 (H) × 480 (V) Interless mode 7 640 (H) × 480 (V) Interless mode 8 384 (H) × 240 (V) Non-interlace mode 9 384 (H) × 480 (V) Interless screen size or display The number of pixels on the screen is variable, and as shown in FIG. 18, the display start position (coordinates (DTX, DTY)) and the display end position (coordinates (DBX, DBY)) can be specified independently in the horizontal and vertical directions. You can
【0102】また、各座標に指定可能な値と画面モード
との関係は、以下のようになっている。なお、座標値の
DTX,DBXは4の倍数になるように設定する必要が
ある。したがって、最小画面サイズは、横4ピクセル、
縦2ピクセル(ノンインターレス時)又は4ピクセル
(インターレス時)になる。The relationship between the value that can be designated for each coordinate and the screen mode is as follows. The coordinate values DTX and DBX must be set to be a multiple of 4. Therefore, the minimum screen size is 4 pixels wide,
2 pixels vertically (when non-interlaced) or 4 pixels (when interlaced).
【0103】 〔X座標の指定可能範囲〕 〔モード〕 〔DTX〕 〔DBX〕 0,4 0〜276 4〜280 1,5 0〜348 4〜352 2,6 0〜556 4〜560 3,7 0〜700 4〜704 8,9 0〜396 4〜400 〔Y座標の指定可能範囲〕 〔モード〕 〔DTY〕 〔DBY〕 0〜3,8 0〜241 2〜243 4〜7,9 0〜480 4〜484 次に、GPU62は、表示色数に関するモードとして、
16ビットダイレクトモード(32768色)と、24
ビットダイレクトモード(フルカラー)の2つをサポー
トしている。上記16ビットダイレクトモード(以下1
6ビットモードと呼ぶ)は32768色表示モードであ
る。この16ビットモードでは、24ビットダイレクト
モード(以下24ビットモードと呼ぶ)に較べ表示色数
に限りはあるが、描画時のGPU62内部での色計算は
24ビットで行われ、また、いわゆるディザ機能も搭載
しているので、疑似フルカラー(24ビットカラー)表
示が可能となっている。また、上記24ビットモード
は、16777216色(フルカラー)表示のモードで
ある。但し、フレームバッファ63内に転送されたイメ
ージデータの表示(ビットマップ表示)のみが可能で、
GPU62の描画機能を実行することはできない。ここ
で、1ピクセルのビット長は24ビットとなるが、フレ
ームバッファ63上での座標や表示位置の値は16ビッ
トを基準として指定する必要がある。すなわち、640
×480の24ビット画像データは、フレームバッファ
63中では960×480として扱われる。また、前記
座標値DBXは8の倍数になるように設定する必要があ
り、したがって、この24ビットモードでの最小画面サ
イズは横8×縦2ピクセルになる。[Specifiable Range of X Coordinate] [Mode] [DTX] [DBX] 0,40 to 276 4 to 280 1,50 0 to 348 4 to 352 2,6 0 to 556 4 to 560 3,7 0 to 700 4 to 704 8,9 0 to 396 4 to 400 [Specifiable range of Y coordinate] [Mode] [DTY] [DBY] 0 to 3, 8 0 to 241 2 to 243 4 to 7, 90 0 480 4 to 484 Next, the GPU 62 sets, as a mode relating to the number of display colors,
16-bit direct mode (32768 colors), 24
It supports two bit direct modes (full color). 16-bit direct mode (1 below)
The 6-bit mode) is a 32768 color display mode. In the 16-bit mode, the number of display colors is limited as compared with the 24-bit direct mode (hereinafter referred to as the 24-bit mode), but the color calculation inside the GPU 62 at the time of drawing is performed by 24 bits, and the so-called dither function is also used. Since it is also equipped with, it is possible to display pseudo full color (24-bit color). The 24-bit mode is a mode for displaying 16777216 colors (full color). However, only the image data transferred in the frame buffer 63 can be displayed (bitmap display),
The drawing function of the GPU 62 cannot be executed. Here, the bit length of one pixel is 24 bits, but the values of coordinates and display position on the frame buffer 63 must be specified with 16 bits as a reference. That is, 640
The x480 24-bit image data is handled as 960x480 in the frame buffer 63. Further, it is necessary to set the coordinate value DBX to be a multiple of 8. Therefore, the minimum screen size in this 24-bit mode is 8 horizontal pixels × 2 vertical pixels.
【0104】また、GPU62には次のような描画機能
が搭載されている。The GPU 62 has the following drawing function.
【0105】先ず、1×1ドット〜256×256ドッ
トのスプライトに対して、4ビットCLUT(4ビット
モード、16色/スプライト)や8ビットCLUT(8
ビットモード、256色/スプライト),16ビットC
LUT(16ビットモード、32768色/スプライ
ト)等が可能なスプライト描画機能と、ポリゴン(三角
形や四角形等の多角形)の各頂点の画面上の座標を指定
して描画を行うと共に、ポリゴン内部を同一色で塗りつ
ぶすフラットシェーディング、各頂点に異なる色を指定
して内部をグラデーションするグーローシェーディン
グ、ポリゴン表面に2次元のイメージデータ(テクスチ
ャパターン)を用意して張り付けるテクスチャマッピン
グ等を行うポリゴン描画機能と、グラデーションが可能
な直線描画機能と、CPU51からフレームバッファ6
3への転送、フレームバッファ63からCPU51への
転送、フレームバッファ63からフレームバッファ63
への転送等のイメージ転送機能と、その他の機能とし
て、各ピクセルの平均をとって半透明化する機能(各ピ
クセルのピクセルデータを所定比率αで混合することか
らαブレンディング機能と呼ばれる)、色の境界にノイ
ズを乗せてぼかすディザ機能、描画エリアを越えた部分
を表示しない描画クリッピング機能、描画エリアに応じ
て描画原点を動かすオフセット指定機能等がある。First, for a sprite of 1 × 1 dot to 256 × 256 dots, a 4-bit CLUT (4-bit mode, 16 colors / sprite) or 8-bit CLUT (8
Bit mode, 256 colors / sprite), 16-bit C
A sprite drawing function capable of LUT (16-bit mode, 32768 colors / sprite), etc. and drawing is performed by designating the coordinates of each vertex of a polygon (polygon such as triangle or quadrangle) on the screen, and Polygon drawing function that performs flat shading that fills with the same color, Gouraud shading that specifies different colors for each vertex and gradation inside, and texture mapping that prepares and pastes two-dimensional image data (texture pattern) on the polygon surface. And a linear drawing function capable of gradation, and the CPU 51 to the frame buffer 6
3, transfer from the frame buffer 63 to the CPU 51, transfer from the frame buffer 63 to the frame buffer 63
Image transfer function such as transfer to the other, and other functions that take the average of each pixel and make it semi-transparent (called the α blending function because the pixel data of each pixel is mixed at a predetermined ratio α), color There is a dither function that blurs noise on the boundary of, a drawing clipping function that does not display the portion beyond the drawing area, an offset specification function that moves the drawing origin according to the drawing area, and so on.
【0106】また、描画を行う座標系は符号付きの11
ビットを単位としており、X,Yそれぞれに−1024
〜+1023の値をとる。また、図19に示すように、
本実施例でのフレームバッファ63のサイズは1024
×512となっているので、はみ出した部分は折り返す
ようになっている。描画座標の原点は、座標値のオフセ
ット値を任意に設定する機能により、フレームバッファ
63内で自由に変更することができる。また、描画は、
描画クリッピング機能により、フレームバッファ63内
の任意の矩形領域に対してのみ行われる。The coordinate system for drawing is 11 with a sign.
Bit is used as a unit, and X- and Y-1024
It takes a value of +1023. In addition, as shown in FIG.
The size of the frame buffer 63 in this embodiment is 1024.
Since it is × 512, the protruding portion is folded back. The origin of the drawing coordinates can be freely changed in the frame buffer 63 by the function of arbitrarily setting the offset value of the coordinate value. Also, the drawing is
The drawing clipping function is performed only on an arbitrary rectangular area in the frame buffer 63.
【0107】さらに、GPU62は、最大256×25
6ドットのスプライトをサポートしており、縦,横それ
ぞれの値を自由に設定することができる。Further, the GPU 62 has a maximum of 256 × 25.
It supports 6-dot sprites, and the vertical and horizontal values can be set freely.
【0108】上記スプライトに張りつけるイメージデー
タ(スプライトパターン)は、図20に示すように、フ
レームバッファ63の非表示領域に配置する。スプライ
トパターンは、描画コマンド実行に先立ってフレームバ
ッファ63に転送される。スプライトパターンは、25
6×256ピクセルを1ページとして、フレームバッフ
ァ63上にメモリの許す限り何枚でも置くことができ、
この256×256の領域をテクスチャページと呼んで
いる。1枚のテクスチャページの場所は、描画コマンド
のTSBと呼ぶテクスチャページの位置(アドレス)指
定のためのパラメータに、ページ番号を指定することで
決定される。The image data (sprite pattern) attached to the sprite is arranged in the non-display area of the frame buffer 63, as shown in FIG. The sprite pattern is transferred to the frame buffer 63 prior to executing the drawing command. The sprite pattern is 25
As many pages as 6 × 256 pixels can be placed on the frame buffer 63 as long as the memory allows.
This 256 × 256 area is called a texture page. The location of one texture page is determined by designating the page number as a parameter for designating the position (address) of the texture page called TSB of the drawing command.
【0109】スプライトパターンには、4ビットCLU
T(4ビットモード)、8ビットCLUT(8ビットモ
ード)、16ビットCLUT(16ビットモード)の3
種類の色モードがある。4ビットCLUT及び8ビット
CLUTの色モードでは、CLUTを使用する。The sprite pattern has a 4-bit CLU.
T (4 bit mode), 8 bit CLUT (8 bit mode), 16 bit CLUT (16 bit mode) 3
There are different color modes. In the 4-bit CLUT and 8-bit CLUT color modes, the CLUT is used.
【0110】このCLUTとは、図21に示すように、
最終的に表示される色を表す3原色のR,G,B値が1
6乃至256個、フレームバッファ63上に並んだもの
である。各R,G,B値はフレームバッファ63上の左
から順に番号付けされており、スプライトパターンはこ
の番号により各ピクセルの色を表す。また、CLUTは
スプライト単位で選択でき、全てのスプライトに対して
独立したCLUTを持つことも可能である。また、図2
1において、1個のエントリは16ビットモードの1ピ
クセルと同じ構造となっており、したがって、1セット
のCLUTは1×16(4ビットモード時)、1×25
5(8ビットモード時)のイメージデータと等しくな
る。フレームバッファ63内でのCLUTの格納位置
は、描画コマンド内のCBAと呼ぶCLUTの位置(ア
ドレス)指定のためのパラメータに、使用するCLUT
の左端の座標を指定することで決定する。This CLUT means, as shown in FIG.
The R, G, B values of the three primary colors that represent the final displayed color are 1
6 to 256 pieces are arranged on the frame buffer 63. Each R, G, B value is numbered in order from the left on the frame buffer 63, and the sprite pattern represents the color of each pixel by this number. Further, the CLUT can be selected for each sprite, and it is possible to have an independent CLUT for all sprites. Also, FIG.
1 has the same structure as one pixel in 16-bit mode, and therefore one set of CLUT is 1 × 16 (in 4-bit mode), 1 × 25.
It is equal to 5 (in 8-bit mode) image data. The storage position of the CLUT in the frame buffer 63 is the CLUT used as a parameter for specifying the position (address) of the CLUT called CBA in the drawing command.
It is determined by specifying the coordinates of the left edge of.
【0111】さらに、スプライト描画の概念を模式的に
示すと図22のように表すことができる。なお、図22
中の描画コマンドのU,Vはテクスチャページのどの位
置かを横(U),縦(V)で指定するパラメータであ
り、X,Yは描画エリアの位置を指定するためのパラメ
ータである。Further, the concept of sprite drawing can be schematically shown as shown in FIG. Note that FIG.
The drawing commands U and V in the drawing are parameters for specifying which position on the texture page in horizontal (U) and vertical (V), and X and Y are parameters for specifying the position of the drawing area.
【0112】また、GPU62は、動画表示の方式とし
て、フレームダブルバッファリングという手法を用いる
ようにしている。このフレームダブルバッファリングと
は、図23に示すように、フレームバッファ63上に2
つの矩形領域を用意し、一方のエリアに描画をしている
間はもう片側を表示し、描画が終了したら2つのエリア
をお互いに交換するものである。これにより、書き換え
の様子が表示されるのを回避することができることにな
る。なお、バッファの切り換え操作は、垂直帰線期間内
に行う。また、GPU62では、描画の対象となる矩形
領域と座標系の原点を自由に設定できるので、この2つ
を移動させることにより、複数のバッファを実現するこ
とも可能である。Further, the GPU 62 uses a method called frame double buffering as a moving image display method. As shown in FIG. 23, this frame double buffering means that two frames are stored on the frame buffer 63.
One rectangular area is prepared, the other side is displayed while drawing in one area, and the two areas are exchanged with each other when drawing is completed. This makes it possible to avoid displaying the rewriting state. The buffer switching operation is performed within the vertical blanking period. Further, in the GPU 62, since the rectangular area to be drawn and the origin of the coordinate system can be freely set, it is possible to realize a plurality of buffers by moving these two.
【0113】[0113]
【発明の効果】以上の説明からも明らかなように、本発
明においては、同種が連続するように並べた複数の基本
形状データからなる物体形状データを用いれば、後の画
像情報処理の際に、分岐処理及び各基本形状データ固有
の処理を簡略化することができると共に高速化をも図る
ことが可能となる。As is clear from the above description, in the present invention, if the object shape data consisting of a plurality of basic shape data arranged so that the same kind is continuously arranged is used, it is possible to perform the subsequent image information processing. The branching process and the process unique to each basic shape data can be simplified and the speed can be increased.
【図1】TMDフォーマットを示す図である。FIG. 1 is a diagram showing a TMD format.
【図2】TMDフォーマットのヘッダ(HEADER)部の構成
を示す図である。FIG. 2 is a diagram showing a configuration of a header (HEADER) section of a TMD format.
【図3】TMDフォーマットのオブジェクトテーブル(O
BJTABLE)部の構成を示す図である。[Fig. 3] TMD format object table (O
It is a figure which shows the structure of a (BJTABLE) part.
【図4】TMDフォーマットのプリミティブ(PRIMITIV
E) 部の描画パケットの構成を示す図である。Fig. 4 TMD format primitives (PRIMITIV
It is a figure which shows the structure of the drawing packet of E part.
【図5】プリミティブ(PRIMITIVE) 部の描画パケットの
modeの構成を示す図である。[Fig. 5] Drawing packet of primitive (PRIMITIVE) part
It is a figure which shows the structure of mode.
【図6】プリミティブ(PRIMITIVE) 部の描画パケットの
flagの構成を示す図である。を示す図である。[Figure 6] Drawing packet of the primitive (PRIMITIVE) part
It is a figure which shows the structure of flag. FIG.
【図7】TMDフォーマットのVERTEX部の構成を示す図
である。FIG. 7 is a diagram showing a configuration of a VERTEX section in TMD format.
【図8】TMDフォーマットのNORMAL部の構成を示す図
である。FIG. 8 is a diagram showing a configuration of a NORMAL unit of TMD format.
【図9】固定少数点フォーマットを示す図である。FIG. 9 is a diagram showing a fixed decimal point format.
【図10】プリミティブ(PRIMITIVE) 部のパケットデー
タ(packet data) に含まれるパラメータのうちのTBS
の構成を示す図である。FIG. 10: TBS among parameters included in packet data (packet data) of a primitive (PRIMITIVE) part
It is a figure which shows the structure of.
【図11】プリミティブ(PRIMITIVE) 部のパケットデー
タ(packet data) に含まれるパラメータのうちのCBA
の構成を示す図である。FIG. 11: CBA of parameters included in packet data (packet data) of a primitive (PRIMITIVE) part
It is a figure which shows the structure of.
【図12】プリミティブ(PRIMITIVE) 部のパケットデー
タ(packet data) のmode値のビット構成例を示す図であ
る。[Fig. 12] Fig. 12 is a diagram illustrating a bit configuration example of a mode value of packet data of a primitive (PRIMITIVE) part.
【図13】プリミティブ(PRIMITIVE) 部のパケットデー
タ(packet data) の構成例として3角形ポリゴン・光源
計算なしの場合のパケットデータ(packet data) 構成に
ついて説明するための図である。[Fig. 13] Fig. 13 is a diagram for describing a configuration of packet data (packet data) in the case of no polygon polygon / light source calculation as a configuration example of packet data (packet data) of a primitive (PRIMITIVE) part.
【図14】本発明の画像情報生成方法の処理のフローチ
ャートである。FIG. 14 is a flowchart of processing of the image information generating method of the present invention.
【図15】本発明の画像情報生成方法により生成された
画像情報を処理する画像情報処理のフローチャートであ
る。FIG. 15 is a flowchart of image information processing for processing image information generated by the image information generating method of the present invention.
【図16】本発明の画像処理システムの概略的な構成を
示すブロック回路図である。FIG. 16 is a block circuit diagram showing a schematic configuration of an image processing system of the present invention.
【図17】ディスプレイ上への表示について説明するた
めの図である。FIG. 17 is a diagram for explaining display on a display.
【図18】ディスプレイ上の表示の設定について説明す
るための図である。FIG. 18 is a diagram for describing display settings on the display.
【図19】描画クリッピングの機能について説明するた
めの図である。FIG. 19 is a diagram for explaining the function of drawing clipping.
【図20】テクスチャページについて説明するための図
である。FIG. 20 is a diagram illustrating a texture page.
【図21】CLUT構造について説明するための図であ
る。FIG. 21 is a diagram for explaining a CLUT structure.
【図22】スプライト描画の概念を説明するための図で
ある。FIG. 22 is a diagram for explaining the concept of sprite drawing.
【図23】フレームダブルバッファリングについて説明
するための図である。FIG. 23 is a diagram for explaining frame double buffering.
【図24】従来の画像作成装置(家庭用ゲーム機)の構
成例を示すブロック回路図である。FIG. 24 is a block circuit diagram showing a configuration example of a conventional image creating apparatus (home game machine).
【図25】従来の画像作成装置による画像作成方法の説
明に用いる図である。FIG. 25 is a diagram used for explaining an image creating method by a conventional image creating apparatus.
51 CPU 52 周辺デバイスコントローラ 53 メインメモリ 54 ROM 60 グラフィックシステム 61 ジオメトリトランスファエンジン(GTE) 62 グラフィックスプロセッシングユニット 63 フレームバッファ 64 画像デコーダ(MDEC) 65 ビデオ出力手段(ディスプレイ装置) 70 サウンドシステム 71 サウンドプロセッシングユニット(SPU) 72 サウンドバッファ 73 スピーカ 80 光学ディスク制御部 81 ディスクドライブ装置 82 デコーダ 83 バッファ 90 通信制御部 91 通信制御機 92 コントローラ 93 メモリカード 101 パラレルI/Oポート 102 シリアルI/Oポート 51 CPU 52 Peripheral Device Controller 53 Main Memory 54 ROM 60 Graphic System 61 Geometry Transfer Engine (GTE) 62 Graphics Processing Unit 63 Frame Buffer 64 Image Decoder (MDEC) 65 Video Output Means (Display Device) 70 Sound System 71 Sound Processing Unit (SPU) 72 Sound buffer 73 Speaker 80 Optical disk controller 81 Disk drive device 82 Decoder 83 Buffer 90 Communication controller 91 Communication controller 92 Controller 93 Memory card 101 Parallel I / O port 102 Serial I / O port
Claims (2)
に対応する複数の基本形状データの種類を調べ、 同種が連続するように並べた複数の基本形状データから
なる物体形状データを生成することを特徴とする画像情
報生成方法。1. A type of a plurality of basic shape data corresponding to a polygonal shape serving as a unit representing a three-dimensional image is examined, and object shape data composed of a plurality of basic shape data arranged so that the same type is continuous is generated. An image information generation method characterized by the above.
に対応する基本形状データを同種が連続するように並べ
て生成してなる物体形状データを記録してなることを特
徴とする記録媒体。2. A recording medium characterized by recording object shape data generated by arranging basic shape data corresponding to a polygonal shape, which is a unit representing a three-dimensional image, so that the same kind is continuous.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31463894A JP3698747B2 (en) | 1994-12-19 | 1994-12-19 | Image data generation method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31463894A JP3698747B2 (en) | 1994-12-19 | 1994-12-19 | Image data generation method and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08171657A true JPH08171657A (en) | 1996-07-02 |
JP3698747B2 JP3698747B2 (en) | 2005-09-21 |
Family
ID=18055736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31463894A Expired - Fee Related JP3698747B2 (en) | 1994-12-19 | 1994-12-19 | Image data generation method and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3698747B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997032248A1 (en) * | 1996-02-29 | 1997-09-04 | Sony Computer Entertainment, Inc. | Image processor and image processing method |
CN119068097A (en) * | 2024-11-06 | 2024-12-03 | 园测信息科技股份有限公司 | A method and system for automatically constructing large-scale three-dimensional city night scenes |
-
1994
- 1994-12-19 JP JP31463894A patent/JP3698747B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997032248A1 (en) * | 1996-02-29 | 1997-09-04 | Sony Computer Entertainment, Inc. | Image processor and image processing method |
US6211890B1 (en) | 1996-02-29 | 2001-04-03 | Sony Computer Entertainment, Inc. | Image processor and image processing method |
US6369823B2 (en) | 1996-02-29 | 2002-04-09 | Sony Computer Entertainment Inc. | Picture processing apparatus and picture processing method |
CN119068097A (en) * | 2024-11-06 | 2024-12-03 | 园测信息科技股份有限公司 | A method and system for automatically constructing large-scale three-dimensional city night scenes |
Also Published As
Publication number | Publication date |
---|---|
JP3698747B2 (en) | 2005-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3578498B2 (en) | Image information processing device | |
US5949409A (en) | Image processing in which the image is divided into image areas with specific color lookup tables for enhanced color resolution | |
US6069635A (en) | Method of producing image data and associated recording medium | |
JP3725524B2 (en) | Method for generating computer display image and computer processing system and graphics processor for generating image data | |
JP3647487B2 (en) | Texture mapping device | |
KR100609614B1 (en) | Method and apparatus for transmitting picture data, processing pictures and recording medium therefor | |
JP4719363B2 (en) | Graphics system with copy-out conversion between internal frame buffer and main memory | |
KR100422082B1 (en) | Drawing device and drawing method | |
JP2000107447A (en) | Video game device, game image display method, and recording medium | |
WO2002017236A2 (en) | Apparatus and method for rendering antialiased image | |
JP2528446B2 (en) | Audio image processing device | |
JP3548642B2 (en) | Image information generating apparatus and method, image information processing apparatus and method, and recording medium | |
JP4683760B2 (en) | Graphics system with embedded frame buffer having a reconfigurable pixel format | |
JP3348152B2 (en) | Game system | |
JP3698747B2 (en) | Image data generation method and image processing system | |
JP3910259B2 (en) | Image processing apparatus and method, and rendering apparatus and method | |
JP3547236B2 (en) | Image information generating apparatus and method, and image information processing apparatus and method | |
JPH08163560A (en) | Picture information generation method, picture information processing method and recording medium | |
JP2000182075A (en) | Simple fluid picture display method, picture display device and recording medium | |
JPH08161465A (en) | Method for generating image data file, recording medium and method for preparing image | |
JPH10334249A (en) | Image information generating method, image information generator and recording medium | |
JPH08161511A (en) | Image generating device | |
MXPA95004904A (en) | Method for producing image data, image data processing device and regis medium | |
JP2004133956A (en) | Drawing system and drawing method | |
JP2006155672A (en) | Image processor, image processing method, rendering device, and rendering method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Effective date: 20041124 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A521 | Written amendment |
Effective date: 20041129 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050412 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Effective date: 20050705 Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Effective date: 20050706 Free format text: JAPANESE INTERMEDIATE CODE: A61 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 3 Free format text: PAYMENT UNTIL: 20080715 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 4 Free format text: PAYMENT UNTIL: 20090715 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090715 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100715 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110715 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110715 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120715 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |