[go: up one dir, main page]

JP2002109561A - Image processing system, device, method, and computer program - Google Patents

Image processing system, device, method, and computer program

Info

Publication number
JP2002109561A
JP2002109561A JP2001211450A JP2001211450A JP2002109561A JP 2002109561 A JP2002109561 A JP 2002109561A JP 2001211450 A JP2001211450 A JP 2001211450A JP 2001211450 A JP2001211450 A JP 2001211450A JP 2002109561 A JP2002109561 A JP 2002109561A
Authority
JP
Japan
Prior art keywords
image data
image
color information
image processing
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001211450A
Other languages
Japanese (ja)
Inventor
Junichi Fujita
純一 藤田
Masatoshi Imai
雅敏 今井
Daisuke Hihara
大輔 日原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2001211450A priority Critical patent/JP2002109561A/en
Publication of JP2002109561A publication Critical patent/JP2002109561A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of expressing accurately an image even in the case of a three-dimensional image having translucent images intermingled complicatedly. SOLUTION: Image data including the depth distance from a specific part of the image and color information are generated by plural image generation devices 101-116. Composite devices 117-120 enable the plural image data to be specified (for example, sorted) in the order of the depth distance included therein respectively, and mix the color information of the image data having the relatively long depth distance with the color information of the image data for expressing at least a surface part overlapping thereon on the upper surface of the image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、それぞれ奥行き距
離及び色情報を含む複数の画像データに基づいて三次元
画像を合成する三次元画像処理システム及び三次元画像
処理方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a three-dimensional image processing system and a three-dimensional image processing method for synthesizing a three-dimensional image based on a plurality of image data each including a depth distance and color information.

【0002】[0002]

【従来の技術】三次元画像を生成する三次元画像処理装
置(以下、単に「画像処理装置」という)には、既存の
コンピュータシステムにおいて幅広く利用されているフ
レームバッファ、zバッファが利用されている。すなわ
ち、この種の画像処理装置は、ジオメトリ処理により生
成される描画データを画像処理部から受信し、受信した
描画データに基づいて補間演算を行うことにより画像デ
ータを生成する補間演算器と、フレームバッファ及びz
バッファを含むメモリとを有している。
2. Description of the Related Art A frame buffer and a z-buffer, which are widely used in existing computer systems, are used in a three-dimensional image processing apparatus for generating a three-dimensional image (hereinafter, simply referred to as "image processing apparatus"). . That is, an image processing apparatus of this type includes an interpolation calculator that receives drawing data generated by geometry processing from an image processing unit and generates an image data by performing an interpolation operation based on the received drawing data. Buffer and z
And a memory including a buffer.

【0003】フレームバッファには、処理対象となる三
次元画像のR値(赤)、G値(緑)、B値(青)等の色
情報を含む画像データが描画される。zバッファには、
特定の視点、例えば操作者がみるディスプレイの表面か
らの奥行き距離を表すz座標が保管される。補間演算器
は、画像処理部から、描画データとして、例えば、三次
元画像の基本構成図形となるポリゴンの描画命令、ポリ
ゴンの三次元座標系における頂点座標、ピクセル毎の色
情報を受け取り、これらの色情報及び奥行き距離の補間
演算を行って、ピクセル毎の奥行き距離や色情報を表す
画像データを生成する。補間演算により得られた奥行き
距離は、zバッファの所定アドレスに、色情報はフレー
ムバッファの所定のアドレスに、それぞれ保管される。
In the frame buffer, image data including color information such as R value (red), G value (green), and B value (blue) of a three-dimensional image to be processed is drawn. In the z buffer,
A z-coordinate indicating a depth distance from a specific viewpoint, for example, a display surface viewed by an operator is stored. The interpolation calculator receives, for example, a drawing command of a polygon that is a basic configuration figure of a three-dimensional image, vertex coordinates of the polygon in a three-dimensional coordinate system, and color information of each pixel from the image processing unit. The color information and the depth distance are interpolated to generate image data representing the depth distance and color information for each pixel. The depth distance obtained by the interpolation calculation is stored at a predetermined address of the z buffer, and the color information is stored at a predetermined address of the frame buffer.

【0004】複数の三次元画像が重なり合う場合は、z
バッファ・アルゴリズムにより調整される。zバッファ
・アルゴリズムは、zバッファを用いて行われる隠面処
理であり、他の画像によって隠れた位置に存在すること
になる重なり部分の画像を消去する処理である。zバッ
ファ・アルゴリズムでは、描画したい複数の画像のピク
セル毎のz座標同士を比較することにより、両画像の表
示面に対する前後関係を判断し、奥行き距離が短けれ
ば、つまり視点により近い位置にあれば、当該画像を描
画し、遠ければその画像を描画しないことで、隠れた位
置にある画像の重なり部分を消去する。
When a plurality of three-dimensional images overlap, z
Adjusted by the buffer algorithm. The z-buffer algorithm is a hidden surface process performed using a z-buffer, and is a process of erasing an image of an overlapping portion that is present at a position hidden by another image. In the z-buffer algorithm, the z-coordinate of each pixel of a plurality of images to be drawn is compared with each other to determine the anteroposterior relationship of the two images with respect to the display surface. If the depth distance is short, that is, if the position is closer to the viewpoint, Then, the image is drawn, and if it is far away, the image is not drawn, thereby deleting the overlapping portion of the image at the hidden position.

【0005】このような画像処理装置を複数用いて複合
的な画像処理を行う画像処理システムについて、以下に
説明する。この画像処理システムは、4つの画像処理装
置とz比較デバイスとを有している。各画像処理装置
は、色情報を含む画像データをフレームバッファに描画
すると共に、そのときの各画像を構成するピクセルのz
座標をzバッファに書き込む。
An image processing system for performing complex image processing using a plurality of such image processing apparatuses will be described below. This image processing system has four image processing devices and a z comparison device. Each image processing device draws image data including color information in a frame buffer, and sets z of a pixel constituting each image at that time.
Write coordinates to z-buffer.

【0006】z比較デバイスは、各画像処理装置のフレ
ームバッファに書き込まれた画像データと、zバッファ
に書き込まれたz座標とをもとに隠面処理を行い、合成
画像を生成する。具体的には、z比較デバイスは、各画
像処理装置から画像データとz座標とを読み出す。そし
て、読み出したz座標のうち最も小さいz座標を持つ画
像データを処理すべき三次元画像のイメージとする。す
なわち、最も視点に近い画像データによる画像を相対的
に上面に出し、重なり部分の背面に位置することになる
画像の画像データについては隠面消去を行うことによ
り、重なり部分を有する合成画像を生成する。
[0006] The z comparison device performs hidden surface processing based on the image data written in the frame buffer of each image processing apparatus and the z coordinates written in the z buffer to generate a composite image. Specifically, the z comparison device reads out image data and z coordinates from each image processing device. Then, the image data having the smallest z coordinate among the read z coordinates is set as the image of the three-dimensional image to be processed. That is, an image based on the image data closest to the viewpoint is relatively displayed on the upper surface, and the image data of the image located on the back of the overlapping portion is erased to generate a composite image having the overlapping portion. I do.

【0007】例えば、背景を描画する画像処理装置、車
を描画する画像処理装置、ビルを描画する画像処理装
置、人物を描画する画像処理装置によってそれぞれ生成
された画像データを取り込み、重なりが生じる場合に背
面に位置するものについては、各々のz座標に基づきz
比較デバイスで隠面消去する。複雑な三次元画像の場合
も、複数の画像処理装置で分担して処理することによ
り、1台の画像処理装置のみで処理する場合よりも、高
速に精細な画像処理を行うことができる。なお、上記の
画像処理システムについては、文献「Computer Graphic
s Principles and Practice」に「Image-Composition-A
rchitectures」として紹介されている。
[0007] For example, when image data generated by an image processing apparatus for drawing a background, an image processing apparatus for drawing a car, an image processing apparatus for drawing a building, and an image processing apparatus for drawing a person are fetched and overlapping occurs. Are located on the back of the
Erase hidden surfaces with a comparison device. Even in the case of a complicated three-dimensional image, finer image processing can be performed at higher speed by sharing and processing with a plurality of image processing apparatuses than in the case of processing with only one image processing apparatus. The above image processing system is described in the document "Computer Graphic
s Principles and Practice '' and `` Image-Composition-A
rchitectures ".

【0008】[0008]

【発明が解決しようとする課題】このような従来の画像
処理システムでは、複数の画像処理装置からの出力をz
座標の大小で区別しているが、基本的には、単純な隠面
処理となる。そのため、重なり合う複数の三次元画像の
うち、z座標が相対的に小さい画像が半透明の場合であ
っても、隠面部分が消去されているので、その三次元画
像が半透明であることを正しく表現することができない
という問題があった。
In such a conventional image processing system, outputs from a plurality of image processing apparatuses are output by z
Although they are distinguished by the size of the coordinates, they are basically simple hidden surface processing. Therefore, even if the image having a relatively small z-coordinate is translucent among a plurality of overlapping three-dimensional images, since the hidden surface portion is deleted, it is determined that the three-dimensional image is translucent. There was a problem that it could not be correctly expressed.

【0009】本発明は、かかる事情に鑑み、例えば半透
明の画像が複雑に混在する三次元画像であっても、それ
を正確に表現することができる改良された画像処理の仕
組みを提供することを、その課題とする。
In view of such circumstances, the present invention provides an improved image processing mechanism that can accurately represent, for example, even a three-dimensional image in which translucent images are complicatedly mixed. Is the subject.

【0010】[0010]

【課題を解決するための手段】本発明は、画像処理シス
テム、画像処理デバイス、画像処理方法及びコンピュー
タプログラムを提供する。本発明の画像処理システム
は、処理対象となる三次元画像の特定部位からの奥行き
距離及び色情報(R値、G値、B値、A値)を含む画像
データを生成する複数の画像データ生成手段と、前記複
数の画像データ生成手段の各々から前記画像データを取
り込み、取り込んだ複数の画像データを、その各々に含
まれる奥行き距離の順に特定可能にするとともに、奥行
き距離が相対的に長い画像データの色情報と少なくとも
それに重なりあう面部を当該画像の上面に表現するため
の画像データの色情報とを混成させる色情報混成手段と
を具備するシステムである。このように構成される画像
処理システムでは、画像データに含まれる色情報が奥行
き距離の順に混成されるので、半透明な画像が複雑に混
在する場合であっても、少なくとも色情報については、
正確に表現することが可能となる。
SUMMARY OF THE INVENTION The present invention provides an image processing system, an image processing device, an image processing method, and a computer program. The image processing system according to the present invention generates a plurality of image data for generating image data including a depth distance from a specific part of a three-dimensional image to be processed and color information (R value, G value, B value, A value). Means for capturing the image data from each of the plurality of image data generating means, and enabling the captured plurality of image data to be specified in the order of the depth distances contained in each of the plurality of image data, and an image having a relatively long depth distance. A color information mixing means for mixing color information of data and color information of image data for expressing at least a surface portion overlapping the data on the upper surface of the image. In the image processing system configured as described above, since the color information included in the image data is mixed in the order of the depth distance, even if a translucent image is mixed in a complicated manner, at least the color information is
It becomes possible to express accurately.

【0011】本発明の画像処理システムは、ネットワー
ク型のシステムにすることも可能である。すなわち、前
記画像データ生成手段を複数ネットワークに接続すると
ともに、このネットワークに、複数の合成手段と制御手
段とを具えてネットワーク型の画像処理システムを構成
することができる。制御手段は、複数の画像データ生成
手段と複数の合成手段の中から処理に必要なものを選択
するものである。複数の合成手段の少なくとも一つは、
前記色情報混成手段を具備するものである。
The image processing system of the present invention can be a network type system. That is, the image data generating means can be connected to a plurality of networks, and the network can include a plurality of synthesizing means and control means to constitute a network type image processing system. The control means selects one necessary for processing from the plurality of image data generating means and the plurality of synthesizing means. At least one of the plurality of combining means includes:
The color information mixing means is provided.

【0012】前記色情報混成手段は、例えば、前記奥行
き距離が最も長い画像データの色情報と前記奥行き距離
がその次に長い画像データの色情報とを混成し、この混
成結果を前記奥行き距離がさらにその次に長い画像デー
タの色情報と混成するように構成される。より具体的に
は、前記奥行き距離が最も長い画像データの色情報と、
背景を表現するための背景画像データの色情報とを混成
するように構成される。前記奥行き距離が最も長い画像
データを背景を表現するための背景画像データとするこ
ともできる。
For example, the color information mixing means mixes the color information of the image data with the longest depth distance and the color information of the image data with the next longest depth distance, and determines the result of the mixing as the depth distance. Further, it is configured to be mixed with the color information of the next longer image data. More specifically, the color information of the image data having the longest depth distance,
It is configured to mix with color information of background image data for expressing the background. The image data having the longest depth distance may be used as background image data for expressing a background.

【0013】前記複数の画像データ生成手段からの画像
データの取込タイミングを正確にして、三次元画像をよ
り鮮明にする観点からは、自システムにおける画像処理
タイミングに同期させる同期手段をさらに備えて画像処
理システムを構成する。
[0013] From the viewpoint of making the timing of taking in the image data from the plurality of image data generating means accurate and making the three-dimensional image clearer, a synchronizing means for synchronizing with the image processing timing in the own system is further provided. An image processing system is configured.

【0014】前記複数の画像データ生成手段、前記色情
報混成手段、及び前記同期手段の一部の手段又は全部の
手段が、論理回路で構成され、該論理回路が、一つの半
導体チップ内に混載されるものとすることも、本発明に
よれば可能である。
A part or all of the plurality of image data generating means, the color information mixing means, and the synchronizing means are constituted by a logic circuit, and the logic circuit is mounted in one semiconductor chip. It is also possible according to the present invention.

【0015】本発明の画像処理デバイスは、処理対象と
なる三次元画像の特定部位からの奥行き距離及び色情報
を含む画像データを生成する複数の画像データ生成手段
の各々から前記画像データを取り込むデータ取込手段
と、取り込んだ複数の画像データを、その各々に含まれ
る奥行き距離の順に特定可能にするとともに、奥行き距
離が相対的に長い画像データの色情報と少なくともそれ
に重なりあう面部を当該画像の上面に表現するための画
像データの色情報とを混成させる色情報混成手段とを半
導体チップに搭載してなるものである。画像処理システ
ムと同様、前記複数の画像データ生成手段からの画像デ
ータの取込タイミングを自デバイスにおける画像処理タ
イミングに同期させる同期手段をさらに搭載して画像処
理デバイスを構成しても良い。
[0015] The image processing device of the present invention is a data processing device which acquires the image data from each of a plurality of image data generating means for generating image data including a depth distance from a specific portion and color information of a three-dimensional image to be processed. The capturing means and the plurality of captured image data can be specified in the order of the depth distances included in each of the captured image data, and the color information of the image data having a relatively long depth distance and at least the surface portion overlapping with the color information of the image data are displayed. A color information mixing means for mixing the color information of the image data to be displayed on the upper surface with the color information is mounted on a semiconductor chip. As in the image processing system, the image processing device may further include a synchronization unit that synchronizes the timing of capturing the image data from the plurality of image data generation units with the image processing timing of the own device.

【0016】本発明の他の画像処理デバイスは、上記の
画像データ生成手段として機能するもので、処理対象と
なる三次元画像の色情報を含む画像データを蓄えるフレ
ームバッファと、前記画像データ毎の特定部位からの奥
行き距離を蓄えるzバッファと、自己を含む複数のデバ
イスから前記画像データを、その各々に含まれる奥行き
距離の順に特定可能にするとともに、奥行き距離が相対
的に長い画像データの色情報と少なくともそれに重なり
あう面部を当該画像の上面に表現するための画像データ
の色情報とを混成させる色情報混成手段からの通信を行
う手段とを半導体チップに搭載してなるものである。
Another image processing device of the present invention functions as the above-described image data generating means, and includes a frame buffer for storing image data including color information of a three-dimensional image to be processed, and a frame buffer for each of the image data. A z-buffer for storing a depth distance from a specific part, and the image data from a plurality of devices including the same, which can be specified in the order of the depth distance included in each of the devices, and the color of the image data having a relatively long depth distance. A means for performing communication from color information mixing means for mixing information and color information of image data for expressing at least an overlapping surface portion on the upper surface of the image is mounted on a semiconductor chip.

【0017】本発明の画像処理方法は、複数の画像デー
タ生成手段とこれらの画像データ生成手段に接続される
合成手段とを有する画像処理システムにおいて実行され
る方法であって、処理対象となる画像の特定部位からの
奥行き距離及び色情報を含む画像データを前記複数の画
像データ生成手段で生成する段階と、前記合成手段が、
前記複数の画像データ生成手段の各々から前記画像デー
タを所定の同期タイミングで取り込み、取り込んだ複数
の画像データを、その各々に含まれる奥行き距離の順に
特定可能にするとともに、奥行き距離が相対的に長い画
像データの色情報とそれに重なりあう面部を当該画像の
上面に表現するための画像データの色情報とを混成させ
る段階とを含む方法である。
An image processing method according to the present invention is a method to be executed in an image processing system having a plurality of image data generating means and a synthesizing means connected to these image data generating means. Generating a plurality of image data including depth information and color information from a specific part by the plurality of image data generating means; and
The image data is fetched from each of the plurality of image data generating means at a predetermined synchronization timing, and the fetched image data can be specified in the order of the depth distance included in each of the image data, and the depth distance is relatively large. Mixing the color information of the long image data and the color information of the image data for expressing the overlapping surface portion on the upper surface of the image.

【0018】本発明のコンピュータプログラムは、コン
ピュータを、処理対象となる三次元画像の特定部位から
の奥行き距離及び色情報を含む画像データを生成する複
数の画像データ生成手段、前記複数の画像データ生成手
段の各々から前記画像データを取り込み、取り込んだ複
数の画像データを、その各々に含まれる奥行き距離の順
に特定可能にするとともに、奥行き距離が相対的に長い
画像データの色情報とそれに重なりあう面部を当該画像
の上面に表現するための画像データの色情報とを混成さ
せる色情報混成手段とを具備する三次元画像処理システ
ムして動作させるためのコンピュータプログラムであ
る。
A computer program according to the present invention comprises a computer program for generating a plurality of image data generating means for generating image data including a depth distance from a specific portion and color information of a three-dimensional image to be processed; The image data is fetched from each of the means, and the plurality of fetched image data can be specified in the order of the depth distance included in each of the image data, and the color information of the image data having a relatively long depth distance overlaps with the color information of the image data. Is a computer program for operating as a three-dimensional image processing system including a color information mixing unit that mixes color information of image data for expressing the image data on the upper surface of the image.

【0019】[0019]

【発明の実施の形態】以下、本発明の画像処理システム
を、ゲームキャラクタのように複雑な画像要素からなる
三次元モデルの画像処理を行うシステムに適用した場合
の一実施形態を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the image processing system of the present invention is applied to a system for performing image processing of a three-dimensional model composed of complex image elements such as game characters will be described below.

【0020】<全体構成>図1は、本実施形態による画
像処理システムの全体構成図である。この画像処理シス
テム100は、画像データ生成手段の一例となる16の
画像生成デバイス101〜116と、色情報混成手段の
一例となる5つの合成デバイス117〜121とを具備
して構成される。各画像生成デバイス101〜116、
各合成デバイス117〜121は、それぞれ論理回路及
び半導体メモリを含んで構成され、該論理回路及び半導
体メモリが、一つの半導体チップ内に混載される半導体
チップである。画像生成デバイス及び合成デバイスの数
は、処理すべき三次元画像の種類、数又は処理形態に応
じて適宜定めることができる。
<Overall Configuration> FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. The image processing system 100 includes 16 image generation devices 101 to 116 as an example of an image data generation unit and five synthesis devices 117 to 121 as an example of a color information mixing unit. Each image generation device 101-116,
Each of the synthesizing devices 117 to 121 is configured to include a logic circuit and a semiconductor memory, respectively, and the logic circuit and the semiconductor memory are semiconductor chips mixedly mounted in one semiconductor chip. The number of image generation devices and the number of synthesis devices can be determined as appropriate according to the type and number of three-dimensional images to be processed or the processing mode.

【0021】画像生成デバイス101〜116は、立体
モデルを形成するためのポリゴンの各頂点の三次元座標
(x、y、z)、各ポリゴンのテクスチャの同次座標
(s、t)及び同次項qを含む描画データをジオメトリ
(Geometry)処理によって生成するとともに、この描画
データに基づいて特徴的なレンダリング処理を行う。ま
た、後段に接続された合成デバイス117〜120から
の外部同期信号の受信を契機に、レンダリング処理の結
果である色情報(R値、G値、B値、A値)をフレーム
バッファから、また、特定部位からの奥行き距離を表す
z座標をzバッファから、それぞれ後段の合成デバイス
に出力する。このとき、後段の合成デバイスが色情報
(R値、G値、B値、A値)、z座標を取り込むことを
許可するライトイネーブル信号WEも併せて出力する。
なお、フレームバッファ、zバッファは、従来技術に示
したものと同じものであり、R値、G値、B値は、それ
ぞれ、赤、緑、青の輝度値、A値は透過度(α)を表す
数値である。
The image generating devices 101 to 116 provide three-dimensional coordinates (x, y, z) of each vertex of a polygon for forming a three-dimensional model, homogeneous coordinates (s, t) and texture of the texture of each polygon. Drawing data including q is generated by a geometry process, and a characteristic rendering process is performed based on the drawing data. Further, upon reception of an external synchronization signal from the synthesis devices 117 to 120 connected at the subsequent stage, color information (R value, G value, B value, A value) as a result of the rendering process is transmitted from the frame buffer, and , The z-coordinate representing the depth distance from the specific part is output from the z-buffer to the subsequent synthesis device. At this time, a write enable signal WE for permitting the subsequent synthesis device to capture the color information (R value, G value, B value, A value) and the z coordinate is also output.
The frame buffer and the z-buffer are the same as those shown in the prior art, and the R value, the G value, and the B value are red, green, and blue luminance values, respectively, and the A value is transmittance (α). Is a numerical value representing.

【0022】合成デバイス117〜121は、データ取
込機構を通じてそれぞれ画像生成デバイスあるいは他の
合成デバイスからの出力データ、具体的には個々のピク
セルの位置を表すx座標及びy座標、色情報(R値、G
値、B値、A値)及びz座標を含む画像データを取り込
む。そして、z座標(z)を用いてzバッファ・アルゴ
リズムにより画像データを特定可能にし、視点から最も
長いz座標(z)を持つ画像データから順に色情報(R
値、G値、B値、A値)を混成(ブレンド)すること
で、半透明の画像を含む複合的な三次元画像を表現する
ためのデータ(これも画像データとなる)を生成する。
The synthesizing devices 117 to 121 output data from an image generating device or another synthesizing device through a data capturing mechanism, specifically, x- and y-coordinates indicating the positions of individual pixels, and color information (R). Value, G
Value, B value, A value) and image data including the z coordinate. Then, the image data can be specified by the z-buffer algorithm using the z coordinate (z), and the color information (R) is sequentially arranged from the image data having the longest z coordinate (z) from the viewpoint.
The values (G values, B values, A values) are mixed (blended) to generate data (also image data) for expressing a composite three-dimensional image including a translucent image.

【0023】画像生成デバイス101〜116は、それ
ぞれ後段の合成デバイス117〜120のいずれかと接
続され、合成デバイス117〜120は、合成デバイス
121が接続される。このように、合成デバイスは、多
段接続可能なものである。本実施形態では、画像生成デ
バイス101〜116を4つずつの組に分け、各組に一
つの合成デバイスを配備する。つまり、画像生成デバイ
ス101〜104は合成デバイス117に接続され、画
像生成デバイス105〜108は合成デバイス118に
接続され、画像生成デバイス109〜112は合成デバ
イス119に接続され、画像生成デバイス113〜11
6は合成デバイス120に接続されるようになってい
る。各画像生成デバイス101〜116と合成デバイス
117〜121は、それぞれ後述する同期信号によっ
て、処理動作のタイミングの同期がとられるようになっ
ている。
Each of the image generating devices 101 to 116 is connected to one of the subsequent synthesizing devices 117 to 120, and the synthesizing devices 117 to 120 are connected to the synthesizing device 121. As described above, the synthesis device can be connected in multiple stages. In the present embodiment, the image generation devices 101 to 116 are divided into four groups, and one combination device is provided in each group. That is, the image generation devices 101 to 104 are connected to the synthesis device 117, the image generation devices 105 to 108 are connected to the synthesis device 118, the image generation devices 109 to 112 are connected to the synthesis device 119, and the image generation devices 113 to 11
6 is connected to the synthesizing device 120. The image generating devices 101 to 116 and the synthesizing devices 117 to 121 are configured to synchronize the timing of the processing operation with a synchronizing signal described later.

【0024】次に、画像生成デバイス101〜116、
合成デバイス117〜121の具体的な構成例及びその
機能を説明する。
Next, the image generation devices 101 to 116,
Specific configuration examples of the synthesis devices 117 to 121 and their functions will be described.

【0025】<画像生成デバイス>画像生成デバイスの
全体構成図を図2に示す。すべての画像生成デバイス1
01〜116は同一構成要素を具備するので、図2で
は、便宜上、画像生成デバイスを、符号200によって
統一的に表している。
<Image Generation Device> FIG. 2 shows an overall configuration diagram of the image generation device. All image generation devices 1
Since the components 01 to 116 have the same components, in FIG. 2, the image generation devices are uniformly represented by reference numeral 200 for convenience.

【0026】画像生成デバイス200は、描画プロセッ
サ201、描画用メモリ202、I/Oインタフェース
回路203及びレンダリング回路204をバス205に
接続して構成される。描画プロセッサ201は、アプリ
ケーションの進行状況等に応じて蓄積される描画用メモ
リ202から必要なグラフィックデータを読み出し、こ
のグラフィックデータに対して、座標変換、クリッピン
グ(Clipping)処理、ライティング(Lighting)処理等
のジオメトリ処理を行って、描画データを生成する。そ
して、この描画データを、バス205を介してレンダリ
ング回路204に供給する。
The image generating device 200 is configured by connecting a drawing processor 201, a drawing memory 202, an I / O interface circuit 203 and a rendering circuit 204 to a bus 205. The drawing processor 201 reads necessary graphic data from the drawing memory 202 stored according to the progress of the application and the like, and performs coordinate conversion, clipping processing, lighting processing, and the like on the graphic data. Is performed to generate drawing data. The rendering data is supplied to the rendering circuit 204 via the bus 205.

【0027】I/Oインタフェース回路203は、図外
の外部操作手段から、キャラクタ等の立体モデルの動き
を制御するための制御信号を取り込んだり、外部の画像
処理手段で生成された描画データを取り込んだりする機
能を具備するものである。制御信号は、描画プロセッサ
201に送られ、レンダリング回路204の制御に用い
られる。描画データは、例えば、x座標及びy座標が1
6ビット、z座標が24ビット、R値、G値、B値が各
12ビット(=8+4)、s、t、qテクスチャ座標
が、各32ビットの浮動少数値(IEEEフォーマッ
ト)で構成される。
The I / O interface circuit 203 fetches a control signal for controlling the movement of a three-dimensional model such as a character from an external operation means (not shown), or fetches drawing data generated by an external image processing means. It has the function of rubbing. The control signal is sent to the drawing processor 201 and used for controlling the rendering circuit 204. The drawing data has, for example, an x coordinate and ay coordinate of 1
6 bits, 24 bits for z coordinate, 12 bits for R value, G value, and B value (= 8 + 4), s, t, and q texture coordinates are each composed of 32 bits of floating point value (IEEE format). .

【0028】レンダリング回路204は、マッピング処
理部2041、メモリインタフェース(メモリI/F)
回路2046、CRTコントロール部2047、及びD
RAM(Dynamic Random Access Memory)2049を有
する。本実施形態におけるレンダリング回路204は、
一つの半導体チップ内にマッピング処理部2041等の
ロジック回路と、画像データ、テクスチャデータ等を記
憶するDRAM2049とが混載されて形成される。
The rendering circuit 204 includes a mapping processing section 2041 and a memory interface (memory I / F).
Circuit 2046, CRT control unit 2047, and D
It has a RAM (Dynamic Random Access Memory) 2049. The rendering circuit 204 in the present embodiment includes:
A logic circuit such as a mapping processing unit 2041 and a DRAM 2049 for storing image data, texture data and the like are mixedly formed in one semiconductor chip.

【0029】マッピング処理部2041は、バス205
を介して送られる描画データについて、線形補間を行
う。線形補間を行うことにより、ポリゴンの各頂点につ
いての色情報(R値、G値、B値、A値)及びz座標し
か表さない描画データから、ポリゴンの面上の各々のピ
クセルについての色情報(R値、G値、B値、A値)及
びz座標を得ることができる。また、描画データに含ま
れる同次座標(s、t)及び同次項qを用いてテクスチ
ャ座標を算出し、このテクスチャ座標に対応するテクス
チャデータを用いてテクスチャマッピングを行うことに
より、より精細な表示画像を得ることができる。このよ
うにして、各ピクセルの位置を表す(x、y)座標、色
情報、z座標を含む、(x、y、z、R、G、B、A)
で表されるピクセルデータが生成される。
The mapping processing unit 2041 includes a bus 205
The linear interpolation is performed on the drawing data sent through. By performing linear interpolation, color information (R value, G value, B value, A value) for each vertex of the polygon and drawing data representing only the z coordinate are used to calculate the color of each pixel on the surface of the polygon. Information (R value, G value, B value, A value) and z coordinate can be obtained. Further, by calculating the texture coordinates using the homogeneous coordinates (s, t) and the homogeneous terms q included in the drawing data, and performing texture mapping using the texture data corresponding to the texture coordinates, a more precise display is performed. Images can be obtained. In this way, (x, y, z, R, G, B, A) including (x, y) coordinates, color information, and z coordinates representing the position of each pixel
Is generated.

【0030】メモリI/F部2046は、レンダリング
回路204内の他の回路からの要求により、DRAM2
049へのアクセス(書き込み/読み出し)を行う。ア
クセス時の書き込み経路及び読み出し経路は、別経路と
して構成される。すなわち、書き込みの場合には書き込
みアドレスADRWと書き込みデータDTWとが書き込
み経路を介して書き込まれ、読み出しの場合には読み出
しデータDTRが読み出し経路を介して読み出される。
メモリI/F部2046は、所定のインターリーブ方式
のアドレッシングに基づいて、DRAM2049へのア
クセスを、例えば16ピクセル単位で行う。
The memory I / F unit 2046 is provided for the DRAM 2 in response to a request from another circuit in the rendering circuit 204.
049 (write / read). The write path and read path at the time of access are configured as separate paths. That is, in the case of writing, the write address ADRW and the write data DTW are written via the write path, and in the case of reading, the read data DTR is read via the read path.
The memory I / F unit 2046 accesses the DRAM 2049 on a 16-pixel basis, for example, based on predetermined interleaving addressing.

【0031】CRTコントロール部2047は、合成デ
バイスから供給される外部同期信号に同期して、DRA
M2049から画像データ、すなわちフレームバッファ
2049bから色情報(R値、G値、B値、A値)、z
バッファ2049cからz座標を読み出す要求を、メモ
リI/F部2044を介して行う。読み出した色情報
(R値、G値、B値、A値)及びz座標を含む画像デー
タ、並びに書き込み信号としてのライトイネーブル信号
WEを、後段の合成デバイスに出力する。
The CRT control unit 2047 synchronizes with the external synchronization signal supplied from the synthesizing device,
Image data from M2049, that is, color information (R value, G value, B value, A value) from frame buffer 2049b, z
A request to read the z coordinate from the buffer 2049c is made via the memory I / F unit 2044. The image data including the read color information (R value, G value, B value, A value) and the z coordinate, and the write enable signal WE as a write signal are output to the subsequent synthesis device.

【0032】DRAM2049は、ピクセルデータの色
情報(R値、G値、B値、A値)が描画されるフレーム
バッファ2049b及びピクセルデータのz座標が書き
込まれるzバッファ2049cを備える。また、この他
に、DRAM2049にはテクスチャデータが保管され
る。
The DRAM 2049 includes a frame buffer 2049b in which color information (R value, G value, B value, A value) of pixel data is drawn, and a z buffer 2049c in which z coordinate of the pixel data is written. In addition, the DRAM 2049 stores texture data.

【0033】<合成デバイス>合成デバイスの全体構成
図を図3に示す。すべての合成デバイス117〜121
は同一構成要素を具備するので、図3では、便宜上、合
成デバイスを符号300によって統一的に表している。
<Synthesis Device> FIG. 3 shows the overall configuration of the synthesis device. All synthetic devices 117-121
3 have the same components, and in FIG. 3, for convenience, the combining device is uniformly represented by reference numeral 300.

【0034】合成デバイス300は、FIFO301〜
304、同期信号生成回路305及び合成ブロック30
6を具備する。FIFO301〜304は、各々の前段
に設けられる4つの画像生成デバイスに1対1に対応し
ており、対応する画像生成デバイスから出力される画像
データ(R値、G値、B値、A値)を一時保管する。つ
まり、FIFO301〜304の各々には、対応する画
像生成デバイスからのライトイネーブル信号WEに同期
して、画像データ(R値、G値、B値、A値)が書き込
まれる。書き込まれた画像データ(R値、G値、B値、
A値)は、同期信号生成回路305で生成された内部同
期信号Vsyncに同期して合成ブロック306へ出力され
る。画像データ(R値、G値、B値、A値)が内部同期
信号Vsyncに同期してFIFO301〜304から出力
されるため、画像データの合成デバイス300への入力
タイミングは、ある程度自由に設定することができる。
したがって、画像生成デバイス間での完全な同期動作は
必ずしも必要ではない。また、合成デバイス300内で
は、各FIFO301〜304の出力が内部同期信号V
syncによってほぼ完全に同期がとられているので、各F
IFO301〜304の出力に対して合成ブロック30
6で並び替え(ソート)を行い、視点から遠い順に色情
報の混成(αブレンディング)を行うことにより、4つ
の画像データの合成が容易になる。
The synthesizing device 300 includes FIFOs 301 to
304, synchronization signal generation circuit 305 and synthesis block 30
6 is provided. The FIFOs 301 to 304 have a one-to-one correspondence with the four image generation devices provided in each preceding stage, and image data (R value, G value, B value, A value) output from the corresponding image generation device. Temporarily. That is, image data (R value, G value, B value, A value) is written into each of the FIFOs 301 to 304 in synchronization with the write enable signal WE from the corresponding image generation device. The written image data (R value, G value, B value,
A value) is output to the synthesizing block 306 in synchronization with the internal synchronization signal Vsync generated by the synchronization signal generation circuit 305. Since the image data (R value, G value, B value, A value) is output from the FIFOs 301 to 304 in synchronization with the internal synchronization signal Vsync, the input timing of the image data to the synthesizing device 300 is set to some extent freely. be able to.
Therefore, perfect synchronization between the image generation devices is not always necessary. Also, in the synthesizing device 300, the output of each of the FIFOs 301 to 304 is the internal synchronization signal V
Since almost completely synchronized by sync, each F
A synthesis block 30 for the outputs of the IFOs 301 to 304
By rearranging (sorting) in step 6 and performing mixing (α blending) of color information in order from the point farthest from the viewpoint, it is easy to combine four pieces of image data.

【0035】なお、ここでは、FIFOを4つ設けた例
を示しているが、これは、一つの合成デバイスに接続さ
れる画像生成デバイスを4つとしているためである。F
IFOは4つに限定されるものではなく、接続される画
像生成デバイスの数だけ配置可能である。また、FIF
O301〜304は、物理的に別のメモリでも良く、ま
た一つのメモリを論理的に複数の領域に分割して用いる
ようにしても良い。
Here, an example in which four FIFOs are provided is shown, because four image generation devices are connected to one combining device. F
The number of IFOs is not limited to four, and can be arranged by the number of connected image generation devices. Also, FIF
O301 to O304 may be physically different memories, or one memory may be logically divided into a plurality of areas for use.

【0036】同期信号生成回路305からは、合成デバ
イス300の後段デバイス、例えばディスプレイから入
力される外部同期信号SYNCINが、前段の画像生成
デバイスまたは合成デバイスに同じタイミングで供給さ
れる。合成デバイスから前段の装置に供給する外部同期
信号SYNCIN、及び合成デバイスの内部同期信号V
syncの生成タイミングについて、図4を用いて説明す
る。同期信号生成回路305は、このタイミングで外部
同期信号SYNCIN及び内部同期信号Vsyncを生成す
る。ここでは、図4(A)に示すように、合成デバイス
121、合成デバイス117、画像生成デバイス101
を3段接続した場合を例に説明する。合成デバイス12
1の内部同期信号をVsync2、外部同期信号をSYNC
IN2とする。また、合成デバイス117の内部同期信
号をVsync1、外部同期信号をSYNCIN1とする。
From the synchronizing signal generation circuit 305, an external synchronizing signal SYNCIN input from a subsequent device, for example, a display, of the synthesizing device 300 is supplied to the preceding image generating device or synthesizing device at the same timing. An external synchronizing signal SYNCIN supplied from the synthesizing device to the preceding device, and an internal synchronizing signal V of the synthesizing device
The generation timing of the sync will be described with reference to FIG. The synchronization signal generation circuit 305 generates the external synchronization signal SYNCIN and the internal synchronization signal Vsync at this timing. Here, as shown in FIG. 4A, the combination device 121, the combination device 117, and the image generation device 101
Will be described as an example of a case where are connected in three stages. Synthetic device 12
Vsync2 for the internal synchronization signal and SYNC for the external synchronization signal
IN2. The internal synchronization signal of the synthesizing device 117 is Vsync1, and the external synchronization signal is SYNCIN1.

【0037】図4(B)〜(E)に示すように、外部同
期信号SYNCIN2、SYNCIN1の生成タイミン
グは、合成デバイス内部の内部同期信号Vsync2、Vsyn
c1よりも所定の期間前倒しされている。そして、多段接
続を行うため、合成デバイスの内部同期信号が、後段の
合成デバイスから供給される外部同期信号に追随する。
前倒し期間は、前段の画像生成デバイス等が外部同期信
号SYNCINを受け取ってから実際の同期動作が開始
されるまでの期間を見込んでいるためであるが、合成デ
バイスへの入力にはFIFO301〜304を配置して
いるため、若干の時間的変動があっても問題は生じな
い。前倒し期間は、FIFOへの画像データの書き込み
が、FIFOからの画像データの読み出しよりも先に終
了するように設定される。この前倒し期間は、同期信号
が一定の周期で繰り返されるものであることから、カウ
ンタ等の順序回路で容易に実現可能である。また、カウ
ンタ等の順序回路を、後段からの同期信号でリセットす
ることにより、内部同期信号を、後段の合成デバイスか
ら供給される外部同期信号に追随するようにすることが
できる。
As shown in FIGS. 4B to 4E, the generation timings of the external synchronization signals SYNCIN2 and SYNCIN1 are determined by the internal synchronization signals Vsync2 and Vsyn inside the synthesizing device.
It is moved forward by a predetermined period from c1. Then, to perform multi-stage connection, the internal synchronization signal of the combining device follows the external synchronization signal supplied from the subsequent combining device.
The advance period is because a period from when the image generation device or the like at the preceding stage receives the external synchronization signal SYNCIN to when the actual synchronization operation is started is anticipated, but the FIFOs 301 to 304 are input to the synthesis device. Since they are arranged, there is no problem even if there is slight temporal fluctuation. The advance period is set so that writing of image data to the FIFO is completed before reading of image data from the FIFO. Since the synchronization signal is repeated at a constant period, the advance period can be easily realized by a sequential circuit such as a counter. Further, by resetting a sequential circuit such as a counter with a synchronization signal from the subsequent stage, the internal synchronization signal can follow the external synchronization signal supplied from the synthesis device in the subsequent stage.

【0038】合成ブロック306は、内部同期信号Vsy
ncに同期してFIFO301〜304から供給される4
つの画像データを、各画像データに含まれるz座標
(z)でソートし、次に、視点から遠い順にA値を用い
て色情報(R値、G値、B値、A値)の混成、すなわち
αブレンディングを行い、それを所定のタイミングで、
次段の合成デバイス121に出力する。
The synthesizing block 306 has an internal synchronizing signal Vsy.
4 supplied from FIFO 301 to 304 in synchronization with nc
The two pieces of image data are sorted by the z-coordinate (z) included in each piece of image data, and then color information (R value, G value, B value, A value) is mixed using the A value in order from the farthest viewpoint, That is, α blending is performed, and at a predetermined timing,
Output to the synthesis device 121 of the next stage.

【0039】図5は、合成ブロック306の要部構成を
示すブロック図である。合成ブロック306は、zソー
ト部3061及びブレンディング部3062を有してい
る。zソート部3061は、4つの画像データの色情報
(R1、G1、B1、A1)〜(R4、G4、B4、A
4)及び奥行き距離であるz1〜z4を受けて、z1〜
z4の大小比較を行う。比較の結果に基づいてz座標
(z)が大きい順、すなわち視点から遠い順に画像デー
タをソートして、視点から遠い順に色情報をブレンディ
ング部3062に供給する。なお、図5の例では、z1
>z4>z3>z2のような大小関係があるものとす
る。
FIG. 5 is a block diagram showing the main configuration of the synthesis block 306. The synthesis block 306 includes a z-sort unit 3061 and a blending unit 3062. The z-sort unit 3061 determines the color information (R1, G1, B1, A1) to (R4, G4, B4, A) of the four image data.
4) and the depth distances z1 to z4,
The magnitude of z4 is compared. Based on the result of the comparison, the image data is sorted in the descending order of the z-coordinate (z), that is, in the order distant from the viewpoint, and color information is supplied to the blending unit 3062 in the order distant from the viewpoint. In the example of FIG. 5, z1
>Z4>z3> z2.

【0040】ブレンディング部3062は、4つのブレ
ンディング処理器3062−1〜3062−4を有して
いる。ブレンディング処理器の数は、合成する色情報の
数により適宜決めれば良い。
The blending unit 3062 has four blending processors 3062-1 to 3062-4. The number of blending processors may be appropriately determined according to the number of pieces of color information to be combined.

【0041】ブレンディング処理器3062−1は、ソ
ートの結果、視点から最も遠いとされた画像データの色
情報(R1、G1、B1、A1)、並びに図外のレジス
タに格納されているこのディスプレイで作成する画像の
背景の色情報(Rb、Gb、Bb)により、例えば下記
式(1)〜(3)のような演算を行うことにより、ブレ
ンディング処理を行う。その結果得られる色情報(R'
値、G'値、B'値)をブレンディング処理器3062−
2に供給する。
The blending processor 3062-1 outputs the color information (R1, G1, B1, A1) of the image data set farthest from the viewpoint as a result of the sorting, and the display information stored in a register (not shown). A blending process is performed by performing calculations such as the following equations (1) to (3) based on the color information (Rb, Gb, Bb) of the background of the image to be created. The resulting color information (R '
Value, G ′ value, B ′ value)
Feed to 2.

【0042】[0042]

【数1】 R'=R1×A1+(1−A1)×Rb …(1) G'=G1×A1+(1−A1)×Gb …(2) B'=B1×A1+(1−A1)×Bb …(3)R '= R1 * A1 + (1-A1) * Rb (1) G' = G1 * A1 + (1-A1) * Gb (2) B '= B1 * A1 + (1-A1) * Bb ... (3)

【0043】ブレンディング処理器3062−2は、ソ
ートの結果、視点から2番目に遠いとされた画像データ
の色情報(R4、G4、B4、A4)、並びにブレンデ
ィング処理器3062−1の演算結果(R'値、G'値、
B'値)により、例えば下記式(4)〜(6)のような
演算を行うことにより、ブレンディング処理を行う。そ
の結果得られる色情報(R''値、G''値、B''値)をブ
レンディング処理器3062−3に供給する。
As a result of the sorting, the blending processor 3062-2 outputs the color information (R4, G4, B4, A4) of the image data that is the second farthest from the viewpoint, and the calculation result ( R 'value, G' value,
B ′ value), the blending process is performed by performing calculations such as the following equations (4) to (6). The resulting color information (R ″ value, G ″ value, B ″ value) is supplied to the blending processor 3062-3.

【0044】[0044]

【数2】 R''=R4×A4+(1−A4)×R' …(4) G''=G4×A4+(1−A4)×G' …(5) B''=B4×A4+(1−A4)×B' …(6)R ″ = R4 × A4 + (1−A4) × R ′ (4) G ″ = G4 × A4 + (1−A4) × G ′ (5) B ″ = B4 × A4 + ( 1−A4) × B ′ (6)

【0045】ブレンディング処理器3062−3は、ソ
ートの結果、視点から3番目に遠いとされた画像データ
の色情報(R3、G3、B3、A3)、並びにブレンデ
ィング処理器3062−2の演算結果(R''値、G''
値、B''値)により、例えば下記式(7)〜(9)のよ
うな演算を行うことにより、αブレンディングを行う。
その結果得られる色情報(R'''値、G'''値、B'''
値)をブレンディング処理器3062−4に供給する。
As a result of the sorting, the blending processor 3062-3 outputs the color information (R3, G3, B3, A3) of the image data which is determined to be the third farthest from the viewpoint, and the calculation result of the blending processor 3062-2. R '' value, G ''
Value, B ″ value), for example, by performing calculations such as the following equations (7) to (9), thereby performing α blending.
The resulting color information (R "'value, G'" value, B '"
) To the blending processor 3062-4.

【0046】[0046]

【数3】 R'''=R3×A3+(1−A3)×R'' …(7) G'''=G3×A3+(1−A3)×G'' …(8) B'''=B3×A3+(1−A3)×B'' …(9)R ′ ″ = R3 × A3 + (1-A3) × R ″ (7) G ′ ″ = G3 × A3 + (1-A3) × G ″ (8) B ′ ″ = B3 × A3 + (1-A3) × B ″ (9)

【0047】ブレンディング処理器3062−4は、ソ
ートの結果、視点に最も近いとされた画像データの色情
報(R2、G2、B2、A2)の値、並びにブレンディ
ング処理器3062−3の演算結果(R'''値、G'''
値、B'''値)により、例えば下記式(10)〜(1
2)のような演算を行うことにより、αブレンディング
を行う。その結果、最終的な色情報(Ro値、Go値、
Bo値)を導出する。
As a result of the sorting, the blending processing unit 3062-4 determines the value of the color information (R2, G2, B2, A2) of the image data determined to be closest to the viewpoint, and the calculation result of the blending processing unit 3062-3 ( R '''value,G'''
Value, B ″ ′ value), for example, the following expressions (10) to (1)
Α-blending is performed by performing an operation as in 2). As a result, the final color information (Ro value, Go value,
Bo value) is derived.

【0048】[0048]

【数4】 Ro=R2×A2+(1−A2)×R''' …(10) Go=G2×A2+(1−A2)×G''' …(11) Bo=B2×A2+(1−A2)×B''' …(12)
最終的に得られた色情報(Ro値、Go値、Bo値)
は、後段の合成デバイスに送られる。最終段の合成デバ
イス121の場合は、ディスプレイに、得られた色情報
に基づいた画像を表示させる。
Ro = R2 × A2 + (1-A2) × R ′ ″ (10) Go = G2 × A2 + (1-A2) × G ′ ″ (11) Bo = B2 × A2 + (1- A2) × B ′ ″ (12)
Color information finally obtained (Ro value, Go value, Bo value)
Is sent to the subsequent synthesis device. In the case of the synthesizing device 121 in the last stage, an image based on the obtained color information is displayed on the display.

【0049】<運用形態>次に、図6を用いて、画像処
理システムの運用形態を、画像処理方法の手順を中心と
して説明する。描画データが、バス205を介して画像
生成デバイスのレンダリング回路204に供給される
と、この描画データが、レンダリング回路204のマッ
ピング処理部2041に供給される(ステップS10
1)。マッピング処理部2041は、描画データに基づ
いて、線形補間、テクスチャマッピング等を行う。マッ
ピング処理部2041は、まず、ポリゴンの2頂点の座
標及び当該2頂点間の距離を用いて、当該ポリゴンが単
位長さ移動した場合の変分値を算出する。次いで、算出
した変分値から、ポリゴン内部の各ピクセルにおける補
間データを算出する。補間データは、座標(x、y、
z、s、t、q)、R値、G値、B値及びA値を含むこ
とになる。次いで、補間データに含まれる座標(s、
t、q)の値に基づいて、テクスチャ座標(u、v)を
算出する。テクスチャ座標(u、v)によりDRAM2
049からテクスチャデータの各々の色情報(R値、G
値、B値)を読み出す。そして、読み出したテクスチャ
データの色情報(R値、G値、B値)と、補間データに
含まれる色情報(R値、G値、B値)とが掛け合わさ
れ、ピクセルデータが生成される。ピクセルデータは、
マッピング処理部2041からメモリI/F部2046
へ送られる。メモリI/F部2046は、マッピング処
理部2041から入力されるピクセルデータのz座標
と、zバッファ2049cに記憶されているz座標との
比較を行い、ピクセルデータによって描画される画像
が、既に、フレームバッファ2049bに書き込まれて
いる画像よりも手前(視点側)に位置するか否かを判断
する。ピクセルデータによる画像が手前に位置する場合
には、ピクセルデータのz座標にzバッファ2049c
が更新される。また、この場合、ピクセルデータの色情
報(R値、G値、B値、A値)がフレームバッファ20
49bに描画される(ステップS102)。また、ピク
セルデータは、メモリI/F部2046の制御のもと、
表示領域において隣接した部分は、異なるDRAMモジ
ュールとなるように配置される。
<Operation Form> Next, the operation form of the image processing system will be described with reference to FIG. 6, focusing on the procedure of the image processing method. When the drawing data is supplied to the rendering circuit 204 of the image generation device via the bus 205, the drawing data is supplied to the mapping processing unit 2041 of the rendering circuit 204 (Step S10)
1). The mapping processing unit 2041 performs linear interpolation, texture mapping, and the like based on the drawing data. The mapping processing unit 2041 first calculates a variation value when the polygon moves by a unit length using the coordinates of the two vertices of the polygon and the distance between the two vertices. Next, interpolation data at each pixel inside the polygon is calculated from the calculated variation value. The interpolation data has coordinates (x, y,
z, s, t, q), R value, G value, B value and A value. Next, the coordinates (s,
The texture coordinates (u, v) are calculated based on the values of (t, q). DRAM2 by texture coordinates (u, v)
049 to the color information (R value, G
Value, B value). Then, the color information (R value, G value, B value) of the read texture data is multiplied by the color information (R value, G value, B value) included in the interpolation data to generate pixel data. Pixel data is
From the mapping processing unit 2041 to the memory I / F unit 2046
Sent to The memory I / F unit 2046 compares the z coordinate of the pixel data input from the mapping processing unit 2041 with the z coordinate stored in the z buffer 2049c, and the image drawn by the pixel data is already It is determined whether the image is located on the near side (viewpoint side) of the image written in the frame buffer 2049b. When the image based on the pixel data is located in the foreground, the z buffer 2049c is added to the z coordinate of the pixel data.
Is updated. In this case, the color information (R value, G value, B value, A value) of the pixel data is stored in the frame buffer 20.
49b is drawn (step S102). The pixel data is obtained under the control of the memory I / F unit 2046.
Adjacent portions in the display area are arranged to be different DRAM modules.

【0050】合成デバイス117〜120では、同期信
号生成回路305において、後段の合成デバイス121
からの外部同期信号SYNCINを受けて、画像生成デ
バイスに外部同期信号SYNCINを供給する(ステッ
プS111、S121)。
In the synthesizing devices 117 to 120, the synchronizing signal generation circuit 305 generates
The external synchronization signal SYNCIN is supplied to the image generation device (steps S111 and S121).

【0051】合成デバイス117〜120から外部同期
信号SYNCINを受けた各画像生成デバイス101〜
116においては、CRTコントロール部2047か
ら、外部同期信号SYNCINに同期して、フレームバ
ッファ2049bに描画された色情報(R値、G値、B
値、A値)、並びにzバッファ2049cに格納された
z座標を読み出す要求が、メモリI/F部2044に送
られる。そして、読み出された色情報(R値、G値、B
値、A値)及びz座標を含む画像データ、並びに書き込
み信号としてのライトイネーブル信号WEが、CRTコ
ントロール部2047から後段に接続された合成デバイ
ス117〜120に送られる(ステップS103)。合
成デバイス117には画像生成デバイス101〜104
から、合成デバイス118には画像生成デバイス105
〜108から、合成デバイス119には画像生成デバイ
ス109〜112から、合成デバイス120には画像生
成デバイス113〜116から、それぞれ画像データ及
びライトイネーブル信号WEが送られる。
Each of the image generating devices 101 to 101 receiving the external synchronization signal SYNCIN from the synthesizing devices 117 to 120
In 116, the color information (R value, G value, B value) drawn on the frame buffer 2049b from the CRT control unit 2047 in synchronization with the external synchronization signal SYNCIN.
A request to read the value, the A value) and the z coordinate stored in the z buffer 2049c is sent to the memory I / F unit 2044. Then, the read color information (R value, G value, B value
The image data including the (value, A value) and the z coordinate, and the write enable signal WE as a write signal are sent from the CRT control unit 2047 to the combining devices 117 to 120 connected at the subsequent stage (step S103). Image generation devices 101 to 104 are included in the synthesis device 117.
Thus, the synthesizing device 118 includes the image generating device 105
, The image data and the write enable signal WE are sent from the image generation devices 109 to 112 to the synthesis device 119 and from the image generation devices 113 to 116 to the synthesis device 120, respectively.

【0052】各合成デバイス117〜120において
は、FIFO301〜304のそれぞれに画像生成デバ
イスからのライトイネーブル信号WEに同期して画像デ
ータが書き込まれる(ステップS112)。そして、外
部同期信号SYNCINから所定の期間遅れて生成され
た内部同期信号Vsyncに同期して、FIFO301〜3
04のそれぞれに書き込まれた画像データが読み出され
て、合成ブロック306に送られる(ステップS11
3、S114)。各合成デバイス117〜120の合成
ブロック306では、内部同期信号Vsyncに同期してF
IFO301〜304の各々から送られる画像データを
受けて、画像データに含まれるz座標の大小比較を行
い、比較結果により画像データをソートする。ソートの
結果、視点から遠いとされた順に画像データの色情報
(R値、G値、B値、A値)のαブレンディングを行う
(ステップS115)。αブレンディングにより求めら
れた新たな色情報(R値、G値、B値、A値)を含む画
像データが、合成デバイス121から送られる外部同期
信号SYNCINに同期して合成デバイス121に出力
される(ステップS116、S122)。
In each of the synthesizing devices 117 to 120, image data is written into each of the FIFOs 301 to 304 in synchronization with the write enable signal WE from the image generating device (step S112). Then, in synchronization with the internal synchronization signal Vsync generated with a delay of a predetermined period from the external synchronization signal SYNCIN,
The image data written in each of the image data 04 is read and sent to the synthesizing block 306 (step S11).
3, S114). In the synthesizing block 306 of each of the synthesizing devices 117 to 120, F is synchronized with the internal synchronization signal Vsync.
Upon receiving the image data sent from each of the IFOs 301 to 304, the z-coordinate included in the image data is compared in magnitude, and the image data is sorted based on the comparison result. As a result of the sorting, α blending of the color information (R value, G value, B value, A value) of the image data is performed in the order of being far from the viewpoint (step S115). Image data including new color information (R value, G value, B value, A value) obtained by α blending is output to the synthesizing device 121 in synchronization with the external synchronization signal SYNCIN sent from the synthesizing device 121. (Steps S116 and S122).

【0053】合成デバイス121においても、合成デバ
イス117〜120から画像データを取り込み、合成デ
バイス117〜120と同様の処理が行われる(ステッ
プS123)。合成デバイス121により行われる処理
の結果得られる画像データにより、最終的な画像の色等
が決定される。以上のような処理が繰り返されて動画が
生成される。以上のようにして、αブレンディングによ
る透過処理が施された画像が生成される。
The synthesizing device 121 fetches image data from the synthesizing devices 117 to 120 and performs the same processing as that of the synthesizing devices 117 to 120 (step S123). The final image color and the like are determined based on the image data obtained as a result of the processing performed by the synthesizing device 121. The above processing is repeated to generate a moving image. As described above, an image that has been subjected to the transmission processing by α blending is generated.

【0054】合成ブロック306は、zソート部306
1及びブレンディング部3062を備えるために、zソ
ート部3061により行われる従来のzバッファ・アル
ゴリズムによる隠面処理の他に、ブレンディング部30
62により行われるαブレンディングによる透過処理が
可能となる。このような処理をすべてのピクセルについ
て行うことにより、複数の画像生成デバイスにより生成
された画像を合成した合成画像を生成することが容易に
なる。これにより、半透明な図形が混在する複雑な図形
も正確に処理することができる。したがって、複雑な半
透明物体を高品位に表示することが可能となり、三次元
コンピュータグラフィックスを使用するゲーム、VR
(Virtual Reality)、デザイン等の分野で利用するこ
とが可能となる。
The synthesizing block 306 includes a z-sorting unit 306
1 and the blending unit 3062, in addition to the hidden surface processing by the conventional z-buffer algorithm performed by the z-sorting unit 3061, the blending unit 30
The transmission processing by α blending performed by 62 can be performed. By performing such processing for all pixels, it becomes easy to generate a composite image in which images generated by a plurality of image generation devices are combined. This makes it possible to accurately process a complicated figure in which translucent figures are mixed. Therefore, it is possible to display a complex translucent object with high quality, and to use a game using three-dimensional computer graphics, VR
(Virtual Reality), design, and the like.

【0055】<他の実施形態>本発明の実施形態は上述
の例に限定されない。上述した図1に示す画像処理シス
テムにおいては、4つの合成デバイス117〜120に
画像生成デバイスをそれぞれ4つずつ接続し、さらに4
つの合成デバイス117〜120を合成デバイス121
に接続する構成としたが、この他にも、例えば図7〜図
10に示すような形態が可能である。
<Other Embodiments> Embodiments of the present invention are not limited to the above-described examples. In the image processing system shown in FIG. 1 described above, four image generating devices are respectively connected to four combining devices 117 to 120, and four image forming devices are further connected.
One combining device 117 to 120 to the combining device 121
However, for example, other forms as shown in FIGS. 7 to 10 are possible.

【0056】図7の例は、複数の画像生成デバイス(こ
こでは4つ)を1つの合成デバイス135に対して並列
接続して、最終的な出力を得る形態である。図8の例
は、合成デバイス135が4つの画像生成デバイスを接
続可能な構成であっても、3つの画像生成デバイスを1
つの合成デバイス135に対して並列接続して最終的な
出力を得る形態である。図9の例は、4つの画像生成デ
バイスを接続可能な合成デバイス135、140に対し
て4つの画像生成デバイス131〜134、136〜1
39をフルに接続し、さらに合成デバイス135、14
0の出力を合成デバイス141に入力させる、いわゆる
対称型のシステムを構成する形態である。図10の例
は、合成デバイスを多段に接続する場合に、図9のよう
に完全な対称型とする代わりに、4つの画像生成デバイ
スを接続可能な合成デバイス135に対して4つの画像
生成デバイス131〜134を接続し、さらに4つの画
像生成デバイスを接続可能な合成デバイス141に対し
て合成デバイス135の出力と3つの画像生成デバイス
136、137、138を接続した形態である。
In the example of FIG. 7, a plurality of image generating devices (four in this case) are connected in parallel to one combining device 135 to obtain a final output. In the example of FIG. 8, even if the combining device 135 can connect four image generation devices, three image generation devices
This is a form in which a final output is obtained by connecting in parallel to one combining device 135. In the example of FIG. 9, four image generating devices 131 to 134 and 136 to 1 are connected to combining devices 135 and 140 to which four image generating devices can be connected.
39 fully connected, and the synthesis devices 135, 14
In this embodiment, a so-called symmetric system in which an output of 0 is input to the synthesizing device 141 is configured. The example shown in FIG. 10 is different from the example shown in FIG. 9 in that, when connecting the synthesizing devices in multiple stages, the four image generating devices can be connected to the synthesizing device 135 which can connect four image generating devices instead of the completely symmetric type as shown in FIG. In this embodiment, an output of the synthesizing device 135 and three image generating devices 136, 137, and 138 are connected to a synthesizing device 141 to which the image forming devices 131 to 134 can be connected, and further four image generating devices can be connected.

【0057】<ネットワークを用いて構成した場合の実
施形態>以上の実施形態における画像処理システムは、
近接された画像生成デバイス及び合成デバイスにより形
成されており、各デバイス間を短い伝送線等で繋ぐこと
により実現される。このような画像処理システムは、例
えば、一つの筐体に収容可能である。本発明の画像処理
システムは、このように、画像生成デバイス及び合成デ
バイスが近接して設置される場合の他に、各々がまった
く異なる場所に設置されている場合でも、それらをネッ
トワークを介して接続し、相互にデータの送受を行うこ
とによっても実現することが可能である。このネットワ
ークを介した実施形態を、以下に説明する。
<Embodiment in Case of Using Network> The image processing system in the above embodiment is
It is formed by an image generating device and a synthesizing device that are close to each other, and is realized by connecting each device with a short transmission line or the like. Such an image processing system can be housed in one housing, for example. The image processing system of the present invention connects the image generating device and the synthesizing device via a network in addition to the case where the image generating device and the synthesizing device are installed close to each other, even when each is installed in a completely different place. However, the present invention can also be realized by mutually transmitting and receiving data. An embodiment via this network will be described below.

【0058】図11は、ネットワークを介して画像処理
システムを実現するための構成例を示す図である。画像
処理システムを実現するために、複数の画像生成デバイ
ス155及び合成デバイス156が、それぞれネットワ
ークを介して切換部154に接続されている。画像生成
デバイス155は、例えば、図2に示される画像生成デ
バイス200と同様の構成及び機能を有するものであ
る。合成デバイス156は、例えば、図3に示される合
成デバイス300と同様の構成及び機能を有するもので
ある。複数の画像生成デバイス155で生成された画像
データが、切換部154を経由して合成デバイス156
に送られて合成されることにより、合成画像が生成され
る。
FIG. 11 is a diagram showing a configuration example for realizing an image processing system via a network. In order to realize an image processing system, a plurality of image generation devices 155 and a combination device 156 are connected to a switching unit 154 via a network. The image generation device 155 has the same configuration and function as the image generation device 200 shown in FIG. 2, for example. The synthesizing device 156 has, for example, a configuration and a function similar to those of the synthesizing device 300 shown in FIG. The image data generated by the plurality of image generation devices 155 is transmitted to the synthesis device 156 via the switching unit 154.
Is sent to and synthesized, to generate a synthesized image.

【0059】本実施形態では、この他に、外部からの画
像データの入力を受け付けるビデオ信号入力デバイス1
50、ネットワークの初期化や、ネットワーク上の各構
成要素の管理を行うバスマスタデバイス151、各構成
要素間の接続形態を決めるためのコントローラ152、
描画データを格納する描画データ記憶部153等が設け
られる。これらの構成要素も、ネットワークを介して切
換部154に接続される。
In this embodiment, in addition to this, a video signal input device 1 for receiving an input of image data from the outside.
50, a bus master device 151 for initializing the network and managing each component on the network, a controller 152 for deciding a connection mode between the components,
A drawing data storage unit 153 for storing drawing data is provided. These components are also connected to the switching unit 154 via the network.

【0060】バスマスタデバイス151は、処理の開始
時に、切換部154に接続されたすべての構成要素につ
いて、構成要素のアドレスや性能、処理内容に関する情
報を取得する。また、取得したこれらの情報を含むアド
レスマップを作成する。作成されたアドレスマップは、
すべての構成要素に送られる。
At the start of the processing, the bus master device 151 acquires information on the addresses, performances, and processing contents of the components for all the components connected to the switching unit 154. Further, an address map including the obtained information is created. The created address map is
Sent to all components.

【0061】コントローラ152は、アドレスマップに
基づいて、画像処理を行う際に使用する構成要素、つま
りネットワークを介した画像処理システムを構成する構
成要素を選択、決定する。アドレスマップには、構成要
素の性能についての情報も含まれるために、実行する処
理の処理負荷や処理内容に応じて構成要素の選択が可能
である。画像処理システムの構成を示す情報は、画像処
理システムを構成するすべての構成要素に送られる。こ
れにより、各構成要素は、どの構成要素とデータの送受
が可能かを知ることができる。また、コントローラ15
2は、他のネットワークとの間でリンクを形成可能であ
る。
The controller 152 selects and determines components to be used when performing image processing, that is, components that constitute an image processing system via a network, based on the address map. Since the address map also includes information on the performance of the component, the component can be selected according to the processing load of the process to be executed or the content of the process. Information indicating the configuration of the image processing system is sent to all components that configure the image processing system. Thus, each component can know which component and data can be transmitted / received. The controller 15
2 can form a link with another network.

【0062】描画データ記憶部153は、ハードディス
クドライブのような大容量の記憶装置であり、画像生成
デバイス155で処理される描画データを保持してい
る。描画データは、例えば、ビデオ信号入力デバイス1
50を介して外部から入力される。
The drawing data storage unit 153 is a large-capacity storage device such as a hard disk drive, and holds drawing data to be processed by the image generation device 155. The drawing data is, for example, the video signal input device 1
The data is input from outside through the external device 50.

【0063】切換部154は、各構成要素間でデータが
正確に送受されるように、データの送信経路を制御す
る。なお、切換部154を介して各構成要素間で送受さ
れるデータは、受け側の構成要素を示すデータ(例え
ば、アドレス)を含むデータであり、例えばパケットデ
ータであることが好ましい。切換部154は、アドレス
で示される構成要素にデータを送る。アドレスは、ネッ
トワーク上で一意に構成要素(バスマスタデバイス15
1等)を示すものである。ネットワークがインターネッ
トの場合には、IP(Internet Protocol)アドレスを用
いることができる。
The switching unit 154 controls a data transmission path so that data is accurately transmitted and received between components. The data transmitted and received between the components via the switching unit 154 is data including data (for example, an address) indicating the component on the receiving side, and is preferably, for example, packet data. The switching unit 154 sends data to the component indicated by the address. The address is a unique element on the network (the bus master device 15).
1 etc.). When the network is the Internet, an IP (Internet Protocol) address can be used.

【0064】図12に示すのは、このようなデータの例
である。各データは、受け側の構成要素のアドレスを含
んでいる。データ「CP」は、コントローラ152で実
行されるプログラムとなるデータを表している。データ
「M0」は合成デバイス156で処理されるデータを表
している。合成デバイスが複数である場合には、例えば
各合成デバイスに番号を割り振って合成デバイスを特定
できるようにしておく。これにより、「M0」は、
「0」番目の合成デバイスで処理されるデータを表す。
同様に、「M1」は1番目の合成デバイスで、「M2」
は2番目の合成デバイスで処理されるデータを示すよう
になる。データ「A0」は、画像処理デバイス155で
処理されるデータを表している。合成デバイスと同様
に、複数である場合には、各画像生成デバイスに番号を
割り振って、画像生成デバイスを特定できるようにして
おく。データ「V0」は、ビデオ入力デバイス150で
処理されるデータを表している。データ「SD」は、描
画データ記憶部153に記憶されるデータを表してい
る。これらのデータが、単独、又は組み合わされて、受
け側の構成要素へ送られることとなる。
FIG. 12 shows an example of such data. Each data contains the address of the receiving component. The data “CP” represents data to be a program executed by the controller 152. Data “M0” represents data processed by the combining device 156. When there are a plurality of composite devices, for example, a number is assigned to each composite device so that the composite device can be specified. Thus, “M0” is
Represents data processed by the “0” th synthesis device.
Similarly, "M1" is the first composite device and "M2"
Indicates data to be processed by the second combining device. Data “A0” represents data processed by the image processing device 155. If there are a plurality of devices, a number is assigned to each image generation device so that the image generation device can be specified. Data “V0” represents data processed by the video input device 150. The data “SD” represents data stored in the drawing data storage unit 153. These data are sent to the receiving component individually or in combination.

【0065】画像処理システムを構成する構成要素を決
定するまでの手順について、図13を用いて説明する。
まず、バスマスタデバイス151は、切換部154に接
続されるすべての構成要素に、処理内容、処理性能、ア
ドレス等の情報を確認するデータを送信する。バスマス
タデバイス151からのデータに応じて、各構成要素
は、バスマスタデバイス151へ、処理内容、処理性
能、アドレス等の情報を含んだデータを返信する(ステ
ップS201)。バスマスタデバイス151は、各構成
要素から返信データを受信すると、それらの、処理内
容、処理性能及びアドレスについてのアドレスマップを
作成する(ステップS202)。作成されたアドレスマ
ップは、すべての構成要素に提供される(ステップS2
03)。
A procedure up to determination of the components constituting the image processing system will be described with reference to FIG.
First, the bus master device 151 transmits data for confirming information such as processing content, processing performance, and address to all components connected to the switching unit 154. In response to the data from the bus master device 151, each component returns data including information such as processing content, processing performance, and address to the bus master device 151 (step S201). Upon receiving the reply data from each component, the bus master device 151 creates an address map for the processing content, processing performance, and address thereof (step S202). The created address map is provided to all components (step S2).
03).

【0066】コントローラ152は、アドレスマップに
基づいて、画像処理を実行する構成要素の候補を決める
(ステップS211、S212)。コントローラ152
は、候補とした構成要素に、依頼しようとする処理を実
行できるかどうかを確認する確認データを送信する(ス
テップS213)。コントローラ152から、確認デー
タを受信した構成要素は、コントローラ152へ、実行
が可能な旨のデータ又は不可能な旨のデータを送る。コ
ントローラ152は、各構成要素から送られた実行が可
能な旨のデータ又は不可能な旨のデータの内容を解析
し、解析した結果に基づいて、処理を依頼すべき構成要
素(実行が可能な旨のデータを受け取った構成要素)が
何であるかを最終的に決定する(ステップS214)。
そして、決定した構成要素の組合せにより、ネットワー
クを介した本実施形態による画像処理システムの構成内
容が確定する。確定した画像処理システムの構成内容を
表すデータを「構成内容データ」とする。この構成内容
データは、画像処理システムを構成する構成要素のすべ
てに提供される(ステップS215)。
The controller 152 determines constituent element candidates for executing image processing based on the address map (steps S211 and S212). Controller 152
Transmits confirmation data for confirming whether or not the process to be requested can be executed to the candidate component (step S213). The component that has received the confirmation data from the controller 152 sends data indicating that it can be executed or data indicating that it cannot be executed to the controller 152. The controller 152 analyzes the content of the data indicating that the execution is possible or the data indicating that the execution is not possible, which is sent from each component, and, based on the analysis result, the component to which the processing should be requested (the executable component that can be executed). Finally, it is determined what the component that has received the data to the effect is (step S214).
Then, the configuration of the image processing system according to the present embodiment via the network is determined by the determined combination of the components. The data representing the determined configuration of the image processing system is referred to as “configuration data”. This configuration data is provided to all of the components constituting the image processing system (step S215).

【0067】以上のような手順により、画像処理に使用
すべき構成要素が決まり、これによって確定する構成内
容データにより、画像処理システムとしての構成が決ま
る。例えば16個の画像生成デバイス155と5個の合
成デバイス156との組合せの場合には、図1に示した
ものと同様の画像処理システムが構成可能になる。ま
た、画像生成デバイス155を7個と合成デバイス15
6を2個用いた場合は、図10に示すような画像処理シ
ステムが構成可能となる。このように、ネットワーク上
の種々の構成要素を用いて、目的に応じて、自由に画像
処理システムの構成内容を決めることができるようにな
る。
According to the above procedure, the components to be used for the image processing are determined, and the configuration as the image processing system is determined by the configuration data determined thereby. For example, in the case of a combination of 16 image generation devices 155 and 5 synthesis devices 156, an image processing system similar to that shown in FIG. 1 can be configured. Also, seven image generating devices 155 and the synthesizing device 15
In the case where two 6 are used, an image processing system as shown in FIG. 10 can be configured. As described above, the configuration of the image processing system can be freely determined according to the purpose by using various components on the network.

【0068】次に、この実施形態の画像処理システムに
よる画像処理の手順について説明する。なお、この処理
手順は、基本的には図6に示す処理手順と同様となる。
Next, the procedure of image processing by the image processing system of this embodiment will be described. Note that this processing procedure is basically the same as the processing procedure shown in FIG.

【0069】画像生成デバイス155は、描画データ記
憶部152から供給される描画データ、或いは、自己が
具える描画プロセッサ201により生成した描画データ
を、レンダリング回路204によりレンダリングして画
像データを生成する(ステップS101、S102)。
The image generation device 155 renders the rendering data supplied from the rendering data storage unit 152 or the rendering data generated by the rendering processor 201 of the rendering device 204 by the rendering circuit 204 to generate image data. Steps S101 and S102).

【0070】合成デバイス156のうち、最終的な画像
合成を行う合成デバイス156は、外部同期信号SYN
CINを生成し、この外部同期信号SYNCINを前段
の合成デバイス156或いは画像生成デバイス155に
送る。外部同期信号SYNCINを受け取った合成デバ
イス156は、その前段にさらに他の合成デバイス15
6が設けられる場合は、その合成デバイス156に外部
同期信号SYNCINを送る。前段に画像生成デバイス
155が設けられる場合は、その画像生成デバイス15
5に外部同期信号SYNCINを送る(ステップS11
1、S121)。
Of the synthesizing devices 156, the synthesizing device 156 for performing final image synthesizing is the external synchronizing signal SYN.
A CIN is generated, and this external synchronization signal SYNCIN is sent to the synthesis device 156 or the image generation device 155 in the preceding stage. The synthesizing device 156 that has received the external synchronization signal SYNCIN is connected to another synthesizing device 15 at the preceding stage.
6 is provided, an external synchronization signal SYNCIN is sent to the synthesizing device 156. When the image generation device 155 is provided in the preceding stage, the image generation device 15
5 is sent to the external synchronization signal SYNCIN (step S11).
1, S121).

【0071】画像生成デバイス155は、入力された外
部同期信号SYNCINに同期して、生成した画像デー
タを後段の合成デバイス156に送る。画像データに
は、その先頭部分に送り先の合成デバイス156のアド
レスが付加される(ステップS103)。
The image generating device 155 sends the generated image data to the subsequent synthesizing device 156 in synchronization with the input external synchronization signal SYNCIN. The address of the destination synthesizing device 156 is added to the head of the image data (step S103).

【0072】画像データが入力された合成デバイス15
6は、入力された画像データを合成し(ステップS11
2〜S115)、これを、次のタイミングで入力される
外部同期信号SYNCINに同期して後段の合成デバイ
ス156に送る(ステップS122、S116)。各合
成デバイス156は、画像データの合成、後段の合成デ
バイス156への出力を行う。最終的に合成デバイス1
56で得られる合成した画像データを、画像処理システ
ム全体としての出力とする。
The combining device 15 to which the image data has been input
6 synthesizes the input image data (step S11).
2 to S115), and sends it to the subsequent synthesizing device 156 in synchronization with the external synchronization signal SYNCIN input at the next timing (steps S122 and S116). Each synthesizing device 156 synthesizes image data and outputs it to the synthesizing device 156 at the subsequent stage. Ultimately Synthetic Device 1
The combined image data obtained at 56 is output as the entire image processing system.

【0073】合成デバイス156は、複数の画像生成デ
バイス155のそれぞれから、同期をとって画像データ
を受け取ることが困難である。しかし、図3のようにF
IFO301に一度取り込み、ここから内部同期信号V
syncに同期して合成ブロック306に供給するようにす
ることにより、画像合成時には、完全に同期がとれる。
そのために、ネットワークを介して構成される本実施形
態の画像処理システムにおいても、合成処理時の画像デ
ータの同期をとることが容易になる。
It is difficult for the synthesizing device 156 to synchronously receive the image data from each of the plurality of image generating devices 155. However, as shown in FIG.
Once taken into the IFO 301, the internal synchronization signal V
By supplying the image data to the synthesizing block 306 in synchronization with the sync, the image can be completely synchronized at the time of image synthesis.
Therefore, also in the image processing system according to the present embodiment configured via a network, it becomes easy to synchronize the image data at the time of the synthesis processing.

【0074】なお、コントローラ152が他のネットワ
ークとの間で相互にリンクできるものであることを利用
して、他のネットワークに形成された別の画像処理シス
テムを、一部又は全部の構成要素として用いた統合的な
画像処理システムも、本発明によれば実現が可能であ
る。つまり、「入れ子構造」の画像処理システムとして
実施することが可能である。図14は、この統合的な画
像処理システムの構成例を示した図であり、符号157
で示す部分が、それ自体がコントローラと複数の画像生
成デバイスとを有する画像処理システムになっている。
このような統合的な画像処理システムでは、コントロー
ラ152が、別の画像処理システム157のコントロー
ラと連絡をとりあって同期を確保しながら画像データの
受け渡しを行う。
By utilizing the fact that the controller 152 can be mutually linked to another network, another image processing system formed on another network is used as a part or all of the components. The integrated image processing system used can be realized according to the present invention. That is, the image processing system can be implemented as a “nested structure” image processing system. FIG. 14 is a diagram showing an example of the configuration of this integrated image processing system.
The portion indicated by is the image processing system itself having a controller and a plurality of image generation devices.
In such an integrated image processing system, the controller 152 communicates with the controller of another image processing system 157 to transfer image data while ensuring synchronization.

【0075】このような入れ子構造の画像処理システム
において、画像処理システム157に送るデータには、
図15のようなパケットデータを用いるのが好適であ
る。コントローラ152により決定された画像処理シス
テムをn階層、画像処理システム157を(n−1)階
層とする。画像処理システム157は、画像処理デバイ
ス155aを介してn階層の画像処理システム157と
の間とデータの送受を行う。画像処理デバイス155a
には、データDnに含まれるデータAn0が送られる。
データAn0は、データD(n-1)を含む構造になってい
る。データAn0に含まれるデータD(n-1)は、画像処
理デバイス155aから、(n−1)階層の画像処理シ
ステム157に送られる。このようにして、n階層の画
像処理システムから(n−1)階層の画像処理システム
にデータが送られる。画像処理システム157内の画像
処理デバイスに、(n−2)階層として、更に他の画像
処理システムを設けることも可能である。図15のよう
なデータ構造により、0階層の構成要素まで、n階層の
各構成要素からデータを送ることが可能となる。
In such a nested image processing system, data to be sent to the image processing system 157 includes:
It is preferable to use packet data as shown in FIG. The image processing system determined by the controller 152 is defined as n layers, and the image processing system 157 is defined as (n-1) layers. The image processing system 157 sends and receives data to and from the n-level image processing system 157 via the image processing device 155a. Image processing device 155a
Is sent data An0 included in the data Dn.
The data An0 has a structure including the data D (n-1). The data D (n-1) included in the data An0 is sent from the image processing device 155a to the (n-1) -level image processing system 157. In this manner, data is sent from the image processing system of the nth hierarchy to the image processing system of the (n-1) th hierarchy. The image processing device in the image processing system 157 may be provided with another image processing system as the (n-2) th hierarchy. With the data structure as shown in FIG. 15, it is possible to send data from each of the components of the nth layer up to the component of the 0th layer.

【0076】また、図14のネットワークに接続されて
いる一つの画像生成デバイス155に代えて、一つの筐
体に収納可能な画像処理システム(例えば図1に例示し
た画像処理システム100)を用いて統合的な画像処理
システムを実現することもできる。この場合には、画像
処理システムに、統合型の画像処理システムに用いられ
るネットワークに接続するためのネットワークインタフ
ェースを用意する必要がある。
Further, instead of one image generation device 155 connected to the network of FIG. 14, an image processing system (for example, the image processing system 100 illustrated in FIG. 1) that can be housed in one housing is used. It is also possible to realize an integrated image processing system. In this case, it is necessary to provide the image processing system with a network interface for connecting to a network used in the integrated image processing system.

【0077】また、本実施形態では、画像データ生成手
段、色情報混成手段、同期手段をすべて半導体デバイス
内で実現した場合の例を示したが、これらの手段を、汎
用のコンピュータとプログラムとの協働によって実現す
ることも可能である。すなわち、コンピュータが、記録
媒体に記録されているプログラムを読み込んで実行する
ことにより、そのコンピュータに、画像データ生成手
段、色情報混成手段、同期手段の機能を構築するような
形態も可能である。また、画像データ生成手段、色情報
混成手段、同期手段の一部の手段を半導体チップで実現
し、他の手段をコンピュータとプログラムとの協働によ
って実現することも可能である。
In this embodiment, an example has been shown in which the image data generating means, the color information mixing means, and the synchronizing means are all realized in a semiconductor device. However, these means may be implemented by a general-purpose computer and a program. It can also be realized by cooperation. That is, it is also possible to adopt a mode in which the computer reads and executes the program recorded on the recording medium, and thereby the computer functions as image data generating means, color information hybridizing means, and synchronizing means. Further, some of the image data generating means, the color information mixing means, and the synchronizing means may be realized by a semiconductor chip, and the other means may be realized by cooperation of a computer and a program.

【0078】[0078]

【発明の効果】以上説明したように、本発明によれば、
複数の画像データを、その各々に含まれる奥行き距離の
順に特定可能にするとともに、奥行き距離が相対的に長
い画像データの色情報と少なくともそれに重なりあう面
部を当該画像の上面に表現するための画像データの色情
報とを混成するようにしたので、半透明な画像が複雑に
混在する三次元画像であっても、それを正確に表現でき
るようになる、という効果が得られる。
As described above, according to the present invention,
An image for enabling a plurality of image data to be specified in the order of the depth distances included in each of the image data, and for expressing the color information of the image data having a relatively long depth distance and at least the surface portion overlapping with the color information on the upper surface of the image. Since the color information is mixed with the color information of the data, an effect is obtained that even a three-dimensional image in which translucent images are complicatedly mixed can be accurately represented.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像処理システムの一実施形態を
示すシステム構成図である。
FIG. 1 is a system configuration diagram showing an embodiment of an image processing system according to the present invention.

【図2】画像生成デバイスの構成図である。FIG. 2 is a configuration diagram of an image generation device.

【図3】本発明に係る合成デバイスの構成例を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating a configuration example of a synthesis device according to the present invention.

【図4】前段のデバイスに供給する外部同期信号及び内
部同期信号の生成タイミングについて説明するための図
であり、図4(A)は画像生成デバイスと合成デバイス
の構成図、図4(B)は後段の合成デバイスの内部同期
信号、図4(C)は後段の合成デバイスから出力される
外部同期信号、4(D)は前段の合成デバイスの内部同
期信号、図4(E)は前段の合成デバイスから出力され
る外部同期信号である。
4A and 4B are diagrams for explaining generation timings of an external synchronization signal and an internal synchronization signal to be supplied to a device at a preceding stage; FIG. 4A is a configuration diagram of an image generation device and a synthesis device; FIG. 4 (C) is an external synchronization signal output from the subsequent synthesis device, 4 (D) is an internal synchronization signal of the previous synthesis device, and FIG. 4 (E) is an internal synchronization signal of the previous synthesis device. This is an external synchronization signal output from the combining device.

【図5】本発明に係る合成ブロックの要部の構成例を示
すブロック図である。
FIG. 5 is a block diagram illustrating a configuration example of a main part of a synthesis block according to the present invention.

【図6】本発明に係る画像処理システムによる画像処理
方法の手順を示す図である。
FIG. 6 is a diagram showing a procedure of an image processing method by the image processing system according to the present invention.

【図7】本発明に係る画像処理システムの他の実施形態
を示すシステム構成図である。
FIG. 7 is a system configuration diagram showing another embodiment of the image processing system according to the present invention.

【図8】本発明に係る画像処理システムの他の実施形態
を示すシステム構成図である。
FIG. 8 is a system configuration diagram showing another embodiment of the image processing system according to the present invention.

【図9】本発明に係る画像処理システムの他の実施形態
を示すシステム構成図である。
FIG. 9 is a system configuration diagram showing another embodiment of the image processing system according to the present invention.

【図10】本発明に係る画像処理システムの他の実施形
態を示すシステム構成図である。
FIG. 10 is a system configuration diagram showing another embodiment of the image processing system according to the present invention.

【図11】ネットワークを介して画像処理システムを実
現するための構成図である。
FIG. 11 is a configuration diagram for realizing an image processing system via a network.

【図12】構成要素間で送受されるデータの例示図であ
る。
FIG. 12 is an exemplary diagram of data transmitted and received between components.

【図13】画像処理システムを構成する構成要素を決定
するまでの手順を示す図である。
FIG. 13 is a diagram showing a procedure up to determination of components constituting the image processing system.

【図14】ネットワークを介して画像処理システムを実
現するための別の構成図である。
FIG. 14 is another configuration diagram for realizing an image processing system via a network.

【図15】構成要素間で送受されるデータの例示図であ
る。
FIG. 15 is an exemplary diagram of data transmitted and received between components.

【符号の説明】[Explanation of symbols]

100、100A〜100D 画像処理システム 101〜116、131〜134、136〜139、1
55、155a、200 画像生成デバイス 117〜121、135、140、141、156、3
00 合成デバイス 150 ビデオ信号入力デバイス 151 バスマスタデバイス 152 コントローラ 153 描画データ記憶部 154 切換部 201 描画プロセッサ 202 描画用メモリ 203 I/Oインタフェース回路 204 レンダリング回路 2041 マッピング処理部 2046 メモリI/F部 2047 CRTコントロール部 2049 DRAM 2049b フレームバッファ 2049c zバッファ 301〜304 FIFO 305 同期信号生成回路 306 合成ブロック 3061 zソート部 3062 ブレンディング部
100, 100A-100D Image processing system 101-116, 131-134, 136-139, 1
55, 155a, 200 Image generation device 117-121, 135, 140, 141, 156, 3
00 synthesis device 150 video signal input device 151 bus master device 152 controller 153 drawing data storage unit 154 switching unit 201 drawing processor 202 drawing memory 203 I / O interface circuit 204 rendering circuit 2041 mapping processing unit 2046 memory I / F unit 2047 CRT control Unit 2049 DRAM 2049b frame buffer 2049c z buffer 301-304 FIFO 305 synchronization signal generation circuit 306 synthesis block 3061 z sort unit 3062 blending unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 日原 大輔 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 5B080 AA13 DA01 FA02 FA03 FA08 FA17 GA02  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Daisuke Hihara 1-14-10 Higashi Gotanda, Shinagawa-ku, Tokyo F-term in Sony Kihara Laboratory (reference) 5B080 AA13 DA01 FA02 FA03 FA08 FA17 GA02

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 処理対象となる三次元画像の特定部位か
らの奥行き距離及び色情報を含む画像データを生成する
複数の画像データ生成手段と、 前記複数の画像データ生成手段の各々から前記画像デー
タを取り込み、取り込んだ複数の画像データを、その各
々に含まれる奥行き距離の順に特定可能にするととも
に、奥行き距離が相対的に長い画像データの色情報と少
なくともそれに重なりあう面部を当該画像の上面に表現
するための画像データの色情報とを混成させる色情報混
成手段とを具備する、 画像処理システム。
1. A plurality of image data generating means for generating image data including a depth distance from a specific part of a three-dimensional image to be processed and color information, and the image data from each of the plurality of image data generating means. A plurality of captured image data can be specified in the order of the depth distance included in each of them, and the color information of the image data having a relatively long depth distance and at least a surface part overlapping with the color information are provided on the upper surface of the image. An image processing system comprising: color information mixing means for mixing color information of image data to be expressed.
【請求項2】 前記色情報混成手段は、前記奥行き距離
が最も長い画像データの色情報と前記奥行き距離がその
次に長い画像データの色情報とを混成し、この混成結果
を前記奥行き距離がさらにその次に長い画像データの色
情報と混成するように構成されている、 請求項1記載の画像処理システム。
2. The color information mixing means mixes the color information of the image data having the longest depth distance and the color information of the image data having the next longest depth distance, and determines the result of the hybridization by determining that the depth distance is equal to the second distance. The image processing system according to claim 1, wherein the image processing system is further configured to be mixed with color information of the next longer image data.
【請求項3】 前記色情報混成手段は、前記奥行き距離
が最も長い画像データの色情報と、背景を表現するため
の背景画像データの色情報とを混成するように構成され
ている、 請求項2記載の画像処理システム。
3. The color information mixing unit is configured to mix color information of the image data having the longest depth distance with color information of background image data for expressing a background. 2. The image processing system according to 2.
【請求項4】 前記奥行き距離が最も長い画像データ
が、背景を表現するための背景画像データである、 請求項2記載の画像処理システム。
4. The image processing system according to claim 2, wherein the image data having the longest depth distance is background image data for expressing a background.
【請求項5】 前記色情報が、三原色を表現するための
輝度値と、半透明を表現するための透過値とを含むもの
である、 請求項1ないし4のいずれかの項記載の画像処理システ
ム。
5. The image processing system according to claim 1, wherein the color information includes a luminance value for expressing three primary colors and a transmission value for expressing semi-transparency.
【請求項6】 前記複数の画像データ生成手段からの画
像データの取込タイミングを自システムにおける画像処
理タイミングに同期させる同期手段をさらに備えてな
る、 請求項1ないし4のいずれかの項記載の画像処理システ
ム。
6. The image processing apparatus according to claim 1, further comprising a synchronizing means for synchronizing the timing of taking in the image data from the plurality of image data generating means with the image processing timing in the own system. Image processing system.
【請求項7】 前記複数の画像データ生成手段、前記色
情報混成手段、及び前記同期手段の一部の手段又は全部
の手段が、論理回路及び半導体メモリを含んで構成さ
れ、該論理回路及び半導体メモリが半導体チップ内に混
載されるものである、 請求項6記載の画像処理システム。
7. A part or all of the plurality of image data generating means, the color information mixing means, and the synchronizing means are configured to include a logic circuit and a semiconductor memory, and the logic circuit and the semiconductor are provided. The image processing system according to claim 6, wherein the memory is embedded in the semiconductor chip.
【請求項8】 処理対象となる三次元画像の特定部位か
らの奥行き距離及び色情報を含む画像データを生成する
複数の画像データ生成手段の各々から前記画像データを
取り込むデータ取込手段と、 取り込んだ複数の画像データを、その各々に含まれる奥
行き距離の順に特定可能にするとともに、奥行き距離が
相対的に長い画像データの色情報と少なくともそれに重
なりあう面部を当該画像の上面に表現するための画像デ
ータの色情報とを混成させる色情報混成手段とを半導体
チップに搭載してなる、 画像処理デバイス。
8. A data capturing unit that captures the image data from each of a plurality of image data generating units that generate image data including a depth distance from a specific portion and color information of a three-dimensional image to be processed. A plurality of image data, in order to be able to specify in the order of the depth distance included in each of them, and to express the color information of the image data having a relatively long depth distance and at least the surface portion overlapping with the color information on the upper surface of the image. An image processing device comprising: a semiconductor chip mounted with a color information mixing means for mixing color information of image data.
【請求項9】 前記複数の画像データ生成手段からの画
像データの取込タイミングを自デバイスにおける画像処
理タイミングに同期させる同期手段をさらに搭載してな
る、 請求項8記載の画像処理デバイス。
9. The image processing device according to claim 8, further comprising a synchronizing unit for synchronizing the timing of acquiring the image data from the plurality of image data generating units with the image processing timing of the own device.
【請求項10】 処理対象となる三次元画像の色情報を
含む画像データを蓄えるフレームバッファと、 前記画像データ毎の特定部位からの奥行き距離を蓄える
zバッファと、 自己を含む複数のデバイスから前記画像データを、その
各々に含まれる奥行き距離の順に特定可能にするととも
に、奥行き距離が相対的に長い画像データの色情報と少
なくともそれに重なりあう面部を当該画像の上面に表現
するための画像データの色情報とを混成させる色情報混
成手段からの通信を行う手段とを半導体チップに搭載し
てなる、 画像処理デバイス。
10. A frame buffer for storing image data including color information of a three-dimensional image to be processed, a z-buffer for storing a depth distance from a specific portion for each image data, and a plurality of devices including itself. The image data can be specified in the order of the depth distances contained in each of the image data, and the color information of the image data having a relatively long depth distance and at least the surface portion overlapping with the color information of the image data for expressing on the upper surface of the image. An image processing device comprising, on a semiconductor chip, means for performing communication from color information mixing means for mixing color information.
【請求項11】 複数の画像データ生成手段とこれらの
画像データ生成手段に接続される合成手段とを有する画
像処理システムにおいて実行される方法であって、 処理対象となる画像の特定部位からの奥行き距離及び色
情報を含む画像データを前記複数の画像データ生成手段
で生成する段階と、 前記合成手段が、前記複数の画像データ生成手段の各々
から前記画像データを所定の同期タイミングで取り込
み、取り込んだ複数の画像データを、その各々に含まれ
る奥行き距離の順に特定可能にするとともに、奥行き距
離が相対的に長い画像データの色情報とそれに重なりあ
う面部を当該画像の上面に表現するための画像データの
色情報とを混成させる段階とを含む、 画像処理方法。
11. A method executed in an image processing system having a plurality of image data generating means and a synthesizing means connected to the image data generating means, wherein a depth of the image to be processed from a specific portion is defined. Generating image data including distance and color information by the plurality of image data generating means; and the synthesizing means fetching and fetching the image data from each of the plurality of image data generating means at a predetermined synchronization timing. A plurality of image data can be specified in the order of the depth distance included in each of the image data, and the color information of the image data having a relatively long depth distance and image data for expressing the overlapping surface portion on the upper surface of the image. Mixing the color information with the color information.
【請求項12】 コンピュータを、処理対象となる三次
元画像の特定部位からの奥行き距離及び色情報を含む画
像データを生成する複数の画像データ生成手段、 前記複数の画像データ生成手段の各々から前記画像デー
タを取り込み、取り込んだ複数の画像データを、その各
々に含まれる奥行き距離の順に特定可能にするととも
に、奥行き距離が相対的に長い画像データの色情報とそ
れに重なりあう面部を当該画像の上面に表現するための
画像データの色情報とを混成させる色情報混成手段を具
備する画像処理システムとして動作させるためのコンピ
ュータプログラム。
12. A computer, comprising: a plurality of image data generating means for generating image data including a depth distance and a color information from a specific part of a three-dimensional image to be processed; The image data is fetched, and the plurality of fetched image data can be specified in the order of the depth distance included in each of the image data, and the color information of the image data having a relatively long depth distance and the surface part overlapping with the color information are displayed on the upper surface of the image. A computer program for operating as an image processing system including a color information mixing unit that mixes color information of image data to be expressed with a color information.
【請求項13】 処理対象となる三次元画像の特定部位
からの奥行き距離及び色情報を含む画像データを生成す
る複数の画像データ生成手段の各々からネットワークを
介して前記画像データを取り込むデータ取込手段と、 このデータ取込手段によって取り込まれた複数の画像デ
ータを、その各々に含まれる奥行き距離の順に特定可能
にするとともに、奥行き距離が相対的に長い画像データ
の色情報と少なくともそれに重なりあう面部を当該画像
の上面に表現するための画像データの色情報とを混成さ
せる色情報混成手段とを具備する、 画像処理システム。
13. A data fetching unit that fetches the image data from each of a plurality of image data generation units that generate image data including color depth and depth information of a three-dimensional image to be processed via a network. Means, and a plurality of image data captured by the data capturing means can be specified in the order of the depth distance included in each of the plurality of image data, and at least overlap with the color information of the image data having a relatively long depth distance. An image processing system comprising: color information mixing means for mixing color information of image data for expressing a surface portion on an upper surface of the image.
【請求項14】 処理対象となる三次元画像の特定部位
からの奥行き距離及び色情報を含む画像データを生成す
る複数の画像データ生成手段と、 この画像データ生成手段で生成された画像データを取り
込んで合成する複数の合成手段と、 前記複数の画像データ生成手段及び前記複数の合成手段
から処理に必要な画像データ生成手段及び合成手段を選
択する制御手段とがネットワークを介して接続されてお
り、 前記複数の合成手段の少なくとも一つは、 前記制御手段により選択された画像データ生成手段から
前記画像データを取り込み、取り込んだ複数の画像デー
タを、その各々に含まれる奥行き距離の順に特定可能に
するとともに、奥行き距離が相対的に長い画像データの
色情報と少なくともそれに重なりあう面部を当該画像の
上面に表現するための画像データの色情報とを混成させ
る色情報混成手段を具備する、 画像処理システム。
14. A plurality of image data generating means for generating image data including a depth distance from a specific part and color information of a three-dimensional image to be processed, and fetching image data generated by the image data generating means. A plurality of synthesizing means for synthesizing, and a control means for selecting the image data generating means and the synthesizing means necessary for processing from the plurality of image data generating means and the plurality of synthesizing means are connected via a network, At least one of the plurality of combining means captures the image data from the image data generating means selected by the control means, and enables the plurality of captured image data to be specified in the order of the depth distance included in each of the plurality of image data. At the same time, the color information of the image data with a relatively long depth distance and at least the surface part overlapping the color information are expressed on the top surface of the image. Includes color information composite unit for hybrid and color information because the image data, the image processing system.
【請求項15】 前記制御手段により選択された前記画
像データ生成手段の少なくとも一つが、前記ネットワー
クとは異なるネットワークを介して接続される他の画像
データ生成手段を備えており、前記画像データが前記他
の画像データ生成手段により生成されるように構成され
ている、 請求項14記載の画像処理システム。
15. At least one of the image data generating means selected by the control means includes another image data generating means connected via a network different from the network, and the image data is The image processing system according to claim 14, wherein the image processing system is configured to be generated by another image data generating unit.
【請求項16】 前記画像データは、取り込まれる先の
合成手段を特定するためのデータを含んで構成される、 請求項15記載の画像処理システム。
16. The image processing system according to claim 15, wherein said image data is configured to include data for specifying a synthesizing unit to be imported.
【請求項17】 前記制御手段により選択された画像デ
ータ生成手段及び合成手段を特定するためのデータを保
持するとともに、この保持したデータにより特定された
画像データ生成手段で生成された画像データを取り込
み、取り込んだ画像データを前記データによって特定さ
れた合成手段へ送出する手段をさらに備える、 請求項14記載の画像処理システム。
17. A method for storing data for specifying an image data generating unit and a synthesizing unit selected by the control unit, and fetching image data generated by the image data generating unit specified by the stored data. 15. The image processing system according to claim 14, further comprising: means for transmitting the captured image data to the synthesizing means specified by the data.
JP2001211450A 2000-07-24 2001-07-11 Image processing system, device, method, and computer program Pending JP2002109561A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001211450A JP2002109561A (en) 2000-07-24 2001-07-11 Image processing system, device, method, and computer program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000223162 2000-07-24
JP2000-223162 2000-07-24
JP2001211450A JP2002109561A (en) 2000-07-24 2001-07-11 Image processing system, device, method, and computer program

Publications (1)

Publication Number Publication Date
JP2002109561A true JP2002109561A (en) 2002-04-12

Family

ID=26596594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001211450A Pending JP2002109561A (en) 2000-07-24 2001-07-11 Image processing system, device, method, and computer program

Country Status (1)

Country Link
JP (1) JP2002109561A (en)

Similar Documents

Publication Publication Date Title
JP2002109564A (en) Image processing system, device, method, and computer program
JP4249397B2 (en) Method and apparatus for synchronizing a graphics pipeline
US6956579B1 (en) Private addressing in a multi-processor graphics processing system
JP4926947B2 (en) GPU rendering to system memory
CN1938730B (en) Register-based queuing of texture requests
EP1306810A1 (en) Triangle identification buffer
US6364770B1 (en) Image creating apparatus, displayed scene switching method for the image creating apparatus, computer-readable recording medium containing displayed scene switching program for the image creating apparatus, and video game machine
JP3504240B2 (en) Image processing system, device, method and computer program
EP1026636B1 (en) Image processing
US20030001857A1 (en) Method and apparatus for determining logical texture coordinate bindings
JP2001275199A (en) 3D sound reproduction system
JP2003323339A (en) Memory access device, semiconductor device, memory access control method, computer program and recording medium
US6563507B1 (en) Storage circuit control device and graphic computation device
JP2002109561A (en) Image processing system, device, method, and computer program
US7035982B2 (en) Data processor with a built-in memory
US6476818B1 (en) Storage circuit control device and graphic computation device
US6529191B1 (en) Data processing apparatus and data processing method
JP2000056750A (en) Image generation apparatus and image generation method
JP2002298152A (en) Image plotting method, and program used therefor
JP2000348196A (en) Three-dimensional image generation device and environment map generation method
JP3971448B2 (en) Drawing apparatus and drawing method
JP3934111B2 (en) Drawing apparatus and drawing method
JPH10124039A (en) Graphic display device
JP2000259840A (en) Method of data transfer to rendering processor, pre- rendering-processing data transfer device, system and pre-rendering-processing data generation processor
JP4661112B2 (en) Image information processing apparatus and image information processing method