JP4204525B2 - 3D image generation apparatus and 3D image generation program - Google Patents
3D image generation apparatus and 3D image generation program Download PDFInfo
- Publication number
- JP4204525B2 JP4204525B2 JP2004218625A JP2004218625A JP4204525B2 JP 4204525 B2 JP4204525 B2 JP 4204525B2 JP 2004218625 A JP2004218625 A JP 2004218625A JP 2004218625 A JP2004218625 A JP 2004218625A JP 4204525 B2 JP4204525 B2 JP 4204525B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- virtual
- gazing point
- storage means
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000013500 data storage Methods 0.000 claims description 104
- 238000000034 method Methods 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 230000033458 reproduction Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
この発明は3次元画像生成装置および3次元画像生成プログラムに関し、特にたとえば、ポリゴンデータを用いて、リアルタイムに合成されるゲームなどの仮想3次元アニメーション画像を生成し、画面表示する、3次元画像生成装置および3次元画像生成プログラムに関する。 The present invention relates to a three-dimensional image generation apparatus and a three-dimensional image generation program, and more particularly, for example, a three-dimensional image generation for generating a virtual three-dimensional animation image such as a game synthesized in real time using polygon data and displaying it on a screen. The present invention relates to an apparatus and a three-dimensional image generation program.
従来、仮想3次元空間を想定して、コンピュータグラフィックスの理論を用いて、ゲームなどのアニメーション画像をポリゴンデータ等から生成することがよく知られている。このようなアニメーション画像は、通常、創作者(クリエータ)が意図した再生手順(シーケンス)のデータに従って生成される。このため、同じアニメーションデータを使用する限りにおいては、同じ画像が毎回表示される。 Conventionally, it is well known that an animation image such as a game is generated from polygon data or the like using a computer graphics theory assuming a virtual three-dimensional space. Such an animation image is usually generated according to data of a reproduction procedure (sequence) intended by the creator (creator). For this reason, as long as the same animation data is used, the same image is displayed every time.
一方、画像の表示が毎回同じにならないよう、その映像表現のバリエーションを広げる工夫をした技術がある。特許文献1によれば、3次元空間中に存在する物体群から空間の中心(物体群を包含する直方体の重心)を定め、この中心点を基準に注視点などを定める技術が開示されている。これによって、画面上の物体に応じた最適な画像が得られる。
On the other hand, there is a technique that devised to expand the variation of the video expression so that the image display is not the same every time. According to
また、特許文献2によれば、プレイヤが操作するキャラクタ(移動体)を表示するとき、プレイヤの腕前(初級か上級か)を考慮して、移動体の種類に応じて視点制御を変更する技術が開示されている。こうすることで、初級者が選ぶであろう移動体のときには、操作し易い視点切替を選択することができ、上級者では、迫力の有る映像が得られる視点切替を選択することができる。 According to Patent Document 2, when displaying a character (moving body) operated by a player, a technique for changing viewpoint control according to the type of the moving body in consideration of the player's skill (beginner or advanced). Is disclosed. This makes it possible to select easy-to-operate viewpoint switching when the moving body will be selected by beginners, and advanced users can select viewpoint switching that provides powerful images.
さらに、特許文献3によれば、オブジェクトが移動するコースの特定ポイント毎に、異なる視点制御プログラムを選択できるように設定された技術が開示されている。これによって、コースの状況に相応しい映像が得られる。
Furthermore, according to
そして、特許文献4によれば、実際のカメラで撮影した顔画像を、仮想3次元空間内で生成されたオブジェクトで利用し、その際入力された特徴データに基づいて、相応しいアニメーションを選択して表示する技術が開示されている。
しかしながら、特許文献1に開示された技術では、仮想3次元空間中に物体が多く存在するほど処理負担が大きくなってしまう。さらには、物体を包含する直方体の重心に基づいて視点を決定するので、たとえばアニメーションの創作者(クリエータ)が意図する映像表現と一致しない画像が生成される恐れがある。
However, with the technique disclosed in
また、特許文献2に開示された技術では、あくまでプレイヤの腕前に応じて、選択されるであろう移動体毎に、異なる視点制御を行うようにしているだけであり、同じ移動体を選択したときには、同じ映像が生成されてしまい、プレイヤが映像に飽きてしまう恐れがあった。 Further, in the technique disclosed in Patent Document 2, only different viewpoint control is performed for each moving body that will be selected according to the skill of the player, and the same moving body is selected. In some cases, the same video is generated, and the player may get bored with the video.
さらに、特許文献3に開示された技術では、コースの途中で視点制御プログラムを切り替えるようにしてあるが、あくまでコースの状態とプレイ感覚に相応しい切り替えを行うだけであって、変化に富んだ映像を生成することができなかった。
Furthermore, in the technique disclosed in
そして、特許文献4に開示された技術では、オブジェクトの特徴に応じて、相応しいアニメーションが自動的に選択されるようにしてあるため、視聴者がどのようなアニメーションが表示されるのか分からないことから、期待感を持たせることはできる。しかし、一度選択されたアニメーションの映像パターンまで異ならせることはできない。つまり、変化に富んだ映像を生成することができなかった。 In the technique disclosed in Patent Document 4, since an appropriate animation is automatically selected according to the feature of the object, the viewer does not know what animation is displayed. , You can have a sense of expectation. However, it is not possible to change the video pattern of the animation once selected. In other words, it was not possible to generate a video that is rich in change.
それゆえに、この発明の主たる目的は、新規な、3次元画像生成装置および3次元画像生成プログラムすることである。 Therefore, a main object of the present invention is to provide a novel three-dimensional image generation apparatus and three-dimensional image generation program.
この発明の他の目的は、同じシーンであっても視聴者が飽きないように配慮されたアニメーションを表示できる、3次元画像生成装置および3次元画像生成プログラムを提供することである。 Another object of the present invention is to provide a three-dimensional image generation apparatus and a three-dimensional image generation program capable of displaying an animation in consideration of the viewer not getting bored even in the same scene.
この発明のその他の目的は、アニメーションの再生において、創作者の意図を反映しながら、変化に富んだ映像を生成できる、3次元画像生成装置および3次元画像生成プログラムを提供することである。 Another object of the present invention is to provide a three-dimensional image generation apparatus and a three-dimensional image generation program capable of generating an image rich in change while reflecting the intention of the creator in reproducing an animation.
請求項1の発明は、仮想3次元画像を生成する3次元画像生成装置であって、表示手段、注視点データ記憶手段、カメラ制御プログラム記憶手段、カメラ制御手段、3次元画像データ記憶手段、画像生成シーケンス記憶手段、指定データ記憶手段、仮想3次元画像生成手段、2次元画像表示制御手段、および指定データ更新手段を備える。表示手段は、画像を表示する。注視点データ記憶手段は、複数の注視点データを記憶する。カメラ制御プログラム記憶手段は、仮想3次元空間において、注視点データに基づき、当該仮想3次元空間内の視点から見たときの画像を撮影する仮想カメラを制御するための複数のカメラ制御プログラムを記憶する。カメラ制御手段は、カメラ制御プログラムに従って仮想カメラを制御する。3次元画像データ記憶手段は、仮想3次元画像を生成するための3次元画像データを記憶する。画像生成シーケンス記憶手段は、仮想3次元画像の生成タイミングを時系列で記憶する。指定データ記憶手段は、画像生成シーケンスに従って、いずれか1つの注視点データといずれか1つのカメラ制御プログラムとを、時系列で順番に複数組指定する指定データを記憶する。仮想3次元画像生成手段は、画像データ記憶手段に記憶された3次元画像データを用いて、画像生成シーケンス記憶手段に記憶された生成タイミングで、仮想3次元画像を生成する。2次元画像表示制御手段は、仮想3次元画像生成手段によって生成された仮想3次元画像を、指定データに従って視点制御された仮想カメラによって撮影し、撮影された画像を表示手段に表示する。そして、指定データ更新手段は、画像生成シーケンスを繰り返す毎に、指定データ記憶手段の内容をランダムに更新する。
The invention of
請求項1の発明では、3次元画像生成装置(11:実施例で相当する参照符号。以下、同じ。)は画像を表示する表示手段(14)を備えている。注視点データ記憶手段(11b)は、注視点データを記憶する。また、カメラ制御プログラム記憶手段(11b)は、仮想3次元空間において、注視点データに基づき、当該仮想3次元空間内の視点から見たときの画像を撮影する仮想カメラを制御するための複数のカメラ制御プログラムを記憶する。カメラ制御手段(11a,S29,S37,S45)は、カメラ制御プログラムに従って仮想カメラを制御する。3次元画像データ記憶手段(11b)は、仮想3次元画像を生成するための3次元画像データを記憶する。画像生成シーケンス記憶手段(11b)は、仮想3次元画像の生成タイミングを時系列で記憶する。指定データ記憶手段(11b)は、画像生成シーケンスに従って、いずれか1つの注視点データといずれか1つのカメラ制御プログラムとを、時系列で順番に複数組指定する指定データを記憶する。仮想3次元画像生成手段(11a)は、画像データ記憶手段(11b)に記憶された3次元画像データを用いて、画像生成シーケンス記憶手段(11b)に記憶された生成タイミングで、仮想3次元画像を生成する。2次元画像表示制御手段(11a)は、仮想3次元画像生成手段(11a)によって生成された仮想3次元画像を、指定データに従って視点制御された仮想カメラによって撮影し、撮影された画像を表示手段(14)に表示する。指定データ更新手段(11a,S49)は、画像生成シーケンスを繰り返す毎に(S47で“YES”)、指定データ記憶手段(11b)の内容をランダムに更新する。 According to the first aspect of the present invention, the three-dimensional image generation apparatus (11: reference numeral corresponding to the embodiment; hereinafter the same) includes a display means (14) for displaying an image. The gazing point data storage means (11b) stores gazing point data. The camera control program storage means (11b) controls a plurality of virtual cameras for capturing an image when viewed from a viewpoint in the virtual three-dimensional space based on the gazing point data in the virtual three-dimensional space. Stores the camera control program. The camera control means (11a, S29, S37, S45) controls the virtual camera according to the camera control program. The three-dimensional image data storage means (11b) stores three-dimensional image data for generating a virtual three-dimensional image. The image generation sequence storage means (11b) stores the generation timing of the virtual three-dimensional image in time series. The designation data storage means (11b) stores designation data for designating a plurality of sets of any one gazing point data and any one camera control program in time series in accordance with the image generation sequence. The virtual three-dimensional image generation means (11a) uses the three-dimensional image data stored in the image data storage means (11b) and generates the virtual three-dimensional image at the generation timing stored in the image generation sequence storage means (11b). Is generated. The two-dimensional image display control means (11a) captures the virtual three-dimensional image generated by the virtual three-dimensional image generation means (11a) with a virtual camera whose viewpoint is controlled according to the designated data, and displays the captured image. Displayed in (14). The designated data update means (11a, S49) updates the contents of the designated data storage means (11b) at random each time the image generation sequence is repeated (“YES” in S47).
請求項1の発明によれば、画像生成シーケンスを繰り返す毎に指定データ記憶手段の内容をランダムに更新するので、再生回数が異なれば、同じ画面切替のタイミングであっても、同じ注視点データや同じカメラ制御プログラムが選択されるのを回避することができる。つまり、変化に富んだアニメーションの画像を表示することができるので、視聴者が映像に飽きてしまうことがない。 According to the first aspect of the present invention, the contents of the designated data storage means are updated randomly each time the image generation sequence is repeated. Therefore, if the number of times of reproduction is different, the same gaze point data or It is possible to avoid selecting the same camera control program. In other words, since a variety of animated images can be displayed, the viewer does not get bored with the video.
請求項2の発明は請求項1に従属し、指定データ記憶手段は、複数の注視点データをそれぞれ示す注視点指示データを、所望のグループ毎に記憶した注視点グループデータ記憶手段を含み、指定データ更新手段は、注視点グループデータ記憶手段にグループ毎に記憶された注視点指示データを、各グループ内でランダムに並べ替える。
The invention of claim 2 is dependent on
請求項2の発明では、注視点グループ記憶手段(11b)は、複数の注視点データをそれぞれ示す注視点指示データを、所望のグループ毎に記憶する。指定データ更新手段(11a,S49)は、注視点グループデータ記憶手段(11b)に記憶された注視点指示データを、各グループ内でランダムに並べ替える。 In the invention of claim 2, the gazing point group storage means (11b) stores gazing point instruction data each indicating a plurality of gazing point data for each desired group. The designated data updating means (11a, S49) rearranges the gazing point instruction data stored in the gazing point group data storage means (11b) at random within each group.
請求項2の発明によれば、たとえば、3次元画像生成プログラムの開発者や創作者の意図に従って注視点指示データをグループ化しておけば、各グループ内でランダムに注視点指示データを並べ替えた場合であっても、その意図を反映しながら、アニメーションの画像を変化させることができる。 According to the invention of claim 2, for example, if the gaze point instruction data is grouped according to the intention of the developer or creator of the three-dimensional image generation program, the gaze point direction data is rearranged randomly in each group. Even in this case, the animation image can be changed while reflecting the intention.
請求項3の発明は請求項1または請求項2に従属し、指定データ記憶手段は、複数のカメラ制御プログラムのそれぞれを示すカメラ制御指示データを、所望のグループ毎に記憶したカメラ制御グループデータ記憶手段を含み、指定データ更新手段は、カメラ制御グループデータ記憶手段にグループ毎に記憶されたカメラ制御指示データを、各グループ内でランダムに並べ替える。
The invention of
請求項3の発明では、カメラ制御グループデータ記憶手段(11b)は、複数のカメラ制御プログラムのそれぞれを示すカメラ制御指示データを、所望のグループ毎に記憶する。指定データ更新手段(11a,S49)は、カメラ制御グループデータ記憶手段(11b)にグループ毎に記憶されたカメラ制御指示データを、各グループ内でランダムに並べ替える。
In the invention of
請求項3の発明によれば、たとえば、3次元画像生成プログラムの開発者や創作者の意図に従ってカメラ制御指示データをグループ化しておけば、各グループ内でランダムにカメラ制御指示データを並べ替えた場合であっても、その意図を反映しながら、アニメーションの画像を変化させることができる。
According to the invention of
請求項4の発明は請求項1ないし3のいずれかに従属し、画像データ記憶手段は、複数のポリゴンから成る1または複数のオブジェクトを生成するためのオブジェクトデータを記憶し、注視点データは、オブジェクトの仮想3次元空間上の配置位置に基づいて設定される、請求項1ないし3のいずれかに記載の3次元画像生成装置。
The invention of claim 4 is dependent on any one of
請求項4の発明では、画像データ記憶手段(11b)は、複数のポリゴンから成る1または複数のオブジェクトを生成するためのオブジェクトデータを記憶する。注視点データは、オブジェクトの仮想3次元空間上の配置位置に基づいて設定される。たとえば、オブジェクトの配置位置を当該オブジェクトの足元の位置に設定しておき、注視点を当該オブジェクトの頭部(顔)の中心位置に設定することが可能である。 In the invention of claim 4, the image data storage means (11b) stores object data for generating one or a plurality of objects composed of a plurality of polygons. The gaze point data is set based on the arrangement position of the object in the virtual three-dimensional space. For example, it is possible to set the arrangement position of the object at the position of the foot of the object and set the gazing point at the center position of the head (face) of the object.
請求項4の発明によれば、オブジェクトの配置位置に基づいて注視点が設定されるので、アニメーションの創作者の意図を反映し易くすることができる。 According to the fourth aspect of the present invention, since the gazing point is set based on the arrangement position of the object, it is possible to easily reflect the intention of the creator of the animation.
請求項5の発明は、画像を表示する表示手段と、複数の注視点データを記憶した注視点データ記憶手段と、仮想カメラを制御するための複数のカメラ制御プログラムを記憶したカメラ制御プログラム記憶手段と、仮想3次元画像の生成タイミングを時系列で記憶した画像生成シーケンス記憶手段と、画像生成シーケンスに従っていずれか1つの注視点データといずれか1つのカメラ制御プログラムとを時系列で順番に複数組指定する指定データを記憶した指定データ記憶手段と、仮想3次元画像を生成するための3次元画像データを記憶した画像データ記憶手段とを備えた3次元画像生成装置の3次元画像生成プログラムである。この3次元画像生成プログラムは、3次元画像生成装置のプロセサに、カメラ制御ステップ、3次元画像生成ステップ、2次元画像表示制御ステップ、および指定データ更新ステップを実行させる。カメラ制御ステップは、仮想3次元空間において、注視点データに基づき、カメラ制御プログラムに従って仮想カメラを制御する。仮想3次元画像生成ステップは、画像データ記憶手段に記憶された3次元画像データを用いて、画像生成シーケンス記憶手段に記憶された生成タイミングで、仮想3次元画像を生成する。2次元画像表示制御ステップは、仮想3次元画像生成ステップによって生成された仮想3次元画像を、指定データに従って視点制御された仮想カメラによって撮影し、撮影された画像を表示手段に表示する。そして、指定データ更新ステップは、画像生成シーケンスを繰り返す毎に、指定データ記憶手段の内容をランダムに更新する。
The invention of
請求項5の発明においても、請求項1の発明と同様に、変化に富んだアニメーションの画像を表示することができる。
In the invention of
この発明によれば、画面切替制御の内容を、アニメーションの再生の度に変化させるので、毎回同じアニメーションが生成されることが無い。つまり、変化に富んだ映像を生成でき、視聴者が飽きるのを防止することができる。 According to the present invention, since the contents of the screen switching control are changed every time the animation is reproduced, the same animation is not generated every time. That is, it is possible to generate a video that is rich in change, and to prevent the viewer from getting bored.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例の画像処理システム10は、コントローラ12が接続された据置型ゲーム装置11を含む。この据置型ゲーム装置11は、3次元画像生成装置(後述するCRT14を含む。)および3次元画像生成プログラムを備えている。据置型ゲーム装置11にはコントローラ12が接続される。このコントローラ12は、操作スイッチ12aおよびジョイスティック12bを備える。操作スイッチ12aは、主にメニュー選択画面での決定操作に使用される。ジョイスティック12bは、主にメニュー選択画面での方向指示操作や選択項目の変更操作に使用される。
Referring to FIG. 1, an
据置型ゲーム装置11を3次元画像生成装置として機能させるためのプログラムすなわち3次元画像生成プログラムは、ディスク型のROMのような外部記憶媒体13から供給(ロード)される。据置型ゲーム装置11には、CRT(モニタ)14が接続される。CRT14は典型的にはテレビモニタであり、このCRT14には上述の3次元画像生成プログラムの処理によって作成される3次元画像(キャラクタ画像を含む。)が表示される。たとえば、操作者は、CRT14に表示される3次元画像を見ながら、コントローラ12を操作してキャラクタ画像の形状を変更することができる。また、CRT14にはスピーカ14aが設けられ、このスピーカ14aからは、キャラクタ画像に関連するキャラクタ音声、ゲーム音楽(BGM)などのゲームに必要な音が出力される。
A program for causing the
なお、据置型ゲーム装置11には、メモリカードのような外部データ記憶媒体15が接続されてもよい。キャラクタ生成処理の途中経過(途中データ)を外部データ記憶媒体15に記憶させれば、キャラクタ生成処理の一時的な中断が可能となる。また、キャラクタ生成処理の結果(結果データ)を外部データ記憶媒体15に記憶されることもできる。
Note that an external
画像処理システム10は、撮像装置として機能する携帯型ゲーム装置20を含む。携帯型ゲーム装置20は、携帯型ゲーム装置本体21と撮像カートリッジ22とを含む。携帯型ゲーム装置本体21は、操作スイッチ21aを有する。被写体を撮影するとき、操作者は、操作スイッチ21aをシャッタボタンとして使用する。携帯型ゲーム装置20はまた、LCDモニタ21bを備える。LCDモニタ21bは、携帯型ゲーム装置本体21で処理されたプログラムの結果を画像として表示する。
The
撮像カートリッジ22には、撮像ユニット22aが設けられる。撮像カートリッジ22のROM22b(図2参照)には、携帯型ゲーム装置本体21を撮像装置として機能させるためのプログラムおよびデータが記憶されている。撮像ユニット22aによって撮影された画像データは、撮像カートリッジ22のバックアップRAM(またはフラッシュメモリ)22c(図2参照)に記憶される。携帯型ゲーム装置20は、接続ケーブル16を介して据置型ゲーム装置11に接続される。バックアップRAM22cに記憶された画像データは、据え置き型ゲーム装置11で使用することができる。
The
図2は、画像処理システム10の電気的な構成を示すブロック図である。据置型ゲーム装置11は、その全体制御を司るCPU11aを内蔵している。このCPU11aには、RAM11bが接続される。RAM11bには、CPU11aによって処理されるプログラムやデータが一時的に記憶される。
FIG. 2 is a block diagram showing an electrical configuration of the
CPU11aにはまた、画像処理ユニット11cおよび音声処理ユニット11gがさらに接続されている。画像処理ユニット11cは、CPU11aからの指示に基づいて、RAM11bに記憶された画像データを処理する。画像処理ユニット11cによって生成された画像データは、ビデオエンコーダ11dを介してCRT14から出力される。音声処理ユニット11gは、CPU11aからの指示に基づいて、RAM11bに記憶された音声データを処理する。音声処理ユニット11cによって生成された音声データは、CRT14に設けられるスピーカ14aから出力される。
An
CPU11aにはさらに、インタフェース11eが接続される。インタフェース11eは、RAM11bにも接続される。コントローラ12は、インタフェース11eを介してCPU11aに接続される。インタフェース11eにはまた、ディスクドライブユニット11fが接続される。外部記憶媒体13のデータは、CPU11aの指示に基づいて、ディスクドライブユニット11fによって読み取られる。読み取られたデータは、RAM11bに転送される。プログラム処理によって得られたデータを保存するとき、このデータは、RAM11bから読み出され、インタフェース11eを介して外部データ記憶媒体(たとえばメモリカード)15に転送される。
An interface 11e is further connected to the CPU 11a. The interface 11e is also connected to the RAM 11b. The
携帯型ゲーム装置本体21は、CPU21cを内蔵する。CPU21cは、RAM21dと接続される。RAM21dには、CPU21cのプログラム処理によって得られたデータが一時的に記憶される。画像処理ユニット21eは、CPU21cおよびRAM21dと接続される。画像処理ユニット21eは、CPU21cの指示に基づいて、RAM21dに一時記憶された画像データを処理し、処理された画像データをVRAM21fに格納する。VRAM21fに格納された画像データは、LCDドライバ21gを介してLCDモニタ21bから出力される。
The portable
撮像カートリッジ22は、コネクタを介して携帯型ゲーム装置本体21に着脱可能とされる。また、撮像カートリッジ22は、上述の撮像ユニット22a,ROM22bおよびバックアップRAM22c、並びに、携帯型ゲーム装置本体21と接続するためのインタフェース22dを備える。
The
携帯型ゲーム装置本体21のCPU21cは、インタフェース21hを介して、撮像カートリッジ22にアクセスする。すなわち、CPU21cは、ROM22bに記憶されたプログラムおよびデータに基づいて、撮像ユニット22aを駆動し、かつ所定の処理によって撮像データを生成する。なお、生成された撮像データをバックアップメモリ22cに保存するようにすれば、この画像データを他の携帯型ゲーム装置で使用することができる。
The
たとえば、操作者が操作スイッチ21aを操作すると、撮像ユニット22aによって撮影された被写体の画像データ(たとえば、顔画像データ)に所定の処理が施され、処理後の画像データがバックアップRAM22cに格納される。この画像データは、キャラクタ画像の顔部分に貼り付けるためのテクスチャデータとして用いることができる。また、操作者が操作スイッチ21aを操作することのより、被写体の特徴、この実施例では、“性別”,“体型”,“性格”および“年齢”が決定され、これに対応するデータ(被写体特徴データ)が画像データに関連づけてRAM22cに格納される。こうして得られた画像データ(顔画像データ)および被写体特徴データは、操作者が操作スイッチ21aを操作することにより、接続ケーブル16を介して据置型ゲーム装置11に送信することができる。
For example, when the operator operates the
図3は据置型ゲーム装置11に設けられたRAM11bのメモリマップ30である。この図3を参照して分かるように、RAM11bは、プログラム記憶領域32およびデータ記憶領域34に区分される。プログラム記憶領域32は、3次元画像生成プログラム(32a〜32g)および3次元画像表示プログラム(32h)を記憶する。3次元画像生成プログラムは、オブジェクト生成プログラム32a、アニメーション選択プログラム32b、カメラ処理プログラム32c、カメラ制御プログラム32d、画面切替制御プログラム32e、2次元画像生成プログラム32fおよび画面切替データ更新プログラム32gによって構成される。
FIG. 3 is a
オブジェクト生成プログラム32aは、オブジェクト画像データ(図4参照)を用いて、仮想3次元空間内に存在するオブジェクトを生成するためのプログラムである。アニメーション選択プログラム32bは、予め用意されているアニメーションデータ(図4参照)を選択するためのプログラムである。カメラ処理プログラム32cは、アニメーションデータに含まれる画面切替タイミングで、当該画面切替タイミングに対応して記憶されたカメラパターンの識別情報を読み出し、読み出した識別情報が示すカメラパターンに設定される注視点情報およびカメラ制御情報が示す注視点およびカメラ動作プログラムに従って仮想カメラ(図示せず)を制御(視点制御)するように、カメラ制御プログラム32dを設定する。
The
ここで、注視点情報は、仮想カメラが撮影すべき被写体すなわち3次元仮想空間に存在するオブジェクトの注視点を示す指定データが記憶された記憶領域を示すポインタであり、カメラ制御情報は、カメラ動作プログラムを示す指定データが記憶された記憶領域を示すポインタである。なお、注視点およびカメラ動作プログラムについては、後で詳細に説明する。 Here, the gazing point information is a pointer indicating a storage area in which designation data indicating a gazing point of a subject to be photographed by the virtual camera, that is, an object existing in the three-dimensional virtual space is stored, and the camera control information is a camera operation. It is a pointer indicating a storage area in which designation data indicating a program is stored. Note that the gaze point and the camera operation program will be described later in detail.
カメラ制御プログラム32dは、カメラ処理プログラム32cで設定された注視点およびカメラ制御に従ってカメラ動作(仮想カメラの動作)を制御するためのプログラムである。この実施例では、カメラ制御プログラム32dは、第1カメラ動作プログラム322,第2カメラ動作プログラム324,…によって構成される。ここで、カメラ動作プログラムは、仮想カメラの動作を制御するためのプログラムであり、仮想カメラの向き、ズーム(ズームイン/ズームアウト)および回転(左回転、右回転)の少なくとも1つを制御するためのプログラムである。したがって、カメラ制御プログラム32dは、カメラ処理プログラム32cで設定されたカメラ動作プログラムに従う動作で、同じくカメラ処理プログラム32cで設定された注視点に仮想カメラが向くように、仮想カメラの視点制御を行うのである。
The
画面切替制御プログラム32eは、アニメーション選択プログラム32bによって選択されたアニメーションデータに含まれる画面切替タイミング(切替制御位置)で、画面切替データ(図4参照)に従って画像を切り替えるためのプログラムである。2次元画像生成プログラム32fは、3次元仮想空間を視点から見た3次元画像を2次元画像に変換(投影変換)するためのプログラムである。つまり、3次元仮想空間を仮想カメラで撮影した画像を生成するためのプログラムである。
The screen
画面切替データ更新プログラム32gは、アニメーションデータに従うアニメーションの表示が終了し、当該アニメーションの表示を繰り返すときに、画面切替データ記憶領域48の内容、すなわち当該画面切替データ記憶領域48に含まれる注視点指示データ記憶領域48a(図4参照)およびカメラ制御指示データ記憶領域48b(図4参照)の内容を、ランダムに更新するためのプログラムである。具体的には、注視点指示データ記憶領域48a内にグループ毎に記憶された注視点データの識別情報を、各グループ内でランダムに並べ替えるとともに、カメラ制御指示データ記憶領域48b内にグループ毎に記憶されたカメラ動作プログラムの識別情報を、各グループ内でランダムに並べ替える。画像表示プログラム32hは、2次元画像生成プログラム32fに従って生成された2次元画像をCRT14に表示するためのプログラムである。
When the display of the animation according to the animation data ends and the display of the animation is repeated, the screen switching
図4は図3に示したデータ記憶領域34の具体的な内容を示す図解図である。この図4を参照して、データ記憶領域34は、注視点データ記憶領域40、オブジェクト画像データ記憶領域42、アニメーションシーケンスデータ記憶領域44、カメラパターンデータ記憶領域46、画面切替データ記憶領域48およびその他のデータ記憶領域50によって構成される。
FIG. 4 is an illustrative view showing specific contents of the
注視点データ記憶領域40は、第1注視点データ40a、第2注視点データ40b、…を記憶する。これらの注視点データは、たとえば、3次元仮想空間に存在する人物キャラクタやアニメキャラクタ等のキャラクタ(オブジェクト)であり、所望のオブジェクトに対して所望の位置に設定される注視点についての座標(3次元座標)のデータ(以下、「座標データ」という。)である。
The gazing point data storage area 40 stores first gazing
たとえば、注視点はキャラクタ(オブジェクト)の頭部に設定することができるが、これに限定される必要はなく、オブジェクト毎に異なる位置に設定することも可能である。また、注視点は、所望のオブジェクトに1つだけ設定されるものではなく、たとえば一人の人物(オブジェクト)について、頭部、胴部および左腕、右腕などに別々の注視点データを設定してもよい。 For example, the gaze point can be set at the head of a character (object), but is not limited to this, and can be set at a different position for each object. In addition, only one gaze point is not set for a desired object. For example, for one person (object), different gaze point data may be set for the head, torso, left arm, right arm, and the like. Good.
オブジェクト画像データ記憶領域42には、第1オブジェクトデータ42a、第2オブジェクトデータ42b、…が記憶される。各オブジェクトデータは、当該オブジェクトの画像を生成するためのポリゴンデータおよびテクスチャデータを含む。たとえば、第1オブジェクトデータ42aは、ポリゴンデータ420およびテクスチャデータ422によって構成される。また、第2オブジェクトデータ42bは、ポリゴンデータ424およびテクスチャデータ426によって構成される。ただし、各ポリゴンデータは複数のポリゴンについてのデータであり、また、各テクスチャデータは複数のテクスチャについてのデータである。
The object image data storage area 42 stores first object
アニメーションシーケンスデータ記憶領域44には、第1アニメーションデータ44a、第2アニメーションデータ44b、…が記憶される。アニメーションデータは、3次元空間に存在するオブジェクトのそれぞれに、3次元画像生成プログラムの開発者や創作者の意図した動作をさせるためのデータである。たとえば、ライブ会場を想定した3次元仮想空間において、1または複数のオブジェクトに楽器を演奏させたり、歌を歌わせたりするような動作をさせることができる。また、公園を想定した3次元仮想空間において、1または複数のオブジェクトに遊具(ブランコ、鉄棒、すべり台など)で遊ばせたり、複数のオブジェクが集まって鬼ごっこをしたりするような動作をさせることもできる。つまり、アニメーションデータは、1または複数のオブジェクトについてのアニメーションを実行するためのデータである。また、アニメーションデータには、画面を生成する(切り替える)ためのタイミングを指定する画面切替タイミングが記憶されており、この画面切替タイミングとしては、上述したように、カメラパターンデータ(パターンデータ)の識別情報(ラベル)が記憶される。
The animation sequence data storage area 44 stores
カメラパターンデータ記憶領域46は、パターンαデータ46a、パターンβデータ46b、…などを記憶する。パターンデータは、画面切替データ記憶領域48に含まれる注視点データおよびカメラ制御プログラムを指定するためのポインタであり、固定的に決定されている。このパターンデータの識別情報(ラベル)が、上述したアニメーションデータの画面切替タイミングに対応して記憶(記録)されている。したがって、画面切替タイミングで、当該画面切替タイミングに対応するパターンデータが示す注視点データおよびカメラ制御プログラムが読み出され、これに従って仮想カメラが制御される。詳しく説明すると、パターンデータに含まれるポインタが示すアドレスに記憶された注視点データの識別情報およびカメラ動作プログラムの識別情報が後述する画面切替データ記憶領域48から読み出され、各識別情報が示す注視点データおよびカメラ動作プログラムが設定される。仮想カメラは、設定されたカメラ動作プログラムに従ってその動作を制御されるとともに、設定された注視点データが示す注視点を向くように制御される。このようにして、仮想カメラの動作が制御(視点制御)されるのである。 The camera pattern data storage area 46 stores pattern α data 46a, pattern β data 46b,. The pattern data is a pointer for designating gaze point data and a camera control program included in the screen switching data storage area 48, and is fixedly determined. The identification information (label) of the pattern data is stored (recorded) corresponding to the above-described animation data screen switching timing. Therefore, at the screen switching timing, the gazing point data and the camera control program indicated by the pattern data corresponding to the screen switching timing are read out, and the virtual camera is controlled accordingly. More specifically, the identification information of the gazing point data and the identification information of the camera operation program stored at the address indicated by the pointer included in the pattern data are read out from the screen switching data storage area 48 described later, and the identification information indicated by each identification information is indicated. The viewpoint data and camera operation program are set. The operation of the virtual camera is controlled according to the set camera operation program, and is controlled so as to face the gazing point indicated by the set gazing point data. In this way, the operation of the virtual camera is controlled (viewpoint control).
画面切替データ記憶領域48は、画面生成または画面切替のためのデータ(画面切替データ)を記憶する領域であり、さらに、注視点指示データ記憶領域48aおよびカメラ制御指示データ記憶領域48bが設けられる。注視点データ記憶領域48aは注視点データを指定(指示)するための識別情報を記憶し、カメラ制御プログラム記憶領域48bはカメラ動作プログラムを指定(指示)するための識別情報を記憶する。この実施例では、注視点データの識別情報およびカメラ動作プログラムの識別情報は、それぞれ、複数用意されており、画像生成プログラムの開発者ないし創作者の意図する集まりでグループ分けされている。
The screen switching data storage area 48 is an area for storing data for screen generation or screen switching (screen switching data), and further includes a gaze point instruction
なお、図4においては、説明の都合上、識別情報として、オブジェクト名およびカメラ動作プログラムの名称を記載してある。 In FIG. 4, the object name and the name of the camera operation program are described as identification information for convenience of explanation.
たとえば、注視点指示データ記憶領域48aでは、グループAとして、ポインタPA−1が示すアドレスに第1オブジェクト(たとえば、第1注視点データ)の識別情報が記憶され、ポインタPA−2が示すアドレスに第4オブジェクト(たとえば、第4注視点データであり、図4では省略してある。)の識別情報などが記憶される。また、同じく注視点指示データ記憶領域48aでは、グループBとして、ポインタPB−1が示すアドレスに第nオブジェクト(たとえば、第n注視点データであり、図4では省略してある。)の識別情報が記憶され、ポインタPB−2が示すアドレスに第2オブジェクト(たとえば、第2注視点データ)の識別情報が記憶される。
For example, in the gazing point instruction
なお、図4で各グループ内に複数の指示データを記載しているが、グループ内の指示データは1つでもよく(この場合は、毎回同じ指示データが選択される)、一方、指示データが増えれば増えるほど、並べ替えられる指示データの要素が増加するので、より多くのランダムなアニメーションを表示することができるようになる。 Although a plurality of instruction data is described in each group in FIG. 4, the instruction data in the group may be one (in this case, the same instruction data is selected every time), while the instruction data is As the number increases, the elements of the instruction data to be rearranged increase, so that more random animations can be displayed.
また、カメラ制御指示データ記憶領域48bでは、グループAとして、ポインタCA−1が示すアドレスに第1カメラ動作プログラムの識別情報が記憶され、ポインタCA−2が示すアドレスに第2カメラ動作プログラムの識別情報が記憶される。また、同じくカメラ制御指示データ記憶領域48bでは、グループBとして、ポインタCB−1が示すアドレスに第nカメラ動作プログラム(図3では省略した。)の識別情報が記憶され、ポインタCB−2が示すアドレスに第5カメラ動作プログラム(図3では省略した。)の識別情報などが記憶される。 In the camera control instruction data storage area 48b, as group A, the identification information of the first camera operation program is stored at the address indicated by the pointer CA-1, and the second camera operation program is identified at the address indicated by the pointer CA-2. Information is stored. Similarly, in the camera control instruction data storage area 48b, as group B, identification information of the nth camera operation program (omitted in FIG. 3) is stored at the address indicated by the pointer CB-1, and indicated by the pointer CB-2. Identification information of the fifth camera operation program (omitted in FIG. 3) is stored in the address.
なお、カメラ動作プログラムの識別情報も、注視点データの識別情報と同様に、各グループ内に少なくとも2つ以上記憶される。 Note that at least two or more identification information of the camera operation program is stored in each group, similarly to the identification information of the gazing point data.
その他のデータ記憶領域50は、画像生成プログラムおよび画像表示プログラムの実行により発生するデータやフラグを一時記憶する等に用いられる領域である。 The other data storage area 50 is an area used for temporarily storing data and flags generated by the execution of the image generation program and the image display program.
図5はCRT14に表示される画面(アニメーション画像)の一例を示す図解図である。この図5では、CRT14の画面中央に存在する人物A(たとえば、第1オブジェクト)の顔が、その左右に存在する人物B(たとえば、第2オブジェクト)および人物C(たとえば、第3オブジェクト)の顔よりも大きく表示されている。このような画面を表示する場合には、たとえば、注視点は人物Aすなわち第1オブジェクトである。また、このような場合には、図6に示すように、仮想3次元空間内に第1オブジェクト〜第3オブジェクトが配置されている。この図6に示すような状態では、第1オブジェクトは、第2オブジェクトおよび第3オブジェクトよりも仮想カメラに近い位置に配置されている。また、仮想カメラが、点線で示す位置から実線で示す位置に、所定の角度だけ左回転したとする。したがって、この場合には、画面切替タイミングにおいては、カメラパターンデータに従って、第1オブジェクトの注視点データが選択され、仮想カメラを左回転させるカメラ動作プログラムが選択されたことが分かる。
FIG. 5 is an illustrative view showing one example of a screen (animation image) displayed on the
なお、図5においては、動画像を表示することができないため、図6に示したように、仮想カメラが動作した後の画面を示してある。 In FIG. 5, since a moving image cannot be displayed, the screen after the virtual camera is operated is shown as shown in FIG.
図7は図4に示した画面切替データ記憶領域48(画面切替データ)の具体例を示す図解図であり、図8は図7に示す画面切替データに基づいて、或るアニメーションデータに従う時系列(画像生成のシーケンス)に対するCRT14の画面表示の変化(切替)を説明するための図解図である。
7 is an illustrative view showing a specific example of the screen switching data storage area 48 (screen switching data) shown in FIG. 4, and FIG. 8 is a time series according to certain animation data based on the screen switching data shown in FIG. FIG. 10 is an illustrative view for explaining change (switching) of the screen display of the
図8に示すように、切替制御位置αには、カメラパターンα(パターンα)のラベルが記憶される。このカメラパターンαには、図4に示したように、注視点情報としてポインタPA−1が設定され、カメラ動作情報としてポインタCA−1が設定されている。したがって、ここでは、ポインタPA−1が示すアドレスに記憶されたオブジェクト(注視点データ)の識別情報が取得され、ポインタCA−1が示すアドレスに記憶されたカメラ動作プログラムの識別情報が取得される。 As shown in FIG. 8, the label of the camera pattern α (pattern α) is stored at the switching control position α. In this camera pattern α, as shown in FIG. 4, a pointer PA-1 is set as gazing point information, and a pointer CA-1 is set as camera operation information. Therefore, here, the identification information of the object (gaze point data) stored at the address indicated by the pointer PA-1 is acquired, and the identification information of the camera operation program stored at the address indicated by the pointer CA-1 is acquired. .
図7に示す例では、分かり易く示すために、注視点データの識別情報としては、人物オブジェクトの名称が記憶されているものとし、また、カメラ動作プログラムの識別情報としては、カメラ動作の名称が記憶されているものとしてある。したがって、カメラパターンαに従うと、図7に示すように、注視点データの識別情報として「ケイコ」が取得され、カメラ制御プログラムの識別情報として「ズームイン」が取得される。この取得された内容(注視点およびカメラ動作プログラム)に従って仮想カメラが視点制御され、図8の右上段に示すように、「ケイコ」の顔が次第に拡大された(ズームインされた)画面がCRT14に表示される。 In the example shown in FIG. 7, for easy understanding, it is assumed that the name of the person object is stored as the identification information of the gazing point data, and the name of the camera operation is the identification information of the camera operation program. It is as being memorized. Therefore, according to the camera pattern α, as shown in FIG. 7, “KEIKO” is acquired as the identification information of the gazing point data, and “ZOOM IN” is acquired as the identification information of the camera control program. In accordance with the acquired contents (gazing point and camera operation program), the viewpoint of the virtual camera is controlled, and as shown in the upper right part of FIG. Is displayed.
なお、図8においては、動画を表示することができないため、カメラ動作が制御された後の画面を示してある。以下、同様である。 In FIG. 8, since a moving image cannot be displayed, the screen after the camera operation is controlled is shown. The same applies hereinafter.
次に、図8に示す切替制御位置βには、カメラパターンβのラベルが記憶される。このカメラパターンβには、図4に示したように、注視点情報としてポインタPB−1が設定され、カメラ動作情報としてポインタCA−1が設定されている。したがって、ここでは、ポインタPB−1が示すアドレスに記憶されたオブジェクト(注視点データ)の識別情報が取得され、ポインタCA−1が示すアドレスに記憶されたカメラ動作プログラムの識別情報が取得される。したがって、カメラパターンβに従うと、図7に示すように、注視点データの識別情報として「タカシ」が取得され、カメラ動作プログラムの識別情報として「ズームイン」が取得される。この取得された内容(注視点およびカメラ動作プログラム)に従って仮想カメラが視点制御され、図8の右中段に示すように、「タカシ」の顔が次第に拡大された(ズームされた)画面がCRT14に表示される。
Next, the label of the camera pattern β is stored at the switching control position β shown in FIG. In this camera pattern β, as shown in FIG. 4, a pointer PB-1 is set as gazing point information, and a pointer CA-1 is set as camera operation information. Therefore, here, the identification information of the object (gaze point data) stored at the address indicated by the pointer PB-1 is acquired, and the identification information of the camera operation program stored at the address indicated by the pointer CA-1 is acquired. . Therefore, according to the camera pattern β, as shown in FIG. 7, “Takashi” is acquired as the identification information of the gazing point data, and “Zoom in” is acquired as the identification information of the camera operation program. In accordance with the acquired contents (gaze point and camera operation program), the viewpoint of the virtual camera is controlled, and the “Takashi” face is gradually enlarged (zoomed) on the
なお、このようにカメラパターンαとカメラパターンβにおいて、同じポインタCA−1を指定することができるので、意図的に切替制御位置において同じカメラ動作をさせたちという制作者の意図も反映させることができる。 In addition, since the same pointer CA-1 can be designated in the camera pattern α and the camera pattern β in this way, it is possible to reflect the intention of the producer to intentionally perform the same camera operation at the switching control position. it can.
さらに、図8に示す切替制御位置γでは、カメラパターンγのラベルが記憶される。このカメラパターンγには、図4では省略したが、注視点情報としてポインタPA−2が設定され、カメラ動作情報としてポインタCC−1が設定されている。したがって、ここでは、ポインタPA−2が示すアドレスに対応して記憶されたオブジェクト(注視点データ)の識別情報が取得され、ポインタCC−1が示すアドレスに記憶されたカメラ動作プログラムの識別情報が取得される。したがって、カメラパターンγに従うと、図7に示すように、注視点データの識別情報として「ノリコ」が取得され、カメラ動作プログラムの識別情報として「右回転」が取得される。この取得された内容(注視点およびカメラ動作プログラム)に従って仮想カメラが視点制御され、図8の右下段に示すように、「ノリコ」の顔を撮影しつつ、仮想カメラを右回転させた状態の画面がCRT14に表示される。
Further, at the switching control position γ shown in FIG. 8, the label of the camera pattern γ is stored. In this camera pattern γ, although omitted in FIG. 4, a pointer PA-2 is set as gazing point information, and a pointer CC-1 is set as camera operation information. Therefore, here, the identification information of the object (gaze point data) stored corresponding to the address indicated by the pointer PA-2 is acquired, and the identification information of the camera operation program stored at the address indicated by the pointer CC-1 is obtained. To be acquired. Therefore, according to the camera pattern γ, as shown in FIG. 7, “Noriko” is acquired as the identification information of the gazing point data, and “right rotation” is acquired as the identification information of the camera operation program. The viewpoint of the virtual camera is controlled according to the acquired contents (gaze point and camera operation program), and as shown in the lower right part of FIG. 8, the virtual camera is rotated to the right while photographing the face of “Noriko”. A screen is displayed on the
このようにして、アニメーションデータに従って画面表示が変化されるのであるが、カメラパターンは固定であるため、何ら手当てを施さない場合には、同じアニメーションデータに従って画面表示を繰り返すと、同じ映像が何度も表示されることになる。たとえば、このような画面表示をゲームに適用した場合には、同じ場面では同じ画像が表示されることとなり、ユーザないしプレイヤは映像に飽きてしまい、さらには、ゲーム自体への興味が減退してしまう恐れがある。 In this way, the screen display is changed according to the animation data. However, since the camera pattern is fixed, if no care is taken, the same video will be displayed many times if the screen display is repeated according to the same animation data. Will also be displayed. For example, when such a screen display is applied to a game, the same image is displayed in the same scene, the user or player gets bored with the video, and further, the interest in the game itself has declined. There is a risk.
これを回避するため、この実施例では、同じアニメーションデータに従う画面表示のシーケンスが繰り返されるとき、次のシーケンスが開始される直前に、画面切替データ記憶領域48の内容を更新するようにしてある。ただし、画面生成プログラムの開発者や創作者の意図を反映した画面表示をするために、注視点データの識別情報やカメラ動作プログラムの識別情報はグループ化されており、各グループ内でランダムに識別情報を並べ替えるようにしてある。この点で、注視点データの識別情報のグループは或る時点において表示したい所望の被写体の集まりと言え、また、カメラ動作プログラムの識別情報のグループは所望の演出に必要なカメラ動作の集まりであると言える。 In order to avoid this, in this embodiment, when the screen display sequence according to the same animation data is repeated, the contents of the screen switching data storage area 48 are updated immediately before the next sequence is started. However, in order to display the screen reflecting the intention of the developer and creator of the screen generation program, the identification information of the gazing point data and the identification information of the camera operation program are grouped and are randomly identified within each group. The information is rearranged. In this respect, the group of identification information of the gazing point data can be said to be a group of desired subjects to be displayed at a certain time, and the group of identification information of the camera operation program is a group of camera operations necessary for a desired effect. It can be said.
以下、具体的に説明することにする。図9(A)は或るアニメーションデータに従う1回目の再生(画面表示)に用いられる画面切替データ(画面切替データ記憶領域48)の例を示し、図9(B)は当該アニメーションデータに従う2回目の再生に用いられる画面切替データの例を示す。上述したように、図9(B)の画面切替データは、或るアニメーションデータに従う1回目の再生が終了した後、当該アニメーションデータに従う2回目の再生を開始するに先立って、図9(A)に示す画面切替データの内容(画面切替データ記憶領域48)を更新したものである。 A specific description will be given below. FIG. 9A shows an example of screen switching data (screen switching data storage area 48) used for the first reproduction (screen display) according to certain animation data, and FIG. 9B shows the second time according to the animation data. The example of the screen switching data used for reproduction | regeneration of this is shown. As described above, the screen switching data shown in FIG. 9B is displayed in the screen switching data shown in FIG. 9A prior to starting the second playback according to the animation data after the first playback according to the animation data is completed. The contents (screen switching data storage area 48) of the screen switching data shown in FIG.
なお、図示は省略するが、3回目以降の再生においても、再生を繰り返す直前に、画面切替データの内容を更新する点は同様である。 Although illustration is omitted, the contents of the screen switching data are also updated in the third and subsequent reproductions just before the reproduction is repeated.
図9(A)および図9(B)を参照して、注視点指示データ記憶領域48aおよびカメラ制御指示データ記憶領域48bの内容を1回目の再生と2回目の再生とで対比すると、各グループ内の識別情報が並べ替えられているのが分かる。これは、識別情報を、ランダムに並べ替えるようにしてあるためである。つまり、この実施例では、「ランダムに並べ替える」とは、前回(並べ替える前)とは必ず異なる注視点やカメラ動作プログラムが選択されるように、識別情報を並べ替えることを意味する。
Referring to FIGS. 9A and 9B, when the contents of the gazing point instruction
図9(A)に示すような画面切替データ(画面切替データ記憶領域48)を用いて画面表示(再生)を行うと、図10(A)に示すように、画面切替制御タイミングに対応するカメラパターンに従って画面表示が変化される。ただし、図9(A)に示す画面切替データは図7に示す画面切替データと同じであるため、図7および図8に示した場合と同じアニメーションデータに従って画面表示される場合には、図10(A)に示すように、図8に示した場合と同様に、画面表示が行われる。この場合の画面表示についての詳細な内容は、図7および図8を用いて既に説明したため、重複した説明は省略する。 When screen display (reproduction) is performed using the screen switching data (screen switching data storage area 48) as shown in FIG. 9A, a camera corresponding to the screen switching control timing as shown in FIG. The screen display changes according to the pattern. However, since the screen switching data shown in FIG. 9A is the same as the screen switching data shown in FIG. 7, when the screen is displayed according to the same animation data as shown in FIGS. 7 and 8, FIG. As shown in FIG. 8A, the screen display is performed as in the case shown in FIG. Since the detailed content of the screen display in this case has already been described with reference to FIGS. 7 and 8, a duplicate description is omitted.
図9(B)に示すような画面切替データを用いて再生を行うと、図10(B)に示すように、画面表示が変化される。ただし、図10(B)は2回目の再生であり、図10(A)に示す1回目の再生が終了した後に、同じアニメーションデータに従って実行される。つまり、同じアニメーションデータに従うため、切替制御位置α,β,γに対応して記憶されるカメラパターンのラベルは同じである。しかし、上述したように、画面切替データの内容が更新されているため、異なる画面(映像)が表示される。 When playback is performed using the screen switching data as shown in FIG. 9B, the screen display is changed as shown in FIG. However, FIG. 10B shows the second playback, and is executed according to the same animation data after the first playback shown in FIG. That is, in order to follow the same animation data, the labels of the camera patterns stored corresponding to the switching control positions α, β, γ are the same. However, as described above, since the content of the screen switching data is updated, a different screen (video) is displayed.
具体的には、2回目の再生では、切替制御位置αにはカメラパターンαのラベルが記憶されており、上述したように、当該カメラパターンαには、注視点情報としてポインタPA−1が設定され、カメラ動作情報としてポインタCA−1が設定されている。このカメラパターンαに従うと、図9(B)に示すように、ポインタPA−1が示すアドレスに記憶された「ノリコ」が取得され、ポインタCA−1が示すアドレスに記憶された「ズームアウト」が取得される。したがって、図10(B)の上段に示すように、「ノリコ」の顔が次第に小さくなるように、仮想カメラがズームアウトされる。 Specifically, in the second playback, the label of the camera pattern α is stored at the switching control position α, and as described above, the pointer PA-1 is set as gazing point information for the camera pattern α. The pointer CA-1 is set as camera operation information. According to this camera pattern α, as shown in FIG. 9B, “NORIKO” stored at the address indicated by the pointer PA-1 is acquired, and “ZOOM OUT” stored at the address indicated by the pointer CA-1 is acquired. Is acquired. Accordingly, as shown in the upper part of FIG. 10B, the virtual camera is zoomed out so that the face of “Noriko” becomes gradually smaller.
また、切替制御位置βにはカメラパターンβのラベルが記憶されており、上述したように、当該カメラパターンβには、注視点情報としてポインタPB−1が設定され、カメラ動作情報としてポインタCA−1が設定されている。このカメラパターンβに従うと、図9(B)に示すように、ポインタPB−1が示すアドレスに記憶された「アキラ」が取得され、ポインタCA−1が示すアドレスに記憶された「ズームアウト」が取得される。したがって、図10(B)の中段に示すように、「アキラ」の顔(全身)が次第に小さくなるように、仮想カメラがズームアウトされる。 Further, the label of the camera pattern β is stored at the switching control position β. As described above, the pointer PB-1 is set as the gazing point information and the pointer CA− is set as the camera operation information. 1 is set. According to this camera pattern β, as shown in FIG. 9B, “Akira” stored at the address indicated by the pointer PB-1 is acquired, and “Zoom out” stored at the address indicated by the pointer CA-1 is acquired. Is acquired. Therefore, as shown in the middle part of FIG. 10B, the virtual camera is zoomed out so that the face (whole body) of “Akira” gradually becomes smaller.
さらに、切替制御位置γにはカメラパターンγのラベルが記憶されており、上述したように、当該カメラパターンγには、注視点情報としてポインタPA−2が設定され、カメラ制御情報としてポインタCC−1が設定されている。このカメラパターンγに従うと、図9(B)に示すように、ポインタPA−2が示すアドレスに記憶された「ケイコ」が取得され、ポインタCC−1が示すアドレスに記憶された「左回転」が取得される。したがって、図10(B)の下段に示すように、「ケイコ」の顔を左から正面を撮影するように、仮想カメラが左回転される。 Further, the label of the camera pattern γ is stored at the switching control position γ. As described above, the pointer PA-2 is set as the gazing point information and the pointer CC− is set as the camera control information in the camera pattern γ. 1 is set. According to this camera pattern γ, as shown in FIG. 9B, “Keiko” stored at the address indicated by the pointer PA-2 is acquired, and “left rotation” stored at the address indicated by the pointer CC-1 is acquired. Is acquired. Therefore, as shown in the lower part of FIG. 10B, the virtual camera is rotated counterclockwise so that the face of “Keiko” is photographed from the left.
なお、図10(A)および図10(B)においても、動画像を表現することはできないため、カメラ制御の後の画面を示してある。 In FIGS. 10A and 10B, since a moving image cannot be expressed, a screen after camera control is shown.
このように、同じアニメーションデータに従って繰り返し画面(映像)を表示する場合であっても、回が異なる毎に、画面切替データ(画面切替データ記憶領域48)を更新するので、同じタイミングで同じ画面が表示されるのを回避することができる。ただし、上述したように、画面切替データの内容を、ランダムに並べ替えるようにしてあるため、或る画面切替のタイミングにおいては、前回と今回とで同じ画面が表示されることもあるが、映像全体としては異なるため、繰り返し再生されても、ユーザが飽きてしまうことはない。 As described above, even when the screen (video) is repeatedly displayed according to the same animation data, the screen switching data (screen switching data storage area 48) is updated every time the time is different. The display can be avoided. However, as described above, since the contents of the screen switching data are rearranged randomly, the same screen may be displayed in the previous and current times at a certain screen switching timing. Since it is different as a whole, the user will not get bored even if it is reproduced repeatedly.
具体的には、図2に示したCPU11aが図11に示すフロー図に従って画面生成・表示処理を実行する。図11を参照して、CPU11aは処理を開始すると、ステップS1で、初期設定を実行する。たとえば、メニュー画面を表示して、アニメーションデータを決定するためのシチュエーション(たとえば、ライブハウス,公園)を、ユーザに選択させたり、当該シチュエーションに登場する人物(オブジェクト)を選択させたりする。また、シチュエーションや登場人物の選択が終了した後に、アニメーション表示(画面表示)を開始するか否かを選択するためのスタートメニューを表示する。 Specifically, the CPU 11a shown in FIG. 2 executes screen generation / display processing according to the flowchart shown in FIG. Referring to FIG. 11, when starting the process, CPU 11a executes an initial setting in step S1. For example, a menu screen is displayed to allow a user to select a situation (for example, a live house or a park) for determining animation data, or to select a person (object) appearing in the situation. Further, after the selection of the situation and the characters is completed, a start menu for selecting whether to start animation display (screen display) is displayed.
次のステップS3では、アニメーション表示するかどうかを判断する。つまり、スタートメニューでアニメーション表示の開始が選択されたかどうかを判断する。アニメーション表示の開始が選択されていなければ、ステップS3で“NO”となり、そのままステップS1に戻る。しかし、アニメーション表示の開始が選択されれば、ステップS5でアニメーションを選択する。つまり、初期設定において選択されたシチュエーションに対応するアニメーションデータをRAM11bのデータ記憶領域34に設けられるアニメーションシーケンスデータ記憶領域44から選択する。
In the next step S3, it is determined whether or not to display an animation. That is, it is determined whether or not the start of animation display is selected in the start menu. If the start of animation display is not selected, “NO” is determined in the step S3, and the process returns to the step S1 as it is. However, if the start of animation display is selected, an animation is selected in step S5. That is, animation data corresponding to the situation selected in the initial setting is selected from the animation sequence data storage area 44 provided in the
続いて、ステップS7で、後述するアニメーション処理(図12および図13参照)を実行し、ステップS9で、画面生成・表示処理を終了するかどうかを判断する。つまり、このステップS9では、ユーザによってアニメーション表示の終了が指示されたかどうかを判断するのである。ステップS9で“NO”であれば、つまりアニメーション表示の終了でなければ、そのままステップS1に戻る。一方、ステップS9で“YES”であれば、つまりアニメーション表示の終了であれば、画像生成・表示処理を終了する。 Subsequently, in step S7, an animation process (see FIGS. 12 and 13), which will be described later, is executed. In step S9, it is determined whether or not to end the screen generation / display process. That is, in this step S9, it is determined whether or not the user has instructed the end of the animation display. If “NO” in the step S9, that is, if the animation display is not finished, the process returns to the step S1 as it is. On the other hand, if “YES” in the step S9, that is, if the animation display is ended, the image generation / display processing is ended.
なお、図示は省略するが、アニメーション表示が開始されると、仮想カメラで撮影される映像がCRT14に表示される。
Although illustration is omitted, when animation display is started, an image captured by the virtual camera is displayed on the
図12および図13は、図11に示したステップS7のアニメーション処理を示すフロー図である。図12に示すように、CPU11aはアニメーション処理を開始すると、ステップS21で、アニメーションの初期設定を行う。ここでは、たとえば、ユーザによって選択された登場人物の初期の配置位置を設定する。つまり、登場人物の初期の配置位置に対応する位置座標をデータ記憶領域34の注視点データ記憶領域40に記憶する。その後、各登場人物すなわち各オブジェクトの位置座標はアニメーションデータに従って更新される。
12 and 13 are flowcharts showing the animation process in step S7 shown in FIG. As shown in FIG. 12, when the CPU 11a starts the animation process, the CPU 11a performs the initial setting of the animation in step S21. Here, for example, the initial arrangement position of the character selected by the user is set. That is, the position coordinates corresponding to the initial arrangement positions of the characters are stored in the gazing point data storage area 40 of the
次のステップS23では、図11に示したステップS5で選択されたアニメーションデータを読み出す。そして、ステップS25で、切替制御位置αに対応して記憶されたラベルが示すカメラパターンαを読み出す。この実施例では、上述したように、カメラパターンαには、注視点情報としてポインタPA−1が設定され、カメラ制御情報としてポインタCA−1が設定されている(図4参照)。つまり、ステップS25では、これらのポインタを読み出すのである。以下、同様である。 In the next step S23, the animation data selected in step S5 shown in FIG. 11 is read. In step S25, the camera pattern α indicated by the label stored corresponding to the switching control position α is read out. In this embodiment, as described above, the pointer PA-1 is set as the gazing point information and the pointer CA-1 is set as the camera control information in the camera pattern α (see FIG. 4). That is, in step S25, these pointers are read out. The same applies hereinafter.
次のステップS27では、カメラパターンαが指定する注視点情報(ポインタPA−1)から実際の注視点を特定する。つまり、ポインタPA−1が示すアドレスに記憶されたオブジェクト(注視点データ)の識別情報に基づいて、注視点データ記憶領域40から当該注視点データすなわち座標データを取得する。次に、ステップS29で、カメラパターンαが指定するカメラ動作情報(ポインタCA−1)に対応するカメラ制御プログラムに従って、カメラパターンαが指定する実際の注視点に対して視点制御を行う。したがって、上述したように、1回目の再生では、「ケイコ」が次第に拡大するように、画面表示される。 In the next step S27, the actual gazing point is specified from the gazing point information (pointer PA-1) designated by the camera pattern α. That is, the gaze point data, that is, the coordinate data is acquired from the gaze point data storage area 40 based on the identification information of the object (gaze point data) stored at the address indicated by the pointer PA-1. Next, in step S29, viewpoint control is performed on the actual gazing point specified by the camera pattern α according to the camera control program corresponding to the camera operation information (pointer CA-1) specified by the camera pattern α. Therefore, as described above, in the first reproduction, the screen is displayed so that “KEIKO” is gradually enlarged.
続いて、ステップS31で、アニメーションデータを読み出し、ステップS33で、カメラパターンβを読み出す。上述したように、カメラパターンβには、注視点情報としてポインタPB−1が設定され、カメラ動作情報としてポインタCA−1が設定されており、これらのポインタが読み出される。 Subsequently, in step S31, the animation data is read out, and in step S33, the camera pattern β is read out. As described above, in the camera pattern β, the pointer PB-1 is set as the gazing point information, the pointer CA-1 is set as the camera operation information, and these pointers are read out.
次のステップS35では、カメラパターンβが指定する注視点情報(PB−1)から実際の注視点を特定する。注視点の特定は、上述のステップS27と同じであるため、重複した説明は省略する。続いて、ステップS37では、カメラパターンβが指定するカメラ動作制御情報(CA−1)に対応する実際のカメラ制御プログラムに従って、カメラパターンβが指定する実際の注視点に対して視点制御を行う。したがって、上述したように、1回目の再生では、「タカシ」の顔が次第に大きくなるように画面表示される。 In the next step S35, the actual gazing point is specified from the gazing point information (PB-1) designated by the camera pattern β. Since the gaze point is identified in the same manner as in step S27 described above, a duplicate description is omitted. Subsequently, in step S37, viewpoint control is performed on the actual gazing point specified by the camera pattern β according to the actual camera control program corresponding to the camera operation control information (CA-1) specified by the camera pattern β. Therefore, as described above, in the first playback, the “Takashi” face is displayed on the screen so that it gradually becomes larger.
図13に示すように、ステップS37に続いて、アニメーションデータを読み出し、アニメーションデータに記憶されたカメラパターンに従って視点制御を行う処理が、記憶されたカメラパターン(画面切替位置)の数(厳密には、カメラパターンの総数−3)と同じ回数だけ、上述と同様に行われる。そして、ステップS39で、アニメーションデータを読み出し、ステップS41で最終のカメラパターンを読み出す。次にステップS43で、最終のカメラパターンが指定する注視点情報から実際の注視点を特定し、ステップS45で、最終のカメラパターンが指定するカメラ動作情報に対応する実際のカメラ制御プログラムに従って、最終のカメラパターンが指定する実際の注視点に対して視点制御を行う。 As shown in FIG. 13, subsequent to step S37, the animation data is read and the viewpoint control is performed in accordance with the camera pattern stored in the animation data. The number of stored camera patterns (screen switching positions) (strictly speaking, The same number of times as the total number of camera patterns-3) is performed as described above. In step S39, animation data is read out, and in step S41, the final camera pattern is read out. Next, in step S43, the actual gazing point is specified from the gazing point information specified by the final camera pattern. In step S45, the final gazing point is determined according to the actual camera control program corresponding to the camera operation information specified by the final camera pattern. The viewpoint control is performed on the actual gazing point specified by the camera pattern.
そして、ステップS47で、アニメーションを繰り返すかどうかを判断する。つまり、当該アニメーションデータに従う画面表示を続けて行うかどうかを判断する。ここで、“NO”であれば、つまりアニメーションを繰り返さない場合には、そのままアニメーション処理をリターンする。一方、“YES”であれば、つまりアニメーションを繰り返す場合には、ステップS49で、注視点情報およびカメラ動作情報の識別情報をグループ毎にランダムに並べ替えて、図12に示したステップS21に戻る。 In step S47, it is determined whether to repeat the animation. That is, it is determined whether to continue screen display according to the animation data. Here, if “NO”, that is, if the animation is not repeated, the animation processing is returned as it is. On the other hand, if “YES”, that is, if the animation is repeated, in step S49, the identification information of the gazing point information and the camera operation information is randomly rearranged for each group, and the process returns to step S21 shown in FIG. .
なお、図示は省略したが、アニメーションデータに従って、3次元仮想空間に存在するオブジェクトの動作は制御される。また、仮想カメラで捉えた映像(画像)は、視点変換された後、2次元画像として、CRT14に表示される。したがって、視点制御により得られる画像をCRT14に表示することができるのである。
Although illustration is omitted, the operation of the object existing in the three-dimensional virtual space is controlled according to the animation data. Further, the video (image) captured by the virtual camera is displayed on the
この実施例によれば、アニメーションを繰り返す場合には、注視点情報とカメラ制御情報との画面切替データの内容を更新するので、全く同じアニメーションが表示されてしまうのを防止することができる。言い換えると、ユーザを飽きさせない画面表示が可能である。 According to this embodiment, when the animation is repeated, the contents of the screen switching data between the gazing point information and the camera control information are updated, so that the same animation can be prevented from being displayed. In other words, a screen display that does not bore the user is possible.
また、この実施例によれば、画像生成プログラムの開発者や創作者の意図でグループ化した注視点データの識別情報とカメラ動作プログラムの識別情報とを各グループ内で並べ替えるだけなので、当該開発者等の意図を反映しながら、変化に富んだ映像を生成することが可能である。 In addition, according to this embodiment, the identification information of the gazing point data and the identification information of the camera operation program grouped for the purpose of the developer or creator of the image generation program are only rearranged within each group. It is possible to generate an image rich in change while reflecting the intention of the person or the like.
さらに、この実施例によれば、オブジェクトの配置位置に基づいて注視点が設定されるので、アニメーションの創作者の意図を反映し易くすることができる。 Furthermore, according to this embodiment, since the point of gaze is set based on the arrangement position of the object, it is possible to easily reflect the intention of the creator of the animation.
なお、この実施例では、注視点データの識別情報とカメラ動作プログラムの識別情報とをグループ分けして、アニメーションデータに従う画面表示を繰り返すときに、両方の識別情報を各グループ内でランダムに並べ替えるようにしたが、いずれか一方の識別情報を並べ替えるようにしても、回が異なる毎に、異なる映像を表示することができる。 In this embodiment, the identification information of the gazing point data and the identification information of the camera operation program are grouped, and when the screen display according to the animation data is repeated, both identification information is randomly rearranged within each group. However, even if any one of the identification information is rearranged, a different video can be displayed every time the times are different.
また、この実施例では、毎回異なる注視点およびカメラ動作プログラムが選択されるようにするため、その識別情報をランダムに並べ替えるようにしたが、すべての切替制御位置において、必ずしも異なる注視点およびカメラ制御プログラムが選択されることを創作者が意図しない場合には、それらの識別情報をシャッフルするようにしてもよい。つまり、一部(或るグループ内)の識別情報の並びがシャッフルする前とシャッフルした後とで同じであってもよい。 Further, in this embodiment, in order to select a different gazing point and camera operation program each time, the identification information is rearranged at random. However, at all switching control positions, different gazing points and cameras are not necessarily arranged. If the creator does not intend to select a control program, the identification information may be shuffled. That is, the arrangement of part of identification information (within a certain group) may be the same before and after shuffling.
さらに、この実施例では、画像生成装置および画像生成プログラムを据置型ゲーム装置に適用した場合について説明したが、携帯型ゲーム装置や画像生成機能を備える他の装置(機器)に適用することも可能である。 Furthermore, in this embodiment, the case where the image generation apparatus and the image generation program are applied to a stationary game apparatus has been described, but the present invention can also be applied to a portable game apparatus or other apparatus (equipment) having an image generation function. It is.
10 …画像処理システム
11 …据置型ゲーム装置
12 …コントローラ
13 …据置型ゲーム装置用外部記憶媒体
14 …CRT
20 …携帯型ゲーム装置
21a …操作スイッチ
21b …LCDモニタ
22a …撮像ユニット
DESCRIPTION OF
20 ...
Claims (7)
画像を表示する表示手段、
複数の注視点データを記憶した注視点データ記憶手段、
仮想3次元空間において、前記注視点データに基づき、当該仮想3次元空間内の視点から見たときの画像を撮影する仮想カメラを制御するための複数のカメラ制御プログラムを記憶したカメラ制御プログラム記憶手段、
前記カメラ制御プログラムに従って前記仮想カメラを制御するカメラ制御手段、
前記仮想3次元画像を生成するための3次元画像データを記憶した3次元画像データ記憶手段、
前記仮想3次元画像の生成タイミングを時系列で記憶した画像生成シーケンス記憶手段、
前記画像生成シーケンスに従って、いずれか1つの前記注視点データといずれか1つの前記カメラ制御プログラムとを、時系列で順番に複数組指定する指定データを記憶した指定データ記憶手段、
前記画像データ記憶手段に記憶された3次元画像データを用いて、前記画像生成シーケンス記憶手段に記憶された生成タイミングで、前記仮想3次元画像を生成する仮想3次元画像生成手段、
前記仮想3次元画像生成手段によって生成された仮想3次元画像を、前記指定データに従って視点制御された前記仮想カメラによって撮影し、撮影された画像を前記表示手段に表示する2次元画像表示制御手段、および
前記画像生成シーケンスを繰り返す毎に、前記指定データ記憶手段の内容をランダムに更新する指定データ更新手段を備える、仮想3次元画像生成装置。 A three-dimensional image generation device that generates a virtual three-dimensional image,
Display means for displaying images,
Gazing point data storage means for storing a plurality of gazing point data;
Camera control program storage means for storing a plurality of camera control programs for controlling a virtual camera that captures an image when viewed from a viewpoint in the virtual three-dimensional space in the virtual three-dimensional space based on the gazing point data ,
Camera control means for controlling the virtual camera according to the camera control program;
3D image data storage means for storing 3D image data for generating the virtual 3D image;
Image generation sequence storage means for storing the generation timing of the virtual three-dimensional image in time series;
A designation data storage means for storing designation data for designating a plurality of sets of any one of the gazing point data and any one of the camera control programs in time series according to the image generation sequence;
Virtual three-dimensional image generation means for generating the virtual three-dimensional image at the generation timing stored in the image generation sequence storage means using the three-dimensional image data stored in the image data storage means;
2D image display control means for taking a virtual 3D image generated by the virtual 3D image generation means by the virtual camera whose viewpoint is controlled according to the designated data, and displaying the taken image on the display means; And a virtual three-dimensional image generation device comprising specified data update means for updating the contents of the specified data storage means at random each time the image generation sequence is repeated.
前記指定データ更新手段は、前記注視点グループデータ記憶手段にグループ毎に記憶された注視点指示データを、各グループ内でランダムに並べ替える、請求項1記載の3次元画像生成装置。 The specified data storage means includes gazing point group data storage means for storing gazing point instruction data respectively indicating a plurality of gazing point data for each desired group,
The three-dimensional image generation apparatus according to claim 1, wherein the designated data updating unit rearranges the gazing point instruction data stored for each group in the gazing point group data storage unit at random within each group.
前記指定データ更新手段は、前記カメラ制御グループデータ記憶手段にグループ毎に記憶されたカメラ制御指示データを、各グループ内でランダムに並べ替える、請求項1または2記載の3次元画像生成装置。 The designation data storage means includes camera control group data storage means for storing camera control instruction data indicating each of a plurality of camera control programs for each desired group,
3. The three-dimensional image generation apparatus according to claim 1, wherein the designated data update unit rearranges the camera control instruction data stored in each group in the camera control group data storage unit at random within each group.
前記注視点データは、前記オブジェクトの前記仮想3次元空間上の配置位置に基づいて設定される、請求項1ないし3のいずれかに記載の3次元画像生成装置。 The image data storage means stores object data for generating one or more objects composed of a plurality of polygons,
The three-dimensional image generation device according to claim 1, wherein the gazing point data is set based on an arrangement position of the object in the virtual three-dimensional space.
前記3次元画像生成装置のプロセサに、
仮想3次元空間において、前記注視点データに基づき、前記カメラ制御プログラムに従って前記仮想カメラを制御するカメラ制御ステップ、
前記画像データ記憶手段に記憶された3次元画像データを用いて、画像生成シーケンス記憶手段に記憶された生成タイミングで、仮想3次元画像を生成する仮想3次元画像生成ステップ、
前記仮想3次元画像生成ステップによって生成された仮想3次元画像を、前記指定データに従って視点制御された前記仮想カメラによって撮影し、撮影された画像を前記表示手段に表示する2次元画像表示制御ステップ、および
前記画像生成シーケンスを繰り返す毎に、前記指定データ記憶手段の内容をランダムに更新する指定データ更新ステップを実行させる、3次元画像生成プログラム。 Display means for displaying an image; gazing point data storage means for storing a plurality of gazing point data; camera control program storage means for storing a plurality of camera control programs for controlling the virtual camera; Image generation sequence storage means for storing generation timing in time series, and designation data for specifying a plurality of sets of any one of the gazing point data and any one of the camera control programs in time series in accordance with the image generation sequence A three-dimensional image generation program for a three-dimensional image generation apparatus, comprising: stored designation data storage means; and image data storage means for storing three-dimensional image data for generating a virtual three-dimensional image,
In the processor of the three-dimensional image generation device,
A camera control step of controlling the virtual camera according to the camera control program based on the gazing point data in a virtual three-dimensional space;
A virtual three-dimensional image generation step of generating a virtual three-dimensional image at a generation timing stored in the image generation sequence storage unit using the three-dimensional image data stored in the image data storage unit;
A two-dimensional image display control step of photographing the virtual three-dimensional image generated by the virtual three-dimensional image generation step by the virtual camera whose viewpoint is controlled according to the designated data, and displaying the photographed image on the display means; And a three-dimensional image generation program that executes a specified data update step of updating the contents of the specified data storage means at random each time the image generation sequence is repeated.
前記指定データ更新ステップは、前記注視点グループデータ記憶手段にグループ毎に記憶された注視点指示データを、各グループ内でランダムに並べ替える、請求項5記載の3次元画像生成プログラム。 The specified data storage means includes gazing point group data storage means for storing gazing point instruction data respectively indicating a plurality of gazing point data for each desired group,
6. The three-dimensional image generation program according to claim 5, wherein the designated data update step rearranges the gazing point instruction data stored for each group in the gazing point group data storage means at random within each group.
前記指定データ更新ステップは、前記カメラ制御グループデータ記憶手段に記憶されたカメラ制御指示データを、各グループ内でランダムに並べ替える、請求項5または6記載の3次元画像生成プログラム。 The designated data storage means further includes camera control group data storage means for storing camera control instruction data respectively indicating a plurality of virtual camera control programs for each desired group,
The three-dimensional image generation program according to claim 5 or 6, wherein the designated data update step rearranges the camera control instruction data stored in the camera control group data storage means at random within each group.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004218625A JP4204525B2 (en) | 2004-07-27 | 2004-07-27 | 3D image generation apparatus and 3D image generation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004218625A JP4204525B2 (en) | 2004-07-27 | 2004-07-27 | 3D image generation apparatus and 3D image generation program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2006039922A JP2006039922A (en) | 2006-02-09 |
| JP4204525B2 true JP4204525B2 (en) | 2009-01-07 |
Family
ID=35904859
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004218625A Expired - Lifetime JP4204525B2 (en) | 2004-07-27 | 2004-07-27 | 3D image generation apparatus and 3D image generation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4204525B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2023644A4 (en) * | 2006-04-26 | 2012-01-18 | Co Ltd Inlife-Handnet | A portable personal integrative stereoscopic video multimedia device |
-
2004
- 2004-07-27 JP JP2004218625A patent/JP4204525B2/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| JP2006039922A (en) | 2006-02-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3133299B2 (en) | Game device, moving image display method, and recording medium | |
| US6878065B2 (en) | Video game system, character action control method, and readable storage medium storing character action control program | |
| JP2002140727A (en) | Computer readable recording medium recorde with display control program, display controller and display control method | |
| JP2010214028A (en) | Program, information storage medium, image processor, image processing method, and data structure | |
| US7717780B2 (en) | Game machine and game program | |
| US20010036860A1 (en) | Character display method, information recording medium and entertainment apparatus | |
| US20070126874A1 (en) | Image processing device, image processing method, and information storage medium | |
| JP2020069317A (en) | Game program, recording medium, and game processing method | |
| JP4215891B2 (en) | Object image print service system | |
| JP2000157734A (en) | Game device, event occurrence processing, and computer- readable storage medium | |
| JP4204525B2 (en) | 3D image generation apparatus and 3D image generation program | |
| CN113893531A (en) | Game role creating method and device, storage medium and computer equipment | |
| JP2004159922A (en) | Image generation system, program, and information storage medium | |
| JP2992499B2 (en) | Image processing method and apparatus, recording medium | |
| JP4372571B2 (en) | GAME DEVICE AND GAME PROGRAM | |
| JP3084621B2 (en) | GAME MACHINE, GAME PROCESSING METHOD, AND MEDIUM | |
| JP3779717B2 (en) | GAME PROGRAM AND GAME DEVICE | |
| JP2003122473A (en) | Electronic information processing device and method, recording medium thereof, and computer program | |
| JP4447000B2 (en) | Image generation system, program, and information storage medium | |
| JP2930311B2 (en) | Video game system | |
| JP4824738B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
| JP2003024626A (en) | Voice output program, voice output method and video game device | |
| JP3964884B2 (en) | GAME PROGRAM AND GAME DEVICE | |
| JP2025091559A (en) | Information processing device, information processing method, and program | |
| JP6444950B2 (en) | Game program and game system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060628 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081014 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081014 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4204525 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111024 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121024 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131024 Year of fee payment: 5 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |