JP2000148131A - Image display method and image processing device - Google Patents
Image display method and image processing deviceInfo
- Publication number
- JP2000148131A JP2000148131A JP10323479A JP32347998A JP2000148131A JP 2000148131 A JP2000148131 A JP 2000148131A JP 10323479 A JP10323479 A JP 10323479A JP 32347998 A JP32347998 A JP 32347998A JP 2000148131 A JP2000148131 A JP 2000148131A
- Authority
- JP
- Japan
- Prior art keywords
- animation
- frames
- frame
- display
- scenario
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000012545 processing Methods 0.000 title claims description 115
- 230000002123 temporal effect Effects 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 71
- 238000013515 script Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 20
- 230000009467 reduction Effects 0.000 description 11
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 238000002156 mixing Methods 0.000 description 10
- 239000003086 colorant Substances 0.000 description 9
- 239000000203 mixture Substances 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000007906 compression Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- GJJFMKBJSRMPLA-HIFRSBDPSA-N (1R,2S)-2-(aminomethyl)-N,N-diethyl-1-phenyl-1-cyclopropanecarboxamide Chemical compound C=1C=CC=CC=1[C@@]1(C(=O)N(CC)CC)C[C@@H]1CN GJJFMKBJSRMPLA-HIFRSBDPSA-N 0.000 description 1
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 101100325793 Arabidopsis thaliana BCA2 gene Proteins 0.000 description 1
- 235000011511 Diospyros Nutrition 0.000 description 1
- 241000723267 Diospyros Species 0.000 description 1
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 1
- 101001034314 Homo sapiens Lactadherin Proteins 0.000 description 1
- 102100039648 Lactadherin Human genes 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 101100075512 Oryza sativa subsp. japonica LSI2 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000007591 painting process Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
(57)【要約】
【課題】フレームの表示順序が一定でないアニメーショ
ンであってもデータ量を十分減少できると共に高速描画
を可能とする。アニメーションの表示を見る者にとっ
て、一層面白味のあるものとすること。動画の作成効率
を上げること。
【解決手段】この画像表示方法では、スプライトS1,
S2が組み込まれたフレームを複数設け、そのフレーム
を順次描画することにより、アニメーションを表示部に
再生させる。そして、表示させるフレームの時間的関係
を一義的に規定せず、アニメーションの再生時にフレー
ムの時間的関係を規定するようにし、その再生時におい
て前後のフレーム間の差分を取るに当たり、その前後の
フレームに含まれるスプライトS1,S2の差分を取る
ようにしている。また、シナリオに記載されているフレ
ームの順番に沿ってアニメーションを再生する方法と、
任意のタイミングで任意のフレームに再生位置を変更し
て再生する方法の少なくとも2つの再生方法を有する。
さらに、任意のフレームとして、フレーム番号ではな
く、所定のラベル名で指定している。
(57) [Summary] [PROBLEMS] To reduce the amount of data sufficiently even for an animation in which the display order of frames is not constant and to enable high-speed drawing. Make it more interesting for the viewer of the animation. Improve video creation efficiency. In this image display method, sprites S1,
By providing a plurality of frames in which S2 is incorporated and sequentially drawing the frames, the animation is reproduced on the display unit. Then, the temporal relationship between the frames to be displayed is not uniquely defined, but the temporal relationship between the frames is defined when the animation is played back. The difference between the sprites S1 and S2 included in the. Also, how to play the animation in the order of the frames described in the scenario,
There are at least two reproduction methods of changing the reproduction position to an arbitrary frame at an arbitrary timing and reproducing the image.
Further, an arbitrary frame is designated by a predetermined label name instead of a frame number.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、スプライトまたは
キャストと呼ばれる画像をシナリオに沿って動作させる
アニメーションのための画像表示方法および画像処理装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display method and an image processing apparatus for animation in which an image called a sprite or a cast is operated according to a scenario.
【0002】[0002]
【従来の技術】従来、アニメーションを表示させる方法
としては、フレームベースのアニメーションとスプライ
トベースのアニメーションとが存在している。フレーム
ベースのアニメーションは、いわゆる紙芝居のように一
枚一枚の絵を順に表示していくものであり、一枚一枚の
絵の作成に手間がかかるものの表示させる際は、フレー
ムを順番に表示するだけであり、再生時の負荷は軽いも
のとなっている。2. Description of the Related Art Conventionally, as a method of displaying an animation, there are a frame-based animation and a sprite-based animation. Frame-based animation is a method of displaying pictures one by one like a so-called picture-story show. When creating each picture takes time and effort, the frames are displayed in order. And the load during playback is light.
【0003】一方、スプライトベースのアニメーション
は、一枚の絵(フレーム)を複数のスプライト(キャス
ト)、例えば、主人公キャラクタ、雲、自動車などの動
く出演者に分け、各スプライトを所定のシナリオに沿っ
て動作させるものである。このスプライトベースのアニ
メーションは、各フレームを作成するのが簡単となると
共に複数のフレーム画像がスプライトを共有するため全
体的にメモリサイズが小さくなるメリットがあり、最近
では多くのアニメーションに採用されている。しかし、
このスプライトベースのアニメーションは、再生時に各
スプライトをシナリオに沿って動かす必要があり、描画
処理およびスプライトの組み合わせ処理を実行する中央
演算処理装置(以下CPUという)に多大な負荷がかか
るものとなっている。On the other hand, in sprite-based animation, one picture (frame) is divided into a plurality of sprites (casts), for example, a moving character such as a hero character, a cloud, and a car, and each sprite is arranged in accordance with a predetermined scenario. To operate. This sprite-based animation has the advantage that it is easier to create each frame, and the memory size is smaller overall because multiple frame images share a sprite. . But,
In the sprite-based animation, it is necessary to move each sprite according to a scenario at the time of reproduction, and a heavy load is imposed on a central processing unit (hereinafter referred to as a CPU) that executes a drawing process and a sprite combination process. I have.
【0004】[0004]
【発明が解決しようとする課題】従来のスプライトベー
スのアニメーションを再生する画像処理装置は、CPU
パワーや搭載メモリを多くすることによって、上述の問
題に対応している。しかしながら、アニメーションが極
めて複雑、例えば、立体画像になると、非常に高価なC
PUや高容量のメモリが必要となり、装置が高価となっ
てしまう。A conventional image processing apparatus for reproducing a sprite-based animation includes a CPU.
The above-mentioned problem is addressed by increasing the power and the mounted memory. However, when the animation is extremely complicated, for example, when it becomes a stereoscopic image, a very expensive C
A PU and a high-capacity memory are required, and the device becomes expensive.
【0005】また、最近では、ネットワークディスプレ
イと呼ばれる製品のように、携帯性を有し、いわゆる素
人が扱う表示装置がコンビニエンス等に採用され始めて
いる。このような操作を簡単とし、多くの人が利用する
携帯性のある装置では、その価格を抑えることが要求さ
れる。一方、価格は抑えられるものの、その表示速度は
通常と同様またはより速くすることが要求される。[0005] Recently, display devices that are portable and are handled by so-called amateurs, such as products called network displays, have begun to be adopted for convenience stores and the like. It is required to reduce the price of a portable device that can simplify such an operation and is used by many people. On the other hand, although the price is kept low, the display speed is required to be equal to or higher than usual.
【0006】従来のスプライトベースの動画では、フレ
ームの表示順序がオーサリング時(動画制作時)に決定
されている。そして、その表示順序のフレームをできる
限り圧縮して保存するため、フレーム全体に関してのフ
レーム間差分を取っている。しかし、フレームの表示順
序をオーサリング時とは異なるように表示できるものに
あっては、従来方法のフレーム間差分を取ることはでき
ず、メモリ容量が増大してしまうと共に高速描画が行え
ないものとなっている。In a conventional sprite-based moving image, the display order of frames is determined at the time of authoring (at the time of producing a moving image). Then, in order to compress and store the frames in the display order as much as possible, an inter-frame difference for the entire frame is obtained. However, if the display order of the frames can be displayed differently from that at the time of authoring, the difference between frames cannot be obtained by the conventional method, and the memory capacity increases and high-speed drawing cannot be performed. Has become.
【0007】また、従来のアニメーションでは、オーサ
リング時の所定のシナリオに従ってフレームが表示され
ていくため、外部アクション等との関連づけができず、
アニメーションを見る者にとって面白味に欠けるものと
なる。さらに、動画のオーサリングを行う者にとって、
動画やその他の部材を制御する全体制御プログラムを作
成する人との連携(コミュニケーション)が必要で、打
ち合わせやすり合わせ作業に多くの時間を取られてい
る。[0007] In the conventional animation, since frames are displayed according to a predetermined scenario at the time of authoring, it cannot be related to an external action or the like.
It is not interesting for those who watch animation. In addition, for video authors,
Cooperation (communication) with the person who creates the overall control program for controlling moving images and other members is required, and much time is spent on meetings and meetings.
【0008】本発明は、上述の問題点を解決するために
なされたものであり、フレームの表示順序が一定でない
アニメーションであってもデータ量を十分減少できると
共に高速描画を可能とする画像表示方法および画像処理
装置を提供することを目的とする。他の発明は、アニメ
ーションの表示を見る者にとって、一層面白味のあるも
のとすることができる画像表示方法及び画像処理装置を
提供することを目的とする。さらに、他の発明は、動画
のオーサリングを行う者が全体制御プログラムの作成者
と打ち合わせ等をほとんど行うことなく動画を制作で
き、動画の作成効率を上げ得るようにした画像表示方法
および画像処理装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and an image display method capable of sufficiently reducing the data amount and performing high-speed drawing even for an animation in which the display order of frames is not fixed. And an image processing apparatus. Another object of the present invention is to provide an image display method and an image processing apparatus which can make the display of an animation more interesting for a viewer. Still another aspect of the present invention is an image display method and an image processing apparatus in which a person who authors a moving image can produce a moving image with almost no meetings with the creator of the overall control program, thereby improving the moving image creation efficiency. The purpose is to provide.
【0009】[0009]
【課題を解決するための手段】かかる目的を達成するた
め、本発明の画像表示方法では、スプライトが組み込ま
れたフレームを複数設け、そのフレームを順次描画する
ことにより、アニメーションを表示部に再生させる画像
表示方法において、表示させるフレームの時間的関係を
一義的に規定せず、アニメーションの再生時にフレーム
の時間的関係を規定するようにし、その再生時において
前後のフレーム間の差分を取るに当たり、その前後のフ
レームに含まれるスプライトの差分を取るようにしてい
る。In order to achieve the above object, according to the image display method of the present invention, a plurality of frames incorporating sprites are provided, and the frames are sequentially drawn to reproduce an animation on a display unit. In the image display method, the temporal relationship between the frames to be displayed is not uniquely defined, but the temporal relationship between the frames is defined at the time of playing the animation. The difference between sprites included in the previous and subsequent frames is calculated.
【0010】このように、アニメーションの再生に当た
りフレームの時間的関係を一義的に決めず再生時に初め
てその関係が決まるようにしているので、通常のフレー
ム間差分は取ることができない。しかし、再生時の前後
のフレームに含まれるスプライトの差分を取っているの
で、どのような順序でフレームが再生されようと、常に
差分を取ることができる。この差分を利用することによ
って、フレーム中の画像データを減少させることができ
ると共に、データ縮小に伴い再生速度も高速化させるこ
とができる。As described above, the temporal relationship between frames is not uniquely determined when reproducing the animation, and the relationship is determined for the first time during reproduction. Therefore, a normal difference between frames cannot be obtained. However, since the difference between the sprites included in the frames before and after the reproduction is calculated, the difference can always be calculated regardless of the order in which the frames are reproduced. By using this difference, the image data in the frame can be reduced, and the reproduction speed can be increased in accordance with the data reduction.
【0011】また、他の発明では、上述の発明の画像表
示方法に加え、スプライトの差分は、シナリオに含まれ
るスプライトの位置とサイズの情報を利用して算出して
いる。このため、スプライトの差分をシナリオのデータ
から算出でき、算出が容易であると共に差分を確実に算
出できることとなる。In another invention, in addition to the image display method of the above-described invention, a difference between sprites is calculated by using information on the position and size of the sprite included in the scenario. Therefore, the difference between the sprites can be calculated from the scenario data, and the calculation is easy and the difference can be calculated reliably.
【0012】他の発明の画像表示方法では、スプライト
が組み込まれたフレームを複数設け、そのフレームを順
次描画することにより、アニメーションを表示部に再生
させる画像表示方法において、シナリオに記載されてい
るフレームの順番に沿ってアニメーションを再生する方
法(以下予定シナリオ再生という)と、任意のタイミン
グで任意のフレームに再生位置を変更して再生する方法
(以下任意フレーム再生という)の少なくとも2つの再
生方法を有している。According to another aspect of the present invention, there is provided an image display method in which a plurality of frames incorporating sprites are provided, and the frames are sequentially drawn to reproduce an animation on a display unit. (Hereinafter referred to as scheduled scenario playback) and a method of changing the playback position to an arbitrary frame at an arbitrary timing and playing it back (hereinafter referred to as an arbitrary frame playback). Have.
【0013】このように、通常はシナリオに沿って再生
を続けるが、ホストシステム等の要求には、即座に任意
のシナリオに制御を移すことが可能となる。このため、
外部イベント等との関連付けをしてアニメーションを表
示できることとなり、見る者にとって面白味のあるアニ
メーションとなる。As described above, the reproduction is normally continued in accordance with the scenario, but it is possible to immediately shift the control to an arbitrary scenario in response to a request from the host system or the like. For this reason,
The animation can be displayed in association with an external event or the like, and the animation becomes interesting for the viewer.
【0014】さらに、他の発明では、上述の発明の画像
表示方法に加え、任意フレーム再生は、予定シナリオ再
生を制御する上位のシステムとなるホストシステムの要
求により行われるようにしている。このように、上位の
ホストシステムによって、任意フレーム再生、すなわ
ち、任意フレームへのシナリオ移動が行われるので、上
位のホストシステムは、任意フレーム再生を他の制御と
関連付けたり、他の制御と並行して処理したりすること
ができる。Further, in another invention, in addition to the image display method of the above-described invention, the reproduction of an arbitrary frame is performed at the request of a host system which is a higher-level system for controlling the scheduled scenario reproduction. As described above, the upper-level host system reproduces an arbitrary frame, that is, moves a scenario to an arbitrary frame. Therefore, the upper-level host system associates the reproduction of the arbitrary frame with another control or executes the parallel operation in parallel with the other control. And can be processed.
【0015】さらに、他の発明では、上述の各発明の画
像表示方法に加え、任意フレーム再生を行わせる場合、
任意のフレームとして、フレーム番号ではなく、所定の
ラベル名で指定可能としている。このように、シナリオ
移動の際の移動先フレームをラベル名で指定できるの
で、オーサリング者(動画制作者)と、任意フレーム再
生を制御するプログラムのプログラマとの間での作業分
担が効率的に行えるものとなる。Further, in another invention, in addition to the image display method of each of the above-described inventions, when an arbitrary frame is reproduced,
An arbitrary frame can be designated by a predetermined label name instead of a frame number. In this way, since the destination frame at the time of moving the scenario can be specified by the label name, the work can be efficiently shared between the author (video creator) and the programmer of the program that controls the reproduction of the arbitrary frame. It will be.
【0016】また、他の発明の画像表示方法では、スプ
ライトが組み込まれたフレームを複数設け、そのフレー
ムを順次描画することにより、アニメーションを表示部
に再生させる画像表示方法において、任意のタイミング
で任意のフレームに再生位置を変更して再生し、任意の
フレームとして、フレーム番号ではなく、所定のラベル
名で指定している。According to another aspect of the present invention, there is provided an image display method in which a plurality of frames incorporating sprites are provided and the frames are sequentially drawn to reproduce an animation on a display unit. The reproduction position is changed to the frame and the reproduction is performed, and an arbitrary frame is designated by a predetermined label name instead of the frame number.
【0017】このように、シナリオ移動の際の移動先フ
レームをラベル名で指定できるので、オーサリング者
(動画制作者)と、任意再生を制御するプログラムのプ
ログラマとの間での作業分担が効率的に行えるものとな
る。たとえば、従来の場合、オーサリング者は、プログ
ラマとの打ち合わせやすりあわせを頻繁に行っていた
が、この発明によるとそのような作業をほとんど行う必
要がなくなる。As described above, since the destination frame at the time of moving the scenario can be designated by the label name, the work sharing between the author (movie creator) and the programmer of the program for controlling the arbitrary reproduction is efficiently performed. It can be done in. For example, in the related art, the author often has a meeting or a meeting with a programmer, but according to the present invention, such an operation is hardly required.
【0018】また、本発明の画像処理装置では、スプラ
イトの圧縮データおよびそのスプライトが組み込まれる
複数のフレームを所定順に表示するためのシナリオのデ
ータを保存するメモリと、シナリオに沿って、スプライ
トおよびフレームの表示を制御する演算処理手段と、伸
長されたデータを表示部に表示するための処理を行う表
示処理手段とを有する画像処理装置において、表示され
るフレームの時間的関係を一義的に規定せず、アニメー
ションの再生時にフレームの時間的関係を規定する表示
順序規定手段と、アニメーション再生時に前後のフレー
ム間の差分を取る差分検出手段とを設け、この差分検出
手段はその前後のフレームに含まれるスプライトの差分
を検出するようにしている。In the image processing apparatus of the present invention, a memory for storing compressed data of a sprite and scenario data for displaying a plurality of frames in which the sprite is incorporated in a predetermined order, a sprite and a frame in accordance with the scenario. In an image processing apparatus having arithmetic processing means for controlling the display of an image and display processing means for performing a process for displaying the decompressed data on the display unit, the temporal relationship between the displayed frames is uniquely defined. In addition, there is provided a display order defining means for defining a temporal relationship between frames at the time of animation reproduction, and a difference detecting means for taking a difference between previous and next frames at the time of animation reproduction, and the difference detecting means is included in the preceding and succeeding frames. The sprite difference is detected.
【0019】このように、アニメーションの再生に当た
りフレームの時間的関係を一義的に決めず再生時に初め
てその関係が決まるようにしているので、通常のフレー
ム間差分は取ることができない。しかし、再生時の前後
のフレームに含まれるスプライトの差分を取っているの
で、どのような順序でフレームが再生されようと、常に
差分を取ることができる。この差分を利用することによ
って、フレーム中の画像データを減少させることができ
ると共に、データ縮小に伴い再生速度も高速化させるこ
とができる。As described above, the temporal relationship between frames is not uniquely determined when reproducing an animation, and the relationship is determined only at the time of reproduction. Therefore, a normal difference between frames cannot be obtained. However, since the difference between the sprites included in the frames before and after the reproduction is calculated, the difference can always be calculated regardless of the order in which the frames are reproduced. By using this difference, the image data in the frame can be reduced, and the reproduction speed can be increased in accordance with the data reduction.
【0020】さらに、他の発明の画像処理装置では、上
述の画像処理装置に加え、スプライトの差分は、シナリ
オに含まれるスプライトの位置とサイズの情報を利用し
て算出するようにしている。このため、スプライトの差
分をシナリオのデータから算出でき、算出が容易である
と共に差分を確実に算出できることとなる。Further, in the image processing apparatus according to another aspect of the present invention, in addition to the above-described image processing apparatus, a difference between sprites is calculated by using information on a position and a size of a sprite included in a scenario. Therefore, the difference between the sprites can be calculated from the scenario data, and the calculation is easy and the difference can be calculated reliably.
【0021】また、他の発明の画像処理装置では、スプ
ライトの圧縮データおよびそのスプライトが組み込まれ
る複数のフレームを所定順に表示するためのシナリオの
データを保存するメモリと、シナリオに沿って、スプラ
イトおよびフレームの表示を制御する演算処理手段と、
伸長されたデータを表示部に表示するための処理を行う
表示処理手段とを有する画像処理装置において、シナリ
オに記述されているフレームの順番に沿ってアニメーシ
ョンを再生するための予定シナリオ再生手段と、任意の
タイミングで任意のフレームに再生位置を変更して再生
する任意フレーム再生手段とを有している。According to another aspect of the present invention, there is provided an image processing apparatus comprising: a memory for storing compressed data of a sprite and scenario data for displaying a plurality of frames in which the sprite is incorporated in a predetermined order; Arithmetic processing means for controlling the display of the frame;
In an image processing apparatus having display processing means for performing processing for displaying the decompressed data on the display unit, scheduled scenario playback means for playing animation in the order of frames described in the scenario, An arbitrary frame reproducing means for changing the reproduction position to an arbitrary frame at an arbitrary timing and reproducing the image.
【0022】このように、通常はシナリオに沿って再生
を続けるが、ホストシステム等の要求には、即座に任意
のシナリオに制御を移すことが可能となる。このため、
外部イベント等との関連付けをしてアニメーションを表
示できることとなり、見る者にとって面白味のあるアニ
メーションとなる。As described above, the reproduction is normally continued in accordance with the scenario, but it is possible to immediately shift the control to an arbitrary scenario in response to a request from the host system or the like. For this reason,
The animation can be displayed in association with an external event or the like, and the animation becomes interesting for the viewer.
【0023】さらに、他の発明では、上述の発明の画像
処理装置に加え、任意フレーム再生手段による再生は、
予定シナリオ再生手段による再生を制御する上位のシス
テムとなるホストシステムの要求により行われるように
している。このように、上位のホストシステムによっ
て、任意フレーム再生、すなわち、任意フレームへのシ
ナリオ移動が行われるので、上位のホストシステムは、
任意フレーム再生を他の制御と関連付けたり、他の制御
と並行して処理したりすることができる。Further, in another invention, in addition to the image processing apparatus of the above-mentioned invention, the reproduction by the arbitrary frame reproducing means is
The reproduction is performed by a request from a host system which is a higher-level system for controlling reproduction by the scheduled scenario reproducing means. As described above, an arbitrary frame is reproduced by the upper host system, that is, the scenario is moved to an arbitrary frame.
Arbitrary frame playback can be associated with other controls or processed in parallel with other controls.
【0024】また、他の発明では、上述の各発明の画像
処理装置に加え、任意フレーム再生手段による再生を行
わせる場合、任意のフレームとして、フレーム番号では
なく、所定のラベル名で指定可能としている。このよう
に、シナリオ移動の際の移動先フレームをラベル名で指
定できるので、オーサリング者と、任意フレーム再生を
制御するプログラムのプログラマとの間での作業分担が
効率的に行えるものとなる。According to another aspect of the present invention, in addition to the image processing apparatus according to the above-described aspects, in the case where reproduction is performed by an arbitrary frame reproducing unit, an arbitrary frame can be designated by a predetermined label name instead of a frame number. I have. As described above, the destination frame at the time of moving the scenario can be specified by the label name, so that the work can be efficiently shared between the author and the programmer of the program that controls the reproduction of the arbitrary frame.
【0025】また、他の発明の画像処理装置では、スプ
ライトの圧縮データおよびそのスプライトが組み込まれ
る複数のフレームを所定順に表示するためのシナリオの
データを保存するメモリと、シナリオに沿って、スプラ
イトおよびフレームの表示を制御する演算処理手段と、
伸長されたデータを表示部に表示するための処理を行う
表示処理手段とを有する画像処理装置において、任意の
タイミングで任意のフレームに再生位置を変更して再生
する任意フレーム再生手段を設け、任意のフレームとし
て、フレーム番号ではなく、所定のラベル名で指定して
いる。According to another aspect of the present invention, there is provided an image processing apparatus comprising: a memory for storing compressed data of a sprite and scenario data for displaying a plurality of frames in which the sprite is incorporated in a predetermined order; Arithmetic processing means for controlling the display of the frame;
An image processing apparatus having display processing means for performing processing for displaying decompressed data on a display unit, wherein an arbitrary frame reproducing means for changing a reproduction position to an arbitrary frame at an arbitrary timing and reproducing the image is provided; Are designated by a predetermined label name instead of a frame number.
【0026】このように、シナリオ移動の際の移動先フ
レームをラベル名で指定できるので、オーサリング者
と、任意フレーム再生を制御するプログラムのプログラ
マとの間での作業分担が効率的に行えるものとなる。た
とえば、従来の場合、オーサリング者は、プログラマと
の打ち合わせやすりあわせを頻繁に行っていたが、この
発明によるとそのような作業をほとんど行う必要がなく
なる。As described above, the destination frame at the time of moving the scenario can be specified by the label name, so that the work can be efficiently shared between the author and the programmer of the program for controlling the reproduction of an arbitrary frame. Become. For example, in the related art, the author often has a meeting or a meeting with a programmer, but according to the present invention, such an operation is hardly required.
【0027】[0027]
【発明の実施の形態】以下、本発明の実施の形態の例を
図1から図22に基づき説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS.
【0028】この実施の形態の画像処理装置は、テレビ
局8からの放送を受信する携帯型のテレビジョン受信機
であると共に、ネットワーク機器でもあるネットワーク
ディスプレイ1に組み込まれるものとなっている。この
ネットワークディスプレイ1は、ローカルエリアネット
ワークであるLAN3、外部への接続のためのホストサ
ーバとなるパーソナルコンピュータ(以下パソコンとい
う)4、デジタル公衆回線網であるISDN5、プロバ
イダのホストコンピュータ(以下WWWサーバという)
6を介してインターネット2と接続される。The image processing apparatus of this embodiment is a portable television receiver for receiving broadcasts from a television station 8 and is incorporated in a network display 1 which is also a network device. The network display 1 includes a LAN 3 as a local area network, a personal computer (hereinafter referred to as a personal computer) 4 as a host server for connection to the outside, an ISDN 5 as a digital public line network, and a host computer of a provider (hereinafter referred to as a WWW server). )
6 is connected to the Internet 2.
【0029】このWWWサーバ6は、URL(Uniform
Resource Locator)で特定されるが、通常はhttp
(Hyper-Text Transfer Protocol)を使用してアクセス
されるため、「http」の表示がなされる。このた
め、HTTPサーバともなる。This WWW server 6 has a URL (Uniform
Resource Locator), but usually http
(Http) is displayed using (Hyper-Text Transfer Protocol). For this reason, it also functions as an HTTP server.
【0030】インターネット2には、他のWWWサーバ
6a,6bが接続される。また、WWWサーバ6には、
他のLAN3a等を介してサーバとなるサーバコンピュ
ータ7やパソコン4a等が接続され、サーバコンピュー
タ7にはディスプレイ7aが接続されている。なお、L
AN3には、他のネットワークディスプレイ1a,1b
やパソコン4b等が接続されている。Other WWW servers 6a and 6b are connected to the Internet 2. Also, the WWW server 6 has:
A server computer 7 serving as a server, a personal computer 4a, and the like are connected via another LAN 3a and the like, and a display 7a is connected to the server computer 7. Note that L
AN3 has other network displays 1a, 1b.
And a personal computer 4b are connected.
【0031】ここで、画像処理装置が組み込まれる装置
としては、表示手段の一部を兼ねるネットワークディス
プレイ1,1a,1bの他に、パソコン4,4a,4b
やテレビジョン受信機、さらにはサーバコンピュータ7
とディスプレイ7a等が組み合わされたものとしても良
い。また、ISDN5とパソコン4との接続、ISDN
5とLAN3aとの接続等には、DSU(デジタルサー
ビスユニット)、ターミナルアダプタ、モデム、IPル
ータ等のネットワークへの接続手段が用いられる。Here, as the device into which the image processing device is incorporated, in addition to the network displays 1, 1a, 1b also serving as a part of the display means, the personal computers 4, 4a, 4b
And television receivers, and even server computer 7
And the display 7a and the like may be combined. Also, the connection between the ISDN 5 and the personal computer 4,
For connection between the LAN 5a and the LAN 5, a connection means to a network such as a digital service unit (DSU), a terminal adapter, a modem, an IP router, or the like is used.
【0032】ネットワークディスプレイ1,1a,1b
(以下、これらを代表してネットワークディスプレイ1
について説明する)は、図2に示すように、中央の液晶
からなる表示部11と、表示部11の周辺に配置される
操作部12と、音を出力するスピーカ部13と、特定の
ウエブページにアクセスできる磁気カードが挿入されそ
のアドレスを読み取ったり、その他の磁気カードを読み
取る磁気カードリーダ部14と、電源ラインやホストと
なるパソコン4に接続される接続部15とから主に構成
されている。Network display 1, 1a, 1b
(Hereafter, network display 1
2), as shown in FIG. 2, a display unit 11 made of a liquid crystal at the center, an operation unit 12 arranged around the display unit 11, a speaker unit 13 for outputting sound, a specific web page. It is mainly composed of a magnetic card reader unit 14 for reading a magnetic card that can be accessed to read the address and reading other magnetic cards, and a connection unit 15 connected to a power supply line or the personal computer 4 as a host. .
【0033】表示部11の左右の操作部12は、1〜1
0の10種類のメニュー釦12があり、この各釦12a
に近接した表示部11に、対応する操作メニューの表示
がなされる。例えば、パソコン4内に保管されている各
種のアニメーションをその番号によって選択するように
する。すなわち、1番のメニュー釦12aを押すと、1
番のアニメーションが再生されるようにする。また、表
示部11の下側には、インターネット上のホームページ
にアクセスしたときの各種の操作釦部12bが配置され
ている。また、磁気カードリーダ部14の近傍に、画面
の操作矢印を上下左右に動かすための指示操作部12c
が設けられている。The left and right operation units 12 of the display unit 11 are 1-1
0, there are ten types of menu buttons 12, and each of these buttons 12a
The corresponding operation menu is displayed on the display unit 11 close to. For example, various animations stored in the personal computer 4 are selected by their numbers. That is, when the first menu button 12a is pressed, 1
Make the number animation play. Various operation buttons 12b for accessing a homepage on the Internet are arranged below the display unit 11. An instruction operation unit 12c for moving the operation arrow on the screen up, down, left and right near the magnetic card reader unit 14.
Is provided.
【0034】このようなネットワークディスプレイ1の
回路構成は次のとおりとなっている。すなわち、ネット
ワークディスプレイ1は、図3に示すように、LCD
(液晶)からなる表示部11と、演算処理手段となるC
PU(=中央演算処理装置)21と、表示処理手段とな
る専用グラフィックスLSI22と、スプライトのデー
タとシナリオデータからなるアニメーションデータ等を
記憶するためのROMやRAM等からなるメモリ23
と、パソコン4等の外部情報源24からの指示を受けC
PU21に伝えたり、CPU21からの指示をパソコン
4に伝えるデータ受送信回路25と、専用グラフィック
スLSI22に接続されるVRAM(ビデオラム)26
と、外部のアンプやスピーカ部13に音を供給するサウ
ンド回路27と、表示部11を駆動制御する表示制御部
28と、周辺機器制御部29とから主に構成される。The circuit configuration of such a network display 1 is as follows. That is, as shown in FIG.
(Liquid crystal) display unit 11 and C serving as arithmetic processing means
PU (= central processing unit) 21, dedicated graphics LSI 22 as display processing means, and memory 23 such as ROM or RAM for storing animation data including sprite data and scenario data
And receives instructions from an external information source 24 such as the personal computer 4
A data receiving / transmitting circuit 25 for transmitting a signal to the PU 21 or an instruction from the CPU 21 to the personal computer 4, and a VRAM (video RAM) 26 connected to the dedicated graphics LSI 22.
, A sound circuit 27 for supplying sound to an external amplifier and speaker unit 13, a display control unit 28 for driving and controlling the display unit 11, and a peripheral device control unit 29.
【0035】なお、CPU21と、専用グラフィックス
LSI22と、メモリ23と、データ送受信回路25
と、周辺機器制御部29とは、高速なホストバス30に
よって接続されている。また、サウンド回路27には、
マイク入力端子31が接続され、外部音の入力が可能と
なっている。表示制御部28は、MIM型の液晶を駆動
するための第1駆動制御部28aと、アナログ処理され
たRGB値をTFT型の液晶で表示するための第2駆動
制御部28bと、デジタル処理されたRGB値をTFT
型の液晶で表示するための第3駆動制御部28cと、C
RTを駆動するための第4駆動制御部28dとを有し、
複数の表示体に対応できるようになっている。この実施
の形態では、第3駆動制御部28cを利用している。The CPU 21, the dedicated graphics LSI 22, the memory 23, and the data transmission / reception circuit 25
And the peripheral device control unit 29 are connected by a high-speed host bus 30. Also, in the sound circuit 27,
A microphone input terminal 31 is connected, and external sound can be input. The display control unit 28 includes a first drive control unit 28a for driving the MIM-type liquid crystal, a second drive control unit 28b for displaying the analog-processed RGB values on the TFT-type liquid crystal, and digitally processed data. RGB value to TFT
Drive control unit 28c for displaying with a liquid crystal of the
A fourth drive control unit 28d for driving the RT,
It can correspond to a plurality of display objects. In this embodiment, the third drive control unit 28c is used.
【0036】周辺機器制御部29には、操作部12と、
磁気カードリーダ部14とが接続され、それらから入力
されてくるデータを受け付けるようになっている。さら
に、周辺機器制御部29には、ネットワークディスプレ
イ1に設けられるLED表示部16,例えば電源のO
N、OFF表示(POWER表示)、準備状態か否かの
表示(READY表示)、処理が混んでいるか否かの表
示(BUSY表示)が接続され、各表示が可能となって
いる。また、EEPROMからなるフラッシュメモリ1
7等が接続可能となっている。また、このネットワーク
ディスプレイ1には、必要により適宜、画像・音声復号
部18が組み込み可能となっており、所定の背景画像や
アニメーションが入った後付けメモリ19のデータを再
生できるものとなっている。The peripheral device control unit 29 includes the operation unit 12,
A magnetic card reader unit 14 is connected to receive data input therefrom. Further, the peripheral device control unit 29 includes an LED display unit 16 provided in the network display 1, for example, a power supply O.
N, OFF display (POWER display), display of ready state (READY display), display of busy processing (BUSY display) are connected, and each display is possible. Also, a flash memory 1 composed of an EEPROM
7 can be connected. An image / sound decoding unit 18 can be appropriately incorporated in the network display 1 as necessary, and can reproduce data in a retrofit memory 19 containing a predetermined background image or animation.
【0037】なお、メモリ23には、CPU21がウエ
ブプラウザや表示用プログラムから特定のデータを取り
込み、表示の制御をするための全体制御プログラムと、
外部情報源24からの指令を受け取り、表示の流れを切
り替えたり、指示された特定の画像を指定された特定の
位置へ表示する処理を行うためのアニメーションプログ
ラムとが格納されている。The memory 23 has an overall control program for the CPU 21 to fetch specific data from a web browser or a display program and control display.
An animation program for receiving a command from the external information source 24, switching the display flow, and displaying a specified specific image at a specified specific position is stored.
【0038】ここで、専用グラフィックスLSI22
は、CPU21によって各画面間のシーケンスの制御を
受ける一方、各画面内での一連の画像やスプライトの表
示については、メモリ23中のシナリオやデータを見に
行ってそのシナリオやデータに基づいて、そのスプライ
ト等の一連の動きを制御するようになっている。また、
サウンド回路27は、16ビット、44.1KHz、1
チャンネルのものとなっているが、他の値のものを適宜
採用できる。Here, the dedicated graphics LSI 22
Is controlled by the CPU 21 to control the sequence between the screens. On the other hand, the display of a series of images and sprites in each screen is performed by looking at the scenarios and data in the memory 23 and based on the scenarios and data. A series of movements of the sprite and the like are controlled. Also,
The sound circuit 27 is 16 bit, 44.1 KHz, 1
Although it is a channel, other values can be used as appropriate.
【0039】このネットワークディスプレイ1のメモリ
23またはハードディスク(図示省略)上に、スプライ
トのデータやシナリオデータをインストールするか、も
しくはそれらのデータを入れた後付けメモリ19を生成
し、このネットワークディスプレイ1に取り付ける。イ
ンストールする際は、インターネット2や他のネットワ
ークを利用して通信による配信、配送によって行うこと
となる。なお、ネットワークディスプレイ1にCD−R
OM読み取り機構等の情報記憶媒体読み取り部を設ける
ようにすれば、CD−ROM等の情報記憶媒体を利用し
てデータをインストールしても良い。The sprite data and the scenario data are installed on the memory 23 or the hard disk (not shown) of the network display 1 or the retrofit memory 19 containing the data is generated and attached to the network display 1. . At the time of installation, distribution is performed by communication using the Internet 2 or another network. Note that the network display 1 has a CD-R
If an information storage medium reading unit such as an OM reading mechanism is provided, data may be installed using an information storage medium such as a CD-ROM.
【0040】専用グラフィックスLSI22の構造は、
図4に示すとおりとなっている。すなわち、ホストバス
30に接続されるホストインターフェイス32と、VR
AM26に接続されるVRAMインターフェイス33と
の間に内部ホストバス34および内部VRAMバス35
が設けられている。そして、復号部36と画像処理部3
7とが両バス34,35にそれぞれ接続されている。内
部ホストバス34にはオーディオインターフェイス38
が接続され、内部VRAMバス35には、液晶表示部イ
ンターフェイス39が接続されている。The structure of the dedicated graphics LSI 22 is as follows.
It is as shown in FIG. That is, the host interface 32 connected to the host bus 30 and the VR
An internal host bus 34 and an internal VRAM bus 35 between the VRAM interface 33 connected to the AM 26;
Is provided. Then, the decoding unit 36 and the image processing unit 3
7 are connected to both buses 34 and 35, respectively. The internal host bus 34 has an audio interface 38
, And a liquid crystal display interface 39 is connected to the internal VRAM bus 35.
【0041】復号部36は、自然画像の復号機能部と、
インデックス画像の復号機能部と、インデックス画像用
のパレットRAMとを有している。また、画像処理部3
7は、後述する上書き処理等を行うものとなっている。
また、オーディオインターフェイス38は、オーディオ
の制御と、オーディオのミキシングと、サンプリングレ
ートの変更等の各機能を有している。ミキシングはホス
トバス30経由の2チャンネルと、外部のマイクからの
入力との最大3チャンネルのミキシングが可能となって
いる。The decoding unit 36 includes a natural image decoding function unit,
An index image decoding function unit and a palette RAM for index images are provided. The image processing unit 3
Reference numeral 7 is for performing overwrite processing and the like described later.
The audio interface 38 has various functions such as audio control, audio mixing, and sampling rate change. For mixing, up to three channels of two channels via the host bus 30 and input from an external microphone can be mixed.
【0042】液晶表示部インターフェイス39は、表示
制御と、後付けメモリ19を使用したときの重ね書き制
御と、表示部上のカーソル表示をハード的に行う機能
(以下ハードウェアカーソルという)とを有している。
ハードウェアカーソルは、メモリ23上にカーソルデー
タを区分して保持させ、他のデータと組み合わせ処理す
ることによってソフトウェアカーソルの問題点を解消し
ているものである。ソフトウェアカーソルでは、カーソ
ル表示を所定部分に表示させる際、そのカーソルを張り
つける前にカーソルの場所の元の画像を記憶させてお
き、カーソルが動いたら元の画像を書き戻すという処理
が必要となる。この処理は、CPU21に負荷のかかる
ものとなる。ハードウェアカーソルは、このような問題
が解消される。なお、この液晶表示部インターフェイス
39は、表示制御部28の機能と略同一であり、この液
晶表示部インターフェイス39の標準機能で対応可能な
表示体を取り付けた場合、表示制御部28はほとんど動
作せずフリーパスとなる。The liquid crystal display interface 39 has a display control, an overwriting control when the post-installation memory 19 is used, and a function of hardware-displaying a cursor on the display (hereinafter referred to as a hardware cursor). ing.
The hardware cursor solves the problem of the software cursor by storing the cursor data in the memory 23 in a divided manner and combining the cursor data with other data. In a software cursor, when displaying a cursor display in a predetermined portion, it is necessary to store an original image at a position of the cursor before attaching the cursor, and to rewrite the original image when the cursor moves. This process imposes a load on the CPU 21. The hardware cursor solves such a problem. The liquid crystal display interface 39 has substantially the same function as that of the display control unit 28. When a display body compatible with the standard function of the liquid crystal display interface 39 is mounted, the display control unit 28 almost does not operate. Free pass.
【0043】なお、メモリ23には、図5に示すよう
に、各フレーム20の時間軸方向の制御を行うデータが
書き込まれている。各フレーム20の持続時間は、通常
1秒で25枚現れる速度で切り替わって行くが、このフ
レーム持続時間についての詳細は後述する。メモリ23
には、さらに、1つのフレーム20内のスプライト(詳
細は後述)の表示位置を制御するプログラム等が書き込
まれている。As shown in FIG. 5, data for controlling each frame 20 in the time axis direction is written in the memory 23. The duration of each frame 20 normally switches at a speed of appearing 25 frames per second. The details of the frame duration will be described later. Memory 23
Further, a program or the like for controlling a display position of a sprite (details will be described later) in one frame 20 is written therein.
【0044】専用グラフィックスLSI22の画像処理
部37は、基本的に上書き処理するものとなっている。
例えば、スプライトが「A」「B」「C」の文字である
とすると、まず、「A」を表示するためのプログラムを
実行する。この実行は、「A」を表示するための各種パ
ラメータをセットした後、CPU21内のメモリ上の仮
想スクリーンに描画する。同様にして文字「B」、文字
「C」の画像用データがCPU21の仮想スクリーンに
生成され、その後、ブロック転送によりすべてのデータ
がまとめてVRAM26の実スクリーンへ転送され、図
6に示すように、重ね書き(上書き)されて表示され
る。The image processing section 37 of the dedicated graphics LSI 22 basically performs an overwriting process.
For example, assuming that the sprite is the characters "A", "B", and "C", first, a program for displaying "A" is executed. In this execution, after setting various parameters for displaying “A”, drawing is performed on a virtual screen on a memory in the CPU 21. Similarly, image data of the characters “B” and “C” are generated on the virtual screen of the CPU 21, and then all data are collectively transferred to the real screen of the VRAM 26 by block transfer, as shown in FIG. , Is displayed overwritten (overwritten).
【0045】専用グラフィックスLSI22の画像処理
部37の内部と処理フローは、図7に示すとおりとなっ
ている。すなわち、復号部36から送られてきた復号さ
れた画像(以下原描画イメージという)に対して透明色
抜き取り処理(ステップS101)を行う。次に、透明
色の部分に、透明色のRGB値を与える透明色置換処理
(ステップS102)を行う。その後、拡大・縮小処理
(ステップS103)を行い、透明色を検出した(ステ
ップS104)後、元の画像に上書きする部分を上書き
検出部41で検出する。なお、拡大、縮小処理の詳細に
ついては後述する。The inside of the image processing section 37 of the dedicated graphics LSI 22 and the processing flow are as shown in FIG. That is, a transparent color extracting process (step S101) is performed on the decoded image (hereinafter referred to as an original drawing image) transmitted from the decoding unit 36. Next, a transparent color replacement process (step S102) for giving the RGB values of the transparent color to the transparent color portion is performed. After that, an enlargement / reduction process (step S103) is performed, and after a transparent color is detected (step S104), a portion to be overwritten on the original image is detected by the overwrite detection unit 41. The details of the enlargement and reduction processing will be described later.
【0046】上書き検出部41には、クリップ処理(ス
テップS105)やマスク処理(ステップS106)の
ためのデータが入力し、それらの処理が行われた後、ブ
レンド処理(ステップS107)がなされる。なお、拡
大・縮小処理S103、クリップ処理S105、ブレン
ド処理S107等の処理は、その処理が指定されていな
ければ行われない。拡大・縮小処理されたデータは、マ
ルチプレクサ42に入力し、クリップ処理S105等の
データとドッキングされ、必要によりブレンド処理S1
07がされる。なお、塗りつぶし機能(詳細は後述)が
オンのときは、色レジスタ43からのデータを利用して
塗りつぶし処理がなされる。その場合のデータも、その
後にブレンド処理S107がなされ、最終描画イメージ
として液晶表示部インターフェイス39に送られる。Data for clip processing (step S105) and mask processing (step S106) are input to the overwrite detection unit 41, and after these processings are performed, blend processing (step S107) is performed. The processing such as the enlargement / reduction processing S103, the clip processing S105, and the blending processing S107 is not performed unless the processing is specified. The data subjected to the enlargement / reduction processing is input to the multiplexer 42 and docked with the data of the clip processing S105 and the like, and if necessary, the blend processing S1
07 is performed. When the painting function (details will be described later) is ON, the painting process is performed using the data from the color register 43. The data in that case is also subjected to a blending process S107 after that, and sent to the liquid crystal display interface 39 as a final drawing image.
【0047】次に、このネットワークディスプレイ1の
表示機能について説明する。なお、今後使用する「スプ
ライト」なる語句は、アニメーションの1つのフレーム
20内の画像の構成要素を指し、それぞれは後述する理
由によって矩形で現される。例えば、[A」「B」
「C」等の文字、リンゴや柿等の絵、三角や四角等の幾
何学図形等がスプライトに相当する。また、「スプライ
ト画面」とは、そのような「スプライト」を表示する画
面のことを言い、フレーム20に相当する。Next, the display function of the network display 1 will be described. Note that the phrase “sprite” used hereinafter refers to a component of an image in one frame 20 of the animation, and each is represented by a rectangle for the reason described later. For example, [A] [B]
Characters such as "C", pictures such as apples and persimmons, and geometric figures such as triangles and squares correspond to sprites. The “sprite screen” refers to a screen displaying such “sprite”, and corresponds to the frame 20.
【0048】一般的に、アニメーションにおける各画面
となる各フレーム20は、複数のスプライト画面より構
成される。各スプライトは、1画素16ビット(R:
G:B=5ビット:6ビット:5ビット)のRGB形式
となる自然画的な画像であり、自然画像スプライトとな
っている。各スプライトは、CPU21と、専用グラフ
ィックスLSI22と、メモリ23等が協力して描画さ
れる。In general, each frame 20 which is a screen in the animation is composed of a plurality of sprite screens. Each sprite has 16 bits per pixel (R:
G: B = 5 bits: 6 bits: 5 bits) is a natural image in RGB format and is a natural image sprite. Each sprite is drawn in cooperation with the CPU 21, the dedicated graphics LSI 22, the memory 23, and the like.
【0049】この実施の形態のアニメーション画面は、
これらの各スプライトが重なった場合、最も前面にきた
スプライトが優先表示されるようになっている。ただ
し、特定の2色については、透明色としているので、そ
の「透明」を利用して、後側の画面の色が出せるように
なっている。The animation screen of this embodiment is
When these sprites overlap, the sprite that comes to the foreground is preferentially displayed. However, since the two specific colors are transparent, the color of the screen on the rear side can be displayed using the “transparency”.
【0050】表示部11となるスクリーンは、アニメー
ションムービーを表示するエリアであり、表示スクリー
ンとなる。このネットワークディスプレイ1は、図8に
示すように、320×240ピクセルのディスプレイサ
イズとなる表示スクリーン50を有している。また、最
小サイズで幅2ピクセル(pixel)×高さ2ピクセル(p
ixel)から、最大サイズで幅1024ピクセル×高さ1
024ピクセルのムービースクリーン51をソフト的に
サポートできるようになっている。アニメーションムー
ビーのスクリーン(ムービースクリーン51)の原点
(左上端)が表示スクリーン50の原点(左上端)Pと
なるようになっている。なお、ネットワークディスプレ
イ1の表示スクリーン50を、320×240ピクセル
以外に、512×240ピクセルとしたり、640×4
80ピクセルとしても良い。The screen serving as the display unit 11 is an area for displaying an animation movie and serves as a display screen. The network display 1 has a display screen 50 having a display size of 320 × 240 pixels as shown in FIG. Also, the minimum size is 2 pixels wide (pixel) x 2 pixels high (p
ixel), the maximum size is 1024 pixels wide x 1 height
A movie screen 51 of 024 pixels can be supported by software. The origin (upper left corner) of the screen of the animation movie (movie screen 51) is the origin (upper left corner) P of the display screen 50. The display screen 50 of the network display 1 is set to 512 × 240 pixels or 640 × 4 pixels in addition to the 320 × 240 pixels.
It may be 80 pixels.
【0051】ここで、ムービースクリーン51のサイズ
が表示スクリーン50より大きい場合は、ムービースク
リーン51の一部分が表示されることになる。逆に、ム
ービースクリーン51のサイズが表示スクリーン50よ
り小さい場合は、表示スクリーン50の右端あるいは下
端に余白部分が生じる。余白部分は、表示スクリーン5
0の背景色で表示される。表示スクリーン50の背景色
は、16bit/ピクセルのRGB値で指定される。Here, when the size of the movie screen 51 is larger than the display screen 50, a part of the movie screen 51 is displayed. Conversely, when the size of the movie screen 51 is smaller than the display screen 50, a margin is formed at the right end or lower end of the display screen 50. The margin is on display screen 5
It is displayed with a background color of 0. The background color of the display screen 50 is specified by an RGB value of 16 bits / pixel.
【0052】アニメーションのフレーム20を描画する
ための空間(図8参照)をムービースクリーン空間52
と呼ぶ。この空間52は、一種の仮想空間で、仮想RA
Mとも言えるものである。この空間52は、幅方向(水
平方向)で、−32768ピクセルから32767ピク
セル、高さ方向(垂直方向)で、−32768ピクセル
から32767ピクセルの広がりをもつが、実際に画像
が描画されるのはこの空間52の中の一部の領域とな
る。この実際に描画される領域をムービースクリーン5
1と呼ぶ。ムービースクリーン51は、常に原点P
(0,0)を基点とする。そのサイズはムービー毎に異
なる。最大で原点P(0,0)と(1023,102
3)を対角とする矩形領域(境界を含む)がムービース
クリーン51になる。A space for drawing the animation frame 20 (see FIG. 8) is provided in a movie screen space 52.
Call. This space 52 is a kind of virtual space, and a virtual RA
It can be said that it is M. This space 52 has a width of -32,768 pixels to 32,767 pixels in the width direction (horizontal direction) and a width of -32,768 to 32,767 pixels in the height direction (vertical direction). However, an image is actually drawn. This is a partial area in this space 52. This actually drawn area is shown on movie screen 5
Called 1. The movie screen 51 always has the origin P
(0,0) is used as a base point. Its size varies from movie to movie. At maximum, the origins P (0,0) and (1023,102
A rectangular area (including a boundary) having a diagonal of 3) becomes the movie screen 51.
【0053】個々のアニメーションムービーは、上述の
とおり、最小サイズで幅2ピクセル×高さ2ピクセルか
ら、最大サイズで幅1024ピクセル×高さ1024ピ
クセルのムービースクリーン51を持つことができる。
ムービースクリーン空間52に描画されるスプライト
は、ムービースクリーン51に含まれる部分だけが実際
に描画される。ムービースクリーン51の外の部分は、
描画されないようになっている。このムービースクリー
ン51の所定部分に転送先画像(描画画像)53が描画
される。As described above, each animation movie can have a movie screen 51 with a minimum size of 2 pixels wide by 2 pixels high and a maximum size of 1024 pixels wide by 1024 pixels high.
In the sprite drawn in the movie screen space 52, only the portion included in the movie screen 51 is actually drawn. The part outside the movie screen 51 is
It is not drawn. A transfer destination image (drawing image) 53 is drawn on a predetermined portion of the movie screen 51.
【0054】ムービースクリーン51に描画される画像
は、原描画イメージではなく、実際は原描画イメージと
透明色データとなる透明マスク画像56をドッキングし
たものである。原描画イメージは、図8に示すような、
転送矩形画像55が圧縮されてメモリ23に保存された
後、伸長されたものである。透明色データも透明マスク
画像となり透明矩形画像56が圧縮されてメモリ23に
保存されたものが伸長されて形成される。各画像55,
56は、最大サイズで幅1024ピクセル×高さ102
4ピクセルとなると共に同一の大きさとなっている。The image drawn on the movie screen 51 is not an original drawing image, but is actually an original drawing image and a transparent mask image 56 which becomes transparent color data. The original drawing image is as shown in FIG.
The transfer rectangular image 55 is compressed, stored in the memory 23, and then expanded. The transparent color data also becomes a transparent mask image, and the transparent rectangular image 56 is compressed and the one stored in the memory 23 is expanded and formed. Each image 55,
56 is a maximum size of 1024 pixels in width × 102 in height.
It is 4 pixels and the same size.
【0055】このように、透明矩形画像56を形成する
のは、自然画像中の特定の色を透明色として割り当てて
いるため、転送矩形画像55のみでは非可逆的に画像圧
縮した場合に、その透明色を保存することができないた
めである。また、このように、画像データと透明色デー
タを分離して圧縮すると、処理が簡単となり圧縮効率も
良くなる。透明矩形画像56は、その中の透明色部分に
「1」または「0」のビットを割り当て、不透明部分に
「0」または「1」のビットを割り当てるだけの簡単な
ビットマップ画像となっている。As described above, the transparent rectangular image 56 is formed because a specific color in the natural image is assigned as a transparent color. This is because a transparent color cannot be preserved. When the image data and the transparent color data are separated and compressed in this manner, the processing is simplified and the compression efficiency is improved. The transparent rectangular image 56 is a simple bitmap image in which bits of “1” or “0” are assigned to a transparent color portion therein and bits of “0” or “1” are assigned to an opaque portion. .
【0056】CPU21内のメモリには、上述したよう
に仮想スクリーンが生成される。この仮想スクリーンの
メモリサイズは、アニメーションの画面サイズに依存し
ている。すなわち、この実施の形態では、320×24
0ピクセルで約150KBの容量としている。ただし、
他の大きさ、たとえば160×120ピクセル(=約3
8KB)としても良い。各フレーム20は、まずこの仮
想スクリーン(=ムービースクリーン51)に生成され
る。その後、各フレーム20は、VRAM26にブロッ
ク転送され、VRAM26上に生成される実スクリーン
(=表示スクリーン50)に描画される。The virtual screen is generated in the memory in the CPU 21 as described above. The memory size of the virtual screen depends on the screen size of the animation. That is, in this embodiment, 320 × 24
The capacity is about 150 KB for 0 pixel. However,
Another size, for example, 160 × 120 pixels (= about 3
8 KB). Each frame 20 is first generated on this virtual screen (= movie screen 51). After that, each frame 20 is block-transferred to the VRAM 26 and drawn on the real screen (= display screen 50) generated on the VRAM 26.
【0057】このように、スプライトベースの多様な描
画機能(拡大、縮小、クリップ処理、マスク処理他)
は、すべてCPU21,専用グラフィックスLSI2
2,VRAM26で処理され、ネットワークディスプレ
イ1の他の機能やネットワークディスプレイ1を含むシ
ステムには、依存しないものとなっている。As described above, various drawing functions based on sprites (enlargement, reduction, clip processing, mask processing, etc.)
Are all CPU21, dedicated graphics LSI2
2. The data is processed by the VRAM 26 and does not depend on other functions of the network display 1 or a system including the network display 1.
【0058】また、この仮想スクリーンと実スクリーン
の使用は、表示部11での表示のちらつきを無くすもの
である。すなわち、スプライト等を重ね書きするとき、
ちらつきが発生し易くなるが、この方式では、一旦、C
PU21内の仮想スクリーンに1つのフレーム20を完
全に描画し、その後、1つのフレーム20の全データを
VRAM26にブロック転送するので、上書きによるち
らつきが発生しなくなる。なお、ちらつき発生防止に対
しては、仮想スクリーンの設置ではなく、VRAM26
を、2画面分または4画面分を取り込めるものとしても
良い。このように2画面または4画面とすると、1画面
または2画面分を表示用として、もう1画面または2画
面を書き込み用とすることができる。この2画面または
4画面方式により書き込み途中のちらつきをなくし、画
質を向上させることができる。The use of the virtual screen and the real screen eliminates display flicker on the display unit 11. In other words, when overwriting sprites, etc.,
Although flicker is likely to occur, in this method, once C
Since one frame 20 is completely drawn on the virtual screen in the PU 21 and then all the data of one frame 20 is block-transferred to the VRAM 26, flickering due to overwriting does not occur. In order to prevent the occurrence of flicker, it is not necessary to install a virtual screen, but to use a VRAM 26.
May be taken in for two or four screens. When two or four screens are used in this way, one or two screens can be used for display, and the other screen or two screens can be used for writing. With this two-screen or four-screen method, flickering during writing can be eliminated, and image quality can be improved.
【0059】このネットワークディスプレイ1は、9種
類のイベント(制御)を処理する。そのイベントは、外
部イベントと内部イベントの2つのタイプに大別され
る。外部イベントは、ネットワークディスプレイ1の外
部から通知されるもので、内部イベントは、アニメーシ
ョンムービーの再生状況の変化に応じて内部的に発生す
るものとなっている。The network display 1 processes nine types of events (controls). The events are roughly classified into two types: external events and internal events. The external event is notified from outside the network display 1, and the internal event is generated internally according to a change in the reproduction state of the animation movie.
【0060】外部イベントは、「アニメーションムービ
ーが選択された」ときに発生するClickイベント、「ア
ニメーションムービーが操作対象になった」ときに発生
するFocusイベント、「アニメーションムービーが操作
対象でなくなった」ときに発生するBlurイベント、「ス
プライトが操作対象になった」ときに発生するenterSpr
iteイベント、「スプライトが操作対象でなくなった」
ときに発生するleaveSpriteイベントの5種類である。External events are a Click event that occurs when an animation movie is selected, a Focus event that occurs when an animation movie becomes an operation target, and a Click event that occurs when an animation movie is no longer an operation target. Blur event that occurs on, enterSpr that occurs when "sprite became the operation target"
ite event, "Sprite is no longer an operation target"
There are five types of leaveSprite events that occur.
【0061】一方、内部イベントは、次の4種類となっ
ている。第1は、アニメーションムービーの再生が開始
され、一番最初のフレーム20の描画を開始する直前に
発生するstartMovieイベントで、第2は、アニメーショ
ンが停止する直前に発生するstopMovie イベントで、第
3は、すべてのフレーム20においてフレーム描画を開
始する直前に発生するenterFrameイベント、第4は、す
べてのフレーム20においてフレーム描画が終了した直
後に発生するexitFrame イベントである。On the other hand, there are the following four types of internal events. The first is a startMovie event that occurs just before the animation movie starts playing and starts drawing the first frame 20, the second is a stopMovie event that occurs immediately before the animation stops, and the third is a stopMovie event. The enterFrame event that occurs immediately before the start of frame drawing in all frames 20, and the fourth is an exitFrame event that occurs immediately after the frame drawing ends in all frames 20.
【0062】それぞれのイベントは、イベントハンドラ
(制御手順書)と呼ばれるものに記述される。例えば、
enterFrameイベントを発生させる場合は、enterFrameイ
ベントハンドラ(制御手順書)に記述される。このネッ
トワークディスプレイ1は、発生する各イベントに対応
したイベントハンドラ(制御手順書)を検索し、存在す
れば、記述されている処理を実行する。アニメーション
ムービー全体に関係づけられたイベントハンドラをまと
めたものをムービースクリプトと呼び、個々のフレーム
20に関係づけられたイベントハンドラをまとめたもの
をフレームスクリプトと呼ぶ。イベントハンドラの処理
内容は、スクリプト(=プログラム)のための専用のス
クリプト言語を使って記述される。このネットワークデ
ィスプレイ1は、内部に翻訳実行ソフトを有し、このス
クリプト言語によって書かれたスクリプト(イベントハ
ンドラ)をランタイムに逐次解釈し実行する。Each event is described in what is called an event handler (control procedure manual). For example,
When the enterFrame event is generated, it is described in the enterFrame event handler (control procedure manual). The network display 1 searches for an event handler (control procedure manual) corresponding to each event that occurs, and executes the described process if it exists. A set of event handlers related to the entire animation movie is called a movie script, and a set of event handlers related to the individual frames 20 is called a frame script. The processing content of the event handler is described using a script language dedicated to a script (= program). The network display 1 has translation execution software therein, and sequentially interprets and executes a script (event handler) written in this script language at runtime.
【0063】スクリプトには、関連付ける対象により4
種類が存在する。スプライトに関連付けられているスク
リプトがスプライトスクリプト、後述する図形部品に関
連付けられているスクリプトが図形部品スクリプト、フ
レーム20に関連付けられているスクリプトがフレーム
スクリプト、ムービー全体に関連付けられているスクリ
プトがムービースクリプトである。全てのイベントが全
てに種類のスクリプトを実行させるわけではなく、イベ
ント毎に実行されるスクリプトの種類と順番が決まって
いる。それぞれのスクリプトには、複数のイベントハン
ドラを記述することができる。In the script, 4
There are types. A script associated with a sprite is a sprite script, a script associated with a graphic part described later is a graphic part script, a script associated with the frame 20 is a frame script, and a script associated with the entire movie is a movie script. is there. Not all events cause all types of scripts to be executed, but the type and order of scripts executed for each event are determined. Multiple event handlers can be described in each script.
【0064】図9に各イベントが実行されるルートを示
す。各イベントが発生した際は、図9に示すルートに従
ってイベントハンドラが検索され、最初に見つかったイ
ベントハンドラが実行される。スプライトスクリプトお
よび図形部品スクリプトは、イベント発生位置と重な
る、スプライトおよび図形部品に関連付けられているス
クリプトが画面手前のものから順番に検索され、最初に
見つかったものが実行される。FIG. 9 shows a route on which each event is executed. When each event occurs, the event handler is searched according to the route shown in FIG. 9, and the first found event handler is executed. As for the sprite script and the graphic part script, scripts associated with the sprite and the graphic part that overlap with the event occurrence position are searched in order from the one near the screen, and the first one found is executed.
【0065】このスクリプトによって、シナリオ制御、
外部機器制御、外部イベント処理等が行われる。スクリ
プト言語は、この実施の形態では、7個のシナリオ制御
コマンド、2個のプラウザ連携コマンド、10個の変
数、制御文となるif文、64個の拡張コマンドおよび
先に示した9種類のイベントをサポートしている。この
スクリプト言語を使用して所定の順序のフレーム20に
よるアニメーションを何度も繰り返すループ構造やキー
ボードが押された等の外部イベントによって所定のフレ
ーム20や所定のアニメーションムービーを表示させる
構造等のイベントハンドラを構成することができる。With this script, scenario control,
External device control, external event processing, and the like are performed. In this embodiment, the script language is composed of seven scenario control commands, two browser cooperation commands, ten variables, if statements as control statements, 64 extended commands, and nine types of events shown above. Is supported. An event handler such as a loop structure that repeatedly repeats an animation using frames 20 in a predetermined order using this script language, or a structure that displays a predetermined frame 20 or a predetermined animation movie by an external event such as pressing of a keyboard. Can be configured.
【0066】この実施の形態では、アニメーションムー
ビーを再生しながら、バックグラウンドで次のアニメー
ションデータをLAN3を介してダウンロードできる。
そして、ダウンロード完了後、再生するアニメーション
をダウンロードしたものへ切り替えることができるよう
になっている。このネットワークディスプレイ1は、ホ
ストとなるパソコン4に対してダウンロードするアニメ
ーションムービーのURLを指定してファイル取得の要
求を発行する。パソコン4は、HTTPサーバであるW
WWサーバ6から指定されたファイルを取得し、ネット
ワークディスプレイ1へ渡す。In this embodiment, the next animation data can be downloaded via the LAN 3 in the background while playing the animation movie.
Then, after the download is completed, the animation to be played can be switched to the downloaded one. The network display 1 issues a file acquisition request to the host computer 4 by designating the URL of the animation movie to be downloaded. The personal computer 4 is an HTTP server W
The specified file is obtained from the WW server 6 and passed to the network display 1.
【0067】スプライトは、画像データと描画属性から
成る。画像データは、本質的な画像の情報であり、描画
属性は画像データをムービースクリーン51上に描画す
る際の配置情報やサイズ情報(幅、高さ)、描画操作な
どである。この画像データのことを図形部品と呼ぶ。複
数のスプライトで同一の図形部品を共有することが可能
となっている。また、複数のフレーム20でスプライト
を共有することが可能である。このため、アニメーショ
ンムービーのデータサイズを抑制することができる。な
お、このネットワークディスプレイ1では、ビットマッ
プ(Bitmap)タイプの図形部品を使用している。このネ
ットワークディスプレイ1では、アニメーションムービ
ーあたり最大8355585個の図形部品が使用でき
る。A sprite includes image data and drawing attributes. The image data is essential image information, and the drawing attribute is arrangement information, size information (width, height), drawing operation, and the like when drawing the image data on the movie screen 51. This image data is called a graphic part. The same graphic part can be shared by a plurality of sprites. In addition, a plurality of frames 20 can share a sprite. Therefore, the data size of the animation movie can be suppressed. The network display 1 uses a graphic component of a bitmap type. In this network display 1, a maximum of 8355585 graphic parts can be used per animation movie.
【0068】図形部品の画像の幅は、1〜32767ピ
クセルで、画像の高さは、1〜32767ピクセルとな
っている。図形部品の色深度は、16bit/ピクセルのR
GB形式(R:G:B=5:6:5)で透明色は、特定
の2色を透明色として使用することで対応している。す
なわち、スプライトは、65536色(透明色の2つを
含む)の同時使用が可能となっている。また、格納形式
は、独自の圧縮率とCPU処理負荷のバランスを取った
ロスレス符号、具体的にはBID符号として格納され
る。The width of the image of the graphic part is from 1 to 32,767 pixels, and the height of the image is from 1 to 32,767 pixels. The color depth of graphic parts is 16bit / pixel R
Transparent colors in the GB format (R: G: B = 5: 6: 5) are supported by using two specific colors as transparent colors. That is, the sprite can be used simultaneously in 65536 colors (including two transparent colors). The storage format is a lossless code that balances the unique compression ratio and CPU processing load, specifically, a BID code.
【0069】図形部品に対して、次の2色を透明色とし
て扱っている。1つは、閉領域透明色で、R,G,B値
が(31,62,31)となるもので、閉じられた領域
の透明色を表す。他の1つは、開領域透明色でR,G,
B値が(31,63,31)となるもので、開かれた領
域の透明色を表す。すなわち、図10に示すように、図
形57を囲む境界58に対して開かれた透明領域59a
(一部でも境界に接する領域)の透明色は、開領域透明
色を使用する。図形57を囲む境界58に対して閉じら
れた透明領域59b(一部も境界に接しない領域)の透
明色は、閉領域透明色を使用する。図形部品の画像デー
タは、BID復号器により歪みなく伸長される。For graphic parts, the following two colors are treated as transparent colors. One is a transparent color of the closed area, in which the R, G, and B values are (31, 62, 31), and represents the transparent color of the closed area. The other one is R, G,
The B value is (31, 63, 31) and represents the transparent color of the open area. That is, as shown in FIG. 10, a transparent area 59a opened with respect to a boundary 58 surrounding the graphic 57.
An open area transparent color is used for the transparent color of the area (part of which is in contact with the boundary). As the transparent color of the transparent region 59b (region that does not partially contact the boundary) closed with respect to the boundary 58 surrounding the graphic 57, a closed region transparent color is used. The image data of the graphic component is expanded without distortion by the BID decoder.
【0070】スプライトの持つ画像データが先に示した
図形部品となる。描画属性は、画像データを描画する際
に参照される情報となっている。スプライトの持つ図形
部品に関する情報と描画属性は、次のとおりとなってい
る。すなわち、図形部品番号として、部品グループ番号
の1〜255番、部品番号の1〜32767番を保有で
きる。また、描画位置は、水平位置として、−3276
8〜32767ピクセルの範囲で可能で、垂直位置とし
て、−32768〜32767ピクセルとなっている。
また、各スプライトの幅は、1〜32767ピクセル
で、高さは、1〜32767ピクセルとなっている。The image data possessed by the sprite becomes the graphic part described above. The rendering attribute is information that is referred to when rendering image data. The information and the drawing attribute of the graphic component of the sprite are as follows. In other words, as the graphic part numbers, the part group numbers 1-255 and the part numbers 1-2767 can be held. Further, the drawing position is a horizontal position of −3276.
The range is from 8 to 32767 pixels, and the vertical position is from 32768 to 32767 pixels.
The width of each sprite is 1 to 32,767 pixels, and the height is 1 to 32,767 pixels.
【0071】アニメーションムービーで使用する図形部
品は、グループ毎に管理される。このグループを部品グ
ループと呼び、図形部品は必ずいづれかのグループに属
する。1個のアニメーションムービーあたり最大255
個のグループを使用でき、1番から255番まで順番に
番号(部品グループ番号)が付けられる。1つの部品グ
ループには、最大32767個の図形部品が登録でき
る。図形部品はグループ内で1番から32767番まで
に順番に番号(部品番号)が付けられる。このように、
スプライトが持つ図形部品は、部品グループ番号と部品
番号により指定される。複数のスプライトが同一の図形
部品を持つことが可能であり、その場合、複数のスプラ
イトは、同じ部品グループ番号と部品番号で指定される
ことになる。The graphic parts used in the animation movie are managed for each group. This group is called a part group, and the graphic parts always belong to one of the groups. Up to 255 per animation movie
Groups can be used, and numbers (part group numbers) are assigned in order from No. 1 to No. 255. A maximum of 32767 graphic parts can be registered in one part group. Graphic parts are sequentially numbered (part numbers) from 1st to 32767 in the group. in this way,
The graphic component of the sprite is specified by a component group number and a component number. A plurality of sprites can have the same graphic part. In this case, the plurality of sprites are designated by the same part group number and part number.
【0072】スプライトを描画する位置は、この実施の
形態では、ムービースクリーン座標系における画像の左
上端の点の座標で指定される。スプライトのサイズは、
図形部品のサイズと無関係に任意の値が指定できる。ス
プライトのサイズが図形部品の画像サイズより大きけれ
ば、図形は拡大して描画され、スプライトのサイズが図
形部品の画像より小さければ、図形は縮小して描画され
る。この拡大・縮小処理は、水平方向と垂直方向で独立
に機能させている。In this embodiment, the position at which the sprite is drawn is specified by the coordinates of the upper left point of the image in the movie screen coordinate system. The size of the sprite is
Any value can be specified regardless of the size of the graphic part. If the size of the sprite is larger than the image size of the graphic part, the figure is drawn in an enlarged scale. If the size of the sprite is smaller than the image of the graphic part, the figure is drawn in a reduced size. This enlargement / reduction processing is made to function independently in the horizontal and vertical directions.
【0073】各スプライトは、ブロック、ここでは、3
2×32ピクセルの大きさに分割され、そのブロック毎
に独立して圧縮される。このようにして、最大のブロッ
クサイズが決まるので、ブロック単位にスプライトの画
像データを伸長した後のデータのサイズが決まることと
なる。このため、このネットワークディスプレイ1で
は、1画素が2バイトで現されるので、合計2048バ
イト(32×32×2バイト)分のワークメモリのみ
を、ブロックバッファとしてCPU21の中に用意すれ
ば良い。Each sprite is a block, here 3
The image data is divided into 2 × 32 pixels, and each block is independently compressed. Since the maximum block size is determined in this way, the size of the data after the image data of the sprite is decompressed is determined in block units. Therefore, in the network display 1, one pixel is represented by 2 bytes, so that only the work memory for a total of 2048 bytes (32 × 32 × 2 bytes) needs to be prepared in the CPU 21 as a block buffer.
【0074】このため、スプライトの画像データの伸長
をブロック毎に行い、すべてのブロックで同一のブロッ
クバッファを使い回すことで、スプライトの画像サイズ
に拠らずに、小さな固定サイズのワークメモリでスプラ
イトの画像伸長ができるようになっている。For this reason, the image data of the sprite is expanded for each block, and the same block buffer is used for all the blocks, so that the sprite can be stored in a small fixed-size work memory regardless of the image size of the sprite. Can be expanded.
【0075】また、スプライトのデータを含むアニメー
ションデータは前述したとおり、圧縮した形式でかつ圧
縮率と処理演算量のバランスをとったアルゴリズムで圧
縮されたままメモリ23に格納される。一方、そのスプ
ライトを描画する際、リアルタイムにデータを伸長し、
描画し表示し、その後、伸長したデータを破棄してい
る。As described above, the animation data including the sprite data is stored in the memory 23 in a compressed form and compressed with an algorithm that balances the compression ratio and the amount of processing operation. On the other hand, when drawing the sprite, the data is expanded in real time,
After drawing and displaying, the decompressed data is discarded.
【0076】このスプライトのブロック分割では、図1
1に示すようなムービースクリーン51に雲のスプライ
ト61が表示され、左から右に流れていくような場合
に、CPU21や専用グラフィックスLSI22に無駄
な処理をさせることがない。これは、雲のスプライト6
1等すべてのスプライトが、図11(B)に示すよう
に、予め、32×32ピクセルのブロック60に分割さ
れて、メモリ23に保存されるためである。このため、
ムービースクリーン51に現れない右に位置するときの
非表示部分61aや左に位置するときの非表示部分61
bに該当する部分のブロック60を処理しないことで、
CPU21や専用グラフィックスLSI22のパワーを
節約することができる。In this sprite block division, FIG.
In the case where the cloud sprite 61 is displayed on the movie screen 51 as shown in FIG. 1 and flows from left to right, the CPU 21 and the dedicated graphics LSI 22 do not perform unnecessary processing. This is cloud sprite 6
This is because, as shown in FIG. 11B, all sprites such as 1 are divided into 32 × 32 pixel blocks 60 in advance and stored in the memory 23. For this reason,
A non-display portion 61a at the right position which does not appear on the movie screen 51 and a non-display portion 61 at the left position
By not processing the block 60 corresponding to b,
The power of the CPU 21 and the dedicated graphics LSI 22 can be saved.
【0077】このような複数のブロック60への分割
は、図12(A)に示すようなムービースクリーン51
の表示を、図12(B)に示すように拡大する場合にも
好適である。すなわち、拡大した際には、多数のブロッ
ク60がムービースクリーン51から外れる。その外れ
たブロック60を描画処理しないことで、CPU21な
どのパワーを節約することができる。また、ブロック6
0のためのメモリ容量が小さくなるので、CPU21の
キャッシュメモリで十分カバーできるものとなる。この
ため、CPU21内のメモリへのアクセスが局所化され
(=ヒットする確率が高くなり)、キャッシュが有効に
機能し、高速処理が実現される。Such division into a plurality of blocks 60 is performed by a movie screen 51 as shown in FIG.
It is also suitable for the case where the display is enlarged as shown in FIG. That is, when the image is enlarged, many blocks 60 are separated from the movie screen 51. By not rendering the deviated block 60, the power of the CPU 21 and the like can be saved. Block 6
Since the memory capacity for “0” is reduced, the cache memory of the CPU 21 can be sufficiently covered. Therefore, access to the memory in the CPU 21 is localized (= the probability of hit increases), the cache functions effectively, and high-speed processing is realized.
【0078】フレーム(画像)20を構成するスプライ
トは、所定の順番でムービースクリーン51に描画され
る。スプライトの描画方法として5種類のタイプがあ
る。基本的に、スプライトは、順番に上書きされていく
ため、下になった画像(画素)は失われるが、描画方法
によっては透明色処理するものや、下になった画像(画
素)を修正して新しい画像(画素)を作り出すものもあ
る。また、先に示したブレンド処理も行うことができ
る。このブレンド処理は、下になる画像と上書きする画
像を混ぜ合わせて新しい画像を作り出すものである。一
方、透明色の画素は上書きされないため、下になる画素
が保存される。The sprites constituting the frame (image) 20 are drawn on the movie screen 51 in a predetermined order. There are five types of sprite drawing methods. Basically, sprites are overwritten in order, so the underlying image (pixels) is lost. However, depending on the drawing method, the transparent color processing or the underlying image (pixels) may be modified. To create new images (pixels). Also, the blending process described above can be performed. This blending process creates a new image by mixing the underlying image and the overwritten image. On the other hand, since the transparent pixel is not overwritten, the underlying pixel is preserved.
【0079】描画方法の5種類の具体的な方法は次のと
おりとなっている。第1は、開領域透明色および閉領域
透明色を共に、白色として描画し、不透明領域の画素は
そのまま描画するものである。たとえば、図10(A)
の場合に、開かれた透明領域59aと閉じられた透明領
域59bを共に白色とする場合である。第2は、開領域
透明色を、透明色として処理し、閉領域透明色を白色と
して描画するものである。なお、不透明領域の画素は、
そのまま描画する。たとえば、図10(B)に示すよう
に、開かれた透明領域59aを透明とし、閉じられた透
明領域59bを白色とし、眼を描くような場合に使用さ
れる。第3は、開領域透明色および閉領域透明色を透明
色として処理するもので、一方、不透明領域の画素はそ
のまま描画するものである。たとえば、図10(C)に
示すように「A」を表示する場合に使用される。The five specific methods of drawing are as follows. First, both the open area transparent color and the closed area transparent color are drawn as white, and the pixels in the opaque area are drawn as they are. For example, FIG.
In this case, both the opened transparent region 59a and the closed transparent region 59b are white. Second, the open area transparent color is processed as a transparent color, and the closed area transparent color is drawn as white. The pixels in the opaque area are
Draw as it is. For example, as shown in FIG. 10B, this is used when the opened transparent area 59a is made transparent and the closed transparent area 59b is made white to draw an eye. Thirdly, the open area transparent color and the closed area transparent color are processed as transparent colors, while the pixels in the opaque area are drawn as they are. For example, it is used to display “A” as shown in FIG.
【0080】第4は、開領域透明色および閉領域透明色
を共に、透明色として処理する一方、不透明領域の下絵
の画素を反転するものである。なお、ブレンド値は無視
される。第5は、開領域透明色および閉領域透明色を共
に、透明色として処理する一方、不透明領域の画素を反
転して描画するものである。この反転は、画素が不透明
のときに行われるもので画素の値を「R’,G’,
B’」とし、反転前の値を「R,G,B」とすると、
R’=255−R,G’=255−G,B’=255−
Bの各式を使用して実行される。Fourth, both the transparent color of the open area and the transparent color of the closed area are processed as a transparent color, while the pixels of the background image of the opaque area are inverted. Note that the blend value is ignored. Fifth, both the transparent color of the open area and the transparent color of the closed area are processed as a transparent color, while the pixels in the opaque area are inverted and drawn. This inversion is performed when the pixel is opaque, and the value of the pixel is changed to “R ′, G ′,
B ′ ”and the values before inversion are“ R, G, B ”,
R '= 255-R, G' = 255-G, B '= 255
This is performed using each expression of B.
【0081】1つのアニメーションムービーは、上述し
たとおり、フレーム(画像)20を所定の時間間隔で連
続的に表示することで再生される。一枚のフレーム20
は、1つまたは複数のスプライトから構成される。表示
するフレーム20の順番や時間間隔、フレーム20を構
成するスプライトを指定する情報を上述したようにシナ
リオと呼ぶ。このシナリオがアニメーションムービー進
行の要となる。As described above, one animation movie is reproduced by continuously displaying frames (images) 20 at predetermined time intervals. One frame 20
Consists of one or more sprites. The information specifying the order and time interval of the frames 20 to be displayed and the sprites constituting the frames 20 is called a scenario as described above. This scenario is the key to the progress of the animation movie.
【0082】1つのアニメーションムービーに最大32
767枚のフレーム20が使用できる。すべてのフレー
ム20には、1番から32767番までの番号(フレー
ム番号)が付く。そして、フレーム20を表示し続ける
時間(フレーム持続時間)として、持続的に設定される
時間と、1フレームだけに有効なものの2種類の時間指
定が存在する。持続的な時間指定は、1/n秒(n=
1,2,...,120)で、1フレームだけに有効な時
間は1〜60秒となっている。このネットワークディス
プレイ1は、少なくとも指定された時間の間、そのフレ
ーム20を表示し続ける。ただし、指定された時間は保
証されるものではなく、指定時間よりも長くフレームが
表示されることがある。また、フレーム表示中に発生し
た内部イベントや外部イベントに基づく処理により指定
時間よりも短くなり、他のフレーム表示が開始されるこ
とがある。Up to 32 in one animation movie
767 frames 20 can be used. All frames 20 are numbered from 1 to 32767 (frame numbers). There are two types of time designations as the time during which the frame 20 is kept displayed (frame duration), that is, a time that is set continuously and a time that is valid only for one frame. A continuous time specification is 1 / n second (n =
1, 2,..., 120), the effective time for only one frame is 1 to 60 seconds. The network display 1 keeps displaying the frame 20 for at least a designated time. However, the specified time is not guaranteed, and the frame may be displayed longer than the specified time. In addition, a process based on an internal event or an external event generated during frame display may be shorter than the specified time, and another frame display may be started.
【0083】フレーム20の表示中に発生するイベント
を処理するイベントハンドラ(=フレームハンドラ)を
フレーム20毎に最大1つ登録でき、それがフレームス
クリプトとなる。1つのフレーム(画像)20は、0個
から120個のスプライトで構成される。フレーム20
を構成するスプライトには描画の順番が付けられる。フ
レーム20を作成する際は、この順番に従い所定の描画
方法を使って順番に重ね書きされる。An event handler (= frame handler) for processing an event that occurs during the display of the frame 20 can be registered at most one for each frame 20, and that becomes a frame script. One frame (image) 20 is composed of 0 to 120 sprites. Frame 20
Are drawn in the order of drawing. When the frame 20 is created, it is overwritten in order using a predetermined drawing method according to this order.
【0084】このネットワークディスプレイ1は、フレ
ーム20のナンバーが1番のシナリオからアニメーショ
ンムービーを再生する。ただし、アニメーションムービ
ーを再生開始する際に発生するstartMovieイベントにて
処理フレームをパラメータで指定するフレーム20へ変
更するコマンド(goコマンドという)が実行された場
合は、指定されたフレーム20からの再生開始となる場
合がある。シナリオとして存在する最後のフレーム20
が再生終了フレームとなる。この最後のフレーム20を
再生した後で、次に再生すべきフレーム20がない場合
はアニメーション再生が終了する。アニメーション再生
終了後は、最後のフレーム20が表示され続ける。最後
のフレーム20からgoコマンドで他のフレーム20へ
移動した場合は、アニメーション再生が続行する。The network display 1 reproduces an animation movie from the scenario in which the number of the frame 20 is the first. However, when a command (referred to as a go command) for changing a processing frame to a frame 20 specified by a parameter is executed in a startMovie event generated when the animation movie is started to be reproduced, the reproduction from the specified frame 20 is started. It may be. Last frame 20 existing as a scenario
Becomes the reproduction end frame. After playing the last frame 20, if there is no frame 20 to be played next, the animation playback ends. After the end of the animation reproduction, the last frame 20 is continuously displayed. When moving from the last frame 20 to another frame 20 by a go command, animation reproduction continues.
【0085】このネットワークディスプレイ1は、ダウ
ンロード再生モードと、ラッシュ(Rush)再生モードの
2つの再生モードが可能となっている。さらに、ダウン
ロード以外の方法でインストールしたデータを再生する
こともできる。ダウンロード再生モードでは、すべての
アニメーションデータをLAN3を介してダウンロード
した後に再生を開始する。ラッシュ(Rush)再生モード
では、シナリオに関するデータのダウンロードが完了し
たところで再生を開始する。残りのデータは、アニメー
ションムービー再生と並行してLAN3を介してダウン
ロードされる。この機能をストリーミング再生機能(詳
細後述)という。表示すべき図形部品がまだ取得できて
いない場合は、その部品の表示を行わない。The network display 1 has two playback modes, a download playback mode and a rush playback mode. Further, data installed by a method other than downloading can be reproduced. In the download reproduction mode, reproduction is started after downloading all animation data via the LAN 3. In the rush (Rush) reproduction mode, the reproduction is started when the download of the data relating to the scenario is completed. The remaining data is downloaded via the LAN 3 in parallel with the reproduction of the animation movie. This function is called a streaming reproduction function (details will be described later). If the graphic part to be displayed has not been acquired yet, the part is not displayed.
【0086】ブレンド処理は、スプライトを所定の描画
方法で描画する際、自身の不透明画素の色と下絵の画素
の色を指定されたブレンド比率で混合する処理である。
ブレンド比率は、0から100%の値の範囲内、この実
施の形態では32段階で指定される。値が100%の場
合は、自身の不透明画素の色で下絵は完全に上書きされ
る。値が50%の場合は、自身の不透明画素の色と下絵
の画素の色がそれぞれ1/2づつ混合される。値が0%
の場合は、下絵の色がそのまま保存される。ブレンド比
率は、スプライトの属性であり、シナリオデータの一部
として指定される。スプライトの描画方法に従って透明
画素と不透明画素が決定された後で、不透明画素に対し
てブレンド処理が実行される。The blending process is a process of mixing the color of its own opaque pixel and the color of the underlying pixel at a specified blend ratio when drawing a sprite by a predetermined drawing method.
The blend ratio is specified in a range of 0 to 100%, in this embodiment, in 32 levels. If the value is 100%, the sketch is completely overwritten with the color of its own opaque pixel. When the value is 50%, the color of its own opaque pixel and the color of the underlying pixel are mixed by 1/2 each. 0% value
In the case of, the color of the sketch is saved as it is. The blend ratio is an attribute of the sprite, and is specified as a part of the scenario data. After the transparent pixels and the opaque pixels are determined according to the sprite drawing method, a blending process is performed on the opaque pixels.
【0087】このネットワークディスプレイ1では、ラ
ンタイムシナリオ補間と呼ばれる機能が追加されてい
る。これは、シナリオに指定されたフレーム持続時間
を、そのハードの性能に合わせた時間間隔で複数のフレ
ーム20に内分するものである。すなわち、ハードを構
成する者がハードの性能、特に使用しているCPU21
の性能に合わせて所定のプログラムを組み込んでおき、
そのプログラムによって、ネットワークディスプレイ1
のCPU21がシナリオを検出判断して自動的に内分す
る。内分して新しく生成されるフレーム20のスプライ
トは、前後のフレーム20のスプライト属性から補間し
てできる新しいスプライト属性を用いて描画される。In the network display 1, a function called runtime scenario interpolation is added. This is to internally divide the frame duration specified in the scenario into a plurality of frames 20 at time intervals according to the performance of the hardware. That is, the performance of the hardware, especially the CPU 21
Incorporate a predetermined program according to the performance of
By the program, network display 1
CPU 21 detects and determines the scenario and automatically divides the scenario. The sprite of the frame 20 newly generated by internal division is drawn using a new sprite attribute obtained by interpolating from the sprite attributes of the previous and subsequent frames 20.
【0088】スプライトは、関連スプライト属性を持っ
ており、この属性は、次に表示されるフレーム20を構
成するスプライト番号(1〜120)を示す。属性を持
つスプライト自身と関連指定される次のフレーム20の
スプライトの2つが補間処理の対象となる。関連スプラ
イト属性に「0」がセットされていれば、補間の相手と
なるスプライトが存在しないことを示しており、この場
合、内分する全てのフレーム20に自身の属性を適用す
る。すなわち、属性が変化しないこととなる。補間生成
するスプライト属性は、水平・垂直位置、幅・高さ、ブ
レンド比率の3つとなっている。これら以外の属性は、
前フレーム20のスプライトの属性が適用される。The sprite has an associated sprite attribute, and this attribute indicates a sprite number (1-120) constituting the frame 20 to be displayed next. Two sprites of the next frame 20 specified in association with the sprite itself having the attribute are subjected to the interpolation processing. If “0” is set in the related sprite attribute, it indicates that there is no sprite to be interpolated. In this case, the own attribute is applied to all internally divided frames 20. That is, the attribute does not change. There are three sprite attributes to be generated by interpolation: horizontal / vertical position, width / height, and blend ratio. Other attributes are
The attributes of the sprite of the previous frame 20 are applied.
【0089】以下に、ランタイムシナリオ補間につい
て、具体的に説明する。図13に示すように、ネットワ
ークディスプレイ1は、CPU21の処理動作に余裕が
ある場合には、シナリオデータのフレーム#1とフレー
ム#2の間に、新しいフレーム#1.5を作成する。フ
レーム#1とフレーム#2との時間間隔を1秒とする
と、フレーム#1.5は、たとえばフレーム#1から
0.3秒後のフレーム20となり、0.4秒間表示す
る。フレーム#1とフレーム#2を比較すると、一部の
スプライトAのみが変化しており、スプライトBは変化
していない。したがって、ネットワークディスプレイ1
は、フレーム#1中のスプライトAのみが0.5秒後の
状態に変化したフレーム#1.5を作成することにな
る。スプライトAは、フレーム#1中の自身の位置とフ
レーム#2中の自身の位置から求められる移動距離を2
等分した位置にくる。Hereinafter, the runtime scenario interpolation will be specifically described. As shown in FIG. 13, if there is room for the processing operation of the CPU 21, the network display 1 creates a new frame # 1.5 between the scenario data frames # 1 and # 2. Assuming that the time interval between frame # 1 and frame # 2 is 1 second, frame # 1.5 is, for example, frame 20 0.3 seconds after frame # 1 and is displayed for 0.4 seconds. Comparing frame # 1 and frame # 2, only part of sprite A has changed, and sprite B has not changed. Therefore, the network display 1
Creates a frame # 1.5 in which only the sprite A in the frame # 1 changes to a state after 0.5 seconds. Sprite A sets the movement distance obtained from its own position in frame # 1 and its own position in frame # 2 by 2
Comes in equally divided positions.
【0090】表示の際、ムービースクリーン51を表示
スクリーン50のサイズに合うように自動的に拡大ある
いは縮小している。また、表示スクリーン50にムービ
ースクリーン51を表示する場合、予め、縮小率が分か
っている場合、データそのものを縮小してメモリ23に
保存する。この実施の形態では、この処理の際の縮小率
をN/M(N,Mは整数値でM>N)としている。さら
に、透明背景という機能も有している。この機能は、ム
ービースクリーン51の背景色と表示スクリーン50の
背景色を透明色処理するものである。At the time of display, the movie screen 51 is automatically enlarged or reduced to fit the size of the display screen 50. When the movie screen 51 is displayed on the display screen 50, if the reduction ratio is known in advance, the data itself is reduced and stored in the memory 23. In this embodiment, the reduction ratio in this process is set to N / M (N and M are integer values and M> N). Further, it has a function of a transparent background. This function performs transparent color processing of the background color of the movie screen 51 and the background color of the display screen 50.
【0091】また、この実施の形態では、前フレーム2
0と次フレーム20の表示を切り替える際に、特殊な画
面切り替えアニメーションを行うことができる。この画
面切り替えアニメーションのために、フレーム20は、
次の4つの情報を持つことができる。この情報を持つフ
レーム20は、前のフレーム20と自身のフレーム20
の表示の切り替えにアニメーションを用いることができ
る。In this embodiment, the previous frame 2
When switching the display between 0 and the next frame 20, a special screen switching animation can be performed. For this screen switching animation, frame 20 is
It can have the following four pieces of information. The frame 20 having this information includes the previous frame 20 and its own frame 20.
Animation can be used to switch the display of.
【0092】第1は、切り替え時間で、切り替えに要す
る総時間を0から30秒のいずれかに設定する。この時
間を最適な時間間隔で内分し画面切り替えのアニメーシ
ョンを表示する。第2は、滑らかさで、画面切り替えア
ニメーションの滑らかさを0から7の8段階のいずれか
に設定する。7がもっとも滑らかな切り替えアニメーシ
ョンを要求する。この値に合わせて最適な時間間隔を決
定し、アニメーションするフレーム20の数を決定す
る。第3は、適用範囲で、切り替えアニメーションを行
う領域をムービースクリーン51内の矩形座標で示す。
すべての座標値が0の場合は、ムービースクリーン51
全体を示す。The first is a switching time, in which the total time required for switching is set to any of 0 to 30 seconds. This time is subdivided at the optimal time interval and the animation of the screen switching is displayed. The second is smoothness, in which the smoothness of the screen switching animation is set to one of eight levels from 0 to 7. 7 requires the smoothest switching animation. An optimal time interval is determined according to this value, and the number of frames 20 to be animated is determined. Third, in the application range, the area where the switching animation is performed is indicated by rectangular coordinates in the movie screen 51.
If all coordinate values are 0, the movie screen 51
Show the whole.
【0093】第4は、切り替えタイプで、切り替えアニ
メーションのタイプを25種類用意している。いずれの
タイプを実装するかどうかは、ネットワークディスプレ
イ1によって異なる。切り替えアニメーションのタイプ
としては、たとえば、上下左右のいずれか一方から現れ
て前フレーム20をカバーしたり、逆に上下左右のいず
れか一方へ隠れていったり、次のフレーム20が前フレ
ーム20を上下左右のいずれか一方へ押し出したりする
方法が採用される。The fourth type is a switching type, in which 25 types of switching animations are prepared. Which type is implemented depends on the network display 1. As the type of the switching animation, for example, it appears from one of the upper, lower, left, and right to cover the previous frame 20, or is hidden in one of the upper, lower, left, and right, or the next frame 20 moves up and down the previous frame 20. A method of extruding one of the right and left is adopted.
【0094】このネットワークディスプレイ1の中に組
み込まれる画像処理装置は、マルチプレーヤ動作とマル
チアニメーションムービー処理を行うことが可能となっ
ている。ここでプレーヤとは、全体制御プログラムとア
ニメーションプログラムからなるアニメーション再生エ
ンジンに、外部との接続のためのインターフェースを加
えたアニメーションソフトをいう。The image processing device incorporated in the network display 1 is capable of performing multi-player operation and multi-animation movie processing. Here, the player refers to animation software in which an interface for connection to the outside is added to an animation reproduction engine including an overall control program and an animation program.
【0095】マルチプレーヤ動作は、複数のプレーヤを
同時に動作させるもので、各プレーヤは、それぞれのア
ニメーションムービーをそれぞれのシナリオに沿って再
生させる。具体的には図14に示すように、表示部11
の画面を複数に分割し、各画面11a,11bに異なる
アニメーションムービーを表示したり、図15に示すよ
うに、ネットワークディスプレイ1に他の表示装置6
5,67をつなぎ、各表示部11,66,68にそれぞ
れ異なるアニメーションムービーを表示させるものであ
る。The multi-player operation is to operate a plurality of players at the same time, and each player reproduces each animation movie according to each scenario. Specifically, as shown in FIG.
Is divided into a plurality of screens, different animation movies are displayed on the respective screens 11a and 11b, and another display device 6 is displayed on the network display 1 as shown in FIG.
5, 67 are connected to display different animation movies on the display units 11, 66, 68, respectively.
【0096】マルチアニメーションムービー処理は、1
つのプレーヤが複数のアニメーションデータを処理する
ことである。すなわち、ネットワークディスプレイ1が
状況に応じてアニメーションデータを切り替えることが
できるようになっている。たとえば、図16に示すよう
に、1つのネットワークディスプレイ1の中のプレーヤ
が商品のコマーシャルを表す1つのアニメーションムー
ビーM1を処理し描画している際に、外部からのイベン
ト、ここでは商品購入のイベントが発生したときに「ご
購入ありがとうございました」の表示等を行う他のアニ
メーションムービーM2に切り替える。その後、そのア
ニメーションムービーM2の終了によって先のアニメー
ションムービーM1に戻す。このような動作をマルチア
ニメーションムービー処理という。Multi-animation movie processing is performed by
One player processes a plurality of animation data. That is, the network display 1 can switch the animation data according to the situation. For example, as shown in FIG. 16, when a player in one network display 1 processes and draws one animation movie M1 representing a commercial of a product, an event from the outside, here, an event of product purchase Is switched to another animation movie M2 that displays "Thank you for your purchase" and the like. Thereafter, when the animation movie M2 ends, the process returns to the previous animation movie M1. Such an operation is called multi-animation movie processing.
【0097】また、複数のプレーヤで同一の仮想スクリ
ーン(=CPU21内のメモリ上に生成されるもの)を
共有することが可能となっている。これによってCPU
21内のワークメモリの使用量を抑制できる。さらに、
仮想スクリーンを共有しない場合には、スプライトベー
スによるフレーム間の差分描画を実行し、CPU21の
負荷を軽減している。Further, the same virtual screen (= generated on the memory in the CPU 21) can be shared by a plurality of players. This allows the CPU
The use amount of the work memory in 21 can be suppressed. further,
When the virtual screen is not shared, the difference drawing between the frames is executed based on the sprite, thereby reducing the load on the CPU 21.
【0098】このスプライトベースのフレーム間差分描
画とは、シナリオのデータ中にあるスプライトの位置と
サイズの情報を利用して、変化したスプライトの差分の
みを描画するものである。動画の記録再生の場合、容量
を減少させるため、フレーム間差分を取ることが行われ
ている。しかし、これは、再生されるフレームが予め所
定順に決まっている場合であり、オーサリング時(動画
制作時)に予め差分を取るものであると共にフレーム全
体を対象としている。この実施の形態のアニメーション
ムービーでは、フレーム20の出現順序が予め決められ
ていない。このため、従来のようなフレーム間差分は採
用できない。The sprite-based inter-frame difference drawing is to draw only the changed sprite difference by using information on the position and size of the sprite in the scenario data. In the case of recording and reproducing moving images, a difference between frames is taken to reduce the capacity. However, this is a case where the frames to be reproduced are determined in a predetermined order in advance, and a difference is obtained in advance at the time of authoring (at the time of producing a moving image), and the entire frame is targeted. In the animation movie of this embodiment, the order in which the frames 20 appear is not predetermined. For this reason, the conventional difference between frames cannot be adopted.
【0099】この実施の形態で採用するスプライトベー
スのフレーム間差分描画の例を図17に示す。シナリオ
や所定のイベントに基づいて出現する前フレーム20
(図17のフレーム#1)と次フレーム20(図17の
フレーム#2)との間で、スプライトS1の変化を求
め、差が生じている部分のみ描画する。変化が生じてい
ないスプライトS2や他のフレーム部分は、フレーム#
1の表示をそのまま継続する。FIG. 17 shows an example of the sprite-based inter-frame difference drawing employed in this embodiment. Previous frame 20 that appears based on a scenario or a predetermined event
A change in sprite S1 is obtained between (frame # 1 in FIG. 17) and the next frame 20 (frame # 2 in FIG. 17), and only a portion where a difference occurs is drawn. The sprite S2 and other frame portions where no change has occurred are represented by frame #
The display of 1 is continued as it is.
【0100】先に示したプレーヤは、CPU21を含む
このネットワークディスプレイ1を動作させるシステム
(以下ホストシステムという)との間で、プレーヤAP
I関数(詳細は後述)を使ってインターフェースする。
プレーヤAPI関数は、クライアントAPI関数とホス
トAPI関数の2種類から構成される。API(Applic
ation Programming Interface)とは、OSなどの基本
ソフトがアプリケーションソフト向けに用意している関
数の集まりで、この実施の形態では、約20個のC言語
関数となっている。The player described above communicates with a system (hereinafter referred to as a host system) for operating the network display 1 including the CPU 21 by the player AP.
Interface using an I function (details will be described later).
The player API function is composed of two types, a client API function and a host API function. API (Applic
The term "ation programming interface" is a group of functions prepared by the basic software such as the OS for application software. In this embodiment, about 20 C language functions are used.
【0101】クライアントAPI関数は、プレーヤに実
装され、外部に公開可能となっている。ホストシステム
は、プレーヤAPI関数を使ってアニメーションを再生
する。ホストAPI関数は、アニメーション再生処理の
中で、ホストシステムに依存する機能を切り出して関数
として規定したものである。これにより、プレーヤ自体
は、ホストシステム(プラットフォームの意味を含む)
に依存しないものになっている。各ホストシステムは、
自分の仕様に従ってこれらの関数を生成し、内部に保存
する。ホストシステム側のホストAPI関数の中で必須
な関数は1つで、それ以外はオプションとなる。The client API function is implemented in the player and can be disclosed to the outside. The host system plays the animation using the player API function. The host API function is a function defined by extracting a function depending on the host system in the animation reproduction processing. As a result, the player itself can use the host system (including the meaning of the platform).
It does not depend on. Each host system
Generate these functions according to your specifications and save them internally. One required host API function on the host system side is optional, and the others are optional.
【0102】上述のマルチアニメーションムービー処理
に当たって、この実施の形態では、プレーヤからの要請
という意味で、プレーヤインスタンスという概念を使用
する。また、個々のプレーヤインスタンスを識別する印
として、インスタンスハンドルと称するものを使用す
る。In the above-described multi-animation movie processing, this embodiment uses the concept of a player instance in the sense of a request from a player. Also, a mark called an instance handle is used as a mark for identifying each player instance.
【0103】1つのプレーヤインスタンスは、1つのア
ニメーションを管理する。プレーヤインスタンスは、実
行時に動的に生成され、そして破棄される。最大でいく
つのプレーヤインスタンスを同時に生成できるかは、プ
レーヤの構築条件に依存する。たとえば、ワークメモリ
を静的に確保するように構築する場合は、構築時にプレ
ーヤインスタンスの数を決定する。動的に確保するよう
に構築する場合は、ネットワークディスプレイ1を動作
させる全体制御プログラムに割り当てられたヒープメモ
リのサイズの動作時のメモリ状況に依存する。One player instance manages one animation. Player instances are dynamically created at runtime and destroyed. The maximum number of player instances that can be generated at the same time depends on the construction conditions of the player. For example, when the work memory is constructed so as to be statically secured, the number of player instances is determined at the time of construction. In the case of constructing to dynamically secure, the size of the heap memory allocated to the overall control program for operating the network display 1 depends on the memory condition at the time of operation.
【0104】プレーヤインスタンスを生成するには、ま
ずインスタンスハンドル構造体をメモリ23に確保し、
この構造体へのポインタを引数として、プレーヤインス
タンスを生成するAPI関数を呼び出す。この関数が成
立すると、プレーヤの中に新しいプレーヤインスタンス
が出来たことになる。このインスタンスハンドル構造体
は、プレーヤインスタンスを識別するインスタンスハン
ドルとして、全てのクライアントAPI関数の引数とし
て使われる。したがって、生存中のプレーヤインスタン
スのインスタンスハンドル構造体をメモリ23から破棄
したり、内容を破壊したり、そのメモリ23上を移動さ
せてはならない。不要になったプレーヤインスタンスを
破棄するには、プレーヤインスタンスを破棄するAPI
関数をプレーヤから呼び出す。破棄した後は、インスタ
ンスハンドルとして使われていたインスタンスハンドル
構造体は不要になる。In order to generate a player instance, first, an instance handle structure is secured in the memory 23.
An API function for generating a player instance is called using the pointer to this structure as an argument. When this function is established, a new player instance is created in the player. This instance handle structure is used as an instance handle for identifying a player instance, and as an argument of all client API functions. Therefore, the instance handle structure of the live player instance must not be discarded from the memory 23, the contents of the player instance must not be destroyed, or moved on the memory 23. To destroy a player instance that is no longer needed, use the API to destroy the player instance.
Call a function from the player. After being destroyed, the instance handle structure used as the instance handle becomes unnecessary.
【0105】プレーヤインスタンスを生成、破棄するタ
イミングは、アプリケーションに依存する。たとえば、
再生するアニメーションの数が固定の場合は、ネットワ
ークディスプレイ1に電源が入った時に必要な数のプレ
ーヤインスタンスを生成し、これを永続的に使用するこ
とができる。また、WEBプラウザのプラグインのアニ
メーション再生では、WEBページ毎にアニメーション
の数が異なるため、ページをロードした瞬間に必要数の
プレーヤインスタンスを生成し、そのページを閉じる時
にプレーヤインスタンスを破棄する。なお、プラグイン
の場合でも、サポートするアニメーション数に制限を設
ければ、先の例と同じに処理することもできる。The timing of generating and destroying a player instance depends on the application. For example,
When the number of animations to be played is fixed, the required number of player instances can be generated when the network display 1 is powered on, and can be used permanently. In the animation reproduction of the WEB browser plug-in, since the number of animations differs for each WEB page, a required number of player instances are generated at the moment of loading the page, and the player instances are destroyed when the page is closed. In the case of a plug-in, if the number of supported animations is limited, the same processing as in the above example can be performed.
【0106】ところで、ネットワークディスプレイ1に
組み込まれているプレーヤが、テレビ局8からの放送を
受信したり、WWWサーバ6からダウンロードするアニ
メーションデータは、先に説明したように、アニメーシ
ョンの進行プログラムが記述されているシナリオデータ
と、スプライトのデータ(描画属性と画像データ)とか
らなる。シナリオデータとスプライト用描画属性は、画
像データに比べて容量が小さい。このため、シナリオデ
ータとスプライトデータ用描画属性は、先にネットワー
クディスプレイ1のメモリ23に保存される。その後、
ネットワークディスプレイ1は、画像データを時間をか
けて受信したりダウンロードすることになる。この時間
をかけてのダウンロード等の際にストリーミング再生機
能が使用される。By the way, the animation data which the player incorporated in the network display 1 receives from the television station 8 or downloads from the WWW server 6 contains the animation progress program as described above. Scenario data and sprite data (drawing attributes and image data). The capacity of the scenario data and the drawing attribute for sprite is smaller than that of the image data. For this reason, the scenario data and the drawing attribute for sprite data are stored in the memory 23 of the network display 1 first. afterwards,
The network display 1 receives and downloads image data over time. The streaming playback function is used when downloading over this time.
【0107】ストリーミング再生機能をより具体的に説
明すると、プレーヤは、再生フレームを構成する画像の
中で、ダウンロード等の受信が完了しているものを描画
処理し、まだダウンロード等の受信がされていなければ
それを単純に無視する。このストリーミング再生では、
ダウンロード等したデータの更新に合わせて任意のタイ
ミングで任意の回数のクライアントAPI関数を呼び出
す。つまり、画像データをダウンロード等しながら、ダ
ウンロードしたデータが増えたことを適当なタイミング
でプレーヤインスタンスに通知するのである。なお、ク
ライアントAPI関数の呼び出しによって、その時点で
受信しているデータストリーム(メモリ23上に配置さ
れ、プレーヤが直接アクセスすることができるアニメー
ションのデータを指す)の正当性がチェックされ、不正
なフォーマットであれば、プレーヤインスタンスにセッ
トされない。この場合、通常、ホストシステムは、デー
タストリームの受信を中止する処理を行う。The streaming reproduction function will be described in more detail. The player performs drawing processing on the image constituting the reproduction frame, for which the reception of the download or the like has been completed, and the reception of the download or the like has not been completed. If not, simply ignore it. In this streaming playback,
The client API function is called an arbitrary number of times at an arbitrary timing according to the update of the downloaded data. That is, while the image data is being downloaded, the increase in the downloaded data is notified to the player instance at an appropriate timing. By calling the client API function, the validity of the data stream (pointing to the animation data which is arranged on the memory 23 and which can be directly accessed by the player) being received at that time is checked, and the data stream is incorrectly formatted. If there is, it is not set in the player instance. In this case, usually, the host system performs a process of stopping reception of the data stream.
【0108】また、シナリオデータの中のスクリプト
に、リンク先のアドレス(「http://www・・
・・・」)を入れておき、外部イベントが発生した際
に、ネットワークディスプレイ1を、LAN3、パソコ
ン4、ISDN5、WWWサーバ6およびインターネッ
ト2を介して所定のリンク先にリンクさせることができ
る。これをリンク機能という。ここで、外部イベントと
は、キーが押されたとか、自動販売機であればコインが
投入された等のような外部からの入力をいう。なお、こ
のリンク機能によれば、リンク先のWEBページにアニ
メーションが組み込まれていた場合、ネットワークディ
スプレイ1は、インターネット2やWWWサーバ6等を
介してリンク先のアニメーションデータをダウンロード
し、表示部11に再生することができる。The script in the scenario data includes a link destination address (“http: // www.
.. ") Can be entered, and when an external event occurs, the network display 1 can be linked to a predetermined link destination via the LAN 3, the personal computer 4, the ISDN 5, the WWW server 6, and the Internet 2. This is called a link function. Here, the external event refers to an external input such as a key being pressed or a coin being inserted in a vending machine. According to this link function, when an animation is embedded in the linked WEB page, the network display 1 downloads the linked animation data via the Internet 2 or the WWW server 6 and the like, and displays the display unit 11. Can be played.
【0109】たとえば、ネットワークディスプレイ1の
表示部11に、特定の会社のコマーシャルが流れている
ときに、キー操作等の外部イベントの入力を行うと、予
めシナリオのスクリプトに挿入されていた同会社のホー
ムページアドレスにアクセスできるようになる。そし
て、ネットワークディスプレイ1の表示部11には、コ
マーシャルとして流れていた会社のWEBページである
ホームページが表示される。そして、そのホームページ
にアニメーションが組み込まれていると、そのアニメー
ションをそのまま表示する。For example, when an external event such as a key operation is input while a commercial of a specific company is flowing on the display unit 11 of the network display 1, the company's script previously inserted into the scenario script is input. You will be able to access your homepage address. Then, on the display unit 11 of the network display 1, a home page, which is a WEB page of a company that has flowed as a commercial, is displayed. Then, if an animation is incorporated in the home page, the animation is displayed as it is.
【0110】プレーヤは、全体制御プログラムの一部と
して動くライブラリとしてメモリ23に保存される。ホ
ストシステムは、ライブラリから公開されるクライアン
トAPI関数を呼び出してアニメーションムービーの再
生を実行する。プレーヤがライブラリの形態でメモリ2
3に保存されるため、プレーヤは、ホストシステムの一
部のタスクとして実行されたり、画像処理装置中の他の
適当なホストモジュールによって独立したタスクとして
実行される等、柔軟な応用が可能となる。また、タスク
形態としてよりもさらに多様となるプラットフォームへ
の移植が容易になる。The player is stored in the memory 23 as a library that operates as a part of the overall control program. The host system calls a client API function published from the library to execute the playback of the animation movie. The player has the memory 2 in the form of a library.
3, the player can be flexibly applied, such as being executed as a part of a task of the host system, or being executed as an independent task by another appropriate host module in the image processing apparatus. . In addition, porting to platforms that are even more diverse than in the form of tasks becomes easier.
【0111】しかし、所定の実行権(実行時間)が仕様
として規定できるタスク実行形態ではないため、すなわ
ちライブラリ形態では、プレーヤが受動的にしか実行さ
れないということが逆に問題となることがある。つま
り、タイムスライスや特定割り込みによるタスク切り替
えで制御を獲得するのではなく、あくまでも関数が呼び
出されるのを待つ、という実行形態になるため、自立的
な時間の制御ができない、という問題である。なお、タ
イムスライスや特定割り込み等の制御は、CPU21を
含めたホストシステムの設計に依存することとなる。However, since the predetermined execution right (execution time) is not a task execution form that can be specified as a specification, that is, in a library form, there is a problem that the player is only passively executed. In other words, control is not acquired by task switching based on a time slice or a specific interrupt, but the execution form is to wait for a function to be called. Therefore, there is a problem that independent time control cannot be performed. Note that the control of the time slice, the specific interrupt, and the like depends on the design of the host system including the CPU 21.
【0112】この実施の形態では、アニメーションムー
ビーを再生するクライアントAPI関数を呼び出す際、
ホストシステムが経過時間を通知し、プレーヤが速やか
にこれに応答し、シナリオを進める仕組み(いわゆる実
時間再生機能)を搭載している。すなわち、ホストシス
テムは、より優先度の高い処理がある場合は、そちらを
優先し、この間プレーヤをまったく呼び出さない。その
処理の負荷が低くなってきたところで、経過時間と共に
プレーヤを呼び出す。プレーヤは、受け取った経過時間
の分だけシナリオを進行させ、その時点に対応するフレ
ーム20を表示する。シナリオを進める際、各フレーム
20の所定のスクリプトを実行し、スクリプトによるシ
ナリオ制御などは通常どおり機能させる。In this embodiment, when calling a client API function for playing back an animation movie,
The host system notifies the elapsed time, and the player responds promptly to the elapsed time, and has a mechanism for proceeding with the scenario (so-called real-time playback function). That is, if there is a process with a higher priority, the host system gives priority to that process, and does not call the player at all during that time. When the processing load is reduced, the player is called with the elapsed time. The player advances the scenario by the received elapsed time, and displays the frame 20 corresponding to that time. When proceeding with the scenario, a predetermined script of each frame 20 is executed, and scenario control and the like by the script function normally.
【0113】この機能を使えば、同一のアニメーション
データを異なるCPUパワーや異なるタスク優先度(異
なる負荷状況)のシステムで実行しても、シナリオに記
述された時間でアニメーションを再生することが可能に
なる。なお、再生時間の精度は、ホストシステムが通知
する経過時間の精度に依存することとなる。By using this function, even if the same animation data is executed by a system having different CPU powers and different task priorities (different load conditions), it is possible to reproduce the animation at the time described in the scenario. Become. Note that the accuracy of the playback time depends on the accuracy of the elapsed time notified by the host system.
【0114】本機能を使用しない場合は、所定のクライ
アントAPI関数が呼ばれるたびに、経過時間を考慮し
ながら、シナリオを1つずつ進めていくこととなる。シ
ナリオの進行速度に対して、十分な時間間隔でクライア
ントAPI関数が呼ばれるのであれば、シナリオ上の時
間指定に追従できるが、クライアントAPI関数の呼び
出しが遅くなると再生速度も遅くなりシナリオ上に指定
された時間での再生ができなくなる。しかし、シナリオ
に記述された全てのフレームが飛ばされることなく順番
に表示されることが保証される。When this function is not used, each time a predetermined client API function is called, the scenario is advanced one by one while considering the elapsed time. If the client API function is called at a sufficient time interval with respect to the progress speed of the scenario, it is possible to follow the time specification on the scenario, but if the call of the client API function is delayed, the playback speed is also reduced and the client API function is specified on the scenario. Playback in the specified time cannot be performed. However, it is guaranteed that all the frames described in the scenario are displayed in order without being skipped.
【0115】実時間再生本機能を使用するかどうかは、
プレーヤの動作形態や再生するアニメーションの内容に
依存するため、プレーヤインスタンス毎に選択できるよ
うになっている。また、同時に複数のアニメーションを
再生しながら、一部は実時間再生本機能を使用し、一部
は使用しないなどの設定が可能になっている。Whether to use the real-time playback function is determined by
Since it depends on the operation mode of the player and the content of the animation to be reproduced, it can be selected for each player instance. In addition, it is possible to set such that while playing a plurality of animations at the same time, a part of the function is used for real-time playback, and a part is not used.
【0116】図18に、ホストシステムからプレーヤへ
の経過時間の通知を通じて、ネットワークディスプレイ
1の表示部11にアニメーションが再生される仕組みを
模式的に示す。CPU21を含むホストシステムは、ア
ニメーションの再生よりも優先度の高い処理を行う必要
が生じた場合には、プレーヤ側のクライアントAPI関
数を呼び出さない。その後、優先度の高い処理を完了あ
るいは完了間近の状態となり処理負担が小さくなった段
階で、クライアントAPI関数を呼び出す。FIG. 18 schematically shows a mechanism in which animation is reproduced on the display unit 11 of the network display 1 through notification of the elapsed time from the host system to the player. The host system including the CPU 21 does not call the client API function on the player side when it becomes necessary to perform a process having a higher priority than the reproduction of the animation. Thereafter, the client API function is called when the processing with a high priority is completed or nearly completed and the processing load is reduced.
【0117】このクライアントAPI関数の呼び出しの
際に、ホストシステムは、クロックから得た実時間を基
に前回の呼び出しからの経過時間をプレーヤに通知す
る。経過時間を受け取ったプレーヤは、経過時間の分だ
けシナリオを進行させて、その進行させた時点に対応す
るフレーム20を表示する。プレーヤは、シナリオを進
める際、単に、経過時間内に再生するはずであったフレ
ーム20を捨てるのではなく、各フレーム20の所定の
プログラムであるスクリプトを実行して、スクリプトに
よるシナリオ制御を行うようにしている。すなわち、各
フレーム20中のシナリオは確実に実行されると共に経
過時間内に再生すべきフレーム20をシナリオに従い、
高速で再生処理するようにしている。At the time of calling the client API function, the host system notifies the player of the elapsed time from the previous call based on the real time obtained from the clock. The player who has received the elapsed time advances the scenario by the elapsed time, and displays the frame 20 corresponding to the time when the scenario was advanced. When proceeding with the scenario, the player does not simply discard the frames 20 that should have been reproduced within the elapsed time, but executes a script that is a predetermined program of each frame 20 to perform scenario control by the script. I have to. That is, the scenario in each frame 20 is reliably executed, and the frame 20 to be reproduced within the elapsed time is determined according to the scenario.
The playback process is performed at high speed.
【0118】次に、この実時間再生機能について、図1
9に示す具体的なシナリオとフレームを用いて説明す
る。テレビ局8からアニメーションデータが送信され、
ネットワークディスプレイ1が受信を行ったとする。メ
モリ23に保存されたシナリオは、1〜5の数字を順に
1秒間隔で表示していき、5まで表示したらまた1の表
示に戻り、再度5までの数字を表示するものであるとす
る。各数字の表示時間も、1秒とする。したがって、2
0秒で1サイクルのアニメーション再生を行うこととな
る。Next, this real-time reproduction function will be described with reference to FIG.
This will be described using a specific scenario and frame shown in FIG. Animation data is transmitted from the television station 8,
It is assumed that the network display 1 has performed reception. In the scenario stored in the memory 23, it is assumed that the numbers 1 to 5 are sequentially displayed at one-second intervals, and when the number is displayed up to 5, the display returns to 1 again, and the numbers up to 5 are displayed again. The display time of each number is also one second. Therefore, 2
One cycle of animation reproduction is performed in 0 seconds.
【0119】いま、数字1のフレ−ム20を表示後、1
秒経過した時点で、CPU21が他の処理のためプレー
ヤを呼び出さなくなり、その後4秒経過してから、プレ
ーヤを呼び出したものとする。プレーヤは、ホストシス
テムからの呼び出しの際に、4秒経過というデータも受
け取る。これによって、数字2のフレーム20を表示す
るはずであったプレーヤは、シナリオを4秒進めて、中
断していなければ表示するはずであったフレーム、すな
わち数字4のフレーム20を表示する。この4秒間に表
示するはずであった数字2、数字3の両フレーム20は
全く再生されないわけではなく、高速で再生される。Now, after displaying the frame 20 of the numeral 1, 1
It is assumed that the CPU 21 stops calling the player for another processing at the time when the second has elapsed, and calls the player after 4 seconds have elapsed thereafter. The player also receives data indicating that 4 seconds have elapsed upon calling from the host system. Thus, the player who should have displayed the frame 20 of the numeral 2 advances the scenario by 4 seconds, and displays the frame which should have been displayed if the frame was not interrupted, that is, the frame 20 of the numeral 4. The frames 20 of the numerals 2 and 3 that should have been displayed during these four seconds are not necessarily not reproduced at all, but are reproduced at a high speed.
【0120】上記の具体例は、説明を容易にするため秒
単位でフレーム20を表示するものとしたが、実際に
は、1秒間に約10から80枚のフレーム20を表示す
るスピードのシナリオである。したがって、経過時間内
のフレーム20を高速で再生し、すぐに所定のフレーム
20を表示するようにしても、肉眼ではほとんどとらえ
ることはできず、通常の画像再生と同様に感じられる。In the above specific example, the frames 20 are displayed in units of seconds for ease of explanation. However, in actuality, in a scenario of a speed of displaying about 10 to 80 frames 20 per second. is there. Therefore, even if the frame 20 within the elapsed time is reproduced at a high speed and the predetermined frame 20 is displayed immediately, the frame 20 can hardly be recognized by the naked eye, and can be felt similarly to the normal image reproduction.
【0121】また、ホストシステムがプレーヤに通知す
る経過時間を、実時間と異なる時間とすることも可能で
ある。たとえば、実際には、クライアントAPI関数を
呼び出していない時間が4秒であっても、その2倍の8
秒あるいは1/2である2秒を通知することもできる。
実時間の2倍の時間を通知すると、プレーヤは通知され
た時間に忠実にシナリオを進行させるので、表示部11
には、本来のシナリオより先の時点のフレーム20が表
示されることになる。すなわち、アニメーションは一時
的に2倍速再生となる。一方、実時間の1/2倍の時間
を通知すると、表示部11には、本来のシナリオより後
ろの時点のフレーム20が表示されることになる。すな
わち、アニメーションは一時的に1/2倍速再生とな
る。このように、ホストシステムは、実時間を通知する
のではなく、アニメーションの再生環境に応じて、任意
の時間を通知することができる。The elapsed time notified by the host system to the player may be different from the actual time. For example, even if the time during which the client API function is not called is 4 seconds, twice as much as 8 seconds.
Seconds or two-seconds, which is 1/2, can also be notified.
When the player notifies the player of the time twice as much as the real time, the player advances the scenario faithfully at the notified time.
Displays the frame 20 at a point earlier than the original scenario. That is, the animation is temporarily reproduced at double speed. On the other hand, when a time that is 1 / times the real time is notified, the display unit 11 displays the frame 20 at a time later than the original scenario. That is, the animation is temporarily reproduced at 1/2 speed. As described above, the host system can notify an arbitrary time according to the reproduction environment of the animation instead of notifying the real time.
【0122】ネットワークディスプレイ1は、複数のプ
レーヤインスタンスを使ってアニメーションを再生する
際に、経過時間の初期値をコントロールすることによっ
て、複数のプレーヤインスタンスの同期を取りながらア
ニメーションを再生することができる。たとえば、2つ
のアニメーションをネットワークディスプレイ1の表示
部11に同時再生する場合において、CPU21が他の
優先度の高い処理をせざるを得なくなり、第1のアニメ
ーションをシナリオにしたがって再生することはできる
が、第2のアニメーションの再生を行うことができない
状況になったとする。When playing back an animation using a plurality of player instances, the network display 1 can play back the animation while synchronizing the plurality of player instances by controlling the initial value of the elapsed time. For example, when two animations are simultaneously reproduced on the display unit 11 of the network display 1, the CPU 21 is forced to perform other high-priority processing, and the first animation can be reproduced according to the scenario. Assume that a situation has arisen in which the reproduction of the second animation cannot be performed.
【0123】この場合、第1のアニメーションは、プレ
ーヤの管理の下でネットワークディスプレイ1の表示部
11に再生されるが、第2のアニメーションは、再生で
きず停止した状態となる。次に、優先度の高い処理に対
するCPU21の負荷が軽減されると、第2のアニメー
ションの再生が開始される。このとき、第2のアニメー
ションは、本来、第1のアニメーションと同時進行すべ
き予定のものであるとき、そのまま第2のアニメーショ
ンを再生すると、第1のアニメーションとずれを生じて
しまう。In this case, the first animation is reproduced on the display unit 11 of the network display 1 under the management of the player, but the second animation cannot be reproduced and is stopped. Next, when the load on the CPU 21 for the process with the higher priority is reduced, the reproduction of the second animation is started. At this time, if the second animation is originally intended to proceed at the same time as the first animation, if the second animation is reproduced as it is, a deviation from the first animation occurs.
【0124】そこで、ネットワークディスプレイ1は、
複数のプレーヤインスタンスの同期をとりながらアニメ
ーションの再生を行うようにしている。すなわち、第1
のアニメーションの経過時間の初期値をコントロールし
て各プレーヤインスタンスの同期をとりながらアニメー
ションの再生を行う。具体的には、第1のアニメーショ
ンが先行した時間(=第2のアニメーションが停止して
いた時間)を第2のアニメーションのためのプレーヤイ
ンスタンスに通知し、第2のアニメーションの再生を、
既に経過した時間を飛ばした部分から開始させる。この
結果、同期再生する複数のアニメーションの開始時期が
ずれても、あたかも最初からシナリオ通りに複数のアニ
メーションが再生されているかのような状態となる。Therefore, the network display 1
Animation playback is performed while synchronizing a plurality of player instances. That is, the first
The playback of the animation is performed while controlling the initial value of the elapsed time of the animation and synchronizing each player instance. Specifically, the time when the first animation precedes (= the time when the second animation was stopped) is notified to the player instance for the second animation, and the reproduction of the second animation is performed.
Start from the part where the elapsed time has been skipped. As a result, even if the start times of a plurality of animations to be synchronously reproduced are shifted, a state is obtained as if a plurality of animations were reproduced according to a scenario from the beginning.
【0125】この実施の形態では、通常は、シナリオに
記述されているフレーム20の順番にそってアニメーシ
ョンを再生するが、ホストシステムは、任意のタイミン
グで任意のフレーム20に再生位置を変更することが可
能となっている。それには、クライアントAPI関数中
のムービー再生のための関数の最後の引数に、変更する
シナリオのフレーム番号を指定する。なお、この引数が
0の時は、シナリオのフレーム順番にしたがって再生す
ることとなる。In this embodiment, the animation is normally reproduced in the order of the frames 20 described in the scenario. However, the host system must change the reproduction position to an arbitrary frame 20 at an arbitrary timing. Is possible. To do so, the frame number of the scenario to be changed is specified as the last argument of the function for movie playback in the client API function. When this argument is 0, the reproduction is performed according to the frame order of the scenario.
【0126】この機能を使って、1つのシナリオの中
に、さらに、数種類のシナリオのブロック(サブシナリ
オ)を準備しておき、機器の状態に応じて対応するシナ
リオのアニメーションを即座に再生することができる。
たとえば、ボタンが押されたときに再生するアニメーシ
ョンのサブシナリオや、機器の状態が変化したときに再
生するサブシナリオを組み込んでおくことが可能であ
る。Using this function, several types of scenario blocks (sub-scenarios) are prepared in one scenario, and the animation of the corresponding scenario is immediately reproduced according to the state of the device. Can be.
For example, it is possible to incorporate an animation sub-scenario to be reproduced when a button is pressed or a sub-scenario to be reproduced when the state of the device changes.
【0127】サブシナリオをフレーム番号ではなく、具
体的な名前(以下ラベル名という)で指定することも可
能となっている。たとえば「OKAIAGE」のような
表示が可能である。アニメーションデータ中に、このラ
ベル名と実際のフレーム番号を対応させたテーブルを用
意しておき、クライアントAPI関数中のラベル名をフ
レーム番号に変換するAPI関数を呼び出すことで、こ
のラベル名を対応するフレーム番号に変換する。このラ
ベル名での指定を利用することによって、ホストシステ
ムを作成するプログラマーと、アニメーションデータを
作成するデザイナーとは、このラベル名を元に仕様書を
作成して仕事を分担して作業を進めることが可能とな
る。The sub-scenario can be specified by a specific name (hereinafter, referred to as a label name) instead of a frame number. For example, a display such as “OKAIAGE” is possible. In the animation data, a table in which the label name is associated with the actual frame number is prepared, and an API function for converting the label name in the client API function into the frame number is called to correspond to the label name. Convert to frame number. By using the specification by this label name, the programmer who creates the host system and the designer who creates the animation data must create specifications based on this label name and share work. Becomes possible.
【0128】次に、このように構成されたネットワーク
ディスプレイ1の動作の概要について説明する。Next, an outline of the operation of the network display 1 configured as described above will be described.
【0129】まず、電源をオンにし、ネットワークディ
スプレイ1を動作状態にする。そして、LAN3、パソ
コン4、ISDN5、WWWサーバ6を介してインター
ネット2へ接続する。このとき、インターネットアクセ
ス用の操作釦部12b、指示操作部12cを利用して接
続を行う。その後、WWWサーバ6からアニメーション
データをダウンロードする。また、時には、テレビ局8
からの放送によってアニメーションデータを受信する。
ダウンロード再生モードのときは、全てのアニメーショ
ンデータをダウンロードまたは受信した後に、再生を開
始する。ラッシュ(RUSH)再生モードのときは、シ
ナリオに関するデータのダウンロードまたは受信が完了
したところで再生を開始する。なお、インターネット2
を介するのではなく、HTTPサーバをLAN3に接続
し、そのHTTPサーバからアニメーションデータをダ
ウンロードするようにしても良い。First, the power is turned on, and the network display 1 is brought into an operating state. Then, it is connected to the Internet 2 via the LAN 3, the personal computer 4, the ISDN 5, and the WWW server 6. At this time, the connection is made using the operation button unit 12b for Internet access and the instruction operation unit 12c. After that, the animation data is downloaded from the WWW server 6. Sometimes, the TV station 8
Receives animation data by broadcasting from.
In the download playback mode, playback is started after all the animation data has been downloaded or received. In the rush (RUSH) playback mode, the playback is started when the download or reception of the data related to the scenario is completed. Internet 2
Instead, an HTTP server may be connected to the LAN 3 and animation data may be downloaded from the HTTP server.
【0130】再生が開始されると、アニメーションムー
ビーが所定のシナリオに沿って表示部11に表示され
る。その後は、上述した各機能を使ってアニメーション
ムービーが上映される。その際、各スプライトがブロッ
ク60に分割されており、CPU21や専用グラフィッ
クスLSI22のパワーとワークメモリの容量を抑制す
ることができる。When the reproduction is started, the animation movie is displayed on the display unit 11 according to a predetermined scenario. Thereafter, an animation movie is screened using the above-described functions. At this time, each sprite is divided into blocks 60, so that the power of the CPU 21 and the dedicated graphics LSI 22 and the capacity of the work memory can be suppressed.
【0131】以上のようなネットワークディスプレイ1
をインターネット2に接続せず、クローズドされた中で
使用する場合の使い方の1例を図20に示す。ホスト兼
HTTPサーバとなる1台のパソコン70に複数のネッ
トワークディスプレイ1が接続されている。パソコン7
0では画面一杯に画像表示がなされているが、各ネット
ワークディスプレイ1には、その画像の一部のみが表示
されるようになっている。ただし、各ネットワークディ
スプレイ1では、スクロール機能により、パソコン70
上の画面の一部をスクロールさせることにより画面全体
の内容を把握できる。なお、このネットワークディスプ
レイ1のデータ圧縮方式をソフトウエアのみで再生が可
能なものとすることにより、専用のハードウエアを不要
とでき、小型化および低価格化に有利なものとすること
ができる。The network display 1 as described above
FIG. 20 shows an example of how to use this in a closed state without connecting to the Internet 2. A plurality of network displays 1 are connected to one personal computer 70 serving as a host and an HTTP server. PC 7
At 0, an image is displayed on the entire screen, but only a part of the image is displayed on each network display 1. However, in each of the network displays 1, the scroll function allows the PC 70
By scrolling a part of the upper screen, the contents of the entire screen can be grasped. By making the data compression method of the network display 1 reproducible only by software, it is possible to eliminate the need for dedicated hardware, which is advantageous for miniaturization and cost reduction.
【0132】さらに、パソコン70の画像全体ではな
く、図20に示すように、その一部分のみを表示するよ
うにすると、画像全体をデコードする必要がなくなり、
表示用メモリを小さくできる。なお、各ネットワークデ
ィスプレイ1によって、その表示用メモリと表示用パネ
ルの大きさを変えるようにしても良い。例えば、あるネ
ットワークディスプレイ1は、「ABCD」を表示でき
るようにし、他のネットワークディスプレイ1は、「A
B」を表示できるようにし、さらに他のネットワークデ
ィスプレイ1は、「A」のみを表示できるような大きさ
としても良い。Furthermore, if only a part of the image is displayed instead of the entire image of the personal computer 70 as shown in FIG. 20, it is not necessary to decode the entire image.
The display memory can be reduced. The size of the display memory and the size of the display panel may be changed depending on each network display 1. For example, one network display 1 can display “ABCD” and another network display 1 can display “ACD”.
B "may be displayed, and the other network display 1 may be sized to display only" A ".
【0133】なお、上述の実施の形態は、本発明の好適
な実施の形態の例であるが、これに限定されるものでは
なく、本発明の要旨を逸脱しない範囲において、種々変
形実施可能である。例えば、インターネット2ではな
く、イントラネットと呼ばれる特定企業内のみのネット
ワーク等各種のネットワークにも利用できる。すなわ
ち、HTTPサーバやWWWサーバを有するシステムで
あれば、本発明を適用することができる。さらには、サ
ーバを有さず、単にアニメーションを再生する装置にも
本発明を適用できる。Although the above-described embodiment is an example of a preferred embodiment of the present invention, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention. is there. For example, it can be used not only for the Internet 2 but also for various networks such as a network only in a specific company called an intranet. That is, the present invention can be applied to any system having an HTTP server or a WWW server. Further, the present invention can be applied to a device that does not have a server and simply reproduces animation.
【0134】また、ブロック60の大きさを32×32
ピクセルではなく、16×16ピクセルや64×64ピ
クセル等他の大きさとしても良い。また、縦横同じ大き
さではなく、縦横の大きさを変えたブロックとしても良
い。また、スプライトの大きさや種類に合わせ、スプラ
イトを分割するブロックの大きさを変えるようにしても
良い。Further, the size of the block 60 is set to 32 × 32
Instead of a pixel, it may be another size such as 16 × 16 pixels or 64 × 64 pixels. Also, the blocks may have different vertical and horizontal sizes instead of the same vertical and horizontal sizes. Further, the size of the block that divides the sprite may be changed according to the size and type of the sprite.
【0135】また、ネットワークディスプレイ1ではな
く、テレビ局8からの放送を受信する通常のテレビジョ
ン受信機に本発明の画像処理装置を組み込むようにして
も良い。さらには、アニメーションを表示部に表示させ
る各種の装置、たとえば産業機器用パネルディスプレ
イ、自動販売機、コンビニエンスストアのレジスタ、パ
チンコ台等の遊戯装置等にも本発明を適用することがで
きる。なお、テレビジョン受信機に用いる場合、画像間
に流されるデジタル情報にシナリオデータ等を含ませた
り、デジタル放送に適用したりするのが好ましい。Further, the image processing apparatus of the present invention may be incorporated in an ordinary television receiver that receives a broadcast from the television station 8 instead of the network display 1. Further, the present invention can be applied to various devices for displaying animation on a display unit, for example, a panel display for industrial equipment, a vending machine, a register of a convenience store, and a game machine such as a pachinko machine. When used in a television receiver, it is preferable to include scenario data or the like in digital information passed between images, or to apply digital broadcasting.
【0136】ネットワークディスプレイ1の代わりにテ
レビジョン受信機とした場合、分割画面表示、ランタイ
ムシナリオ補間の各機能が十分生かされることとなる。
たとえば、テレビ放送としてアニメーションが放送され
るとする。このとき受信するテレビは、その価格等によ
って使用されるCPUに大きな差が生じている。このた
め、テレビ放送するアニメション側では、ある程度のフ
レーム持続時間を設定しておく。一方、受信するテレビ
ジョン側では高機能の場合は、ランタイムシナリオ補間
機能を使用し、多数のフレームからなる見易く動きのな
めらかなアニメーションとし、低機能なテレビジョンで
は、送信側で設定された時間間隔でアニメーションを表
示することとなる。If a television receiver is used instead of the network display 1, the functions of split screen display and runtime scenario interpolation will be fully utilized.
For example, assume that an animation is broadcast as a television broadcast. At this time, there is a large difference in the CPU used depending on the price of the television to be received. For this reason, the animation broadcasting side sets a certain frame duration. On the other hand, if the receiving TV is high-performance, use the run-time scenario interpolation function to create a smooth animation with a lot of frames and easy-to-see motion.For low-performance TV, set the time interval set on the transmitting side. To display the animation.
【0137】また、図21に示すように、表示処理機能
を持った装置81に本発明のプレーヤ82を組み込み、
その装置81につながれた表示装置83にアニメーショ
ンを表示させるようにしても良い。具体的には、ビデオ
カセットレコーダ等のオーディオビジュアル機器やカー
ナビゲーション機器を表示処理機能を持った装置81と
することができる。As shown in FIG. 21, a player 82 of the present invention is incorporated in a device 81 having a display processing function.
The animation may be displayed on the display device 83 connected to the device 81. Specifically, an audiovisual device such as a video cassette recorder or a car navigation device can be used as the device 81 having a display processing function.
【0138】さらに、図22に示すように、携帯型の装
置85を用い、アニメーションデータが記録されたCD
−ROM86やフラッシュメモリカード87を挿入可能
となるように構成しても良い。この場合、CD−ROM
86の代わりにまたは互換性をもってDVD−ROM、
DVD−RAM等のポータブルメディアを使用したり、
フラッシュメモリカード87の代わりに、または併行し
てICカード、ROMカートリッジ等のポータブルデバ
イスを使用できるようにしても良い。Further, as shown in FIG. 22, using a portable device 85, a CD in which animation data is recorded
-It may be configured such that the ROM 86 and the flash memory card 87 can be inserted. In this case, CD-ROM
DVD-ROM instead of or compatible with
Use portable media such as DVD-RAM,
Instead of or in parallel with the flash memory card 87, a portable device such as an IC card or a ROM cartridge may be used.
【0139】なお、図21に示すように、表示装置83
を、プレーヤ82が配置される装置81と別体に設ける
場合、表示装置83自体に設けられるかまたは表示装置
83と別体に設けられる入力装置(タッチパネル、ボタ
ン、リモコン等)との入力インターフェース回路が装置
81の内部のCPU(図3のCPU21に相当)に接続
され、そのCPUの制御を受けることとなる。Note that, as shown in FIG.
Is provided separately from the device 81 on which the player 82 is disposed, an input interface circuit provided with the display device 83 itself or an input device (such as a touch panel, a button, or a remote controller) provided separately from the display device 83 Is connected to the CPU (corresponding to the CPU 21 in FIG. 3) inside the device 81, and is controlled by the CPU.
【0140】また、図22に示すように、CD−ROM
86等のポータブルメディアやフラッシュメモリカード
87等のポータブルデバイスを使用可能とする装置85
の場合、ネットワークであるLAN3のためのインター
フェース(図3の送受信回路25に相当)に加え、ポー
タブル媒体用インターフェースが装置85の内部のCP
U(図3のCPU21に相当)に接続され、そのCPU
の制御を受けることとなる。Also, as shown in FIG.
Device 85 that enables the use of portable media such as 86 or a portable device such as a flash memory card 87
In this case, in addition to the interface for the network LAN3 (corresponding to the transmission / reception circuit 25 in FIG. 3), the portable medium
U (corresponding to the CPU 21 in FIG. 3), and the CPU
Will be controlled.
【0141】また、上述の実施の形態では、アニメーシ
ョンの再生をシナリオに記述されているフレームの順番
に沿って再生する方法と、任意のタイミングで任意のフ
レームに再生位置を変更して再生する方法の2つの再生
方法を実行できるようになっているが、いずれか一方の
みの再生方法を採用したり、他の再生方法をさらに追加
しても良い。In the above-described embodiment, a method of reproducing animation in the order of frames described in the scenario and a method of changing the reproduction position to an arbitrary frame at an arbitrary timing and reproducing the animation. Although the above two reproduction methods can be executed, a reproduction method of only one of them may be adopted, or another reproduction method may be further added.
【0142】さらに、プレーヤをネットワークディスプ
レイ1やテレビジョン受信機等に予め組み込むのではな
く、ネットワークであるLAN3や無線等によってホス
トサーバ等からプレーヤをダウンロード等によって適宜
組み込むようにしても良い。また、プレーヤを使用後、
一旦そのプレーヤを廃棄し、再度必要になったときに内
部に取り込むようにしても良い。Further, instead of incorporating the player in the network display 1 or the television receiver or the like in advance, the player may be appropriately incorporated by downloading or the like from a host server or the like via the network LAN3 or wirelessly. Also, after using the player,
The player may be discarded once and taken in again when needed.
【0143】また、プレーヤは、実体的にはソフトウエ
アであり、一方、ホストシステムを動作させるものも全
体制御プログラムとなるソフトウエアである。このた
め、各発明における表示方法をステップ化すると共にプ
ログラム化することが可能である。そして、そのプログ
ラムをCD−ROM等の記録媒体に記録し、コンピュー
タで読みとり、実行させることにより本明細書中に示し
た各処理(各表示方法を含む)を具現化させることがで
きる。The player is actually software, and the one that operates the host system is also software that serves as an overall control program. For this reason, the display method in each invention can be made into steps and programmed. The program is recorded on a recording medium such as a CD-ROM, read by a computer, and executed, thereby realizing each process (including each display method) described in this specification.
【0144】[0144]
【発明の効果】以上説明したように、請求項1および2
記載の画像表示方法や請求項7および8記載の画像処理
装置では、フレームの表示順序が一定でないアニメーシ
ョンであっても十分データ量を減少できると共に高速描
画が可能となる。また、請求項3から5記載の画像表示
方法や請求項9から11記載の画像処理装置では、アニ
ションの表示を見る者にとって、従来に比べ一層面白味
のあるものとなる。さらに、請求項6記載の画像表示方
法や請求項12記載の画像処理装置では、動画のオーサ
リングを行う者が全体制御プログラムの作成者と打ち合
わせ等をほとんど行うことなく動画を制作でき、動画の
作成効率を上げることができる。As described above, claims 1 and 2
In the image display method described above and the image processing apparatus described in claims 7 and 8, even in the case of animation in which the display order of frames is not constant, the data amount can be sufficiently reduced and high-speed drawing can be performed. Further, in the image display method according to the third to fifth aspects and the image processing apparatus according to the ninth to eleventh aspects, a person who looks at the display of the animation becomes more interesting than before. Further, in the image display method according to the sixth aspect and the image processing apparatus according to the twelfth aspect, a person who authors a moving image can produce a moving image with almost no meeting with the creator of the overall control program. Efficiency can be increased.
【図1】本発明の実施の形態である画像処理装置が組み
込まれたネットワークディスプレイが接続されるインタ
ーネットシステムの概要を示す図である。FIG. 1 is a diagram showing an outline of an Internet system to which a network display incorporating an image processing apparatus according to an embodiment of the present invention is connected.
【図2】図1のネットワークディスプレイの概観を示す
斜視図である。FIG. 2 is a perspective view showing an overview of the network display of FIG. 1;
【図3】図1のネットワークディスプレイの回路構成を
示すブロック図である。FIG. 3 is a block diagram showing a circuit configuration of the network display of FIG. 1;
【図4】図1のネットワークディスプレイ中の専用グラ
フィックスLSIの回路構成を示すブロック図である。FIG. 4 is a block diagram showing a circuit configuration of a dedicated graphics LSI in the network display of FIG. 1;
【図5】図3のネットワークディスプレイ中のメモリ2
3内に保存されるシナリオの役割を説明するための図で
ある。FIG. 5 is a memory 2 in the network display of FIG. 3;
FIG. 3 is a diagram for explaining the role of a scenario stored in the third scenario.
【図6】図1のネットワークディスプレイに使用される
専用グラフィックスLSI内の画像処理部の基本的動作
を説明するための図である。FIG. 6 is a diagram for explaining a basic operation of an image processing unit in a dedicated graphics LSI used for the network display of FIG. 1;
【図7】図4の専用グラフィックスLSIで行う拡大・
縮小処理等の処理順序を説明するための図である。FIG. 7 shows an enlargement and enlargement performed by the dedicated graphics LSI of FIG.
It is a figure for explaining the processing order of reduction processing etc.
【図8】図4の専用グラフィックスLSIで行う透明色
処理の原理を説明するための図である。FIG. 8 is a diagram for explaining the principle of transparent color processing performed by the dedicated graphics LSI of FIG. 4;
【図9】図1のネットワークディスプレイで動作するア
ニメーションムービーのイベント(制御)の種類とその
ルートを示す図である。FIG. 9 is a diagram showing types and routes of events (controls) of an animation movie operating on the network display of FIG. 1;
【図10】図4の専用グラフィックスLSIで行う開領
域と閉領域の各透明色処理を説明するための図である。FIG. 10 is a diagram for explaining transparent color processing of an open area and a closed area performed by the dedicated graphics LSI of FIG. 4;
【図11】図1のネットワークディスプレイに表示され
るアニメーションのスプライトを小さいブロックに分割
する場合について説明する図で、(A)は雲のスプライ
トが流れていく様子を示す図で、(B)は雲のスプライ
トを小さなブロックに分割する例を示す図である。11A and 11B are diagrams illustrating a case in which an animation sprite displayed on the network display in FIG. 1 is divided into small blocks. FIG. 11A illustrates a state in which a cloud sprite flows, and FIG. It is a figure showing an example which divides a cloud sprite into small blocks.
【図12】図1のネットワークディスプレイに表示され
るアニメーションのスプライトを小さいブロックに分割
する場合の他の例を示す図で、(A)はムービースクリ
ーンに「GOAL」と書かれたスプライトが全面描画さ
れた状態を示す図で、(B)はその一部が拡大されてム
ービースクリーンに描画された状態を示す図である。12A and 12B are diagrams illustrating another example of a case where an animation sprite displayed on the network display of FIG. 1 is divided into small blocks. FIG. 12A illustrates a movie screen in which a sprite written “GOAL” is entirely drawn. (B) is a diagram showing a state where a part thereof is enlarged and drawn on a movie screen.
【図13】図1のネットワークディスプレイで行うラン
タイムシナリオ補間を説明するための図である。FIG. 13 is a diagram for explaining runtime scenario interpolation performed by the network display of FIG. 1;
【図14】図1のネットワークディスプレイが行うマル
チプレーヤ動作の1例を示す図である。FIG. 14 is a diagram illustrating an example of a multi-player operation performed by the network display of FIG. 1;
【図15】図1のネットワークディスプレイが行うマル
チプレーヤ動作の他の例を示す図である。FIG. 15 is a diagram showing another example of the multi-player operation performed by the network display of FIG. 1;
【図16】図1のネットワークディスプレイが行うマル
チアニメーションムービー処理の1例を説明するための
図である。FIG. 16 is a diagram illustrating an example of a multi-animation movie process performed by the network display of FIG. 1;
【図17】図1のネットワークディスプレイが行うスプ
ライトベースのフレーム間差分描画を説明するための図
である。FIG. 17 is a view for explaining sprite-based inter-frame difference drawing performed by the network display of FIG. 1;
【図18】図1のネットワークディスプレイ内部のホス
トシステムとプレーヤとの関係を説明するための図であ
る。18 is a diagram for explaining a relationship between a host system inside the network display of FIG. 1 and a player.
【図19】図1のネットワークディスプレイの実時間再
生機能を説明するための図である。FIG. 19 is a diagram for explaining a real-time playback function of the network display of FIG. 1;
【図20】図1のネットワークディスプレイがインター
ネットに接続されずに使用される場合の例を示す図であ
る。FIG. 20 is a diagram showing an example in which the network display of FIG. 1 is used without being connected to the Internet.
【図21】表示部を本体と別に設けた装置の1例を示す
図である。FIG. 21 is a diagram illustrating an example of an apparatus provided with a display unit separately from a main body.
【図22】アニメーションデータを記録したポータブル
な媒体を使用する装置の例を示す図である。FIG. 22 is a diagram illustrating an example of an apparatus that uses a portable medium on which animation data is recorded.
1 ネットワークディスプレイ(画像処理装置が組み込
まれた装置) 2 インターネット 3 LAN(ローカルエリアネットワーク) 6 WWWサーバ(HTTPサーバ) 8 テレビ局 11 表示部 20 フレーム 21 CPU(中央演算処理装置、演算処理手段、表示
順序規定手段、差分検出手段、予定シナリオ再生手段の
一部、任意フレーム再生手段の一部) 22 専用グラフィックスLSI(表示処理手段、予定
シナリオ再生手段の一部、任意フレーム再生手段の一
部) 23 メモリ 51 ムービースクリーンREFERENCE SIGNS LIST 1 network display (device incorporating an image processing device) 2 Internet 3 LAN (local area network) 6 WWW server (HTTP server) 8 TV station 11 display unit 20 frame 21 CPU (central processing unit, processing unit, display order) Defining means, difference detecting means, part of scheduled scenario reproducing means, part of arbitrary frame reproducing means) 22 Dedicated graphics LSI (display processing means, part of scheduled scenario reproducing means, part of arbitrary frame reproducing means) 23 Memory 51 Movie Screen
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA08 CA08 EA24 FA02 5C023 AA02 AA04 AA18 AA21 AA26 AA38 BA11 CA04 CA05 CA08 DA02 DA03 DA08 5C082 AA06 BA43 BA46 BD01 BD02 CA18 CA32 CA54 CA56 CB01 DA87 MM02 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 BA08 CA08 EA24 FA02 5C023 AA02 AA04 AA18 AA21 AA26 AA38 BA11 CA04 CA05 CA08 DA02 DA03 DA08 5C082 AA06 BA43 BA46 BD01 BD02 CA18 CA32 CA54 CA56 CB01 DA87 MM02
Claims (12)
数設け、そのフレームを順次描画することにより、アニ
メーションを表示部に再生させる画像表示方法におい
て、表示させるフレームの時間的関係を一義的に規定せ
ず、アニメーションの再生時にフレームの時間的関係を
規定するようにし、その再生時において前後のフレーム
間の差分を取るに当たり、その前後のフレームに含まれ
るスプライトの差分を取るようにしたことを特徴とする
画像表示方法。1. An image display method in which an animation is reproduced on a display unit by providing a plurality of frames in which sprites are incorporated and sequentially drawing the frames, the temporal relationship of the frames to be displayed is not uniquely defined. , The time relationship between frames is defined when the animation is played back, and the difference between the preceding and following frames is taken at the time of playing back, and the difference between sprites included in the preceding and following frames is taken. Image display method.
に含まれるスプライトの位置とサイズの情報を利用して
算出するようにしたことを特徴とする請求項1記載の画
像表示方法。2. The image display method according to claim 1, wherein the difference between the sprites is calculated by using information on a position and a size of the sprite included in the scenario.
数設け、そのフレームを順次描画することにより、アニ
メーションを表示部に再生させる画像表示方法におい
て、上記シナリオに記載されているフレームの順番に沿
ってアニメーションを再生する方法(以下予定シナリオ
再生という)と、任意のタイミングで任意のフレームに
再生位置を変更して再生する方法(以下任意フレーム再
生という)の少なくとも2つの再生方法を有することを
特徴とする画像表示方法。3. An image display method in which a plurality of frames incorporating sprites are provided, and the frames are sequentially drawn to reproduce an animation on a display unit, wherein the animation is performed in the order of frames described in the above scenario. (Hereinafter, referred to as scheduled scenario reproduction) and a method of changing the reproduction position to an arbitrary frame at an arbitrary timing and reproducing the image (hereinafter, referred to as an arbitrary frame reproduction). Image display method.
リオ再生を制御する上位のシステムとなるホストシステ
ムの要求により行われることを特徴とする請求項3記載
の画像表示方法。4. The image display method according to claim 3, wherein the arbitrary frame reproduction is performed in response to a request from a host system serving as a higher-level system for controlling the scheduled scenario reproduction.
前記任意のフレームとして、フレーム番号ではなく、所
定のラベル名で指定可能としたことを特徴とする請求項
3または4記載の画像表示方法。5. When the arbitrary frame reproduction is performed,
5. The image display method according to claim 3, wherein the arbitrary frame can be designated by a predetermined label name instead of a frame number.
数設け、そのフレームを順次描画することにより、アニ
メーションを表示部に再生させる画像表示方法におい
て、上記任意のタイミングで任意のフレームに再生位置
を変更して再生し、上記任意のフレームとして、フレー
ム番号ではなく、所定のラベル名で指定したことを特徴
とする画像表示方法。6. An image display method in which an animation is reproduced on a display unit by providing a plurality of frames in which sprites are incorporated and sequentially drawing the frames, wherein the reproduction position is changed to an arbitrary frame at the arbitrary timing. An image display method wherein the arbitrary frame is designated by a predetermined label name instead of a frame number.
ライトが組み込まれる複数のフレームを所定順に表示す
るためのシナリオのデータを保存するメモリと、上記シ
ナリオに沿って、上記スプライトおよび上記フレームの
表示を制御する演算処理手段と、伸長されたデータを表
示部に表示するための処理を行う表示処理手段とを有す
る画像処理装置において、表示されるフレームの時間的
関係を一義的に規定せず、アニメーションの再生時にフ
レームの時間的関係を規定する表示順序規定手段と、ア
ニメーション再生時に前後のフレーム間の差分を取る差
分検出手段とを設け、この差分検出手段はその前後のフ
レームに含まれるスプライトの差分を検出するようにし
たことを特徴とする画像処理装置。7. A memory for storing data of a scenario for displaying compressed data of a sprite and a plurality of frames in which the sprite is incorporated in a predetermined order, and controlling display of the sprite and the frame according to the scenario. In an image processing apparatus having an arithmetic processing unit and a display processing unit for performing a process for displaying decompressed data on a display unit, the reproduction of animation is performed without defining the temporal relationship of the displayed frames. A display order defining means for sometimes defining a temporal relationship between frames, and a difference detecting means for obtaining a difference between preceding and succeeding frames at the time of animation reproduction, wherein the difference detecting means detects a difference between sprites included in the preceding and succeeding frames. An image processing apparatus characterized in that:
に含まれるスプライトの位置とサイズの情報を利用して
算出するようにしたことを特徴とする請求項7記載の画
像処理装置。8. The image processing apparatus according to claim 7, wherein the difference between the sprites is calculated by using information on a position and a size of the sprite included in the scenario.
ライトが組み込まれる複数のフレームを所定順に表示す
るためのシナリオのデータを保存するメモリと、上記シ
ナリオに沿って、上記スプライトおよび上記フレームの
表示を制御する演算処理手段と、伸長されたデータを表
示部に表示するための処理を行う表示処理手段とを有す
る画像処理装置において、上記シナリオに記述されてい
るフレームの順番に沿ってアニメーションを再生するた
めの予定シナリオ再生手段と、任意のタイミングで任意
のフレームに再生位置を変更して再生する任意フレーム
再生手段とを有することを特徴とする画像処理装置。9. A memory for storing scenario data for displaying compressed data of a sprite and a plurality of frames into which the sprite is incorporated in a predetermined order, and controlling display of the sprite and the frame in accordance with the scenario. In an image processing apparatus having an arithmetic processing unit and a display processing unit for performing processing for displaying decompressed data on a display unit, an image processing apparatus for reproducing animation in the order of frames described in the above scenario. An image processing apparatus comprising: a scheduled scenario reproducing unit; and an arbitrary frame reproducing unit that changes a reproduction position to an arbitrary frame at an arbitrary timing and reproduces the image.
は、前記予定シナリオ再生手段による再生を制御する上
位のシステムとなるホストシステムの要求により行われ
ることを特徴とする請求項9記載の画像処理装置。10. The image processing apparatus according to claim 9, wherein the reproduction by the arbitrary frame reproducing means is performed by a request from a host system which is a higher-level system for controlling the reproduction by the scheduled scenario reproducing means.
を行わせる場合、前記任意のフレームとして、フレーム
番号ではなく、所定のラベル名で指定可能としたことを
特徴とする請求項9または10記載の画像処理装置。11. The image according to claim 9, wherein when the reproduction is performed by the arbitrary frame reproducing means, the arbitrary frame can be designated by a predetermined label name instead of a frame number. Processing equipment.
プライトが組み込まれる複数のフレームを所定順に表示
するためのシナリオのデータを保存するメモリと、上記
シナリオに沿って、上記スプライトおよび上記フレーム
の表示を制御する演算処理手段と、伸長されたデータを
表示部に表示するための処理を行う表示処理手段とを有
する画像処理装置において、上記任意のタイミングで任
意のフレームに再生位置を変更して再生する任意フレー
ム再生手段を設け、上記任意のフレームとして、フレー
ム番号ではなく、所定のラベル名で指定したことを特徴
とする画像処理装置。12. A memory for storing data of a scenario for displaying compressed data of a sprite and a plurality of frames incorporating the sprite in a predetermined order, and controlling display of the sprite and the frame according to the scenario. In an image processing apparatus having an arithmetic processing unit and a display processing unit for performing processing for displaying decompressed data on a display unit, an arbitrary frame to be reproduced by changing a reproduction position to an arbitrary frame at the above-mentioned arbitrary timing An image processing apparatus provided with a reproducing means, wherein the arbitrary frame is designated by a predetermined label name instead of a frame number.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10323479A JP2000148131A (en) | 1998-11-13 | 1998-11-13 | Image display method and image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10323479A JP2000148131A (en) | 1998-11-13 | 1998-11-13 | Image display method and image processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000148131A true JP2000148131A (en) | 2000-05-26 |
Family
ID=18155156
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10323479A Withdrawn JP2000148131A (en) | 1998-11-13 | 1998-11-13 | Image display method and image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000148131A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008105092A1 (en) * | 2007-02-28 | 2008-09-04 | Panasonic Corporation | Graphics plotting device and graphics plotting method |
| GB2489746A (en) * | 2011-04-08 | 2012-10-10 | Philip John Thorne | Streaming out of sequence frames for computer animation |
| WO2016092704A1 (en) * | 2014-12-12 | 2016-06-16 | 三菱電機株式会社 | Information processing device, motion video play method, and motion video play program |
-
1998
- 1998-11-13 JP JP10323479A patent/JP2000148131A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008105092A1 (en) * | 2007-02-28 | 2008-09-04 | Panasonic Corporation | Graphics plotting device and graphics plotting method |
| GB2489746A (en) * | 2011-04-08 | 2012-10-10 | Philip John Thorne | Streaming out of sequence frames for computer animation |
| WO2016092704A1 (en) * | 2014-12-12 | 2016-06-16 | 三菱電機株式会社 | Information processing device, motion video play method, and motion video play program |
| JPWO2016092704A1 (en) * | 2014-12-12 | 2017-04-27 | 三菱電機株式会社 | Information processing apparatus, moving image reproducing method, and moving image reproducing program |
| US10282887B2 (en) | 2014-12-12 | 2019-05-07 | Mitsubishi Electric Corporation | Information processing apparatus, moving image reproduction method, and computer readable medium for generating display object information using difference information between image frames |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111899322B (en) | Video processing method, animation rendering SDK, equipment and computer storage medium | |
| US20070006080A1 (en) | Synchronization aspects of interactive multimedia presentation management | |
| CN109922360A (en) | Method for processing video frequency, device and storage medium | |
| US20190080721A1 (en) | Real-time image motion including an optimized crawl and live video mapping in an intelligent title cache system | |
| CN101213606A (en) | Synchronous aspects of interactive multimedia presentation management | |
| WO2007005294A2 (en) | Synchronization aspects of interactive multimedia presentation management | |
| CN104954848A (en) | Intelligent terminal display graphic user interface control method and device | |
| CN112035195A (en) | Application interface display method and device, electronic equipment and storage medium | |
| JP2000148134A (en) | Image display method and image processing device | |
| CA2382181A1 (en) | Rendering animated image data | |
| US20140078171A1 (en) | Reproduction device | |
| EP1899852A2 (en) | Synchronization aspects of interactive multimedia presentation management | |
| CN114222185B (en) | Video playing method, terminal equipment and storage medium | |
| US20050021552A1 (en) | Video playback image processing | |
| JP2000148131A (en) | Image display method and image processing device | |
| JP2000148133A (en) | Image display method and image processing device | |
| JP2000148132A (en) | Image processing apparatus and image processing method | |
| JPH10232951A (en) | Animation creation method and scenario creation method for animation | |
| JP2002229767A (en) | Moving image reproducing method and apparatus | |
| JP7761015B2 (en) | Image processing device, image processing program, and image processing method | |
| CN115633209B (en) | Cloud desktop streaming media playback method, system, device and storage medium | |
| JP7605235B2 (en) | Image processing device, image processing program, and image processing method | |
| JPH11339002A (en) | Image processing apparatus and information recording medium | |
| JPH11339001A (en) | Image processing apparatus and information recording medium | |
| JP2001239053A (en) | Cross fade processing method, video game device, and computer-readable storage medium recording video game program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |