[go: up one dir, main page]

JPH11110577A - Image data processing apparatus and method, and transmission medium - Google Patents

Image data processing apparatus and method, and transmission medium

Info

Publication number
JPH11110577A
JPH11110577A JP21086598A JP21086598A JPH11110577A JP H11110577 A JPH11110577 A JP H11110577A JP 21086598 A JP21086598 A JP 21086598A JP 21086598 A JP21086598 A JP 21086598A JP H11110577 A JPH11110577 A JP H11110577A
Authority
JP
Japan
Prior art keywords
image
color
trace line
colored
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP21086598A
Other languages
Japanese (ja)
Inventor
Sukeyuki Ihara
祐之 井原
Yuji Matsumoto
雄二 松本
Eiichi Ishii
栄一 石井
Chizuru Makita
千鶴 牧田
Kohei Nojiri
晃平 野尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP21086598A priority Critical patent/JPH11110577A/en
Publication of JPH11110577A publication Critical patent/JPH11110577A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 アニメーションのカラー画像を迅速に作成で
きるようにする。 【解決手段】 ステップS4で作成したトレース線の動
画像を、ステップS11で、カメラ、スキャナなどで取
り込み、線画像を生成する。線画像を細線化し、細線化
した線で閉領域を形成させる。ステップS12で、閉領
域の中の画素を所定の色にペイントさせる。トレース線
を太線化し、太線の画素を所定の色で着色させる。閉領
域の画素を着色した画像と、太線化した画素を着色した
画像とを合成する。ステップS13で、合成した画像の
動画をチェックする。
(57) [Summary] [Problem] To enable rapid creation of an animation color image. SOLUTION: In step S11, a moving image of a trace line created in step S4 is captured by a camera, a scanner, or the like, and a line image is generated. The line image is thinned, and a closed region is formed by the thinned line. In step S12, the pixels in the closed area are painted in a predetermined color. The trace line is thickened, and the pixels of the thick line are colored with a predetermined color. The image in which the pixels in the closed region are colored and the image in which the pixels with thick lines are colored are synthesized. In step S13, a moving image of the synthesized image is checked.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像データ処理装
置および方法、並びに伝送媒体に関し、特に、アニメー
ションの画像のデータを迅速に生成することができるよ
うにした画像データ処理装置および方法、並びに伝送媒
体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data processing apparatus and method, and a transmission medium, and more particularly, to an image data processing apparatus and method capable of quickly generating animation image data, and transmission. Regarding the medium.

【0002】[0002]

【従来の技術】図36は、従来のアニメーションを制作
する場合の処理の流れを表している。最初に、ステップ
S1において、アニメーションの制作の企画が行われ
る。この企画に基づいて、ステップS2において、シナ
リオが作成される。次に、ステップS3において、原画
が作成される。この原画は、紙に鉛筆やペンなどを用い
て描かれるものである。
2. Description of the Related Art FIG. 36 shows the flow of a process for producing a conventional animation. First, in step S1, animation production planning is performed. Based on this plan, a scenario is created in step S2. Next, in step S3, an original image is created. This original picture is drawn on paper using a pencil or a pen.

【0003】次に、ステップS4において、ステップS
3で作成された原画に基づいて、動画が作成される。こ
の動画は、ステップS3において作成された1枚の原画
と次の原画とを動画として見せるために、補間するもの
である。
Next, in step S4, step S
A moving image is created based on the original image created in Step 3. This moving image is interpolated so that one original image created in step S3 and the next original image can be seen as a moving image.

【0004】このようにして作成された動画は、ステッ
プS5において、透明なフィルム上にコピーされ、セル
画が作成される。このとき、1枚のフレームの画像は、
複数のレイヤの画像から構成される。
[0004] In step S5, the moving image thus created is copied on a transparent film to create a cell image. At this time, the image of one frame is
It is composed of images of a plurality of layers.

【0005】例えば図37に示すように、家に向かって
人と犬が歩いていく3枚のフレームからなる動画は、各
フレーム毎に3つのレイヤで構成される。すなわち、こ
の例においては、背景のレイヤとして、家の画像が描か
れたセル画像Cが用意される。そして、人間と犬は、そ
れぞれレイヤAとレイヤBに描かれる。レイヤAにおい
ては、フレームF2のセル画像A2では、フレームF1
のセル画像A1における位置から若干移動した位置に人
間が描かれる。同様に、フレームF3のセル画像A3に
おいては、フレームF2のセル画像A2の位置より若干
移動した位置に人間が描かれている。
For example, as shown in FIG. 37, a moving image including three frames in which a person and a dog walk toward a house is composed of three layers for each frame. That is, in this example, a cell image C in which a house image is drawn is prepared as a background layer. Then, the human and the dog are drawn on layer A and layer B, respectively. In the layer A, in the cell image A2 of the frame F2, the frame F1
Is drawn at a position slightly shifted from the position in the cell image A1. Similarly, in the cell image A3 of the frame F3, a person is drawn at a position slightly shifted from the position of the cell image A2 of the frame F2.

【0006】さらに、レイヤBにおいても、フレームF
2のセル画像B2の犬の位置は、フレームF1のセル画
像B1の位置より若干移動した位置になっている。ま
た、フレームF3のセル画像B3の犬の位置は、フレー
ムF2のセル画像B2の位置より若干移動した位置とな
っている。
Further, in the layer B, the frame F
The position of the dog in the second cell image B2 is slightly shifted from the position of the cell image B1 in the frame F1. The position of the dog in the cell image B3 of the frame F3 is a position slightly shifted from the position of the cell image B2 in the frame F2.

【0007】このように、複数のレイヤのセル画像が作
成されると、ステップS6において、これらのセル画像
に対するペイント処理(着色処理)が実行される。すな
わち、各セル画像に対して絵具などを用いて着色処理が
行われる。次に、ステップS7において、着色されたセ
ル画を複数枚重ねて撮影し、1枚のフレームとする。
[0007] After the cell images of a plurality of layers are created in this way, a paint process (coloring process) is performed on these cell images in step S6. That is, coloring processing is performed on each cell image using a paint or the like. Next, in step S7, a plurality of colored cell images are photographed in a superimposed manner to form one frame.

【0008】例えば、図38に示すように、レイヤAと
レイヤBをレイヤCに重ねて、1枚のフレーム(1コ
マ)の画像とする。このような処理が複数フレームにわ
たって順次行われ、複数フレームの動画像のデータが作
成される。
For example, as shown in FIG. 38, a layer A and a layer B are superimposed on a layer C to form an image of one frame (one frame). Such processing is sequentially performed over a plurality of frames, and data of a moving image of a plurality of frames is created.

【0009】次に、ステップS8において、以上のよう
にして作成した動画像を再生してチェックが行われる。
その後、ステップS9において、動画像に対応する音声
信号が記録され、ステップS10において、放映され
る。
Next, in step S8, the moving image created as described above is reproduced and checked.
Thereafter, in step S9, an audio signal corresponding to the moving image is recorded, and in step S10, it is broadcast.

【0010】このように、人間が手作業で、セル画像を
着色するようにすると、アニメーション画像を生成する
のに、多大な労力と時間を要する。そこで、これらの作
業をコンピュータ化することが考えられる。この場合、
既に着色されている画像と、まだ着色されていない画像
をαキーデータを作成し、このαキーデータに対応する
画像を表示することで確認することができる。
As described above, if a human is manually coloring a cell image, a great deal of labor and time are required to generate an animation image. Therefore, it is conceivable that these operations are computerized. in this case,
An already colored image and an image that has not been colored can be confirmed by creating α key data and displaying an image corresponding to the α key data.

【0011】[0011]

【発明が解決しようとする課題】このように、アニメー
ションを制作する場合、動画作成、セル画作成、ペイン
ト処理、撮影処理などが、全て人手を介して行われてい
るので、1本のアニメーションを作成するのに、長い時
間と労力を必要とする課題があった。
As described above, when an animation is produced, the creation of a moving image, the creation of a cell image, the painting process, the photographing process, and the like are all performed manually. There was a problem that required a long time and effort to create.

【0012】原画像自体をコンピュータを使って描くよ
うにすると、画像を構成するトレース線の微妙なタッチ
などを表現することが困難となり、アニメーションの作
者が意図する雰囲気を有する画像を、正確に描くことが
困難となる。
When the original image itself is drawn using a computer, it becomes difficult to express a subtle touch of trace lines constituting the image, and an image having an atmosphere intended by the animation creator is drawn accurately. It becomes difficult.

【0013】人手により、複数のセル画像をレイヤ毎に
重ねて撮影する操作を繰り返すことで、複数のフレーム
からなる動画像を生成するようにすると、フレーム画像
を変更することが困難となる課題があった。
[0013] If a moving image composed of a plurality of frames is generated by repeating the operation of manually photographing a plurality of cell images in layers for each layer, it becomes difficult to change the frame images. there were.

【0014】着色処理をコンピュータ化することが考え
られる。しかしながら、コンピュータにより着色処理を
行うと、作者が、鉛筆やペンなどを用いて手で描いた微
妙なタッチを表現することが困難となる課題があった。
It is conceivable that the coloring process is computerized. However, when a coloring process is performed by a computer, there has been a problem that it is difficult for the author to express a delicate touch drawn by hand with a pencil or a pen.

【0015】人間が手作業でセル画に着色し、それを撮
影するようにすると、1本のアニメーションを製作する
のに、多大な労力と時間が要する課題があった。
If a person manually colors a cell image and shoots it, there is a problem that it takes a lot of labor and time to produce one animation.

【0016】画像を所定の色に着色する処理をコンピュ
ータ化し、コンピュータの画像が表示されているディス
プレイ上において、マウスを操作して、カーソルをディ
スプレイ上において、筆のように動かして色を塗るよう
にすると、細かいところで色の塗り残した部分が発生す
る恐れがあった。
A process for coloring an image into a predetermined color is computerized, and a mouse is operated on a display on which the image of the computer is displayed, and a cursor is moved on the display like a brush to paint the color. In this case, there is a possibility that a portion where the color is left unpainted may occur in a small area.

【0017】αキーデータの画像を表示する場合と、着
色した画像を表示する場合とでは、モードを切り換える
必要があり、αキーデータに対応する画像で塗り残され
ている領域の位置を、ユーザが記憶し、モードを切り換
えて、カラー画像を表示させ、記憶した位置の領域に着
色処理を施す操作を繰り返す必要がある。その結果、塗
り残しの位置を記憶し、モードを切り換える操作を繰り
返さなければならず、操作性が悪い課題があった。
It is necessary to switch the mode between displaying the image of the α key data and displaying the colored image. The position of the unpainted area in the image corresponding to the α key data is determined by the user. It is necessary to repeat the operation of storing the image, switching the mode, displaying the color image, and applying the coloring process to the area at the stored position. As a result, it is necessary to store the unpainted position and repeat the operation of switching the mode, and there is a problem that the operability is poor.

【0018】着色処理をコンピュータ化した場合におい
ても、各セル画像をコンピュータ上において、1枚1枚
着色する操作をすると、面倒であり、さらなる操作性の
改善が望まれていた。
Even when the coloring process is computerized, it is troublesome to perform an operation of coloring each cell image one by one on a computer, and further improvement in operability has been desired.

【0019】人手により、セル画の着色処理を行うよう
にすると、アニメーション画像を作成するのに、多くの
労力と時間がかかり、そのことから、一旦作成した画像
を、より変化に富んだ画像に変更したりすることが困難
である課題があった。
If the cell image is colored by hand, it takes a lot of labor and time to create an animation image. Therefore, the image once created is converted into a more varied image. There was a problem that was difficult to change.

【0020】第1の発明は、迅速に、かつ、簡単に、ア
ニメーションの画像を制作することができるようにする
ものである。
A first aspect of the present invention is to quickly and easily create an animation image.

【0021】第2の発明は、作者が意図する雰囲気を有
する画像に基づくアニメーションの画像データを、迅速
かつ確実に、生成することができるようにするものであ
る。
A second aspect of the present invention is to enable quick and reliable generation of animation image data based on an image having an atmosphere intended by the author.

【0022】第3の発明は、フレーム画像を容易に変更
し、所望のフレーム画像を作成できるようにするもので
ある。
A third aspect of the present invention is to easily change a frame image so that a desired frame image can be created.

【0023】第4の発明は、作者が意図するタッチを正
確に表現することができるようにするものである。
A fourth aspect of the present invention is to make it possible to accurately represent a touch intended by an author.

【0024】第5の発明は、迅速かつ確実に、カラーの
アニメーションの画像を生成することができるようにす
るものである。
According to a fifth aspect of the present invention, a color animation image can be generated quickly and reliably.

【0025】第6の発明は、色の塗り残しの発生を防止
し、迅速かつ確実に、画像を所望の色に着色することが
できるようにするものである。
According to a sixth aspect of the present invention, an image is prevented from being left unpainted, and an image can be quickly and reliably colored to a desired color.

【0026】第7の発明は、操作性を改善し、迅速かつ
確実に、塗り残しの部分を発見し、修正できるようにす
るものである。
A seventh aspect of the present invention is to improve operability so that unpainted portions can be found and corrected quickly and reliably.

【0027】第8の発明は、操作性を改善し、迅速かつ
確実に、カラー画像を生成することができるようにする
ものである。
An eighth aspect of the present invention is to improve the operability and to quickly and surely generate a color image.

【0028】第9の発明は、簡単かつ確実に、変化に富
んだ画像を作成することができるようにするものであ
る。
A ninth aspect of the present invention is to make it possible to easily and surely create a variety of images.

【0029】[0029]

【課題を解決するための手段】請求項1に記載の画像デ
ータ処理装置は、取り込まれた画像から線で構成される
画像を生成する線画像生成手段と、画像を構成する線で
囲まれている領域の画素を着色する領域着色手段と、領
域着色手段により領域の画素が着色された画像と、画像
を構成する線の画像とを合成する合成手段とを備えるこ
とを特徴とする。
According to a first aspect of the present invention, there is provided an image data processing apparatus comprising: a line image generating unit configured to generate an image composed of lines from a captured image; A region coloring means for coloring the pixels of the region, and a combining means for combining an image in which the pixels of the region are colored by the region coloring means and an image of a line constituting the image.

【0030】請求項5に記載の画像データ処理方法は、
取り込まれた画像から線で構成される画像を生成する線
画像生成ステップと、画像を構成する線で囲まれている
領域の画素を着色する領域着色ステップと、領域着色ス
テップにより領域の画素が着色された画像と、画像を構
成する線の画像とを合成する合成ステップとを備えるこ
とを特徴とする。
According to a fifth aspect of the present invention, there is provided an image data processing method comprising:
A line image generating step of generating an image composed of lines from the captured image; an area coloring step of coloring pixels of an area surrounded by the lines forming the image; and a pixel of the area being colored by the area coloring step And a synthesizing step of synthesizing the obtained image and an image of a line constituting the image.

【0031】請求項6に記載の伝送媒体は、取り込まれ
た画像から線で構成される画像を生成する線画像生成ス
テップと、画像を構成する線で囲まれている領域の画素
を着色する領域着色ステップと、領域着色ステップによ
り領域の画素が着色された画像と、画像を構成する線の
画像とを合成する合成ステップとを備えるプログラムを
伝送することを特徴とする。
According to a sixth aspect of the present invention, in the transmission medium, a line image generating step of generating a line image from the captured image, and an area for coloring pixels in an area surrounded by the line forming the image A program including a coloring step, and a combining step of combining an image in which pixels of a region are colored by the region coloring step and a line image forming the image is transmitted.

【0032】請求項7に記載の画像データ処理装置は、
取り込まれるセル画像のセル番号を指定するセル番号指
定手段と、取り込まれるセル画像のレイヤ番号を指定す
るレイヤ番号指定手段と、既に取り込まれているセル画
像のセル番号とレイヤ番号を表示させる表示制御手段と
を備えることを特徴とする。
An image data processing apparatus according to claim 7 is
Cell number specifying means for specifying a cell number of a cell image to be captured, layer number specifying means for specifying a layer number of a cell image to be captured, and display control for displaying a cell number and a layer number of a cell image already captured Means.

【0033】請求項10に記載の画像データ処理方法
は、取り込まれるセル画像のセル番号を指定するセル番
号指定ステップと、取り込まれるセル画像のレイヤ番号
を指定するレイヤ番号指定ステップと、既に取り込まれ
ているセル画像のセル番号とレイヤ番号を表示させる表
示制御ステップとを備えることを特徴とする。
According to a tenth aspect of the present invention, in the image data processing method, a cell number specifying step for specifying a cell number of a cell image to be captured, a layer number specifying step for specifying a layer number of a cell image to be captured, And a display control step of displaying a cell number and a layer number of the cell image being displayed.

【0034】請求項11に記載の伝送媒体は、取り込ま
れるセル画像のセル番号を指定するセル番号指定ステッ
プと、取り込まれるセル画像のレイヤ番号を指定するレ
イヤ番号指定ステップと、既に取り込まれているセル画
像のセル番号とレイヤ番号を表示させる表示制御ステッ
プとを備えるプログラムを伝送することを特徴とする。
In the transmission medium according to the present invention, a cell number designating step for designating a cell number of a cell image to be captured, a layer number designating step for designating a layer number of a cell image to be captured, have already been captured. A program including a display control step of displaying a cell number and a layer number of a cell image is transmitted.

【0035】請求項12に記載の画像データ処理装置
は、動画像のフレームの時系列に対応するフレーム番号
と、レイヤ番号とで規定されるタイムシートを表示させ
るタイムシート表示制御手段と、タイムシートの所定の
位置に、取り込まれたセル画像のセル番号を入力するセ
ル番号入力手段とを備えることを特徴とする。
According to a twelfth aspect of the present invention, there is provided an image data processing apparatus, comprising: a time sheet display control means for displaying a time sheet defined by a frame number corresponding to a time series of frames of a moving image and a layer number; And a cell number input means for inputting a cell number of a fetched cell image at a predetermined position.

【0036】請求項20に記載の画像データ処理方法
は、動画像のフレームの時系列に対応するフレーム番号
と、レイヤ番号とで規定されるタイムシートを表示させ
るタイムシート表示制御ステップと、タイムシートの所
定の位置に、取り込まれたセル画像のセル番号を入力す
るセル番号入力ステップとを備えることを特徴とする。
A time sheet display control step of displaying a time sheet defined by a frame number corresponding to a time series of a frame of a moving image and a layer number; And a cell number input step of inputting a cell number of the fetched cell image at a predetermined position.

【0037】請求項21に記載の伝送媒体は、動画像の
フレームの時系列に対応するフレーム番号と、レイヤ番
号とで規定されるタイムシートを表示させるタイムシー
ト表示制御ステップと、タイムシートの所定の位置に、
取り込まれたセル画像のセル番号を入力するセル番号入
力ステップとを備えるプログラムを伝送することを特徴
とする。
In the transmission medium according to the present invention, a time sheet display control step of displaying a time sheet defined by a frame number corresponding to a time series of frames of a moving image and a layer number; At the position
A cell number input step of inputting a cell number of the fetched cell image.

【0038】請求項22に記載の画像データ処理装置
は、取り込まれた画像を構成するトレース線の濃度を検
出する検出手段と、トレース線で囲まれた領域を着色す
る領域着色手段と、トレース線で囲まれた領域のトレー
ス線の近傍の色を、トレース線の濃度に対応して決定す
る決定手段とを備えることを特徴とする。
The image data processing apparatus according to claim 22, wherein the detecting means for detecting the density of the trace lines constituting the captured image, the area coloring means for coloring an area surrounded by the trace lines, Determining means for determining a color in the vicinity of the trace line in a region surrounded by the mark in accordance with the density of the trace line.

【0039】請求項28に記載の画像データ処理方法
は、取り込まれた画像を構成するトレース線の濃度を検
出する検出ステップと、トレース線で囲まれた領域を着
色する領域着色ステップと、トレース線で囲まれた領域
のトレース線の近傍の色を、トレース線の濃度に対応し
て決定する決定ステップとを備えることを特徴とする。
The image data processing method according to claim 28, wherein a detecting step of detecting the density of a trace line constituting the captured image, an area coloring step of coloring an area surrounded by the trace line, And determining a color in the vicinity of the trace line in a region surrounded by the symbol in accordance with the density of the trace line.

【0040】請求項29に記載の伝送媒体は、取り込ま
れた画像を構成するトレース線の濃度を検出する検出ス
テップと、トレース線で囲まれた領域を着色する領域着
色ステップと、トレース線で囲まれた領域のトレース線
の近傍の色を、トレース線の濃度に対応して決定する決
定ステップとを備えるプログラムを伝送することを特徴
とする。
A transmission medium according to claim 29, wherein a detecting step of detecting the density of a trace line constituting a captured image, an area coloring step of coloring an area surrounded by the trace line, And a determining step of determining a color near the trace line in the specified area in accordance with the density of the trace line.

【0041】請求項30に記載の画像データ処理装置
は、取り込まれた画像を構成するトレース線のオリジナ
ルの色を識別する識別手段と、トレース線で囲まれた領
域を着色する領域着色手段と、トレース線とトレース線
で囲まれた領域の境界部の色、または、トレース線の一
方の側の領域と他方の側の領域の境界部の色であって、
トレース線を省略した場合の色を、識別手段の識別結果
に対応して決定する決定手段とを備えることを特徴とす
る。
An image data processing apparatus according to claim 30 is an identification means for identifying an original color of a trace line constituting a captured image, an area coloring means for coloring an area surrounded by the trace line, The color of the boundary between the trace line and the area surrounded by the trace line, or the color of the boundary between the area on one side of the trace line and the area on the other side,
Determining means for determining a color when the trace line is omitted in accordance with the identification result of the identification means.

【0042】請求項33に記載の画像データ処理方法
は、取り込まれた画像を構成するトレース線のオリジナ
ルの色を識別する識別ステップと、トレース線で囲まれ
た領域を着色する領域着色ステップと、トレース線とト
レース線で囲まれた領域の境界部の色、または、トレー
ス線の一方の側の領域と他方の側の領域の境界部の色で
あって、トレース線を省略した場合の色を、識別ステッ
プの識別結果に対応して決定する決定ステップとを備え
ることを特徴とする。
An image data processing method according to claim 33, wherein: an identification step of identifying an original color of a trace line constituting the captured image; an area coloring step of coloring an area surrounded by the trace line; The color of the border between the trace lines and the area surrounded by the trace lines, or the color of the border between the area on one side of the trace lines and the area on the other side, when the trace lines are omitted. And a determining step of determining in accordance with the identification result of the identifying step.

【0043】請求項34に記載の伝送媒体は、取り込ま
れた画像を構成するトレース線のオリジナルの色を識別
する識別ステップと、トレース線で囲まれた領域を着色
する領域着色ステップと、トレース線とトレース線で囲
まれた領域の境界部の色、または、トレース線の一方の
側の領域と他方の側の領域の境界部の色であって、トレ
ース線を省略した場合の色を、識別ステップの識別結果
に対応して決定する決定ステップとを備えるプログラム
を伝送することを特徴とする。
The transmission medium according to the thirty-fourth aspect includes an identification step of identifying an original color of a trace line constituting a captured image, an area coloring step of coloring an area surrounded by the trace line, and a trace line. And the color of the border between the area surrounded by the trace line and the color of the border between the area on one side of the trace line and the area on the other side, if the trace line is omitted. And a determining step of determining in accordance with the step identification result.

【0044】請求項35に記載の画像データ処理装置
は、取り込まれたトレース線の各画素を有色画素と無色
画素に2値化する2値化手段と、トレース線を、1画素
の幅の有色画素からなる線に変換する変換手段とを備え
ることを特徴とする。
According to a thirty-fifth aspect of the present invention, in the image data processing apparatus, a binarizing means for binarizing each pixel of the captured trace line into a color pixel and a colorless pixel, and forming the trace line with a color having a width of one pixel. Conversion means for converting into a line composed of pixels.

【0045】請求項40に記載の画像データ処理方法
は、取り込まれたトレース線の各画素を有色画素と無色
画素に2値化する2値化ステップと、トレース線を、1
画素の幅の有色画素からなる線に変換する変換ステップ
とを備えることを特徴とする。
The image data processing method according to claim 40, wherein a binarizing step of binarizing each pixel of the fetched trace line into a color pixel and a colorless pixel;
A conversion step of converting into a line composed of colored pixels having a pixel width.

【0046】請求項41に記載の伝送媒体は、取り込ま
れたトレース線の各画素を有色画素と無色画素に2値化
する2値化ステップと、トレース線を、1画素の幅の有
色画素からなる線に変換する変換ステップとを備えるプ
ログラムを伝送することを特徴とする。
The transmission medium according to claim 41, wherein a binarizing step of binarizing each pixel of the captured trace line into a color pixel and a colorless pixel, and converting the trace line from a color pixel having a width of one pixel. And a conversion step of converting into a line.

【0047】請求項42に記載の画像データ処理装置
は、取り込まれたトレース線の画素を有色画素と無色画
素に2値化する2値化手段と、2値化手段により2値化
された有色画素よりなるトレース線が閉じているか否か
を確認させる確認手段とを備えることを特徴とする。
The image data processing device according to claim 42, wherein the binarizing means for binarizing the captured trace line pixel into a color pixel and a colorless pixel, and a color binarized by the binarizing means. And a confirmation unit for confirming whether or not the trace line composed of pixels is closed.

【0048】請求項46に記載の画像データ処理方法
は、取り込まれたトレース線の画素を有色画素と無色画
素に2値化する2値化ステップと、2値化ステップで2
値化された有色画素よりなるトレース線が閉じているか
否かを確認させる確認ステップとを備えることを特徴と
する。
The image data processing method according to the forty-sixth aspect includes a binarization step of binarizing the captured trace line pixel into a color pixel and a colorless pixel, and a binarization step.
And a confirmation step of confirming whether or not the trace line composed of the coded color pixels is closed.

【0049】請求項47に記載の伝送媒体は、取り込ま
れたトレース線の画素を有色画素と無色画素に2値化す
る2値化ステップと、2値化ステップで2値化された有
色画素よりなるトレース線が閉じているか否かを確認さ
せる確認ステップとを備えるプログラムを伝送すること
を特徴とする。
The transmission medium according to claim 47, further comprising: a binarization step of binarizing the captured trace line pixel into a color pixel and a colorless pixel; and a color pixel binarized in the binarization step. And confirming whether or not the trace line is closed.

【0050】請求項48に記載の画像データ処理装置
は、線画像の所定の領域を着色した着色画像を生成する
着色画像生成手段と、着色画像の着色された領域と着色
されていない領域とを識別する識別画像を生成する識別
画像生成手段と、識別画像上に、着色画像を表示させる
表示制御手段とを備えることを特徴とする。
The image data processing apparatus according to claim 48 is characterized in that a colored image generating means for generating a colored image in which a predetermined area of the line image is colored, and a colored area and a non-colored area of the colored image. It is characterized by comprising identification image generating means for generating an identification image to be identified, and display control means for displaying a colored image on the identification image.

【0051】請求項55に記載の画像データ処理方法
は、線画像の所定の領域を着色した着色画像を生成する
着色画像生成ステップと、着色画像の着色された領域と
着色されていない領域とを識別する識別画像を生成する
識別画像生成ステップと、識別画像上に、着色画像を表
示させる表示制御ステップとを備えることを特徴とす
る。
According to a fifty-fifth aspect of the present invention, in the image data processing method, a colored image generating step of generating a colored image in which a predetermined area of the line image is colored, An identification image generating step of generating an identification image to be identified and a display control step of displaying a colored image on the identification image are provided.

【0052】請求項56に記載の伝送媒体は、線画像の
所定の領域を着色した着色画像を生成する着色画像生成
ステップと、着色画像の着色された領域と着色されてい
ない領域とを識別する識別画像を生成する識別画像生成
ステップと、識別画像上に、着色画像を表示させる表示
制御ステップとを備えるプログラムを伝送することを特
徴とする。
A transmission medium according to claim 56, wherein a colored image generating step of generating a colored image in which a predetermined area of a line image is colored is distinguished between a colored area and a non-colored area of the colored image. A program including an identification image generating step of generating an identification image and a display control step of displaying a colored image on the identification image is transmitted.

【0053】請求項57に記載の画像データ処理装置
は、第1のフレームの第1の画像と第2のフレームの第
2の画像の対応関係を判定する判定手段と、第1の画像
の色を検出する検出手段と、判定手段の判定結果に対応
して、検出手段により検出した色を、第2の画像に着色
する着色手段とを備えることを特徴とする。
The image data processing device according to claim 57, wherein a judging means for judging a correspondence between the first image of the first frame and the second image of the second frame, and a color of the first image And a coloring means for coloring the second image with the color detected by the detecting means in accordance with the determination result of the determining means.

【0054】請求項64に記載の画像データ処理方法
は、第1のフレームの第1の画像と第2のフレームの第
2の画像の対応関係を判定する判定ステップと、第1の
画像の色を検出する検出ステップと、判定ステップの判
定結果に対応して、検出ステップで検出した色を、第2
の画像に着色する着色ステップとを備えることを特徴と
する。
The image data processing method according to claim 64, wherein a judging step of judging the correspondence between the first image of the first frame and the second image of the second frame, and the color of the first image Detecting the color detected in the detection step according to the determination result of the determination step,
And a coloring step of coloring the image.

【0055】請求項65に記載の伝送媒体は、第1のフ
レームの第1の画像と第2のフレームの第2の画像の対
応関係を判定する判定ステップと、第1の画像の色を検
出する検出ステップと、判定ステップの判定結果に対応
して、検出ステップで検出した色を、第2の画像に着色
する着色ステップとを備えるプログラムを伝送すること
を特徴とする。
A transmission medium according to claim 65, wherein a judging step of judging a correspondence between a first image of a first frame and a second image of a second frame, and detecting a color of the first image And transmitting a program including a coloring step of coloring the second image with the color detected in the detecting step in accordance with the determination result of the determining step.

【0056】請求項66に記載の画像データ処理装置
は、取り込まれたセル画像のトレース線で囲まれる領域
の無色画素に対して所定の色を着色して着色画像を生成
する着色画像生成手段と、着色画像生成手段による着色
処理に対応して、着色画像の色を着色した着色領域と、
着色していない無着色領域とを識別するキーデータを生
成するキーデータ生成手段と、複数のレイヤの着色画像
を合成する場合の優先度を規定するパラメータを設定す
るパラメータ設定手段と、パラメータ設定手段により設
定されたパラメータと、キーデータ生成手段により生成
されたキーデータとに対応して、複数のレイヤの着色画
像を合成する合成手段とを備えることを特徴とする。
The image data processing apparatus according to claim 66, wherein a colored image generating means for generating a colored image by coloring a predetermined color on the colorless pixels in the area surrounded by the trace lines of the fetched cell image. Corresponding to the coloring process by the colored image generating means, a colored region colored the color of the colored image,
Key data generating means for generating key data for identifying an uncolored uncolored area; parameter setting means for setting a parameter that defines a priority when combining colored images of a plurality of layers; and parameter setting means And a synthesizing unit for synthesizing the colored images of the plurality of layers in accordance with the parameters set by the above and the key data generated by the key data generating unit.

【0057】請求項68に記載の画像データ処理方法
は、取り込まれたセル画像のトレース線で囲まれる領域
の無色画素に対して所定の色を着色して着色画像を生成
する着色画像生成ステップと、着色画像生成ステップに
おける着色処理に対応して、着色画像の色を着色した着
色領域と、着色していない無着色領域とを識別するキー
データを生成するキーデータ生成ステップと、複数のレ
イヤの着色画像を合成する場合の優先度を規定するパラ
メータを設定するパラメータ設定ステップと、パラメー
タ設定ステップにおいて設定されたパラメータと、キー
データ生成ステップにおいて生成されたキーデータとに
対応して、複数のレイヤの着色画像を合成する合成ステ
ップとを備えることを特徴とする。
The image data processing method according to claim 68, further comprising a colored image generating step of coloring a colorless pixel in a region surrounded by a trace line of the captured cell image with a predetermined color to generate a colored image. A key data generating step of generating key data for identifying a colored area colored with the color of the colored image and an uncolored uncolored area in correspondence with the coloring processing in the colored image generating step; A parameter setting step for setting a parameter that defines a priority when a colored image is synthesized; a parameter set in the parameter setting step; and a plurality of layers corresponding to the key data generated in the key data generation step. And a combining step of combining the colored images.

【0058】請求項69に記載の伝送媒体は、取り込ま
れたセル画像のトレース線で囲まれる領域の無色画素に
対して所定の色を着色して着色画像を生成する着色画像
生成ステップと、着色画像生成ステップにおける着色処
理に対応して、着色画像の色を着色した着色領域と、着
色していない無着色領域とを識別するキーデータを生成
するキーデータ生成ステップと、複数のレイヤの着色画
像を合成する場合の優先度を規定するパラメータを設定
するパラメータ設定ステップと、パラメータ設定ステッ
プにおいて設定されたパラメータと、キーデータ生成ス
テップにおいて生成されたキーデータとに対応して、複
数のレイヤの着色画像を合成する合成ステップとを備え
るプログラムを伝送することを特徴とする。
The transmission medium according to claim 69, wherein a colored image generating step of generating a colored image by coloring a predetermined color to a colorless pixel in an area surrounded by a trace line of a fetched cell image; A key data generating step of generating key data for identifying a colored region in which the color of the colored image is colored and an uncolored uncolored region corresponding to the coloring process in the image generating step; and a colored image of a plurality of layers. A parameter setting step for setting a parameter that defines a priority when synthesizing a plurality of layers, coloring of a plurality of layers corresponding to the parameter set in the parameter setting step and the key data generated in the key data generation step. And transmitting a program including a combining step of combining images.

【0059】請求項1に記載の画像データ処理装置、請
求項5に記載の画像データ処理方法、および請求項6に
記載の伝送媒体においては、取り込まれた画像から線画
像が生成され、着色された画像と、線の画像とが合成さ
れる。
In the image data processing apparatus according to the first aspect, the image data processing method according to the fifth aspect, and the transmission medium according to the sixth aspect, a line image is generated from the captured image and colored. The combined image and the line image are combined.

【0060】請求項7に記載の画像データ処理装置、請
求項10に記載の画像データ処理方法、および請求項1
1に記載の伝送媒体においては、取り込まれるセル画像
のセル番号とレイヤ番号が指定され、かつ取り込まれた
セル画像のセル番号とレイヤ番号が表示される。
An image data processing apparatus according to claim 7, an image data processing method according to claim 10, and an image data processing method according to claim 10.
In the transmission medium described in 1, the cell number and the layer number of the cell image to be captured are designated, and the cell number and the layer number of the captured cell image are displayed.

【0061】請求項12に記載の画像データ処理装置、
請求項20に記載の画像データ処理方法、および請求項
21に記載の伝送媒体においては、フレーム番号とレイ
ヤ番号とで規定されるタイムシートを表示させ、タイム
シートの所定の位置に、取り込まれたセル画像のセル番
号を入力するようにしたので、簡単かつ確実に、各フレ
ームの画像を構成し、また変更することが可能となる。
An image data processing apparatus according to claim 12,
In the image data processing method according to the twentieth aspect and the transmission medium according to the twenty-first aspect, a time sheet defined by a frame number and a layer number is displayed, and is captured at a predetermined position on the time sheet. Since the cell number of the cell image is input, it is possible to easily and reliably configure and change the image of each frame.

【0062】請求項22に記載の画像データ処理装置、
請求項28に記載の画像データ処理方法、および請求項
29に記載の伝送媒体においては、トレース線の濃度が
検出され、トレース線で囲まれた領域のトレース線の近
傍の色が、その濃度に対応して決定される。
The image data processing apparatus according to claim 22,
In the image data processing method according to the twenty-eighth aspect and the transmission medium according to the twenty-ninth aspect, the density of the trace line is detected, and the color near the trace line in an area surrounded by the trace line is set to the density. Determined accordingly.

【0063】請求項30に記載の画像データ処理装置、
請求項33に記載の画像データ処理方法、および請求項
34に記載の伝送媒体においては、トレース線のオリジ
ナルの色の識別結果に対応して、トレース線とトレース
線で囲まれた領域の境界部の色、または、トレース線の
一方の側の領域と他方の側の領域の境界部の色であっ
て、トレース線を省略した場合の色が決定される。
The image data processing apparatus according to claim 30,
In the image data processing method according to claim 33 and the transmission medium according to claim 34, a boundary portion between the trace lines and an area surrounded by the trace lines corresponding to a result of identifying the original color of the trace lines. Or the color of the border between the area on one side of the trace line and the area on the other side, and the color when the trace line is omitted is determined.

【0064】請求項35に記載の画像データ処理装置、
請求項40に記載の画像データ処理方法、および請求項
41に記載の伝送媒体においては、取り込まれたトレー
ス線が2値化された後、1画素の幅の有色画素からなる
線に変換される。
An image data processing apparatus according to claim 35,
In the image data processing method according to claim 40 and the transmission medium according to claim 41, after the captured trace line is binarized, the trace line is converted into a line composed of colored pixels having a width of one pixel. .

【0065】請求項42に記載の画像データ処理装置、
請求項46に記載の画像データ処理方法、および請求項
47に記載の伝送媒体においては、取り込まれたトレー
ス線の画素が有色画素と無色画素に2値化され、2値化
された有色画素よりなるトレース線が閉じているか否か
が確認される。
An image data processing apparatus according to claim 42,
In the image data processing method according to claim 46 and the transmission medium according to claim 47, the captured trace line pixel is binarized into a color pixel and a colorless pixel, and the binarized color pixel is It is checked whether the trace line is closed.

【0066】請求項48に記載の画像データ処理装置、
請求項55に記載の画像データ処理方法、および請求項
56に記載の伝送媒体においては、着色画像の着色され
た領域と着色されていない領域とを識別する識別画像上
に、着色画像が表示される。
An image data processing apparatus according to claim 48,
In the image data processing method according to claim 55 and the transmission medium according to claim 56, a colored image is displayed on an identification image for identifying a colored region and a non-colored region of a colored image. You.

【0067】請求項57に記載の画像データ処理装置、
請求項64に記載の画像データ処理方法、および請求項
65に記載の伝送媒体においては、第1のフレームの第
1の画像と第2のフレームの第2の画像の対応関係が判
定され、第1の画像の色が検出される。そして、判定結
果に対応して、検出された色が、第2の画像に着色され
る。
An image data processing apparatus according to claim 57,
In the image data processing method according to claim 64 and the transmission medium according to claim 65, the correspondence between the first image of the first frame and the second image of the second frame is determined. The color of one image is detected. Then, the detected color is colored in the second image according to the determination result.

【0068】請求項66に記載の画像データ処理装置、
請求項68に記載の画像データ処理方法、および請求項
69に記載の伝送媒体においては、パラメータとキーデ
ータとに対応して、複数のレイヤの着色画像が合成され
る。
An image data processing apparatus according to claim 66,
In the image data processing method according to claim 68 and the transmission medium according to claim 69, a colored image of a plurality of layers is synthesized according to the parameter and the key data.

【0069】[0069]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.

【0070】請求項1に記載の画像データ処理装置は、
取り込まれた画像から線で構成される画像を生成する線
画像生成手段(例えば図5のステップS45)と、画像
を構成する線で囲まれている領域の画素を着色する領域
着色手段(例えば図5のステップS47)と、領域着色
手段により領域の画素が着色された画像と、画像を構成
する線の画像とを合成する合成手段(例えば図5のステ
ップS57)とを備えることを特徴とする。
The image data processing device according to claim 1 is
A line image generating means (for example, step S45 in FIG. 5) for generating an image composed of lines from the captured image, and an area coloring means (for example, FIG. 5) for coloring pixels in an area surrounded by lines constituting the image. 5, step S47), and a synthesizing unit (for example, step S57 in FIG. 5) for synthesizing an image in which the pixels of the region are colored by the region coloring unit and an image of a line constituting the image. .

【0071】請求項2に記載の画像データ処理装置は、
画像を構成する線の画素を着色する線着色手段(例えば
図5のステップS53)をさらに備えることを特徴とす
る。
An image data processing apparatus according to a second aspect is
It is characterized by further comprising a line coloring means (for example, step S53 in FIG. 5) for coloring pixels of lines constituting the image.

【0072】請求項3に記載の画像データ処理装置は、
線で構成される画像を生成するための画像を取り込む取
込手段(例えば図5のステップS41)をさらに備える
ことを特徴とする。
The image data processing apparatus according to claim 3 is
It is characterized by further including a capturing means (for example, step S41 in FIG. 5) for capturing an image for generating an image composed of lines.

【0073】請求項7に記載の画像データ処理装置は、
取り込まれるセル画像のセル番号を指定するセル番号指
定手段(例えば、図7のステップS74)と、取り込ま
れるセル画像のレイヤ番号を指定するレイヤ番号指定手
段(例えば、図7のステップS73)と、既に取り込ま
れているセル画像のセル番号とレイヤ番号を表示させる
表示制御手段(例えば、図7のステップS77)とを備
えることを特徴とする。
The image data processing device according to claim 7 is
A cell number designating unit (for example, step S74 in FIG. 7) for designating a cell number of a cell image to be captured; a layer number designating unit (for example, step S73 in FIG. 7) for designating a layer number of a cell image to be captured; A display control means (for example, step S77 in FIG. 7) for displaying a cell number and a layer number of a cell image which has already been taken in is provided.

【0074】請求項9に記載の画像データ処理装置は、
取り込まれたセル画像を表示させるセル画像表示制御手
段(例えば、図7のステップS76)をさらに備えるこ
とを特徴とする。
The image data processing device according to claim 9 is
A cell image display control means (for example, step S76 in FIG. 7) for displaying the captured cell image is further provided.

【0075】請求項12に記載の画像データ処理装置
は、動画像のフレームの時系列に対応するフレーム番号
と、レイヤ番号とで規定されるタイムシートを表示させ
るタイムシート表示制御手段(例えば、図33のステッ
プS220)と、タイムシートの所定の位置に、取り込
まれたセル画像のセル番号を入力するセル番号入力手段
(例えば、図33のステップS226)とを備えること
を特徴とする。
According to a twelfth aspect of the present invention, there is provided an image data processing apparatus comprising: a time sheet display control means for displaying a time sheet defined by a frame number corresponding to a time series of a moving image frame and a layer number (for example, FIG. 33, and a cell number input means (for example, step S226 in FIG. 33) for inputting the cell number of the captured cell image at a predetermined position on the time sheet.

【0076】請求項13に記載の画像データ処理装置
は、取り込まれたセル画像を、レイヤ毎に、エントリリ
ストに登録する登録手段(例えば、図33のステップS
223)をさらに備え、セル番号入力手段は、エントリ
リストに登録されたセル番号を入力することを特徴とす
る。
The image data processing apparatus according to the thirteenth aspect of the present invention provides a registration means for registering a fetched cell image in an entry list for each layer (for example, step S in FIG. 33).
223), and the cell number input means inputs a cell number registered in the entry list.

【0077】請求項14に記載の画像データ処理装置
は、エントリリストに登録されたたセル画像を、レイヤ
毎に、セル番号の順番に表示させる登録画像表示制御手
段(例えば、図33のステップS224)をさらに備え
ることを特徴とする。
The image data processing apparatus according to claim 14 is a registered image display control means for displaying the cell images registered in the entry list in order of cell number for each layer (for example, step S224 in FIG. 33). ) Is further provided.

【0078】請求項15に記載の画像データ処理装置
は、レイヤ、セル、またはフレーム毎に、特殊効果を設
定する特殊効果設定手段(例えば、図33のステップS
230)をさらに備えることを特徴とする。
The image data processing apparatus according to the fifteenth aspect is a special effect setting means for setting a special effect for each layer, cell, or frame (for example, step S in FIG. 33).
230).

【0079】請求項18に記載の画像データ処理装置
は、タイムシート上に入力された各レイヤの番号のセル
画像をフレーム毎に合成する合成手段(例えば、図33
のステップS227)をさらに備えることを特徴とす
る。
The image data processing apparatus according to claim 18 is a synthesizing means for synthesizing a cell image of each layer number input on the time sheet for each frame (for example, FIG. 33).
Step S227) is further provided.

【0080】請求項19に記載の画像データ処理装置
は、合成手段により合成された画像を試験的に動画像と
して表示させる動画像表示制御手段(例えば、図34の
ステップS234)をさらに備えることを特徴とする。
The image data processing apparatus according to the nineteenth aspect further comprises a moving image display control means (for example, step S234 in FIG. 34) for displaying an image synthesized by the synthesizing means as a moving image on a trial basis. Features.

【0081】請求項22に記載の画像データ処理装置
は、取り込まれた画像を構成するトレース線の濃度を検
出する検出手段(例えば、図5のステップS55)と、
トレース線で囲まれた領域を着色する領域着色手段(例
えば、図5のステップS47)と、トレース線で囲まれ
た領域のトレース線の近傍の色を、トレース線の濃度に
対応して決定する決定手段(例えば、図30のステップ
S205乃至S207)とを備えることを特徴とする。
The image data processing apparatus according to the present invention comprises a detecting means (for example, step S55 in FIG. 5) for detecting the density of the trace lines constituting the captured image.
A region coloring means (for example, step S47 in FIG. 5) for coloring a region surrounded by the trace line, and a color near the trace line in the region surrounded by the trace line are determined according to the density of the trace line. And a determination unit (for example, steps S205 to S207 in FIG. 30).

【0082】請求項23に記載の画像データ処理装置
は、トレース線を着色する線着色手段(例えば、図5の
ステップS53)をさらに備え、決定手段は、トレース
線と、トレース線で囲まれた領域の境界部の色を、トレ
ース線の濃度に対応して、トレース線の色と、トレース
線で囲まれた領域の色でグラデーションすることを特徴
とする。
The image data processing apparatus according to the twenty-third aspect further comprises a line coloring means (for example, step S53 in FIG. 5) for coloring the trace line, and the determining means is surrounded by the trace line and the trace line. It is characterized in that the color of the boundary portion of the area is gradationally represented by the color of the trace line and the color of the area surrounded by the trace line in accordance with the density of the trace line.

【0083】請求項25に記載の画像データ処理装置
は、トレース線のオリジナルの色を識別する識別手段
(例えば、図30のステップS202乃至S204)を
さらに備え、決定手段は、識別手段の識別結果に対応し
て色を決定することを特徴とする。
The image data processing apparatus according to the twenty-fifth aspect further includes identification means for identifying the original color of the trace line (for example, steps S202 to S204 in FIG. 30), and the determination means determines the identification result of the identification means. The color is determined according to

【0084】請求項27に記載の画像データ処理装置
は、トレース線を所定の画素分だけ太くする太線化手段
(例えば、図5のステップS52)をさらに備えること
を特徴とする。
The image data processing apparatus according to the twenty-seventh aspect is characterized by further comprising a thickening means (for example, step S52 in FIG. 5) for making the trace line thicker by a predetermined pixel.

【0085】請求項30に記載の画像データ処理装置
は、取り込まれた画像を構成するトレース線のオリジナ
ルの色を識別する識別手段(例えば、図30のステップ
S202乃至S204)と、トレース線で囲まれた領域
を着色する領域着色手段(例えば、図5のステップS4
7)と、トレース線とトレース線で囲まれた領域の境界
部の色、または、トレース線の一方の側の領域と他方の
側の領域の境界部の色であって、トレース線を省略した
場合の色を、識別手段の識別結果に対応して決定する決
定手段(例えば、図30のステップS205乃至S20
7)とを備えることを特徴とする。
The image data processing apparatus according to claim 30 is an identification means for identifying the original color of the trace line constituting the captured image (for example, steps S202 to S204 in FIG. 30), and is surrounded by the trace line. Area coloring means (eg, step S4 in FIG. 5)
7) and the color of the boundary between the trace line and the area surrounded by the trace line, or the color of the boundary between the area on one side of the trace line and the area on the other side, and the trace line is omitted. Determining means for determining the color of the case in accordance with the identification result of the identifying means (for example, steps S205 to S20 in FIG. 30)
7).

【0086】請求項35に記載の画像データ処理装置
は、取り込まれたトレース線の各画素を有色画素と無色
画素に2値化する2値化手段(例えば、図5のステップ
S44)と、トレース線を、1画素の幅の有色画素から
なる線に変換する変換手段(例えば、図5のステップS
45)とを備えることを特徴とする。
The image data processing apparatus according to the thirty-fifth aspect includes a binarizing means (for example, step S44 in FIG. 5) for binarizing each pixel of the fetched trace line into a color pixel and a colorless pixel; Conversion means for converting a line into a line composed of colored pixels having a width of one pixel (for example, step S in FIG. 5)
45).

【0087】請求項36に記載の画像データ処理装置
は、1画素の幅の線で囲まれた領域の無色画素を所定の
色に着色する着色手段(例えば、図5のステップS4
7)をさらに備えることを特徴とする。
The image data processing apparatus according to claim 36 is a coloring means for coloring a colorless pixel in a region surrounded by a line having a width of one pixel into a predetermined color (for example, step S4 in FIG. 5).
7) is further provided.

【0088】請求項42に記載の画像データ処理装置
は、取り込まれたトレース線の画素を有色画素と無色画
素に2値化する2値化手段(例えば、図5のステップS
44)と、2値化手段により2値化された有色画素より
なるトレース線が閉じているか否かを確認させる確認手
段(例えば、図17のステップS132)とを備えるこ
とを特徴とする。
The image data processing device according to claim 42 is a means for binarizing pixels of a fetched trace line into color pixels and colorless pixels (for example, step S in FIG. 5).
44), and a confirmation unit (for example, step S132 in FIG. 17) for confirming whether or not the trace line composed of the color pixels binarized by the binarization unit is closed.

【0089】請求項44に記載の画像データ処理装置
は、有色画素よりなるトレース線を、1画素の幅のトレ
ース線に変換する変換手段(例えば、図5のステップS
45)をさらに備え、確認手段は、1画素の幅のトレー
ス線が閉じていることを確認させることを特徴とする。
The image data processing apparatus according to claim 44 is a conversion means for converting a trace line composed of colored pixels into a trace line having a width of one pixel (for example, step S in FIG. 5).
45), wherein the confirming means confirms that the trace line having a width of one pixel is closed.

【0090】請求項45に記載の画像データ処理装置
は、確認手段により、トレース線の一部が開放されてい
ることが確認されたとき、閉じた領域が形成されるよう
に、その開放されている部分を修正する修正手段(例え
ば、図17のステップS134)をさらに備えることを
特徴とする。
In the image data processing apparatus according to the present invention, when the confirmation means confirms that a part of the trace line is open, the trace line is opened so as to form a closed area. It is characterized by further comprising a correcting means (for example, step S134 in FIG. 17) for correcting the part where the data is present.

【0091】請求項48に記載の画像データ処理装置
は、線画像の所定の領域を着色した着色画像を生成する
着色画像生成手段(例えば、図5のステップS47)
と、着色画像の着色された領域と着色されていない領域
とを識別する識別画像を生成する識別画像生成手段(例
えば、図5のステップS51)と、識別画像上に、着色
画像を表示させる表示制御手段(例えば、図26のステ
ップS164)とを備えることを特徴とする。
The image data processing apparatus according to claim 48 is a colored image generating means for generating a colored image in which a predetermined area of a line image is colored (for example, step S47 in FIG. 5).
An identification image generating means (for example, step S51 in FIG. 5) for generating an identification image for identifying a colored region and a non-colored region of a colored image, and a display for displaying the colored image on the identification image Control means (for example, step S164 in FIG. 26).

【0092】請求項50に記載の画像データ処理装置
は、識別画像上に表示された着色画像の所定の領域の色
を抽出する抽出手段(例えば、図26のステップS16
8)と、着色画像の着色されていない領域を、抽出手段
により抽出した色で着色させる着色手段(例えば、図2
6のステップS169)をさらに備えることを特徴とす
る。
An image data processing apparatus according to claim 50 is an extracting means for extracting a color of a predetermined area of a colored image displayed on an identification image (for example, step S16 in FIG. 26).
8) and a coloring means for coloring an uncolored area of the colored image with the color extracted by the extracting means (for example, FIG.
6, step S169).

【0093】請求項57に記載の画像データ処理装置
は、第1のフレームの第1の画像と第2のフレームの第
2の画像の対応関係を判定する判定手段(例えば、図1
9のステップS153)と、第1の画像の色を検出する
検出手段(例えば、図19のステップS153)と、判
定手段の判定結果に対応して、検出手段により検出した
色を、第2の画像に着色する着色手段(例えば、図19
のステップS154)とを備えることを特徴とする。
The image data processing apparatus according to claim 57 determines the correspondence between the first image of the first frame and the second image of the second frame (for example, FIG.
9, step S153), detecting means for detecting the color of the first image (for example, step S153 in FIG. 19), and the color detected by the detecting means corresponding to the result of the determination by the second means. Coloring means for coloring an image (for example, FIG.
Step S154).

【0094】請求項63に記載の画像データ処理装置
は、指定された領域だけを着色するのか、または、対応
する複数の領域をすべて着色するのかを、選択する選択
手段(例えば、図19のステップS151)をさらに備
えることを特徴とする。
The image data processing apparatus according to claim 63 is a selection means for selecting whether to color only a designated area or to color all of a plurality of corresponding areas (for example, the step shown in FIG. 19). S151) is further provided.

【0095】請求項66に記載の画像データ処理装置
は、取り込まれたセル画像のトレース線で囲まれる領域
の無色画素に対して所定の色を着色して着色画像を生成
する着色画像生成手段(例えば、図5のステップS4
7)と、着色画像生成手段による着色処理に対応して、
着色画像の色を着色した着色領域と、着色していない無
着色領域とを識別するキーデータを生成するキーデータ
生成手段(例えば、図5のステップS51)と、複数の
レイヤの着色画像を合成する場合の優先度を規定するパ
ラメータを設定するパラメータ設定手段(例えば、図3
3のステップS230)と、パラメータ設定手段により
設定されたパラメータと、キーデータ生成手段により生
成されたキーデータとに対応して、複数のレイヤの着色
画像を合成する合成手段(例えば、図35のステップS
253)とを備えることを特徴とする。
The image data processing device according to claim 66, wherein a colored image generating means (colored image generating means for generating a colored image by coloring a predetermined color to a colorless pixel in an area surrounded by a trace line of a fetched cell image. For example, step S4 in FIG.
7) and corresponding to the coloring process by the coloring image generating means,
Key data generating means (for example, step S51 in FIG. 5) for generating key data for identifying a colored region in which the color of the colored image is colored and a non-colored uncolored region; Parameter setting means (for example, FIG. 3)
(Step S230 of FIG. 3), a synthesizing unit for synthesizing a colored image of a plurality of layers corresponding to the parameter set by the parameter setting unit and the key data generated by the key data generating unit (for example, FIG. 35). Step S
253).

【0096】図1は、本発明を適用したパーソナルコン
ピュータの構成例を表している。この構成例において、
パーソナルコンピュータ17は、各種の処理を実行する
CPU1を備えている。ROM2には、CPU1が各種の処理を
実行する上において必要なプログラムが記憶されてお
り、RAM3には、CPU1が各種の処理を実行する上におい
て必要なデータやプログラムなどが適宜記憶される。
FIG. 1 shows a configuration example of a personal computer to which the present invention is applied. In this configuration example,
The personal computer 17 executes various processes.
A CPU 1 is provided. The ROM 2 stores programs necessary for the CPU 1 to execute various processes, and the RAM 3 appropriately stores data, programs, and the like necessary for the CPU 1 to execute various processes.

【0097】CRTコントローラ4は、CPU1により制御さ
れ、CRT5に所定の画像を表示させる。ジョイスティッ
クコントローラ6は、ユーザがジョイスティック7を操
作したとき、その操作信号をCPU1に出力する。マウス
コントローラ8は、ユーザがマウス9を操作したとき、
その操作信号をCPU1に出力する。
[0097] The CRT controller 4 is controlled by the CPU 1 and causes the CRT 5 to display a predetermined image. When the user operates the joystick 7, the joystick controller 6 outputs an operation signal to the CPU 1. When the user operates the mouse 9, the mouse controller 8
The operation signal is output to the CPU 1.

【0098】フロッピーディスク(FD)コントローラ
10は、フロッピーディスク11に対して、データを記
録または再生する処理を行う。同様に、ハードディスク
(HD)コントローラ12は、ハードディスク13にデ
ータを記録または再生する処理を実行する。キーボード
コントローラ15は、キーボード16からの入力をCPU
1に出力する。
The floppy disk (FD) controller 10 performs a process of recording or reproducing data on the floppy disk 11. Similarly, the hard disk (HD) controller 12 executes a process of recording or reproducing data on the hard disk 13. The keyboard controller 15 inputs data from the keyboard 16 to the CPU.
Output to 1.

【0099】このパーソナルコンピュータ17には、入
出力インタフェース14を介して、ビデオカメラ21、
スキャナ22、ビデオテープレコーダ23、およびディ
スクレコーダ24が接続されている。
The personal computer 17 has a video camera 21,
A scanner 22, a video tape recorder 23, and a disk recorder 24 are connected.

【0100】図2は、本発明によるアニメーション制作
の流れを示す図であり、図36に示した処理と対応する
処理には対応する符号を付してある。すなわち、本発明
においても、ステップS1乃至ステップS4における企
画から動画作成までの処理と、ステップS9とステップ
S10における音入れと放映の処理は、図36における
場合と同様に行われる。
FIG. 2 is a diagram showing a flow of animation production according to the present invention, and the processes corresponding to those shown in FIG. 36 are denoted by the same reference numerals. That is, also in the present invention, the processes from planning to creation of a moving image in steps S1 to S4 and the sound insertion and broadcasting processes in steps S9 and S10 are performed in the same manner as in FIG.

【0101】すなわち、この発明の実施の形態の場合、
ステップS4で動画が作成された後、ステップS9で音
入れ処理が行われるまでの間に行われる、ステップS1
1乃至ステップS13の処理が、従来の場合と異なって
いる。そして、これらの処理は、全てコンピュータ上で
行われるようになされている。
That is, in the case of the embodiment of the present invention,
Step S1 is performed after the moving image is created in step S4 and before the sound insertion processing is performed in step S9.
The processing from 1 to S13 is different from the conventional case. These processes are all performed on a computer.

【0102】ステップS11では、ステップS4で作成
された動画を、ビデオカメラ21あるいはスキャナ22
などにより取り込む処理が行われる。そして、ステップ
S12においては、ステップS11で取り込まれた画像
に対して、ペイント処理が行われる。このペイント処理
は、コンピュータ上で行われるのであって、絵具などを
用いて手動的に行われるものではない。そして、ペイン
トが完了した画像をタイムシートに沿って再生し、チェ
ックする処理が、ステップS13で行われる。ステップ
S13で動画チェックが行われた後、ステップS9にお
いて、音入れ処理が行われ、ステップS10で放映され
ることになる。
In step S11, the moving image created in step S4 is transferred to the video camera 21 or the scanner 22.
For example, the capturing process is performed. Then, in step S12, a paint process is performed on the image captured in step S11. This painting process is performed on a computer, and is not manually performed using paints or the like. Then, a process of reproducing and checking the painted image along the time sheet is performed in step S13. After the moving image check is performed in step S13, a sound insertion process is performed in step S9, and the broadcast is performed in step S10.

【0103】図3は、図2に示したステップS11乃至
ステップS13の処理をより詳細に表している。最初
に、ステップS21において、スキャナ22またはビデ
オカメラ21などを用いて、作成された動画像を取り込
む処理が行われる。この取り込み処理は、動画像のレイ
ヤ毎に、またカット毎に行われ、それぞれがファイルに
登録される。
FIG. 3 shows the processing of steps S11 to S13 shown in FIG. 2 in more detail. First, in step S21, a process of capturing the created moving image using the scanner 22 or the video camera 21 is performed. This import processing is performed for each layer of the moving image and for each cut, and each is registered in a file.

【0104】ステップS22においては、ステップS2
1で取り込まれた画像を線画処理する。この線画処理に
より取り込まれた画像がペイントのために2値化され
る。その詳細は後述するが、このとき、線画は、そのト
レース線が1画素の幅で表現されるように細線化され
る。そして、1画素の幅の線で閉領域が形成されている
か否かがチェックされる。後述するステップS24のペ
イント処理は、この閉領域を単位として行われる。
In step S22, step S2
The image captured in step 1 is subjected to line drawing processing. The image captured by this line drawing processing is binarized for painting. Although the details will be described later, at this time, the line drawing is thinned so that the trace line is represented by the width of one pixel. Then, it is checked whether or not a closed region is formed by a line having a width of one pixel. The paint processing in step S24 described later is performed in units of the closed area.

【0105】次に、ステップS23に進み、ペイントに
必要な色をパレットに作成する処理が行われ、ステップ
S24において、そのパレットで線画を着色する処理が
行われる。1画素の幅の線で閉じられた1つの領域を指
定し、かつ、その領域を着色する色を指定すると、その
領域の内部の画素は自動的に指定した色で着色される。
Next, the process proceeds to step S23, in which a process for creating a color necessary for painting on a palette is performed, and in step S24, a process for coloring a line drawing with the palette is performed. When one area closed by a line having a width of one pixel is specified and a color for coloring the area is specified, pixels inside the area are automatically colored with the specified color.

【0106】ステップS25において、各領域のうち、
まだ着色していない領域があるか否かがチェックされ
る。そして、まだ着色をしていない領域がある場合には
(塗り残しの領域がある場合には)、その領域を着色す
る処理がさらに行われる。
In step S25, of each area,
It is checked whether there are any areas that have not yet been colored. Then, when there is a region that has not been colored yet (when there is an unpainted region), a process of coloring that region is further performed.

【0107】次に、ステップS26において、オリジナ
ルの色のトレース線の上に所定の色を着色する処理が行
われる。オリジナルのトレース線の色は、後述するよう
に、一種のコマンドを形成しており、アニメーションの
画像として表示する色とは必ずしも一致するものではな
い。ここでは、そのトレース線をアニメーションの画像
として表示する色に着色する処理が行われる。
Next, in step S26, a process of coloring a predetermined color on the trace line of the original color is performed. The color of the original trace line forms a kind of command, as described later, and does not always match the color displayed as an animation image. Here, a process of coloring the trace line to a color to be displayed as an animation image is performed.

【0108】次に、ステップS27において、ステップ
S24でペイント処理した結果得られた画像と、ステッ
プS26で着色処理して得られたトレース線の画像とを
合成する処理が行われる。このようにして合成された画
像は、ステップS28において、セル画単位でファイル
として保存される。
Next, in step S27, a process of synthesizing the image obtained as a result of the painting process in step S24 with the image of the trace line obtained in the coloring process in step S26 is performed. The image synthesized in this way is stored as a file in cell image units in step S28.

【0109】以上のようにして、複数のセルの画像が保
存されたとき、ステップS29乃至ステップS31にお
いて、タイムシート処理が行われる。このタイムシート
処理においては、最初に、保存したセル画像をエントリ
ーリスト上に登録する処理が行われる。そして、エント
リーリストに登録した後、そのエントリーリスト上のセ
ル番号を用いて、タイムシート上にセル画像が配置され
る。これにより、各フレームの画像を、所望の数のレイ
ヤの画像で規定することができる。さらに、このタイム
シート処理において、必要に応じて、特殊効果などを設
定することができる。
As described above, when an image of a plurality of cells is stored, a time sheet process is performed in steps S29 to S31. In this time sheet process, first, a process of registering the saved cell image on the entry list is performed. Then, after registration in the entry list, the cell images are arranged on the time sheet using the cell numbers on the entry list. Thereby, the image of each frame can be defined by the image of the desired number of layers. Further, in this time sheet processing, special effects and the like can be set as necessary.

【0110】このようにして、タイムシート上に規定し
たフレームは、プレビューして動画像として(試験的に
動画として表示して)確認することができる。
In this manner, the frame specified on the time sheet can be previewed and confirmed as a moving image (displayed as a moving image on a trial basis).

【0111】ここで、以上のような各処理を行うことで
生成されるファイルの構成について、図4を参照して説
明する。アニメーションのデータは、複数のカットのデ
ータで構成される。ここで、カットとは、連続する画像
のまとまりを意味する。
Here, the configuration of a file generated by performing the above-described processes will be described with reference to FIG. The animation data is composed of a plurality of cut data. Here, the cut means a group of continuous images.

【0112】各カットは、カット名とカット番号に、.T
TTの拡張子を付加して表される管理用ファイル、レイヤ
とセル番号に、.BMPの拡張子を付加して表されるビット
マップファイル、処理の過程で適宜作成される、レイヤ
とセル番号に、.WIGの拡張子を付加して表される作業用
ファイルなどを有している。この他、カットには、レイ
ヤとセル番号に、.TGAの拡張子付加して表されるTARGA
ファイル、カット名とカット番号に、.TSHの拡張子を付
加して表されるタイムシフトファイル、カット名とカッ
ト番号に、.AVIの拡張子を付加して表されるアニメーシ
ョンファイルなどを有している。
Each cut has a .T
Management file with TT extension added, bitmap file with .BMP extension added to layer and cell numbers, layer and cell numbers created as appropriate during processing , And a work file represented by adding a .WIG extension. In addition, TARGA, which is represented by adding the extension of .TGA to the layer and cell number,
It has a file, a cut name and a cut number, a time shift file with a .TSH extension added, and a cut name and a cut number with an .AVI extension added to an animation file. ing.

【0113】.TTTの拡張子を有する管理用ファイルに
は、リスト数データ、ファイル名リストデータ、および
カラーパレットデータが含まれている。ファイル名リス
トデータは、.BMPの拡張子を有するものであり、その数
がn個である場合、リスト数データはnとされる。ま
た、カラーパレットデータは、256個の色を表すこと
ができる。
The management file having the extension of .TTT includes list number data, file name list data, and color pallet data. The file name list data has an extension of .BMP, and when the number is n, the list number data is set to n. The color pallet data can represent 256 colors.

【0114】カラーパレットのファイルは、レイヤとセ
ル番号に、.PALの拡張子を付加して表される。このカラ
ーパレットには、256色までの色成分と色の名称が保
存されている。
A color palette file is represented by adding a .PAL extension to a layer and cell number. In this color palette, up to 256 color components and color names are stored.

【0115】.WIGの拡張子を有する作業用ファイルは、
特殊効果の内容を表す画像の幅と高さ情報、スキャナ画
像を補正した画像である24ビットのオリジナル画像、
8ビットの線画として認識させた画像である線画画像、
着色した画像である8ビットのペイント画像、着色され
ている部分を判別する8ビットのアルファ画像、トレー
ス線を着色した画像である8ビットのトレース画像、お
よび、合成した画像である24ビットのファイナル画像
を有している。
A work file having a .WIG extension is
The width and height information of the image representing the content of the special effect, a 24-bit original image that is a corrected image of the scanner image,
A line drawing image which is an image recognized as an 8-bit line drawing,
An 8-bit paint image that is a colored image, an 8-bit alpha image that identifies a colored portion, an 8-bit trace image that is an image in which trace lines are colored, and a 24-bit final image that is a composite image Has images.

【0116】.TGAの拡張子で表されるTARGAファイル
は、24ビットのファイナルイメージデータと、8ビッ
トのファイナルアルファキーデータとから構成される3
2ビットのデータである。
A TARGA file represented by an extension of .TGA is composed of 24-bit final image data and 8-bit final alpha key data.
It is 2-bit data.

【0117】.TSHの拡張子で表されるタイムシートファ
イルは、登録画像数、フレーム数、レイヤの最大数、レ
ンダリングの解像度、登録画像リスト名、タイムシート
データを含んでいる。タイムシートデータは、どの時間
にどのレイヤを重ねるかを示すデータである。
The timesheet file represented by the extension of .TSH includes the number of registered images, the number of frames, the maximum number of layers, the resolution of rendering, the registered image list name, and timesheet data. The time sheet data is data indicating which layer is to be overlapped at which time.

【0118】なお、背景画像も1つのレイヤの画像とさ
れる。
Note that the background image is also an image of one layer.

【0119】図5は、各種の処理を実行すると生成され
るデータの流れを表している。以下、このフローチャー
トを参照して各処理について説明する。ステップS41
において、鉛筆やペンなどを用いて作者により紙に描か
れた動画像をスキャナ22で取り込む処理が行われる。
例えばマウス9を操作して、スキャン処理の指令を入力
すると、CPU1は、CRT5にスキャン処理のためのGUIと
して、図6に示すような画像を表示させる。そして、こ
のGUIに従って、ユーザは、図7のフローチャートに示
すようにスキャン処理を行う。
FIG. 5 shows a flow of data generated when various processes are executed. Hereinafter, each process will be described with reference to this flowchart. Step S41
In the process, the scanner 22 takes in a moving image drawn on paper by the author using a pencil or a pen.
For example, when the mouse 9 is operated to input a scan processing command, the CPU 1 causes the CRT 5 to display an image as shown in FIG. 6 as a GUI for the scan processing. Then, according to this GUI, the user performs a scanning process as shown in the flowchart of FIG.

【0120】最初に、ステップS71において、ユーザ
は、図6のGUIの表示部71にカット名を入力する。こ
の名称の入力は、キーボード16を操作することで行わ
れる。次に、ステップS72に進み、ユーザは、レイヤ
番号とセル番号をカーソルで指定するか否かを判定し、
カーソルで指定しない場合には、ステップS73に進
み、図6に示すGUIの表示部702にレイヤ番号を、ま
た、ステップS74において、GUIの表示部703にセ
ル番号を、それぞれキーボード16を操作することで入
力、表示させる。
First, in step S71, the user inputs a cut name to the GUI display section 71 of FIG. The input of this name is performed by operating the keyboard 16. Next, proceeding to step S72, the user determines whether or not to specify a layer number and a cell number with a cursor,
If the cursor is not specified, the process proceeds to step S73, in which the layer number is displayed on the GUI display unit 702 shown in FIG. 6, and the cell number is displayed on the GUI display unit 703 in step S74. To enter and display.

【0121】ステップS72において、レイヤ番号とセ
ル番号をカーソルで指定すると判定した場合、ステップ
S75に進み、ユーザは、キーボード16のカーソルキ
ーまたはマウス9を操作して、図6のGUIの読み込み確
認ウインドウ708に表示されているカーソル709を
所定の位置に移動させる。すなわち、読み込み確認ウイ
ンドウ708の横軸方向には、数字で表されるセル番号
が、また、縦軸方向には、アルファベット文字で表され
るレイヤ番号が示されている。従って、カーソル709
をセル番号とレイヤ番号で規定される所定の位置に移動
することで、レイヤ番号とセル番号を指定することがで
きる。なお、この例では、レイヤ番号としてアルファベ
ット文字を用いているが、説明の便宜上、このような文
字も番号として説明する。勿論、実際にアルファベット
文字に代えて、数字でレイヤ番号を表すようにすること
もできる。
If it is determined in step S72 that the layer number and the cell number are designated by the cursor, the process proceeds to step S75, where the user operates the cursor keys of the keyboard 16 or the mouse 9 to read the GUI reading confirmation window of FIG. The cursor 709 displayed at 708 is moved to a predetermined position. That is, a cell number represented by a numeral is shown in the horizontal axis direction of the reading confirmation window 708, and a layer number represented by alphabetical characters is shown in the vertical axis direction. Therefore, the cursor 709
Is moved to a predetermined position defined by the cell number and the layer number, whereby the layer number and the cell number can be designated. In this example, alphabetic characters are used as layer numbers, but such characters will be described as numbers for convenience of explanation. Of course, the layer number may be represented by a number instead of an alphabetical character.

【0122】以上のようにして、カット名、レイヤ番
号、およびセル番号が指定された後、ステップS76に
おいて、ユーザは、ボタン704をオンすると、CPU1
は、入出力インタフェース14を介して、スキャナ22
に制御信号を出力し、スキャン処理を実行させる。そし
て、スキャナ22が1枚のセル画像をスキャンすること
で取り込んだ画像を受け取ると、CPU1は、これを画像
表示ウインドウ707に出力し、表示させる。また、ス
テップS77において、CPU1は、読み込み確認ウイン
ドウ708のレイヤ番号とセル番号で規定される位置
に、マーク710を表示させる。これにより、ユーザ
は、取り込み済みの画像の、レイヤ番号とセル番号を、
迅速に認識することができる。
After the cut name, the layer number, and the cell number are specified as described above, in step S76, the user turns on the button 704, and the CPU 1
Is connected to the scanner 22 via the input / output interface 14.
To output a control signal to execute a scanning process. Then, when the scanner 22 receives an image captured by scanning one cell image, the CPU 1 outputs this to the image display window 707 and displays it. In step S77, the CPU 1 displays a mark 710 at a position specified by the layer number and the cell number in the read confirmation window 708. As a result, the user can change the layer number and cell number of the captured image,
Can be quickly recognized.

【0123】なお、スキャンの実行は、カット名、レイ
ヤ番号、およびレイヤ番号の入力の前に行うようにして
もよい。
The scan may be executed before the input of the cut name, the layer number, and the layer number.

【0124】次に、ステップS78に進み、必要な全て
の動画像を取り込んだか否かを判定し、まだ取り込んで
いない動画像が残っている場合には、ステップS71に
戻り、それ以降の処理を繰り返し実行する。全ての動画
像の取り込みが完了したとき、処理が終了される。
Next, the process proceeds to step S78, where it is determined whether or not all necessary moving images have been fetched. If there are moving images that have not been fetched yet, the process returns to step S71 to execute the subsequent processing. Execute repeatedly. When the capture of all the moving images has been completed, the process ends.

【0125】なお、図6のGUIに示すように、取り込ん
だ画像を、表示部705における設定により、プラス9
0度回転させたり、マイナス90度回転させたりするこ
とができる。また、表示部706に表示されているフィ
ルタに関する補正の項目を適宜設定することで、コント
ラスト補正やガンマ補正を行うこともできる。
Note that, as shown in the GUI of FIG.
It can be rotated 0 degrees or minus 90 degrees. In addition, by appropriately setting correction items for the filter displayed on the display unit 706, contrast correction and gamma correction can be performed.

【0126】以上のようにして、スキャン処理を行うこ
とで、図5のステップS42において、フルカラーの2
4ビットのオリジナル画像データが得られることにな
る。上述したように、この画像データは、.BMPの拡張子
を付してファイル化される。このファイルは、ハードデ
ィスク13に記録される。図4に示したように、例えば
レイヤAの第1番目のセル画としてスキャンした場合に
は、A0001.BMPというファイル名でハードディスク
13に記録される。
By performing the scanning process as described above, in step S42 of FIG.
Thus, 4-bit original image data is obtained. As described above, this image data is filed with an extension of .BMP. This file is recorded on the hard disk 13. As shown in FIG. 4, for example, when the image is scanned as the first cell image of the layer A, it is recorded on the hard disk 13 with a file name of A0001.BMP.

【0127】次に、ステップS43において、RGBの
24ビットのフルカラーのビットマップデータから、明
度データ、色度データ、および彩度データを演算する処
理が実行される。さらにステップS44において、フィ
ルタリング処理が行われる。フィルタリング処理の詳細
は、図8に示されている。
Next, in step S43, a process of calculating lightness data, chromaticity data, and chroma data from the RGB 24-bit full-color bitmap data is executed. Further, in step S44, a filtering process is performed. The details of the filtering process are shown in FIG.

【0128】最初にステップS91において、注目画素
が白色であるか否かが判定される。注目画素の明度デー
タの値が所定のしきい値より大きく、色度データと彩度
データの値が所定のしきい値より小さい場合、その注目
画素の色は白色であると判定される。この場合、ステッ
プS95に進み、8ビットのデータのうちの所定のビッ
トをセットすることにより、白色であることが表され
る。
First, in step S91, it is determined whether or not the target pixel is white. If the value of the brightness data of the target pixel is larger than the predetermined threshold and the values of the chromaticity data and the saturation data are smaller than the predetermined thresholds, the color of the target pixel is determined to be white. In this case, the process proceeds to step S95, in which a predetermined bit of the 8-bit data is set to indicate that the color is white.

【0129】ステップS91において、注目画素が白色
ではないと判定された場合、ステップS92に進み、注
目画素は黒色であるか否かが判定される。明度データ、
色度データ、および彩度データの値が、それぞれいずれ
も予め設定してある所定のしきい値よりも小さい場合に
は、その注目画素は黒色であると判定される。この場
合、ステップS96に進み、8ビットのうちの所定のビ
ットを設定することで黒色であることが設定される。
If it is determined in step S91 that the target pixel is not white, the flow advances to step S92 to determine whether the target pixel is black. Brightness data,
If the values of the chromaticity data and the saturation data are each smaller than a predetermined threshold value, it is determined that the target pixel is black. In this case, the process proceeds to step S96, and by setting a predetermined bit out of the eight bits, black is set.

【0130】ステップS92において、注目画素が黒色
ではないと判定された場合には、ステップS93に進
み、注目画素は赤色であるか否かが判定される。注目画
素が赤色であるか否かは、その注目画素の明度データと
色度データの値が、それぞれ赤色のしきい値の範囲内に
あるか否かから判定される。注目画素が赤色である場
合、ステップS97において、8ビットのうちの所定の
ビットをセットすることで赤色であることが設定され
る。
If it is determined in step S92 that the target pixel is not black, the flow advances to step S93 to determine whether the target pixel is red. Whether or not the target pixel is red is determined based on whether or not the values of the brightness data and the chromaticity data of the target pixel are respectively within the range of the red threshold. If the target pixel is red, in step S97, it is set to be red by setting a predetermined bit of the eight bits.

【0131】ステップS93において、注目画素が赤色
ではないと判定された場合には、ステップS94に進
み、注目画素は緑色であるか否かが判定される。この判
定も、注目画素の明度データと色度データの値が、緑色
の所定のしきい値の範囲内にある場合に緑色であると判
定される。この場合、ステップS98に進み、8ビット
のうちの所定のビットをセットすることで緑色であるこ
とが設定される。
If it is determined in step S93 that the target pixel is not red, the flow advances to step S94 to determine whether the target pixel is green. This determination is also determined to be green when the values of the brightness data and the chromaticity data of the target pixel are within the range of a predetermined threshold value of green. In this case, the process proceeds to step S98, and by setting a predetermined bit out of the eight bits, the color is set to be green.

【0132】以上のようにして、フィルタリング処理が
完了したとき、図5のステップS45に進み、細線化処
理が実行されるのであるが、この場合、CPU1は、CRT5
に、図9に示すようなGUIを表示させる。このGUIにおい
ては、レイヤ画像表示ウインドウ902に、指定したレ
イヤの取り込んだ画像が順番に表示される。ボタン90
3を操作することで、この表示されているセル画像を右
方向または左方向にスクロールすることができる。画像
表示ウインドウ901には、レイヤ画像表示ウインドウ
902に表示されているセル画像のうち、指定したもの
(例えば、図中最も左側のセル画像)が表示される。
As described above, when the filtering process is completed, the process proceeds to step S45 in FIG. 5, and the thinning process is executed. In this case, the CPU 1
Then, a GUI as shown in FIG. 9 is displayed. In this GUI, images captured by a specified layer are displayed in order in a layer image display window 902. Button 90
By operating the number 3, the displayed cell image can be scrolled rightward or leftward. In the image display window 901, a designated one (for example, the leftmost cell image in the figure) of the cell images displayed in the layer image display window 902 is displayed.

【0133】ウインドウ904には、画像表示ウインド
ウ901に表示されているセル画像の1つ前のセル画像
が表示され、その下のウインドウ905には、画像表示
ウインドウ901に大きく表示されているセル画像と同
一のセル画像が小さく表示される。このウインドウ90
5に表示されている画像の所定の位置を指定すること
で、その部分を、画像表示ウインドウ901に、より拡
大して表示することができる。
The window 904 displays the cell image immediately before the cell image displayed in the image display window 901, and the window 905 below the cell image displays the cell image largely displayed in the image display window 901. The same cell image as is displayed in small size. This window 90
By specifying a predetermined position of the image displayed in 5, that part can be displayed in the image display window 901 in an enlarged manner.

【0134】ボタン906は、オリジナル(Org)、ラ
イン(Line)、ペイント(Paint)、アルファ(Alph
a)、トレース(Trace)、またはファイナル(Final)
のいずれかのモードを設定するとき操作される。図9の
表示例では、オリジナルのボタンが操作された状態が示
されている。
Buttons 906 are for Original (Org), Line (Line), Paint (Paint), and Alpha (Alph).
a), Trace, or Final
Operated when setting any of the modes. The display example of FIG. 9 shows a state in which the original button has been operated.

【0135】ボタン907は、スキャナ22で取り込
み、ハードディスク13に記録したオリジナルの画像デ
ータを読み込むとき操作される。ボタン908は、線画
を強調して読み込むとき操作される。ウインドウ909
には、ブラシ形状が表示されており、ボタン910を操
作することで、ブラシの大きさを変更することができ
る。ここで指定した大きさのブラシを用いて、画像表示
ウインドウ901に表示されている線画像のノイズ成分
を除去することができる。
A button 907 is operated when the original image data read by the scanner 22 and recorded on the hard disk 13 is read. A button 908 is operated when a line image is emphasized and read. Window 909
Displays a brush shape. By operating the button 910, the size of the brush can be changed. The noise component of the line image displayed in the image display window 901 can be removed using the brush having the designated size.

【0136】ボタン911は、24ビットのフルカラー
の画像データを8ビットのカラーの画像データに変換す
る演算を行うフィルタを作成するとき操作される。ボタ
ン912は、画像表示ウインドウ901に表示されたオ
リジナルの画像データから細線化データを求めるとき操
作される。
The button 911 is operated when creating a filter for performing an operation for converting 24-bit full-color image data into 8-bit color image data. The button 912 is operated when thinning data is obtained from the original image data displayed in the image display window 901.

【0137】色選択ウインドウ914には、画像表示ウ
インドウ901に表示されている画像を着色するとき使
用されるカラーパレットが表示されている。この色選択
ウインドウ914に表示されているカラーパレットのう
ち、所定のものを指定すると、その色が色設定ウインド
ウ913に表示される。そして、この色設定ウインドウ
913のボタンを適宜設定、調整することで、色選択ウ
インドウ914の1つのパレットの色を所望の値(色)
に設定することができる。
In the color selection window 914, a color palette used when coloring the image displayed in the image display window 901 is displayed. When a predetermined one of the color palettes displayed in the color selection window 914 is designated, the color is displayed in the color setting window 913. By appropriately setting and adjusting the buttons in the color setting window 913, the color of one palette in the color selection window 914 is set to a desired value (color).
Can be set to

【0138】図9のボタン912をユーザが操作する
と、図5のステップS45において、細線化処理が行わ
れる。この細線化処理は、所定の太さを有するトレース
線を1画素の幅の線に変換する処理を意味する。すなわ
ち、原画像として描かれた線画像を構成するトレース線
は、人間の手によってペンや鉛筆によって描かれたもの
であるので、適当な太さ(幅)を有している。従って、
これを上述したように、スキャナ22で取り込んで、ビ
ットマップイメージデータとすると、そのトレース線
は、例えば図10に示すように、複数のドットによって
表現されることになる。図10に示す例においては、そ
の中心の画素(H8,V1),(H8,V2),(H
8,V3),(H7,V4),(H7,V5),(H
6,V6),(H6,V7),(H5,V8),(H
5,V9),(H4,V10),(H4,V11),
(H3,V12),(H2,V13)の合計13画素か
らなる線に変換する処理が細線化処理ということにな
る。
When the user operates the button 912 in FIG. 9, a thinning process is performed in step S45 in FIG. This thinning processing means processing for converting a trace line having a predetermined thickness into a line having a width of one pixel. That is, the trace lines constituting the line image drawn as the original image are drawn with a pen or pencil by a human hand, and thus have an appropriate thickness (width). Therefore,
As described above, when this is taken in by the scanner 22 and becomes bitmap image data, the trace line is represented by a plurality of dots as shown in FIG. 10, for example. In the example shown in FIG. 10, the pixels (H8, V1), (H8, V2), (H
8, V3), (H7, V4), (H7, V5), (H
6, V6), (H6, V7), (H5, V8), (H
5, V9), (H4, V10), (H4, V11),
The process of converting into a line composed of a total of 13 pixels (H3, V12) and (H2, V13) is referred to as a thinning process.

【0139】この細線化処理は、白い画素に接している
黒い画素を、1回の細線化処理毎に、白い画素に変えて
いく処理である。換言すると、白い画素に接している黒
い画素を削除することにより、トレース線を細くする。
トレース線は、細線化処理が1回行われる毎に細くな
り、複数回の細線化処理を繰り返すことにより、最後に
は1画素の幅のラインを得ることができる。
The thinning process is a process of changing a black pixel in contact with a white pixel into a white pixel for each thinning process. In other words, the trace line is made thinner by deleting the black pixels that are in contact with the white pixels.
The trace line becomes thinner each time the thinning process is performed once, and by repeating the thinning process a plurality of times, a line having a width of one pixel can be finally obtained.

【0140】1枚の画素が640×480(=3072
00)画素で構成される場合、これらの各画素は、上述
したステップS44のフィルタリング処理により、白い
画素と、それ以外の以外の色(黒、赤、または緑の画
素)に2値化される。ここで、白い画素は無色画素と称
し、それ以外の色の画素は有色画素と称することにす
る。
One pixel is 640 × 480 (= 3072)
00) When each pixel is composed of pixels, these pixels are binarized into white pixels and other colors (black, red, or green pixels) by the filtering processing in step S44 described above. . Here, white pixels are referred to as colorless pixels, and pixels of other colors are referred to as colored pixels.

【0141】次に、図11のフローチャートを参照し
て、細線化処理の詳細について説明する。最初に、ステ
ップS111において、注目画素が有色画素であるか否
かを判定する。注目画素が無色画素である場合、ステッ
プS116に進み、注目画素を次の画素に変更して、ス
テップS111に戻り、その注目画素が有色画素である
か否かを判定する処理を行う。
Next, the details of the thinning processing will be described with reference to the flowchart of FIG. First, in step S111, it is determined whether the target pixel is a color pixel. If the target pixel is a colorless pixel, the process proceeds to step S116, the target pixel is changed to the next pixel, and the process returns to step S111 to determine whether the target pixel is a color pixel.

【0142】ステップS111において、注目画素が有
色画素であると判定された場合、ステップS112に進
み、注目画素は、他の有色画素と連続している画素であ
るか否かを判定する。具体的には、例えば図12に示す
ように、注目画素を中心にして、その注目画素に接する
8個の画素が無色画素であるか有色画素であるかを調
べ、8個の画素のうち、2つ以上の画素が有色画素であ
る場合、その注目画素は、有色画素と連続している画素
であると判定する。例えばノイズなどにより、注目画素
が有色画素として2値化されている場合には、注目画素
に接する8個の画素のうち、有色画素は1つも無いので
(孤立画素であるので)、この注目画素は、他の有色画
素に連続しない画素であると判定される。
If it is determined in step S111 that the pixel of interest is a color pixel, the flow advances to step S112 to determine whether the pixel of interest is a pixel that is continuous with another color pixel. Specifically, for example, as shown in FIG. 12, it is checked whether eight pixels in contact with the target pixel are colorless pixels or colored pixels with the target pixel as a center, and among the eight pixels, If two or more pixels are colored pixels, it is determined that the target pixel is a pixel that is continuous with the colored pixels. For example, when the pixel of interest is binarized as a colored pixel due to noise or the like, there is no color pixel among the eight pixels in contact with the pixel of interest (because it is an isolated pixel). Is determined to be a pixel that is not continuous with other colored pixels.

【0143】注目画素が他の有色画素と連続していない
とステップS112において判定された場合には、ステ
ップS115に進み、その注目画素を無色画素に変更す
る。すなわち、ノイズを除去する。そして、ステップS
116において、注目画素を次の画素に変更して、ステ
ップS111に戻る。
If it is determined in step S112 that the pixel of interest is not continuous with another color pixel, the flow advances to step S115 to change the pixel of interest to a colorless pixel. That is, noise is removed. And step S
At 116, the target pixel is changed to the next pixel, and the process returns to step S111.

【0144】ステップS112において、注目画素が他
の有色画素と連続していると判定された場合、ステップ
S113に進み、注目画素は無色画素と接しているか否
かを判定する。具体的には、注目画素を中心にして、そ
の注目画素に隣接する垂直方向の2画素と水平方向の2
画素の、合計4個の画素が全て有色画素である場合に
は、この注目画素は、無色画素に接していないトレース
線の内部の画素であると判断することができる。従っ
て、この場合には、ステップS116に進み、注目画素
を次の画素に変更して、ステップS111に戻る。
If it is determined in step S112 that the pixel of interest is continuous with another color pixel, the flow advances to step S113 to determine whether the pixel of interest is in contact with a colorless pixel. Specifically, two pixels in the vertical direction adjacent to the pixel of interest and two pixels in the horizontal direction are adjacent to the pixel of interest.
If all four of the pixels are colored pixels, it can be determined that the target pixel is a pixel inside the trace line that is not in contact with the colorless pixel. Therefore, in this case, the process proceeds to step S116, the target pixel is changed to the next pixel, and the process returns to step S111.

【0145】ステップS113において、注目画素の水
平方向と垂直方向に接する4画素のうち、いずれかが無
色画素であると判定された場合には、この注目画素は、
無色画素に接している画素であると判断して、ステップ
S114に進む。
In step S113, if it is determined that any of the four pixels in contact with the pixel of interest in the horizontal and vertical directions is a colorless pixel, the pixel of interest is
It is determined that the pixel is in contact with the colorless pixel, and the process proceeds to step S114.

【0146】図12に示す例では、注目画素の垂直方向
に接する画素2と画素6、並びに、水平方向に接する画
素0と画素4のうち、画素4と画素2が無色画素である
から、ステップS114に進む。
In the example shown in FIG. 12, among the pixels 2 and 6 which are in contact with the target pixel in the vertical direction and the pixels 4 and 2 among the pixels 0 and 4 which are in contact in the horizontal direction, the pixels are colorless. Proceed to S114.

【0147】ステップS114においては、注目画素が
細線化された画素であるか否かを判断する。具体的に
は、最初に、注目画素の右上に位置する画素0、画素
1、および画素2からなる第1の画素の組、注目画素の
左上に位置する画素2、画素3、および画素4からなる
第2の画素の組、注目画素の左下に位置する画素4、画
素5、および画素6からなる第3の画素の組、並びに、
注目画素の右下に位置する画素6、画素7、および画素
0からなる第4の画素の組に含まれる各画素が、全て無
色の画素であるか否かを調べる。すなわち、これらの第
1の画素の組乃至第4の画素の組のうち、いずれか1つ
の組に含まれる画素が全て無色の画素であるか否かを調
べる。
In step S114, it is determined whether or not the target pixel is a thinned pixel. Specifically, first, a first pixel set including pixel 0, pixel 1, and pixel 2 located at the upper right of the pixel of interest, pixel 2, pixel 3, and pixel 4 located at the upper left of the pixel of interest A second pixel set, a third pixel set including pixels 4, 5, and 6 located at the lower left of the pixel of interest, and
It is checked whether or not each of the pixels included in the fourth pixel set including the pixel 6, the pixel 7, and the pixel 0 located at the lower right of the target pixel is a colorless pixel. That is, it is determined whether all the pixels included in any one of the first to fourth pixel sets are colorless pixels.

【0148】そして、さらに1つの組の画素が全て無色
の画素であった場合には、対向する位置の組に無色の画
素が含まれているか否かを調べる。対向する画素の組の
中に、無色の画素が含まれていない場合、この注目画素
は、トレース線の端部(エッジ)に位置する画素である
と判断することができる。そして、対向する画素の組の
中に無色の画素が含まれている場合には、その注目画素
は、細線化された画素(1画素の幅の線の画素)である
と判断することができる。
If one set of pixels is all colorless pixels, it is checked whether the set at the opposite position contains colorless pixels. When a colorless pixel is not included in the set of opposing pixels, it can be determined that the pixel of interest is a pixel located at the end of the trace line. When a colorless pixel is included in the set of opposing pixels, it can be determined that the target pixel is a thinned pixel (a pixel having a width of one pixel). .

【0149】例えば図12の例においては、第2の組の
画素(画素2、画素3、および画素4)が全て無色の画
素である。さらに、この第2の組の画素に対向する第4
の組の画素(画素6、画素7、および画素0)には、無
色の画素が含まれていない。そこで、このような場合に
は、ステップS114において、この注目画素は、トレ
ース線のエッジに位置する画素であると判断される。す
なわち、この注目画素は、まだ細線化されていない画素
と判断される。
For example, in the example of FIG. 12, the second set of pixels (pixel 2, pixel 3, and pixel 4) are all colorless pixels. Further, a fourth pixel opposing the second set of pixels
(Pixel 6, pixel 7, and pixel 0) do not include colorless pixels. Therefore, in such a case, it is determined in step S114 that the pixel of interest is a pixel located at the edge of the trace line. That is, the target pixel is determined to be a pixel that has not been thinned yet.

【0150】ステップS114において、注目画素が細
線化された画素ではないと判定された場合(トレース線
のエッジに位置している画素であると判定された場
合)、ステップS115に進み、注目画素を無色画素に
変更する処理が行われる。これにより、トレース線のエ
ッジに位置する1つの有色画素が、無色画素に変更され
る。その結果、トレース線が1画素分だけ細くなる。次
に、ステップS116において、注目画素を次の画素に
変更して、ステップS111に戻る。
If it is determined in step S114 that the target pixel is not a thinned pixel (if it is determined that the target pixel is a pixel located at the edge of the trace line), the flow advances to step S115 to change the target pixel. A process for changing to a colorless pixel is performed. As a result, one color pixel located at the edge of the trace line is changed to a colorless pixel. As a result, the trace line becomes thinner by one pixel. Next, in step S116, the target pixel is changed to the next pixel, and the process returns to step S111.

【0151】ステップS114において、注目画素が細
線化された画素であると判断された場合(1画素の幅の
線の画素であると判断された場合)、ステップS117
に進み、全ての画素が細線化された画素であるか否かが
判定される。全ての画素が細線化された画素ではない場
合には、ステップS111に戻り、それ以降の処理が繰
り返し実行される。この細線化処理が繰り返されること
で、1画素の幅のラインを得ることができる。
If it is determined in step S114 that the pixel of interest is a thinned pixel (if it is determined that the pixel of interest is a pixel having a line width of one pixel), step S117 is performed.
Then, it is determined whether or not all the pixels are thinned pixels. If all the pixels are not thinned pixels, the process returns to step S111, and the subsequent processing is repeatedly executed. By repeating this thinning process, a line having a width of one pixel can be obtained.

【0152】このように、ペイント処理前にトレース線
を細線化することにより、色の塗り残しが発生するのを
防止することが可能となる。
As described above, by thinning the trace lines before the paint processing, it is possible to prevent the occurrence of unpainted colors.

【0153】本発明の実施の形態においては、細線化デ
ータは、8ビットにより表される。すなわち、ステップ
S42で得た24ビットの画素データが、図9のボタン
911を操作することで作成したフィルタにより処理さ
れ、ステップS46で、8ビットの細線化データが得ら
れる。
In the embodiment of the present invention, the thinned data is represented by 8 bits. That is, the 24-bit pixel data obtained in step S42 is processed by the filter created by operating the button 911 in FIG. 9, and in step S46, 8-bit thinned data is obtained.

【0154】この実施の形態の場合、細線化データの各
画素の色を表すために、図13に示すようなルックアッ
プテーブル(LUT)を使用している。このルックアップ
テーブルは、細線化データの各画素のオリジナルの色を
表すための色パレットであり、システム上、ユーザが自
由に変更することができないように、内部のデータが固
定されている。すなわち、固定パレットとされている。
In this embodiment, a look-up table (LUT) as shown in FIG. 13 is used to represent the color of each pixel of the thinned data. This look-up table is a color palette for representing the original color of each pixel of the thinned data, and internal data is fixed in the system so that the user cannot freely change it. That is, it is a fixed pallet.

【0155】この発明の実施の形態においては、オリジ
ナルのトレース線の色として、黒、緑、または赤を使用
するようにしている(その意味については、図30を参
照して後述する)。従って、トレース線が黒の場合、そ
の線は、パレット番号0を示す8ビットのデータによっ
て表され、赤い色のトレース線は、パレット番号2を示
す8ビットのデータによって表され、緑色のトレース線
は、パレット番号4を示す8ビットのデータによって表
される。また、トレース線がない白色の画素は、パレッ
ト番号7を示す8ビットのデータで表される。図13に
示す固定パレットから明らかなように、トレース線の色
としては、黒、緑、赤以外に、青、イエロー(黄)など
を用いることもできる。
In the embodiment of the present invention, black, green, or red is used as the color of the original trace line (the meaning will be described later with reference to FIG. 30). Therefore, if the trace line is black, the line is represented by 8-bit data indicating palette number 0, the red trace line is represented by 8-bit data indicating palette number 2, and the green trace line Is represented by 8-bit data indicating pallet number 4. A white pixel without a trace line is represented by 8-bit data indicating a pallet number 7. As is apparent from the fixed palette shown in FIG. 13, as the color of the trace line, blue, yellow (yellow), and the like can be used in addition to black, green, and red.

【0156】以上のようにして、オリジナルデータの処
理が終了したとき、ボタン906のうち、Lineのボタン
を操作すると、図14に示すような、ライン処理のGUI
がCRT5に表示される。この表示例においては、画像表
示ウインドウ901に、ステップS45の細線化処理に
より細線化された1画素の幅の線で構成される画像が表
示されている。ボタン141は、1画素の幅の線で領域
が閉じられているか否かをチェックするとき操作される
ボタンであり、ボタン142は、そのチェックを行った
結果、1画素の幅の線が閉じておらず、穴が空いている
ような場合に、この穴を修正する処理を行うとき操作さ
れるボタンである。
As described above, when the processing of the original data is completed, the user operates the Line button among the buttons 906 to display the GUI of the line processing as shown in FIG.
Is displayed on CRT5. In this display example, an image composed of a line having a width of one pixel, which has been thinned by the thinning processing in step S45, is displayed in the image display window 901. The button 141 is a button operated when checking whether or not an area is closed with a line having a width of one pixel. This is a button that is operated when a process for correcting this hole is performed when there is a hole.

【0157】すなわち、この発明の実施の形態において
は、後述するように、ペイント処理において、1画素の
幅の線により、閉じられた領域を指定すると、その領域
内の全ての画素を指定した色で自動的に着色することが
できる。例えば図15に示すように、1画素の幅の線で
三角形と四角形の閉じられた図形が表示されている状態
において、三角形を指定し、塗る色として赤を指定すれ
ば、三角形の内部が赤で着色される。また、四角形を着
色する色として緑を指定すれば、四角形の内部は緑色に
着色される。
That is, in the embodiment of the present invention, as described later, when a closed area is designated by a line having a width of one pixel in the paint processing, all pixels in the area are designated by a designated color. Can be colored automatically. For example, as shown in FIG. 15, in a state where a closed figure of a triangle and a rectangle is displayed by a line having a width of one pixel, if a triangle is specified and red is specified as a paint color, the inside of the triangle becomes red. Colored with. If green is designated as the color for coloring the rectangle, the inside of the rectangle is colored green.

【0158】しかしながら、例えば図16に示すよう
に、三角形の線の一部に穴が空いており、三角形が閉じ
ていないような場合には、着色する領域として三角形を
指定し、さらに着色する色として赤を指定すると、三角
形の内部だけでなく、三角形の外部も赤に着色されるこ
とになる。その結果、所望の領域だけ、所望の色に着色
することができなくなる。
However, as shown in FIG. 16, for example, when a part of the triangle line has a hole and the triangle is not closed, the triangle is designated as a region to be colored, and the color to be further colored is specified. If you specify red as, not only inside the triangle but also outside the triangle will be colored red. As a result, it becomes impossible to color only a desired area to a desired color.

【0159】そこで、図14に示すチェックのボタン1
41を操作することで、1画素の幅の線が閉じているか
否かをチェックすることができる。すなわち、この場
合、図17のフローチャートに示す処理が実行される。
Therefore, the check button 1 shown in FIG.
By operating 41, it is possible to check whether or not a line having a width of one pixel is closed. That is, in this case, the processing shown in the flowchart of FIG. 17 is executed.

【0160】最初にステップS131において、ユーザ
は、画像表示ウインドウ901に表示されている1画素
の幅の線で描かれている線画像の所定の領域をマウス9
を操作することで指定する。このとき、CPU1は、ステ
ップS132において、ステップS131で指定された
領域内の全ての画素を1つの色に着色し、表示させる。
この処理は、指定された領域中の左上の画素から水平方
向に1画素ずつ所定の色に表示色を変更することで行わ
れる。同様の処理が、以下、順次、より隣接する画素に
ついても同様に行われる。その結果、図16に示すよう
に、線で閉じられていない部分(穴)があると、そこか
ら外側に連続する画素が存在するので、その外側の画素
も着色されることになる。
First, in step S131, the user uses the mouse 9 to move a predetermined area of a line image drawn by a line of one pixel width displayed in the image display window 901.
Specify by operating. At this time, in step S132, the CPU 1 colors and displays all the pixels in the area designated in step S131 in one color.
This processing is performed by changing the display color to a predetermined color one pixel at a time in the horizontal direction from the upper left pixel in the designated area. The same processing is performed in the same manner sequentially on the more adjacent pixels. As a result, as shown in FIG. 16, if there is a portion (hole) that is not closed by a line, there is a continuous pixel on the outside, and the pixel on the outside is also colored.

【0161】ユーザは、指定した領域だけが所定の色に
表示されているか否かを、表示された画像から判断する
ことができる。指定した領域の外側も内側と同一の色で
表示されている場合には、その領域のどこかに穴が空い
ていることになる。そこで、ステップS133におい
て、指定した領域に穴が空いているか否かを判定し、穴
が空いていると判定した場合には、ステップS134に
進み、その穴を埋める処理を行う。すなわち、図14の
ボタン242を操作して、不連続な線を連続させる操作
を行って、1画素の幅のラインで領域が閉じられるよう
にする。穴が空いていない場合には、ステップS134
の処理はスキップされる。
The user can determine from the displayed image whether or not only the designated area is displayed in a predetermined color. If the outside of the designated area is also displayed in the same color as the inside, it means that there is a hole somewhere in that area. Therefore, in step S133, it is determined whether or not a hole is formed in the designated area. If it is determined that a hole is formed, the process proceeds to step S134, and processing for filling the hole is performed. That is, the user operates the button 242 in FIG. 14 to perform an operation of connecting discontinuous lines so that the area is closed by a line having a width of one pixel. If there is no hole, step S134
Is skipped.

【0162】次に、図5のステップS47に進み、ペイ
ント処理を実行する。このとき、ユーザは、図18に示
すように、ボタン906のうち、Paintのボタンをオン
する。このとき、GUI上においては、図18に示すよう
に、1画素の幅の線で囲まれている領域を所定の色で塗
るとき操作されるボタン191が表示される。ボタン1
92は、所定の領域を所定のパターンで塗る場合に操作
されるボタンである。ボタン194は、そのとき塗られ
るパターンを設定選択するとき操作されるボタンであ
る。ボタン193は、前のフレーム(既に着色している
フレーム)の対応する領域の色と同一の色を、対応する
領域に塗る場合に操作されるボタンである。
Next, the flow proceeds to step S47 in FIG. 5, and paint processing is executed. At this time, the user turns on the Paint button among the buttons 906 as shown in FIG. At this time, on the GUI, as shown in FIG. 18, a button 191 operated to paint an area surrounded by a line having a width of one pixel with a predetermined color is displayed. Button 1
A button 92 is operated when a predetermined area is painted in a predetermined pattern. The button 194 is a button operated when setting and selecting a pattern to be painted at that time. The button 193 is a button operated when the same color as the color of the corresponding area in the previous frame (the already colored frame) is painted on the corresponding area.

【0163】次に、図19のフローチャートを参照し
て、図18のボタン193をオンして、前のフレームの
対応する領域の色と同一の色を、処理対象としているフ
レームの対応する領域に塗る場合の処理について説明す
る。最初に、ステップS151において、ユーザは、全
ての領域を前のフレームの色と同一の色に着色するか否
かを判定する。全ての領域を処理対象としない場合に
は、ステップS152に進み、ユーザは、前のフレーム
の対応する領域の色と同一の色を塗る領域を、マウス9
を操作することで指定する。所定の領域が指定されたと
き、CPU1は、ステップS153において、前のフレー
ムの対応する閉領域を検索する処理を実行する。
Next, referring to the flowchart of FIG. 19, the user turns on the button 193 of FIG. 18 and sets the same color as that of the corresponding area of the previous frame to the corresponding area of the frame to be processed. The process for applying will be described. First, in step S151, the user determines whether or not to color all regions in the same color as the color of the previous frame. If all areas are not to be processed, the process proceeds to step S152, and the user sets an area to be painted with the same color as that of the corresponding area of the previous frame with the mouse 9
Specify by operating. When the predetermined area is specified, the CPU 1 executes a process of searching for a corresponding closed area of the previous frame in step S153.

【0164】例えば、図20に示すように、前のフレー
ムの画像として、セル画1があり、次のフレームの画像
として、図21に示すセル画2があるとする。セル画1
における領域a1乃至a4は、セル画2における領域a
11乃至a14にそれぞれ対応している。通常、動画像
であるから、図21に示すフレームの画像と図22に示
すフレームの画像は、その位置が若干ずれている。しか
しながら、そのずれは、直前と直後のフレームの画像で
あるから、それほど大きくはない。1秒間に30フレー
ムの画像が存在するものとすると、両者の間の時間的な
差は1/30秒となる。そこで、CPU1は、領域a11
が指定されたものとすると、図22に示すように、例え
ばセル画1の画面上において、セル画2の領域a11を
仮想的に描画する。この場合、領域a11は、セル画1
の領域a1乃至a4のいずれかと、その範囲が重なるこ
とになる。CPU1は、領域a1乃至a4のうち、領域a
11と重なる範囲が最も広い領域を、領域a11に対応
する領域と判断する。図22の例の場合、領域a11に
重なる部分が最も広い領域は、領域a1乃至a4のう
ち、領域a1である。そこで、領域a1が領域a11に
対応する領域であると判定される。また、このとき、領
域a11の色が検出される。
For example, as shown in FIG. 20, it is assumed that there is a cell image 1 as an image of the previous frame and a cell image 2 shown in FIG. 21 as an image of the next frame. Cel 1
Are the areas a1 to a4 in the cell image 2.
11 to a14 respectively. Usually, since the image is a moving image, the positions of the frame image shown in FIG. 21 and the frame image shown in FIG. 22 are slightly shifted. However, the shift is not so large because it is the image of the frame immediately before and immediately after. Assuming that there are 30 frames of image per second, the temporal difference between them is 1/30 second. Therefore, the CPU 1 sets the area a11
Is designated, the area a11 of the cell image 2 is virtually drawn on the screen of the cell image 1, for example, as shown in FIG. In this case, the area a11 is the cell image 1
And its range overlaps with any of the regions a1 to a4. The CPU 1 selects the area a among the areas a1 to a4.
The region having the widest range overlapping with the region 11 is determined as the region corresponding to the region a11. In the case of the example of FIG. 22, the region having the widest portion overlapping the region a11 is the region a1 among the regions a1 to a4. Therefore, it is determined that the area a1 is an area corresponding to the area a11. At this time, the color of the area a11 is detected.

【0165】次に、図19のステップS154に進み、
CPU1は、処理対象としているフレームの領域(図21
の領域a11)を、前のフレームの対応する領域(図2
0の領域a1)と同一の色に着色する。
Next, the flow advances to step S154 in FIG.
The CPU 1 determines the area of the frame to be processed (FIG. 21).
Area a11) is replaced with the corresponding area (FIG. 2) of the previous frame.
It is colored in the same color as the 0 area a1).

【0166】ステップS151において、指定した領域
だけではなく、全ての領域について、自動的に着色を行
うと判定した場合には、ステップS155に進み、前の
フレームの画像の対応する全ての領域が検索される。図
21に示す例の場合、領域a11に対応する領域だけで
なく、領域a12乃至a14に対応する領域が、直前の
フレームの図20のセル画上において検索される。そし
て、ステップS156に進み、検索された全ての領域と
同一の色に着色する処理が実行される。すなわち、図2
1の表示例の場合、領域a11が領域a1と同一の色に
着色されるだけでなく、領域a12が領域a2と同一の
色に着色され、領域a13が領域a3と同一の色に着色
され、さらに、領域a14が領域a4と同一の色に着色
される。
If it is determined in step S151 that coloring is to be performed automatically not only on the designated area but on all areas, the process proceeds to step S155, where all corresponding areas of the image of the previous frame are searched. Is done. In the case of the example shown in FIG. 21, not only the area corresponding to the area a11 but also the areas corresponding to the areas a12 to a14 are searched on the cell image in FIG. 20 of the immediately preceding frame. Then, the process proceeds to step S156, and a process of coloring in the same color as all the searched areas is executed. That is, FIG.
In the case of display example 1, not only is the area a11 colored in the same color as the area a1, but also the area a12 is colored in the same color as the area a2, and the area a13 is colored in the same color as the area a3. Further, the area a14 is colored in the same color as the area a4.

【0167】これに対して、ボタン191を操作して、
各領域をカラーパレットで指定した色に着色することも
できる。この場合、ユーザは、色選択ウインドウ914
のカラーパレットの中から、所定の色を指定し、さら
に、画像表示ウインドウ901に表示されている線画像
の所定の領域を指定する。このとき、CPU1は、指定さ
れた領域を、指定された色で着色する。
On the other hand, by operating the button 191,
Each area can be colored in a color specified by a color palette. In this case, the user selects the color selection window 914
Of the line image displayed in the image display window 901 is designated. At this time, the CPU 1 colors the designated area with the designated color.

【0168】ユーザが、ペイント処理により、各領域に
色を塗ると、細線化データにおける白色のドットに色デ
ータが付加される。以下、この色データをペイントデー
タと称する。上述したように、細線化データは、黒、
緑、または赤のトレース線のデータと、それ以外の白の
データとから構成されている。従って、ペイント処理に
より生成されたペイントデータは、黒、緑、または赤の
細線化されたトレース線のデータと、白色の領域に塗ら
れた色データとから構成される。
When the user paints each area by painting, color data is added to white dots in the thinned data. Hereinafter, this color data is referred to as paint data. As described above, the thinning data is black,
It is composed of green or red trace line data and other white data. Therefore, the paint data generated by the paint processing is composed of the data of the trace line thinned to black, green, or red, and the color data painted in the white area.

【0169】このペイントデータの各画素は、細線化デ
ータの8ビットにより表されているデータと同様に、塗
られた色を表すためのパレット番号を示す8ビットのデ
ータから構成されている。図23は、このペイントデー
タにおいて、利用されるルックアップテーブルの例を表
している。上述したように(図13に示したように)、
パレット番号0乃至パレット番号7は、システムにより
利用されるので、ユーザが利用できるのは、パレット番
号7乃至パレット番号207までの色となる。パレット
番号208乃至255には、各種の模様が割り当てられ
ている。
Each pixel of the paint data is composed of 8-bit data indicating a pallet number for representing a painted color, similarly to the data represented by the 8-bit thinning data. FIG. 23 shows an example of a lookup table used in the paint data. As described above (as shown in FIG. 13),
Since palette numbers 0 to 7 are used by the system, the user can use colors from palette numbers 7 to 207. Various patterns are assigned to the pallet numbers 208 to 255.

【0170】以上のペイント処理を行うことにより、図
5のステップS48において、8ビットの第1のペイン
トデータが得られることになる。
By performing the above-described paint processing, 8-bit first paint data is obtained in step S48 of FIG.

【0171】ステップS48で得られた8ビットの第1
のペイントデータは、ステップS49において、線除去
処理が行われ、ステップS50において、8ビットの第
2のペイントデータとされる。
The first 8-bit data obtained in step S48
Is subjected to line removal processing in step S49, and is converted into 8-bit second paint data in step S50.

【0172】細線化処理によって生成された細線化デー
タと、ペイント処理によって作成されたペイントデータ
(第1のペイントデータ)から、第2のペイントデータ
が生成される。この第2のペイントデータは、第1のペ
イントデータから細線化されたトレース線のデータを除
去したデータである。具体的には、細線化データのトレ
ース線を表す画素を無色の画素とすることにより、この
第2のペイントデータは、ペイント処理によって色が付
加された画素のみを表すデータとなる。すなわち、第2
のペイントデータにおいて、ペイント処理によって色が
付加された画素に対しては、有色であることを示す8ビ
ットのデータが割り当てられ、細線化処理によって細線
化されたトレース線を表す画像と、ペイント処理によっ
てまだ色が付加されていない画素に対しては、無色であ
ることを示す8ビットのデータが割り当てられる。な
お、この第2のペイントデータが参照するカラーパレッ
トは、上述した第1のペイントデータを参照するカラー
パレットと同一のカラーパレットである。
The second paint data is generated from the thinned data generated by the thinning process and the paint data (first paint data) created by the paint process. The second paint data is data obtained by removing thinned trace line data from the first paint data. Specifically, by making the pixels representing the trace lines of the thinned data into colorless pixels, the second paint data becomes data representing only the pixels to which the color has been added by the paint processing. That is, the second
In the paint data, 8-bit data indicating color is assigned to pixels to which a color has been added by the paint processing, and an image representing a trace line thinned by the thinning processing and a paint processing 8-bit data indicating colorlessness is assigned to a pixel to which no color has been added yet. Note that the color palette referred to by the second paint data is the same color palette as the color palette referred to by the first paint data described above.

【0173】一方、ステップS48において、第1のペ
イントデータが得られたとき、CPU1は、ステップS5
1において、8ビットの細線化アルファキーデータを作
成する。アルファキーとは、各画素が色を有しているか
否かを示すデータである。このアルファキーデータの各
画素は、8ビットによって表現される。例えば、本発明
の実施の形態においては、ペイント処理によって色が付
けられた画素には、有色を表す「255」が割り当てら
れ、色が付与されていない画素には、無色を表す「0」
が割り当てられる。なお、細線化された画素は、色を有
しているので、有色を表す「255」が割り当てられ
る。
On the other hand, when the first paint data is obtained in step S48, the CPU 1 proceeds to step S5
In step 1, 8-bit thinned alpha key data is created. The alpha key is data indicating whether each pixel has a color. Each pixel of the alpha key data is represented by 8 bits. For example, in the embodiment of the present invention, “255” representing a color is assigned to a pixel colored by a paint process, and “0” representing a colorless is assigned to a pixel without a color.
Is assigned. Since the thinned pixel has a color, “255” representing the color is assigned.

【0174】このアルファキーデータは、ペイントデー
タから生成するようにしているが、細線化データとペイ
ントデータとから生成するようにしてもよい。
Although the alpha key data is generated from the paint data, it may be generated from the thinning data and the paint data.

【0175】この細線化アルファキーデータに対して
は、図24に示すような、固定パレットが割り当てられ
ている。従って、この細線化アルファキーデータをCRT
5に表示すると、ペイント処理によって色が付加された
有色の画素と、細線化された画素は白く表示され、ま
た、色が付与されていない無色の画素が青く表示され
る。
A fixed palette is assigned to the thinned alpha key data as shown in FIG. Therefore, this thinned alpha key data is
When the image is displayed at 5, the colored pixels to which the color is added by the paint process and the thinned pixels are displayed in white, and the colorless pixels to which no color is added are displayed in blue.

【0176】図25は、ボタン906のうち、Alphaの
ボタンを操作して、画像表示ウインドウ901にアルフ
ァキーデータを表示させた状態を表している。このとき
表示されるボタン251は、本来、着色されるべきでな
い透明な領域を表示させないようにカットするとき操作
されるボタンである。また、この表示例においては、ア
ルファキー画像を表示している領域の一部に、ビューウ
インドウ252が表示されている。このビューウインド
ウ252には、ペイント処理された画像(図18に示す
画像)が対応する位置に表示される。すなわち、ユーザ
は、このビューウインドウ252を所定の位置に移動す
ることで、表示モードを切り換えることなく、アルファ
キーデータの画像とペイントデータの画像を対応する位
置で確認することができる。そして、塗り残した領域が
発見された場合には、表示モードを切り換えることな
く、直ちにその領域に所定の色を塗ることが可能とな
る。
FIG. 25 shows a state where the Alpha key among the buttons 906 is operated to display the alpha key data in the image display window 901. The button 251 displayed at this time is a button operated when cutting so that a transparent area that should not be colored should be displayed. In this display example, a view window 252 is displayed in a part of the area displaying the alpha key image. In the view window 252, the image subjected to the paint processing (the image shown in FIG. 18) is displayed at a corresponding position. That is, by moving the view window 252 to a predetermined position, the user can check the image of the alpha key data and the image of the paint data at the corresponding positions without switching the display mode. Then, when an unpainted area is found, it is possible to immediately paint a predetermined color on the area without switching the display mode.

【0177】次に、図26のフローチャートを参照し
て、この場合の処理の詳細について説明する。すなわ
ち、最初にステップS161において、図25に示すよ
うに、画像表示ウインドウ901にアルファキーデータ
を表示する処理が実行される。このとき、ユーザは、ス
テップS162において、ペイント画像を見るためにビ
ューウインドウ252を表示させる必要があるか否かを
判定する。表示させる必要がない場合、ステップS16
3に進み、アルファキー処理を終了させるか否かを判定
し、終了させない場合には、ステップS161に戻る。
Next, the processing in this case will be described in detail with reference to the flowchart in FIG. That is, first, in step S161, a process of displaying alpha key data in the image display window 901 is performed as shown in FIG. At this time, in step S162, the user determines whether it is necessary to display the view window 252 to view the paint image. If there is no need to display, step S16
The process proceeds to step S3, where it is determined whether or not to terminate the alpha key processing. If not, the process returns to step S161.

【0178】ステップS162において、ビューウイン
ドウ252を表示させる必要があると判定した場合、ス
テップS164に進み、ユーザは、マウス9の右ボタン
をクリックすることで、ビューウインドウ252を表示
させる。ビューウインドウ252は、そのときカーソル
の位置する位置に表示される。次に、ステップS165
に進み、ユーザは、アルファキーデータの画像が表示さ
れた状態において、色を抽出し、所定の領域に着色する
処理を行うか否かを判定する。色を抽出する必要がない
と判定した場合には、ステップS166に進み、ビュー
ウインドウ252の表示を継続するか否かを判定する。
ビューウインドウ252の表示を継続する場合には、ス
テップS164に戻る。
If it is determined in step S162 that the view window 252 needs to be displayed, the process advances to step S164, and the user clicks the right button of the mouse 9 to display the view window 252. The view window 252 is displayed at the position where the cursor is located at that time. Next, step S165
Then, the user determines whether or not to perform processing for extracting a color and coloring a predetermined area in a state where the image of the alpha key data is displayed. If it is determined that there is no need to extract a color, the process advances to step S166 to determine whether to continue displaying the view window 252.
If the display of the view window 252 is to be continued, the process returns to step S164.

【0179】ビューウインドウ252は、マウスを右ク
リックしている間中、表示される。右クリックした状態
でマウス9を移動させることで、ビューウインドウ25
2が移動され、所定の位置のペイント画像を確認するこ
とができる。ビューウインドウ252を表示する必要が
なくなったと判定したとき、ユーザは、マウス9の右ボ
タンのクリックを解除する。このとき、ステップS16
6からステップS167に進み、ビューウインドウ25
2の表示が消去される。その後、ステップS161に戻
る。
The view window 252 is displayed while right-clicking the mouse. By moving the mouse 9 while right-clicking, the view window 25
2 is moved, and a paint image at a predetermined position can be confirmed. When it is determined that it is no longer necessary to display the view window 252, the user releases the click of the right button of the mouse 9. At this time, step S16
6 to step S167, and the view window 25
2 is erased. Then, the process returns to step S161.

【0180】ステップS165において、色を抽出する
必要があると判定した場合、ステップS168に進み、
ユーザは、色を抽出する処理を実行する。図示は省略さ
れているが、ビューウインドウ252のほぼ中央には、
スポイトの図形が表示されている。ユーザは、マウス9
の左ボタンをクリックすることで、そのスポイトの図形
の吸い込み口の近傍に表示されているペイント画像の色
を抽出(記憶)させる。この状態で、ユーザは、ステッ
プS169に進み、マウス9を操作して、ビューウイン
ドウ252(スポイト)を、着色されていない領域の上
まで移動し、そこで、マウスの左ボタンのクリックを解
除する。このとき、CPU1は、その領域(ペイント画像
の領域)に記憶した(抽出した)色を着色する。
If it is determined in step S165 that the color needs to be extracted, the process proceeds to step S168,
The user performs a process of extracting a color. Although illustration is omitted, almost in the center of the view window 252,
The dropper shape is displayed. The user has a mouse 9
By clicking the left button of, the color of the paint image displayed near the suction port of the dropper figure is extracted (stored). In this state, the user proceeds to step S169, and operates the mouse 9 to move the view window 252 (eyedropper) to a position above an uncolored area, where the left mouse button is released. At this time, the CPU 1 colors the stored (extracted) color in the area (area of the paint image).

【0181】このようにして、表示モードを切り換える
ことなく、迅速に所望の色を着色することができる。
In this manner, a desired color can be quickly colored without switching the display mode.

【0182】図5に戻って、CPU1は、ステップS44
でフィルタリング処理した結果得られた画素データに対
して、ステップS52において、太線化処理を実行す
る。この太線化処理は、ステップS45における細線化
処理と逆の処理であり、トレース線を太くする処理であ
る。この処理について、図27のフローチャートを参照
して説明する。
Returning to FIG. 5, the CPU 1 determines in step S44
In step S52, a thick line processing is performed on the pixel data obtained as a result of the filtering processing. This thickening process is a process opposite to the thinning process in step S45, and is a process for thickening the trace line. This processing will be described with reference to the flowchart in FIG.

【0183】最初にステップS181において、注目画
素が有色画素であるか否かが判定される。上述したよう
に、フィルタリング処理により、各画素は、無色、黒、
赤、または緑の画素のいずれであるかが識別されてい
る。この識別結果から注目画素が有色画素であるか否か
を判定することができる。注目画素が有色画素である場
合には、ステップS182に進み、注目画素の水平方向
の3つの画素と垂直方向の3つの画素を、注目画素と同
一の色に変更する処理を行う。この処理は、注目画素が
トレース線の内部に位置する画素であっても、トレース
線のエッジに位置する画素であっても行われる。なお、
このステップS182の処理は、黒の画素よりも、赤ま
たは緑の画素に対して優先的に実行される。すなわち、
注目画素に接して、黒色の画素と緑色の画素、または黒
色の画素と赤色の画素がある場合には、その周辺の3画
素は黒ではなく、緑色または赤い色に変更される。
First, in step S181, it is determined whether or not the target pixel is a color pixel. As described above, each pixel is colorless, black,
A red or green pixel is identified. From this identification result, it can be determined whether or not the target pixel is a color pixel. If the target pixel is a color pixel, the process proceeds to step S182, and processing is performed to change three horizontal pixels and three vertical pixels of the target pixel to the same color as the target pixel. This process is performed whether the pixel of interest is a pixel located inside the trace line or a pixel located at the edge of the trace line. In addition,
The processing in step S182 is executed preferentially for red or green pixels over black pixels. That is,
If there is a black pixel and a green pixel or a black pixel and a red pixel in contact with the target pixel, the surrounding three pixels are changed to green or red instead of black.

【0184】注目画素が無色画素である場合には、ステ
ップS82の処理はスキップされる。
If the target pixel is a colorless pixel, the process in step S82 is skipped.

【0185】図28は、ボタン906のうち、Traceの
ボタンを操作して、トレース線処理モードを設定した場
合のGUIの表示例を示している。図5のステップS52
において、太線化処理が行われた後、ステップS53に
おいて、トレース線ペイント処理を行うとき、このGUI
が利用される。このGUIにおいては、取り込まれた原画
像の線画像が、ステップS52で太線化処理された後、
画像表示ウインドウ901に表示される。ステップS5
2の太線化処理は、自動的に行われるのであるが、ボタ
ン281を操作することで、線の幅をさらに太くするこ
とが可能である。
FIG. 28 shows a display example of the GUI when the trace line processing mode is set by operating the Trace button among the buttons 906. Step S52 in FIG.
In step S53, after performing the thick line processing, when performing the trace line painting processing, the GUI
Is used. In this GUI, after the line image of the captured original image is subjected to the thick line processing in step S52,
It is displayed in the image display window 901. Step S5
Although the thickening process 2 is automatically performed, the width of the line can be further increased by operating the button 281.

【0186】ステップS53のトレース線ペイント処理
は、太線化されたトレース線の色を変更する処理であ
り、この処理においては、太線化処理によって生成され
た太線化データの画素の色のみが変更され、それ以外の
画素の色は変更されない。この色の指定は、基本的に、
ステップS47におけるペイント処理と同様に行われ
る。
The trace line painting process in step S53 is a process of changing the color of the bolded trace line. In this process, only the color of the pixel of the bolded data generated by the bolding process is changed. , The colors of the other pixels are not changed. The specification of this color is basically
This is performed in the same manner as the paint processing in step S47.

【0187】色が指定されたトレース線の各画素は、ペ
イントデータと同様に、8ビットデータで構成され、こ
の8ビットデータにより、パレット番号が指定される。
このパレット番号により指定されるカラーパレットは、
対応するペイントデータのカラーパレットと同一のカラ
ーパレットとされる。
Each pixel of the trace line whose color is specified is composed of 8-bit data, similarly to the paint data, and the palette number is specified by the 8-bit data.
The color palette specified by this palette number is
The color palette is the same as the color palette of the corresponding paint data.

【0188】このトレース線ペイント処理の画像が表示
されている状態においても、図25を参照して説明した
場合と同様に、ビューウインドウ282を表示させるこ
とができる。ビューウインドウ282内においては、対
応する位置のペイントデータ画像が表示されるととも
に、トレース線は、オリジナルのトレース線の色(ステ
ップS44のフィルタリング処理で識別された色)で表
示される。すなわち、このトレース線ペイント処理によ
り、太線化処理された各トレース線に対して、任意の色
を着色することができるが、オリジナルのトレース線の
色は、図30を参照して後述するように、一種のコマン
ドを構成している。そこで、このビューウインドウ28
2でペイントされた色ではなく、オリジナルの色を表示
させることで、コマンドを確認することができるように
している。
Even in the state where the image of the trace line paint processing is displayed, the view window 282 can be displayed as in the case described with reference to FIG. In the view window 282, the paint data image at the corresponding position is displayed, and the trace line is displayed in the color of the original trace line (the color identified in the filtering processing in step S44). That is, the trace line paint processing can color each trace line subjected to the thick line processing with an arbitrary color. However, the color of the original trace line can be changed as described later with reference to FIG. , Make up a kind of command. Therefore, this view window 28
The command can be confirmed by displaying the original color instead of the color painted in 2.

【0189】以上のようにして、トレース線ペイント処
理を行うと、ステップS54において、8ビットのトレ
ース線カラーデータを得ることができる。
When the trace line paint processing is performed as described above, 8-bit trace line color data can be obtained in step S54.

【0190】図5のステップS55においては、ステッ
プS43で生成された明度データ、色度データ、および
彩度データから、濃度データを抽出する処理が実行され
る。すなわち、動画像上の線画像は、濃度を有してお
り、その濃度がここで取り込まれる。この濃度データ
は、8ビットで表される。従って、256諧調の濃度が
表現されることになる。なお、この濃度データは、黒、
赤、緑といった色に拘りなく、求められる。
In step S55 of FIG. 5, a process of extracting density data from the brightness data, chromaticity data, and chroma data generated in step S43 is executed. That is, the line image on the moving image has a density, and the density is captured here. This density data is represented by 8 bits. Therefore, the density of 256 gradations is expressed. The density data is black,
It is required regardless of colors such as red and green.

【0191】図29は、ボタン906のうち、Finalボ
タンを操作して、ファイナル処理のモードを設定した場
合のGUIの表示例を表している。このとき表示されてい
るボタン291は、境界線を取り除くとき操作される。
すなわち、図5のステップS47でペイント処理が行わ
れた結果、ステップS48で第1のペイントデータが得
られるが、このボタン291を操作することで、ステッ
プS49の線除去処理が行われ、ステップS50の第2
のペイントデータが得られることになる。ボタン292
は、ステップS63のトレース線ペイント処理で生成さ
れた、ペイントされたトレース線を、ステップS47の
ペイント処理で生成されたペイント画像に合成するとき
操作される。ボタン293は、合成した画像を保存する
とき操作される。ボタン294は、背景の画像と合成す
るとき操作される。
FIG. 29 shows a display example of the GUI when the final processing mode is set by operating the Final button among the buttons 906. The button 291 displayed at this time is operated when removing the boundary line.
That is, although the first paint data is obtained in step S48 as a result of the paint processing performed in step S47 of FIG. 5, by operating this button 291, the line removal processing in step S49 is performed and the step S50 is performed. Second
Will be obtained. Button 292
Is operated when the painted trace line generated in the trace line paint process in step S63 is combined with the paint image generated in the paint process in step S47. The button 293 is operated when saving the combined image. The button 294 is operated when combining with a background image.

【0192】図5のステップS57においては、図29
のGUIを利用して、合成処理が行われる。この合成処理
では、ステップS50で得られた第2のペイントデー
タ、ステップS54で得られたトレース線カラーデー
タ、およびステップS56で得られた濃度データが利用
される。次に、この合成処理の詳細について、図30の
フローチャートを参照して説明する。
In step S57 of FIG. 5, FIG.
The combining process is performed by using the GUI. In this synthesis processing, the second paint data obtained in step S50, the trace line color data obtained in step S54, and the density data obtained in step S56 are used. Next, details of the synthesizing process will be described with reference to the flowchart in FIG.

【0193】最初にステップS201において、合成す
る画素として、トレース線の画素があるか否かが判定さ
れ、トレース線の画素が存在する場合には、ステップS
202乃至ステップS204において、オリジナルのト
レース線の色が黒、赤、または緑色のいずれであるかが
判定される。
First, in step S201, it is determined whether or not there is a trace line pixel as a pixel to be synthesized. If there is a trace line pixel, step S201 is performed.
In steps 202 to S204, it is determined whether the color of the original trace line is black, red, or green.

【0194】ステップS202において、オリジナルの
トレース線の色が黒であると判定された場合、ステップ
S205に進み、トレース線の両端(両エッジ)と接す
る領域の色とグラデーションする処理が実行される。
If it is determined in step S202 that the color of the original trace line is black, the flow advances to step S205 to execute a process of gradation with the color of the region in contact with both ends (both edges) of the trace line.

【0195】例えば、図31(A)に示すように、トレ
ース線の一方と他方に、第2のペイントデータとして、
黄色と青の色を有する領域が接しているものとする。ま
た、図31(B)に示すように、太線化処理されたトレ
ース線が茶色にペイントされているものとする。さら
に、図31(C)に示すように、トレース線の濃度デー
タがトレース線の中心部においては、最大の255の値
を有し、中心から離れるに従って、次第に0まで減少す
るように分布しているものとする。
For example, as shown in FIG. 31 (A), one of the trace lines and the other
It is assumed that areas having yellow and blue colors are in contact with each other. Further, as shown in FIG. 31B, it is assumed that the trace line subjected to the bolding processing is painted in brown. Further, as shown in FIG. 31C, the density data of the trace line has a maximum value of 255 at the center of the trace line, and is distributed so as to gradually decrease to 0 as the distance from the center increases. Shall be

【0196】このような状態において、オリジナルのト
レース線の色が黒である場合には、図31(D)に示す
ような合成処理が行われる。すなわち、トレース線の色
の茶色と、一方の領域の色の黄色とが、濃度分布に対応
して、区間P1において、グラデーションされる。同様
に、茶色のトレース線と他方の領域の色の青も、トレー
ス線の濃度に対応して、区間P2において、グラデーシ
ョンされる。
In such a state, if the color of the original trace line is black, a combining process as shown in FIG. That is, the brown color of the trace line and the yellow color of one of the areas are gradationd in the section P1 corresponding to the density distribution. Similarly, the brown trace line and the blue color of the other region are also gradationally corresponding to the density of the trace line in the section P2.

【0197】合成(グラデーション)の結果得られるデ
ータをM、第2のペイントデータをC1、トレース線カ
ラーデータをC2、濃度データをLとするとき、合成デ
ータMは、次式で表される。 M={(C1×L)+(C2×255−L)}/255
When the data obtained as a result of the composition (gradation) is M, the second paint data is C1, the trace line color data is C2, and the density data is L, the composite data M is represented by the following equation. M = {(C1 × L) + (C2 × 255-L)} / 255

【0198】なお、これらのデータは、いずれも8ビッ
トのデータである。
These data are all 8-bit data.

【0199】一方、ステップS203において、オリジ
ナルのトレース線の色が赤であると判定された場合に
は、ステップS206に進み、トレース線の一方の端部
の区間において、トレース線を介して接する2つの領域
の色をグラデーションする処理が行われる。
On the other hand, if it is determined in step S203 that the color of the original trace line is red, the process proceeds to step S206, where one end of the trace line is in contact with the other via the trace line. A process is performed to gradation the colors of the two areas.

【0200】すなわち、図31(E)に示すように、ト
レース線を介して接する黄色の領域と青の領域が、トレ
ース線の一方の端部(この例の場合、右側の端部)の区
間P2において、グラデーションされる。このとき、ト
レース線は省略される。
That is, as shown in FIG. 31 (E), the yellow area and the blue area that are in contact with each other via the trace line are defined as a section at one end (the right end in this example) of the trace line. In P2, gradation is performed. At this time, the trace line is omitted.

【0201】さらにステップS204において、オリジ
ナルのトレース線の色が緑色であると判定された場合に
は、ステップS207に進み、トレース線を介して接す
る2つの領域の色が、太線化されたトレース線の区間P
3において、グラデーションされる。
If it is determined in step S204 that the color of the original trace line is green, the flow advances to step S207 to change the color of the two regions that are in contact with each other via the trace line into a thick trace line. Section P of
At 3, gradation is applied.

【0202】すなわち、図31(F)に示すように、黄
色の領域と青の領域が区間P3において、グラデーショ
ンされる。この場合も、トレース線は省略される。
That is, as shown in FIG. 31 (F), a yellow area and a blue area are gradation-graded in the section P3. Also in this case, the trace line is omitted.

【0203】ステップS202乃至204において、オ
リジナルのトレース線の色が黒、赤、または緑色のいず
れでもないと判定された場合には、ステップS208に
おいて、その他の合成処理が行われる。
If it is determined in steps S202 to S204 that the color of the original trace line is not any of black, red, and green, other combination processing is performed in step S208.

【0204】一方、ステップS201において、合成す
る注目画素にトレース線の画素が存在しないと判定され
た場合には、ステップS209に進み、特に合成する画
像が存在しないので、ペイント処理画像だけとされる。
On the other hand, if it is determined in step S201 that the pixel of the trace line does not exist in the target pixel to be synthesized, the process proceeds to step S209, and since there is no image to be synthesized in particular, only the paint processing image is set. .

【0205】このように、黒、赤、または緑色でオリジ
ナルのトレース線を描くことにより、所望の合成を行う
ことができるので、動画像を描くとき、黒、赤、または
緑色を適宜使い分けることで、所望の合成画像を得るこ
とができる。
As described above, desired composition can be performed by drawing an original trace line in black, red, or green. Therefore, when a moving image is drawn, black, red, or green can be used properly. Thus, a desired composite image can be obtained.

【0206】以上の処理により、ステップS58におい
て、8ビットの合成イメージのデータが得られる。この
8ビットの合成イメージデータは、ステップS59にお
いて、24ビットのフルカラーのファイナルイメージデ
ータに変換される。すなわち、各画素毎に、カラーパレ
ットに登録してある24ビットの色に変換される。
By the above processing, in step S58, 8-bit composite image data is obtained. This 8-bit composite image data is converted into 24-bit full-color final image data in step S59. That is, each pixel is converted into a 24-bit color registered in the color palette.

【0207】ステップS60においては、ステップS5
1で生成された細線化アルファキーデータと、ステップ
S56で生成された濃度データの合成処理が行われ、フ
ァイナルアルファキーデータFαが生成される。
In step S60, step S5
The thinning alpha key data generated in step 1 and the density data generated in step S56 are combined to generate final alpha key data Fα.

【0208】濃度データをL、細線化アルファキーデー
タをαとすると、ファイナルアルファキーデータFα
は、次式で表される。Fα=Max(L,α)
Assuming that the density data is L and the thinned alpha key data is α, the final alpha key data Fα
Is represented by the following equation. Fα = Max (L, α)

【0209】なお、ここで、Max(A,B)は、Aと
Bのうち、大きい方を選択することを意味する。すなわ
ち、濃度データLと細線化アルファキーデータFαのう
ち、大きい方がファイナルアルファキーデータとされ
る。
Here, Max (A, B) means that the larger one of A and B is selected. That is, the larger one of the density data L and the thinned alpha key data Fα is the final alpha key data.

【0210】このファイナルアルファキーデータは、他
のレイヤのイメージを合成する場合に、キー信号として
利用される。この場合の処理の詳細は、図35を参照し
て後述する。
[0210] The final alpha key data is used as a key signal when synthesizing an image of another layer. Details of the processing in this case will be described later with reference to FIG.

【0211】以上のように、ステップS60の合成処理
を行うことで、ステップS61で、ファイナルアルファ
キーデータが得られる。
As described above, by performing the synthesizing process in step S60, final alpha key data is obtained in step S61.

【0212】さらに、ステップS62において、ステッ
プS59で得られた24ビットのファイナルイメージデ
ータと、ステップS61で得られた8ビットのファイナ
ルアルファキーデータとから、Targaデータが生成され
る。このデータは、.TGAの拡張子を付加して、Targaフ
ァイルとして保存される。
Further, in step S62, Targa data is generated from the 24-bit final image data obtained in step S59 and the 8-bit final alpha key data obtained in step S61. This data is saved as a Targa file with a .TGA extension added.

【0213】図32は、図3を参照して説明したタイム
シート処理を行う場合のGUIの例を表している。この表
示例においては、表示部321に、レイヤが入力表示さ
れるようになされている。ボタン322は、エントリー
リストにセル画像を登録するとき操作される。特殊効果
設定ウインドウ323には、所定の画像をX方向、また
はY方向に移動したり、拡大したり、あるいは回転する
ような特殊効果を設定する場合、その移動、拡大、また
は回転量を設定できるようになされている。この他、透
過、フォーカス、光効果、またはレンズ効果も、特殊効
果として設定できるようになされている。表示部324
には、特殊効果を設定するレイヤを指定表示できるよう
になされている。
FIG. 32 shows an example of a GUI for performing the time sheet process described with reference to FIG. In this display example, a layer is input and displayed on the display unit 321. The button 322 is operated when registering a cell image in the entry list. In the special effect setting window 323, when setting a special effect such as moving, enlarging, or rotating a predetermined image in the X or Y direction, the amount of movement, enlargement, or rotation can be set. It has been made like that. In addition, transmission, focus, light effects, and lens effects can be set as special effects. Display 324
, A layer for setting a special effect can be designated and displayed.

【0214】タイムシート表示ウインドウ325には、
タイムシートが表示されてる。このタイムシートは縦方
向にフレーム番号が、また、横方向にレイヤ番号が表示
されている。また、このタイムシートには、特殊効果設
定表示欄が設けられており、特殊効果が設定されたと
き、その対応するフレームに、マーク326が表示され
る。
[0214] In the time sheet display window 325,
The time sheet is displayed. In this time sheet, a frame number is displayed in a vertical direction, and a layer number is displayed in a horizontal direction. The time sheet is provided with a special effect setting display field. When a special effect is set, a mark 326 is displayed in a frame corresponding to the special effect.

【0215】ボタン327は、プレビュー動作を行うと
き、ボタン328は、AVIファイル(アニメーションフ
ァイル)を作成するとき、また、ボタン329は、レビ
ュー動作を行うとき、それぞれ操作される。
[0215] The button 327 is operated when performing a preview operation, the button 328 is operated when creating an AVI file (animation file), and the button 329 is operated when performing a review operation.

【0216】次に、図33と図34のフローチャートを
参照して、タイムシート処理について説明する。最初に
ステップS220において、タイムシート表示ウインド
ウ325にタイムシートが表示される。次に、ステップ
S221において、ユーザは、表示部321にエントリ
ーに登録するレイヤを指定表示させる。そして、ステッ
プS222において、ボタン322を操作し、セル画像
のエントリーリストへの登録に必要なメニューを表示さ
せる。ステップS223においては、スキャナ22で取
り込まれたセル画像のうち、指定した番号のセル画像
を、順次エントリーリストに登録する。登録したセル画
像は、ステップS224において、レイヤ画像表示ウイ
ンドウ902にセル番号を付して順次表示される。ステ
ップS225においては、全ての必要なレイヤの登録が
終了したか否かを判定し、まだ登録していないレイヤが
存在すると判定された場合には、ステップS221に戻
り、レイヤを変更し、同様の処理を繰り返し実行する。
Next, the time sheet processing will be described with reference to the flowcharts of FIGS. First, in step S220, a time sheet is displayed in the time sheet display window 325. Next, in step S221, the user causes the display unit 321 to specify and display the layer to be registered in the entry. Then, in step S222, the user operates the button 322 to display a menu necessary for registering the cell image in the entry list. In step S223, of the cell images captured by the scanner 22, the cell images of the designated numbers are sequentially registered in the entry list. In step S224, the registered cell images are sequentially displayed with cell numbers attached to the layer image display window 902. In step S225, it is determined whether or not registration of all necessary layers has been completed. If it is determined that there is a layer that has not been registered yet, the process returns to step S221, where the layer is changed and the same is performed. Repeat the process.

【0217】ステップS225において、全てのレイヤ
の登録が完了したと判定された場合、ステップS226
に進み、ユーザは、タイムシートの所定のフレームに、
エントリーリストに登録されたセル番号を入力する。図
32の表示例においては、フレーム1には、背景として
番号1のセル画像が、レイヤAには、セル番号1のセル
画像が、またレイヤBには、番号1のセル画像が、それ
ぞれ入力されている。1つのフレームにおいて、必要な
数のレイヤに、セル番号が入力されると、ステップS2
27において、そのフレーム画像が画像表示ウインドウ
901に表示される。ユーザは、この画像から、複数の
レイヤの画像が合成されたフレーム画像を確認すること
ができる。
If it is determined in step S225 that registration of all layers has been completed, step S226 is performed.
The user proceeds to a predetermined frame of the time sheet,
Enter the cell number registered in the entry list. In the display example of FIG. 32, a cell image of number 1 is input as a background in frame 1, a cell image of cell number 1 is input in layer A, and a cell image of number 1 is input in layer B. Have been. When a cell number is input to a required number of layers in one frame, step S2
At 27, the frame image is displayed in the image display window 901. From this image, the user can confirm a frame image in which images of a plurality of layers are combined.

【0218】次に、ステップS228に進み、そのフレ
ーム画像が所望のものであるか否かを判定し、そのフレ
ーム画像を変更する必要があると判定した場合には、ス
テップS226に戻り、タイムシート上のセル番号を変
更する処理を行う。
Next, the flow advances to step S228 to determine whether or not the frame image is a desired one. If it is determined that the frame image needs to be changed, the flow returns to step S226 to return to the time sheet. A process of changing the cell number above is performed.

【0219】ステップS228において、所望のフレー
ム画像が得られたと判定された場合、ステップS229
に進み、特殊効果を付与する必要があるか否かを判定す
る。特殊効果を付与する必要がある場合には、ステップ
S230に進み、特殊効果設定ウインドウ223の表示
部324に所望のセル番号を入力表示させ、移動、拡
大、透過など、特殊効果のための値を設定する。この設
定を行うと、ステップS231において、タイムシート
上に、特殊効果を設定したことを表すマーク326が表
示される。
When it is determined in step S228 that a desired frame image has been obtained, step S229 is performed.
To determine whether it is necessary to apply a special effect. If a special effect needs to be provided, the process proceeds to step S230, where a desired cell number is input and displayed on the display unit 324 of the special effect setting window 223, and values for the special effect such as movement, enlargement, and transparency are set. Set. After this setting, in step S231, a mark 326 indicating that a special effect has been set is displayed on the time sheet.

【0220】ステップS229において、特殊効果を付
与する必要がないと判定された場合には、ステップS2
30とステップS231の処理はスキップされる。そし
て、ステップS232において、全てのフレームについ
てのタイムシートへの入力が終了したか否かを判定し、
まだ終了していないと判定された場合には、ステップS
226に戻り、それ以降の処理を繰り返し実行する。
If it is determined in step S229 that no special effect needs to be given, the process proceeds to step S2.
30 and the processing of step S231 are skipped. Then, in step S232, it is determined whether or not the input to the time sheet has been completed for all frames,
If it is determined that the processing has not been completed, step S
Returning to 226, the subsequent processing is repeatedly executed.

【0221】ステップS232において、全てのフレー
ムについてのタイムシートへの入力が完了したと判定さ
れた場合、ステップS233に進み、Previewのボタン
327をオンする。このとき、ステップS234におい
て、画像表示ウインドウ901に、タイムシート上にお
ける設定に従った動画像が試験的に表示される。ユーザ
は、このプレビュー画像を見て、ステップS235にお
いて、変更が必要であるか否かを判定し、変更が必要で
あると判定した場合には、ステップS226に戻り、そ
れ以降の処理を繰り返し実行する。
If it is determined in step S232 that the input to the time sheet has been completed for all frames, the flow advances to step S233 to turn on the Preview button 327. At this time, in step S234, a moving image according to the settings on the time sheet is experimentally displayed in the image display window 901. The user looks at the preview image and determines in step S235 whether or not a change is necessary. If it is determined that the change is necessary, the process returns to step S226 and repeats the subsequent processing. I do.

【0222】ステップS235において、変更する必要
がないと判定した場合には、ステップS236に進み、
ユーザは、Renderのボタン328をオンする。このと
き、ステップS237において、タイムシート上に作成
した複数フレームの画像が、アニメーションファイルと
して作成され、ハードディスク13に登録される。Revi
ewのボタン329を操作すると、以上のようにして生成
したアニメーションファイルのデータが、入出力インタ
フェース14を介して、外部のモニタなどに出力され、
表示される。
If it is determined in step S235 that there is no need to change, the process proceeds to step S236,
The user turns on the Render button 328. At this time, in step S237, the images of a plurality of frames created on the time sheet are created as animation files and registered in the hard disk 13. Revi
When the ew button 329 is operated, the data of the animation file generated as described above is output to an external monitor or the like via the input / output interface 14.
Is displayed.

【0223】ここで、複数レイヤのペイント画像の合成
処理について説明する。簡単のため、2つのレイヤの画
像を合成する場合を例とすると、図35のフローチャー
トに示すように、ステップS251において、第1のレ
イヤ(レイヤA)のTargaデータを取得する。このTarga
データは、上述したように、ファイナルアルファキーデ
ータFαAと、ファイナルイメージデータFIAとで構成
されている。
Here, the process of synthesizing a plurality of layers of paint images will be described. For the sake of simplicity, taking the case of combining images of two layers as an example, as shown in the flowchart of FIG. 35, in step S251, Targa data of the first layer (layer A) is acquired. This Targa
The data is composed of final alpha key data Fα A and final image data FI A as described above.

【0224】次に、ステップS252において、第2の
レイヤ(レイヤB)のTargaデータを取得する。このTar
gaデータも、ファイナルアルファキーデータFαBと、
ファイナルイメージデータFIBとで合成されている。
Next, in step S252, Targa data of the second layer (layer B) is obtained. This Tar
The ga data is also the final alpha key data Fα B ,
It has been synthesized in the final image data FI B.

【0225】次に、ステップS253において、合成処
理が行われる。すなわち、ファイナルアルファキーデー
タFαAによって出力されるビデオ信号をVAOUTとする
と、VAOUTは、ファイナルイメージデータFIAに対し
て、ファイナルイメージデータFIBを合成する式を用
いて、次のようになる。 VAOUT=FαA・FIA+(1−FαA)・FαB・FIB ・・・(1)
Next, in step S253, a combining process is performed. That is, assuming that the video signal output by the final alpha key data Fα A is V AOUT , V AOUT is obtained by using the equation for synthesizing the final image data FI B with the final image data FI A as follows. Become. V AOUT = Fα A · FI A + (1-Fα A) · Fα B · FI B ··· (1)

【0226】同様に、ファイナルアルファキーデータF
αBによって出力されるビデオ信号をVBOUTとすると、
BOUTは、ファイナルイメージデータFIBに対して、
ファイナルイメージデータFIAを合成する式を用い
て、次のように表すことができる。 VBOUT=FαB・FIB+(1−FαB)・FαA・FIA ・・・(2)
Similarly, final alpha key data F
If the video signal output by α B is V BOUT ,
V BOUT corresponds to the final image data FI B
Using the formula for combining the final image data FI A, it can be expressed as follows. V BOUT = Fα B · FI B + (1-Fα B) · Fα A · FI A ··· (2)

【0227】次に、ファイナルイメージデータFI
Bを、ファイナルイメージデータFIAに対して優先させ
る度合いを示すプライオリティデータを、P(0≦P≦
1)とする。レイヤBがレイヤAの手前に配置される場
合、P=1とする。
Next, the final image data FI
The B, and priority data indicating the degree to which priority over final image data FI A, P (0 ≦ P
1). When the layer B is arranged before the layer A, P = 1.

【0228】プライオリティデータPを考慮したときの
レイヤAのイメージとして出力されるビデオ信号をV’
AOUTとすると、(1)式より次式が得られる。 V’AOUT=VAOUT・(1−P) ={FαA・FIA+(1−FαA)・FαB・FIB}(1−P) ・・・(3)
A video signal output as an image of layer A in consideration of priority data P is represented by V ′
Assuming AOUT , the following equation is obtained from equation (1). V 'AOUT = V AOUT · ( 1-P) = {Fα A · FI A + (1-Fα A) · Fα B · FI B} (1-P) ··· (3)

【0229】同様に、プライオリティデータPを考慮し
たときのレイヤBのイメージとして出力されるビデオ信
号をV’BOUTとすると、(2)式より次式が得られる。 V’BOUT=VBOUT・P ={FαB・FIB+(1−FαB)・FαA・FIA}・P ・・・(4)
Similarly, assuming that a video signal output as an image of the layer B in consideration of the priority data P is V ′ BOUT , the following equation is obtained from the equation (2). V 'BOUT = V BOUT · P = {Fα B · FI B + (1-Fα B) · Fα A · FI A} · P ··· (4)

【0230】レイヤAとレイヤBが合成された合成ビデ
オ信号をVOUTとし、その合成キー信号をαOUTとする
と、次式が成立する。 VOUT・αOUT=V’AOUT+V’BOUT
If the combined video signal obtained by combining the layers A and B is V OUT and the combined key signal is α OUT , the following equation holds. V OUT・ α OUT = V ' AOUT + V' BOUT

【0231】従って、次式が得られる。 VOUT=(V’AOUT+V’BOUT)/αOUT ・・・(5)Therefore, the following equation is obtained. V OUT = (V ′ AOUT + V ′ BOUT ) / α OUT (5)

【0232】ここで、αOUTを求めると、ファイナルイ
メージデータFIAとファイナルイメージデータFIB
表示されるエリア以外のエリア、すなわち、ビデオ信号
Aとビデオ信号VBのどちらも表示されないエリアにお
いては、アルファキーデータは、(1−FαA)と(1
−FαB)の積で定義されるので、ファイナルイメージ
データFIAまたはファイナルイメージデータFIBが表
示されるエリアのアルファキーデータは、次式で定義さ
れる。 1−(1−FαA)・(1−FαB
Here, when α OUT is obtained, in the area other than the area where the final image data FI A and the final image data FI B are displayed, that is, in the area where neither the video signal V A nor the video signal V B is displayed. Means that the alpha key data is (1-Fα A ) and (1
−Fα B ), the alpha key data of the area where the final image data FI A or the final image data FI B is displayed is defined by the following equation. 1- (1-Fα A ) · (1-Fα B )

【0233】従って、次式が得られる。 αOUT=1−(1−FαA)・(1−FαB) ・・・(6)Therefore, the following equation is obtained. α OUT = 1− (1−Fα A ) · (1−Fα B ) (6)

【0234】上記した(3)式乃至(6)式より、次式
を得ることができる。 VOUT=[{FαA・FIA+(1−FαA)・FαB・F
B}(1−P)+{FαB・FIB+(1−FαB)・F
αA・FIA}・P]/{1−(1−FαA)(1−F
αB)}
From the above equations (3) to (6), the following equations can be obtained. V OUT = [{Fα A · FI A + (1-Fα A) · Fα B · F
I B} (1-P) + {Fα B · FI B + (1-Fα B) · F
α A · FI A} · P ] / {1- (1-Fα A) (1-F
α B )}

【0235】プライオリティデータPは、通常、P=1
である。すなわち、レイヤAの上に、レイヤBが合成さ
れる。このPの値を0から1の間の所定の値に設定する
ことで、レイヤBが透けて、レイヤAが見えるようにな
る。このPの値は、図32における特殊効果設定ウイン
ドウ323の「透過」にパラメータとして設定すること
ができる。
The priority data P is usually P = 1
It is. That is, the layer B is synthesized on the layer A. By setting the value of P to a predetermined value between 0 and 1, layer B can be seen through and layer A can be seen. This value of P can be set as a parameter in “transmission” of the special effect setting window 323 in FIG.

【0236】なお、上記したような処理を行うプログラ
ムをユーザに伝送する伝送媒体としては、磁気ディス
ク、CD-ROM、固体メモリなどの記録媒体の他、ネットワ
ーク、衛星などの通信媒体を利用することができる。
As a transmission medium for transmitting a program for performing the above processing to a user, a recording medium such as a magnetic disk, a CD-ROM, a solid-state memory, and a communication medium such as a network and a satellite may be used. Can be.

【0237】[0237]

【発明の効果】以上の如く、請求項1に記載の画像デー
タ処理装置、請求項5に記載の画像データ処理方法、お
よび請求項6に記載の伝送媒体によれば、取り込まれた
画像から線で構成される画像を生成し、その線で囲まれ
ている領域の画素を着色した画像と線の画像とを合成す
るようにしたので、迅速にカラー画像を生成することが
可能となる。
As described above, according to the image data processing apparatus according to the first aspect, the image data processing method according to the fifth aspect, and the transmission medium according to the sixth aspect, a line is obtained from a captured image. Is generated, and the image in which the pixels in the area surrounded by the line are colored and the image of the line are combined, so that a color image can be quickly generated.

【0238】請求項7に記載の画像データ処理装置、請
求項10に記載の画像データ処理方法、および請求項1
1に記載の伝送媒体によれば、取り込まれるセル画像の
セル番号とレイヤ番号を指定し、取り込まれたセル画像
のセル番号とレイヤ番号を表示させるようにしたので、
作者が原稿に鉛筆、ペンなどを用いて描いたセル画像
を、迅速かつ確実に、スキャナなどにより取り込み、画
像データに変換することが可能となる。
An image data processing apparatus according to claim 7, an image data processing method according to claim 10, and an image data processing method according to claim 10.
According to the transmission medium described in 1, the cell number and the layer number of the captured cell image are specified, and the cell number and the layer number of the captured cell image are displayed.
A cell image drawn by the author using a pencil, a pen, or the like on a manuscript can be quickly and reliably captured by a scanner or the like and converted into image data.

【0239】請求項12に記載の画像データ処理装置、
請求項20に記載の画像データ処理方法、および請求項
21に記載の伝送媒体によれば、フレーム番号とレイヤ
番号とで規定されるタイムシートを表示させ、タイムシ
ートの所定の位置に、取り込まれたセル画像のセル番号
を入力させるようにしたので、各フレームを任意のセル
番号で、簡単かつ確実に構成し、また変更することが可
能となる。
The image data processing device according to claim 12,
According to the image data processing method according to the twentieth aspect and the transmission medium according to the twenty-first aspect, the time sheet defined by the frame number and the layer number is displayed, and is captured at a predetermined position of the time sheet. Since the cell number of the cell image is input, each frame can be easily and reliably configured and changed with an arbitrary cell number.

【0240】請求項22に記載の画像データ処理装置、
請求項28に記載の画像データ処理方法、および請求項
29に記載の伝送媒体によれば、トレース線の濃度を検
出し、トレース線で囲まれた領域のトレース線の近傍の
色を、その濃度に対応して決定するようにしたので、作
者の意図するタッチを正確に表現することが可能とな
る。
An image data processing apparatus according to claim 22,
According to the image data processing method of claim 28 and the transmission medium of claim 29, the density of the trace line is detected, and the color near the trace line in the area surrounded by the trace line is detected. Is determined in accordance with, so that the touch intended by the author can be accurately expressed.

【0241】請求項30に記載の画像データ処理装置、
請求項33に記載の画像データ処理方法、および請求項
34に記載の伝送媒体によれば、トレース線のオリジナ
ルの色の識別結果に対応して、トレース線とトレース線
で囲まれた領域の境界部の色、または、トレース線の一
方の領域と他方の領域の境界部の色であって、トレース
線を省略した場合の色を決定するようにしたので、トレ
ース線のオリジナルの色を所定の色にすることで、取り
込まれた画像の境界部の色を所望の色に決定することが
可能となる。
An image data processing apparatus according to claim 30,
According to the image data processing method described in claim 33 and the transmission medium described in claim 34, the boundary between the trace lines and the area surrounded by the trace lines corresponding to the identification result of the original colors of the trace lines. The color of the trace line or the color of the boundary between one area of the trace line and the other area, and the color when the trace line is omitted, is determined. By using the color, it is possible to determine the color of the boundary of the captured image to a desired color.

【0242】請求項35に記載の画像データ処理装置、
請求項40に記載の画像データ処理方法、および請求項
41に記載の伝送媒体によれば、取り込まれたトレース
線の画素を2値化し、さらに、そのトレース線を1画素
の幅の線に変換するようにしたので、トレース線近傍の
色の塗り残しを抑制し、迅速かつ確実に、カラーのアニ
メーション画像を作成することが可能となる。
An image data processing apparatus according to claim 35,
According to the image data processing method of the present invention, the pixels of the captured trace line are binarized, and the trace line is converted into a line having a width of one pixel. As a result, it is possible to suppress the unpainted color near the trace line, and to quickly and reliably create a color animation image.

【0243】請求項42に記載の画像データ処理装置、
請求項46に記載の画像データ処理方法、および請求項
47に記載の伝送媒体によれば、トレース線が閉じてい
るか否かを確認させるようにしたので、複数の領域が、
同一の色に着色されてしまうようなことが防止され、迅
速かつ確実に、各画像の領域を所望の色に着色すること
が可能となる。
An image data processing apparatus according to claim 42,
According to the image data processing method described in claim 46 and the transmission medium described in claim 47, it is confirmed whether or not the trace line is closed.
The same color can be prevented from being colored, and the area of each image can be quickly and reliably colored with a desired color.

【0244】請求項48に記載の画像データ処理装置、
請求項55に記載の画像データ処理方法、および請求項
56に記載の伝送媒体によれば、着色画像が着色された
領域と着色されていない領域とを識別する識別画像上
に、着色画像を表示させるようにしたので、迅速かつ確
実に、着色していない領域を確認することができ、操作
性が改善され、色の塗り残しの発生を抑制することが可
能となる。
An image data processing apparatus according to claim 48,
According to the image data processing method described in claim 55 and the transmission medium described in claim 56, a colored image is displayed on an identification image for identifying a colored region and a non-colored region of a colored image. As a result, the uncolored area can be confirmed quickly and reliably, the operability is improved, and the occurrence of unpainted colors can be suppressed.

【0245】請求項57に記載の画像データ処理装置、
請求項64に記載の画像データ処理方法、および請求項
65に記載の伝送媒体によれば、第1のフレームの第1
の画像と第2のフレームの第2の画像の対応関係を判定
し、判定結果に対応して、第1の画像の色を、第2の画
像に着色するようにしたので、迅速かつ確実に、着色処
理を行うことが可能となる。
The image data processing apparatus according to claim 57,
According to the image data processing method described in claim 64 and the transmission medium described in claim 65, the first frame of the first frame is processed.
Of the first image and the second image of the second frame are determined, and the color of the first image is colored on the second image in accordance with the determination result. It is possible to perform a coloring process.

【0246】請求項66に記載の画像データ処理装置、
請求項68に記載の画像データ処理方法、および請求項
69に記載の伝送媒体によれば、パラメータとキーデー
タとに対応して、複数のレイヤの着色画像を合成するよ
うにしたので、簡単かつ確実に、変化に富んだ画像を生
成することが可能となる。
An image data processing apparatus according to claim 66,
According to the image data processing method described in claim 68 and the transmission medium described in claim 69, a colored image of a plurality of layers is combined in accordance with the parameter and the key data, so that it is simple and easy. Certainly, it is possible to generate a variety of images.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したパーソナルコンピュータの構
成例を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a personal computer to which the present invention has been applied.

【図2】本発明におけるアニメーション制作の流れを示
す図である。
FIG. 2 is a diagram showing a flow of animation production in the present invention.

【図3】図2のステップS11乃至ステップS13のよ
り詳細な処理を説明するフローチャートである。
FIG. 3 is a flowchart illustrating more detailed processing of steps S11 to S13 of FIG. 2;

【図4】ファイルの構成を示す図である。FIG. 4 is a diagram showing a configuration of a file.

【図5】データの生成を説明するフローチャートであ
る。
FIG. 5 is a flowchart illustrating data generation.

【図6】スキャン処理のGUIの例を示す図である。FIG. 6 is a diagram illustrating an example of a GUI of a scan process.

【図7】スキャン処理を説明するフローチャートであ
る。
FIG. 7 is a flowchart illustrating a scan process.

【図8】フィルタリング処理を説明するフローチャート
である。
FIG. 8 is a flowchart illustrating a filtering process.

【図9】オリジナルデータ処理のGUIの例を示す図であ
る。
FIG. 9 is a diagram illustrating an example of a GUI for original data processing.

【図10】取り込んだトレース線を示す図である。FIG. 10 is a diagram showing a captured trace line.

【図11】細線化処理を示すフローチャートである。FIG. 11 is a flowchart illustrating a thinning process.

【図12】図11の処理を説明する図である。FIG. 12 is a diagram for explaining the processing in FIG. 11;

【図13】細線化データのための固定パレットの例を示
す図である。
FIG. 13 is a diagram showing an example of a fixed pallet for thinned data.

【図14】ライン処理のGUIの例を示す図である。FIG. 14 is a diagram illustrating an example of a GUI for line processing.

【図15】線で囲まれた領域を説明する図である。FIG. 15 is a diagram illustrating a region surrounded by a line.

【図16】線で囲まれた領域を説明する図である。FIG. 16 is a diagram illustrating a region surrounded by a line.

【図17】線画チェック処理を説明するフローチャート
である。
FIG. 17 is a flowchart illustrating a line drawing check process.

【図18】ペイント処理のGUIの例を示す図である。FIG. 18 is a diagram illustrating an example of a GUI for a paint process.

【図19】自動着色処理を説明するフローチャートであ
る。
FIG. 19 is a flowchart illustrating an automatic coloring process.

【図20】対応する閉領域を検出する動作を説明する図
である。
FIG. 20 is a diagram illustrating an operation of detecting a corresponding closed region.

【図21】対応する閉領域を検出する動作を説明する図
である。
FIG. 21 is a diagram illustrating an operation of detecting a corresponding closed region.

【図22】対応する閉領域を検出する動作を説明する図
である。
FIG. 22 is a diagram illustrating an operation of detecting a corresponding closed region.

【図23】ペイントデータのためのルックアップテーブ
ルの例を示す図である。
FIG. 23 is a diagram illustrating an example of a look-up table for paint data.

【図24】アルファキーデータの固定パレットの例を示
す図である。
FIG. 24 is a diagram illustrating an example of a fixed palette of alpha key data.

【図25】アルファキー処理のGUIの例を示す図であ
る。
FIG. 25 is a diagram illustrating an example of a GUI for alpha key processing.

【図26】アルファキーデータ処理を説明するフローチ
ャートである。
FIG. 26 is a flowchart illustrating alpha key data processing.

【図27】太線化処理を説明するフローチャートであ
る。
FIG. 27 is a flowchart illustrating a thick line processing.

【図28】トレース線処理のGUIの例を示す図である。FIG. 28 is a diagram illustrating an example of a GUI for trace line processing.

【図29】ファイナル処理のGUIの例を示す図である。FIG. 29 is a diagram illustrating an example of a GUI for final processing.

【図30】合成処理を説明するフローチャートである。FIG. 30 is a flowchart illustrating a composition process.

【図31】合成処理を説明する図である。FIG. 31 is a diagram for explaining a combining process.

【図32】タイムシート処理のGUIの例を示す図であ
る。
FIG. 32 is a diagram illustrating an example of a GUI of time sheet processing.

【図33】タイムシート処理を説明するフローチャート
である。
FIG. 33 is a flowchart illustrating a time sheet process.

【図34】タイムシート処理を説明するフローチャート
である。
FIG. 34 is a flowchart illustrating a time sheet process.

【図35】複数レイヤの合成処理を説明するフローチャ
ートである。
FIG. 35 is a flowchart illustrating a combining process of a plurality of layers.

【図36】従来のアニメーション制作の流れを示す図で
ある。
FIG. 36 is a diagram showing a flow of a conventional animation production.

【図37】フレームの構成を説明する図である。FIG. 37 is a diagram illustrating the configuration of a frame.

【図38】レイヤの合成を説明する図である。FIG. 38 is a diagram for explaining layer combination.

【符号の説明】[Explanation of symbols]

1 CPU, 5 CRT, 9 マウス, 13 ハードデ
ィスク, 16 キーボード, 21 ビデオカメラ,
22 スキャナ, 23 VTR, 24 ディスクレ
コーダ
1 CPU, 5 CRT, 9 mouse, 13 hard disk, 16 keyboard, 21 video camera,
22 Scanner, 23 VTR, 24 Disk Recorder

───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 特願平9−223066 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−223152 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−223153 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−223163 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−223170 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (31)優先権主張番号 特願平9−223171 (32)優先日 平9(1997)8月4日 (33)優先権主張国 日本(JP) (72)発明者 石井 栄一 東京都目黒区下目黒1丁目6番3号 朝日 下目黒マンション102 株式会社ロジステ ィックス内 (72)発明者 牧田 千鶴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 野尻 晃平 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ──────────────────────────────────────────────────続 き Continued on the front page (31) Priority claim number Japanese Patent Application No. 9-223066 (32) Priority date Hei 9 (1997) August 4 (33) Priority claim country Japan (JP) (31) Priority Claim No. Hei 9-223152 (32) Priority date Hei 9 (1997) August 4 (33) Priority claiming country Japan (JP) (31) Priority claim number Patent application Hei 9-223153 (32) Priority Hei 9 (1997) August 4 (33) Priority claim country Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-223163 (32) Priority date Hei 9 (1997) August 4 (33) ) Priority claim country Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-223170 (32) Priority date Hei 9 (1997) August 4 (33) Priority claim country Japan (JP) (31) Priority claim number Japanese Patent Application No. 9-223171 (32) Priority date Hei 9 (1997) August 4 (33) Priority claim country Japan (JP) (72) Inventor Eiichi Ishii Meguro-ku, Tokyo 1-6-3 Shimomeguro Asahi Shimomeguro Mansion 102 Logistics Co., Ltd. (72) Inventor Chizuru Makita 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Kohei Nojiri Tokyo 6-7-35 Kitashinagawa, Shinagawa-ku, Tokyo Sony Corporation

Claims (69)

【特許請求の範囲】[Claims] 【請求項1】 取り込まれた画像から線で構成される画
像を生成する線画像生成手段と、 前記画像を構成する線で囲まれている領域の画素を着色
する領域着色手段と、 前記領域着色手段により領域の画素が着色された画像
と、前記画像を構成する線の画像とを合成する合成手段
とを備えることを特徴とする画像データ処理装置。
A line image generating unit configured to generate an image composed of lines from a captured image; a region coloring unit configured to color pixels in a region surrounded by the lines configuring the image; An image data processing apparatus, comprising: a synthesizing unit that synthesizes an image in which pixels in a region are colored by the unit and an image of a line that forms the image.
【請求項2】 前記画像を構成する線の画素を着色する
線着色手段をさらに備えることを特徴とする請求項1に
記載の画像データ処理装置。
2. The image data processing apparatus according to claim 1, further comprising a line coloring unit that colors pixels of lines forming the image.
【請求項3】 前記線で構成される画像を生成するため
の画像を取り込む取込手段をさらに備えることを特徴と
する請求項1に記載の画像データ処理装置。
3. The image data processing apparatus according to claim 1, further comprising a capture unit configured to capture an image for generating an image composed of the lines.
【請求項4】 前記各手段は、所定の入力をおこなうた
めのGUIを有することを特徴とする請求項1に記載の画
像データ処理装置。
4. The image data processing apparatus according to claim 1, wherein each of the units has a GUI for performing a predetermined input.
【請求項5】 取り込まれた画像から線で構成される画
像を生成する線画像生成ステップと、 前記画像を構成する線で囲まれている領域の画素を着色
する領域着色ステップと、 前記領域着色ステップにより領域の画素が着色された画
像と、前記画像を構成する線の画像とを合成する合成ス
テップとを備えることを特徴とする画像データ処理方
法。
5. A line image generating step of generating an image composed of lines from a captured image, an area coloring step of coloring pixels of an area surrounded by the lines constituting the image, and the area coloring An image data processing method, comprising: a synthesizing step of synthesizing an image in which pixels of a region are colored by a step and an image of a line forming the image.
【請求項6】 取り込まれた画像から線で構成される画
像を生成する線画像生成ステップと、 前記画像を構成する線で囲まれている領域の画素を着色
する領域着色ステップと、 前記領域着色ステップにより領域の画素が着色された画
像と、前記画像を構成する線の画像とを合成する合成ス
テップとを備えるプログラムを伝送することを特徴とす
る伝送媒体。
6. A line image generating step of generating an image composed of lines from the captured image, an area coloring step of coloring pixels of an area surrounded by the lines constituting the image, and the area coloring A transmission medium for transmitting a program including a combining step of combining an image in which pixels in a region are colored by a step and a line image forming the image.
【請求項7】 取り込んだ任意の数のセル画像を、任意
の数のレイヤだけ合成して各フレームの画像を生成する
画像データ処理装置において、 取り込まれるセル画像のセル番号を指定するセル番号指
定手段と、 取り込まれるセル画像のレイヤ番号を指定するレイヤ番
号指定手段と、 既に取り込まれているセル画像のセル番号とレイヤ番号
を表示させる表示制御手段とを備えることを特徴とする
画像データ処理装置。
7. An image data processing apparatus for generating an image of each frame by combining an arbitrary number of fetched cell images by an arbitrary number of layers, wherein a cell number designation for designating a cell number of a cell image to be acquired is provided. Image data processing apparatus, comprising: a layer number designating means for designating a layer number of a cell image to be taken in; and a display control means for displaying a cell number and a layer number of a cell image already taken in. .
【請求項8】 前記表示制御手段は、既に取り込まれて
いるセル画像のセル番号とレイヤ番号を、マトリックス
上の位置で表示させることを特徴とする請求項7に記載
の画像データ処理装置。
8. The image data processing apparatus according to claim 7, wherein said display control means displays a cell number and a layer number of a cell image already taken in at a position on a matrix.
【請求項9】 取り込まれたセル画像を表示させるセル
画像表示制御手段をさらに備えることを特徴とする請求
項7に記載の画像データ処理装置。
9. The image data processing apparatus according to claim 7, further comprising cell image display control means for displaying the taken cell image.
【請求項10】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成して各フレームの画像を生成す
る画像データ処理方法において、 取り込まれるセル画像のセル番号を指定するセル番号指
定ステップと、 取り込まれるセル画像のレイヤ番号を指定するレイヤ番
号指定ステップと、 既に取り込まれているセル画像のセル番号とレイヤ番号
を表示させる表示制御ステップとを備えることを特徴と
する画像データ処理方法。
10. An image data processing method for generating an image of each frame by combining an arbitrary number of fetched cell images with an arbitrary number of layers, wherein a cell number designation for designating a cell number of a fetched cell image is provided. An image data processing method comprising: a step; a layer number designation step of designating a layer number of a cell image to be taken; and a display control step of displaying a cell number and a layer number of a cell image already taken. .
【請求項11】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成して各フレームの画像を生成す
るプログラムを伝送する伝送媒体において、 取り込まれるセル画像のセル番号を指定するセル番号指
定ステップと、 取り込まれるセル画像のレイヤ番号を指定するレイヤ番
号指定ステップと、 既に取り込まれているセル画像のセル番号とレイヤ番号
を表示させる表示制御ステップとを備えるプログラムを
伝送することを特徴とする伝送媒体。
11. A transmission medium for transmitting a program for generating an image of each frame by combining an arbitrary number of fetched cell images with an arbitrary number of layers, and specifying a cell number of a cell image to be fetched. A program including a number designation step, a layer number designation step of designating a layer number of a cell image to be taken in, and a display control step of displaying a cell number and a layer number of a cell image already taken in, is transmitted. Transmission medium.
【請求項12】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成して各フレームの画像を生成
し、複数のフレームの画像で動画像とする画像データ処
理装置において、 動画像のフレームの時系列に対応するフレーム番号と、
レイヤ番号とで規定されるタイムシートを表示させるタ
イムシート表示制御手段と、 前記タイムシートの所定の位置に、取り込まれたセル画
像のセル番号を入力するセル番号入力手段とを備えるこ
とを特徴とする画像データ処理装置。
12. An image data processing apparatus, wherein an image of each frame is generated by synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers and a moving image is formed by a plurality of frame images. A frame number corresponding to the time series of the frame of
A time sheet display control means for displaying a time sheet defined by a layer number; and a cell number input means for inputting a cell number of a fetched cell image at a predetermined position of the time sheet. Image data processing device.
【請求項13】 取り込まれたセル画像を、レイヤ毎
に、エントリリストに登録する登録手段をさらに備え、 前記セル番号入力手段は、前記エントリリストに登録さ
れたセル番号を入力することを特徴とする請求項12に
記載の画像データ処理装置。
13. The image processing apparatus according to claim 1, further comprising a registration unit that registers the fetched cell image in an entry list for each layer, wherein the cell number input unit inputs a cell number registered in the entry list. 13. The image data processing device according to claim 12, wherein:
【請求項14】 前記エントリリストに登録されたたセ
ル画像を、レイヤ毎に、セル番号の順番に表示させる登
録画像表示制御手段をさらに備えることを特徴とする請
求項13に記載の画像データ処理装置。
14. The image data processing according to claim 13, further comprising a registered image display control means for displaying the cell images registered in the entry list in order of cell numbers for each layer. apparatus.
【請求項15】 前記レイヤ、セル、またはフレーム毎
に、特殊効果を設定する特殊効果設定手段をさらに備え
ることを特徴とする請求項12に記載の画像データ処理
装置。
15. The image data processing apparatus according to claim 12, further comprising a special effect setting unit for setting a special effect for each layer, cell, or frame.
【請求項16】 前記タイムシート表示制御手段は、前
記特殊効果設定手段により特殊効果が設定されたとき、
特殊効果が設定されたことを、前記タイムシートに表示
させることを特徴とする請求項15に記載の画像データ
処理装置。
16. The time sheet display control means, when a special effect is set by the special effect setting means,
The image data processing device according to claim 15, wherein the setting of the special effect is displayed on the time sheet.
【請求項17】 前記特殊効果は、少なくとも、回転、
拡大、移動、透過を含むことを特徴とする請求項15に
記載の画像データ処理装置。
17. The special effect includes at least rotation,
16. The image data processing apparatus according to claim 15, wherein the apparatus includes enlargement, movement, and transparency.
【請求項18】 前記タイムシート上に入力された各レ
イヤの番号のセル画像をフレーム毎に合成する合成手段
をさらに備えることを特徴とする請求項12に記載の画
像データ処理装置。
18. The image data processing apparatus according to claim 12, further comprising a synthesizing unit for synthesizing a cell image of each layer number input on the time sheet for each frame.
【請求項19】 前記合成手段により合成された画像を
試験的に動画像として表示させる動画像表示制御手段を
さらに備えることを特徴とする請求項18に記載の画像
データ処理装置。
19. The image data processing apparatus according to claim 18, further comprising a moving image display control unit for displaying an image synthesized by the synthesizing unit as a moving image on a trial basis.
【請求項20】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成して各フレームの画像を生成
し、複数のフレームの画像で動画像とする画像データ処
理方法において、 動画像のフレームの時系列に対応するフレーム番号と、
レイヤ番号とで規定されるタイムシートを表示させるタ
イムシート表示制御ステップと、 前記タイムシートの所定の位置に、取り込まれたセル画
像のセル番号を入力するセル番号入力ステップとを備え
ることを特徴とする画像データ処理方法。
20. An image data processing method in which an image of each frame is generated by synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers and a moving image is formed by the images of a plurality of frames. A frame number corresponding to the time series of the frame of
A time sheet display control step of displaying a time sheet defined by a layer number, and a cell number input step of inputting a cell number of a fetched cell image at a predetermined position of the time sheet. Image data processing method.
【請求項21】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成して各フレームの画像を生成
し、複数のフレームの画像で動画像とするプログラムを
伝送する伝送媒体において、 動画像のフレームの時系列に対応するフレーム番号と、
レイヤ番号とで規定されるタイムシートを表示させるタ
イムシート表示制御ステップと、 前記タイムシートの所定の位置に、取り込まれたセル画
像のセル番号を入力するセル番号入力ステップとを備え
るプログラムを伝送することを特徴とする伝送媒体。
21. A transmission medium for transmitting a program for generating an image of each frame by synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers and using the images of a plurality of frames as a moving image, A frame number corresponding to a time series of frames of a moving image,
A program including a time sheet display control step of displaying a time sheet defined by a layer number and a cell number input step of inputting a cell number of a captured cell image at a predetermined position of the time sheet is transmitted. A transmission medium characterized by the above-mentioned.
【請求項22】 取り込まれた画像を構成するトレース
線の濃度を検出する検出手段と、 前記トレース線で囲まれた領域を着色する領域着色手段
と、 前記トレース線で囲まれた領域の前記トレース線の近傍
の色を、前記トレース線の濃度に対応して決定する決定
手段とを備えることを特徴とする画像データ処理装置。
22. A detecting means for detecting the density of a trace line constituting the captured image; an area coloring means for coloring an area surrounded by the trace line; and the trace of an area surrounded by the trace line Determining means for determining a color near the line in accordance with a density of the trace line;
【請求項23】 前記トレース線を着色する線着色手段
をさらに備え、 前記決定手段は、前記トレース線と、前記トレース線で
囲まれた領域の境界部の色を、前記トレース線の濃度に
対応して、前記トレース線の色と、前記トレース線で囲
まれた領域の色でグラデーションすることを特徴とする
請求項22に記載の画像データ処理装置。
23. The image forming apparatus further comprising a line coloring unit that colors the trace line, wherein the determination unit corresponds to the color of the boundary between the trace line and a region surrounded by the trace line according to the density of the trace line. 23. The image data processing apparatus according to claim 22, wherein gradation is performed by a color of the trace line and a color of an area surrounded by the trace line.
【請求項24】 前記決定手段は、前記トレース線の一
方の側と他方の側の、前記トレース線で囲まれた2つの
領域の境界部の色を、前記トレース線の濃度に対応し
て、2つの前記トレース線で囲まれた領域の色でグラデ
ーションすることを特徴とする請求項22に記載の画像
データ処理装置。
24. The determination means according to claim 1, wherein the color of a boundary between two regions surrounded by the trace line on one side and the other side of the trace line is determined in accordance with the density of the trace line. 23. The image data processing apparatus according to claim 22, wherein gradation is performed by a color of an area surrounded by the two trace lines.
【請求項25】 前記トレース線のオリジナルの色を識
別する識別手段をさらに備え、 前記決定手段は、前記識別手段の識別結果に対応して色
を決定することを特徴とする請求項22に記載の画像デ
ータ処理装置。
25. The apparatus according to claim 22, further comprising identification means for identifying an original color of the trace line, wherein the determination means determines a color in accordance with an identification result of the identification means. Image data processing device.
【請求項26】 前記識別手段により識別された色が、
第1の色である場合、前記決定手段は、前記トレース線
と、前記トレース線で囲まれた領域の境界部の色を、前
記トレース線の濃度に対応して、前記トレース線の色
と、前記トレース線で囲まれた領域の色でグラデーショ
ンし、第2の色である場合、前記トレース線の一方の側
と他方の側の、前記トレース線で囲まれた2つの領域の
境界部の色を、前記トレース線の濃度に対応して、2つ
の前記トレース線で囲まれた領域の色でグラデーション
することを特徴とする請求項25に記載の画像データ処
理装置。
26. The color identified by the identification means,
If the color is the first color, the determination unit may change the color of the trace line and the color of the boundary portion of the area surrounded by the trace line in accordance with the density of the trace line, When gradation is performed by the color of the area surrounded by the trace line and the second color, the color of the boundary between the two areas surrounded by the trace line on one side and the other side of the trace line 26. The image data processing apparatus according to claim 25, wherein the gradation of the image data is gradationalized by a color of an area surrounded by the two trace lines in accordance with the density of the trace lines.
【請求項27】 前記トレース線を所定の画素分だけ太
くする太線化手段をさらに備えることを特徴とする請求
項22に記載の画像データ処理装置。
27. The image data processing apparatus according to claim 22, further comprising a thickening means for thickening said trace line by a predetermined pixel.
【請求項28】 取り込まれた画像を構成するトレース
線の濃度を検出する検出ステップと、 前記トレース線で囲まれた領域を着色する領域着色ステ
ップと、 前記トレース線で囲まれた領域の前記トレース線の近傍
の色を、前記トレース線の濃度に対応して決定する決定
ステップとを備えることを特徴とする画像データ処理方
法。
28. A detecting step of detecting a density of a trace line constituting a captured image, an area coloring step of coloring an area surrounded by the trace line, and the trace of an area surrounded by the trace line Determining a color in the vicinity of the line in accordance with the density of the trace line.
【請求項29】 取り込まれた画像を構成するトレース
線の濃度を検出する検出ステップと、 前記トレース線で囲まれた領域を着色する領域着色ステ
ップと、 前記トレース線で囲まれた領域の前記トレース線の近傍
の色を、前記トレース線の濃度に対応して決定する決定
ステップとを備えるプログラムを伝送することを特徴と
する伝送媒体。
29. A detecting step of detecting the density of a trace line constituting a captured image, an area coloring step of coloring an area surrounded by the trace line, and the trace of an area surrounded by the trace line A determination step of determining a color near a line in accordance with the density of the trace line.
【請求項30】 取り込まれた画像を構成するトレース
線のオリジナルの色を識別する識別手段と、 前記トレース線で囲まれた領域を着色する領域着色手段
と、 前記トレース線と前記トレース線で囲まれた領域の境界
部の色、または、前記トレース線の一方の側の領域と他
方の側の領域の境界部の色であって、前記トレース線を
省略した場合の色を、前記識別手段の識別結果に対応し
て決定する決定手段とを備えることを特徴とする画像デ
ータ処理装置。
30. An identification unit for identifying an original color of a trace line constituting a captured image, an area coloring unit for coloring an area surrounded by the trace line, and an area surrounded by the trace line and the trace line The color of the boundary of the traced area, or the color of the boundary between the area on one side of the trace line and the area on the other side, where the trace line is omitted. An image data processing apparatus, comprising: a determination unit that determines the image data according to the identification result.
【請求項31】 前記識別手段により識別された色が、
第1の色である場合、前記決定手段は、前記トレース線
と前記トレース線で囲まれた領域の境界部の色を決定
し、第2の色である場合、前記トレース線の一方の側の
領域と他方の側の領域の境界部の色であって、前記トレ
ース線を省略した場合の色を決定することを特徴とする
請求項30に記載の画像データ処理装置。
31. A color identified by the identification means,
When the color is the first color, the determination means determines the color of the boundary between the trace line and the area surrounded by the trace line, and when the color is the second color, one side of the trace line 31. The image data processing apparatus according to claim 30, wherein a color at a boundary portion between the region and the region on the other side, the color when the trace line is omitted is determined.
【請求項32】 前記識別手段により識別された色が、
第1の色である場合、前記決定手段は、前記トレース線
の一方の側の領域と他方の側の領域の境界部の色であっ
て、前記トレース線を省略した場合の色を、第1の幅に
わたって決定し、第2の色である場合、前記決定手段
は、前記トレース線の一方の側の領域と他方の側の領域
の境界部の色であって、前記トレース線を省略した場合
の色を、第2の幅にわたって決定することを特徴とする
請求項30に記載の画像データ処理装置。
32. The color identified by the identification means,
When the color is the first color, the determination means may set the color of the boundary portion between the one side area and the other side area of the trace line, and the color when the trace line is omitted as the first color. When the second color is determined over the width of the trace line, the determination means is the color of the boundary between the one side region and the other side region of the trace line, and the trace line is omitted. 31. The image data processing apparatus according to claim 30, wherein the color is determined over a second width.
【請求項33】 取り込まれた画像を構成するトレース
線のオリジナルの色を識別する識別ステップと、 前記トレース線で囲まれた領域を着色する領域着色ステ
ップと、 前記トレース線と前記トレース線で囲まれた領域の境界
部の色、または、前記トレース線の一方の側の領域と他
方の側の領域の境界部の色であって、前記トレース線を
省略した場合の色を、前記識別ステップの識別結果に対
応して決定する決定ステップとを備えることを特徴とす
る画像データ処理方法。
33. An identification step for identifying an original color of a trace line forming a captured image; an area coloring step for coloring an area surrounded by the trace line; and an area surrounded by the trace line and the trace line. The color of the border of the traced area, or the color of the border between the area on one side of the trace line and the area on the other side, where the trace line is omitted, And a determining step of determining in accordance with the identification result.
【請求項34】 取り込まれた画像を構成するトレース
線のオリジナルの色を識別する識別ステップと、 前記トレース線で囲まれた領域を着色する領域着色ステ
ップと、 前記トレース線と前記トレース線で囲まれた領域の境界
部の色、または、前記トレース線の一方の側の領域と他
方の側の領域の境界部の色であって、前記トレース線を
省略した場合の色を、前記識別ステップの識別結果に対
応して決定する決定ステップとを備えるプログラムを伝
送することを特徴とする伝送媒体。
34. An identifying step for identifying an original color of a trace line constituting a captured image; a region coloring step for coloring a region surrounded by the trace line; and a region surrounded by the trace line and the trace line The color of the border of the traced area, or the color of the border between the area on one side of the trace line and the area on the other side, where the trace line is omitted, A transmission medium for transmitting a program comprising: a decision step of deciding according to an identification result.
【請求項35】 取り込まれたトレース線の各画素を有
色画素と無色画素に2値化する2値化手段と、 前記トレース線を、1画素の幅の有色画素からなる線に
変換する変換手段とを備えることを特徴とする画像デー
タ処理装置。
35. A binarizing unit for binarizing each pixel of a fetched trace line into a color pixel and a colorless pixel, and a conversion unit for converting the trace line into a line composed of color pixels having a width of one pixel. An image data processing device comprising:
【請求項36】 前記1画素の幅の線で囲まれた領域の
無色画素を所定の色に着色する着色手段をさらに備える
ことを特徴とする請求項35に記載の画像データ処理装
置。
36. The image data processing apparatus according to claim 35, further comprising coloring means for coloring a colorless pixel in a region surrounded by a line having a width of one pixel into a predetermined color.
【請求項37】 前記2値化手段は、前記画素の色を、
白、黒、赤、または緑の順に識別し、白の画素を無色画
素とし、白以外の色の画素を有色画素として2値化する
ことを特徴とする請求項35に記載の画像データ処理装
置。
37. The binarizing means, wherein the color of the pixel is
36. The image data processing apparatus according to claim 35, wherein white data is identified in the order of black, red, or green, white pixels are colorless pixels, and pixels of colors other than white are binarized as colored pixels. .
【請求項38】 前記変換手段は、前記無色画素に接す
る前記有色画素を無色画素に変換する処理を、前記トレ
ース線が1画素の幅になるまで繰り返すことを特徴とす
る請求項35に記載の画像データ処理装置。
38. The method according to claim 35, wherein the conversion unit repeats a process of converting the color pixel in contact with the colorless pixel into a colorless pixel until the trace line has a width of one pixel. Image data processing device.
【請求項39】 各画素のデータは、その色を表すフラ
グを含むことを特徴とする請求項35に記載の画像デー
タ処理装置。
39. The image data processing apparatus according to claim 35, wherein the data of each pixel includes a flag indicating the color.
【請求項40】 取り込まれたトレース線の各画素を有
色画素と無色画素に2値化する2値化ステップと、 前記トレース線を、1画素の幅の有色画素からなる線に
変換する変換ステップとを備えることを特徴とする画像
データ処理方法。
40. A binarizing step of binarizing each pixel of the fetched trace line into a color pixel and a colorless pixel, and a converting step of converting the trace line into a line composed of color pixels having a width of one pixel. An image data processing method comprising:
【請求項41】 取り込まれたトレース線の各画素を有
色画素と無色画素に2値化する2値化ステップと、 前記トレース線を、1画素の幅の有色画素からなる線に
変換する変換ステップとを備えるプログラムを伝送する
ことを特徴とする伝送媒体。
41. A binarizing step of binarizing each pixel of the fetched trace line into a color pixel and a colorless pixel, and a converting step of converting the trace line into a line composed of colored pixels having a width of one pixel. A transmission medium for transmitting a program comprising:
【請求項42】 取り込まれたトレース線の画素を有色
画素と無色画素に2値化する2値化手段と、 前記2値化手段により2値化された有色画素よりなるト
レース線が閉じているか否かを確認させる確認手段とを
備えることを特徴とする画像データ処理装置。
42. A binarizing means for binarizing the pixels of the fetched trace line into a color pixel and a colorless pixel, and whether a trace line composed of the color pixel binarized by the binarization means is closed. An image data processing apparatus, comprising: a confirmation unit for confirming whether or not the image data is processed.
【請求項43】 前記確認手段は、前記有色画素よりな
るトレース線で囲まれる領域の所定の無色画素と、それ
に接する無色画素を、順次、着色表示させることを特徴
とする請求項42に記載の画像データ処理装置。
43. The apparatus according to claim 42, wherein said confirmation means sequentially displays a predetermined colorless pixel in a region surrounded by a trace line composed of said color pixels and a colorless pixel in contact with said colorless pixel. Image data processing device.
【請求項44】 前記有色画素よりなるトレース線を、
1画素の幅のトレース線に変換する変換手段をさらに備
え、 前記確認手段は、前記1画素の幅のトレース線が閉じて
いることを確認させることを特徴とする請求項42に記
載の画像データ処理装置。
44. A trace line comprising the color pixel,
43. The image data according to claim 42, further comprising a conversion unit configured to convert the trace line into a one-pixel width trace line, wherein the confirmation unit confirms that the one-pixel width trace line is closed. Processing equipment.
【請求項45】 前記確認手段により、前記トレース線
の一部が開放されていることが確認されたとき、閉じた
領域が形成されるように、その開放されている部分を修
正する修正手段をさらに備えることを特徴とする請求項
42に記載の画像データ処理装置。
45. When the confirming means confirms that a part of the trace line is open, a correcting means for correcting the open part so as to form a closed area is provided. 43. The image data processing device according to claim 42, further comprising:
【請求項46】 取り込まれたトレース線の画素を有色
画素と無色画素に2値化する2値化ステップと、 前記2値化ステップで2値化された有色画素よりなるト
レース線が閉じているか否かを確認させる確認ステップ
とを備えることを特徴とする画像データ処理方法。
46. A binarization step of binarizing the captured trace line pixel into a color pixel and a colorless pixel, and whether a trace line composed of the color pixel binarized in the binarization step is closed. And a confirming step for confirming whether or not the image data is processed.
【請求項47】 取り込まれたトレース線の画素を有色
画素と無色画素に2値化する2値化ステップと、 前記2値化ステップで2値化された有色画素よりなるト
レース線が閉じているか否かを確認させる確認ステップ
とを備えるプログラムを伝送することを特徴とする伝送
媒体。
47. A binarization step of binarizing the captured trace line pixel into a color pixel and a colorless pixel, and whether the trace line composed of the color pixel binarized in the binarization step is closed. A transmission medium for transmitting a program comprising: a confirmation step of confirming whether or not the transmission is complete.
【請求項48】 線画像の所定の領域を着色した着色画
像を生成する着色画像生成手段と、 前記着色画像の着色された領域と着色されていない領域
とを識別する識別画像を生成する識別画像生成手段と、 前記識別画像上に、前記着色画像を表示させる表示制御
手段とを備えることを特徴とする画像データ処理装置。
48. A colored image generating means for generating a colored image in which a predetermined area of a line image is colored, and an identification image for generating an identification image for identifying a colored area and an uncolored area of the colored image. An image data processing apparatus comprising: a generation unit; and a display control unit that displays the coloring image on the identification image.
【請求項49】 前記表示制御手段は、前記識別画像上
の任意の位置にウインドウを表示させ、前記ウインドウ
内に、対応する位置の前記着色画像を表示させることを
特徴とする請求項48に記載の画像データ処理装置。
49. The display apparatus according to claim 48, wherein the display control means displays a window at an arbitrary position on the identification image, and displays the colored image at a corresponding position in the window. Image data processing device.
【請求項50】 前記識別画像上に表示された着色画像
の所定の領域の色を抽出する抽出手段と、 前記着色画像の着色されていない領域を、前記抽出手段
により抽出した色で着色させる着色手段をさらに備える
ことを特徴とする請求項48に記載の画像データ処理装
置。
50. An extracting means for extracting a color of a predetermined area of a colored image displayed on the identification image, and coloring for coloring an uncolored area of the colored image with the color extracted by the extracting means. 49. The image data processing device according to claim 48, further comprising: means.
【請求項51】 前記識別画像は、αキーデータ画像で
あることを特徴とする請求項48に記載の画像データ処
理装置。
51. The apparatus according to claim 48, wherein the identification image is an α key data image.
【請求項52】 前記着色画像は、線画像の線で閉じら
れた領域を着色した画像、または、前記線画像の線を着
色した画像であることを特徴とする請求項48に記載の
画像データ処理装置。
52. The image data according to claim 48, wherein the colored image is an image obtained by coloring an area closed by a line of a line image or an image obtained by coloring a line of the line image. Processing equipment.
【請求項53】 前記表示制御手段は、前記着色画像
が、前記線画像の線を着色した画像である場合、前記線
を着色する前の色で表示させることを特徴とする請求項
48に記載の画像データ処理装置。
53. The display control device according to claim 48, wherein when the colored image is an image obtained by coloring a line of the line image, the display control unit displays the image in a color before the line is colored. Image data processing device.
【請求項54】 前記線を着色する前の色は、コマンド
を形成していることを特徴とする請求項53に記載の画
像データ処理装置。
54. The image data processing device according to claim 53, wherein the color before coloring the line forms a command.
【請求項55】 線画像の所定の領域を着色した着色画
像を生成する着色画像生成ステップと、 前記着色画像の着色された領域と着色されていない領域
とを識別する識別画像を生成する識別画像生成ステップ
と、 前記識別画像上に、前記着色画像を表示させる表示制御
ステップとを備えることを特徴とする画像データ処理方
法。
55. A colored image generating step of generating a colored image in which a predetermined area of a line image is colored, and an identification image for generating an identification image for identifying a colored area and an uncolored area of the colored image. An image data processing method comprising: a generation step; and a display control step of displaying the coloring image on the identification image.
【請求項56】 線画像の所定の領域を着色した着色画
像を生成する着色画像生成ステップと、 前記着色画像の着色された領域と着色されていない領域
とを識別する識別画像を生成する識別画像生成ステップ
と、 前記識別画像上に、前記着色画像を表示させる表示制御
ステップとを備えるプログラムを伝送することを特徴と
する伝送媒体。
56. A colored image generating step of generating a colored image obtained by coloring a predetermined area of a line image, and an identification image generating an identification image for identifying a colored area and an uncolored area of the colored image. A transmission medium for transmitting a program including a generation step and a display control step of displaying the coloring image on the identification image.
【請求項57】 第1のフレームの第1の画像と第2の
フレームの第2の画像の対応関係を判定する判定手段
と、 前記第1の画像の色を検出する検出手段と、 前記判定手段の判定結果に対応して、前記検出手段によ
り検出した色を、前記第2の画像に着色する着色手段と
を備えることを特徴とする画像データ処理装置。
57. A judging means for judging a correspondence between a first image of a first frame and a second image of a second frame; a detecting means for detecting a color of the first image; An image data processing apparatus comprising: a coloring unit that colors the second image with a color detected by the detection unit according to a determination result of the unit.
【請求項58】 前記判定手段は、時間的に隣接するフ
レームを、前記第1のフレームおよび第2のフレームと
することを特徴とする請求項57に記載の画像データ処
理装置。
58. The image data processing apparatus according to claim 57, wherein said determining means sets the temporally adjacent frames as the first frame and the second frame.
【請求項59】 前記判定手段は、線画像を構成する線
により閉じられている領域を、前記第1の画像および第
2の画像として判定することを特徴とする請求項57に
記載の画像データ処理装置。
59. The image data according to claim 57, wherein the determination unit determines an area closed by a line constituting the line image as the first image and the second image. Processing equipment.
【請求項60】 前記判定手段は、前記第1のフレーム
の複数の領域のうち、前記第2のフレームの対象領域の
範囲を最も広く含む領域を、前記対象領域に対応する領
域と判定することを特徴とする請求項59に記載の画像
データ処理装置。
60. The determination unit determines, of a plurality of regions of the first frame, a region including a range of a target region of the second frame that is the largest as a region corresponding to the target region. The image data processing device according to claim 59, wherein:
【請求項61】 前記着色手段は、指定された領域だけ
を着色することを特徴とする請求項59に記載の画像デ
ータ処理装置。
61. The image data processing apparatus according to claim 59, wherein said coloring means colors only a designated area.
【請求項62】 前記第着色手段は、対応する複数の領
域をすべて着色することを特徴とする請求項59に記載
の画像データ処理装置。
62. The image data processing apparatus according to claim 59, wherein said coloring means colors all of the plurality of corresponding areas.
【請求項63】 指定された領域だけを着色するのか、
または、対応する複数の領域をすべて着色するのかを、
選択する選択手段をさらに備えることを特徴とする請求
項59に記載の画像データ処理装置。
63. Whether only a designated area is colored,
Or, whether to color all the corresponding multiple areas,
The image data processing apparatus according to claim 59, further comprising a selection unit for selecting.
【請求項64】 第1のフレームの第1の画像と第2の
フレームの第2の画像の対応関係を判定する判定ステッ
プと、 前記第1の画像の色を検出する検出ステップと、 前記判定ステップの判定結果に対応して、前記検出ステ
ップで検出した色を、前記第2の画像に着色する着色ス
テップとを備えることを特徴とする画像データ処理方
法。
64. A determining step of determining a correspondence between a first image of a first frame and a second image of a second frame; a detecting step of detecting a color of the first image; A coloring step of coloring the second image with the color detected in the detecting step in accordance with a result of the determination in the step.
【請求項65】 第1のフレームの第1の画像と第2の
フレームの第2の画像の対応関係を判定する判定ステッ
プと、 前記第1の画像の色を検出する検出ステップと、 前記判定ステップの判定結果に対応して、前記検出ステ
ップで検出した色を、前記第2の画像に着色する着色ス
テップとを備えるプログラムを伝送することを特徴とす
る伝送媒体。
65. A determining step of determining a correspondence between a first image of a first frame and a second image of a second frame; a detecting step of detecting a color of the first image; A transmission medium for transmitting a program including a coloring step of coloring the second image with the color detected in the detection step according to a result of the determination in the step.
【請求項66】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成してフレームの画像を生成する
画像データ処理装置において、 取り込まれたセル画像のトレース線で囲まれる領域の無
色画素に対して所定の色を着色して着色画像を生成する
着色画像生成手段と、 前記着色画像生成手段による着色処理に対応して、前記
着色画像の色を着色した着色領域と、着色していない無
着色領域とを識別するキーデータを生成するキーデータ
生成手段と、 複数のレイヤの前記着色画像を合成する場合の優先度を
規定するパラメータを設定するパラメータ設定手段と、 前記パラメータ設定手段により設定されたパラメータ
と、前記キーデータ生成手段により生成されたキーデー
タとに対応して、複数のレイヤの前記着色画像を合成す
る合成手段とを備えることを特徴とする画像データ処理
装置。
66. An image data processing apparatus for generating an image of a frame by synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers, wherein a colorless area surrounded by a trace line of the fetched cell image is provided. A colored image generating unit that generates a colored image by coloring a pixel with a predetermined color; and a colored region in which the color of the colored image is colored corresponding to a coloring process performed by the colored image generating unit. Key data generating means for generating key data for identifying a non-colored area that does not exist, parameter setting means for setting a parameter defining a priority when combining the colored images of a plurality of layers, and the parameter setting means Compositing for composing the colored images of a plurality of layers according to the set parameters and the key data generated by the key data generating means. Image data processing apparatus characterized by comprising a stage.
【請求項67】 前記パラメータは、特殊効果として設
定されることを特徴とする請求項66に記載の画像デー
タ処理装置。
67. The image data processing apparatus according to claim 66, wherein the parameter is set as a special effect.
【請求項68】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成してフレームの画像を生成する
画像データ処理方法において、 取り込まれたセル画像のトレース線で囲まれる領域の無
色画素に対して所定の色を着色して着色画像を生成する
着色画像生成ステップと、 前記着色画像生成ステップにおける着色処理に対応し
て、前記着色画像の色を着色した着色領域と、着色して
いない無着色領域とを識別するキーデータを生成するキ
ーデータ生成ステップと、 複数のレイヤの前記着色画像を合成する場合の優先度を
規定するパラメータを設定するパラメータ設定ステップ
と、 前記パラメータ設定ステップにおいて設定されたパラメ
ータと、前記キーデータ生成ステップにおいて生成され
たキーデータとに対応して、複数のレイヤの前記着色画
像を合成する合成ステップとを備えることを特徴とする
画像データ処理方法。
68. An image data processing method for generating an image of a frame by synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers, wherein the colorless area of a region surrounded by trace lines of the fetched cell image is provided. A colored image generating step of generating a colored image by coloring a pixel with a predetermined color; and a colored region colored with the color of the colored image corresponding to the coloring process in the colored image generating step. A key data generating step of generating key data for identifying a non-colored area that is not present; a parameter setting step of setting a parameter that defines a priority when combining the colored images of a plurality of layers; and a parameter setting step. In accordance with the set parameters and the key data generated in the key data generating step, a plurality of Image data processing method characterized by comprising a synthetic step of the synthesis of the colored image.
【請求項69】 取り込んだ任意の数のセル画像を、任
意の数のレイヤだけ合成してフレームの画像を生成する
プログラムを伝送する伝送媒体において、 取り込まれたセル画像のトレース線で囲まれる領域の無
色画素に対して所定の色を着色して着色画像を生成する
着色画像生成ステップと、 前記着色画像生成ステップにおける着色処理に対応し
て、前記着色画像の色を着色した着色領域と、着色して
いない無着色領域とを識別するキーデータを生成するキ
ーデータ生成ステップと、 複数のレイヤの前記着色画像を合成する場合の優先度を
規定するパラメータを設定するパラメータ設定ステップ
と、 前記パラメータ設定ステップにおいて設定されたパラメ
ータと、前記キーデータ生成ステップにおいて生成され
たキーデータとに対応して、複数のレイヤの前記着色画
像を合成する合成ステップとを備えるプログラムを伝送
することを特徴とする伝送媒体。
69. A transmission medium for transmitting a program for synthesizing an arbitrary number of fetched cell images by an arbitrary number of layers to generate a frame image, an area surrounded by trace lines of the fetched cell images. A colored image generating step of generating a colored image by coloring a predetermined color on the colorless pixels of the color image, and a coloring region colored with the color of the colored image corresponding to the coloring process in the colored image generating step. A key data generating step of generating key data for identifying a non-colored area that has not been processed; a parameter setting step of setting a parameter that defines a priority when combining the colored images of a plurality of layers; Corresponding to the parameters set in the step and the key data generated in the key data generation step, Transmission medium characterized by transmitting a program and a synthesis step of synthesizing the colored image of the number of layers.
JP21086598A 1997-08-04 1998-07-27 Image data processing apparatus and method, and transmission medium Withdrawn JPH11110577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21086598A JPH11110577A (en) 1997-08-04 1998-07-27 Image data processing apparatus and method, and transmission medium

Applications Claiming Priority (19)

Application Number Priority Date Filing Date Title
JP9-223065 1997-08-04
JP22316397 1997-08-04
JP22301097 1997-08-04
JP22306597 1997-08-04
JP9-223011 1997-08-04
JP22315297 1997-08-04
JP22306697 1997-08-04
JP9-223171 1997-08-04
JP9-223152 1997-08-04
JP22315397 1997-08-04
JP9-223153 1997-08-04
JP9-223066 1997-08-04
JP22317197 1997-08-04
JP22317097 1997-08-04
JP9-223170 1997-08-04
JP22301197 1997-08-04
JP9-223163 1997-08-04
JP9-223010 1997-08-04
JP21086598A JPH11110577A (en) 1997-08-04 1998-07-27 Image data processing apparatus and method, and transmission medium

Publications (1)

Publication Number Publication Date
JPH11110577A true JPH11110577A (en) 1999-04-23

Family

ID=27580409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21086598A Withdrawn JPH11110577A (en) 1997-08-04 1998-07-27 Image data processing apparatus and method, and transmission medium

Country Status (1)

Country Link
JP (1) JPH11110577A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001099094A1 (en) * 2000-06-19 2001-12-27 Shima Seiki Mfg., Ltd. Preview image display method, and preview image display device
KR100721470B1 (en) 1998-12-11 2007-05-23 가부시키가이샤 히타치세이사쿠쇼 Apparatus of preparing moving images
JP2007293453A (en) * 2006-04-21 2007-11-08 Canon Inc How to get color information from an image
JP2014021613A (en) * 2012-07-13 2014-02-03 Casio Comput Co Ltd Image processor, image tone conversion method and program
KR101457045B1 (en) * 2012-03-23 2014-10-31 김지찬 The manufacturing method for Ani Comic by applying effects for 2 dimensional comic contents and computer-readable recording medium having Ani comic program manufacturing Ani comic by applying effects for 2 dimensional comic contents
JP2022125297A (en) * 2017-05-23 2022-08-26 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring apparatus, and program for graphical user interface

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100721470B1 (en) 1998-12-11 2007-05-23 가부시키가이샤 히타치세이사쿠쇼 Apparatus of preparing moving images
WO2001099094A1 (en) * 2000-06-19 2001-12-27 Shima Seiki Mfg., Ltd. Preview image display method, and preview image display device
JP2007293453A (en) * 2006-04-21 2007-11-08 Canon Inc How to get color information from an image
KR101457045B1 (en) * 2012-03-23 2014-10-31 김지찬 The manufacturing method for Ani Comic by applying effects for 2 dimensional comic contents and computer-readable recording medium having Ani comic program manufacturing Ani comic by applying effects for 2 dimensional comic contents
JP2014021613A (en) * 2012-07-13 2014-02-03 Casio Comput Co Ltd Image processor, image tone conversion method and program
JP2022125297A (en) * 2017-05-23 2022-08-26 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring apparatus, and program for graphical user interface
US11915344B2 (en) 2017-05-23 2024-02-27 Preferred Networks, Inc. Method and apparatus for automatic line drawing coloring and graphical user interface thereof

Similar Documents

Publication Publication Date Title
US6522329B1 (en) Image processing device and method for producing animated image data
US10853925B2 (en) Methods, systems, and media for image processing
US7366350B2 (en) Image processing apparatus and method
US7362918B2 (en) System and method for de-noising multiple copies of a signal
US7181081B2 (en) Image sequence enhancement system and method
CN113888534B (en) An image processing method, an electronic device, and a readable storage medium
JP4421761B2 (en) Image processing method and apparatus, and recording medium
US20070247474A1 (en) Method, apparatus and recording medium for image processing
US20040184057A1 (en) Image data processing apparatus, medium recording image data set, medium recording image data processing program and image data processing method
KR100524072B1 (en) Method for improving image quality
JP5193107B2 (en) Concrete image segmentation method
CN112233195B (en) Color adjustment method, device, electronic device and storage medium
JPH11110577A (en) Image data processing apparatus and method, and transmission medium
US20110187721A1 (en) Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
WO2006033178A1 (en) Image processing device, method, and program
CN111462158A (en) Image processing method and device, intelligent device and storage medium
JP2004135269A (en) Electronic color dropout utilizing spatial context to enhance accuracy
US20110222765A1 (en) Modification of memory colors in digital images
WO2006006666A1 (en) Image processing method and image processor by tracking digital image contour
KR20020084321A (en) real-time character composition method using template
JP2936599B2 (en) Color image processing equipment
US5559903A (en) Method for generating geometric masks with a digital color computer
GB2369023A (en) Image data processing devices and methods for generating animations
JPH11308474A (en) Image processor
JP2844573B2 (en) Image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004