JP2000201358A - Image data converting method and recording medium in which image data conversion program is recorded - Google Patents
Image data converting method and recording medium in which image data conversion program is recordedInfo
- Publication number
- JP2000201358A JP2000201358A JP342699A JP342699A JP2000201358A JP 2000201358 A JP2000201358 A JP 2000201358A JP 342699 A JP342699 A JP 342699A JP 342699 A JP342699 A JP 342699A JP 2000201358 A JP2000201358 A JP 2000201358A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- image data
- discontinuity
- outline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 81
- 230000008859 change Effects 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 57
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 33
- 230000002194 synthesizing effect Effects 0.000 abstract description 3
- 230000035515 penetration Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100280298 Homo sapiens FAM162A gene Proteins 0.000 description 1
- 101001005708 Homo sapiens MARVEL domain-containing protein 1 Proteins 0.000 description 1
- 102100025069 MARVEL domain-containing protein 1 Human genes 0.000 description 1
- 102100023788 Protein FAM162A Human genes 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004090 dissolution Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007788 roughening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Color Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像データ変換方
法、及び画像データ変換プログラムを記録した記録媒体
にかかり、特に、複数の原画像を用いて動画像の提示を
可能とする画像データに変換する画像データ変換方法及
び画像データ変換プログラムを記録した記録媒体に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for converting image data and a recording medium on which an image data conversion program is recorded, and more particularly to a method for converting a plurality of original images into image data capable of presenting a moving image. The present invention relates to an image data conversion method and a recording medium that stores an image data conversion program.
【0002】[0002]
【従来の技術】近年、コンピュータ技術の発展に伴っ
て、カラー画像を画像データとしてデジタル化し、その
画像データを保存させたり流通させたりして利用するこ
とがある。このデジタル化した画像データには、デジタ
ルカメラ等のデジタル撮影装置で撮影することによって
生成された撮影画像を表す画像データや、スキャナでカ
ラー原稿をスキャンすることによって生成されたスキャ
ン画像を表す画像データ等がある。2. Description of the Related Art In recent years, with the development of computer technology, color images have been digitized as image data, and the image data may be stored or distributed for use. The digitized image data includes image data representing a photographed image generated by photographing with a digital photographing device such as a digital camera, and image data representing a scanned image generated by scanning a color original with a scanner. Etc.
【0003】ところで、連続する複数の静止画像を一定
時間毎に提示することによって、動画像を提示できるこ
とが知られている。このため、連続する複数のデジタル
化した画像データを一定時間毎に提示すれば、デジタル
化した動画像を提示することができる。By the way, it is known that a moving image can be presented by presenting a plurality of continuous still images at regular intervals. Therefore, if a plurality of continuous digitized image data are presented at regular intervals, a digitized moving image can be presented.
【0004】しかしながら、カラー画像を画像データと
してデジタル化すると、1静止画が占有するデータ容量
が大きいため、動画像として提示する静止画の個数に応
じてデータ容量が増大する。このため、大容量の記憶装
置を用意しなければならない。また、デジタル化された
各静止画を画像として提示するために、各画像毎に提示
のための画像変換が必要であり、動画像として提示する
ためには実時間で実行する必要がある。このため、装置
は大規模なものとなり高速処理が要求される。However, when a color image is digitized as image data, the data capacity occupied by one still image is large, so that the data capacity increases in accordance with the number of still images presented as moving images. For this reason, a large-capacity storage device must be prepared. Further, in order to present each digitized still image as an image, image conversion for presentation is required for each image, and it is necessary to execute the conversion in real time to present it as a moving image. For this reason, the apparatus becomes large-scale and requires high-speed processing.
【0005】この問題を解消するため、所謂MPEG規
格がある。MPEG規格では、複数の静止画からなる動
画像について、最初の静止画を基準(基準静止画)とし
て連続する静止画の差分等を求めて、差分値等を連続す
る静止画に代えて記憶させている。このよにすることに
よって、記憶容量を圧縮することができ、実時間での動
画像提示を可能としている。To solve this problem, there is the so-called MPEG standard. According to the MPEG standard, for a moving image composed of a plurality of still images, a difference or the like between successive still images is obtained with the first still image as a reference (reference still image), and the difference value or the like is stored instead of a continuous still image. ing. By doing so, the storage capacity can be reduced, and a moving image can be presented in real time.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、連続す
る静止画の差分による展開では、近似した静止画には有
効だが、画像内で大きな動作を含んだり、異なる要素が
新規挿入したりする場合には不向きである。また、拡大
縮小等の解像度変更を伴うと違和感が生じることがあ
る。However, the development based on the difference between successive still images is effective for approximate still images, but may involve a large motion in an image or a case where a different element is newly inserted. Not suitable. In addition, when a change in resolution such as enlargement / reduction is accompanied, a sense of incongruity may occur.
【0007】本発明は、上記事実を考慮して、複数の連
続画像による動画像を違和感なく再生することが可能な
画像データ変換方法、及び画像データ変換プログラムを
記録した記録媒体を得ることが目的である。In view of the above, an object of the present invention is to provide an image data conversion method capable of reproducing a moving image composed of a plurality of continuous images without a sense of incongruity, and a recording medium storing an image data conversion program. It is.
【0008】[0008]
【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明の画像データ変換方法は、複数
の連続した原画像の色情報を含む画像データを用いて動
画像を表す画像データに変換する画像データ変換方法で
あって、原画像の画像データに基づいて、ラインプロセ
スによって表される色情報の不連続性を表す原画像の不
連続情報を生成し、生成した不連続情報に基づいて原画
像に含まれている物体画像の輪郭を抽出すると共に、前
記不連続情報に基づいて物体画像の輪郭をアウトライン
化したアウトライン情報を求めかつ、抽出した輪郭を用
いて物体画像を表すテクスチャ情報を求め、前記アウト
ライン情報及びテクスチャ情報を含めて画像データを符
号化する。According to an aspect of the present invention, there is provided an image data converting method for representing a moving image by using image data including color information of a plurality of continuous original images. An image data conversion method for converting into image data, wherein discontinuity information of an original image representing discontinuity of color information represented by a line process is generated based on image data of the original image, and the generated discontinuity is generated. Extracting the outline of the object image included in the original image based on the information, obtaining outline information obtained by outlining the outline of the object image based on the discontinuity information, and extracting the object image using the extracted outline. The texture information to be represented is obtained, and the image data is encoded including the outline information and the texture information.
【0009】請求項2に記載の発明は、請求項1に記載
の画像データ変換方法であって、前記物体画像の輪郭は
パラメトリック曲線でアウトライン化し、前記色情報は
パラメトリック曲面で符号化することを特徴とする。According to a second aspect of the present invention, there is provided the image data converting method according to the first aspect, wherein the outline of the object image is outlined by a parametric curve, and the color information is encoded by a parametric curved surface. Features.
【0010】請求項3に記載の発明は、請求項1または
2に記載の画像データ変換方法であって、前記不連続情
報は、原画像に含まれている物体画像の輪郭に相当する
外周不連続情報及び物体画像の内部の内部不連続情報
を、原画像の不連続情報として生成することを特徴とす
る。According to a third aspect of the present invention, there is provided the image data conversion method according to the first or second aspect, wherein the discontinuity information includes an outer peripheral irregularity corresponding to a contour of an object image included in the original image. It is characterized in that the continuous information and the internal discontinuity information inside the object image are generated as the discontinuity information of the original image.
【0011】請求項4に記載の発明は、請求項1乃至請
求項3の何れか1項に記載の画像データ変換方法であっ
て、前記複数の連続した原画像のうち、基準の原画像を
定め、定めた基準の原画像について前記符号化し、他の
原画像について基準の原画像に含まれる物体画像の変動
を表すベクトル情報を求め、基準の原画像について符号
化した画像データとベクトル情報とから動画像を表す画
像データに変換することを特徴とする。According to a fourth aspect of the present invention, there is provided the image data conversion method according to any one of the first to third aspects, wherein a reference original image is selected from the plurality of continuous original images. Determined, the coding for the determined reference original image, obtained vector information representing the variation of the object image included in the reference original image for the other original image, the image data and vector information encoded for the reference original image To image data representing a moving image.
【0012】請求項5に記載の発明は、コンピュータに
よって複数の連続した原画像の色情報を含む画像データ
を用いて動画像を表す画像データに変換するための画像
データ変換プログラムを記録した記録媒体であって、前
記画像データ変換プログラムは、色情報を含む原画像の
画像データに基づいて、ラインプロセスによって表され
る色情報の不連続性を表す原画像の不連続情報を生成さ
せ、生成された不連続情報に基づいて原画像に含まれて
いる物体画像の輪郭を抽出させると共に、前記不連続情
報に基づいて物体画像の輪郭をアウトライン化したアウ
トライン情報を求めさせかつ、抽出した輪郭を用いて物
体画像を表すテクスチャ情報を求めさせ、前記アウトラ
イン情報及びテクスチャ情報を含めて画像データを符号
化させることを特徴とする。According to a fifth aspect of the present invention, there is provided a recording medium having recorded thereon an image data conversion program for converting image data including color information of a plurality of continuous original images into image data representing a moving image by a computer. Wherein the image data conversion program generates discontinuity information of the original image representing discontinuity of the color information represented by the line process, based on the image data of the original image including the color information. The outline of the object image included in the original image is extracted based on the discontinuity information, and the outline information of the outline of the object image is obtained based on the discontinuity information, and the extracted outline is used. To obtain texture information representing the object image, and to encode image data including the outline information and the texture information. To.
【0013】請求項6に記載の発明は、請求項5に記載
の画像データ変換プログラムを記録した記録媒体であっ
て、前記物体画像の輪郭はパラメトリック曲線でアウト
ライン化され、前記色情報はパラメトリック曲面で符号
化されることを特徴とする。According to a sixth aspect of the present invention, there is provided a recording medium storing the image data conversion program according to the fifth aspect, wherein the outline of the object image is outlined by a parametric curve, and the color information is a parametric curved surface. Is encoded.
【0014】請求項7に記載の発明は、請求項5または
6に記載の画像データ変換プログラムを記録した記録媒
体であって、前記不連続情報は、原画像に含まれている
物体画像の輪郭に相当する外周不連続情報及び物体画像
の内部の内部不連続情報を、原画像の不連続情報として
生成させることを特徴とする。According to a seventh aspect of the present invention, there is provided a recording medium storing the image data conversion program according to the fifth or sixth aspect, wherein the discontinuity information is a contour of an object image included in an original image. Is generated as discontinuity information of the original image.
【0015】請求項8に記載の発明は、請求項5乃至請
求項7の何れか1項に記載の画像データ変換プログラム
を記録した記録媒体であって、前記複数の連続した原画
像のうち、基準の原画像を定めさせ、定めた基準の原画
像について前記符号化させ、他の原画像について基準の
原画像に含まれる物体画像の変動を表すベクトル情報を
求めさせ、基準の原画像について符号化された画像デー
タとベクトル情報とから動画像を表す画像データに変換
させることを特徴とする。According to an eighth aspect of the present invention, there is provided a recording medium on which the image data conversion program according to any one of the fifth to seventh aspects is recorded, wherein: The reference original image is determined, the determined reference original image is coded, the vector information representing the variation of the object image included in the reference original image is obtained for the other original images, and the code is obtained for the reference original image. The image data is converted from image data and vector information into image data representing a moving image.
【0016】請求項1に記載の画像データ変換方法で
は、複数の連続した原画像の色情報を含む画像データを
用いて動画像を表す画像データに変換する。その原画像
の色情報に基づいて、ラインプロセスによって表される
色情報の不連続性を表す原画像の不連続情報を生成す
る。ラインプロセスは、色情報の不連続性、すなわち色
情報が連続か不連続かを表すものであり、色情報とライ
ンプロセスとでエネルギ関数を定義してエネルギ関数を
用いたエネルギの最小化を行うと、原画像で色情報が不
連続となる箇所にラインプロセスが値を有することとな
る。この値を有するラインプロセスで原画像の不連続情
報を表すことができる。この不連続情報は、原画像で色
情報が不連続となる箇所を表すので、同一または類似の
色情報で構成されない異なる色情報で構成される隣り合
う色領域では色情報の境界となる。In the image data conversion method according to the first aspect, image data including color information of a plurality of continuous original images is converted into image data representing a moving image. On the basis of the color information of the original image, discontinuity information of the original image representing discontinuity of the color information represented by the line process is generated. The line process represents discontinuity of color information, that is, whether color information is continuous or discontinuous. An energy function is defined by the color information and the line process, and energy is minimized using the energy function. Then, the line process has a value at a place where the color information is discontinuous in the original image. The discontinuity information of the original image can be represented by a line process having this value. Since the discontinuity information indicates a place where the color information is discontinuous in the original image, it becomes a boundary of the color information in an adjacent color region formed of different color information which is not formed of the same or similar color information.
【0017】なお、色情報は、単色で扱う場合、濃度情
報として用いることができる。一例として2値画像の画
像情報がある。従って、同一または類似の色情報からな
る色領域は、その輪郭部分に不連続情報が現れる。原画
像に含まれる物体画像は、同一または類似の色情報で構
成されたり、予め定めた複数の色情報で構成されたりす
る。そこで、不連続情報に基づいて原画像に含まれてい
る物体画像の輪郭を抽出する。Note that color information can be used as density information when dealing with a single color. An example is image information of a binary image. Accordingly, discontinuity information appears at the outline of a color region composed of the same or similar color information. The object image included in the original image may be configured with the same or similar color information, or may be configured with a plurality of predetermined color information. Therefore, the contour of the object image included in the original image is extracted based on the discontinuity information.
【0018】次に、不連続情報に基づいて物体画像の輪
郭をアウトライン化したアウトライン情報を求める。ア
ウトライン情報とは、原情報(すなわち輪郭に関する情
報)の殆どを維持したまま大きさを変化、例えば拡大さ
せたりや縮小させたりすることが可能な情報である。例
えば、アウトライン情報には、点と線分や面情報等のベ
クトル情報とから構成される形状情報がある。なお、こ
の形状情報は、数式による記述も可能である。このよう
に、物体画像の輪郭をアウトライン情報で記述すること
で、物体画像の輪郭は解像度に依存することなく表現す
ることができる。Next, outline information in which the outline of the object image is outlined based on the discontinuity information is obtained. The outline information is information whose size can be changed, for example, enlarged or reduced, while maintaining most of the original information (that is, information on the outline). For example, the outline information includes shape information composed of points and vector information such as line segments and surface information. Note that this shape information can also be described by mathematical expressions. In this way, by describing the outline of the object image with the outline information, the outline of the object image can be expressed without depending on the resolution.
【0019】物体画像の色情報は、アウトライン情報で
記述された物体画像の輪郭に内包され、不連続を伴わな
い連続状態であるとき、連続情報による表現で符号化で
きる。そこで、抽出した輪郭を用いて物体画像をあらわ
すテクスチャ情報を求める。このテクスチャ情報には、
ビットマップデータや画像データフォーマットがある。
画像データフォーマットには、例えば色情報を近似表現
する符号化が一例としてあり、JPEG等で知られる画
像データフォーマットがある。これらのアウトライン情
報及びテクスチャ情報を含めて画像データを符号化す
る。The color information of the object image is included in the outline of the object image described by the outline information, and can be encoded by the expression of the continuous information when the object image is in a continuous state without discontinuity. Therefore, texture information representing an object image is obtained using the extracted contour. This texture information includes
There are bitmap data and image data formats.
An example of the image data format is encoding that approximates color information, for example, and includes an image data format known as JPEG or the like. The image data is encoded including the outline information and the texture information.
【0020】このように、物体画像の輪郭をアウトライ
ン情報で記述し、原画像または物体画像のテクスチャ情
報を含めて、画像データを符号化しているので、複数の
原画像を再生すなわち連続して提示するときに、物体画
像の輪郭は解像度に依存することなく元の物体画像の輪
郭を維持した形式で利用することができる形式で画像デ
ータを変換することができる。As described above, since the outline of the object image is described by the outline information and the image data is encoded including the texture information of the original image or the object image, a plurality of original images are reproduced, that is, presented continuously. In this case, the image data can be converted into a format that can be used in a form that maintains the contour of the original object image without depending on the resolution.
【0021】なお、アウトライン情報を求めると共に、
不連続情報に基づいて物体画像を他画像と合成したとき
の溶け込み度合いを表す溶け込み度を求めてもよい。こ
の溶け込み度は、不連続情報に対応する原画像上の部位
について物体画像の溶け込み度合いを表すものであり、
画像の合成や拡大縮小時に用いることにより、境界部分
に違和感を生じさせることなく、原画像を拡大縮小した
り物体画像を他画像へ溶け込ませたりすることができ
る。これによって、他画像に貼り付ける等の合成操作や
拡大縮小を行うと、その輪郭部分が物体画像と他画像と
の境界に違和感が生じることがない。In addition to obtaining outline information,
Based on the discontinuity information, the degree of penetration indicating the degree of penetration when the object image is combined with another image may be obtained. This degree of penetration represents the degree of penetration of the object image with respect to the portion on the original image corresponding to the discontinuity information,
By using it at the time of image synthesis or enlargement / reduction, the original image can be enlarged / reduced or the object image can be blended into another image without causing a sense of incongruity at the boundary portion. As a result, when a synthesis operation such as pasting to another image or enlargement / reduction is performed, the contour does not cause a sense of discomfort at the boundary between the object image and the other image.
【0022】画像を表現する場合、その輪郭は画像の最
外周であり、2次元的な曲線となる。また、色情報は、
画像の輪郭に内包されて連続になる。色情報は、各色毎
にその位置と濃度との3次元表現が可能である。従っ
て、連続的な色情報は、3次元的な曲面に対応させるこ
とが可能となる。このような曲線や曲面は取り扱いが容
易な形式で表現されることが好ましい。When an image is represented, its outline is the outermost periphery of the image and is a two-dimensional curve. The color information is
It is included in the outline of the image and becomes continuous. The color information can be three-dimensionally represented by its position and density for each color. Therefore, continuous color information can be made to correspond to a three-dimensional curved surface. It is preferable that such curves and curved surfaces are expressed in a format that is easy to handle.
【0023】請求項2の発明では、前記物体画像の輪郭
を、パラメトリック曲線でアウトライン化し、色情報を
パラメトリック曲面で符号化する。このようにすること
によって、物体画像の輪郭及び色情報を数式を用いて簡
単な記述形式で表現することができ、容易に利用するこ
とが可能となる。According to the second aspect of the present invention, the outline of the object image is outlined by a parametric curve, and the color information is encoded by a parametric curved surface. By doing so, the contour and color information of the object image can be expressed in a simple description format using mathematical expressions, and can be easily used.
【0024】ここで、原画像に含まれている物体画像の
輪郭は、その殆どが外周付近に存在するが、物体画像内
部に特徴を有していたり、物体画像内部のみが微妙に形
状変化したりする場合がある。例えば、人物画像では
目、鼻、口等のパーツに特徴があったり、頭部の輪郭は
略変化しないが、目、鼻、口等のパーツが変化すること
で人物の表情の変化があったりする場合がある。Here, most of the outline of the object image included in the original image exists near the outer periphery, but has a characteristic inside the object image, or only the inside of the object image slightly changes in shape. Or may be. For example, in a person image, parts such as eyes, nose, mouth, etc. have characteristics, and the outline of the head does not substantially change, but the facial expression of the person changes due to changes in parts such as eyes, nose, mouth, etc. May be.
【0025】請求項3の発明では、前記不連続情報とし
て、原画像に含まれている物体画像の輪郭に相当する外
周不連続情報と、物体画像の内部の内部不連続情報と
を、原画像の不連続情報として生成する。このように、
物体画像の輪郭及び内部の不連続情報をアウトライン情
報で記述することで、物体画像の特徴を表す輪郭及び内
部の不連続を抽出することができると共に、解像度に依
存することなく表現できる。According to the third aspect of the present invention, as the discontinuity information, the outer peripheral discontinuity information corresponding to the contour of the object image included in the original image and the internal discontinuity information inside the object image are converted into the original image. Is generated as the discontinuity information. in this way,
By describing the outline and the internal discontinuity information of the object image by the outline information, the outline and the internal discontinuity representing the feature of the object image can be extracted and can be expressed without depending on the resolution.
【0026】ところで、複数の連続した原画像の色情報
を含む画像データを用いて動画像を表す画像データに変
換する場合、各原画像について、物体画像の輪郭を表す
アウトライン情報及び原画像または物体画像のテクスチ
ャ情報を含めて画像データを符号化したのでは、処理負
荷が増大する。By the way, when image data including color information of a plurality of continuous original images is converted into image data representing a moving image, outline information representing an outline of an object image and outline information representing the outline of the object image or an If the image data is encoded including the texture information of the image, the processing load increases.
【0027】請求項4の発明では、複数の連続した原画
像のうち、基準の原画像を定め、定めた基準の原画像に
ついて符号化し、他の原画像について基準の原画像に含
まれる物体画像の変動を表すベクトル情報を求め、基準
の原画像について符号化した画像データとベクトル情報
とから動画像を表す画像データに変換する。物体画像
は、複数の要素画像から構成されることがある。例え
ば、背景は変化しないが、人物のみが移動したり、人物
の表情のみが変化したりする場合がある。この場合、変
化する画像のみを記憶するようにすれば効率的である。
従って、基準の原画像について符号化し、他の原画像に
ついて基準の原画像に含まれる物体画像の変動を表すベ
クトル情報を求めれば、動画像を表す画像データの容量
を小さくすることができる。また、符号化された基準の
原画像の画像データとベクトル情報とから動画像を表す
画像データへの変換処理も処理負荷が軽減される。According to a fourth aspect of the present invention, a reference original image is determined from a plurality of continuous original images, the determined reference original image is encoded, and other original images are included in the reference original image. Is obtained, and image data representing a moving image is converted from the image data coded for the reference original image and the vector information. The object image may be composed of a plurality of element images. For example, the background may not change, but only the person may move, or only the expression of the person may change. In this case, it is efficient to store only the changing image.
Therefore, by encoding the reference original image and obtaining vector information indicating the variation of the object image included in the reference original image for the other original images, the capacity of the image data representing the moving image can be reduced. In addition, the processing load for converting the encoded reference original image image data and vector information into image data representing a moving image is reduced.
【0028】上記画像データ変換方法による原画像の符
号化は、請求項5に記載の記録媒体に記録した画像デー
タ変換プログラムの実行によってコンピュータ上におい
て実現可能である。詳細には、コンピュータによって複
数の連続した原画像の色情報を含む画像データを用いて
動画像を表す画像データに変換するための画像データ変
換プログラムを記録した記録媒体であって、前記画像デ
ータ変換プログラムは、色情報を含む原画像の画像デー
タに基づいて、ラインプロセスによって表される色情報
の不連続性を表す原画像の不連続情報を生成させ、生成
された不連続情報に基づいて原画像に含まれている物体
画像の輪郭を抽出させると共に、前記不連続情報に基づ
いて物体画像の輪郭をアウトライン化したアウトライン
情報を求めさせかつ、抽出した輪郭を用いて物体画像を
表すテクスチャ情報を求めさせ、前記アウトライン情報
及びテクスチャ情報を含めて画像データを符号化させ
る。これによって、コンピュータ上において、複数の原
画像を再生すなわち連続して提示するときに、物体画像
の輪郭は解像度に依存することなく元の物体画像の輪郭
を維持した形式で利用することができる形式で画像デー
タを変換することができる。The encoding of the original image by the image data conversion method can be realized on a computer by executing an image data conversion program recorded on a recording medium according to the present invention. In detail, a recording medium recording an image data conversion program for converting into image data representing a moving image using image data including color information of a plurality of continuous original images by a computer, wherein the image data conversion The program generates discontinuity information of the original image indicating discontinuity of the color information represented by the line process based on the image data of the original image including the color information, and generates the discontinuity information of the original image based on the generated discontinuity information. The outline of the object image included in the image is extracted, and the outline information of the outline of the object image is determined based on the discontinuity information.The extracted outline is used to obtain texture information representing the object image. Then, the image data is encoded including the outline information and the texture information. Thus, on a computer, when reproducing a plurality of original images, that is, presenting them successively, the outline of the object image can be used in a form that maintains the outline of the original object image without depending on the resolution. Can convert the image data.
【0029】なお、請求項6にも記載したように、前記
物体画像の輪郭は、パラメトリック曲線でアウトライン
化されされるように、前記色情報はパラメトリック曲面
で符号化されるように符号化することができる。According to a sixth aspect of the present invention, the contour of the object image is encoded so as to be outlined by a parametric curve, and the color information is encoded so as to be encoded by a parametric surface. Can be.
【0030】また、請求項7にも記載したように、前記
不連続情報は、原画像に含まれている物体画像の輪郭に
相当する外周不連続情報及び物体画像の内部の内部不連
続情報を、原画像の不連続情報として生成させることが
できる。[0030] As described in claim 7, the discontinuity information includes outer periphery discontinuity information corresponding to the contour of the object image included in the original image and internal discontinuity information inside the object image. , Can be generated as discontinuity information of the original image.
【0031】さらに、請求項8にも記載したように、前
記複数の連続した原画像のうち、基準の原画像を定めさ
せ、定めた基準の原画像について前記符号化させ、他の
原画像について基準の原画像に含まれる物体画像の変動
を表すベクトル情報を求めさせ、基準の原画像について
符号化された画像データとベクトル情報とから動画像を
表す画像データに変換させることができる。Further, as set forth in claim 8, a reference original image is determined from the plurality of continuous original images, the determined reference original image is encoded, and the other original images are encoded. Vector information representing the variation of the object image included in the reference original image can be obtained, and image data representing a moving image can be converted from the image data and vector information encoded for the reference original image.
【0032】[0032]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態の一例を詳細に説明する。本実施の形態は複数
のカラー原画像から動画像を表す画像データを生成する
画像変換装置に本発明を適用したものである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, the present invention is applied to an image conversion device that generates image data representing a moving image from a plurality of color original images.
【0033】図2に示すように、本実施の形態の画像変
換装置10は、画像を表示するための表示装置等のディ
スプレイ装置12、外部からコマンドやデータを入力す
るためのキーボード等の入力装置14、装置本体16、
及びカラー原稿からカラー原画像を読み取るための画像
読取装置30から構成されている。As shown in FIG. 2, an image conversion apparatus 10 of the present embodiment includes a display device 12 such as a display device for displaying an image, and an input device such as a keyboard for inputting commands and data from the outside. 14, the device body 16,
And an image reading device 30 for reading a color original image from a color original.
【0034】装置本体16は、CPU18、RAM2
0、ROM22、入出力ポート(I/O)28、からな
るマイクロコンピュータで構成され、各々はコマンドや
データの授受が可能なようにバス26によって接続され
ている。なお、ROM22には、装置本体16において
実行される後述する処理ルーチンが記憶されている。The apparatus body 16 includes a CPU 18, a RAM 2
0, a ROM 22, and an input / output port (I / O) 28, each of which is connected by a bus 26 so that commands and data can be exchanged. The ROM 22 stores a processing routine to be described later, which is executed in the apparatus main body 16.
【0035】装置本体16の入出力ポート28には、画
像データを記憶するためのメモリ24が接続されてい
る。また、装置本体16の入出力ポート28には、入力
装置14が接続されると共に、ディスプレイ装置12が
接続されている。また、入出力ポート28には、カラー
スキャナ等の画像読取装置30が接続されている。A memory 24 for storing image data is connected to an input / output port 28 of the apparatus main body 16. The input device 14 and the display device 12 are connected to the input / output port 28 of the device main body 16. An image reading device 30 such as a color scanner is connected to the input / output port 28.
【0036】なお、画像読取装置30は、印刷物等のカ
ラー原稿、及び被写体の撮影後に現像処理されてネガ画
像またはポジ画像が可視化された写真フィルムから多値
のカラー原画像を読み取ることができる。The image reading device 30 can read a multi-valued color original image from a color original such as a printed matter, or a photographic film in which a negative image or a positive image is developed after photographing a subject.
【0037】上記の入出力ポート28には、記録媒体と
してのフロッピー(登録商標)ディスク(以下、FDと
いう)が挿抜可能なフロッピーディスクユニット(以
下、FDUという)が接続されている。なお、後述する
処理ルーチン等は、FDUを用いてFDに対して読み書
き可能である。従って、後述する処理ルーチンは、RO
M22に記憶することなく、予めFDに記録しておき、
FDUを介してFDに記録された処理プログラムを実行
してもよい。また、装置本体16にハードディスク装置
等の大容量記憶装置(図示省略)を接続し、FDに記録
された処理プログラムを大容量記憶装置(図示省略)へ
格納(インストール)して実行するようにしてもよい。
また、記録媒体としては、CD−ROM等の光ディスク
や、MD,MO等の光磁気ディスクがあり、これらを用
いるときには、上記FDUに代えてまたはさらにCD−
ROM装置、MD装置、MO装置等を用いればよい。The input / output port 28 is connected to a floppy disk unit (hereinafter referred to as FDU) into which a floppy (registered trademark) disk (hereinafter referred to as FD) as a recording medium can be inserted and removed. Note that processing routines and the like described below can be read from and written to the FD using the FDU. Therefore, the processing routine to be described later
Instead of storing it in M22, record it in the FD in advance,
A processing program recorded in the FD via the FDU may be executed. Also, a large-capacity storage device (not shown) such as a hard disk device is connected to the device main body 16, and the processing program recorded in the FD is stored (installed) in the large-capacity storage device (not shown) and executed. Is also good.
As a recording medium, there is an optical disk such as a CD-ROM or a magneto-optical disk such as an MD or MO.
A ROM device, an MD device, an MO device, or the like may be used.
【0038】なお、本実施の形態では、一例として、カ
ラースキャナ等の画像読取装置30により多値のカラー
原画像を入力する場合を説明するが、本発明はこれに限
定されるものではなく、FD等の記憶媒体に予め記憶さ
れた画像データを入力するようにしてもよい。また、入
出力ポート28にネットワークボード等の信号授受装置
を接続し、他の装置との間で信号授受を可能とする所謂
LANを構成して、他の装置から画像データを受け取る
ようにしてもよい。In this embodiment, as an example, a case where a multi-valued color original image is input by an image reading device 30 such as a color scanner will be described. However, the present invention is not limited to this. Image data stored in advance in a storage medium such as an FD may be input. Also, a signal exchange device such as a network board may be connected to the input / output port 28 to form a so-called LAN that enables signal exchange with other devices, and image data may be received from other devices. Good.
【0039】また、多値のカラー原画像は、白黒画像や
異なる色の組み合わせによる2値画像から、実写画像や
自然画像等の画像を含むものである。The multi-valued color original image includes an image such as a real image or a natural image from a monochrome image or a binary image formed by combining different colors.
【0040】次に、本実施の形態の作用を説明する。ま
ず、画像変換にあたり、原画像である静止画像の符号化
について説明する。なお、以下の処理(符号化処理ルー
チン)は、FD等の記録媒体に格納してコンピュータで
実行可能なアプリケーションとして提供され、実行指示
によって実行されるようにしてもよい。Next, the operation of the present embodiment will be described. First, encoding of a still image as an original image in image conversion will be described. The following processing (encoding processing routine) may be provided as a computer-executable application stored in a recording medium such as an FD and executed by an execution instruction.
【0041】まず、ステップ100において画像読取装
置30に載置されたカラー原稿を読み取ることによっ
て、カラー原画像(以下、原画像という)を読み取る。
本実施の形態では、画像読取装置30からRGBデータ
が出力され、この出力されたRGBデータを用いるもの
とする。なお、画像データとしてCMYKデータ等のよ
うに他の表色系で表された画像データであるときには、
RGB変換を行うようにすればよい。First, in step 100, a color original image (hereinafter, referred to as an original image) is read by reading a color original placed on the image reading device 30.
In the present embodiment, it is assumed that the RGB data is output from the image reading device 30 and the output RGB data is used. When the image data is image data represented in another color system such as CMYK data,
What is necessary is just to perform RGB conversion.
【0042】図4には、読み取りが終了した原画像40
の一例を示した。原画像40は、人物52の周囲に草花
50が散在し、その近傍に植木48が位置し、遠方(画
像の上方)には山42と小山44とが位置し、上方に雲
46が位置している。FIG. 4 shows an original image 40 that has been read.
An example was shown. In the original image 40, flowers 50 are scattered around a person 52, a plant 48 is located in the vicinity thereof, a mountain 42 and a small mountain 44 are located far (above the image), and a cloud 46 is located above. ing.
【0043】次のステップ102では、原画像につい
て、ラインプロセスにより不連続情報の検出がなされ
る。ラインプロセス(線素)不連続を示す仮想の素子を
いうものである。本実施の形態では、ラインプロセスを
用いたニューラルネットワークによって、画像の不連続
情報を検出する場合を説明する。まず。ラインプロセス
について詳細を説明する。In the next step 102, discontinuity information is detected from the original image by a line process. It is a virtual element that indicates line process (line element) discontinuity. In the present embodiment, a case where discontinuous information of an image is detected by a neural network using a line process will be described. First. The line process will be described in detail.
【0044】図5(A)は、画素について位置と濃度と
の関係を求めた1次元データの一例を示したものであ
り、点P1〜P6及び点P7〜P12は略近傍に位置
し、点P6と点P7の間が大きく離れている。これらの
1次元データに沿う曲線を求める場合、最小二乗法等の
近似方法や補間方法で求めると、図5(B)に示すよう
に、点P1〜P6から点P7〜P12を曲線で連続させ
るために、点P6及び点P7から曲線34が大きく離れ
るが滑らかになるよう求められる。FIG. 5A shows an example of one-dimensional data obtained from the relationship between the position and the density of the pixel. The points P1 to P6 and the points P7 to P12 are located substantially in the vicinity. There is a large distance between P6 and point P7. When obtaining a curve along these one-dimensional data by an approximation method such as the least squares method or an interpolation method, as shown in FIG. 5B, points P1 to P6 and points P7 to P12 are continuously formed by a curve. Therefore, the curve 34 is required to be far from the points P6 and P7 but to be smooth.
【0045】しかし、点P6及び点P7は曲線34から
大きく離れることになるので、得られる特性(すなわち
曲線34)は、実際のデータに則していないことにな
る。そこで、図5(C)に示すように、略近傍に位置す
る点P1〜P6及び点P7〜P12について、各点に沿
うように曲線34a,34bを求める。このように求め
ると、大きく離れている点P6と点P7の間に、不連続
が生じる。この点P6と点P7の間の位置に不連続点3
6を伴って曲線34a,34bを定めれば、実際のデー
タに則した特性を求めることができることになる。すな
わち、点P6と点P7の間の位置の不連続点36で不連
続が発生することを表すラインプロセスがオンとなる。
また、点P1〜点P6及び点P7〜点P12の各間、す
なわち、点P1と点P2、点P2と点P3、・・・点P
5と点P6、及び点P7と点P8、点P8と点P9、・
・・、点P11と点P12の各々の間はラインプロセス
がオフとなる。However, since the points P6 and P7 are far away from the curve 34, the obtained characteristics (ie, the curve 34) do not conform to the actual data. Therefore, as shown in FIG. 5C, curves 34a and 34b are obtained along points P1 to P6 and points P7 to P12 located substantially in the vicinity. When obtained in this manner, a discontinuity occurs between the point P6 and the point P7 which are far apart. A discontinuous point 3 is located between the point P6 and the point P7.
If the curves 34a and 34b are determined together with 6, the characteristics according to the actual data can be obtained. That is, the line process indicating that the discontinuity occurs at the discontinuity point 36 at the position between the points P6 and P7 is turned on.
Further, between each of the points P1 to P6 and the points P7 to P12, that is, the points P1 and P2, the points P2 and P3,.
5, point P6, point P7 and point P8, point P8 and point P9,.
.. The line process is turned off between each of the points P11 and P12.
【0046】上記では、1次元データの場合を説明した
が、2次元データで代表される画像にラインプロセスを
適用する場合は、ラインプロセスを、2つの画素間につ
いて仮想的な関数として定義する。従って、定義された
ラインプロセスが局所的な濃度差によってオンまたはオ
フすることにより画像中の不連続部分が不連続情報、こ
の不連続部分を連結させたものが物体画像の輪郭として
抽出することができる。Although the case of one-dimensional data has been described above, when a line process is applied to an image represented by two-dimensional data, the line process is defined as a virtual function between two pixels. Therefore, when the defined line process is turned on or off by a local density difference, the discontinuous portion in the image can be extracted as discontinuous information, and the connected portion of the discontinuous portion can be extracted as the contour of the object image. it can.
【0047】このラインプロセスを用いてニューラルネ
ットワークでエネルギ関数の計算とその最小化を行って
画像の不連続(情報)を求める。この詳細について説明
する。Using this line process, the energy function is calculated and minimized by a neural network to obtain discontinuity (information) of the image. This will be described in detail.
【0048】図6はラインプロセスを用いたニューラル
ネットワークを説明するための概念構成図である。図6
に示すようにこのニューラルネットワークは、入力が画
像であるときは画像に対応する一つの画素に対して3つ
のニューロンfi,j ,hi,j,vi,j が対応する。FIG. 6 is a conceptual configuration diagram for explaining a neural network using a line process. FIG.
The neural network, as shown in, three neuron f i for one pixel corresponding to the image when the input is an image, j, h i, j, v i, j correspond.
【0049】ここで、fi,j は画素の値であり、
hi,j ,vi,j はfi,j 間の不連続性の存在、非存在を
示すラインプロセスとよばれる隠れた関数である。すな
わち、fi, j は入力される値の強度変化を、hi,j ,v
i,j はそれぞれfi,j の水平方向、垂直方向の連続性、
不連続性を示している。Where f i, j is the value of the pixel,
h i, j and v i, j are hidden functions called line processes indicating the existence and non-existence of the discontinuity between f i, j . That is, f i, j represents the intensity change of the input value, h i, j , v
i, j are the continuity of f i, j in the horizontal and vertical directions , respectively.
Indicates discontinuity.
【0050】この3つの変数fi,j ,hi,j ,vi,j に
より、系全体のエネルギ関数を以下の(1)式に示すよ
うに定義する。With these three variables f i, j , h i, j and v i, j , the energy function of the whole system is defined as shown in the following equation (1).
【0051】[0051]
【数1】 (Equation 1)
【0052】但し、EI :曲面(奥行き)データの連続
性 ED :観測データ(初期値)の信頼性 EV :ラインプロセスが超球面の角(0or1)に向かう
こと EP :近傍の平行したラインプロセスが1となるための
条件 EC :単一のラインプロセスが1となるための条件 EL :連続したマルチラインプロセスを好み、交差と不
連続を嫌う条件 EG :(2)式におけるm,nが発散しないための条件 CD ,CV ,CP ,CC ,CL ,CG :パラメータ値 g():シグモイド関数 di,j :初期値 また、変数の時間則を以下の(2)式により定義した。Where E I : the continuity of the curved surface (depth) data E D : the reliability of the observation data (initial value) E V : the line process goes to the angle (0 or 1) of the hypersphere E P : the parallel near E C : Condition for a single line process to be 1 E C : Condition for a single line process to be 1 E L : Condition for preferring a continuous multi-line process and dislike crossing and discontinuity E G : Equation (2) conditions for m, n does not diverge in the C D, C V, C P , C C, C L, C G: parameter value g (): sigmoid function d i, j: initial value the time law of variable It was defined by the following equation (2).
【0053】[0053]
【数2】 (Equation 2)
【0054】但し、g(Ui )=1/e(−2λUi ) なお、e(−2λUi )は指数関数であり、( )内部
は指数部を表す hi,j =g(mi,j ) vi,j =g(ni,j ) m,n:内部状態変数 上記(2)式の偏微分の計算例を次の(3)、(4)、
(5)式に示す。Here, g (U i ) = 1 / e (−2λU i ) where e (−2λU i ) is an exponential function, and the inside of () represents an exponent part hi , j = g (m i , j ) v i, j = g (n i, j ) m, n: Internal state variables Examples of calculation of the partial derivative of the above equation (2) are shown in the following (3), (4),
Equation (5) shows.
【0055】[0055]
【数3】 (Equation 3)
【0056】上記(3)〜(5)式の計算結果が小さく
なる、すなわち0に近いもしくは0の値をとるというこ
とは、隣接する値fi,j+1 と値fi,j 、およびfi+1,j
とf i,j が略同一の値となるときである。従って、上記
の(1)式で表したエネルギEI について、fi,j+1 ≒
fi,j 、およびfi+1,j ≒fi,j であるとすると、エネ
ルギEI は比較的小さくなることからラインプロセスh
i,j ,vi,j は値を持つ必要はないためhi,j ,vi,j
は比較的小さな値となる。The calculation results of the above equations (3) to (5) are small.
That is, it is close to 0 or takes a value of 0.
Is the adjacent value fi, j + 1And the value fi, j, And fi + 1, j
And f i, jHave substantially the same value. Therefore,
Energy E expressed by equation (1)IFor fi, j + 1≒
fi, j, And fi + 1, j≒ fi, j, Energy
Lugi EIIs relatively small, so the line process h
i, j, Vi, jNeed not have a value, so hi, j, Vi, j
Is a relatively small value.
【0057】一方、隣接する値fi,j+1 と値fi,j 、お
よび値fi+1,j と値fi,j との差が大きい場合、すなわ
ち隣接する値の間に境界があるときは、(fi,j+1 −f
i,j)2 および(fi+1,j −fi,j )2 は大きくなる。
従って、エネルギEI を小さくするにはhi,j あるいは
vi,j が値を有し、(1−hi,j )または(1−
vi, j )が比較的小さくなる必要がある。このように互
いに隣接する値fi,j とfi, j+1 またはfi,j とf
i+1,j に差がある場合は、各値の間にあるラインプロセ
スhi,j ,vi,j が値を有するようになり、異なる色の
領域間に境界線が出現することになる。[0057] On the other hand, when adjacent values f i, j + 1 and the value f i, j, and the value f i + 1, j and the value f i, the difference between j is large, that the boundary between adjacent values When there is (fi , j + 1 -f
i, j ) 2 and (fi + 1, j- fi , j ) 2 are large.
Therefore, to reduce the energy E I , hi , j or vi , j has a value, and (1-hi , j ) or (1-
v i, j ) needs to be relatively small. Thus, adjacent values fi , j and fi , j + 1 or fi , j and f
If there is a difference in i + 1, j , the line processes h i, j , v i, j between the values have values, and a boundary line appears between regions of different colors. Become.
【0058】この係数からラインプロセスが発生する条
件を決定する。一例として、図7(A)に示す単一ライ
ンプロセスが発生する条件はEP =0,EC =0,EL
=2CL 、図7(B)に示す連続するラインプロセスが
発生する条件はEP =0,E C =0,EL =CL 、図7
(C)に示す互いに平行なラインプロセスが発生する条
件は、EP =CP ,EC =CC ,EL =2CL 、そして
図7(D)に示すように互いに交差するラインプロセス
が発生する条件は、EP =0,EC =2CC ,EL =10
CL である。The conditions under which the line process occurs from this coefficient
Decide the matter. As an example, the single line shown in FIG.
The condition under which the process occurs is EP= 0, EC= 0, EL
= 2CL, The continuous line process shown in FIG.
The condition that occurs is EP= 0, E C= 0, EL= CL, FIG.
The condition in which parallel line processes shown in (C) occur.
The case is EP= CP, EC= CC, EL= 2CLAnd
Line processes crossing each other as shown in FIG.
Is a condition that EP= 0, EC= 2CC, EL= 10
CLIt is.
【0059】上記の(1)〜(5)式により、系全体の
エネルギを最小にする計算を繰り返すエネルギ学習を行
った結果が、与えられた入力に対するニューラルネット
ワークの解となる。According to the above equations (1) to (5), the result of the energy learning in which the calculation for minimizing the energy of the entire system is repeated is the solution of the neural network for the given input.
【0060】このニューラルネットワークは、(a) 入力
がノイズを付加された画像であった場合、得られたエネ
ルギ最小でのfi,j は復元画像に相当し、(b) 入力が明
度画像の場合、得られたエネルギ最小でのhij,vijは
輪郭に相当し、(c) 入力が山などの測量データの場合、
得られたエネルギ最小でのfijは測量点から推定される
各地点の高度を示すこととなる。本実施の形態では、
(b) の画像入力に利用した例である。In this neural network, (a) when the input is an image to which noise is added, f i, j at the obtained minimum energy corresponds to the restored image, and (b) the input is the brightness image. In the case, h ij and v ij at the obtained minimum energy correspond to the contour, and (c) when the input is survey data such as a mountain,
The obtained minimum energy f ij indicates the altitude of each point estimated from the survey points. In the present embodiment,
This is an example used for image input of (b).
【0061】なお、上記ニューラルネットワークは、変
数に何を割り当てるかにより、様々な逆問題に適用でき
る拡張性を有しており、アルゴリズムが局所計算で実現
されているため、光等の並列処理ハード装置化が容易で
あり、高速処理を行うことができるという利点も備えて
いる。The above neural network has expandability that can be applied to various inverse problems depending on what is assigned to a variable. Since the algorithm is realized by local computation, parallel processing hardware such as light is used. It also has the advantage that the device can be easily formed and high-speed processing can be performed.
【0062】従って、図3のステップ102では、上記
ラインプロセスを用いたニューラルネットワークによっ
て、エネルギ関数とその最小化を行って、不連続検出が
なさることにより画像の輪郭部分(不連続)が抽出され
る。すなわち、(2)式に従って、内部状態変数を更新
すると(1)式の総エネルギーは常に減少して最小値が
計算される。この最小時に得られたhij,vijが水平方
向及び垂直方向の不連続(輪郭)に相当する。Therefore, in step 102 of FIG. 3, the energy function and its minimization are performed by the neural network using the above-described line process, and the discontinuity is detected to extract the contour portion (discontinuous) of the image. You. That is, when the internal state variables are updated according to the equation (2), the total energy of the equation (1) always decreases and the minimum value is calculated. H ij and v ij obtained at the minimum correspond to discontinuities (contours) in the horizontal and vertical directions.
【0063】次に、ステップ104では、原画像におけ
る類似色の色領域設定がなされる。この類似色設定処理
は、例えば、同系色や同一色、そして予め定めた色の組
み合わせで指定される色や色群を、原画像上においてラ
ベリングする処理である。例えば、原画像上の各画素に
ついて、各々直交する色相値軸、彩度値軸及び明度値軸
から成る座標系の色空間(以下、HLS色空間という)
において求めた距離に基づいて反復型領域拡張法により
統合処理等を行う方法がある。Next, in step 104, a color area of a similar color in the original image is set. The similar color setting process is a process of labeling, for example, a color or a color group specified by a combination of similar colors, the same color, and a predetermined color on the original image. For example, for each pixel on the original image, a color space of a coordinate system (hereinafter, referred to as an HLS color space) including a hue value axis, a saturation value axis, and a lightness value axis that are orthogonal to each other.
There is a method of performing an integration process or the like by an iterative type area expansion method based on the distance obtained in the above.
【0064】具体的には、まず、原画像上から何れか1
つの画素を選択する。次に、その画素の周囲の1画素
(所謂、8近傍の1画素)を選択し、その選択された画
素が既に何れかのラベルが付与された領域に含まれてい
るときは、そのラベルを付与する。一方、含まれていな
いときは、選択された2つの画素のHLS色空間におけ
る距離、すなわち2つの画素の明度、彩度及び色相の類
似性を求める。距離が長ければ類似性が低く、距離が短
ければ類似性が高いことになる。距離が所定値未満のと
き、2つの画素が類似しているとして、2つの画素に同
一のラベルを付与する(ラベリング)。所定値以上のと
きは、類似していないとしてラベリングすることなく、
8近傍の他の画素について上記処理を実行する。8近傍
の全画素が終了すると、同一ラベルの付与された領域
(原画像における)の最外周の1画素を選択し、上記処
理を繰り返し実行する。上記処理を全画素について実行
する。同一ラベルの付与された領域の最外周の画素から
類似性の高い周囲の画素について同一ラベル付与を順次
実行することによって、原画像上における色相、明度及
び彩度が類似した画素による色領域を設定する。なお、
同一ラベルが付与された画素群は、色相値、彩度値及び
明度値のそれぞれの平均値を求め、求めた平均値をラベ
ルの色相値、彩度値及び明度値とする。Specifically, first, any one of the original images
Select one pixel. Next, one pixel around the pixel (so-called one pixel in the vicinity of 8) is selected, and when the selected pixel is already included in an area to which any label has been assigned, the label is changed. Give. On the other hand, when the two pixels are not included, the distance between the two selected pixels in the HLS color space, that is, the similarity of lightness, saturation, and hue of the two pixels is obtained. The longer the distance, the lower the similarity, and the shorter the distance, the higher the similarity. When the distance is less than the predetermined value, the two pixels are considered to be similar, and the same label is assigned to the two pixels (labeling). When the value is equal to or more than the predetermined value, it is determined that the objects are not similar and without labeling.
The above processing is executed for other pixels in the neighborhood of 8. When all the pixels in the vicinity of 8 have been completed, the outermost one pixel of the area (in the original image) to which the same label is added is selected, and the above processing is repeatedly executed. The above processing is executed for all pixels. By sequentially executing the same label assignment for pixels having high similarity from the outermost peripheral pixel of the area assigned with the same label, a color area is set in the original image by pixels having similar hue, lightness and saturation. I do. In addition,
For the pixel group to which the same label is assigned, the respective average values of the hue value, the saturation value, and the brightness value are obtained, and the obtained average values are used as the hue value, the saturation value, and the brightness value of the label.
【0065】なお、同一ラベルで指定された色領域は、
不連続部分を含むことはないので、少なくともステップ
102で検出された不連続すなわち輪郭が分割されるこ
とはない。The color area specified by the same label is
Since there is no discontinuous portion, at least the discontinuity, that is, the contour detected in step 102 is not divided.
【0066】上記のように、ステップ104で、原画像
の隣接した画素について色相、明度及び彩度の類似性で
色領域が設定された後には、次のステップ106におい
て、原画像がクラス分けされる。このクラス分けは、上
記原画像に設定された類似色の色領域の間で関係を定め
る処理である。すなわち、1つのラベルが付与された色
領域である同一または類似の色相、明度及び彩度による
画素群は、同一物体である可能性が高いが、隣接せず
に、原画像上で離れた位置にある類似色の色領域は、同
一種類の物体である可能性が高い。そこで、予め類似色
領域を種類分け(クラス分け)するための色相、明度及
び彩度の値や範囲を定めておき、定められた値や範囲
で、色領域を分類することによって原画像をクラス分け
する。As described above, after the color area is set in step 104 based on the similarity of hue, lightness, and saturation for the adjacent pixels of the original image, in the next step 106, the original image is classified. You. This classification is a process of determining a relationship between similar color regions set in the original image. That is, pixel groups with the same or similar hues, lightness, and saturation, which are color regions to which one label is assigned, are likely to be the same object, but are not adjacent to each other and are located on the original image at distant positions. Are likely to be objects of the same type. Therefore, values and ranges of hue, lightness, and saturation for classifying (segmenting) similar color regions are determined in advance, and the original image is classified into classes by classifying the color regions according to the determined values and ranges. Divide.
【0067】なお、本実施の形態では、原画像に設定さ
れた類似色の色領域の間で関係を定めてクラス分けする
例を説明するが、不連続情報は、物体画像の輪郭部分に
相当することから、不連続情報(輪郭)の相似性でクラ
ス分けすることもできる。In the present embodiment, an example will be described in which a relationship is determined between color regions of similar colors set in the original image and classification is performed, but the discontinuity information corresponds to the outline of the object image. Therefore, the classification can be performed based on the similarity of the discontinuous information (contour).
【0068】具体的には、図4に示す原画像40を一例
にすると、山42、小山44、及び雲46を含んだ風景
クラスCA、散在した草花50及び植木48を含んだ環
境クラスCB、人物52を含んだ人物クラスCCにクラ
ス分けすることができる。Specifically, taking the original image 40 shown in FIG. 4 as an example, a landscape class CA including a mountain 42, a small mountain 44, and a cloud 46, an environment class CB including scattered flowers 50 and plants 48, Classification into a person class CC including the person 52 is possible.
【0069】次のステップ108では、クラス分け毎に
画像を抽出する。具体的には、図4に示す原画像40を
一例にすると、風景クラスCAは、山42、小山44、
及び雲46を含んだクラス画像54として抽出される。
このクラス画像54は、山42、小山44、及び雲46
の原画像上の位置関係をそのまま維持し、これらの画像
が少なくとも分断されないように、大きめの領域が設定
される。なお、クラス画像54に原画像40上の背景を
そのまま残存させてもよく、また、新規の背景、例えば
予め定めた背景色上に上記画像を張り付けてもよい。同
様にして、環境クラスCBは、散在した草花50及び植
木48を含んだクラス画像56、人物クラスCCは、人
物52を含んだクラス画像58として抽出される。In the next step 108, an image is extracted for each classification. Specifically, taking the original image 40 shown in FIG. 4 as an example, the landscape class CA includes a mountain 42, a small mountain 44,
And a class image 54 including the cloud 46.
This class image 54 includes a mountain 42, a small mountain 44, and a cloud 46.
Are maintained as they are, and a large area is set so that these images are not divided at least. The background on the original image 40 may be left as it is in the class image 54, or the image may be pasted on a new background, for example, a predetermined background color. Similarly, the environment class CB is extracted as a class image 56 including the scattered flowers 50 and the plants 48, and the person class CC is extracted as a class image 58 including the person 52.
【0070】上記のようにして抽出されたクラス画像上
には、複数の物体画像が含まれていることがある。そこ
で、詳細な具体例は後述するが、まずステップ110で
は、上記ステップ108で抽出されたクラス画像のうち
1つのクラス画像を指定する。次に、ステップ112に
おいて、1つの物体画像を抽出し、次のステップ114
でベジェ曲線を用いて不連続情報をアウトライン化す
る。アウトライン化が終了すると、次のステップ115
において、不連続情報を用いて物体画像の背景への溶け
込み度を求める。A class image extracted as described above may include a plurality of object images. Therefore, although a detailed specific example will be described later, first, in step 110, one of the class images extracted in step 108 is designated. Next, in step 112, one object image is extracted, and in the next step 114
Outlines discontinuity information using a Bezier curve. When the outline is completed, the next step 115
In, the degree of penetration of the object image into the background is determined using the discontinuity information.
【0071】次のステップ116では、物体画像をアウ
トライン化された輪郭、溶け込み度及び物体画像の色情
報(テクスチャ情報)が符号化された色で記述する。次
のステップ118では、上記ステップ110で指定した
クラス内に含まれている物体画像を全て抽出したか否か
を判断し、未抽出の物体画像が残存するときに否定され
てステップ112へ戻り、全物体画像の抽出が終了した
ときに次のステップ120へ進む。ステップ120で
は、原画像内に含まれているクラス画像の上記処理を全
て終了したか否かを判断し、未処理のクラス画像が残存
するときに否定されてステップ110へ戻り、全クラス
画像の処理が終了したときに本ルーチンを終了する。In the next step 116, the object image is described by the outline of the outline, the degree of penetration, and the color in which the color information (texture information) of the object image is encoded. In the next step 118, it is determined whether or not all the object images included in the class specified in the above step 110 have been extracted, and when an unextracted object image remains, the determination is negative and the process returns to step 112. When the extraction of all object images is completed, the process proceeds to the next step 120. In step 120, it is determined whether or not all of the above-described processing of the class images included in the original image has been completed. This routine ends when the processing is completed.
【0072】なお、物体画像の色情報を含んだ情報とし
て予めテクスチャ情報が記憶されている場合には、上記
クラス分け等の処理は不要であり、テクスチャ情報をそ
のまま用いればよい。When the texture information is stored in advance as the information including the color information of the object image, the processing such as the classification is unnecessary, and the texture information may be used as it is.
【0073】次に、図3のステップ110以降の処理を
図4を参照して具体的に説明する。図4に示す風景クラ
スCAのクラス画像54には、山42、小山44、及び
雲46の物体画像が含まれている。これらの物体画像を
クラス画像54から分離し抽出する。この分離抽出は、
不連続情報を用いてなされる。不連続情報は、物体画像
の輪郭部分に相当することから、不連続情報に囲まれた
領域を物体画像として設定する。この不連続情報に囲ま
れた領域とは、物体画像の輪郭部分に相当する不連続点
を連結した曲線や曲面による閉領域や閉空間であるが、
1つの閉領域や閉空間に限定されない。すなわち複数の
閉領域や閉空間からなる群であってもよい。なお、不連
続点を連結した曲線や曲面による閉領域や閉空間は、後
述するように、パラメトリック曲線や曲面で連結して得
た曲線や曲面によって閉領域や閉空間を生成してもよ
い。Next, the processing after step 110 in FIG. 3 will be specifically described with reference to FIG. The class image 54 of the landscape class CA shown in FIG. 4 includes object images of the mountain 42, the small mountain 44, and the cloud 46. These object images are separated from the class image 54 and extracted. This separation extraction
This is done using discontinuous information. Since the discontinuous information corresponds to the contour of the object image, an area surrounded by the discontinuous information is set as the object image. The region surrounded by the discontinuity information is a closed region or a closed space formed by a curve or a curved surface connecting discontinuous points corresponding to the contour portion of the object image,
It is not limited to one closed region or closed space. That is, it may be a group including a plurality of closed regions and closed spaces. In addition, as described later, a closed region or a closed space may be generated by a curve or a curved surface obtained by connecting a parametric curve or a curved surface, as will be described later.
【0074】例えば、クラス画像54内は、不連続情報
に囲まれた領域が3つ設定される。この3つの領域を順
次設定し、不連続情報と、不連続情報で囲まれた領域の
色情報、すなわち領域内の画素について色相、明度及び
彩度の各値が抽出され、山画像60、小山画像62、及
び雲画像64が抽出される。なお、図4の例では、山画
像60、小山画像62、及び雲画像64の各々につい
て、抽出された各画像に背景画像を付加したものを物体
画像として設定したものである。For example, in the class image 54, three areas surrounded by discontinuous information are set. The three regions are sequentially set, and the discontinuity information and the color information of the region surrounded by the discontinuity information, that is, the hue, lightness, and saturation values of the pixels in the region are extracted. The image 62 and the cloud image 64 are extracted. In the example of FIG. 4, for each of the mountain image 60, the mountain image 62, and the cloud image 64, an image obtained by adding a background image to each extracted image is set as an object image.
【0075】同様に、環境クラスCBから、草花画像6
6及び植木画像68が抽出され、人物クラスCCから、
人物の頭部画像70、腕部画像72、胴体部画像74及
び脚部画像76が抽出される。Similarly, from the environment class CB, the flower image 6
6 and the plant image 68 are extracted, and from the person class CC,
A head image 70, an arm image 72, a body image 74, and a leg image 76 of the person are extracted.
【0076】次に、抽出した画像の輪郭(不連続情報)
を以下のようにしてアウトライン化する。不連続情報を
アウトライン化するために記述が容易なパラメトリック
曲線を採用し、特に本実施の形態では、パラメトリック
曲線のうち扱いが簡便なベジェ曲線を採用する。従っ
て、抽出した画像の輪郭(不連続情報:hij,vij)を
2値化してベジェ曲線を用いてアウトライン化する。こ
のベジェ曲線P(t)を定める数式を次の(6)式に示
す。Next, the outline (discontinuous information) of the extracted image
Is outlined as follows. In order to outline discontinuous information, a parametric curve that can be easily described is adopted. In particular, in the present embodiment, a Bezier curve that is easy to handle among parametric curves is employed. Therefore, the outline (discontinuous information: h ij , v ij ) of the extracted image is binarized and outlined using a Bezier curve. An equation that determines this Bezier curve P (t) is shown in the following equation (6).
【0077】[0077]
【数4】 (Equation 4)
【0078】但し、 Bi n(t)=(1−t)・Bi n-1(t)+t・Bi-1 n-1(t) Bj n(t)= 0 (j≒n) = 1 (j=n) Pi:制御点(不連続点) t :パラメータ[0078] However, B i n (t) = (1-t) · B i n-1 (t) + t · B i-1 n-1 (t) B j n (t) = 0 (j ≒ n ) = 1 (j = n) P i : control point (discontinuous point) t: parameter
【0079】このようにして物体画像の輪郭部分をアウ
トライン化することによって、物体画像を拡大したり縮
小したりしても、その輪郭形状は維持されることにな
る。そして、このアウトライン化した輪郭と、物体画像
の色情報(符号化することが好ましい)による色とで物
体画像を記述することによって、物体画像を再利用可能
な形式で記述(部品化)できることになる。By outline forming the outline portion of the object image in this way, even if the object image is enlarged or reduced, the outline shape is maintained. By describing the object image with the outline that has been converted into outlines and the color based on the color information (preferably encoded) of the object image, the object image can be described in a reusable format (componentized). Become.
【0080】次に、抽出した画像の輪郭に相当する不連
続情報を用いて物体画像の背景への溶け込み度を求め
る。本実施の形態では、水平方向の溶け込み度Mh(i
j)、垂直方向の溶け込み度Mv(ij)の各々を次の
(7)式を用いて求める。Next, the degree of penetration of the object image into the background is determined using discontinuous information corresponding to the contour of the extracted image. In the present embodiment, the horizontal penetration Mh (i
j) and the vertical penetration Mv (ij) are determined using the following equation (7).
【0081】Mh(ij)=β(mij) Mv(ij)=β(nij) ・・・(7) 但し、β():シグモイド関数等の非線形関数または線
形関数 0≦Mh(ij)≦1 0≦Mv(ij)≦1 このようにして物体画像の溶け込み度を求めることによ
って、物体画像を拡大したり縮小したりしても、物体画
像の輪郭部分は背景に溶け込ませることが可能になる。
そして、このアウトライン化した輪郭と、溶け込み度
と、物体画像の色情報(符号化することが好ましい)に
よる色とで物体画像を記述することによって、物体画像
を違和感なく再利用可能な形式で記述(部品化)できる
ことになる。Mh (ij) = β (m ij ) Mv (ij) = β (n ij ) (7) where β () is a nonlinear function such as a sigmoid function or a linear function 0 ≦ Mh (ij) ≦ 10 0 ≦ Mv (ij) ≦ 1 By determining the degree of penetration of the object image in this way, even when the object image is enlarged or reduced, the outline of the object image can be blended into the background. become.
The object image is described in a format that can be reused without a sense of incongruity by describing the object image with the outline that has been converted into outlines, the degree of penetration, and the color based on the color information (preferably encoded) of the object image. (Parts).
【0082】物体画像の輪郭部分をアウトライン化して
溶け込み度を求めた物体画像として、図10(A)に示
す山画像60を一例にして、物体画像の溶け込み度につ
いて更に説明する。山の稜線60Aは輪郭部分を表して
おり、溶け込み度を有している。上記式から理解される
ように、溶け込み度は最大値から最小値の間で徐々に変
化する。図10(B)は、領域Arの拡大図であり、稜
線60Aの濃度変化の推移を等高線で示したものであ
る。図10(C)は、領域Ar内のi−i断面(図10
(B)参照)における濃度変化を示したものである。図
10(B)に示すように、図10(A)に示す山画像6
0において、山の稜線60Aを含む領域Arを参照する
と、本来の山画像の境界である稜線60A付近は稜線6
0Aから離れるに従って背景60Bに溶け込むよう徐々
に濃度が小さくなる(図10(C)参照)。従って、物
体画像の輪郭部分が明瞭な稜線となることなく、背景に
徐々に溶け込むことになる。The penetration degree of the object image will be further described by taking the mountain image 60 shown in FIG. 10A as an example of the object image obtained by outlining the outline portion of the object image and calculating the penetration degree. The ridgeline 60A of the mountain represents a contour portion and has a degree of penetration. As understood from the above equation, the degree of penetration gradually changes between the maximum value and the minimum value. FIG. 10B is an enlarged view of the region Ar, and shows a transition of the density change of the ridgeline 60A by contour lines. FIG. 10C is a sectional view taken along the line ii in the region Ar (FIG.
(See (B)). As shown in FIG. 10B, the mountain image 6 shown in FIG.
At 0, referring to an area Ar including the mountain ridgeline 60A, the vicinity of the ridgeline 60A, which is the boundary of the original mountain image, is the ridgeline 6A.
As the distance from 0A increases, the density gradually decreases so as to dissolve into the background 60B (see FIG. 10C). Therefore, the contour portion of the object image gradually blends into the background without forming a clear ridge line.
【0083】なお、上記では、アウトライン化した輪郭
と、物体画像の色情報による色とで物体画像を記述した
例を説明したが、本発明はこれに限定されるものではな
く、物体画像を記述する上での情報を付与してもよい。
例えば、物体画像に線画やパターン等の画像が含まれて
いたり物体画像がマスク処理やフォーカス処理等の一定
の処理を施されていたりする場合に、その画像や処理を
属させてもよい。すなわち、物体画像に関する記述を、
線やグラデーション等の模様等で細分化したり、施され
た処理で細分化したりすることもできる。In the above description, an example has been described in which an object image is described by outlines that have been converted into outlines and colors based on the color information of the object image. However, the present invention is not limited to this. Information for the operation may be added.
For example, when the object image includes an image such as a line drawing or a pattern, or when the object image has been subjected to a certain process such as a mask process or a focus process, the image or the process may belong thereto. That is, the description about the object image is
It is also possible to subdivide it by a pattern such as a line or gradation, or to subdivide it by the applied processing.
【0084】また、上記では、パラメトリック曲線を用
いた場合を説明したが、パラメトリック曲線に限定され
るものではなく、他の近似曲線を用いてもよい。In the above description, the case where a parametric curve is used has been described. However, the present invention is not limited to the parametric curve, and another approximate curve may be used.
【0085】次に、部品化された物体画像を拡大する場
合を説明する。以下の説明では、物体画像の色情報をN
URBS(Non Unifom Rational B-Spline)曲面を用い
て符号化した場合を例にして説明する。このパラメトリ
ック曲面としてNURBSを定める数式を次の(8)式
に示す。Next, the case of enlarging a componentized object image will be described. In the following description, the color information of the object image is set to N
A case where encoding is performed using a URBS (Non Unifom Rational B-Spline) surface will be described as an example. The following equation (8) shows an equation that determines NURBS as this parametric surface.
【0086】[0086]
【数5】 (Equation 5)
【0087】以下、図8及び図9を参照して3次のNU
RBSを用いて解像度を2倍(面積比4倍)に拡大する
場合を説明する。Hereinafter, referring to FIG. 8 and FIG.
The case where the resolution is doubled (the area ratio is quadrupled) using the RBS will be described.
【0088】図9のステップ200では、図3のステッ
プ100に相当する原画像の読み取りがなされる。この
読み取った原画像は、次のステップ202において、図
3のステップ102に相当する、ラインプロセスによる
不連続検出がなされ、次のステップ204において図3
のステップ114に相当するアウトライン化がなされ
る。次のステップ205では、図3のステップ115に
相当する溶け込み度の演算がなされる。At step 200 in FIG. 9, an original image corresponding to step 100 in FIG. 3 is read. In the next step 202, the read original image is subjected to discontinuity detection by a line process corresponding to step 102 in FIG.
The outline corresponding to step 114 of FIG. In the next step 205, the calculation of the degree of penetration corresponding to step 115 in FIG. 3 is performed.
【0089】次に、ステップ206では、アウトライン
化された不連続情報が拡大され、次のステップ207に
おいて溶け込み度が拡大される(詳細は後述)。次のス
テップ208では、拡大された不連続情報とパラメトリ
ック曲面を用いて解像度が大きくされる。そして、次の
ステップ210において、解像度が大きくされた画像が
出力される。Next, at step 206, the discontinuous information that has been outlined is enlarged, and at the next step 207, the degree of penetration is enlarged (details will be described later). In the next step 208, the resolution is increased using the expanded discontinuous information and the parametric surface. Then, in the next step 210, an image whose resolution is increased is output.
【0090】図8は、原画像の一部を構成する縦横4個
(合計16個)の画素で画像80を構成するものとし
て、各画素を制御点Pij(0≦i≦3,0≦j≦3)と
して用いる構成を示したものである。曲線82は、上記
説明したラインプロセスにより抽出した不連続情報を、
そのまま拡大した場合に得られる曲線であり、曲線84
は、上記説明した不連続情報をアウトライン化した後
に、拡大した場合に得られる曲線である。FIG. 8 shows that an image 80 is composed of four pixels (16 pixels in total) that form a part of the original image, and each pixel is defined as a control point P ij (0 ≦ i ≦ 3, 0 ≦ j ≦ 3). The curve 82 represents the discontinuity information extracted by the line process described above,
A curve obtained when the image is directly enlarged, and a curve 84
Is a curve obtained when the above-described discontinuous information is outlined and then enlarged.
【0091】画像は、その半分が白画素で他が黒画素で
あるものとして、各画素値として、制御点P00,P10,
P20,P01,P11,P20が白、制御点P30,P21,
P31,P 12,P22,P32,P03,P13,P23が黒の値が
設定される。The image has half the white pixels and the other black pixels.
Assume that each pixel value has a control point P00, PTen,
P20, P01, P11, P20Is white, control point P30, Ptwenty one,
P31, P 12, Ptwenty two, P32, P03, P13, Ptwenty threeIs a black value
Is set.
【0092】本実施の形態では、上記の拡大時に、制御
点P00〜P33内に新規に画素を仮想点Sとして追加す
る。例えば、制御点P11,P12,P21,P22で囲まれた
範囲内には、仮想点Smn(0≦m≦3,0≦n≦3)が
追加される。In this embodiment, a new pixel is added as a virtual point S within the control points P 00 to P 33 at the time of the above enlargement. For example, a virtual point S mn (0 ≦ m ≦ 3, 0 ≦ n ≦ 3) is added in a range surrounded by the control points P 11 , P 12 , P 21 , and P 22 .
【0093】これら追加された仮想点Sの画素値は、そ
の周囲の原画像の画素値(制御点の画素値)を参照して
求められる。本実施の形態では原画像中の不連続を考慮
して画素値が決定される。すなわち、不連続情報である
曲線84を超えた画素の画素値を用いないものとした。
例えば、仮想点S20の画素値を求めるとき、制御点P 11
は、仮想点S20とを結ぶ直線が曲線84と交差すること
がないので参照するが、制御点P22は、仮想点S20とを
結ぶ直線が曲線84と交差するので参照しない。より詳
細には、上記NURBSを表す(8)式における重みを
「0」に設定することで計算に反映させる。これによっ
て、仮想点S20の画素値は白画素の値となる。同様にし
て他の仮想点の計算を行って画素値を求める。The pixel values of these added virtual points S are
With reference to the pixel value of the original image around (the pixel value of the control point)
Desired. This embodiment considers discontinuities in the original image
Thus, the pixel value is determined. That is, it is discontinuous information
The pixel value of the pixel exceeding the curve 84 is not used.
For example, the virtual point S20When calculating the pixel value of the control point P 11
Is the virtual point S20The straight line that connects
Since there is no control point Ptwenty twoIs the virtual point S20And
Since the connecting straight line intersects with the curve 84, it is not referred to. More details
Specifically, the weight in the equation (8) representing NURBS is
By setting it to “0”, it is reflected in the calculation. By this
And the virtual point S20Are the values of the white pixels. Likewise
To calculate pixel values by calculating other virtual points.
【0094】このように、不連続情報をアウトライン化
して拡大すると、ボケが抑制されたエッジを得ることが
できる。これによって、画像拡大時におけるエッジのジ
ャギ(所謂ギザギザ)を抑えることができる。As described above, when discontinuous information is outlined and enlarged, an edge with reduced blur can be obtained. As a result, jagged edges (so-called jagged edges) at the time of image enlargement can be suppressed.
【0095】次に、不連続情報を用いて溶け込み度を求
める。溶け込み度は、拡大以前の画素間に存在する不連
続情報にのみ存在する。このため、まず、拡大後の画素
間の溶け込み度、すなわち不連続に対する値(不連続情
報)を求める。Next, the degree of penetration is determined using the discontinuity information. The degree of penetration exists only in discontinuous information existing between pixels before enlargement. Therefore, first, the degree of penetration between the pixels after the enlargement, that is, a value for discontinuity (discontinuous information) is obtained.
【0096】拡大以前の溶け込み度は、曲線82に対応
する制御点P20,P21の間に存在する不連続情報による
溶け込み度Mh20、制御点P11,P12の間に存在する不
連続情報による溶け込み度Mh11、制御点P11,P21の
間に存在する不連続情報による溶け込み度Mv11、制御
点P02,P12の間に存在する不連続情報による垂直方向
の溶け込み度Mv02である。The penetration before the enlargement is determined by the penetration Mh 20 based on the discontinuity information existing between the control points P 20 and P 21 corresponding to the curve 82 and the discontinuity existing between the control points P 11 and P 12. Penetration degree Mh 11 by information, penetration degree Mv 11 by discontinuous information existing between control points P 11 and P 21 , vertical penetration degree Mv by discontinuous information existing between control points P 02 and P 12. 02 .
【0097】次に、拡大後の曲線84に対応する溶け込
み度を求める。この溶け込み度は、隣接に存在する溶け
込み度の間の距離により重み付けして新規の溶け込み度
を求める。新規の溶け込み度は以下の(9),(10)
式の少なくとも一方の式により求めることができる。Next, the degree of penetration corresponding to the enlarged curve 84 is determined. This penetration degree is weighted by the distance between adjacent penetration degrees to determine a new penetration degree. The new penetration degree is as follows (9), (10)
It can be obtained by at least one of the equations.
【0098】 Mvi-k=α・Mvi+β・Mhj ・・・(9) Mhi-k=γ・Mvi+ε・Mhj ・・・(10) 但し、i:基準側に水平方向に直近の拡大前の溶け込み
度の位置を表す値 j:基準側に垂直方向に直近の拡大前の溶け込み度の位
置を表す値 k:拡大後の溶け込み度の位置を表す値 α,γ:図8の水平方向の距離の比例関係を表す係数 β,ε:図8の水平方向の距離の比例関係を表す係数 具体的には、仮想点S20周辺の溶け込み度Mv11-1,M
v11-2,Mh20-1は、次のようして求めることができ
る。Mv ik = α · Mv i + β · Mh j (9) Mh ik = γ · Mv i + ε · Mh j (10) where, i: enlargement in the horizontal direction closest to the reference side A value representing the position of the previous penetration degree j: A value representing the position of the penetration degree immediately before the reference side in the vertical direction before the enlargement k: A value representing the position of the penetration degree after the enlargement α, γ: the horizontal direction in FIG. Coefficients β and ε representing the proportional relationship of the distance in FIG. 8: the coefficients representing the proportional relationship of the distance in the horizontal direction in FIG. 8 Specifically, the penetration degree Mv 11-1, M around the virtual point S 20
v 11-2 and Mh 20-1 can be obtained as follows.
【0099】 Mv11-1=0.4・Mv11+0.6・Mh20 Mv11-2=1.0・Mv11+0.0・Mh20 Mh20-1=0.25・Mv11+0.75・Mh20 溶け込み度Mv11-1は仮想点S20と制御点P21との間の
位置Ppを距離の基準として考え、溶け込み度Mv11、
溶け込み度Mh20の各々までの距離比率を求める。制御
点の間隔を「1」と想定すると、溶け込み度Mv11まで
の距離比率は1/3であり、溶け込み度Mh20までの距
離比率は1/2である。これらの和が「1」となるよう
に規格化するとα=0.4、β=0.6となる。他の溶
け込み度も同様にして求まる。[0099] Mv 11-1 = 0.4 · Mv 11 +0.6 · Mh 20 Mv 11-2 = 1.0 · Mv 11 +0.0 · Mh 20 Mh 20-1 = 0.25 · Mv 11 +0. The 75 · Mh 20 penetration degree Mv 11-1 considers the position Pp between the virtual point S 20 and the control point P 21 as a reference of the distance, and the penetration degree Mv 11 ,
Determining the distance ratio to each penetration degree Mh 20. When the distance between the control point is assumed as "1", the distance ratio to penetration of Mv 11 is 1/3, the distance ratio to penetration of Mh 20 is 1/2. If these sums are normalized so as to be “1”, α = 0.4 and β = 0.6. Other degrees of penetration can be determined in the same manner.
【0100】ここで、溶け込み度を用いない場合には、
例えば、仮想点S20の画素値を求めるとき、制御点P11
は仮想点S20とを結ぶ直線が曲線84と交差することが
ないので参照するが、制御点P22は、仮想点S20とを結
ぶ直線が曲線84と交差するので参照しない。詳細に
は、他の制御点を参照する場合NURBSを表す(8)
式における重みwijを「1」に設定し、参照する場合重
みwijを「0」に設定することで計算に反映させる。こ
れによって、仮想点S20の画素値は白画素の値となる。Here, when the degree of penetration is not used,
For example, when determining the pixel value of the virtual point S 20, the control point P 11
Although references since the straight line connecting the virtual point S 20 does not intersect the curve 84, the control point P 22 does not refer since the straight line connecting the virtual point S 20 intersects the curve 84. In detail, when referring to another control point, it indicates NURBS (8)
The weight w ij in the equation is set to “1”, and when the reference is made, the weight w ij is set to “0” to be reflected in the calculation. Thus, the pixel value of the virtual point S 20 becomes a value of white pixels.
【0101】一方、本実施の形態では、溶け込み度を用
いる。このため、(8)式における重みwijを次の(1
1),(12)式を用いる。但し、不連続情報と交差す
ることがない制御点に対する溶け込み度は上記と同様に
wij=1である。On the other hand, in the present embodiment, the degree of penetration is used. Therefore, the weight w ij in the equation (8) is changed to the following (1)
Equations (1) and (12) are used. However, the degree of penetration for control points that do not intersect with the discontinuity information is w ij = 1, as in the above.
【0102】wij=1−Mvi-k ・・・(11) wij=1−Mhi-k ・・・(12) なお、重みwijの計算は、例えば仮想点S20の場合、各
制御点との間を結ぶ直線が交差する不連続情報、すなわ
ち拡大後の曲線84の交差部分に対応する溶け込み度を
用いる。また、複数の不連続情報と交差する場合には溶
け込み度の最大値を用いるものとする。W ij = 1−Mv ik (11) w ij = 1−Mh ik (12) The calculation of the weight w ij is performed, for example, in the case of the virtual point S 20 by using each control point. The discontinuity information at which the straight line connecting the two intersects, that is, the degree of penetration corresponding to the intersection of the curve 84 after the enlargement is used. In the case where a plurality of pieces of discontinuous information intersect, the maximum value of the degree of penetration is used.
【0103】このように、(8)式に重み付けして計算
することによって、物体画像は背景との溶け込み度を考
慮した拡大が可能となる。As described above, by weighting the equation (8) and calculating, the object image can be enlarged in consideration of the degree of penetration with the background.
【0104】なお、上記では、白画素と黒画素の例を説
明したが、濃度を有する画素や色を有する画素であると
きは、平均化や勾配による予測値を求めることによって
画素値を求めてもよい。In the above description, the example of the white pixel and the black pixel has been described. However, in the case of a pixel having a density or a pixel having a color, a pixel value is obtained by obtaining a predicted value by averaging or gradient. Is also good.
【0105】このように、原画像をラインプロセスを用
いて不連続情報を検出し、その不連続情報を用いて原画
像に含まれる物体画像の輪郭を抽出する。また、不連続
情報を用いて物体画像の輪郭をアウトライン化して解像
度変更、例えば拡大を行った場合であっても物体画像の
輪郭がぼけたり粗くなったりすることなく、画像を生成
することができる。さらに、不連続情報を用いて物体画
像の溶け込み度を求めているので、拡大縮小したり他の
画像と合成したり、解像度変更、例えば拡大を伴って背
景に合成したりした場合であっても物体画像が溶け込む
ように画像を生成することができる。これによって、解
像度に依存することなく物体画像を部品化して記述する
ことができ、再利用を容易にすることができる。As described above, discontinuity information is detected from the original image using the line process, and the contour of the object image included in the original image is extracted using the discontinuity information. Further, even if the outline of the object image is outlined using the discontinuity information and the resolution is changed, for example, when the image is enlarged, the image can be generated without blurring or roughening the outline of the object image. . Furthermore, since the degree of dissolution of the object image is obtained using the discontinuity information, even when the image is scaled or combined with another image, or when the resolution is changed, for example, when the background is synthesized with enlargement. The image can be generated such that the object image blends. As a result, the object image can be described as parts without depending on the resolution, and reuse can be facilitated.
【0106】なお、上記実施の形態では、画素値の成分
について考慮することの説明を省略したが、例えば、R
GBの各成分に対して上記処理を行ったり、色相や彩度
の成分に対して行ったりしてもよい。In the above embodiment, the description of the consideration of the component of the pixel value is omitted.
The above processing may be performed on each component of GB, or may be performed on components of hue and saturation.
【0107】また、同一画像内において拡大縮小を行う
場合について説明したが、物体画像内の背景部分を除去
したオブジェクトを切り出して他の背景画像と合成する
場合にも適用が可能である。この場合、切り出したとき
の溶け込み度を記憶しておき、他の背景画像と合成する
ときに、記憶した溶け込み度を用いるようにすればよ
い。このようにすることによって、より違和感が少ない
合成画像の生成が可能となる。[0107] Although the case where the scaling is performed in the same image has been described, the present invention is also applicable to the case where an object from which the background portion in the object image is removed is cut out and combined with another background image. In this case, the degree of penetration at the time of clipping may be stored, and the stored degree of penetration may be used when combining with another background image. By doing so, it is possible to generate a composite image with less discomfort.
【0108】次に、上述の画像データの符号化及び拡大
縮小を用いて、動画像データを生成する変換処理を説明
する。なお、以下の処理ルーチンは、FD等の記録媒体
に格納してコンピュータで実行可能なアプリケーション
として提供され、実行指示によって実行されるようにし
てもよい。Next, a description will be given of a conversion process for generating moving image data using the above-described encoding and scaling of image data. Note that the following processing routine may be provided as a computer-executable application stored in a recording medium such as an FD, and may be executed by an execution instruction.
【0109】まず、画像変換装置10に電源が投入され
ると図1に示す処理ルーチンが実行される。なお、この
処理ルーチンは、FD等の記録媒体に格納してコンピュ
ータで実行可能なアプリケーションとして提供され、実
行指示によって実行されるようにしてもよい。First, when the power is turned on to the image conversion apparatus 10, the processing routine shown in FIG. 1 is executed. The processing routine may be stored in a recording medium such as an FD and provided as a computer-executable application, and may be executed according to an execution instruction.
【0110】図1のステップ300では、動画像として
対象となる複数の静止画像が読み取られる。次のステッ
プ302では、読み取った複数の静止画像のうち基準画
像を読み取って、次のステップ304において基準画像
を符号化する。この基準画像は、複数の静止画像の中で
時間的に最初の静止画像を採用することができる。ま
た、ステップ304の処理は上述した符号化処理(図3
参照)で実行可能である。At step 300 in FIG. 1, a plurality of still images to be processed are read as moving images. In the next step 302, the reference image is read out of the plurality of read still images, and in the next step 304, the reference image is encoded. As the reference image, a temporally first still image among a plurality of still images can be adopted. Further, the processing of step 304 is the same as the above-described encoding processing (FIG.
Reference).
【0111】基準画像の符号化が終了すると、次のステ
ップ306において、複数の静止画像のうち基準画像に
連続する静止画像を読み取る。次のステップ308で
は、基準画像とステップ306で読み取った静止画像の
差分を求める。このステップ308は、読み取った静止
画像が基準画像からどの程度変化したかを特定するため
である。When the coding of the reference image is completed, in the next step 306, a still image that is continuous with the reference image is read out from a plurality of still images. In the next step 308, the difference between the reference image and the still image read in step 306 is determined. This step 308 is for specifying how much the read still image has changed from the reference image.
【0112】次に、ステップ310において、上記求め
た差分値を用いて基準画像から変化した物体画像(変化
オブジェクト)を特定し、次のステップ312において
物体画像のベクトル情報を抽出する。読み取った静止画
像が基準画像から変化した場合、差分として現れる。そ
の差分値、位置及び形状から基準画像に含まれる物体画
像の類似性を求め、その位置変動及び大きさ変動を求め
る。これらをベクトル情報とする。なお、ベクトル情報
が予め記憶されているときは本ステップの処理は不用で
ある。Next, in step 310, an object image (changed object) changed from the reference image is specified by using the obtained difference value, and in the next step 312, vector information of the object image is extracted. When the read still image changes from the reference image, it appears as a difference. The similarity of the object image included in the reference image is determined from the difference value, the position, and the shape, and the position variation and the size variation are determined. These are set as vector information. When the vector information is stored in advance, the processing of this step is unnecessary.
【0113】次のステップ314では、ステップ306
で読み取った静止画像について変化オブジェクトを符号
化する。この符号化は、基準画像を基にすることを表す
情報とベクトル情報のみでよい。すなわち、基準画像と
ベクトル情報があれば、読み取った静止画像を再現する
ことができるからである。In the next step 314, step 306 is executed.
The changing object is encoded with respect to the still image read by. This encoding may be performed only with information indicating that the image is based on the reference image and vector information. That is, if there is a reference image and vector information, the read still image can be reproduced.
【0114】上記ステップ306からステップ314の
処理を(ステップ316で肯定判断されるまで各処理を
繰り返し)、動画像として対象となる複数の静止画像に
ついて全て実行する。なお、上記処理では、ベクトル情
報を基準画像に対して求めるようにしたが、隣り合う静
止画像について行っても良い。この場合、直前の静止画
像に含まれる物体画像は、基準画像に含まれる物体画像
からベクトル情報を持って変動したものとなる。また、
基準画像に含まれず複数の静止画像の中で新規に出現し
た物体画像はその時点(上記類似性がない差分が求めら
れたとき)に、新規に物体画像として符号化することが
できる。The processes from step 306 to step 314 are repeated (each process is repeated until the determination is affirmative in step 316), and all of the plurality of still images to be processed as moving images are executed. In the above processing, the vector information is obtained for the reference image. However, the processing may be performed for adjacent still images. In this case, the object image included in the immediately preceding still image fluctuates with the vector information from the object image included in the reference image. Also,
An object image newly appearing in a plurality of still images that is not included in the reference image can be newly encoded as an object image at that time (when the difference having no similarity is obtained).
【0115】全静止画像について上記処理が終了する
と、次のステップ318において、上記で符号化した各
静止画像のデータを合成することで動画像データを生成
する。この合成は、データを順に並べて動画像データを
生成してもよく、予め定めたフォーマットに従って、デ
ータ記述することで動画像データを生成してもよい。When the above processing is completed for all still images, in the next step 318, moving image data is generated by synthesizing the data of the still images encoded as described above. In this combination, moving image data may be generated by arranging data in order, or moving image data may be generated by describing data according to a predetermined format.
【0116】次に、図1の処理を図11、図12、図1
3を参照して具体的に説明する。図11(A)〜図11
(C)には、原画像として複数の静止画像40A,40
B,40Cにより動画像を構成した一例を示した。この
動画像では、山42及び草花50等の物体画像は変化が
ないが、人物52が山42から草花50方向へ徐々に近
づいている。このとき、人物52の物体画像は位置が変
動すると共に、大きさが変動している。Next, the processing of FIG. 1 will be described with reference to FIGS.
This will be specifically described with reference to FIG. 11 (A) to 11
(C) shows a plurality of still images 40A and 40 as original images.
B and 40C show an example in which a moving image is formed. In this moving image, the object images such as the mountain 42 and the flower 50 do not change, but the person 52 gradually approaches the flower 50 from the mountain 42. At this time, the position and the size of the object image of the person 52 change.
【0117】従って、動画像データは、図12(A)に
示す原画像40(静止画像40A)から人物52を除い
た背景の画像40Sと、図12(B)に示す人物52の
物体画像及びそのベクトル情報53と、から表現するこ
とができる。ベクトル情報は、位置及び大きさに関する
情報を表すものである。Therefore, the moving image data includes a background image 40S obtained by removing the person 52 from the original image 40 (still image 40A) shown in FIG. 12A, an object image of the person 52 shown in FIG. It can be expressed from the vector information 53. The vector information represents information on the position and the size.
【0118】原画像40(静止画像40A)について不
連続情報を求めることで、物体画像の輪郭及び特徴部分
を抽出することができる。図13(A)には人物52の
上部拡大図を示した。この不連続情報を求めると、図1
3(B)に示すように、人物の輪郭及び表情や各部の特
徴が抽出できる。すなわち、人物の輪郭のみでは表情の
変化や特徴を見出すことはできないが、画像内部の不連
続情報を求めることによって、その画像の特徴部分を求
めることができる。By obtaining discontinuity information for the original image 40 (still image 40A), it is possible to extract the contour and characteristic portion of the object image. FIG. 13A is an enlarged top view of the person 52. When this discontinuity information is obtained, FIG.
As shown in FIG. 3B, the outline and expression of the person and the features of each part can be extracted. That is, it is not possible to find a change in expression or a feature only by the outline of a person, but it is possible to obtain a characteristic portion of the image by obtaining discontinuity information inside the image.
【0119】図14は人物(頭部のみ対象)の画像内部
が変化した状態(会話中の状態)を示したものである。
図14(A)は口を開いているときの画像について不連
続情報を求めたものであり、図14(B)は口を閉じて
いるときの画像について不連続情報を求めたものであ
る。図から理解されるように、口の周辺55に特徴が現
れている。FIG. 14 shows a state in which the inside of the image of the person (only the head) is changed (a state during conversation).
FIG. 14A shows the case where discontinuity information is obtained for an image when the mouth is open, and FIG. 14B shows the case where discontinuity information is obtained for an image when the mouth is closed. As can be seen, features appear around the mouth 55.
【0120】このようにして、抽出した画像の特徴部分
(不連続情報)をアウトライン化する。物体画像の輪郭
部分やその内部の不連続部分をアウトライン化すること
によって、原画像や物体画像を拡大したり縮小したりし
ても、その輪郭形状や特徴部分は維持されることにな
る。このため、輪郭形状や特徴部分に色情報(テクスチ
ャ情報)を合成するときであっても、解像度に影響され
ることがなく、画像を表現することができる。In this way, the characteristic portion (discontinuous information) of the extracted image is outlined. By contouring the contour portion of the object image and the discontinuous portion inside the object image, the contour shape and the characteristic portion are maintained even if the original image or the object image is enlarged or reduced. Therefore, even when synthesizing color information (texture information) with a contour shape or a characteristic portion, an image can be expressed without being affected by the resolution.
【0121】以上説明したように、本実施の形態では、
原画像をラインプロセスを用いて不連続情報を検出し、
その不連続情報を用いて原画像に含まれる物体画像の輪
郭及び画像内部の不連続を抽出する。不連続情報を用い
て物体画像の輪郭及び画像内部の不連続をアウトライン
化して解像度変更、例えば拡大を行った場合であっても
物体画像の輪郭がぼけたり粗くなったりすることなく、
画像を生成することができる。As described above, in the present embodiment,
Detect discontinuity information of original image using line process,
Using the discontinuity information, the outline of the object image included in the original image and the discontinuity inside the image are extracted. Using the discontinuity information to outline the outline of the object image and the discontinuity inside the image and change the resolution, for example, even when the enlargement is performed, the outline of the object image is not blurred or coarse,
Images can be generated.
【0122】また、動画像を表す画像データは、画像の
輪郭及び画像内部の不連続をアウトライン化されたデー
タと、輪郭に内包される色情報等のテクスチャ情報とに
よって記述できるので、画像データを伝送し被伝送側で
画像を再構築する場合であっても、画像がぼけたり、粗
くなったりすることがなく解像度に依存することのな
い、高品質な画像を提供することができる。また、画像
を拡大縮小する場合であっても、解像度に依存すること
のない、高品質な画像を提供することができる。The image data representing a moving image can be described by outline data of the outline of the image and discontinuity in the image, and texture information such as color information included in the outline. Even when the image is transmitted and the image is reconstructed on the transmission side, it is possible to provide a high-quality image that is not blurred or coarse and does not depend on the resolution. Further, even when the image is enlarged or reduced, it is possible to provide a high-quality image independent of the resolution.
【0123】[0123]
【発明の効果】以上説明したように本発明によれば、物
体画像の輪郭をアウトライン情報で記述すると共に、輪
郭に応じて物体画像を表すテクスチャ情報を含めて、画
像を符号化しているので、動画像として複数の原画像ま
たは物体画像を再生するときに、拡大したり縮小したり
する場合であっても、解像度に依存することなく元の物
体画像の輪郭を維持でき、動画像再生にあたっても違和
感を生じさせることがない、画像データの変換が可能で
ある、という効果がある。As described above, according to the present invention, the outline of an object image is described by outline information, and the image is encoded including texture information representing the object image according to the outline. When playing back multiple original images or object images as a moving image, even if the image is enlarged or reduced, the outline of the original object image can be maintained without depending on the resolution, and even when playing back moving images There is an effect that the image data can be converted without causing a feeling of strangeness.
【0124】また、物体画像の輪郭及び物体画像内部の
不連続をアウトライン情報で記述すると共に、輪郭に応
じて物体画像を表すテクスチャ情報を含めて、画像を符
号化しているので、人物の表情変化らの物体画像の内部
の微細な動作も不連続情報の変動から忠実に再現させる
ことができる、という効果がある。Further, the outline of the object image and the discontinuity inside the object image are described by outline information, and the image is coded by including the texture information representing the object image in accordance with the outline. There is an effect that minute movements inside these object images can be faithfully reproduced from the fluctuation of the discontinuous information.
【図1】本発明の実施の形態にかかる画像変換装置で実
行される処理の流れを示すフローチャートである。FIG. 1 is a flowchart illustrating a flow of processing executed by an image conversion apparatus according to an embodiment of the present invention.
【図2】本発明の実施の形態にかかる画像変換装置の概
略構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of an image conversion apparatus according to the embodiment of the present invention.
【図3】本発明の実施の形態にかかる画像変換装置で符
号化処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing a flow of an encoding process in the image conversion device according to the embodiment of the present invention.
【図4】原画像から物体画像を抽出する過程を示すイメ
ージ図である。FIG. 4 is an image diagram showing a process of extracting an object image from an original image.
【図5】ラインプロセスを説明するための説明図であ
る。FIG. 5 is an explanatory diagram for explaining a line process.
【図6】ラインプロセスを用いたニューラルネットワー
クを説明するための概念構成図である。FIG. 6 is a conceptual configuration diagram for explaining a neural network using a line process.
【図7】画像に適用したラインプロセスを説明するため
の説明図である。FIG. 7 is an explanatory diagram for explaining a line process applied to an image.
【図8】NURBSを用いて解像度を拡大するときの画
像の構成を説明するための説明図である。FIG. 8 is an explanatory diagram for describing a configuration of an image when the resolution is enlarged using NURBS.
【図9】原画像を拡大する処理の流れを示すフローチャ
ートである。FIG. 9 is a flowchart illustrating a flow of a process of enlarging an original image.
【図10】山画像を用いて溶け込み度を説明するための
説明図である。FIG. 10 is an explanatory diagram for explaining the degree of penetration using a mountain image.
【図11】動画像を静止画像に分解したイメージ図であ
る。FIG. 11 is an image diagram in which a moving image is decomposed into still images.
【図12】ベクトル情報を説明するための説明図であ
る。FIG. 12 is an explanatory diagram for explaining vector information.
【図13】不連続情報を説明するための物体画像を表す
イメージ図である。FIG. 13 is an image diagram illustrating an object image for explaining discontinuity information.
【図14】物体画像内部の不連続情報を説明するための
説明図である。FIG. 14 is an explanatory diagram for describing discontinuity information inside an object image.
10 画像変換装置 30 画像読取装置 40 原画像 54 クラス画像 60 山画像(物体画像) Reference Signs List 10 Image conversion device 30 Image reading device 40 Original image 54 Class image 60 Mountain image (object image)
フロントページの続き Fターム(参考) 5B057 CA01 CA12 CB01 CB12 CC02 CE15 CG01 DB02 DB06 DC16 5C054 FB03 FC12 FC14 FD00 GB12 GB14 GB15 5C057 AA11 EA01 EA07 EC01 ED06 EE04 EF05 EM07 5C059 KK37 KK38 MB03 MB19 NN38 NN47 PP01 PP28 TA50 TC43Continued on the front page F-term (reference) 5B057 CA01 CA12 CB01 CB12 CC02 CE15 CG01 DB02 DB06 DC16 5C054 FB03 FC12 FC14 FD00 GB12 GB14 GB15 5C057 AA11 EA01 EA07 EC01 ED06 EE04 EF05 EM07 5C059 KK37 PP38 MB03
Claims (8)
像データを用いて動画像を表す画像データに変換する画
像データ変換方法であって、 原画像の画像データに基づいて、ラインプロセスによっ
て表される色情報の不連続性を表す原画像の不連続情報
を生成し、 生成した不連続情報に基づいて原画像に含まれている物
体画像の輪郭を抽出すると共に、前記不連続情報に基づ
いて物体画像の輪郭をアウトライン化したアウトライン
情報を求めかつ、抽出した輪郭を用いて物体画像を表す
テクスチャ情報を求め、 前記アウトライン情報及びテクスチャ情報を含めて画像
データを符号化する画像データ変換方法。1. An image data conversion method for converting image data including color information of a plurality of continuous original images into image data representing a moving image, wherein the image data is converted by a line process based on the image data of the original image. Generating discontinuity information of the original image representing the discontinuity of the represented color information, extracting the contour of the object image included in the original image based on the generated discontinuity information, and Image data conversion method for obtaining outline information obtained by outlining the outline of an object image based on the extracted outline, obtaining texture information representing the object image using the extracted outline, and encoding image data including the outline information and the texture information .
線でアウトライン化し、前記色情報はパラメトリック曲
面で符号化することを特徴とする請求項1に記載の画像
データ変換方法。2. The image data conversion method according to claim 1, wherein the outline of the object image is outlined by a parametric curve, and the color information is encoded by a parametric curved surface.
る物体画像の輪郭に相当する外周不連続情報及び物体画
像の内部の内部不連続情報を、原画像の不連続情報とし
て生成することを特徴とする請求項1または2に記載の
画像データ変換方法。3. The discontinuity information generates, as discontinuity information of the original image, outer peripheral discontinuity information corresponding to the contour of the object image included in the original image and internal discontinuity information inside the object image. 3. The image data conversion method according to claim 1, wherein:
の原画像を定め、定めた基準の原画像について前記符号
化し、他の原画像について基準の原画像に含まれる物体
画像の変動を表すベクトル情報を求め、基準の原画像に
ついて符号化した画像データとベクトル情報とから動画
像を表す画像データに変換することを特徴とする請求項
1乃至請求項3の何れか1項に記載の画像データ変換方
法。4. A reference original image is determined from the plurality of continuous original images, the coding is performed on the determined reference original image, and a variation of an object image included in the reference original image is determined on other original images. 4. The method according to claim 1, further comprising obtaining vector information to be represented, and converting the encoded image data and the vector information of the reference original image into image data representing a moving image. 5. Image data conversion method.
画像の色情報を含む画像データを用いて動画像を表す画
像データに変換するための画像データ変換プログラムを
記録した記録媒体であって、 前記画像データ変換プログラムは、 色情報を含む原画像の画像データに基づいて、ラインプ
ロセスによって表される色情報の不連続性を表す原画像
の不連続情報を生成させ、 生成された不連続情報に基づいて原画像に含まれている
物体画像の輪郭を抽出させると共に、前記不連続情報に
基づいて物体画像の輪郭をアウトライン化したアウトラ
イン情報を求めさせかつ、抽出した輪郭を用いて物体画
像を表すテクスチャ情報を求めさせ、 前記アウトライン情報及びテクスチャ情報を含めて画像
データを符号化させることを特徴とする画像データ変換
プログラムを記録した記録媒体。5. A recording medium recording an image data conversion program for converting image data containing a plurality of continuous original images into image data representing a moving image by using a computer, the image data comprising: The conversion program generates discontinuity information of the original image representing discontinuity of the color information represented by the line process based on the image data of the original image including the color information, and generates the discontinuity information based on the generated discontinuity information. The outline information of the object image included in the original image is extracted, the outline information of the outline of the object image is obtained based on the discontinuity information, and the outline information is obtained. Wherein the image data is encoded including the outline information and the texture information. A recording medium recording the program.
線でアウトライン化され、前記色情報はパラメトリック
曲面で符号化されることを特徴とする請求項5に記載の
画像データ変換プログラムを記録した記録媒体。6. The recording medium according to claim 5, wherein the outline of the object image is outlined by a parametric curve, and the color information is encoded by a parametric curved surface.
る物体画像の輪郭に相当する外周不連続情報及び物体画
像の内部の内部不連続情報を、原画像の不連続情報とし
て生成させることを特徴とする請求項5または6に記載
の画像データ変換プログラムを記録した記録媒体。7. The discontinuity information generates, as discontinuity information of the original image, outer peripheral discontinuity information corresponding to the contour of the object image included in the original image and internal discontinuity information inside the object image. A recording medium on which the image data conversion program according to claim 5 is recorded.
の原画像を定めさせ、定めた基準の原画像について前記
符号化させ、他の原画像について基準の原画像に含まれ
る物体画像の変動を表すベクトル情報を求めさせ、基準
の原画像について符号化された画像データとベクトル情
報とから動画像を表す画像データに変換させることを特
徴とする請求項5乃至請求項7の何れか1項に記載の画
像データ変換プログラムを記録した記録媒体。8. A reference original image among the plurality of continuous original images is determined, the determined reference original image is encoded, and the other original images are included in the reference original image. 8. The method according to claim 5, wherein vector information representing a change is obtained, and image data representing a moving image is converted from image data and vector information encoded for a reference original image. A recording medium on which the image data conversion program according to the item is recorded.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP342699A JP2000201358A (en) | 1999-01-08 | 1999-01-08 | Image data converting method and recording medium in which image data conversion program is recorded |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP342699A JP2000201358A (en) | 1999-01-08 | 1999-01-08 | Image data converting method and recording medium in which image data conversion program is recorded |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000201358A true JP2000201358A (en) | 2000-07-18 |
Family
ID=11557061
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP342699A Pending JP2000201358A (en) | 1999-01-08 | 1999-01-08 | Image data converting method and recording medium in which image data conversion program is recorded |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000201358A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003161673A (en) * | 2001-07-17 | 2003-06-06 | Bandag Licensing Corp | Shearing graphic image machine |
| JP2006512838A (en) * | 2002-12-30 | 2006-04-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Encoding dynamic graphic content views |
| RU2295780C2 (en) * | 2002-02-27 | 2007-03-20 | Коника Минолта Холдингс, Инк. | System for creating data on moving images, method of data creation on moving images, program for data creation on moving objects and carrier for data recording |
-
1999
- 1999-01-08 JP JP342699A patent/JP2000201358A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003161673A (en) * | 2001-07-17 | 2003-06-06 | Bandag Licensing Corp | Shearing graphic image machine |
| RU2295780C2 (en) * | 2002-02-27 | 2007-03-20 | Коника Минолта Холдингс, Инк. | System for creating data on moving images, method of data creation on moving images, program for data creation on moving objects and carrier for data recording |
| JP2006512838A (en) * | 2002-12-30 | 2006-04-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Encoding dynamic graphic content views |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7161601B2 (en) | Synthesis of progressively-variant textures and application to arbitrary surfaces | |
| CN110490896B (en) | Video frame image processing method and device | |
| US5936628A (en) | Three-dimensional model processing method, and apparatus therefor | |
| CN113298936B (en) | A multi-RGB-D full-face texture restoration method based on deep learning | |
| CN111553837A (en) | An Artistic Text Image Generation Method Based on Neural Style Transfer | |
| CN112184585B (en) | Image completion method and system based on semantic edge fusion | |
| Zhang et al. | Portrait relief generation from 3D Object | |
| Wang et al. | Perception-guided multi-channel visual feature fusion for image retargeting | |
| CN110232724A (en) | A kind of Chinese character style image vector representation method | |
| CN114998538A (en) | Road generation method and device for virtual scene | |
| Nguyen et al. | High-Definition Texture Reconstruction for 3D Image-based Modelling. | |
| JP2000201358A (en) | Image data converting method and recording medium in which image data conversion program is recorded | |
| JP3782239B2 (en) | Image componentization method and recording medium recording image componentization program | |
| JP4043629B2 (en) | Image data conversion method, image componentization method, recording medium recording an image data conversion program, and recording medium recording an image componentization program | |
| CN116095515B (en) | Dynamic display method and device for static image and storage medium | |
| Bourguignon et al. | Relief: A modeling by drawing tool | |
| CN118196281A (en) | A triangular mesh extraction method based on segmentable neural radiation field | |
| JP2775122B2 (en) | Automatic contour extraction vectorization processing method of illustration data and processing device used for the method | |
| TWI771932B (en) | Image conversion method for developing tactile learning material | |
| JPH07334648A (en) | Image processing method and apparatus thereof | |
| Jini et al. | Image inpainting using image interpolation-an analysis | |
| Zhao et al. | A pencil drawing algorithm based on wavelet transform multiscale | |
| Johnston et al. | Single view 3D point cloud reconstruction using novel view synthesis and self-supervised depth estimation | |
| CN116228940B (en) | Method, device and storage medium for matching animation skeletons based on topological structure | |
| CN118608702B (en) | Intelligent three-dimensional modeling method and device based on machine learning |