[go: up one dir, main page]

JPH08153201A - Image area extraction method - Google Patents

Image area extraction method

Info

Publication number
JPH08153201A
JPH08153201A JP6321533A JP32153394A JPH08153201A JP H08153201 A JPH08153201 A JP H08153201A JP 6321533 A JP6321533 A JP 6321533A JP 32153394 A JP32153394 A JP 32153394A JP H08153201 A JPH08153201 A JP H08153201A
Authority
JP
Japan
Prior art keywords
image
color
shape
ellipsoidal
ellipsoid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6321533A
Other languages
Japanese (ja)
Inventor
Tomoo Mitsunaga
知生 光永
Takushi Totsuka
卓志 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP6321533A priority Critical patent/JPH08153201A/en
Publication of JPH08153201A publication Critical patent/JPH08153201A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】本発明は、画像領域抽出方法について、クロマ
キー処理の精度を格段的に向上させる。 【構成】色情報を3次元状に配した色空間上に画像中の
所定単位毎の画素データの色情報を配して得られる色分
布を任意個数の3次元楕円体面で近似し、当該楕円体面
を用いて色空間を分割する。これにより、クロマキー処
理の精度を格段的に向上させることができる。
(57) [Summary] [Object] The present invention significantly improves the accuracy of chroma key processing in an image region extraction method. A color distribution obtained by arranging color information of pixel data for each predetermined unit in an image on a color space in which color information is arranged three-dimensionally is approximated by an arbitrary number of three-dimensional ellipsoidal surfaces, Divide the color space using the body surface. As a result, the accuracy of chroma key processing can be significantly improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する 産業上の利用分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 作用 実施例 (1)本発明の原理(図1〜図6) (2)クロマキー処理への適用(図7〜図15) 発明の効果[Table of Contents] The present invention will be described in the following order: Industrial field of prior art Problems to be solved by the invention Means for solving the problem Action Example (1) Principle of the present invention (FIGS. 1 to 6) ) (2) Application to chroma key processing (FIGS. 7 to 15)

【0002】[0002]

【産業上の利用分野】本発明は画像領域抽出方法に関
し、例えば映像制作に関する作業のうち画像合成処理を
行うときに必要となるキー信号(マスク画像)を生成す
る際に適用し得る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image area extracting method, and can be applied to, for example, generating a key signal (mask image) necessary for performing an image synthesizing process in a work related to video production.

【0003】[0003]

【従来の技術】従来、色情報を3次元状に配した色空間
上の空間分割によつて各画素を分類する画像領域分割方
法は、画像合成技術の1つであるクロマキーなどに応用
される技術である。一般にこのクロマキー処理は、色差
信号に注目した方法であり、色空間という観点からいえ
ば、輝度軸に垂直な面に投影した色分布をその面上の扇
形で分割しているに等しい。
2. Description of the Related Art Conventionally, an image area dividing method for classifying each pixel by space division on a color space in which color information is arranged in a three-dimensional manner is applied to chroma key, which is one of image combining techniques. It is a technology. In general, this chroma key processing is a method that focuses on color difference signals, and from the viewpoint of color space, it is equivalent to dividing a color distribution projected on a plane perpendicular to the luminance axis into a fan shape on that plane.

【0004】このクロマキーを用いた場合の利点は、第
1に、本来物体の色分布は輝度方向に広がる性質を有す
るので、輝度方向を投影することによつて色分布の形状
を単純かつコンパクトにできることである。第2に、扇
形のような単純な分割形状であれば、色分布が与えられ
たとき、これを囲むに十分な大きさ、位置をもつ形状を
自動的に計算できることである。
The advantage of using this chroma key is that, firstly, since the color distribution of an object originally has the property of spreading in the luminance direction, the shape of the color distribution can be made simple and compact by projecting in the luminance direction. It is possible. Secondly, with a simple divided shape such as a fan shape, when a color distribution is given, a shape having a size and a position sufficient to surround it can be automatically calculated.

【0005】またクロマキー処理は予め合成を目的とし
た均一な背景で撮影された画像に対して用いられ、予め
わかつている均一な背景の画素とそれ以外の画素とに分
類する。従つてこのような背景の均一性を仮定できる場
合に使用するという使用目的では、色空間の分割形状は
特に多様性、精度を追究する必要はなかつた。
Further, the chroma key processing is used for an image photographed with a uniform background for the purpose of composition in advance, and it is classified into pixels of a uniform background which have been previously recognized and other pixels. Therefore, it is not necessary to pursue the diversity and precision of the divided shape of the color space for the purpose of use when it is possible to assume the uniformity of the background.

【0006】またクロマキー処理においても、背景色の
写り込み、背景色のばらつきを問題とする場合では、色
差信号だけでは対応できない輝度方向の差異を考慮する
必要がある。このためRGB空間上の多面体形状による
分割を行う方法が考案されている(「多面体スライスを
用いたクロマキーのソフトウエア」三島也寸志、NICOGR
RAPH論文集、1992年)この方法では、多面体の頂点数を
多くするほど色分布形状の多様性に対応できる。ここで
RGB空間とは、赤(R)、緑(G)、青(B)の3色
の強度によつて色を表現する空間を言う。
Also in the chroma key processing, when the reflection of the background color and the variation of the background color are problems, it is necessary to consider the difference in the luminance direction which cannot be dealt with by the color difference signal alone. For this reason, a method has been devised to perform division based on the shape of a polyhedron in the RGB space (“Chromakey software using polyhedron slices”, Yasushi Mishima, NICOGR
With this method, the more the number of vertices of a polyhedron, the greater the variety of color distribution shapes. Here, the RGB space refers to a space in which colors are represented by the intensities of three colors of red (R), green (G), and blue (B).

【0007】[0007]

【発明が解決しようとする課題】ところで種々の画像す
なわち任意背景の画像にクロマキーを適用するために
は、背景色と対象物色の多様な組合せに対応できる空間
分割方法を用いる必要がある。ところが従来のクロマキ
ーの空間分割方法では、色分布の3次元形状に合致しな
い形状に色空間を分割するため、輝度方向を無視するこ
とになり同系色で輝度差のある色の物体同士を分離する
ことができないという問題があつた。このような色の組
合せは、任意背景の画像では、同系色物体の重なり、写
り込みや影等で出現するので無視することはできない。
By the way, in order to apply the chroma key to various images, that is, images of arbitrary backgrounds, it is necessary to use a space division method capable of coping with various combinations of background colors and object colors. However, in the conventional chroma-key space division method, since the color space is divided into a shape that does not match the three-dimensional shape of the color distribution, the luminance direction is ignored, and objects of similar colors with different luminance are separated from each other. There was a problem that I could not do it. Such a color combination cannot be ignored because it appears in an image of an arbitrary background as overlapping of similar color objects, reflection, shadow, and the like.

【0008】また上述のようにRGB空間上の多面体形
状による分割方法を用いると、同系色で輝度差のある色
分布を分離することはできるが、多面体の頂点数が多
く、多面体形状を決定するパラメータである頂点座標を
色分布より一意に決めることが困難であるため、多面体
形状の決定が煩雑になるという問題があつた。さらに多
数の平面についてこれらの平面が多面体の内側か外側か
を判別しなければならず、この判別処理が煩雑であると
いう問題があつた。
Further, as described above, when the dividing method based on the polyhedral shape in the RGB space is used, it is possible to separate color distributions having similar colors but different luminances, but the number of vertices of the polyhedron is large and the polyhedral shape is determined. Since it is difficult to uniquely determine the vertex coordinates, which is a parameter, from the color distribution, there is a problem that determination of the polyhedron shape becomes complicated. Further, there is a problem that it is necessary to determine whether these planes are inside or outside the polyhedron for a large number of planes, and this discrimination process is complicated.

【0009】本発明は以上の点を考慮してなされたもの
で、クロマキー処理の精度を向上し得る画像領域抽出方
法を提案しようとするものである。
The present invention has been made in consideration of the above points, and it is an object of the present invention to propose an image area extraction method capable of improving the accuracy of chroma key processing.

【0010】[0010]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、画像中より所望の領域を抽出する
画像領域抽出方法において、色情報を3次元状に配した
色空間上に画像中の所定単位毎の画素データの色情報を
配して得られる色分布を任意個数の3次元楕円体面で近
似し、当該楕円体面を用いて色空間を分割することによ
り所望の領域を抽出する。
In order to solve such a problem, according to the present invention, in an image area extracting method for extracting a desired area from an image, an image is extracted in a color space in which color information is three-dimensionally arranged. The color distribution obtained by arranging the color information of the pixel data for each predetermined unit is approximated by an arbitrary number of three-dimensional ellipsoidal surfaces, and the desired space is extracted by dividing the color space using the ellipsoidal surfaces.

【0011】[0011]

【作用】色情報を3次元状に配した色空間上に画像中の
所定単位毎の画素データの色情報を配して得られる色分
布を任意個数の3次元楕円体面で近似し、当該楕円体面
を用いて色空間を分割することにより所望の領域を抽出
する。これにより、クロマキー処理の精度を格段的に向
上させることができる。
The color distribution obtained by arranging the color information of the pixel data for each predetermined unit in the image on the color space in which the color information is arranged three-dimensionally is approximated by an arbitrary number of three-dimensional ellipsoidal surfaces, A desired area is extracted by dividing the color space using the body surface. As a result, the accuracy of chroma key processing can be significantly improved.

【0012】[0012]

【実施例】以下図面について、本発明の一実施例を詳述
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.

【0013】(1)本発明の原理 本発明による画像領域抽出方法においては、色分布形状
を楕円体で近似し、この楕円体形状を分割形状として用
いて色空間を分割することにより、クロマキー処理の精
度を向上させるようになされている。以下、物体の色分
布形状が楕円体で近似できる形状であることを示し、次
に色分布情報より楕円体形状を決定するための計算方法
について説明する。
(1) Principle of the present invention In the image region extraction method according to the present invention, the color distribution shape is approximated by an ellipsoid, and the ellipsoidal shape is used as a division shape to divide the color space, thereby performing chromakey processing. Is designed to improve the accuracy of. Hereinafter, it will be shown that the color distribution shape of the object is a shape that can be approximated by an ellipsoid, and then a calculation method for determining the ellipsoid shape from the color distribution information will be described.

【0014】まずRGB空間における物体の色分布例を
図1(参考図面1に対応)に示す。一般に単色の物体
は、輝度方向に延びる棒状の分布又は高輝度になるに従
つて屈曲するバナナ状の分布をなしている。次に物体の
部分領域の色分布例を図2(参考図面2に対応)に示
す。これらの分布形状は、楕円体で近似できるようなほ
ぼ真つ直ぐの棒状か又は小塊状である。図1及び図2
(参考図面1及び参考図面2)より、物体全体の色分布
はバナナ状に屈曲する場合があるが、物体を画像中で部
分領域に分割すれば楕円体で近似できる分布形状になる
ことがわかる。従つて楕円体の組合せで色分布を近似す
る方法は有効である。
First, an example of the color distribution of an object in the RGB space is shown in FIG. 1 (corresponding to reference drawing 1). Generally, a monochrome object has a rod-shaped distribution extending in the luminance direction or a banana-shaped distribution that bends as the luminance becomes higher. Next, FIG. 2 (corresponding to reference drawing 2) shows an example of the color distribution of the partial region of the object. These distribution shapes are substantially straight rod shapes or blob shapes that can be approximated by ellipsoids. 1 and 2
From (Reference Drawing 1 and Reference Drawing 2), it can be seen that the color distribution of the entire object may be bent like a banana, but if the object is divided into partial areas in the image, the distribution shape can be approximated by an ellipsoid. . Therefore, the method of approximating the color distribution by the combination of ellipsoids is effective.

【0015】以下、画像中の与えられた領域の画素デー
タより楕円体形状を決定する方法について説明する。R
GB空間における楕円体面を図3に示す。楕円体面は次
式(1)及び(2)
A method of determining the ellipsoidal shape from the pixel data of a given area in the image will be described below. R
An ellipsoidal surface in the GB space is shown in FIG. The ellipsoidal surface is expressed by the following equations (1) and (2)

【数1】 [Equation 1]

【数2】 によつて表すことができる。図3において、x、y、z
は楕円体の軸に平行な座標値、cは楕円体の中心であ
る。またα、β、γは楕円体の3つの径の大きさの比率
を表し、ρは径の大きさを決める係数(以下スケール係
数と言う)である。
[Equation 2] Can be represented by In FIG. 3, x, y, z
Is a coordinate value parallel to the axis of the ellipsoid, and c is the center of the ellipsoid. Further, α, β and γ represent the ratio of the size of the three diameters of the ellipsoid, and ρ is a coefficient (hereinafter referred to as scale coefficient) that determines the size of the diameter.

【0016】(1)式及び(2)式より、楕円体の形状
を決定するには16個のパラメータを決定する必要がある
ことがわかる。このうち、スケール係数ρを除く15個の
パラメータの決定方法を図4に示す。まずステツプSP
1より開始して、ステツプSP2において、与えられた
領域の画素(画素数N)を用いて、3つの変数r、g、
bのそれぞれの平均値μと分散共分散行列とを作成す
る。
From equations (1) and (2), it can be seen that 16 parameters must be determined to determine the shape of the ellipsoid. Of these, the method of determining 15 parameters excluding the scale factor ρ is shown in FIG. First step SP
Starting from 1, at step SP2, three variables r, g, and
Create the respective mean value μ and the variance-covariance matrix of b.

【0017】次にステツプSP3において、ステツプS
P2で得られた分散共分散行列の3つの固有値λと固有
ベクトルl、m、nを計算し、ステツプSP4におい
て、求めた値を次式(3)、(4)
Next, in step SP3, step S
The three eigenvalues λ and the eigenvectors l, m, and n of the variance-covariance matrix obtained in P2 are calculated, and the obtained values are calculated in step SP4 by the following equations (3) and (4).

【数3】 (Equation 3)

【数4】 のように当てはめて、ステツプSP5において処理を終
了する。ここでスケール係数ρ=3として、楕円体を決
定した例を図5(参考図面3に対応)に示す。図5にお
いて、ワイヤーフレームのダイヤモンド形状(参考図面
3において黄色で示す)が楕円体の軸の向きと各径の大
きさを示している。
[Equation 4] Then, the processing is ended in step SP5. Here, an example in which an ellipsoid is determined with the scale coefficient ρ = 3 is shown in FIG. 5 (corresponding to reference drawing 3). In FIG. 5, the diamond shape of the wire frame (shown in yellow in Reference Drawing 3) indicates the direction of the axis of the ellipsoid and the size of each diameter.

【0018】次に上述のようにして決定された楕円体の
形状を目的に応じて調節する楕円体形状の調節方法につ
いて説明する。楕円体面は2次曲面なので、画素が楕円
体の内側の領域に存在するか外側の領域に存在するかの
判別は(1)式を不等式にして、不等号の向きを判別す
ることにより行う。この判別を利用して、与えられた領
域中の楕円体の内側にあるべき画素と外側にあるべき画
素とを分離する楕円体面の決定方法について図6に示
す。
Next, a method of adjusting the shape of the ellipsoid determined as described above according to the purpose will be described. Since the ellipsoidal surface is a quadratic surface, the determination as to whether the pixel exists in the inner region or the outer region of the ellipsoid is performed by making equation (1) an inequality and determining the direction of the inequality sign. FIG. 6 shows a method of determining an ellipsoidal surface that separates pixels that should be inside and pixels that should be outside the ellipsoid in a given region by using this discrimination.

【0019】まずステツプSP1より開始して、ステツ
プSP2において、画像中の与えられた領域において、
楕円体の内側にあるべき画素と外側にあるべき画素とを
それぞれ指定し、指定した全画素について内側にあるべ
き確率pを与える。次にステツプSP3において、内側
にあるべき画素を用いて、図2で説明したパラメータ決
定方法によつてスケール係数ρ以外のパラメータを決定
する。次にステツプSP4において、スケール係数ρの
値を変化させながら、次式(5)
First, in step SP2, starting from step SP1, in a given area in the image,
Pixels that should be inside and pixels that are outside of the ellipsoid are designated respectively, and the probability p that they should be inside is given for all the designated pixels. Next, at step SP3, the parameters other than the scale factor ρ are determined by using the pixel which should be inside, by the parameter determination method described in FIG. Next, in step SP4, while changing the value of the scale factor ρ, the following equation (5)

【数5】 の評価式で求められるσを計算し、判別の結果をq(内
側の場合はq=1、外側の場合はq=0)とする。ステ
ツプSP5において、σが最小となるスケール係数ρを
選択し、楕円体の大きさを決定する。
(Equation 5) Σ obtained by the evaluation formula is calculated, and the determination result is q (q = 1 in the case of inside, q = 0 in the case of outside). At step SP5, the scale factor ρ that minimizes σ is selected to determine the size of the ellipsoid.

【0020】(2)クロマキー処理への適用 図7に示すように、入力画像中の対象物領域を色によつ
て抽出するクロマキー処理において、上述のように決定
される楕円体形状を用いて色空間を分割し、マスク画像
を得る。この実施例では、楕円体形状を決定するために
参照画像の入力を必要とする。参照画像より、背景の色
分布情報、対象物の色分布情報又は背景及び対象物の両
方の色分布情報を得て、上述の方法を用いて楕円体形状
を決定する。
(2) Application to Chromakey Processing As shown in FIG. 7, in the chromakey processing for extracting the object region in the input image by color, the color is calculated using the ellipsoidal shape determined as described above. The space is divided and the mask image is obtained. This embodiment requires input of a reference image to determine the ellipsoidal shape. The color distribution information of the background, the color distribution information of the object or the color distribution information of both the background and the object is obtained from the reference image, and the ellipsoidal shape is determined using the above-described method.

【0021】ここで参照画像としては、入力画像に近い
色分布を示す画像を用いる。具体的には、(1)入力画
像そのもの、(2)入力画像に時間的に近い画像、
(3)入力画像の背景のみの画像、(4)入力画像の対
象物のみの画像を用いる。入力画像の背景のみの画像、
入力画像の対象物のみの画像を参照画像とする場合に
は、参照画像の全画素の色分布を背景又は対象物の色分
布として楕円体形状を決定し、入力画像において参照画
像にない色の画素を判別する従来のクロマキー処理に近
い処理方法を用いる。
An image showing a color distribution close to that of the input image is used as the reference image. Specifically, (1) the input image itself, (2) an image temporally close to the input image,
(3) An image of only the background of the input image, and (4) an image of only the object of the input image are used. An image with only the background of the input image,
When the image of only the object of the input image is used as the reference image, the ellipsoidal shape is determined by using the color distribution of all the pixels of the reference image as the color distribution of the background or object, A processing method similar to the conventional chroma key processing for discriminating pixels is used.

【0022】また入力画像そのもの、入力画像に時間的
に近い画像を参照画像とする場合には、参照画像中の背
景と対象物の領域とを指定することによつて、背景と対
象物とを最も適切に分離する楕円体形状を決定すること
ができる。この処理については後述する。
When the input image itself or an image that is temporally close to the input image is used as the reference image, the background and the object are separated by designating the background and the area of the object in the reference image. The ellipsoidal shape that best separates can be determined. This process will be described later.

【0023】この実施例で得られる出力画像は、対象物
領域を示す2値(マスク)画像である。出力画像は、画
素毎に対象物領域か否かの判別による画像領域分割処理
で得る。画素毎の判別は、(1)式を不等式にしたとき
の不等号の向きで判別することができる。(1)式を得
るために本発明を用いる。
The output image obtained in this embodiment is a binary (mask) image showing the object area. The output image is obtained by the image area division processing by determining whether each pixel is the object area. The determination for each pixel can be performed by the direction of the inequality sign when the equation (1) is set to the inequality. The present invention is used to obtain equation (1).

【0024】楕円体形状の決定処理の全体の流れを図8
に示す。図8に示すように、楕円体の形状は、色情報の
取得及び色分布の主成分分析による楕円体概形の決定
と、σ最小化によるスケール係数ρの決定との2つの処
理によつて決定される。ここでこの実施例では、楕円体
概形の決定とスケール係数ρの決定との2つの処理を自
動的に行うために、参照画像中の対象物領域を示すマス
ク画像を用いる。
The overall flow of the ellipsoidal shape determination process is shown in FIG.
Shown in As shown in FIG. 8, the shape of the ellipsoid is determined by two processes, that is, the determination of the outline of the ellipsoid by obtaining the color information and the principal component analysis of the color distribution, and the determination of the scale factor ρ by minimizing σ. It is determined. Here, in this embodiment, a mask image showing an object region in the reference image is used in order to automatically perform the two processes of determining the rough ellipse shape and determining the scale coefficient ρ.

【0025】まず色情報の取得及び色分布の主成分分析
による楕円体概形の決定手順の概略的な流れを図9に示
す。図9に示すように、楕円体概形はデータ配列の生成
処理、平均値の算出及び分散共分散行列の作成、固有値
及び固有ベクトルの算出より決定される。ここで入力デ
ータは、参照画像中の画素の位置(x,y)における
R、G、Bの値R(x,y)、G(x,y)、B(x,
y)、参照画像中の画素の位置(x,y)に対応するマ
スク画像中の画素の位置mask(x,y)、フラグflag
(0又は1)、参照画像のx軸及びy軸における大きさ
xsize、ysizeとする。
First, FIG. 9 shows a schematic flow of a procedure for determining an ellipsoidal outline by obtaining color information and principal component analysis of color distribution. As shown in FIG. 9, the ellipsoidal outline is determined by data array generation processing, average value calculation, variance-covariance matrix generation, and eigenvalue and eigenvector calculation. Here, the input data is the values R (x, y), G (x, y), B (x, Y) of R, G, B at the pixel position (x, y) in the reference image.
y), the position (x, y) of the pixel in the mask image corresponding to the position (x, y) of the pixel in the reference image, flag flag
(0 or 1), and the sizes of the reference image on the x-axis and the y-axis are xsize and ysize.

【0026】まずデータ配列生成の処理手順を図10に
示す。ステツプSP1より開始して、ステツプSP2に
おいて、カウント数iを「0」に設定し、ステツプSP
3において座標(x,y)を(0,0)に設定する。次
にステツプSP4において、座標(x,y)が(xsize
−1、ysize−1)であるか否かを判定する。
First, FIG. 10 shows a processing procedure for data array generation. Starting from step SP1, in step SP2, the count number i is set to "0", and step SP
At 3, the coordinates (x, y) are set to (0, 0). Next, at step SP4, the coordinates (x, y) are (xsize
-1, ysize-1) is determined.

【0027】「真」である場合には、ステツプSP5に
進んで参照画像中の画素の位置(x,y)に対応するマ
スク画像の画素の位置mask(x,y)にフラグが立つか
否か(「1」か「0」か)を判定する。「真」すなわち
フラグが立つ場合には、ステツプSP6に進んで、現在
注目している画素についてのR(x,y)、G(x,
y)、B(x,y)をそれぞれr[i]、g[i]、b
[i]に代入し、カウント数iをインクリメントしてス
テツプSP7に進む。ステツプSP5において「偽」す
なわちフラグが立たない場合には直接ステツプSP7に
進む。
If it is "true", the process proceeds to step SP5, and a flag is set at the pixel position mask (x, y) of the mask image corresponding to the pixel position (x, y) in the reference image. ("1" or "0") is determined. If "true", that is, if the flag is set, the process proceeds to step SP6, where R (x, y), G (x,
y) and B (x, y) are r [i], g [i], and b, respectively.
Substitute in [i], increment the count number i and proceed to step SP7. If "false", that is, the flag is not set in step SP5, the process directly proceeds to step SP7.

【0028】ステツプSP7において、画素の位置
(x,y)を次の位置(x,y)に設定した後ステツプ
SP4に戻る。このように参照画像の全ての画素につい
てステツプSP4からステツプSP7までの処理ループ
が終了すると、参照画像中のフラグが立つた画素の数す
なわちiの数が分かり、このiの数をステツプSP8に
おいてデータ数datanum とし、ステツプSP9において
処理を終了する。この結果得られる出力データはデータ
の数datanum (i個)、i個の画素についてのR、G、
Bの値r[i]、g[i]、b[i]となる。
In step SP7, the pixel position (x, y) is set to the next position (x, y), and then the process returns to step SP4. When the processing loop from step SP4 to step SP7 is completed for all pixels of the reference image in this way, the number of flagged pixels in the reference image, that is, the number of i, is known, and the number of i is stored in step SP8. The number of datanum is set, and the process ends in step SP9. The resulting output data is the number of data datanum (i), R, G for i pixels,
The values of B are r [i], g [i], and b [i].

【0029】続いてデータ配列生成処理で得られたr
[i]、g[i]、b[i]のそれぞれの平均値μと分
散共分散行列ベクトルVとを求める。平均値μ及び分散
共分散行列ベクトルVの計算手順を図11に示す。まず
ステツプSP1より開始して、ステツプSP2におい
て、i個の画素より得られたR、G、Bの値r[i]、
b[i]、g[i]のそれぞれの平均値ベクトルμr、
μg、μbを求める。
Then, r obtained by the data array generation process
The average value μ of each of [i], g [i], and b [i] and the variance-covariance matrix vector V are obtained. FIG. 11 shows the procedure for calculating the mean value μ and the variance-covariance matrix vector V. First, in step SP2, starting from step SP1, the values r [i] of R, G, B obtained from i pixels,
average value vector μr of b [i], g [i],
Calculate μg and μb.

【0030】次にステツプSP3において、ステツプS
P2で得られた平均値ベクトルμr、μg、μbと、r
[i]、g[i]、b[i]、データ数datanum とに基
づいて分散共分散行列ベクトルVを求め、ステツプSP
4において処理を終了する。ここで例えば分散共分散行
列ベクトルVの成分Vrgは図11のステツプSP3に示
す式によつて求めることができ、他の成分についても同
様である。
Next, in step SP3, step S
The average value vector μr, μg, μb obtained in P2 and r
The covariance matrix vector V is calculated based on [i], g [i], b [i], and the number of data datanum, and step SP
At 4, the process ends. Here, for example, the component Vrg of the variance-covariance matrix vector V can be obtained by the equation shown in step SP3 of FIG. 11, and the same applies to the other components.

【0031】続いて分散共分散行列ベクトルVの固有値
の計算手順を図12に示す。この実施例では、ヤコビ法
(Jacobi's method )を用いて固有値を算出する。まず
ステツプSP1より開始して、ステツプSP2におい
て、ヤコビ法を用いて分散共分散行列ベクトルVの固有
値λ1、λ2、λ3を求めると共に、固有ベクトルl、
m、nを求め、ステツプSP3において処理を終了す
る。
FIG. 12 shows the procedure for calculating the eigenvalues of the variance-covariance matrix vector V. In this embodiment, the eigenvalue is calculated using the Jacobi's method. First, starting from step SP1, in step SP2, the eigenvalues λ1, λ2, and λ3 of the variance-covariance matrix vector V are obtained using the Jacobian method, and the eigenvector l,
After obtaining m and n, the processing is ended in step SP3.

【0032】以上のようにして楕円体の概形が決定する
と、次にスケール係数ρを決定する。このスケール係数
ρは(5)式で得られるσが最小となるときのスケール
係数ρに決定する。スケール係数ρの算出手順を図13
に示す。ここで図8に示すようにマスク画像を楕円体の
内側にあるべき確率値を与える入力とし、この確率値を
用いてσ最小化を計算する。入力データは、上述の楕円
体概形の決定手順で求められたr[i]、g[i]、b
[i]、平均値ベクトルμr、μg、μb、分散共分散
行列ベクトルV、固有値λ1、λ2、λ3、固有ベクト
ルl、m、n、データ数datanum である。
When the outline of the ellipsoid is determined as described above, the scale factor ρ is then determined. This scale coefficient ρ is determined as the scale coefficient ρ when σ obtained by the equation (5) is the minimum. The calculation procedure of the scale factor ρ is shown in FIG.
Shown in Here, as shown in FIG. 8, the mask image is used as an input that gives a probability value that should be inside the ellipsoid, and σ minimization is calculated using this probability value. The input data is r [i], g [i], b obtained by the above-described procedure for determining the ellipsoidal outline.
[I], mean value vector μr, μg, μb, variance / covariance matrix vector V, eigenvalues λ1, λ2, λ3, eigenvectors 1, m, n, and data number datanum.

【0033】まずステツプSP1より開始して、ステツ
プSP2において、スケール係数ρの最大値 maxρを計
算する。ここでスケール係数ρの最大値 maxρの算出手
順を図14に示す。まずステツプSP1より開始して、
ステツプSP2において、カウント数iを「0」に設定
し、ステツプSP3においてスケール係数ρを「0」に
設定する。次にステツプSP4において、カウント数i
がデータ数datanum より少ないか否かを判定する。
First, starting from step SP1, the maximum value maxρ of the scale factor ρ is calculated at step SP2. FIG. 14 shows the procedure for calculating the maximum value maxρ of the scale factor ρ. First, start from step SP1,
At step SP2, the count number i is set to "0", and at step SP3, the scale coefficient ρ is set to "0". Next, at step SP4, the count number i
Is less than the number of data datanum.

【0034】「真」である場合には、ステツプSP5に
進んで(4)式を用いてi番目の画素について座標値
x、y、zを求め、この座標値x、y、zを(3)式に
代入して一時的な変数としてのスケール係数 tmpρを求
める。次にステツプSP6に進んでスケール係数 tmpρ
がステツプSP3で設定されたスケール係数ρより大き
いか否かを判定する。「真」である場合にはステツプS
P7に進み、スケール係数ρにこの tmpρの値を代入す
る。次にステツプSP8においてカウント数iをインク
リメントし、ステツプSP4に戻る。このようにステツ
プSP4からステツプSP8までの処理ループを、カウ
ント数iがデータ数datanum に達するまで実行する。
If it is "true", the process proceeds to step SP5 to obtain the coordinate values x, y, z for the i-th pixel using the equation (4), and the coordinate values x, y, z are (3 ) To obtain the scale factor tmpρ as a temporary variable. Next, in step SP6, the scale factor tmpρ
Is larger than the scale coefficient ρ set in step SP3. If true, step S
Proceed to P7 and substitute the value of tmpρ for the scale factor ρ. Next, in step SP8, the count number i is incremented, and the process returns to step SP4. In this way, the processing loop from step SP4 to step SP8 is executed until the count number i reaches the data number datanum.

【0035】この結果i個のスケール係数ρのうちスケ
ール係数ρが最大となるスケール係数 maxρが求まり、
ステツプSP9においてスケール係数ρの最大値 maxρ
の平方根をスケール係数ρの最大値 maxρとして、ステ
ツプSP10において処理を終了する。
As a result, the scale coefficient maxρ that maximizes the scale coefficient ρ among the i scale coefficients ρ is obtained,
The maximum value of the scale factor ρ max ρ in step SP9
The square root of is set to the maximum value maxρ of the scale factor ρ, and the processing is ended in step SP10.

【0036】図13に戻り、ステツプSP2においてス
ケール係数ρの最大値 maxρが得られると、ステツプS
P3に進んで tmpρにスケール係数ρの最大値 maxρを
代入する。次にステツプSP4において、 tmpρがスケ
ール係数ρの最小値 minρよりも大きいか否かを判定す
る。「真」である場合には、ステツプSP5に進んでσ
を計算する。ここでσの計算手順を図15に示す。入力
データは、固有値λ1、λ2、λ3、固有値ベクトル
l、m、n、平均値ベクトルμr、μg、μb、R
(x,y)、G(x,y)、B(x,y)、mask(x,
y)、xsise、ysiseである。
Returning to FIG. 13, when the maximum value maxρ of the scale factor ρ is obtained in step SP2, step S
Go to P3 and substitute the maximum value maxρ of the scale factor ρ in tmpρ. Next, in step SP4, it is determined whether tmpρ is larger than the minimum value minρ of the scale coefficient ρ. If "true", proceed to step SP5 and
Is calculated. Here, the calculation procedure of σ is shown in FIG. The input data are eigenvalues λ1, λ2, λ3, eigenvalue vectors 1, m, n, average value vectors μr, μg, μb, R.
(X, y), G (x, y), B (x, y), mask (x,
y), xsise, ysise.

【0037】まずステツプSP1より開始して、ステツ
プSP2において、誤差の合計sumerrorを「0」に設定
し、ステツプSP3に進んで位置(x,y)を(0,
0)に設定する。次にステツプSP4に進み、位置
(x,y)が(xsise−1、ysise−1)であるか否か
を判定する。「真」である場合には、ステツプSP5に
進み、位置(x,y)におけるR、G、Bの値を(4)
式に代入して得られる座標値u、v、wを求める。次に
ステツプSP6に進んで、 tmpρが、ステツプSP5で
求められた座標値u、v、wを(3)式のx、y、zに
代入して得られるスケール係数ρより大きいか否かを判
定する。
First, in step SP2, starting from step SP1, the total sum error of errors is set to "0", and the process proceeds to step SP3 to set the position (x, y) to (0,
Set to 0). Next, in step SP4, it is determined whether or not the position (x, y) is (xsise-1, ysise-1). If it is "true", the flow advances to step SP5 to set the values of R, G, B at the position (x, y) to (4).
The coordinate values u, v, w obtained by substituting in the formula are obtained. Next, in step SP6, it is determined whether or not tmpρ is larger than a scale coefficient ρ obtained by substituting the coordinate values u, v, w obtained in step SP5 into x, y, z of the equation (3). judge.

【0038】「真」である場合にはステツプSP7に進
んでqを「1」に設定し、「偽」である場合にはステツ
プSP8に進んでqを「0」に設定する。次にステツプ
SP9において誤差の合計sumerrorに、参照画像とマス
ク画像の位置(x,y)の画素における誤差を2乗した
値を加算する。次にステツプSP10に進んで画素の位
置(x,y)を次の位置(x,y)に設定した後ステツ
プSP4に戻る。このようにステツプSP4からステツ
プSP10までの処理ループを実行することにより、参
照画像とマスク画像の対応する全ての画素についてそれ
ぞれ求められる誤差を2乗した値の合計sumerrorが求ま
る。
If "true", the process proceeds to step SP7 to set q to "1". If "false", the process proceeds to step SP8 to set q to "0". Next, in step SP9, a value obtained by squaring the error in the pixel at the position (x, y) of the reference image and the mask image is added to the total error sumerror. Next, in step SP10, the pixel position (x, y) is set to the next position (x, y), and then the process returns to step SP4. By executing the processing loop from step SP4 to step SP10 in this way, the sum sumerror of the squared values of the errors obtained for all the corresponding pixels of the reference image and the mask image is obtained.

【0039】このようにして全ての画素についての誤差
の合計sumerrorが求まると、ステツプSP11に進み、
誤差の合計sumerrorを画素数Nで除した値の平方根を求
める。すなわち(5)式よりσを求めてステツプSP1
2で処理を終了する。
When the total sum error of all the pixels is obtained in this way, the process proceeds to step SP11,
A square root of a value obtained by dividing the total error sumerror by the number of pixels N is obtained. That is, σ is obtained from equation (5) and step SP1
The process ends at 2.

【0040】このようにしてσが求まると、図13のス
テツプSP6に進んでステツプSP5で求められたσが
σの最小値 minσより小さいか否かを判定する。「真」
である場合には、ステツプSP7に進んでσの最小値 m
inσにステツプSP5で求められたσを代入すると共
に、スケール係数ρに tmpρを代入してステツプSP8
に進む。ステツプSP6において「偽」となつた場合に
は直接ステツプSP8に進む。
When .sigma. Is obtained in this way, it proceeds to step SP6 in FIG. 13 and it is determined whether .sigma. Obtained in step SP5 is smaller than the minimum value min.sigma. "true"
If it is, the process proceeds to step SP7 and the minimum value of σ m
Substituting σ obtained in step SP5 for inσ and tmpρ for scale coefficient ρ, step SP8
Proceed to. If "false" is obtained in step SP6, the process directly proceeds to step SP8.

【0041】ステツプSP8において tmpρをΔρだけ
減らした後、ステツプSP4に戻る。このように tmpρ
がスケール係数ρの最小値 minσ以下になるまでステツ
プSP4からステツプSP8までの処理ループを実行
し、 tmpρがスケール係数ρの最小値 minσ以下になつ
たときのスケール係数ρを得てステツプSP9において
処理を終了する。
After reducing tmpρ by Δρ in step SP8, the process returns to step SP4. Thus tmpρ
Executes the processing loop from step SP4 to step SP8 until is less than the minimum value minσ of the scale coefficient ρ, and obtains the scale coefficient ρ when tmpρ is less than the minimum value minσ of the scale coefficient ρ and processes at step SP9. To finish.

【0042】以上のように求められたσが最小となつと
きのスケール係数ρを選択して、図9で求められた楕円
体の概形の大きさを決定する。この決定した楕円体形状
を分割形状としてクロマキー処理に適用することによ
り、クロマキー処理の精度を向上させることができる。
The scale factor ρ when σ obtained as described above is the minimum is selected, and the size of the approximate shape of the ellipsoid obtained in FIG. 9 is determined. By applying the determined ellipsoidal shape to the chroma key processing as the divided shape, the accuracy of the chroma key processing can be improved.

【0043】以上の構成によれば、RGB空間における
物体部分領域の示す色分布が棒状をなすことを利用して
これを内包する楕円体面を求め、この楕円体面によつて
色空間を分割したことにより、クロマキー処理の精度を
一段と向上させることができる。また上述の構成によれ
ば、色空間を分割する分割形状として2次曲面である楕
円体面を用いたことにより、1つの楕円体の判別計算を
格段的に簡素化することができる。
According to the above construction, the ellipsoidal surface containing the object partial area in the RGB space has a rod-like shape, and the ellipsoidal surface is obtained, and the color space is divided by the ellipsoidal surface. As a result, the accuracy of chroma key processing can be further improved. Further, according to the above configuration, by using the ellipsoidal surface that is a quadric surface as the division shape that divides the color space, it is possible to significantly simplify the discrimination calculation of one ellipsoid.

【0044】また上述の構成によれば、色空間を分割す
る分割形状として、形状を決定するパラメータが16個の
楕円体を用い、またこれらのパラメータを画素値を分析
することにより一意に決定したことにより、楕円体の形
状を簡易に決定し得る。
Further, according to the above-mentioned configuration, an ellipsoid having 16 parameters for determining the shape is used as a division shape for dividing the color space, and these parameters are uniquely determined by analyzing pixel values. Thereby, the shape of the ellipsoid can be easily determined.

【0045】また上述の構成によれば、各画素について
楕円体の内側又は外側に存在すべき画素であるか否かの
情報を与えることによつて計算できる評価値によつて各
軸方向の径の比率に乗じるスケール係数を調節したこと
により、楕円体の形状を目的に応じて調節することがで
きる。
Further, according to the above configuration, the diameter in each axial direction can be calculated based on the evaluation value that can be calculated by giving information on whether or not each pixel should be inside or outside the ellipsoid. The shape of the ellipsoid can be adjusted according to the purpose by adjusting the scale factor that is multiplied by the ratio.

【0046】なお上述の実施例においては、入力画像そ
のもの、入力画像に時間的に近い画像を参照画像として
用いた場合について述べたが、本発明はこれに限らず、
入力画像の背景のみの画像、入力画像の対象物のみの画
像を参照画像として用いてもよい。この場合、参照画像
の全画素の色分布を背景又は対象物の色分布として楕円
体形状を決定する。
In the above embodiment, the case where the input image itself or an image temporally close to the input image is used as the reference image has been described, but the present invention is not limited to this.
An image of only the background of the input image or an image of only the object of the input image may be used as the reference image. In this case, the ellipsoidal shape is determined by using the color distribution of all the pixels of the reference image as the color distribution of the background or the object.

【0047】また上述の実施例においては、分散共分散
行列の固有値をジヤコビ法を用いて求めた場合について
述べたが、本発明はこれに限らず、他の方法で分散共分
散行列の固有値を求めるようにしてもよい。
In the above embodiment, the case where the eigenvalues of the variance-covariance matrix are obtained by using the Jacobi method has been described. However, the present invention is not limited to this, and the eigenvalues of the variance-covariance matrix can be calculated by other methods. You may ask.

【0048】また上述の実施例においては、参照画像中
の対象物領域を示すマスク画像を用いた場合について述
べたが、本発明はこれに限らず、参照画像中の背景領域
又は対象物領域と背景領域の双方を示すマスク画像を用
いてもよい。
In the above embodiment, the case where the mask image showing the object area in the reference image is used is described, but the present invention is not limited to this, and the background area or the object area in the reference image is used. A mask image showing both the background areas may be used.

【0049】[0049]

【発明の効果】上述のように本発明によれば、色情報を
3次元状に配してなる色空間上に画像中の所定単位毎の
画素データの色情報を配して得られる色分布を任意個数
の3次元楕円体面で近似し、当該楕円体面を用いて色空
間を分割して所望の領域を抽出することにより、クロマ
キー処理の精度を格段的に向上させることができる。
As described above, according to the present invention, the color distribution obtained by arranging the color information of the pixel data for each predetermined unit in the image on the color space in which the color information is three-dimensionally arranged. Is approximated by an arbitrary number of three-dimensional ellipsoidal surfaces, and the ellipsoidal surface is used to divide the color space to extract a desired region, whereby the accuracy of chroma key processing can be significantly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】RGB空間における物体の色分布を示す略線図
である。
FIG. 1 is a schematic diagram showing a color distribution of an object in an RGB space.

【図2】RGB空間における物体の部分領域の色分布を
示す略線図である。
FIG. 2 is a schematic diagram showing a color distribution of a partial area of an object in an RGB space.

【図3】RGB空間における楕円体の形状を示す略線図
である。
FIG. 3 is a schematic diagram showing the shape of an ellipsoid in RGB space.

【図4】楕円体形状の決定手順を示すフローチヤートで
ある。
FIG. 4 is a flow chart showing a procedure for determining an ellipsoidal shape.

【図5】本発明による画像領域抽出方法で求めた色分布
形状に合致した楕円体の軸方向と径の大きさをダイヤモ
ンド形で示す略線図である。
FIG. 5 is a schematic diagram showing a diamond shape in the axial direction and the size of diameter of an ellipsoid that matches the color distribution shape obtained by the image region extraction method according to the present invention.

【図6】楕円体形状の調節方法の処理手順を示すフロー
チヤートである。
FIG. 6 is a flow chart showing a processing procedure of an ellipsoidal shape adjusting method.

【図7】本発明の画像領域抽出方法により得られる楕円
体形状をクロマキー処理に用いた場合の処理の流れを示
すブロツク図である。
FIG. 7 is a block diagram showing the flow of processing when an ellipsoidal shape obtained by the image region extraction method of the present invention is used for chroma key processing.

【図8】実施例における楕円体形状決定処理の説明に供
するブロツク図である。
FIG. 8 is a block diagram for explaining an ellipsoidal shape determination process in the embodiment.

【図9】色分布情報の取得から主成分分析までの処理手
順を示すフローチヤートである。
FIG. 9 is a flowchart showing a processing procedure from acquisition of color distribution information to principal component analysis.

【図10】データ配列生成の処理手順を示すフローチヤ
ートである。
FIG. 10 is a flow chart showing a processing procedure for data array generation.

【図11】分散共分散行列の算出手順を示すフローチヤ
ートである。
FIG. 11 is a flow chart showing a procedure for calculating a variance-covariance matrix.

【図12】固有値の算出手順を示すフローチヤートであ
る。
FIG. 12 is a flow chart showing a procedure for calculating an eigenvalue.

【図13】σ最小化の算出手順を示すフローチヤートで
ある。
FIG. 13 is a flow chart showing a calculation procedure of σ minimization.

【図14】ρの最大値 maxρの算出手順を示すフローチ
ヤートである。
FIG. 14 is a flow chart showing a procedure for calculating a maximum value maxρ of ρ.

【図15】σの算出手順を示すフローチヤートである。FIG. 15 is a flow chart showing a calculation procedure of σ.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成7年4月13日[Submission date] April 13, 1995

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Name of item to be corrected] Brief description of the drawing

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図面の簡単な説明】[Brief description of drawings]

【図1】RGB空間における物体の色分布を示す写真で
ある
FIG. 1 is a photograph showing the color distribution of an object in RGB space.

【図2】RGB空間における物体の部分領域の色分布を
示す写真である。
FIG. 2 is a photograph showing a color distribution of a partial area of an object in RGB space.

【図3】RGB空間における楕円体の形状を示す略線図
である。
FIG. 3 is a schematic diagram showing the shape of an ellipsoid in RGB space.

【図4】楕円体形状の決定手順を示すフローチヤートで
ある。
FIG. 4 is a flow chart showing a procedure for determining an ellipsoidal shape.

【図5】本発明による画像領域抽出方法で求めた色分布
形状に合致した楕円体の軸方向と径の大きさをダイヤモ
ンド形で示す写真である。
FIG. 5 is a photograph showing a diamond shape in the axial direction and the size of diameter of an ellipsoid that matches the color distribution shape obtained by the image region extraction method according to the present invention.

【図6】楕円体形状の調節方法の処理手順を示すフロー
チヤートである。
FIG. 6 is a flow chart showing a processing procedure of an ellipsoidal shape adjusting method.

【図7】本発明の画像領域抽出方法により得られる楕円
体形状をクロマキー処理に用いた場合の処理の流れを示
すブロツク図である。
FIG. 7 is a block diagram showing the flow of processing when an ellipsoidal shape obtained by the image region extraction method of the present invention is used for chroma key processing.

【図8】実施例における楕円体形状決定処理の説明に供
するブロツク図である。
FIG. 8 is a block diagram for explaining an ellipsoidal shape determination process in the embodiment.

【図9】色分布情報の取得から主成分分析までの処理手
順を示すフローチヤートである。
FIG. 9 is a flowchart showing a processing procedure from acquisition of color distribution information to principal component analysis.

【図10】データ配列生成の処理手順を示すフローチヤ
ートである。
FIG. 10 is a flow chart showing a processing procedure for data array generation.

【図11】分散共分散行列の算出手順を示すフローチヤ
ートである。
FIG. 11 is a flow chart showing a procedure for calculating a variance-covariance matrix.

【図12】固有値の算出手順を示すフローチヤートであ
る。
FIG. 12 is a flow chart showing a procedure for calculating an eigenvalue.

【図13】σ最小化の算出手順を示すフローチヤートで
ある。
FIG. 13 is a flow chart showing a calculation procedure of σ minimization.

【図14】ρの最大値maxρの算出手順を示すフロー
チヤートである。
FIG. 14 is a flow chart showing a procedure for calculating a maximum value maxρ of ρ.

【図15】σの算出手順を示すフローチヤートである。FIG. 15 is a flow chart showing a calculation procedure of σ.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図1[Name of item to be corrected] Figure 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図1】 FIG.

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図2[Name of item to be corrected] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図2】 [Fig. 2]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図5[Name of item to be corrected] Figure 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図5】 [Figure 5]

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】画像中より所望の領域を抽出する画像領域
抽出方法において、 色情報を3次元状に配した色空間上に上記画像中の所定
単位毎の画素データの色情報を配して得られる色分布を
任意個数の3次元楕円体面で近似し、当該楕円体面を用
いて上記色空間を分割することにより上記所望の領域を
抽出することを特徴とする画像領域抽出方法。
1. An image area extracting method for extracting a desired area from an image, wherein color information of pixel data for each predetermined unit in the image is arranged in a color space in which color information is arranged three-dimensionally. An image region extracting method, characterized in that the obtained color distribution is approximated by an arbitrary number of three-dimensional ellipsoidal faces, and the desired region is extracted by dividing the color space using the ellipsoidal faces.
【請求項2】上記楕円体面の形状を、上記画像中の所定
単位を構成する画素データの上記色情報のそれぞれの平
均値と分散共分散行列とを求めると共に、当該得られた
分散共分散行列の固有値と固有ベクトルとを求めること
により決定するようにしたことを特徴とする請求項1に
記載の画像領域抽出方法。
2. The shape of the ellipsoidal surface is obtained as an average value and a variance-covariance matrix of each of the color information of pixel data constituting a predetermined unit in the image, and the obtained variance-covariance matrix is obtained. 2. The image area extracting method according to claim 1, wherein the determination is made by obtaining the eigenvalue and the eigenvector of.
【請求項3】上記楕円体面の径の大きさを決定する係数
は、当該係数を変化させながら上記画素データについて
上記楕円体面の内側に存在するか又は外側に存在するか
を判定することによつて決定することを特徴とする請求
項1又は請求項2に記載の画像領域抽出方法。
3. The coefficient for determining the size of the diameter of the ellipsoidal surface is determined by determining whether the pixel data is inside or outside the ellipsoidal surface while changing the coefficient. The image area extracting method according to claim 1 or 2, wherein the image area extracting method is determined as follows.
JP6321533A 1994-11-29 1994-11-29 Image area extraction method Pending JPH08153201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6321533A JPH08153201A (en) 1994-11-29 1994-11-29 Image area extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6321533A JPH08153201A (en) 1994-11-29 1994-11-29 Image area extraction method

Publications (1)

Publication Number Publication Date
JPH08153201A true JPH08153201A (en) 1996-06-11

Family

ID=18133632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6321533A Pending JPH08153201A (en) 1994-11-29 1994-11-29 Image area extraction method

Country Status (1)

Country Link
JP (1) JPH08153201A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998037702A1 (en) * 1997-02-20 1998-08-27 Sony Corporation Video signal processing device and method, image synthesizing device, and editing device
US6927803B2 (en) 2000-05-08 2005-08-09 Matsushita Electric Industrial Co., Ltd. Video mixing apparatus and method of mixing video

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998037702A1 (en) * 1997-02-20 1998-08-27 Sony Corporation Video signal processing device and method, image synthesizing device, and editing device
US6201581B1 (en) 1997-02-20 2001-03-13 Sony Corporation Video signal processing device and method, image synthesizing device, and editing device
US6927803B2 (en) 2000-05-08 2005-08-09 Matsushita Electric Industrial Co., Ltd. Video mixing apparatus and method of mixing video

Similar Documents

Publication Publication Date Title
US6396491B2 (en) Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
JP3782709B2 (en) Image generation method and apparatus
WO2000046753A1 (en) Method and apparatus for 3d model creation based on 2d images
US7796812B2 (en) Method for matching color in images
US11295115B2 (en) Method and device for generating face image, electronic device and computer readable storage medium
US20030076336A1 (en) Color information processing apparatus and method
JPH04227585A (en) Method and apparatus for forming improved control-data line
WO2005073909A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
US9710965B2 (en) Capturing and stylizing hair for 3D fabrication
JP3467725B2 (en) Image shadow removal method, image processing apparatus, and recording medium
JP3126046B2 (en) Color adjustment method and color adjustment device for color image
JPH01189781A (en) System using center of gravity coordinates for polygonal interpolation
JPH08153201A (en) Image area extraction method
JP2973573B2 (en) Image conversion device
AU2018203328A1 (en) System and method for aligning views of a graphical object
CN103824256B (en) A kind of image processing method and device
JP2007243987A (en) Image processing method, image processing system, and image processing program
JPH06176107A (en) Distance image processing method and apparatus
JP2649367B2 (en) Multidimensional image correlation operation device
JP4171354B2 (en) Color image processing apparatus and method
US7990381B2 (en) Re-coloring a color image
JP2786261B2 (en) Color image processing method
KR102195279B1 (en) Method and system for image registering using regional warping
JP2003248824A (en) Image processing apparatus and image processing method
KR0151918B1 (en) Image generation apparatus and method for image processing