[go: up one dir, main page]

JPH03201173A - Cutting processing method and device - Google Patents

Cutting processing method and device

Info

Publication number
JPH03201173A
JPH03201173A JP1340452A JP34045289A JPH03201173A JP H03201173 A JPH03201173 A JP H03201173A JP 1340452 A JP1340452 A JP 1340452A JP 34045289 A JP34045289 A JP 34045289A JP H03201173 A JPH03201173 A JP H03201173A
Authority
JP
Japan
Prior art keywords
area
evaluation function
image
training
background area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1340452A
Other languages
Japanese (ja)
Inventor
Hideaki Kobayashi
秀章 小林
Natsuko Nakabayashi
中林 奈津子
Kazuhiko Tanaka
和彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP1340452A priority Critical patent/JPH03201173A/en
Priority to EP19900124904 priority patent/EP0435167A3/en
Publication of JPH03201173A publication Critical patent/JPH03201173A/en
Priority to US08/355,320 priority patent/US5454050A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は、切抜き方法及び装置に係り、特に、カラー画
像データから、必要な実体領域を抽出するため、切抜き
マスクで電子的に切抜く際に用いるのに好適な、切抜き
処理方法及びfatに関する。
The present invention relates to a cropping method and apparatus, and more particularly to a cropping method and fat suitable for use in electronically cropping using a cropping mask in order to extract a necessary substantial area from color image data.

【従来の技術】[Conventional technology]

カラー画像データから印刷製版用原版のフィルムを作成
するに際しては、一般に、不必要な画像領域(背景領域
)について切抜きマスクを作成し、当該マスクで背景領
域を切抜き処理し、必要な実体領域を抽出している。 この切抜きマスクを作成する技術には、従来から種々の
ものがある0例えば、入力された画像データをデイスプ
レィ画面上に表示し、オペレータが当該画面上の画像を
見ながら、切抜き対象画像の輪郭線を精密に指示して切
抜き処理する技術がある。 又、オペレータが、ディスブレス画面上に表示された画
像を見ながら、マスクを所望する背景領域の色を指示し
、当該指示から切抜き線を自動的に作成する技術がある
。 又、オペレータが、デイスプレィ画面上に表示された画
像を見ながら、マスクを所望する背景領域の一部を指示
し、その領域の濃度の変化軸をみつけ、その濃度変化軸
を考慮した濃度分布により切抜き線を自動的に作成する
技術がある。
When creating a printing plate master film from color image data, generally a cropping mask is created for the unnecessary image area (background area), the background area is cropped using the mask, and the necessary substantive area is extracted. are doing. There are various techniques for creating this cropping mask. For example, input image data is displayed on a display screen, and an operator, while looking at the image on the screen, draws the outline of the image to be cropped. There is a technology to precisely instruct and cut out. There is also a technique in which an operator, while viewing an image displayed on a display screen, specifies the color of a background area that is desired to be masked, and automatically creates a cutout line based on the instruction. Also, while looking at the image displayed on the display screen, the operator specifies a part of the background area that is desired to be masked, finds the density change axis of that area, and then creates a density distribution based on the density change axis taking into account the density change axis. There is a technology that automatically creates cutout lines.

【発明が解決しようとする課題】[Problem to be solved by the invention]

しかしながら、前記従来の、オペレータが指示した輪郭
線に従って忠実に切抜く技術においては、オペレータが
カーソル等で画像の輪郭線の全てを指定する必要がある
ため、処理に時間がかかると共に、オペレータの負担も
大きいという問題点がある。 又、色の指示に従って、あるいは、濃度の変化軸から切
抜き線を自動的に作成する技術においては、背景領域と
近い色の領域が実体領域の内部にあった場合に、その領
域を誤って切抜く恐れがあると共に、輪郭付近に影があ
った場合にも、うまく切抜けないという問題点がある。 なお、本発明に関連した技術として、出願人は、既に特
願昭63−129997号で自動切抜きシステムを提案
している。この自動切抜きシステムは、背景部をトレー
ニングエリアに指定し、第1主戒分軸(=グラデーショ
ンの向き)を考慮に入れて評価関数を作成するという点
では本発明と共通している。従って、このシステムでも
グラデーションや影に対しては、ある程度対処している
。 似し、その評価関数の具体的な作成方法が興なり、改善
するべき点があった。即ち、前記システムでは、トレー
ニングエリアのグラデーションをどこまで延長しても背
景領域に入るとみなしていたため、実際のトレーニング
エリアの色からはかけ離れた色までも背景領域であると
判定することがあった。従って、実体領域内の思わぬ色
が背景領域側へと誤って判別されてしまう危険性があり
、改善の余地があった。 本発明は、前記従来の問題点に鑑みてなされたものであ
って、トレーニングエリアの色からかけ離れた色を背景
領域に判別することなく、迅速、1つ、精度良く輪郭線
を作成して所望の実体領域画像を抽出できる切抜き処理
方法及び装置を提供することを課題とする。
However, in the conventional technique of faithfully cropping according to the contour line specified by the operator, the operator needs to specify all the contour lines of the image using a cursor, etc., which takes time and puts a burden on the operator. The problem is that it is also large. In addition, with technology that automatically creates cutting lines according to color instructions or from the density change axis, if an area with a color similar to the background area is inside the solid area, that area may be accidentally cropped. In addition, there is a problem that even if there is a shadow near the outline, it may not be possible to cut through it well. As a technology related to the present invention, the applicant has already proposed an automatic clipping system in Japanese Patent Application No. 129997/1983. This automatic clipping system is similar to the present invention in that the background part is designated as a training area and an evaluation function is created taking into consideration the first principal precept axis (=direction of gradation). Therefore, this system also deals with gradations and shadows to some extent. However, the specific method for creating the evaluation function was developed, and there were points that needed to be improved. That is, in the system, no matter how far the gradation of the training area is extended, it is considered to fall within the background area, so that even a color far removed from the actual color of the training area may be determined to be the background area. Therefore, there is a risk that an unexpected color in the real area will be erroneously determined to be in the background area, and there is room for improvement. The present invention has been made in view of the above-mentioned conventional problems, and it is possible to quickly and accurately create a contour line as desired without distinguishing a color far from the color of the training area as a background area. An object of the present invention is to provide a clipping processing method and apparatus capable of extracting a substantial region image.

【課題を解決するための手段】[Means to solve the problem]

本発明は、画像データを演算処理して電子的に切抜き処
理する方法において、画像中の背景領域の一部をトレー
ニングエリアとして指定し、該トレーニングエリア内の
画像データを統計的に主成分分析し、任意の色が背景領
域に属する可能性を示す評価関数を、主成分方向へ延長
する倍率に許容限度を設けて作成し、画像の切抜き線に
またがる領域を指定し、指定された領域内の全ての画素
について、前記評価関数に該画素データを代入して、該
画素が背景領域又は実体領域のいずれに属するかを判断
することにより、前記課題を解決するものである。 又、本発明は、画像表示手段、画像データ入力手段及び
演算手段を有する切抜き処理装置において、画像中の背
景領域の一部をトレーニングエリアとして指定するため
の手段と、指定されたトレーニングエリア内の画像デー
タを統計的に主成分分析し、任意の色が背景領域に属す
る可能性を示す評価関数を、主成分方向へ延長する倍率
に許容限度を設けて作成するための評価関数作成手段と
、画像の切抜き線にまたがる領域を指定するための手段
と、指定領域内の全ての画素のデータについて、前記評
価関数に該画素データを代入して、当該画素が背景領域
又は実体領域のいずれに属するかを判断するための手段
と、背景領域に属すると判断された画素に基づき、マス
クデータを作成するための手段と、作成されたマスクデ
ータをメモリに書込んで、所望に応じて読み出すための
マスクデータ格納手段とを備えたことにより、同じく前
記課題を解決するものである。
The present invention is a method for electronically cropping image data by arithmetic processing, in which a part of the background area in an image is designated as a training area, and the image data within the training area is statistically analyzed for principal components. , create an evaluation function that indicates the possibility that an arbitrary color belongs to the background region by setting a tolerance limit on the magnification that extends in the direction of the principal component, specify the region that spans the cutout line of the image, and The above problem is solved by assigning the pixel data to the evaluation function for every pixel and determining whether the pixel belongs to a background area or a real area. The present invention also provides a clipping processing device having an image display means, an image data input means, and a calculation means, including a means for specifying a part of a background area in an image as a training area, and a means for specifying a part of a background area in an image as a training area. an evaluation function creation means for statistically analyzing the principal components of image data and creating an evaluation function indicating the possibility that an arbitrary color belongs to a background region by setting a permissible limit on the magnification for extending in the direction of the principal components; A means for specifying an area spanning the cutout line of an image, and substituting the pixel data into the evaluation function for all pixel data in the specified area, to which the pixel belongs to the background area or the real area. means for determining whether the pixels belong to the background area, means for creating mask data based on the pixels determined to belong to the background area, and means for writing the created mask data into memory and reading it out as desired. By providing the mask data storage means, the above problem is also solved.

【作用】[Effect]

本発明においては、画像中の背景領域の一部をトレーニ
ングエリアとして指定し、当該トレーニングエリア内の
WfJ像データを統計的に主成分分析して、任意の色が
背景領域に属する可能性を示す評価関数を、主成分方向
へ延長する倍率に許容限度を設けて作成し、画像の切抜
き線にまたがる領域を指定し、指定された領域内の全て
の画素にっいて、前記評価関数に該画素データを代入し
て、当該画素が背景領域又は実体領域のいずれに属する
かを判断する。 従って、トレーニングエリア内の画像データから、主成
分方向へ延長する倍率に許容限度を設けて評価関数を作
成するため、トレーニングエリアの画素情報に基づいて
、トレーニングエリア外の輪郭線に至るまでの背景色を
ほどよく推測していることになり、出願人が先に提案し
た特願昭63−129997号における評価関数に比較
して誤った判別の余地が少ない、精度の良い評価関数を
作成できる。 このように作成した評価関数で実体領域と背景領域を分
けているため、背景部に近い色や影があっても精度良く
判別できると共に、トレーニングエリア・の色からかけ
離れた色を背景領域に判別することがないものである。 よって、迅速且つ精度良く切抜き線を作成して所望する
実体領域を画像から抽出できる。 例えば、画素データXを評価関数f(y)に代入し、正
の実数値の実定数doを閾値として、代入された評価関
数値f(y)> d oならば当該画素は実体領域に属
し、f(y)≦doならば当該画素は背景領域に属する
と判断する。この背景領域に属すると判断された画素に
マスクデータをオンとし、実体領域に属すると判断され
た画素にマスクデータをオフとした2値マスクデータを
作成して切抜き処理することができる。 ここで、前記評価関数f(y)には、マハラノビス距w
ldを用いることが考えられる。 マハラノビス距離dは、多次元空間におけるある着目す
る一点から当該空間内分布までのある種の距離を意味し
、分布形状等の分布状態を考慮に入れた上で着目点が分
布からどれだけ離れているかを表わしている0色空間(
例えば、シアン(C)軸、マゼンタ(M)軸、イエロ(
Y)軸)も多次元空間であり、色空間にトレーニングエ
リアの各画素のデータをプロットした場合にもある分布
が形成され、色空間X上における分布と要素(画素デー
タ)yとのマハラノビスの距Mdは、次式%式% (1) 但し、Yは、トレーニングエリアにおける要素yの平均
(ベクトル)、COVは、共分散行列である。 例えば、−次元の分布におけるマハラノビス距がzは、
次式(2)のように偏差値δにほぼ相当する。 δ=Z* 10+50       ・−・−(2)な
お、1次元の分布におけるマラハノビス距離は標準偏差
σ、要素x等からZ=(x−n)/σと表されZ値とい
う呼び名もある。 三次元空間でいえば、分布からのマハラノビス距離が一
定な点の集まりは楕円体をなす、従って、評価関数とし
てマハラノビス距離を用いである閾値で判別するという
方法は、言い換えれば、トレーニングエリアとしてサン
プリングされた背景領域の分布をその形状まで考慮に入
れた上で、はどよい楕円体で取り囲み、内部と外部とに
分けることに相当する0例えば第1図(A)に示す画像
の色空間分布が同図(B)になる場合に、その分布をマ
ハラノビス距Ndの2乗が40になる楕円体で囲んだ状
態を同図(B)中に示す、なお、第1図(A)のトレー
ニングエリアから平均iを求めており、トレーニングエ
リアの分布を第1図(B)に示している。 しかしながら、前記マハラノビス距離dをそのまま評価
関数f (X)に用いれば、画像を背景領域及び実体領
域に分けることができるが、更に切抜き精度を上げるに
は次のような問題が生じる。 即ち、トレーニングエリアは、背景領域の一部をサンプ
リングした領域であり、背景領域の全てではないため、
必ずしも正確に評価できるとは言い難い、又、トレーニ
ングエリアは実体領域にかからないように背景領域の一
部のみを指定する領域であるため、実体領域及び背景領
域間の輪郭線ぎりぎりのところについて指定しづらい、
又、影のあるような絵柄では、輪郭線付近でトレーニン
グエリア以外の色が現われることがある。 このような問題に対して改善し精度を向上させるべく、
発明者は種々の検討を行い、色空間Xにおいて任意にと
った要素(画素データ)攻の評価関数を次式(3)のよ
うに定めることを見出した。 f(x)’     t = (R’ P−’ (X −2))A’x (R−1
P−’ (y −2) )   ・・・・・・(3〉但
し、共分散行列Cov=PAP−’の関係があり、Aは
、該行列Cowの固有値を大きい順に並べた対角行列、
Pは、該行列Covの各固有値に対する固有ベクトルを
列ベクトルとして横に並べた正規直交行列である。又、
ベクトルy、7は列ベクトルで表されているものとし、
()の右上付添字のtは、転置を表す(例えばに はA
の転置行列であり、ytは列ベクトルを行ベクトルに変
換したものとする)。 なお、nを色空間×の次元とすれば、Rは、nネnの実
行列で「0を1以上の実定数として、次式(4)の如く
表した対角行列である。 なお、ro=1ならば、Rは単位行列になって、式は(
3)式のマハラノビス距@dとなる。 この(4)式は、マハラノビス距11d一定の場合の楕
円体を、例えば第2図のように第1主成分軸方向にro
倍に引き伸ばしたことに相当する。 この引き伸しの意味は、トレーニングエリア内のグラデ
ーションの向きを知り、そのグラデーションを延長した
色も背景領域として許容するというものである。即ち、
この(3)式は、輪郭線付近にトレーニングエリア以外
の色が現われるような場合は、トレーニングエリアの中
に既にその色を向かう強いグラデーションがかかつてい
るであろうという考え方に基づいたものであり、(3)
式で評価すればトレーニングエリア内のデータを基に、
その色を予測できるという効果がある。 ここで、トレーニングエリアのグラデーションをどこま
で延長しても背景領域に入るとみなすとすれば、実際の
トレーニングエリアの色からはかれ離れた色までも背景
色であると判定されることがあり、実体領域内の思わぬ
色が背景領域へと誤って判別されてしまう危険性がある
。 そこで、本発明では、主成分方向へ延長する倍率roに
許容限度を設けて評価関数を作成している。これにより
、トレーニングエリアの情報に基づいてトレーニングエ
リア外の輪郭線に至るまでの背景色をほどよく推測して
いることになり、判別の誤りを少なくし乃至はなくする
ことができる、評価関数を作り出せる。
In the present invention, a part of the background area in an image is designated as a training area, and the WfJ image data in the training area is statistically analyzed for principal components to show the possibility that any color belongs to the background area. Create an evaluation function by setting a permissible limit on the magnification that extends in the direction of the principal component, specify an area that spans the cutout line of the image, and apply the evaluation function to the evaluation function for all pixels within the specified area. By substituting the data, it is determined whether the pixel belongs to the background area or the real area. Therefore, in order to create an evaluation function from the image data in the training area by setting a permissible limit on the magnification extending in the direction of the principal component, the background up to the contour line outside the training area is calculated based on the pixel information in the training area. This means that the color is reasonably well estimated, and it is possible to create a more accurate evaluation function with less room for erroneous discrimination than the evaluation function proposed in Japanese Patent Application No. 129997/1988, which was previously proposed by the applicant. Since the evaluation function created in this way separates the real area and the background area, it is possible to accurately distinguish colors or shadows that are close to the background area, and also to identify colors that are far from the training area as background areas. There is nothing to do. Therefore, it is possible to quickly and accurately create a cutout line and extract a desired substantial area from an image. For example, if pixel data X is assigned to the evaluation function f(y), and the real constant do of positive real value is set as the threshold, if the assigned evaluation function value f(y)>d o, the pixel belongs to the real area. , f(y)≦do, it is determined that the pixel belongs to the background area. It is possible to create binary mask data in which mask data is turned on for pixels that are determined to belong to the background area and mask data is turned off for pixels that are determined to belong to the real area, and then a cutting process can be performed. Here, the evaluation function f(y) includes the Mahalanobis distance w
It is possible to use ld. The Mahalanobis distance d means a certain distance from a point of interest in a multidimensional space to a distribution in the space, and is based on how far the point of interest is from the distribution, taking into account the distribution state such as the distribution shape. 0 color space (
For example, cyan (C) axis, magenta (M) axis, yellow (
(Y) axis) is also a multidimensional space, and a certain distribution is formed when the data of each pixel in the training area is plotted in the color space, and the Mahalanobis equation between the distribution on the color space X and the element (pixel data) y is also a multidimensional space. The distance Md is calculated using the following formula (1) where Y is the average (vector) of elements y in the training area, and COV is a covariance matrix. For example, the Mahalanobis distance z in a -dimensional distribution is
This approximately corresponds to the deviation value δ as shown in the following equation (2). δ=Z* 10+50 (2) The Malahanobis distance in a one-dimensional distribution is expressed as Z=(x-n)/σ from the standard deviation σ, element x, etc., and is also called the Z value. In three-dimensional space, a collection of points with a constant Mahalanobis distance from the distribution forms an ellipsoid.Therefore, the method of using the Mahalanobis distance as an evaluation function and making a judgment based on a certain threshold value is, in other words, a method of sampling as a training area. For example, the color space distribution of the image shown in FIG. Figure 1 (B) shows the state in which the distribution is surrounded by an ellipsoid in which the square of the Mahalanobis distance Nd is 40.The training shown in Figure 1 (A) The average i is calculated from the areas, and the distribution of the training areas is shown in FIG. 1(B). However, if the Mahalanobis distance d is used as is in the evaluation function f (X), the image can be divided into a background region and a real region, but the following problem arises in further increasing the cutting precision. In other words, the training area is an area obtained by sampling a part of the background area, but not the entire background area, so
It is difficult to say that accurate evaluation is possible, and since the training area is an area where only a part of the background area is specified so as not to cover the actual area, it is necessary to specify the part of the outline between the actual area and the background area. Difficult,
Furthermore, in a pattern with shadows, colors other than those in the training area may appear near the outline. In order to improve this problem and improve accuracy,
The inventor conducted various studies and found that an evaluation function for attacking arbitrary elements (pixel data) in color space X can be determined as shown in the following equation (3). f(x)' t = (R'P-' (X -2)) A'x (R-1
P-' (y-2) ) ...... (3) However, there is a relationship of covariance matrix Cov = PAP-', and A is a diagonal matrix in which the eigenvalues of the matrix Cow are arranged in descending order,
P is an orthonormal matrix in which the eigenvectors for each eigenvalue of the matrix Cov are arranged horizontally as column vectors. or,
Assume that the vector y,7 is represented by a column vector,
The upper right subscript t in () represents transposition (for example, A
, and yt is a column vector converted into a row vector). Note that if n is the dimension of color space x, then R is a diagonal matrix expressed as the following equation (4), where 0 is a real constant of 1 or more, and is a real matrix of n n n. If ro=1, R becomes an identity matrix and the formula is (
3) becomes the Mahalanobis distance @d. This equation (4) calculates the ellipsoid when the Mahalanobis distance 11d is constant, for example, as shown in FIG.
This is equivalent to stretching it twice. The meaning of this enlargement is to know the direction of the gradation within the training area, and to allow a color that is an extension of that gradation as the background area. That is,
This equation (3) is based on the idea that if a color other than the training area appears near the contour line, there is probably already a strong gradation toward that color within the training area. ,(3)
If you evaluate with the formula, based on the data in the training area,
It has the effect of being able to predict its color. Here, if we consider that no matter how far the gradation of the training area extends, it falls within the background area, even colors that are far removed from the actual training area color may be determined to be the background color. There is a risk that an unexpected color within the area may be mistakenly identified as a background area. Therefore, in the present invention, an evaluation function is created by setting a permissible limit on the magnification ro extending in the direction of the principal component. This means that the background color up to the contour line outside the training area is reasonably estimated based on the information in the training area, and the evaluation function can be used to reduce or eliminate discrimination errors. I can create it.

【実施例】【Example】

以下、図面を参照して本発明の実施例を詳細に説明する
。 この実施例に係る切抜き処理装置のシステム構成を第3
図に示す。 このシステムは、第3図に示すように、画像データを入
力するための画像入力部10と、入力された画像データ
を格納するための画像データ格納メモリ12と、画像デ
ータ上のトレーニングエリア及び切抜き線にまたがる領
域(以下、カッティングエリアという)を指示するため
の位置入力部14と、入力されたトレーニングエリア及
びカッティングエリアのそれぞれの位置を格納するため
の、トレーニングエリア格納メモリ16及びカッティン
グエリア格納メモリ18と、前記格納された画像データ
及びトレーニングエリアから前出〈3〉式の評価関数f
 (y)を作成するための評価関数作成部20と、作成
された評価関数を格納するための評価関数格納メモリ2
2と、格納された画像データ中のカッティングエリアで
指示されたエリア内の各画素について前記評価関数f(
x)に該画像のデータを代入し、閾値doにより、背景
領域に含まれると判断した画素についてマスクデータを
オンとし、それ以外はオフとして2値マスクデータを作
成するための2値化計算部24と、作成されたマスクデ
ータを格納するためのマスク”データ格納メモリ26と
、格納されたマスクデータを前記画像データの切抜きの
ために出力するマスクデータ出力部28とを備える゛。 この実施例は、前記のような1fIl威で、第4図に示
す手順に従ってマスクデータを作成する。 即ち、まず画像入力部10から画像データを入力して、
格納メモリ12に格納したり、図示しない表示手段に表
示したりする(ステップ101)。 次いで、位置入力部14から入力する位置が、トレーニ
ングエリアであるかカッティングエリアであるかの操作
を選択する(ステップ102)。 ■し、この手順の当初においては、評価関数f (X)
を予め作成する必要から、トレーニングエリアの入力し
かできない、又、−旦トレーニングエリアの入力を選択
した後は、順次カッティングエリアを選択でき、又、切
抜き作業を進めていく過程において、トレーニングエリ
アの変更が行えるようになっている。 次いで、トレーニングエリアを入力する(ステップ10
3)、なお、この入力に際しては、画像データの背景部
のみを含むような、−箇所又は複数箇所のトレーニング
エリアを、所望に応じて入力することができる。 次いで、前出(3)式から評価関数f (y)を作成す
る(ステップ104)、この評価関数f (y)の作成
は、入力トレーニングエリアの画素について、その色デ
ータ(要素)ンの平均7、共分散行列COv等を求めて
(3)式に代入することにより行う。 この際の、色空間としては、(赤(R)、緑(G)、青
(B))の他にも、(C,M、Y)、(C1Y、M、K
)、(輝度Y、色度I、Q)等の空間を対象にできる。 なお、先のステップ103で複数のトレーニングエリア
を指定した場合には、それぞれのトレーニングエリアに
対応してそれらの個数だけ評価関数f(y)を作成する
。 次いで、カッティングエリアの入力を行う(ステップ1
05)。 次いで、カッティングエリア内の画像データからマスク
データを作成する(ステップ106)。 この場合、カッティングエリアの各画素データXを、そ
れぞれのトレーニングエリア毎に作成した評価関数f(
x)へ代入する。その後、閾値doを、画像データへの
代入された評価関数の値と比較する。該評価関数が複数
あればそれぞれについて比較する。評価関数の値のうち
少なくとも1つに閾値do以下のものがあれば、その画
素を背景領域に属するものと判断して当該画素にマスク
データをオンとし、又、前記評価関数の値のいずれも閾
値doを越える場合には、その画素を実体領域に属する
ものと判断して、マスクデータはオフとする。更に、背
景領域の外側についてマスクデータをオンとして塗りつ
ぶし、2値マスクデータを作成する。完成されたマスク
データは格納メモリ26内に格納する。 次いでマスクデータを図示しない表示手段に表示する(
ステップ107)、この表示されたマスクが、もし不適
切なものであれば再度光のステップ102に戻り処理を
続行し、適切なものであれば、マスクデータとして記憶
する(ステップ108)。 以上のようにして適切なマスクデータが作成でき、この
マスクデータにより画像データから精度良く背景領域を
切抜くことができる。この場合、輪郭線付近でトレーニ
ングエリア内の色以外の色が現われても、(3)式はマ
ハラノビス距離を延長しているため、正確な切抜き線を
作成することができる。又(3)式では倍率「0に許容
限度を設けるため、トレーニングエリア内の色とかけ離
れた色を背景色であると判定することがなく、精度の良
いマスクデータを作成できる。 なお、前記カッティングエリアは、背景部と実体部にま
たがるものであり、その指示がトレーニングエリアを含
まない場合、含む場合、いずれの場合にもマスクデータ
を作成することができる。 前記実施例では、自動切り処理を実施する場合を説明し
ていたが、本発明の実施する際にはこれに手動切抜き方
式を組合せて切抜き処理するようにしてもよいものであ
る。
Embodiments of the present invention will be described in detail below with reference to the drawings. The system configuration of the cutting processing device according to this embodiment is shown in the third section.
As shown in the figure. As shown in FIG. 3, this system includes an image input unit 10 for inputting image data, an image data storage memory 12 for storing the input image data, and a training area and a cutout on the image data. A position input unit 14 for instructing an area spanning a line (hereinafter referred to as a cutting area), and a training area storage memory 16 and a cutting area storage memory for storing the input positions of the training area and cutting area, respectively. 18, and the evaluation function f of the above formula <3> from the stored image data and training area.
(y) and an evaluation function storage memory 2 for storing the created evaluation function.
2, and the evaluation function f(
x) by substituting the data of the image into x) and turning mask data on for pixels determined to be included in the background area using a threshold value do, and turning off mask data for other pixels to create binary mask data. 24, a mask data storage memory 26 for storing the created mask data, and a mask data output section 28 for outputting the stored mask data for cutting out the image data. This embodiment creates mask data according to the procedure shown in FIG.
It is stored in the storage memory 12 or displayed on a display means (not shown) (step 101). Next, the operator selects whether the position to be input from the position input unit 14 is the training area or the cutting area (step 102). ■At the beginning of this procedure, the evaluation function f (X)
Because it is necessary to create the training area in advance, only the training area can be entered.Also, after selecting the training area input, the cutting areas can be selected sequentially, and the training area can be changed as the cutting process progresses. is now possible. Then enter the training area (step 10)
3) In this input, it is possible to input, as desired, one or more training areas that include only the background part of the image data. Next, an evaluation function f (y) is created from the above equation (3) (step 104). This evaluation function f (y) is created by calculating the average color data (element) number of pixels in the input training area. 7. This is done by finding the covariance matrix COv, etc., and substituting it into equation (3). At this time, in addition to (red (R), green (G), blue (B)), the color spaces include (C, M, Y), (C1Y, M, K
), (luminance Y, chromaticity I, Q), etc. can be targeted. Note that when a plurality of training areas are designated in the previous step 103, evaluation functions f(y) are created corresponding to the number of training areas. Next, enter the cutting area (step 1)
05). Next, mask data is created from the image data within the cutting area (step 106). In this case, each pixel data X of the cutting area is converted into an evaluation function f(
x). Thereafter, the threshold value do is compared with the value of the evaluation function assigned to the image data. If there are multiple evaluation functions, each is compared. If at least one of the evaluation function values is less than or equal to the threshold do, the pixel is determined to belong to the background area and mask data is turned on for the pixel, and none of the evaluation function values is If the threshold value do is exceeded, the pixel is determined to belong to the real area, and the mask data is turned off. Furthermore, mask data is turned on to fill the outside of the background area to create binary mask data. The completed mask data is stored in the storage memory 26. Next, the mask data is displayed on a display means (not shown).
Step 107) If the displayed mask is inappropriate, the process returns to the light step 102 again to continue the process, and if it is appropriate, it is stored as mask data (Step 108). Appropriate mask data can be created in the manner described above, and the background region can be accurately cut out from image data using this mask data. In this case, even if a color other than the color in the training area appears near the contour line, an accurate cutout line can be created because equation (3) extends the Mahalanobis distance. In addition, since the tolerance limit is set at the magnification "0" in equation (3), a color that is far from the color in the training area is not determined to be the background color, and highly accurate mask data can be created. The area spans the background part and the real part, and mask data can be created regardless of whether the instruction includes or does not include the training area.In the above embodiment, automatic cutting processing is performed. Although the embodiment has been described, when implementing the present invention, the manual cutting method may be combined with this method to carry out the cutting process.

【発明の効果】【Effect of the invention】

以上説明した通り、本発明によれば、トレーニングエリ
アの色からかけ離れた色を背景領域に判別することなく
、精度良く、且つ迅速に切抜き処理を行うことができる
という優れた効果が得られる。
As described above, according to the present invention, it is possible to obtain the excellent effect that the cutting process can be performed accurately and quickly without identifying a color that is far from the color of the training area as a background area.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の詳細な説明するための、トレーニン
グエリアと、その画素データの分布を、マハラノビス距
離に基づき囲んだ例を示す平面図及び線図、 第2図は、同じく分布の第1主成分軸の例を示す線図、 第3図は、本発明の実施例に係る切抜きマスク作成シス
テムの全体的な構成を示すブロック図、第4図は、前記
実施例の作用を説明するための切抜きマスク作成手順を
示すフローチャートである。 10・・・画像入力部、 12・・・画像データ格納部、 14・・・位置入力部、 16・・・トレーニングエリア格納メモリ、18・・・
カッティングエリア格納メモリ、20・・・評価関数の
作成部、 22・・・評価関数の格納メモリ、 24・・・2値化計算部、 26・・・マスクデータ格納メモリ、 28・・・マスク出力手段。
FIG. 1 is a plan view and a line diagram showing an example of a training area and its pixel data distribution surrounded by Mahalanobis distances for explaining the present invention in detail; FIG. Fig. 3 is a block diagram showing the overall configuration of the cutout mask creation system according to the embodiment of the present invention, and Fig. 4 explains the operation of the embodiment. 3 is a flowchart showing a procedure for creating a cutout mask for. 10... Image input section, 12... Image data storage section, 14... Position input section, 16... Training area storage memory, 18...
Cutting area storage memory, 20...Evaluation function creation unit, 22...Evaluation function storage memory, 24...Binarization calculation unit, 26...Mask data storage memory, 28...Mask output means.

Claims (2)

【特許請求の範囲】[Claims] (1)画像データを演算処理し、電子的に切抜き処理す
る方法において、 画像中の背景領域の一部をトレーニングエリアとして指
定し、 該トレーニングエリア内の画像データを統計的に主成分
分析し、任意の色が背景領域に属する可能性を示す評価
関数を、主成分方向へ延長する倍率に許容限度を設けて
作成し、 画像の切抜き線にまたがる領域を指定し、 指定された領域内の全ての画素について、前記評価関数
に該画素データを代入し、該画素が背景領域又は実体領
域のいずれに属するかを判断することを特徴とする切抜
き処理方法。
(1) In a method of computationally processing and electronically cropping image data, a part of the background area in the image is designated as a training area, and the image data within the training area is statistically analyzed for principal components; Create an evaluation function that indicates the possibility that an arbitrary color belongs to the background area by setting a tolerance limit on the magnification for extending in the direction of the principal component, specify the area that spans the image cutout line, and calculate all within the specified area. 1. A clipping processing method, comprising: substituting the pixel data into the evaluation function to determine whether the pixel belongs to a background area or a real area.
(2)画像表示手段、画像データ入力手段及び演算手段
を有する切抜き処理装置において、 画像中の背景領域の一部をトレーニングエリアとして指
定するための手段と、 指定されたトレーニングエリア内の画像データを統計的
に主成分分析して、任意の色が背景領域に属する可能性
を示す評価関数を、主成分方向へ延長する倍率に許容限
度を設けて作成するための評価関数作成手段と、 画像の切抜き線にまたがる領域を指定するための手段と
、 指定領域内の全ての画素について、前記評価関数に該画
素データを代入して、該画素が背景領域又は実体領域の
いずれに属するかを判断するための手段と、 背景領域に属すると判断された画素に基づき、マスクデ
ータを作成するための手段と、 作成されたマスクデータをメモリに書込んで、所望に応
じて読み出すためのマスクデータ格納手段と、 を備えたことを特徴とする切抜き処理装置。
(2) In a cropping processing device having an image display means, an image data input means, and a calculation means, a means for specifying a part of the background area in the image as a training area, and a means for specifying the image data in the specified training area. An evaluation function creation means for statistically performing principal component analysis to create an evaluation function indicating the possibility that an arbitrary color belongs to a background area by setting a permissible limit on the magnification for extending in the direction of the principal components; means for specifying an area spanning the cutout line; and for all pixels within the specified area, assigning the pixel data to the evaluation function to determine whether the pixel belongs to a background area or a real area. means for creating mask data based on pixels determined to belong to the background area; and mask data storage means for writing the created mask data into a memory and reading it out as desired. A cutting processing device characterized by comprising: and.
JP1340452A 1989-12-20 1989-12-28 Cutting processing method and device Pending JPH03201173A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP1340452A JPH03201173A (en) 1989-12-28 1989-12-28 Cutting processing method and device
EP19900124904 EP0435167A3 (en) 1989-12-20 1990-12-20 Cut mask preparation method and apparatus
US08/355,320 US5454050A (en) 1989-12-20 1994-12-13 Cut mask preparation method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1340452A JPH03201173A (en) 1989-12-28 1989-12-28 Cutting processing method and device

Publications (1)

Publication Number Publication Date
JPH03201173A true JPH03201173A (en) 1991-09-03

Family

ID=18337098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1340452A Pending JPH03201173A (en) 1989-12-20 1989-12-28 Cutting processing method and device

Country Status (1)

Country Link
JP (1) JPH03201173A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185204A (en) * 2018-04-04 2019-10-24 富士電機株式会社 Image processing apparatus, robot system, and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185204A (en) * 2018-04-04 2019-10-24 富士電機株式会社 Image processing apparatus, robot system, and image processing method

Similar Documents

Publication Publication Date Title
US8139852B2 (en) Color classification method, color recognition method, color classification apparatus, color recognition apparatus, color recognition system, computer program, and recording medium
JPH0863597A (en) Face extracting method
EP0558054A2 (en) Image filing method
EP0435167A2 (en) Cut mask preparation method and apparatus
US5343538A (en) Method and an apparatus for identifying an object using quantile partitions
US6304670B1 (en) Coloration and display of data matrices
JP3706743B2 (en) Region of interest extraction method and apparatus, and storage medium
CN116490901A (en) Device and method for analyzing marks included in facility plan
KR20230095801A (en) Artificial intelligence system and method on location cancerous region on digital pathology with customized resoluiont
US5825916A (en) Illuminant color detection
JP2004265431A (en) Face extraction method
JPH03201173A (en) Cutting processing method and device
CN113095147A (en) Skin area detection method, system, image processing terminal and storage medium
JP2981382B2 (en) Pattern matching method
JP7631042B2 (en) Learning Data Generation System
JP2936599B2 (en) Color image processing equipment
JP4207256B2 (en) Color image area dividing method and program storage medium
JPH03211966A (en) How to create a cutout mask
US6731793B1 (en) Method for determining the edge position in color images, particularly for color and intensity transitions
JP2002208013A (en) Image region extraction device and image region extraction method
KR100230446B1 (en) Determination method for color of light from color image
JP2004234689A (en) Face extracting method
JP3268014B2 (en) Color extraction device
JPH07113969B2 (en) Image processing method
JP4517788B2 (en) Image classification device, image classification method, image selection device, image selection method, and recording medium