JPH01200357A - Automatic cutting system - Google Patents
Automatic cutting systemInfo
- Publication number
- JPH01200357A JPH01200357A JP63023875A JP2387588A JPH01200357A JP H01200357 A JPH01200357 A JP H01200357A JP 63023875 A JP63023875 A JP 63023875A JP 2387588 A JP2387588 A JP 2387588A JP H01200357 A JPH01200357 A JP H01200357A
- Authority
- JP
- Japan
- Prior art keywords
- color
- data
- image
- image data
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Preparing Plates And Mask In Photomechanical Process (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔産業上の利用分野〕
この発明は、入力される画像から背景部を抽出して印刷
製版フィルムを作成する装置に係り、特にカラー画像か
ら縫点を検出して特徴背景部を切り抜いた印刷製版フィ
ルムを作成する装置に関するものである。[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an apparatus for creating a printing plate film by extracting a background part from an input image, and in particular detects sewing points from a color image and detects the features. The present invention relates to a device for creating a printing plate film with a background portion cut out.
(従来の技術〕
カラー印刷物の中には無地網部分が多数存在するが、こ
の無地網部分の製版工程は一般のカラー部分、いわゆる
調子物の製版工程とは異なった特殊な工程で行われる。(Prior Art) There are many plain mesh portions in a color printed matter, and the plate-making process for these plain mesh portions is carried out in a special process different from the plate-making process for general color portions, so-called toned materials.
従来、この種の装置としては、特開昭62−13005
9号公報等に示される無地網用フィルム原版作成装置が
提案されている。Conventionally, this type of device was disclosed in Japanese Patent Application Laid-Open No. 62-13005.
An apparatus for producing a plain mesh film original plate has been proposed as shown in Publication No. 9 and the like.
第9図は従来の無地網用フィルム原版作成装置の構成例
を説明するブロック図であり、51はスキャナで、線画
画像を読み取り、インタフェース52を介1.てコンピ
ュータ53に2値画像データを入力する。54は外部記
憶装置で、スキャナ51から入力された線画画像データ
を記憶する。FIG. 9 is a block diagram illustrating an example of the configuration of a conventional plain mesh film master production device. Reference numeral 51 denotes a scanner that reads a line drawing image and sends it via an interface 52 to 1. The binary image data is input to the computer 53 using the steps shown in FIG. 54 is an external storage device that stores line drawing image data input from the scanner 51.
55はインタフェースで、コンピュータ53により処理
された画像データを出力スキャナ56に出力する。出力
スキャナ56は、コンピュータ53により処理された画
像データに基づいてフィルム原版を刷版色毎にフィルム
出力する。57はフロッピーディスク装置で、主にスキ
ャナ51から取り込んだ線画画像データを記憶する。6
0は分色装置で、コンピュータ61とコンピュータ61
に接続されたデイスジ14621位置データを入力する
タブレット63.フロッピーディスク装置64等から構
成されている。55 is an interface that outputs image data processed by the computer 53 to an output scanner 56; The output scanner 56 outputs the film original plate for each printing plate color based on the image data processed by the computer 53. A floppy disk device 57 mainly stores line drawing image data taken in from the scanner 51. 6
0 is a color separation device, computer 61 and computer 61
A tablet 63. is connected to the tablet 14621 for inputting position data. It is composed of a floppy disk device 64 and the like.
次にスキャナ51から取り込まれた線画画像データ処理
について説明する。Next, processing of line drawing image data taken in from the scanner 51 will be explained.
入力される線画画像はスキャナ51により2値画像に変
換され、−旦コンピュータ53の内部メそりに取り込ま
れ、所定ラインずつ読み出されて2値画像データに含ま
れるゴミデータの除去等の画像処理が実行され、外部記
憶装置54に記憶される。The input line drawing image is converted into a binary image by the scanner 51, and then imported into the internal memory of the computer 53, read out line by line, and subjected to image processing such as removing dust data included in the binary image data. is executed and stored in the external storage device 54.
次いで、コンピュータ53の指示により外部記憶装置5
4に記憶された画像データが分色装置60に出力され、
色指示書に応じた所定の分色処理(線画で描画された絵
柄内部および外部の色塗り処理)を実行する。Next, according to instructions from the computer 53, the external storage device 5
The image data stored in 4 is output to the color separation device 60,
A predetermined color separation process (coloring process for the inside and outside of the picture drawn as a line drawing) according to the color instruction sheet is executed.
そして、線画画像に対して分らされた分色データをコン
ピュータ53に転送する。これにより、コンピュータ5
3が分色データを参照しながら無地網用フィルム原版デ
ータを版色毎に出力スキャナ56に出力する。Then, the color separation data separated for the line drawing image is transferred to the computer 53. This allows computer 5
3 outputs the plain mesh film original data for each plate color to the output scanner 56 while referring to the color separation data.
(発明が解決しようとする課題〕
ところが、写真原稿中から必要な部分のみを切り出して
使用する場合がある。例えば角型の写真原稿中をハート
型にトリミングし使用するとか、写真原稿中の対象物の
みを抽出して、他の写真原稿と合成して使用するとかい
った場合がある。この場合には、一般には切り抜き処理
を実行する。(Problem to be solved by the invention) However, there are cases where only necessary parts are cut out from a photographic manuscript and used.For example, a square photographic manuscript is trimmed into a heart shape, or an object in a photographic manuscript is cut out and used. There are cases where only objects are extracted and used by combining them with other photographic originals.In this case, a clipping process is generally performed.
すなわち、レイアウト用紙にトレースマシンで必要な絵
柄の輪郭をなぞって「キリヌキ」を指定したり、写真原
稿にトレーシングベーパーをかけ、必要な部分の輪郭を
描き込んだ上、不必要な部分を斜線でつぶして、「キリ
ヌキ」を指定し、このような切り抜き指定に従って、切
り抜きマスク等を作成して合成を実行する。In other words, you can specify ``Kirinuki'' by tracing the outline of the required pattern on layout paper with a tracing machine, or apply tracing vapor to a photo manuscript, draw the outline of the necessary part, and then add diagonal lines to the unnecessary part. Smash it, specify "Kirinuki", create a cutout mask etc. according to the cutout specification, and perform compositing.
しかしながら、印刷物となるものは上記のような単一の
色エリアからなるものばかりでなく、徐々に色が変化し
たり、カラー写真用のネガおよびポジフィルム等があり
、このようなカラー原稿中の特定の物、例えば人物とか
家具等のみを抽出してフィルム版を作成する場合には、
切り取られる領域に明度、彩度1色相の異なる領域が重
なりあっているので、上記の手法では忠実なフィルム版
を自動作成できず、カラーフィルム原稿の場合にはその
フィルム画像を投影して、人間が切り抜くエリアに対応
するマスクを作成し、そのマスクとフィルム原稿とを重
ねることにより、所望とするカラー原稿のフィルム版(
Y、M、C,BK版)を作成するといった手作業に委ね
られているため、フィルム原稿の画像の複雑さに起因し
てフィルム版作成効率が著しく低下し、印刷工程日数を
大幅に助長してしまう等の問題点があフな。However, printed matter does not only consist of a single color area as mentioned above, but also includes gradual color changes, negative and positive films for color photographs, etc. When creating a film version by extracting only a specific object, such as a person or furniture,
Since the area to be cut out overlaps with areas of different brightness, saturation, and hue, it is not possible to automatically create a faithful film version using the above method. By creating a mask corresponding to the area to be cut out and overlapping that mask with the film original, the film version of the desired color original (
However, due to the complexity of the image of the film original, the efficiency of film plate creation is significantly reduced, which greatly increases the number of days required for the printing process. There are some problems such as the problem of
この発明は、上記の課題を解決するためになされたもの
で、読み取られたカラー原稿に対して指示される背景部
の濃度平均値および共分散値から濃度距離データを演算
することにより、読み取られたカラー画像の切り抜き画
像を自動抽出できる自動切抜きシステムを得ることを目
的とする。The present invention has been made to solve the above-mentioned problems, and the present invention calculates density distance data from the density average value and covariance value of the background portion specified for the read color original. The purpose of this invention is to obtain an automatic cropping system that can automatically extract cropped images of color images.
この発明に係る自動切抜きシステムは、カラー写真原稿
を読み取る原稿読取り手段と、この原稿読取り手段によ
り読み取られたカラー画像データを版色別に記憶する画
像メモリと、この画像メモリに記憶された前記カラー画
像データを読み出し表示する表示手段と、この表示手段
に表示された所定の背景画像領域を指示する領域指示手
段と、この領域指示手段により指示された背景画像領域
に対するカラー画像データを読み出し各版色毎の濃度平
均値および版色間の共分散値を演算する濃度平均・共分
散演算手段と、画像メモリに記憶されたカラー画像デー
タを各画素毎で、かつ版色毎に読み出して濃度平均・共
分散演算手段が演算した各版色毎の濃度平均値および版
色間の共分散値を参照しながら識別関数により濃度距離
データを演算する識別関数演算手段と、この識別関数演
算手段が演算した濃度距離データとあらかじめ記憶され
る判定距離データを参照しながら背景部面像データを抽
出する背景部抽出手段とからなるものである。The automatic cutting system according to the present invention includes a document reading device for reading a color photo document, an image memory for storing the color image data read by the document reading device for each plate color, and the color image stored in the image memory. A display means for reading and displaying data, an area specifying means for specifying a predetermined background image area displayed on the display means, and a color image data for the background image area specified by the area specifying means for reading out each plate color. density average/covariance calculation means for calculating the density average value and covariance value between plate colors, and a density average/covariance calculation means for reading the color image data stored in the image memory for each pixel and for each plate color and calculating the density average/covariance value. Discrimination function calculation means for calculating density distance data using a discriminant function while referring to the density average value for each plate color and the covariance value between plate colors calculated by the dispersion calculation means, and the density calculated by the discriminant function calculation means. It consists of a background part extracting means for extracting background part image data while referring to distance data and pre-stored judgment distance data.
(作用〕
この発明においては、原稿読み取り手段により読み取ら
れたカラー写真原稿は版色別に画像メモリに記憶される
とともに、表示手段に表示される。(Operation) In the present invention, the color photographic original read by the original reading means is stored in the image memory for each plate color, and is displayed on the display means.
ここで、領域指示手段により表示手段に表示されたカラ
ー写真原稿に対する背景画像領域が指示されると、濃度
平均・共分散演算手段が指示された背景画像領域に対す
るカラー画像データを画像メモリより読み出し、各版色
毎の濃度平均値および版色間の共分散値を演算する。次
いで、識別関数演算手段が画像メモリに記憶されたカラ
ー画像データを画素単位で、かつ版色毎に読み出し演算
された各版毎の濃度平均値および版色間の共分散値をそ
れぞれ識別関数である、例えば正規分布関数に代入して
濃度距離データが演算される。そして、背景部抽出手段
が演算された濃度距疏データとあらかじめ記憶される判
定距離データを参照しながら背景部面像データを抽出す
る。Here, when the area specifying means specifies a background image area for the color photo original displayed on the display device, the density average/covariance calculation device reads color image data for the specified background image area from the image memory; The density average value for each plate color and the covariance value between plate colors are calculated. Next, the discriminant function calculating means reads out the color image data stored in the image memory pixel by pixel and for each plate color, and calculates the calculated density average value for each plate and covariance value between the plate colors using a discriminant function. The concentration distance data is calculated by substituting it into a certain, for example, normal distribution function. Then, the background portion extraction means extracts background portion surface image data while referring to the calculated density distance data and pre-stored judgment distance data.
第1図はこの発明の一実施例を示す自動切抜きシステム
の構成を説明するブロック図である。FIG. 1 is a block diagram illustrating the configuration of an automatic cutting system showing an embodiment of the present invention.
この図において、1はレイアウトテーブルで、例えばカ
ラーフィルム等のカラー原稿2(背景部が一様)が載置
される。3はカラースキャナで、カラー原稿2の画像を
光学的に読み取り、RGB侶号をY−M−C−BK侶号
に変換しながらイメージメモリ4に記憶させる。5はコ
ンピュータ等で構成される画像処理コントローラ部で、
濃度平均・共分散演算手段5a、識別関数演算手段5b
。In this figure, reference numeral 1 denotes a layout table, on which a color original 2 (with a uniform background) such as a color film, for example, is placed. Reference numeral 3 denotes a color scanner which optically reads the image of the color original 2 and stores it in the image memory 4 while converting the RGB number into the Y-M-C-BK number. 5 is an image processing controller section composed of a computer, etc.;
Concentration average/covariance calculation means 5a, discriminant function calculation means 5b
.
背景部抽出手段5c、スムージング処理手段5d。Background portion extraction means 5c, smoothing processing means 5d.
ベクタ変換手段5e、ベクタデータ補正手段5f。Vector conversion means 5e, vector data correction means 5f.
雑音除去手段5g等から構成されており、プログラムメ
モリ10に記憶される切り抜き処理プログラムに基づい
て起動する。濃度平均・共分散演算手段5aは領域指示
手段となるポインティングデバイス7bから指示された
背景部に対応するカラー画像データを画像メモリとなる
イメージメモリ4から読み出し、Y、M、C,BKの色
空間データ毎に濃度平均値および版色間の共分散値を演
算する。It is composed of a noise removing means 5g and the like, and is activated based on a clipping processing program stored in the program memory 10. The density average/covariance calculation means 5a reads out color image data corresponding to the background area designated by the pointing device 7b, which is an area designation means, from the image memory 4, which is an image memory, and converts the color image data into Y, M, C, and BK color spaces. The density average value and the covariance value between plate colors are calculated for each data.
識別関数演算手段5bは、イメージメモリ4に記憶され
たカラー画像データを各画素毎で、かつ版色毎に読み出
して濃度平均・共分散演算手段5aが演算した各版色毎
の濃度平均値および版色間の共分散値を参照しながら識
別関数により濃度距離データを演算する。The discriminant function calculating means 5b reads out the color image data stored in the image memory 4 for each pixel and for each plate color, and calculates the density average value and the value for each plate color calculated by the density average/covariance calculating means 5a. Density distance data is calculated using a discriminant function while referring to covariance values between plate colors.
背景部抽出手段5Cは、識別関数演算手段5bが演算し
た濃度距離データとあらかじめ記憶される判定距離デー
タ(マハラノビス距離データ)を参照しながらイメージ
メモリ4に記憶されたカラー画像データから背景部面像
データを抽出する。The background part extraction means 5C extracts a background part image from the color image data stored in the image memory 4 while referring to the density distance data calculated by the discriminant function calculation means 5b and the judgment distance data (Mahalanobis distance data) stored in advance. Extract the data.
スムージング処理手段5dは、背景部抽出手段5cによ
り抽出された背景部面像データを後述するようにスムー
ジングする。The smoothing processing means 5d smoothes the background image data extracted by the background extraction means 5c, as will be described later.
ベクタ変換手段5eは、スムージング処理手段5dによ
りスムージングされた背景部面像データを背景部ベクト
ルデータに変換する。The vector converter 5e converts the background image data smoothed by the smoothing processor 5d into background vector data.
ベクタデータ補正手段5fは、ベクタ変換手段5eによ
りベクトル化された背景部ベクトルデータを間引き補正
する。The vector data correction means 5f thins out and corrects the background vector data vectorized by the vector conversion means 5e.
次いで、雑音除去手段5gは、ベクタデータ補正手段5
fに間引き補正された背景部ベクトルデータの雑音を知
識情報に従りて除去する。Next, the noise removal means 5g performs the vector data correction means 5.
Noise in the background part vector data that has been thinned out and corrected to f is removed according to the knowledge information.
7は人力部で、キーボード7aおよびポインティングデ
バイス7bから構成され、切り抜き処理に必要なコマン
ドおよび位置データ等を画像処理コントローラ部5に指
示入力する。Reference numeral 7 denotes a human power section, which is composed of a keyboard 7a and a pointing device 7b, and inputs commands, position data, etc. necessary for the clipping process to the image processing controller section 5.
8はフィルム出力手段となるレイアウトスキャナで、雑
音除去手段5gから出力される背景部ベクトルデータを
参照しながらイメージメモリ4に記憶されたカラー画像
データ中から背景部外のカラー画像データを版色別に読
み出し、印刷フィルム版9に切り出し出力する。Reference numeral 8 denotes a layout scanner serving as a film output means, which separates color image data other than the background from the color image data stored in the image memory 4 by plate color while referring to the background vector data output from the noise removal means 5g. It is read out, cut out and output on a printing film plate 9.
第2図はこの発明による自動切り抜き処理を説明する状
態推移図であり、第1図と同一のものには同じ符合を付
しである。FIG. 2 is a state transition diagram illustrating the automatic clipping process according to the present invention, and the same parts as in FIG. 1 are given the same reference numerals.
この図において、11は背景部抽出画像データを示し、
第1図に示した背景部抽出手段5Cが抽出した背景部抽
出画像データに対応する。Nl。In this figure, 11 indicates background extracted image data,
This corresponds to the background extracted image data extracted by the background extracting means 5C shown in FIG. Nl.
N2はノイズ成分であり、画像処理演算により発生する
一様でない濃度領域として抽出されたデータに対応する
。N2 is a noise component, which corresponds to data extracted as an uneven density region generated by image processing calculations.
12はスムージングデータで、スムージング処理手段5
dがノイズ成分N 1 * N 2を、例えば近接する
画素データを所定のマトリクスデータにより除去したも
のに相当する。これにより、背景部輪郭データ12aが
生成される。12 is smoothing data, smoothing processing means 5
d corresponds to the noise component N1*N2, for example, obtained by removing adjacent pixel data using predetermined matrix data. As a result, background contour data 12a is generated.
13は背景部ベクトルデータで、背景部輪郭データ12
aのベクトルデータに相当する。13 is background vector data; background contour data 12
This corresponds to the vector data of a.
14は間引き補正された背景部ベクトルデータで、ベク
タデータ補正手段5fにより背景部ベクトルデータ13
を間引き補正して得られる。14a、14bは雑音ベク
トルデータで、雑音除去手段5gにより知識情報を用い
て自動的に消去される。Reference numeral 14 indicates background vector data that has been thinned out and corrected, and background vector data 13 is processed by the vector data correction means 5f.
Obtained by thinning correction. 14a and 14b are noise vector data, which are automatically erased by the noise removing means 5g using knowledge information.
15は背景部ベクトルデータで、この背景部ベクトルデ
ータ15がレイアウトスキャナ8に出力される。15 is background vector data, and this background vector data 15 is output to the layout scanner 8.
16は切抜き画像で、第1図に示した印刷フィルム版9
に露光される。16 is a cutout image of the printing film plate 9 shown in FIG.
exposed to light.
カラー原yJ2に対する原稿人力がポインティングデバ
イス7bより指示されると、カラースキャナ3がカラー
原fA2の読み取りを開始し、読み取ったカラー画像デ
ータを版色(イエロー、マゼンタ、シアン、ブラック)
毎にイメージメモリ4に順次書き込んで行く。この書き
込みが終了すると、イメージメモリ4から読み出された
カラー画像データがデイスプレィ6に表示される。When the manual input for the color original yJ2 is instructed from the pointing device 7b, the color scanner 3 starts reading the color original fA2, and converts the read color image data into plate colors (yellow, magenta, cyan, black).
Each time, data is sequentially written to the image memory 4. When this writing is completed, the color image data read from the image memory 4 is displayed on the display 6.
ここで、ポインティングデバイス7bより背景領域また
は背景点P、が指示されると、濃度平均・共分散演算手
段5aが指示された背景画像領域に対するカラー画像デ
ータをイメージメモリ4より読み出し、各版色毎の濃度
平均値AVM、AVC,AVY、AVKおよび版色間の
共分散値CVMM、−CVCM、CVYM、CVKM、
・、CVMK、CVCK、CVYK、、CVKK (
計16個の変数)を演算する。次いで、識別関数演算手
段5bがイメージメモリ4に記憶されたカラー画像デー
タを画素単位で、かつ版色毎に読み出し、演算された各
版毎の濃度平均値AVM、AVC,AVY、AVKおよ
び版色間の共分散値CVMM。Here, when the background area or background point P is specified by the pointing device 7b, the density average/covariance calculation means 5a reads out the color image data for the specified background image area from the image memory 4, and reads out the color image data for the specified background image area for each plate color. density average values AVM, AVC, AVY, AVK and covariance values between plate colors CVMM, -CVCM, CVYM, CVKM,
・、CVMK、CVCK、CVYK、、CVKK (
A total of 16 variables) are calculated. Next, the discrimination function calculating means 5b reads out the color image data stored in the image memory 4 pixel by pixel and for each plate color, and calculates the calculated density average values AVM, AVC, AVY, AVK and plate colors for each plate. The covariance value between CVMM.
CVCM、CVYM、CVKM、−、CVMK。CVCM, CVYM, CVKM, -, CVMK.
CVCに、CVYK、CVKKをそれぞれ識別関数であ
る正規分布関数に代入して濃度距離データを演算する。Concentration distance data is calculated by substituting CVYK and CVKK into a normal distribution function which is a discrimination function in CVC.
そして、背景部抽出手段5Cが演算された濃度距離デー
タとあらかじめ記憶される判定距離データよりも小さい
かどうかを判定することにより、背景部抽出画像データ
11を抽出する。Then, the background portion extracting means 5C extracts the background portion extracted image data 11 by determining whether the calculated density distance data is smaller than pre-stored determination distance data.
抽出された背景部画像データはスムージング処理手段5
dにより背景輪郭部がスムージングされ、スムージング
データ12が生成される。The extracted background image data is processed by smoothing processing means 5.
The background contour portion is smoothed by d, and smoothing data 12 is generated.
次いで、ベクタ変換手段5eにより背景部画像データで
ある背景部輪郭データ12aが背景部ベクトルデータ1
3に変換されると、ベクタデータ補正手段5fが背景部
ベクトルデータ13の変化点数を減らす間引き処理を実
行してベクトル形状を補正する。そして、雑音除去手段
5gが雑音ベクトルデータ14a、14bを知識情報を
用いて消去し、雑音除去された背景部ベクトルデータ1
5がレイアウトスキャナ8に出力される。Next, the vector converting means 5e transforms the background contour data 12a, which is the background image data, into the background vector data 1.
3, the vector data correction means 5f performs a thinning process to reduce the number of change points in the background vector data 13 to correct the vector shape. Then, the noise removing means 5g erases the noise vector data 14a and 14b using the knowledge information, and the noise removed background part vector data 1
5 is output to the layout scanner 8.
これに従ってレイアウトスキャナ8が背景部ベクトルデ
ータ15を参照しながらイメージメモリ4に記憶された
カラー画像データ中の背景部外に対応するカラー画像デ
ータ(切抜き画像16)を読み出し、印刷フィルム版9
に版別に切り出し露光出力する。In accordance with this, the layout scanner 8 reads the color image data (cutout image 16) corresponding to the outside of the background part in the color image data stored in the image memory 4 while referring to the background part vector data 15, and reads the color image data (cutout image 16) corresponding to the outside of the background part in the color image data stored in the image memory 4.
Cut out each plate and output the exposure.
次に第3図〜第6図を参照しながら第1図に示したスム
ージング処理手段5dによる膨張収縮に準じたスムーズ
処理について説明する。Next, with reference to FIGS. 3 to 6, smoothing processing based on expansion and contraction by the smoothing processing means 5d shown in FIG. 1 will be explained.
第3図は、第1図に示したスムージング処理手段5dに
よる輪郭画素の膨張を説明する模式図であり、21は判
定画素パターンで、例えば対象画素21aに隣接する8
近傍画素を検索して対象画素21aの「1」 (黒画素
)、rO」 (白画素)を決定する。22は膨張処理パ
ターンで、判定画素パターン21の8近傍画素が1つで
も「1」の場合に、対象画素21aが「1」 (斜線で
示す)に形成されて膨張された状態に対応する。FIG. 3 is a schematic diagram illustrating expansion of contour pixels by the smoothing processing means 5d shown in FIG.
Neighboring pixels are searched to determine "1" (black pixel) and "rO" (white pixel) of the target pixel 21a. Reference numeral 22 denotes an expansion processing pattern, which corresponds to a state in which the target pixel 21a is formed to be “1” (indicated by diagonal lines) and expanded when even one of the eight neighboring pixels of the determination pixel pattern 21 is “1”.
第4図は、第1図に示したスムージング処理手段5dに
よる輪郭画素の収縮を説明する模式図であり、31は判
定画素パターンで、例えば対象画素31aに隣接する8
近傍画素を検索して対象画素31aのrib、rQJを
決定する。32は収縮処理パターンで、判定画素パター
ン31の8近傍画素が1つでも「0」の場合に、対象画
素31aが「0」に形成されて収縮された状態に対応す
る。FIG. 4 is a schematic diagram illustrating the contraction of contour pixels by the smoothing processing means 5d shown in FIG.
The rib and rQJ of the target pixel 31a are determined by searching for neighboring pixels. Reference numeral 32 denotes a contraction processing pattern, which corresponds to a state in which the target pixel 31a is formed to "0" and contracted when even one of the eight neighboring pixels of the determination pixel pattern 31 is "0".
例えば第5図に示すような凸型のノツチが線画の輪郭に
含まれるようなtrs画画像画像データ41a索された
場合には、スムージング処理プログラムに基づいて第4
図に示した判定画素パターン31により収縮走査を実行
して収縮画像データ41bを生成し、この収縮画像デー
タ41bに対して膨張処理を施すため、スムージング処
理プログラムに基づいてスムージング処理手段5dが第
3図に示した判定画素パターン21により膨張走査を行
い、ノツチ除去画像41cを生成する。For example, when the TRS image image data 41a in which a convex notch is included in the outline of a line drawing as shown in FIG.
A contraction scan is performed using the determination pixel pattern 31 shown in the figure to generate contraction image data 41b, and in order to perform expansion processing on this contraction image data 41b, the smoothing processing means 5d is operated by the third smoothing processing means 5d based on the smoothing processing program. Dilation scanning is performed using the judgment pixel pattern 21 shown in the figure to generate a notch-removed image 41c.
一方、第6図に示すような凹型のノツチが線画の輪郭に
含まれるような線画画像データ42aが検索された場合
には、スムージング処理プログラムに基づいて第3図に
示し、 72判定画素パターン21により膨張走査を実
行して膨張画像データ42bを生成し、この膨張画像デ
ータ42bに対して収縮処理を施すため、スムージング
処理プログラムに基づいてスムージング処理手段5dh
<第4図に示した判定画素パターン31により収縮走査
を行い、ノツチ除去画像データ42cを生成する。なお
、この処理は、この実施例においては膨張−膨張−収縮
の順に画像全体に対して実行される。On the other hand, when line drawing image data 42a in which the outline of the line drawing includes a concave notch as shown in FIG. 6 is retrieved, the 72 judgment pixel pattern 21 shown in FIG. In order to perform dilation scanning to generate dilated image data 42b, and perform a dilation process on this dilated image data 42b, the smoothing processing means 5dh is executed based on a smoothing processing program.
<Contraction scanning is performed using the determination pixel pattern 31 shown in FIG. 4 to generate notch-removed image data 42c. In this embodiment, this process is performed on the entire image in the order of expansion, expansion, and contraction.
第7図は、第1図に示したベクタデータ補正手段5fに
よるベクタデータ補正処理を説明する模式図であり、4
5は原ベクトルデータで、ベクタ変換手段5eにより生
成されるベクトルデータに対応する。46は補正ベクト
ルデータで、各原ベクトルデータ45間で発生する段差
が発生しないようにベクタ点数を所定ピッチで減らした
ものに対応する。FIG. 7 is a schematic diagram illustrating vector data correction processing by the vector data correction means 5f shown in FIG.
Reference numeral 5 indicates original vector data, which corresponds to vector data generated by the vector conversion means 5e. Reference numeral 46 denotes corrected vector data, which corresponds to data obtained by reducing the number of vector points at a predetermined pitch so as not to generate a level difference between the respective original vector data 45.
この図から分かるように、2値細線上の変化のかなめと
なる点を方向コードで検索することにより、原ベクトル
データ45が補正ベクトルデータ46に自動補正される
。これにより、輪郭エツジの粗さが軽減される。As can be seen from this figure, original vector data 45 is automatically corrected to corrected vector data 46 by searching for key points of change on the binary thin line using direction codes. This reduces the roughness of the contour edges.
次いで、雑音除去手段5gにより、補正ベクタデータ4
6の中で雑音ベクタデータがループ単位に除去される。Next, the noise removing means 5g extracts the corrected vector data 4.
6, noise vector data is removed in loop units.
なお、雑音除去のための知識情報■〜■は、図示しない
内部メモリに記憶されており、下記雑音除去ルール(1
)〜(4) に従ってベクトルデータを検索することに
より除去できる。The knowledge information ■~■ for noise removal is stored in an internal memory (not shown), and the following noise removal rules (1) are stored in the internal memory (not shown).
) to (4) can be removed by searching the vector data according to the following.
■ループの長さ
■ループの包含関係
■ループの複雑さ(クリティカルポイント数/ベクトル
ループ長)
(1)ベクトルループ長がある一定値以下で、かつ複雑
さがある一定値以上をもつベクトルループは除去する。■Loop length ■Loop inclusion relationship ■Loop complexity (number of critical points/vector loop length) (1) A vector loop whose vector loop length is less than a certain value and whose complexity is more than a certain value is Remove.
(2)ベクトルループ長がある一定値以上で、かつ包含
関係が一番外側にあり、さらに複雑さがある一定値以下
のベクトルループは残存する。(2) Vector loops whose vector loop length is a certain value or more, whose inclusion relationship is the outermost one, and whose complexity is less than a certain certain value remain.
(3)包含関係で内側にあり、かつ複雑さがある一定値
以上をもつベクトルループは除去する。(3) Vector loops that are inside due to inclusion relationships and whose complexity exceeds a certain value are removed.
(4)包含関係で内側にあり、かつベクトルループ長が
ある一定値以上で、さらに複雑さがある一定値以下のベ
クトルループは切り抜き線として残存させる。(4) A vector loop that is inside due to an inclusion relationship, has a vector loop length of a certain value or more, and has a complexity of a certain certain value or less is left as a cutout line.
このような知識情報および雑音除去ルールにより精度の
良い切り抜き画像用の背景部ベクトルデータが生成され
、この背景部ベクトルデータを参照しながらレイアウト
スキャナ8がイメージメモリ4をアクセスして、背景部
外のカラー画像デー・りのみを抽出して、印刷フィルム
版9に切り抜き画像の印刷版が自動露光出力される。Using such knowledge information and noise removal rules, highly accurate background vector data for the cropped image is generated, and the layout scanner 8 accesses the image memory 4 while referring to this background vector data, and removes the parts other than the background. A color image data sheet is extracted, and a printing plate of the cutout image is automatically exposed and outputted onto a printing film plate 9.
次に第8図を参照しながらこの発明による自動切り抜き
処理について説明する。Next, automatic clipping processing according to the present invention will be explained with reference to FIG.
第8図はこの発明による自動切り抜き処理手順を説明す
るフローチャートである。なお、(1)〜(17)は各
ステップを示す。FIG. 8 is a flowchart illustrating the automatic clipping processing procedure according to the present invention. Note that (1) to (17) indicate each step.
ポインティングデバイス7bよりカラー原稿2に対する
画像読み取りが指示されて、カラースキャナ3がカラー
原稿2に対する画像読み取りを終了するのを待機しく1
)、版色別の読み取りを終了したら、読み取ったカラー
画像データを版色別にイメージメモリ4に登録する(2
)。The pointing device 7b instructs the color document 2 to read the image, and waits for the color scanner 3 to finish reading the color document 2.
), when reading for each plate color is completed, the read color image data is registered in the image memory 4 for each plate color (2
).
次いで、ポインティングデバイス7bより登録されたカ
ラー画像の描画指令が入力されるのを待機しく3)、描
画指令が入力されたら、イメージメモリ4より読み出さ
れたカラー画像データをデイスプレィ6に描画する(4
)。ここで、ポインティングデバイス7bよりオペレー
タからの背景部指示人力が得られるのを待機しく5)、
背景部が指示されたら、濃度平均・共分散演算手段5a
がポインティングデバイス7bより指示された背景部に
対するカラー画像データをイメージメモリ4から読み出
して各版色毎の濃度平均値および版色間の共分散値を演
算するとともに、イメージメモリ4から読み出される各
画素のカラー画像データと上記濃度平均値および共分散
値を識別関数となる正規分布関数に代入して濃度距離デ
ータを演算する(6)。Next, it waits for a drawing command for the registered color image to be input from the pointing device 7b (3), and when the drawing command is input, the color image data read from the image memory 4 is drawn on the display 6 (3). 4
). At this point, the operator waits for the operator's input from the pointing device 7b to indicate the background part 5).
When the background part is specified, the density average/covariance calculation means 5a
reads the color image data for the background area indicated by the pointing device 7b from the image memory 4, calculates the density average value for each plate color and the covariance value between the plate colors, and calculates the color image data for each pixel read from the image memory 4. The color image data, the density average value, and the covariance value are substituted into a normal distribution function serving as a discrimination function to calculate density distance data (6).
そして、あらかじめ記憶される判定距離データを参照し
く7)、濃度距離データが背景部となるかどうかを判断
しく8)、Noならばステップ(6)に戻り、YESな
らば背景部となったカラー画像データを登録する(9)
。Then, refer to the pre-stored judgment distance data 7) and judge whether the density distance data becomes the background part 8). If No, return to step (6); if YES, the color becomes the background part. Register image data (9)
.
次いで、スムージング処理手段5dがカラー画像データ
の輪郭形状を膨張収縮処理して(10)。Next, the smoothing processing means 5d expands and contracts the contour shape of the color image data (10).
(11)、スムージング修正する。(11), smoothing correction.
次いで、スムージングされた背景画像データ(ラスタデ
ータ)をベクタ変換手段5eがベクトルデータに変換す
る(32)。Next, the vector conversion means 5e converts the smoothed background image data (raster data) into vector data (32).
続いて、ベクタデータ補正手段5fがベクトルデータの
間引き補正を雑音除去手段5gがベクトルデータの雑音
除去を実行する(13)、 (14)。Subsequently, the vector data correction means 5f performs thinning correction on the vector data, and the noise removal means 5g performs noise removal on the vector data (13), (14).
次いで、レイアウトスキャナ8が修正されたベクトルデ
ータを参照しながらイメージメモリ4に記憶された版色
別のカラー画像データが読み出されるのを待機しく15
)、読み出された背景部外のカラー画像(切抜き画像)
を印刷フィルム版9に対して版色毎に露光出力する(1
6)。Next, the layout scanner 8 waits for the color image data for each plate color stored in the image memory 4 to be read out while referring to the corrected vector data (15).
), read out color image outside the background (cropped image)
is exposed to the printing film plate 9 for each plate color (1
6).
次いで、全てのフィルムが出力されたかどうかを判断し
く】7)、Noならばステップ(15)に戻り、YES
ならば処理を終了する。Next, determine whether all the films have been output]7) If no, return to step (15) and select YES.
If so, the process ends.
なお、上記実施例ではカラー原稿2をカラースキャナ3
より入力する場合について説明1ノたが、レイアウトス
キャナ8の図示しない入力ドラムより入力しても同様の
処理が実行できる。In the above embodiment, the color original 2 is transferred to the color scanner 3.
Although the case where input is made is described in No. 1, the same processing can be executed by inputting from an input drum (not shown) of the layout scanner 8.
以上説明したようにこの発明は、カラー写真原稿を読み
取る原稿読取り手段と、この原稿読取り手段により読み
取られたカラー画像データを版色別に記憶する画像メモ
リと、この画像メモリに記憶された前記カラー画像デー
タを読み出し表示する表示手段と、この表示手段に表示
された所定の背景画像領域を指示する領域指示手段と、
この領域指示手段により指示された背景画像領域に刻す
るカラー画像データを読み出し各版色毎の濃度平均値お
よび版色間の共分散値を演算する濃度平均・共分散演算
手段と、画像メモリに記憶されたカラー画像データを各
画素毎で、かつ版色毎に読み出して濃度平均・共分散演
算手段が演算した各版色毎の濃度平均値および版色間の
共分散値を参照しながら識別関数により濃度距離データ
を演算する識別関数演算手段と、この識別関数演算手段
が演算した濃度距離データとあらかじめ記憶される判定
距離データを参照しながら背景部画像データを抽出する
背景部抽出手段とから構成したので、読み取られたカラ
ー画像の背景が−様な任意の点を指示するといった簡単
な操作で、読み取られたカラー画像の切り抜き画像を版
色毎に自動抽出できる。As explained above, the present invention includes an original reading means for reading a color photo original, an image memory for storing color image data read by the original reading means for each plate color, and the color image stored in the image memory. a display means for reading and displaying data; an area specifying means for specifying a predetermined background image area displayed on the display means;
A density average/covariance calculating means reads the color image data to be engraved in the background image area specified by the area specifying means and calculates the density average value for each plate color and the covariance value between the plate colors, and the image memory. The stored color image data is read out for each pixel and for each plate color, and identified by referring to the density average value for each plate color and the covariance value between plate colors calculated by the density average/covariance calculation means. Discrimination function calculation means for calculating density distance data using a function, and background part extraction means for extracting background part image data while referring to the density distance data calculated by the discrimination function calculation means and judgment distance data stored in advance. With this configuration, a cutout image of a read color image can be automatically extracted for each plate color by a simple operation such as specifying an arbitrary point where the background of the read color image is negative.
従って、従来のようなマスク処理による切り抜き画像フ
ィルム作成処理に比べて短時間で精度よく切り抜き画像
印刷フィルムを抽出できる等の優れた効果を奏する。Therefore, compared to the conventional cutout image film creation process using mask processing, excellent effects such as being able to extract a cutout image print film with high accuracy in a shorter time can be achieved.
第1図はこの発明の一実施例を示す自動切抜きシステム
の構成を説明するブロック図、第2図はこの発明による
自動切り抜き処理を説明する状態推移図、第3図は、第
1図に示したスムージング処理手段による輪郭画素の膨
張を説明する模式図、第4図は、第1図に示したスムー
ジング処理手段による輪郭画素の収縮を説明する模式図
、第5図および第6図はこの発明によるスムージング処
理状態を説明する模式図、第7図は、第1図に示したベ
クタデータ補正手段によるベクトルデータ補正処理を説
明する模式図、第8図はこの発明による自動切り抜き処
理手順を説明するフローチャート、第9図は従来の無地
網用フィルム原版作成装置の構成例を説明するブロック
図である。
図中、1はレイアウトテーブル、2はカラー原稿、3は
カラースキャナ、4はイメージメモリ、5は画像処理コ
ントローラ部、5aは濃度平均・共分散演算手段、5b
は識別関数演算手段、5Cは背景部抽出手段、5dはス
ムージング処理手段、5eはベクタ変換手段、5fはベ
クタデータ補正手段、5gは雑音除去手段、6はデイス
プレィ、7は人力部、7aはキーボード、7bはポイン
ティングデバイス、8はレイアウトスキャナ、9は印刷
フィルム版である。
第2図
第3図゛
第4図
第5図
第6図
第7図FIG. 1 is a block diagram explaining the configuration of an automatic clipping system showing an embodiment of the present invention, FIG. 2 is a state transition diagram explaining automatic clipping processing according to the present invention, and FIG. FIG. 4 is a schematic diagram illustrating the expansion of contour pixels by the smoothing processing means shown in FIG. 1, and FIG. 5 and FIG. FIG. 7 is a schematic diagram explaining the vector data correction process by the vector data correction means shown in FIG. 1, and FIG. 8 is a schematic diagram explaining the automatic clipping processing procedure according to the present invention. The flowchart and FIG. 9 are block diagrams illustrating an example of the configuration of a conventional plain screen film master production apparatus. In the figure, 1 is a layout table, 2 is a color original, 3 is a color scanner, 4 is an image memory, 5 is an image processing controller section, 5a is a density average/covariance calculation means, 5b
5C is a discriminant function calculation means, 5C is a background extraction means, 5d is a smoothing processing means, 5e is a vector conversion means, 5f is a vector data correction means, 5g is a noise removal means, 6 is a display, 7 is a human power section, and 7a is a keyboard. , 7b is a pointing device, 8 is a layout scanner, and 9 is a printing film plate. Figure 2 Figure 3 Figure 4 Figure 5 Figure 6 Figure 7
Claims (1)
稿読取り手段により読み取られたカラー画像データを版
色別に記憶する画像メモリと、この画像メモリに記憶さ
れた前記カラー画像データを読み出し表示する表示手段
と、この表示手段に表示された所定の背景画像領域を指
示する領域指示手段と、この領域指示手段により指示さ
れた前記背景画像領域に対する前記カラー画像データを
読み出し各版色毎の濃度平均値および版色間の共分散値
を演算する濃度平均・共分散演算手段と、前記画像メモ
リに記憶された前記カラー画像データを各画素毎で、か
つ版色毎に読み出して前記濃度平均・共分散演算手段が
演算した各版色毎の濃度平均値および版色間の共分散値
を参照しながら識別関数により濃度距離データを演算す
る識別関数演算手段と、この識別関数演算手段が演算し
た濃度距離データとあらかじめ記憶される判定距離デー
タを参照しながら背景部画像データを抽出する背景部抽
出手段とからなることを特徴とする自動切抜きシステム
。an original reading means for reading a color photographic original; an image memory for storing color image data read by the original reading means for each plate color; and a display means for reading and displaying the color image data stored in the image memory; an area specifying means for specifying a predetermined background image area displayed on the display means; and an area specifying means for reading out the color image data for the background image area specified by the area specifying means, and an average density value and a plate color for each plate color. density average/covariance calculation means for calculating a covariance value between; and density average/covariance calculation means for reading out the color image data stored in the image memory for each pixel and for each printing color Discrimination function calculation means for calculating density distance data using a discriminant function while referring to the calculated density average value for each plate color and covariance value between plate colors; An automatic clipping system comprising a background part extracting means for extracting background part image data while referring to stored determination distance data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63023875A JPH01200357A (en) | 1988-02-05 | 1988-02-05 | Automatic cutting system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63023875A JPH01200357A (en) | 1988-02-05 | 1988-02-05 | Automatic cutting system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH01200357A true JPH01200357A (en) | 1989-08-11 |
Family
ID=12122621
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP63023875A Pending JPH01200357A (en) | 1988-02-05 | 1988-02-05 | Automatic cutting system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH01200357A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04136852A (en) * | 1990-09-28 | 1992-05-11 | Toppan Printing Co Ltd | Image display system |
| WO1996002043A1 (en) * | 1994-07-07 | 1996-01-25 | The Commonwealth Of Australia | Object separation in multispectral image processing |
-
1988
- 1988-02-05 JP JP63023875A patent/JPH01200357A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04136852A (en) * | 1990-09-28 | 1992-05-11 | Toppan Printing Co Ltd | Image display system |
| WO1996002043A1 (en) * | 1994-07-07 | 1996-01-25 | The Commonwealth Of Australia | Object separation in multispectral image processing |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0748795B2 (en) | Image input / output device | |
| JP2004274720A (en) | Data conversion apparatus and data conversion program | |
| JP2000165648A (en) | Image processing method, its device and recording medium | |
| GB2182524A (en) | Picture image input/output system | |
| JPH01200357A (en) | Automatic cutting system | |
| JP4507082B2 (en) | Catch light synthesis method | |
| JP2003069843A (en) | Device, method and program for processing image and computer readable recording medium with the program recorded thereon | |
| JPH01200356A (en) | automatic clipping system | |
| JP2670106B2 (en) | Cutout mask making system | |
| JPH0969165A (en) | Picture processor | |
| JP2000270199A (en) | Processing photo prints | |
| JPH02105152A (en) | Cutout mask creation system | |
| JP2804299B2 (en) | Cutout mask making system | |
| JPH0254267A (en) | automatic clipping system | |
| JPH01200358A (en) | automatic clipping system | |
| JPH01298477A (en) | Automatic clipping system | |
| JPS6360450A (en) | Film negative forming device for screen tint | |
| JPH0346658A (en) | Cutout mask creation system | |
| JP4507078B2 (en) | Automatic face image correction method and apparatus | |
| JPH0877336A (en) | Area extracting method | |
| JPH01173177A (en) | Automatic cut-out system | |
| JP3306969B2 (en) | Document editing device | |
| JPH07322054A (en) | Area setting method | |
| JPH0690494B2 (en) | Film original plate making device for plain net | |
| JPH06100817B2 (en) | Method for making original film for plain net |