JPH09134438A - Image processing device - Google Patents
Image processing deviceInfo
- Publication number
- JPH09134438A JPH09134438A JP7316042A JP31604295A JPH09134438A JP H09134438 A JPH09134438 A JP H09134438A JP 7316042 A JP7316042 A JP 7316042A JP 31604295 A JP31604295 A JP 31604295A JP H09134438 A JPH09134438 A JP H09134438A
- Authority
- JP
- Japan
- Prior art keywords
- scanning
- sub
- main scanning
- unit
- variable power
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理装置に関
し、特に、複数画素を参照して線画(文字)のエッヂを
抽出し、その結果によりパラメータを切り替え画像の形
成処理を行なう画像処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus for extracting an edge of a line drawing (character) by referring to a plurality of pixels and switching parameters according to the result to perform an image forming process. .
【0002】[0002]
【従来の技術】従来、変倍率に応じて、線画のエッヂの
抽出の判定のパラメータを変えることができる画像処理
装置がある。この機能を装備する理由は、変倍率に応じ
て読み取り部の画像データの特性が変化するためであ
る。2. Description of the Related Art Conventionally, there is an image processing apparatus capable of changing a parameter for judging the extraction of an edge of a line drawing according to the scaling ratio. The reason for equipping this function is that the characteristics of the image data of the reading unit change according to the scaling ratio.
【0003】同様な理由で、画像処理フィルタを変える
画像処理装置もある。例えば、4回スキャンして画像デ
ータを読み取る装置では、構成部品の主走査変倍は原稿
認識部の後で、副走査変倍は原稿認識部の前の配置構成
をとる場合がある。For the same reason, there is an image processing apparatus in which the image processing filter is changed. For example, in an apparatus that scans image data by scanning four times, the main scanning magnification of the components may be arranged after the document recognition unit, and the sub-scanning magnification may be arranged before the document recognition unit.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記従
来例のような配置構成の画像処理装置であると、倍率に
より原稿認識部の結果の線のエッヂ(輪郭)を抽出して
いるため、主走査と副走査の幅が出力結果として異な
る。また、主走査変倍を原稿認識部の前に配置すると、
R・G・Bのための3つの回路部を必要とする問題を伴
う。However, in the image processing apparatus having the arrangement configuration as in the above-mentioned conventional example, since the edge of the line (contour) of the result of the document recognition section is extracted by the magnification, the main scanning is performed. And the width of the sub-scan is different as the output result. In addition, if the main scanning scaling is placed in front of the document recognition section,
It involves the problem of requiring three circuit parts for R, G, and B.
【0005】本発明は、主走査と副走査の変倍率を変え
てもそれぞれのエッジ検出の出力結果を略一定とする画
像処理装置を提供することを目的とする。SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus which makes the output result of each edge detection substantially constant even if the scaling ratio of the main scanning and the sub scanning is changed.
【0006】[0006]
【課題を解決するための手段】かかる目的を達成するた
め、本発明の画像処理装置は、副走査を副走査変倍率で
変倍する副走査変倍手段と、主走査を主走査変倍率で変
倍する主走査変倍手段と、副走査変倍手段と主走査変倍
手段との間に輪郭抽出手段とを備え、副走査変倍率と主
走査変倍率に応じ、輪郭抽出の結果を膨張又は収縮する
ことを特徴としている。In order to achieve the above object, the image processing apparatus of the present invention comprises a sub-scanning scaling unit for scaling the sub-scanning with the sub-scanning scaling factor and a main scanning with the main-scanning scaling factor. A main scanning scaling unit for scaling and a contour extraction unit between the sub scanning scaling unit and the main scanning scaling unit are provided, and the result of contour extraction is expanded according to the sub scanning scaling factor and the main scanning scaling factor. Alternatively, it is characterized by contraction.
【0007】また、上記の膨張または収縮は、主走査変
倍率または副走査変倍率に応じ、それぞれ独立して行
い、輪郭抽出の結果は、文字か否かを認識する領域識別
信号とするとよい。The expansion or contraction may be performed independently according to the main scanning scaling factor or the sub-scanning scaling factor, and the result of contour extraction may be an area identification signal for recognizing whether or not it is a character.
【0008】[0008]
【発明の実施の形態】次に添付図面を参照して本発明に
よる画像処理装置の実施の形態を詳細に説明する。図1
〜図7を参照すると本発明の画像処理装置の実施の形態
が示されている。図1は画像処理装置の主要構成ブロッ
ク図、図2〜図4は内部の部分構成ブロック図、図5は
白領域検出の動作を説明するためのマトリックス、図6
および図7は線画の概念的な断面図、図8および図9は
印刷原稿の線画の抽出手順を説明するための概念図であ
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings. FIG.
~ Referring to Fig. 7, there is shown an embodiment of an image processing apparatus of the present invention. 1 is a block diagram of the main configuration of the image processing apparatus, FIGS. 2 to 4 are block diagrams of internal partial configurations, FIG. 5 is a matrix for explaining the operation of white area detection, and FIG.
7 and 8 are conceptual sectional views of the line drawing, and FIGS. 8 and 9 are conceptual diagrams for explaining the procedure for extracting the line drawing of the printed document.
【0009】画像処理装置は、図1に示すように原稿を
読み取り、読み取ったデータをデジタルデータとして出
力する原稿読み取り部11、原稿読み取り部11が読み
取った画像データを補正し原稿認識を行なう画像処理部
12、画像処理部12の出力画像データを用紙に出力す
る画像記録部13とから構成される。The image processing apparatus reads an original as shown in FIG. 1 and outputs the read data as digital data. An original reading section 11 and an image processing for correcting the image data read by the original reading section 11 and recognizing the original. And an image recording unit 13 that outputs the output image data of the image processing unit 12 onto a sheet.
【0010】本実施例の要部である画像処理部12を図
2を用いて説明する。RGBγ補正部21は、RGBデ
ータのグレーバランスの補正と濃度データへの変換を行
う。The image processing unit 12 which is the main part of this embodiment will be described with reference to FIG. The RGBγ correction unit 21 corrects the gray balance of RGB data and converts it into density data.
【0011】遅延部22は、原稿認識部30の出力結果
と同期をとるために、RGBデータを遅延する。原稿認
識部30は、RGB画像データに応じて、文字領域か絵
柄領域かを判定して、RGBフィルタ部23にC/P信
号を出力する。C/P信号のロジックは、Hで文字、L
で絵柄である。The delay unit 22 delays the RGB data in order to synchronize with the output result of the document recognition unit 30. The document recognition unit 30 determines whether it is a character region or a pattern region according to the RGB image data, and outputs a C / P signal to the RGB filter unit 23. The logic of the C / P signal is H for letters and L
It is a design.
【0012】さらに、原稿領域の有彩領域か無彩領域を
判定して、B/C信号をRGBフィルタ部23に出力す
る。B/C信号のロジックは、Hで無彩領域、Lで有彩
領域である。C/P信号は、RGBフィルタ部23、色
補正部24、VCR部25、変倍部26、CMYBkフ
ィルタ部27、CMYBkγ補正部28、階調処理部2
9にカスケード接続され、画像データに同期して信号I
MGを出力する。Further, the chromatic area or the achromatic area of the original area is determined, and the B / C signal is output to the RGB filter section 23. The logic of the B / C signal is H in the achromatic region and L in the chromatic region. The C / P signal includes an RGB filter unit 23, a color correction unit 24, a VCR unit 25, a scaling unit 26, a CMYBk filter unit 27, a CMYBkγ correction unit 28, and a gradation processing unit 2.
9 is connected in cascade, and the signal I is synchronized with the image data.
Output MG.
【0013】各ブロックは、C/P信号およびB/C信
号により、文字の処理と絵柄の処理を切りかえて行な
う。B/C信号は、RGBフィルタ部23、色補正部2
4、VCR部25にカスケード接続され、画像データに
同期して出力する。Each block switches between character processing and picture processing by the C / P signal and the B / C signal. The B / C signal is supplied to the RGB filter unit 23 and the color correction unit 2.
4. Cascade-connected to the VCR unit 25 and output in synchronization with the image data.
【0014】RGBフィルタ部23は、R・G・Bデー
タをMTF補正するフィルタであり、N×Nのマトリッ
クスで構成している。C/P信号がHの時は鮮鋭化処理
を行ない、Lの時は平滑化処理をする。色補正部24
は、R・G・Bデータを一次のマスキング等でC・M・
Yのデータに変換する。The RGB filter section 23 is a filter for MTF correction of R, G, B data, and is composed of an N × N matrix. When the C / P signal is H, the sharpening process is performed, and when the C / P signal is L, the smoothing process is performed. Color correction unit 24
For R / G / B data by primary masking, etc.
Convert to Y data.
【0015】VCR部25は、画像データの色再現を向
上させるため、C・M・Y・Bkの4色で表現する。C
・M・Yの共通部分をVCR(加色除去)を行ない、B
kデータを生成する。C/P信号がLの時は、スケルト
ンブラックのBk生成を行なう。C/P信号がHの時
は、フルブラック処理を行なう。さらに、C/P信号が
Hで、かつB/C信号がHの時は、C・M・Yのデータ
をイレースする。これは、黒文字の時、黒成分のみで表
現するためである。また、出力IMGは、C・M・Y・
Bkのうち一色を出力する、面順次の一色である。つま
り、4回原稿を読み取りを行なうことにより、フルカラ
−(4色)データを作成する。The VCR section 25 expresses four colors of C, M, Y and Bk in order to improve the color reproduction of the image data. C
・ VCR (addition color removal) is performed on the common part of M and Y, and B
Generate k data. When the C / P signal is L, skeleton black Bk is generated. When the C / P signal is H, full black processing is performed. Further, when the C / P signal is H and the B / C signal is H, the C, M and Y data are erased. This is because in the case of a black character, it is expressed only by the black component. The output IMG is C, M, Y,
It is a frame sequential color that outputs one color of Bk. That is, full color (4 color) data is created by reading the original document four times.
【0016】変倍部26は、主走査方向の拡大・縮少、
あるいは、等倍処理を実行する。CMYBkフィルタ部
27は、画像記録部13の周波数特性や、C/P信号に
応じてNXNの空間フィルタを用い、平滑化処理や鮮鋭
化処理を行なう。CMYBkγ補正部28は、画像記録
部13の周波数特性や、C/P信号に応じて、γカーブ
を変更し処理をする。C/P信号が“L”の時は画像を
忠実に再現したγで、C/P信号が“H”の時はγをた
たさせてコントラストを強調する。The scaling unit 26 enlarges / reduces in the main scanning direction,
Alternatively, the same size processing is executed. The CMYBk filter unit 27 uses the NXN spatial filter according to the frequency characteristics of the image recording unit 13 and the C / P signal to perform smoothing processing and sharpening processing. The CMYBkγ correction unit 28 changes the γ curve according to the frequency characteristics of the image recording unit 13 and the C / P signal and performs processing. When the C / P signal is "L", the image is reproduced faithfully, and when the C / P signal is "H", the image is drawn to enhance the contrast.
【0017】階調処理部29は、画像記録部13の階調
特性やC/P信号に応じてディザ処理等の量子化を行な
う。C/P信号が“L”の時は階調重視の処理を行な
い、C/P信号が“H”の時は解像力重視の処理を行な
う。さらに、原稿認識部30は図3に示すように、線画
らしさを検出する線画認識部31と、原稿の特定領域が
有彩・無彩を判定する色判定部32とからなる。The gradation processing unit 29 performs quantization such as dither processing according to the gradation characteristics of the image recording unit 13 and the C / P signal. When the C / P signal is "L", gradation-oriented processing is performed, and when the C / P signal is "H", resolution-oriented processing is performed. Further, as shown in FIG. 3, the document recognizing unit 30 includes a line drawing recognizing unit 31 for detecting line drawing likeness and a color judging unit 32 for judging whether a specific region of the document is chromatic or achromatic.
【0018】線画認識部31のC/P信号の出力ロジッ
クは、線画のエッヂであると“H”を出力し、それ以外
では“L”を出力する。また、色判定部32のB/C信
号出力ロジックは、有彩領域であると“L”を出力し、
それ以外では“H”を出力する。出力結果は、4×4画
素を1画素に対応させた信号である。以下において、出
力結果の単位は1ブロックとする。The output logic of the C / P signal of the line drawing recognition unit 31 outputs "H" if it is an edge of a line drawing, and outputs "L" otherwise. Further, the B / C signal output logic of the color determination unit 32 outputs “L” when it is a chromatic area,
Otherwise, "H" is output. The output result is a signal in which 4 × 4 pixels are associated with one pixel. In the following, the unit of the output result is one block.
【0019】本実施形態では、400DPI程度の読み
取り密度の原稿読み取り部を例にとって説明する。本実
施形態の要部である線画認識部31を、図4を用いて説
明する。図4において、線画認識部31は、モノクロ化
部41、ラプラシアン部42、Yパターンマッチング部
A、B、C(43〜45)、孤立点除去部46、膨張部
47からなる。In the present embodiment, an original reading unit having a reading density of about 400 DPI will be described as an example. The line drawing recognition unit 31, which is a main part of this embodiment, will be described with reference to FIG. In FIG. 4, the line drawing recognition unit 31 includes a monochromeization unit 41, a Laplacian unit 42, Y pattern matching units A, B, and C (43 to 45), an isolated point removal unit 46, and an expansion unit 47.
【0020】モノクロ化部41は、R・G・Bデータを
輝度データなどに変換して、モノクロ信号にする。例え
ば、輝度データでなくとも、R・G・Bの中で最も濃い
データを選択してもよいし、Gを輝度データとして用い
ることも可能である。出力データは、数字が大きいと濃
く、小さいと薄いことを表す。The monochromator 41 converts the R, G, B data into luminance data or the like to obtain a monochrome signal. For example, the darkest data among R, G, and B may be selected instead of the luminance data, or G may be used as the luminance data. The output data indicates that a large number is dark and a small number is thin.
【0021】ラプラシアン部42は、線画のエッヂを抽
出すると同時に、白領域と黒画素を検出する。白領域を
検出することにより、白地上の線画の抽出のデータとす
る。白領域検出の動作を図5の記号化されたマトリック
スを用いて説明する。例えば、白領域のマトリックスを
3×3とすると、次のようになる。The Laplacian section 42 extracts the edge of the line drawing and simultaneously detects the white area and the black pixel. By detecting the white area, it is used as the data for extracting the line drawing on the white background. The operation of white area detection will be described using the symbolized matrix in FIG. For example, assuming that the matrix of the white area is 3 × 3, the following is obtained.
【0022】 ((a00<thw) and (a01<thw) and (a02<thw) and (a10<thw) and (a11<thw) and (a12<thw)) or ((a10<thw) and (a11<thw) and (a12<thw) and (a20<thw) and (a21<thw) and (a22<thw)) or ((a00<thw) and (a10<thw) and (a20<thw) and (a01<thw) and (a11<thw) and (a21<thw)) or ((a01<thw) and (a11<thw) and (a21<thw) and (a02<thw) and (a12<thw) and (a22<thw))((A 00 <thw) and (a 01 <thw) and (a 02 <thw) and (a 10 <thw) and (a 11 <thw) and (a 12 <thw)) or ((a 10 <thw) and (a 11 <thw) and (a 12 <thw) and (a 20 <thw) and (a 21 <thw) and (a 22 <thw)) or ((a 00 <thw) and ( a 10 <thw) and (a 20 <thw) and (a 01 <thw) and (a 11 <thw) and (a 21 <thw)) or ((a 01 <thw) and (a 11 <thw) and (a 21 <thw) and (a 02 <thw) and (a 12 <thw) and (a 22 <thw))
【0023】注目画素を含んで周辺データが閾値thw よ
り小さい時、白領域とする。このパターンは直交パター
ンであるが、斜めなどのパターンを追加してもよい。When the peripheral data including the pixel of interest is smaller than the threshold value thw, it is defined as a white area. This pattern is an orthogonal pattern, but a diagonal pattern or the like may be added.
【0024】黒画素検出において、十分に濃い画素を黒
画素とする。式で表すとa22>thBとなる。エッヂ量抽出
において、5×5のマトリックスで、次のようにエッヂ
量を求める。In the black pixel detection, a sufficiently dark pixel is set as a black pixel. When expressed by an equation, a 22 > thB. In the extraction of the edge amount, the edge amount is calculated with a 5 × 5 matrix as follows.
【0025】 x = (a22×2) −(a21+a23) y =(a22×2) −(a12+a32) z = i×x + j×y 但し、xは、主走査方向のエッヂ量、yは、副走査方向
のエッヂ量、zは、x、yに重みづけをして、総エッヂ
量を求める。X = (a 22 × 2) − (a 21 + a 23 ) y = (a 22 × 2) − (a 12 + a 32 ) z = i × x + j × y where x is the main scanning direction. Edge amount, y is the edge amount in the sub-scanning direction, and z is weighted on x and y to obtain the total edge amount.
【0026】ここで、i、j=とも、選択的な係数で、
ハードウェアを設計する際に、ゲート規模が小さくなる
ような係数、1、1.115、1.25、1.375、1.5、1.625、1.7
5、1.875、2にしている(固定小数点演算)。このよう
にしておくことにより、主走査と副走査のMTF(光学
系と、走行系)などのぼけを修正する。Here, both i and j = are selective coefficients,
When designing hardware, factors such as 1,1.115,1.25,1.375,1.5,1.625,1.7 that gate size becomes smaller.
It is set to 5, 1.875, 2 (fixed point arithmetic). By doing so, blurring of the MTF (optical system and traveling system) of the main scanning and the sub scanning is corrected.
【0027】一般に主走査と副走査のMTFは異なって
おり、さらに副走査の変倍は、読み取り装置の読み取り
面積により行なっているため、副走査の変倍率によりM
TFは異なる。本実施形態は、主走査変倍は、原稿認識
部のあとなので気にする必要はない。さらに、副走査の
倍率が大きい時、例えば、200%の時は、次のように
エッヂ量を求めるように選択可能である。Generally, the MTFs of the main scanning and the sub-scanning are different, and the scaling of the sub-scanning is performed by the reading area of the reading device.
TF is different. In the present embodiment, the main scanning scaling is not necessary since it is after the document recognition unit. Further, when the sub-scanning magnification is large, for example, 200%, it is possible to select the edge amount as follows.
【0028】 x =(a22×2) −(a20+a24) y =(a22×2) −(a02+a42) z = i×x + j×yX = (a 22 × 2) − (a 20 + a 24 ) y = (a 22 × 2) − (a 02 + a 42 ) z = i × x + j × y
【0029】このようにすることにより、副走査の変倍
処理に対応している。出力は白領域信号と、黒画素、信
号とエッヂ量を出力する。白領域信号は、Hで白領域を
示し、黒画素信号は、Hで黒画素を示す。By doing so, it is possible to deal with the sub-scanning scaling processing. The output outputs the white area signal, the black pixel, the signal and the edge amount. The white area signal indicates a white area by H, and the black pixel signal indicates an black pixel by H.
【0030】図6は、線画の断面図であり、白領域と黒
画素と閾値と関係を表す概念図である。また、図7はエ
ッヂ量(z)の関係を表す図である。FIG. 6 is a cross-sectional view of a line drawing, which is a conceptual diagram showing the relationship between white areas, black pixels, and threshold values. Further, FIG. 7 is a diagram showing the relationship of the edge amount (z).
【0031】次にパターンマッチング部A、B、Cを説
明する。パターンマッチング部A43のブロックでは、
白領域周辺の黒エッヂを抽出する。ここで白領域パター
ン(W)は、白領域の信号であり、黒パターン(K)
は、黒画素、または、エッヂ量が閾値thRB より、大き
いものをHとする。黒パターンは単純に黒画素で抽出を
行なわないのは、原稿読み取り時のボケをエッヂ量で補
正するものである。概念図は、図6、図7に示してあ
る。パターン例としては、次式の(7×7)のようにな
る。Next, the pattern matching units A, B and C will be described. In the block of the pattern matching part A43,
Extract the black edge around the white area. Here, the white area pattern (W) is a signal of the white area, and the black pattern (K)
Is H when a black pixel or an edge amount is larger than the threshold value thRB. The black pattern is not simply extracted with black pixels, but the blur at the time of reading the original is corrected by the edge amount. The conceptual diagrams are shown in FIGS. 6 and 7. An example of the pattern is (7 × 7) in the following equation.
【0032】 (k22 AND k23 AND k24 AND k32 AND k33 AND k34 AND ((w52 AND w53 AND w54) or (w62 AND w63 AND w64) or (w12 AND w13 AND w14) or (w02 AND w03 AND w04))) or (k22 AND k32 AND k42 AND k23 AND k33 AND k43 AND ((w25 AND w35 AND w45) or (w26 AND w36 AND w46) or (w21 AND w31 AND w41) or (w20 AND w30 AND w40)))(K 22 AND k 23 AND k 24 AND k 32 AND k 33 AND k 34 AND ((w 52 AND w 53 AND w 54 ) or (w 62 AND w 63 AND w 64 ) or (w 12 AND w 13 AND w 14 ) or (w 02 AND w 03 AND w 04 ))) or (k 22 AND k 32 AND k 42 AND k 23 AND k 33 AND k 43 AND ((w 25 AND w 35 AND w 45 ) or (w 26 AND w 36 AND w 46 ) or (w 21 AND w 31 AND w 41 ) or (w 20 AND w 30 AND w 40 ))))
【0033】水平成分、垂直成分のみで示したが、同様
に、ななめ成分のパターンも同様に抽出する。このよう
に白領域上のエッヂを抽出する。白領域が多いので網点
を線画と誤認識することなく、白領域の線画を抽出が可
能となる。Although only the horizontal and vertical components are shown, the pattern of the licking component is similarly extracted. In this way, the edge on the white area is extracted. Since there are many white areas, it is possible to extract a line drawing of a white area without erroneously recognizing halftone dots as a line drawing.
【0034】パターンマッチング部B44のブロックで
は、細線の検出を行なう。細線とは、文書中のケイ線
や、文字などが該当する。ここで白パターン(w)は、
白領域であるか、または、エッヂ量が閾値 thRw より
小さい(マイナス成分なので、絶対値は大きい) もの
をHとする。黒パターン(k) は、黒画素または、エッ
ヂ量が閾値 thRB より大きいものをHとする。ここのth
RBは、パターンマッチング部C45とは同じである必要
はない。黒パターン、白パターンともエッヂ量成分で補
正するのは、細線のコントラストをあげている。パター
ンの例としては、次式の(7×7)のようになる。A fine line is detected in the block of the pattern matching section B44. The thin line corresponds to a key line or a character in the document. Here, the white pattern (w) is
H is a white area or an edge amount smaller than the threshold value thRw (since it is a negative component, the absolute value is large). In the black pattern (k), H is defined as a black pixel or a pixel whose edge amount is larger than the threshold thRB. Here th
RB does not have to be the same as the pattern matching unit C45. The correction of the edge amount component for both the black pattern and the white pattern raises the contrast of the fine line. An example of the pattern is as shown in the following equation (7 × 7).
【0035】 ((w12 AND w13 AND w14) AND (w02 AND w03 AND w04) AND k32 AND k33 AND k34 AND (w52 AND w53 AND w54) AND (w62 AND w63 AND w64)) or ((w21 AND w31 AND w41) AND (w20 AND w30 AND w40) AND k23 AND k33 AND k43 AND (w25 AND w35 AND w45) AND (w26 AND w36 AND w46))((W 12 AND w 13 AND w 14 ) AND (w 02 AND w 03 AND w 04 ) AND k 32 AND k 33 AND k 34 AND (w 52 AND w 53 AND w 54 ) AND (w 62 AND w 63 AND w 64 )) or ((w 21 AND w 31 AND w 41 ) AND (w 20 AND w 30 AND w 40 ) AND k 23 AND k 33 AND k 43 AND (w 25 AND w 35 AND w 45 )) AND (w 26 AND w 36 AND w 46 ))
【0036】水平成分、垂直成分のみで示したが、同様
に、ななめ成分のパターンも同様に抽出する。このよう
に黒パターンの両側を、白パターンではさみこまれてい
る場合に、細線として抽出する。また、白領域が存在す
る時には、線画である可能性が高いので、パターンマッ
チングをあまくしてもよい。例えば、次式のようにな
る。白領域を記号aとする。Although only the horizontal component and the vertical component are shown, the pattern of the licking component is similarly extracted. In this way, both sides of the black pattern are extracted as thin lines when they are sandwiched between the white patterns. Further, when there is a white area, it is highly likely that it is a line drawing, so pattern matching may be omitted. For example, The white area is designated as symbol a.
【0037】 ((w12 AND w13 AND w14) AND a03 AND k32 AND k33 AND k34 AND (w52 AND w53 AND w54) AND (w62 AND w63 AND w64)) or ((w12 AND w13 AND w14) AND (w02 AND w03 AND w04) AND k32 AND k33 AND k34 AND (w52 AND w53 AND w54) AND a63 ((W 12 AND w 13 AND w 14 ) AND a 03 AND k 32 AND k 33 AND k 34 AND (w 52 AND w 53 AND w 54 ) AND (w 62 AND w 63 AND w 64 )) or ((w 12 AND w 13 AND w 14 ) AND (w 02 AND w 03 AND w 04 ) AND k 32 AND k 33 AND k 34 AND (w 52 AND w 53 AND w 54 ) AND a 63
【0038】などを追加してもよい。ここでは水平成分
のみ示したが、同様に垂直成分、斜め成分も同様に抽出
する。さらに、このパターンと逆に白パターンの両側
を、白パターンではさみ込まれている場合には、細線で
あるので、このようなパターンで追加してもよいし、白
パターンを中心としたパターンマッチングでもよい。Etc. may be added. Although only the horizontal component is shown here, the vertical component and the diagonal component are similarly extracted. Further, in contrast to this pattern, if both sides of the white pattern are sandwiched by the white pattern, it is a thin line, so it may be added with such a pattern, or pattern matching centered on the white pattern But it's okay.
【0039】パターンマッチング部C45のブロック
は、パターンマッチング部A43の補助的なもので、白
領域上の黒エッヂを抽出するために、白エッヂ成分の3
つ要素でパターンマッチングを行なう。ここで白領域パ
ターン(a)は、白領域の信号であり、黒パターン(k)
は、黒画素、または、エッヂ量が閾値 thRB より大き
いものをHとする。白パターン(w)は、白領域である
か、またはエッヂ量が閾値 thRw より小さい(マイナ
ス成分なので、絶対値は大きい)ものをHとする。パタ
ーンの例としては、次式の(7×7)のようになる。The block of the pattern matching section C45 is an auxiliary of the pattern matching section A43, and is composed of three white edge components in order to extract the black edge on the white area.
Pattern matching with one element. Here, the white area pattern (a) is a signal of the white area, and the black pattern (k)
Is a black pixel or a pixel whose edge amount is larger than the threshold value thRB is H. The white pattern (w) is H if it is a white region or has an edge amount smaller than the threshold thRw (since it is a negative component, the absolute value is large). An example of the pattern is as shown in the following equation (7 × 7).
【0040】 [0040]
【0041】ここでは、水平成分のみ示したが、同様
に、垂直・水平成分のみ示したが、同様に斜め成分も同
様に抽出する。このことにより、コントラストのしっか
りした文字を抽出することが、可能となる。そして、白
エッヂ成分を検出している分、黒パターンの幅を少なく
しても網点を誤検知することなく、小さな文字などが抽
出可能となる。ここでの閾値、thRB、thRw に、同一
でなくてもよい。本実施例は、7×7で行なったが、マ
トリックスサイズは、何でもよい。さらに、パターンマ
ッチング部A、B、Cのマトリックスを成分する際に
は、ラインメモリを用いるが、独立に行なうのではな
く、共有してもよい。Although only the horizontal component is shown here, only the vertical and horizontal components are shown in the same manner, but the diagonal component is extracted in the same manner. As a result, it is possible to extract a character with a good contrast. Then, since the white edge component is detected, even if the width of the black pattern is reduced, small characters can be extracted without erroneously detecting halftone dots. The thresholds here, thRB, and thRw may not be the same. In this embodiment, 7 × 7 is used, but the matrix size may be any size. Further, when the matrix of the pattern matching units A, B, and C is used as a component, a line memory is used, but it may be shared instead of being performed independently.
【0042】例としては、thw 、thk が同一であるな
らば、共有可能であるし、大小関係を利用してコード化
してもかまわない。コード化の例として、下記を掲げ
る。As an example, if thw and thk are the same, they can be shared and may be coded by using the magnitude relationship. The following is an example of encoding.
【0043】 パターン2の thRw を、 thRw2 、 thRB を、thRB2 パターン3の thRw を、 thRw3 、 thRB を、thRB3 ThRw of pattern 2 is thRw 2 , thRB, thRB 2 of pattern 3 is thRw 3 , thRB is thRB 3
【0044】ここにおいて、大小関係が、 thRw2 > thRw3 > thRB3 > thRB2 > thRB3 ならば、通常、5bit×nラインとなるが、コードを次
のようにすると、3bit×nラインとなる。Here, if the magnitude relation is thRw 2 > thRw 3 > thRB 3 > thRB 2 > thRB 3 , usually 5 bits × n lines, but if the code is as follows, it becomes 3 bits × n lines. Become.
【0045】 P > thRw1 → コード 0 thRw2 > P > thw3 → コード 1 thRw3 > P > thRB3 → コード 2 thRB3 > P > thRB2 → コード 3 thRB2 > P > thRB3 → コード 4 thRB3 > P → コード 5P> thRw 1 → Code 0 thRw 2 >P> thw 3 → Code 1 thRw 3 >P> thRB 3 → Code 2 thRB 3 >P> thRB 2 → Code 3 thRB 2 >P> thRB 3 → Code 4 thRB 3 > P → Code 5
【0046】ここでPは、エッヂ量である。コードは、
0〜5であるので、3bitあれば表現できる。コード
を展開する時に、逆に行なえばよい。大小関係は、固定
でなくても入れかえられるようにした方がよいのはいう
までもない。孤立点除去において、線画は連続した線か
らなるので、孤立点を除去する。孤立点は、網点を線画
と誤検出した場合に生じる。Here, P is the edge amount. The code is
Since it is 0 to 5, it can be expressed with 3 bits. When unpacking the code, you can do the reverse. It goes without saying that it is better to be able to change the size relationship, even if it is not fixed. In the isolated point removal, the line drawing is made up of continuous lines, so the isolated points are removed. An isolated point occurs when a halftone dot is erroneously detected as a line drawing.
【0047】パターンマッチング部A43、パターンマ
ッチング部B44、パターンマッチング部C45のいず
れか一つ以上で抽出したら抽出パターンとする。例え
ば、5×5のパターンマッチングにおいて、周辺画素に
抽出パターンがなく、注目画素に注目画素が抽出パター
ンならば除去する。一例を式で示す。ここにおいて、抽
出パターンを記号aとする。When any one or more of the pattern matching section A43, the pattern matching section B44, and the pattern matching section C45 has extracted, it is regarded as an extracted pattern. For example, in 5 × 5 pattern matching, if the peripheral pixel does not have an extraction pattern and the target pixel is the extraction pattern, the target pixel is removed. An example is shown by a formula. Here, the extraction pattern is represented by the symbol a.
【0048】[0048]
【外1】 [Outside 1]
【0049】また、パターンマッチングでなく、マトリ
ックス内の数をかぞえて判定してもよい。Instead of pattern matching, the number in the matrix may be considered for the determination.
【0050】膨張部47において、抽出パターンを膨張
することにより、文字の交点などをつなぎ、さらに線画
とその周辺を線画処理を行なうようにする。In the expansion section 47, the extraction pattern is expanded to connect the intersections of the characters, and the line drawing and its surroundings are further subjected to the line drawing processing.
【0051】上述のパターンマッチングは、十字の交点
を抽出できないが、連結が可能となる。また、線画とそ
の周辺を線画とみなすのは、黒文字処理と空間フィルタ
を良好に作用させるためである。次式に例(7×7)を
示す。In the above-mentioned pattern matching, cross points cannot be extracted, but they can be connected. The reason why the line drawing and its surroundings are regarded as a line drawing is to allow the black character processing and the spatial filter to work well. An example (7 × 7) is shown in the following equation.
【0052】 a00 or a01 or a02 or a03 or a04 or a05 or a06 or a10 or a11 or a12 or a13 or a14 or a15 or a16 or a20 or a21 or a22 or a23 or a24 or a25 or a26 or a30 or a31 or a32 or a33 or a34 or a35 or a36 or a40 or a41 or a42 or a43 or a44 or a45 or a46 or a50 or a51 or a52 or a53 or a54 or a55 or a56 or a60 or a61 or a62 or a63 or a64 or a65 or a66 A 00 or a 01 or a 02 or a 03 or a 04 or a 05 or a 06 or a 10 or a 11 or a 12 or a 13 or a 14 or a 15 or a 16 or a 20 or a 21 or a 22 or a 23 or a 24 or a 25 or a 26 or a 30 or a 31 or a 32 or a 33 or a 34 or a 35 or a 36 or a 40 or a 41 or a 42 or a 43 or a 44 or a 45 or a 46 or a 50 or a 51 or a 52 or a 53 or a 54 or a 55 or a 56 or a 60 or a 61 or a 62 or a 63 or a 64 or a 65 or a 66
【0053】このことにより、印刷原稿の線画を良好に
抽出可能とする。これは等倍の例であり、変倍について
説明する。図8および図9は線画の抽出手順を説明する
ための概念図であり、図中の実線が線画、点線が線画認
識部であり線画として判定する領域を表している。As a result, the line drawing of the printed document can be extracted well. This is an example of equal magnification, and variable magnification will be described. FIG. 8 and FIG. 9 are conceptual diagrams for explaining the procedure for extracting a line drawing, in which the solid line represents the line drawing, and the dotted line represents the line drawing recognition unit, which represents the area to be determined as the line drawing.
【0054】副走査変倍は、原稿認識の前(原稿読み取
り部11)で行なっており、主走査変倍は、原稿認識の
後(変倍部26)で行なっている。このことにより、例
えば等倍で処理した時、図9のように主・副走査とも同
じ幅で線画処理を行なうが、主・副走査とも200%で
処理をすると、図8のように主走査のみ線画処理を行な
う幅が大きくなる。よって主走査の変倍率により、主走
査の膨張幅を変える。式の構成例を以下に示す。Sub-scanning scaling is performed before document recognition (document reading section 11), and main scanning scaling is performed after document recognition (magnification section 26). As a result, when processing is performed at the same size, for example, line drawing processing is performed with the same width in both main and sub-scanning as shown in FIG. 9, but when processing is performed at 200% in both main and sub-scanning, main-scanning is performed as shown in FIG. The width of performing only the line drawing processing becomes large. Therefore, the expansion width of the main scan is changed according to the magnification of the main scan. A configuration example of the formula is shown below.
【0055】 ((膨張量−1)/2/変倍率)×2+1 つまり、 (7−1)/2/2×2+1= 4.5((Expansion amount-1) / 2 / Magnification ratio) × 2 + 1 That is, (7-1) /2/2×2+1=4.5
【0056】膨張量は、整数でなければならないので、
5とする。このことにより、変倍率の影響により、主走
査と副走査の線処理の処理範囲がほぼ同一の幅となる。
逆に主走査の変倍率により、副走査の膨張幅をかえても
同様の効果がある。式の構成例を以下に示す。Since the expansion amount must be an integer,
5 is assumed. As a result, the processing range of the line processing for the main scanning and the processing for the sub-scanning have almost the same width due to the influence of the scaling factor.
On the contrary, the same effect can be obtained even if the expansion width of the sub-scan is changed by changing the magnification of the main scan. A configuration example of the formula is shown below.
【0057】 ((膨張量−1)/2×変倍率)×2+1)((Expansion amount −1) / 2 × Magnification ratio) × 2 + 1)
【0058】本実施形態は、輪郭抽出するものすべてに
適用できる。さらに、孫コピー(ジェネレーション、複
写機の出力を入力原稿として複写)する際には、上述の
パラメータを印刷原稿と異なる。パラメータ(thw、th
B、thRw、thRB) を変更するほかに、パターンマッチ
ング部C45の抽出動作を行なわないようにする。The present embodiment can be applied to all contour extraction. Further, when a grandchild copy (generation, copying of an output of a copying machine as an input document) is performed, the above-mentioned parameters are different from those of the print document. Parameters (thw, th
B, thRw, thRB), and the pattern matching unit C45 does not perform the extraction operation.
【0059】現在の複写機の出力は、文字を400DP
I写真部が、200DPIの万線パターンが一般的であ
る。万線パターンは線画と誤検出しやすいので、パター
ンマッチング部C45の抽出動作を行なわないようにす
る。複写機は印刷物に対して、1/10程度の解像度なの
で、孫コピーにはさほど影響しない。このように解像度
の低い原稿(孫コピー)に対しては、良好に抽出可能と
なる。The output of the current copying machine is 400 DP characters.
A line pattern of 200 DPI is generally used for the I photograph part. Since the line pattern is easily erroneously detected as a line drawing, the pattern matching unit C45 does not perform the extraction operation. Since the copier has a resolution of about 1/10 for printed matter, it does not affect grandchild copying so much. In this way, it is possible to satisfactorily extract a document with a low resolution (grandchild copy).
【0060】[0060]
【発明の効果】以上の説明より明かなように、本発明の
画像処理装置は、副走査を副走査変倍率で変倍し、主走
査を主走査変倍率で変倍し、副走査変倍率と主走査変倍
率に応じて輪郭抽出の結果を膨張又は収縮する。よっ
て、主走査変倍率により主走査又は副走査の輪郭の膨張
量または収縮量を変えることにより、出力結果を変倍率
に影響なくほぼ一定にすることができる。As is apparent from the above description, the image processing apparatus of the present invention scales the sub-scanning with the sub-scanning scaling ratio, the main scanning with the main-scanning scaling ratio, and the sub-scanning scaling ratio. And the result of the contour extraction is expanded or contracted according to the main scanning scaling factor. Therefore, by changing the expansion or contraction amount of the main-scanning or sub-scanning contour according to the main-scanning scaling factor, the output result can be made substantially constant without affecting the scaling factor.
【図1】本発明の画像処理装置の実施例を示す主要構成
ブロック図である。FIG. 1 is a main configuration block diagram showing an embodiment of an image processing apparatus of the present invention.
【図2】図1の画像処理部の構成例を示すブロック図で
ある。FIG. 2 is a block diagram showing a configuration example of an image processing unit in FIG.
【図3】図2の原稿認識部の構成例を示すブロック図で
ある。FIG. 3 is a block diagram showing a configuration example of a document recognition unit in FIG.
【図4】図3の線画認識部の構成例を示すブロック図で
ある。FIG. 4 is a block diagram showing a configuration example of a line drawing recognition unit in FIG.
【図5】白領域検出の動作を説明するための記号化され
たマトリックスである。FIG. 5 is a symbolized matrix for explaining the operation of white area detection.
【図6】線画の概念的な断面図であり、白領域と黒画素
と閾値とを表している。FIG. 6 is a conceptual cross-sectional view of a line drawing, showing a white region, black pixels, and a threshold value.
【図7】線画の概念的な断面図であり、エッジ量と閾値
とを表している。FIG. 7 is a conceptual cross-sectional view of a line drawing, showing an edge amount and a threshold value.
【図8】印刷原稿の線画の抽出手順を説明するための概
念図1である。FIG. 8 is a conceptual diagram 1 for explaining a procedure for extracting a line drawing of a print document.
【図9】印刷原稿の線画の抽出手順を説明するための概
念図2である。FIG. 9 is a conceptual diagram 2 for explaining a procedure for extracting a line drawing of a print document.
11 原稿読み取り部 12 画像処理部 13 画像記録部 21 RGBγ補正部 22 遅延部 23 RGBフィルタ部 24 色補正部 25 VCR部 26 変倍部 27 CMYBkフィルタ部 28 CMYBkγ補正部 29 階調処理部 30 原稿認識部 31 線画認識部 32 色判定部 41 モノクロ化部 42 ラプラシアン部 43、44、45 パターンマッチング部 46 孤立点除去部 47 膨張部 Reference numeral 11 document reading unit 12 image processing unit 13 image recording unit 21 RGBγ correction unit 22 delay unit 23 RGB filter unit 24 color correction unit 25 VCR unit 26 scaling unit 27 CMYBk filter unit 28 CMYBkγ correction unit 29 gradation processing unit 30 document recognition Part 31 Line drawing recognition part 32 Color determination part 41 Monochrome part 42 Laplacian part 43, 44, 45 Pattern matching part 46 Isolated point removal part 47 Expansion part
Claims (3)
変倍手段と、 主走査を主走査変倍率で変倍する主走査変倍手段と、 前記副走査変倍手段と主走査変倍手段との間に輪郭抽出
手段とを備え、 前記副走査変倍率と主走査変倍率に応じ、輪郭抽出の結
果を膨張又は収縮することを特徴とする画像処理装置。1. A sub-scanning scaling unit for scaling a sub-scanning by a sub-scanning scaling factor, a main-scanning scaling unit for scaling a main scanning by a main-scanning scaling factor, the sub-scanning scaling unit and main scanning. An image processing apparatus comprising: a contour extraction unit between the scaling unit; and expanding or contracting the result of the contour extraction according to the sub-scanning scaling factor and the main-scanning scaling factor.
率または副走査変倍率に応じ、それぞれ独立して行うこ
とを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the expansion or contraction is independently performed according to the main-scanning scaling factor or the sub-scanning scaling factor.
識する領域識別信号であることを特徴とする請求項1ま
たは2記載の画像処理装置。3. The image processing apparatus according to claim 1, wherein the result of the contour extraction is an area identification signal for recognizing whether it is a character.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31604295A JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31604295A JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09134438A true JPH09134438A (en) | 1997-05-20 |
JP3564216B2 JP3564216B2 (en) | 2004-09-08 |
Family
ID=18072623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31604295A Expired - Fee Related JP3564216B2 (en) | 1995-11-09 | 1995-11-09 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3564216B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7940984B2 (en) | 2006-07-04 | 2011-05-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and computer program product |
-
1995
- 1995-11-09 JP JP31604295A patent/JP3564216B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7940984B2 (en) | 2006-07-04 | 2011-05-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
JP3564216B2 (en) | 2004-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3399486B2 (en) | Color image processing apparatus and method | |
US5886797A (en) | Method and apparatus for controlling a spatial filtering process based on characteristics of image data | |
JPH1185978A (en) | Image processing apparatus and method | |
JPH0686061A (en) | Area control system in picture processor | |
JPH10283470A (en) | Image processor, image processing method and recording medium | |
JP3564216B2 (en) | Image processing device | |
JP4047356B2 (en) | Image processing device | |
JP3596962B2 (en) | Image processing device | |
JP3989636B2 (en) | Image processing device | |
JP3183787B2 (en) | Halftone area determination device | |
JP3944032B2 (en) | Image processing apparatus and method | |
JPH09139839A (en) | Image processing device | |
JP7077925B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2018174420A (en) | Image processing apparatus and computer program | |
JPH1155505A (en) | Image processing device | |
JP3077241B2 (en) | Image processing device | |
JP2941852B2 (en) | Image processing method | |
JP4437621B2 (en) | Region detection apparatus and method | |
JP3999420B2 (en) | Image processing apparatus and image processing method | |
JPH1023251A (en) | Image processing device | |
JPH1079852A5 (en) | ||
JPH09130598A (en) | Color image forming equipment | |
JPH1079852A (en) | Image processing device | |
JP3723666B2 (en) | Image processing device | |
JPH01173971A (en) | Image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040607 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080611 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090611 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |