[go: up one dir, main page]

JP2018174418A - Image processing apparatus and computer program - Google Patents

Image processing apparatus and computer program Download PDF

Info

Publication number
JP2018174418A
JP2018174418A JP2017070795A JP2017070795A JP2018174418A JP 2018174418 A JP2018174418 A JP 2018174418A JP 2017070795 A JP2017070795 A JP 2017070795A JP 2017070795 A JP2017070795 A JP 2017070795A JP 2018174418 A JP2018174418 A JP 2018174418A
Authority
JP
Japan
Prior art keywords
pixel
pixels
line
unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017070795A
Other languages
Japanese (ja)
Other versions
JP6794901B2 (en
Inventor
上田 昌史
Masashi Ueda
昌史 上田
竜司 山田
Ryuji Yamada
竜司 山田
卓也 嶋橋
Takuya Shimahashi
卓也 嶋橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2017070795A priority Critical patent/JP6794901B2/en
Publication of JP2018174418A publication Critical patent/JP2018174418A/en
Application granted granted Critical
Publication of JP6794901B2 publication Critical patent/JP6794901B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】 種々の形態で表現され得る文字のエッジを検出する。【解決手段】入力画像データを用いて輝度画像データを取得する。輝度画像データを用いて、注目画素が、第2種の特定領域と比べて明るさが暗い領域である第1種の特定領域に含まれるか否かを判断する。輝度画像データを用いて、注目画素が、第1種の特定領域と比べて明るさが明るい領域である第2種の特定領域に含まれるか否かを判断する。輝度画像データを平滑化することによって平滑化データを生成する。ここで、第1種の特定領域に含まれると判断される画素の輝度値と第2種の特定領域に含まれると判断される画素の輝度値とを平滑化されず、第1種の特定領域に含まれると判断されず、かつ、第2種の特定領域に含まれると判断されない画素の輝度値が平滑化される。平滑化データを用いて、エッジ画素を検出する。【選択図】 図17PROBLEM TO BE SOLVED: To detect an edge of a character that can be expressed in various forms. Luminance image data is acquired using input image data. Using the luminance image data, it is determined whether or not the target pixel is included in the first type specific area that is darker than the second type specific area. Using the luminance image data, it is determined whether or not the target pixel is included in the second type specific area that is brighter than the first type specific area. Smoothed data is generated by smoothing the luminance image data. Here, the luminance value of the pixel determined to be included in the first type specific area and the luminance value of the pixel determined to be included in the second type specific area are not smoothed, and the first type specific area is not smoothed. The luminance values of pixels that are not determined to be included in the region and that are not determined to be included in the second type specific region are smoothed. Edge pixels are detected using the smoothed data. [Selection] Figure 17

Description

本明細書は、画像内のエッジを検出する技術に関する。   The present specification relates to a technique for detecting an edge in an image.

従来から、種々の画像処理が、提案されている。例えば、微分フィルタなどを用いて文字エッジを抽出し、孤立量を積算して印刷の網点を抽出することによって、画像を文字と網点に分類する技術が提案されている。さらに、画像中の文字領域と網点領域とを区別するとともに、網点領域内の文字も判定する技術が、提案されている。   Conventionally, various image processing has been proposed. For example, there has been proposed a technique for classifying an image into characters and halftone dots by extracting character edges using a differential filter or the like, and accumulating isolated amounts to extract halftone dots for printing. Further, a technique has been proposed in which a character area and a halftone dot area in an image are distinguished from each other and a character in the halftone dot area is also determined.

特開2007−311836号公報JP 2007-311836 A

ところで、画像内の文字は、種々の形態で表現され得る。例えば、明るい色の背景中に、暗い色で文字が表現される場合がある。これとは反対に、暗い色の背景中に、明るい色で文字が表現される場合がある。このような種々の形態で表現され得る文字のエッジを検出することは、容易ではなかった。   By the way, the characters in the image can be expressed in various forms. For example, a character may be expressed in a dark color on a light background. On the other hand, characters may be expressed in a light color in a dark background. It has not been easy to detect an edge of a character that can be expressed in various forms.

本明細書は、種々の形態で表現され得る文字のエッジを検出することができる技術を開示する。   The present specification discloses a technique capable of detecting an edge of a character that can be expressed in various forms.

本明細書は、例えば、以下の適用例を開示する。   This specification discloses the following application examples, for example.

[適用例1]画像処理装置であって、入力画像を表す入力画像データを取得する入力画像データ取得部と、前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得部と、前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断部であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断部と、前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断部であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断部と、前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成部であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成部と、前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出部と、を備える、画像処理装置。 Application Example 1 An image processing apparatus, an input image data acquisition unit that acquires input image data representing an input image, and a plurality of brightness levels of a plurality of pixels using the input image data A luminance image data acquisition unit that acquires luminance image data including individual luminance values, and a first determination unit that determines whether or not the target pixel is included in the first type specific region using the luminance image data The first type of specific region is a region where a plurality of pixels are continuous, and the first type of specific region is a region whose brightness is darker than that of the second type of specific region. A second determination unit that determines whether or not the pixel of interest is included in the second type of specific region by using the luminance image data; and a plurality of the second type of specific regions The second type of specific area is the previous area. The second determination unit, which is a region that is brighter than the first type specific region, and a smoothed data generation unit that generates smoothed data by smoothing the luminance image data, Without smoothing the luminance value of the pixel determined to be included in the first type of specific region and the luminance value of the pixel determined to be included in the second type of specific region among the plurality of pixels Generating the smoothed data by smoothing luminance values of pixels that are not determined to be included in the first type of specific area and that are not determined to be included in the second type of specific area; An image processing apparatus comprising: the smoothed data generation unit; and a detection unit that detects edge pixels representing edges in the input image using the smoothed data.

この構成によれば、第1種の特定領域に含まれると判断される画素の輝度値と、第2種の特定領域に含まれると判断される画素の輝度値と、を平滑化しないので、明るい背景中に暗い色(すなわち、低輝度の色)で表される文字のエッジを表す画素と、暗い背景中に明るい色(すなわち、高輝度の色)で表される文字のエッジを表す画素と、の両方を、適切に検出できる。   According to this configuration, the luminance value of the pixel determined to be included in the first type specific area and the luminance value of the pixel determined to be included in the second type specific area are not smoothed. Pixels that represent the edge of a character that is represented by a dark color (that is, a low-intensity color) on a light background, and pixels that represent the edge of a character that is represented by a light color (that is, a high-intensity color) on a dark background Both can be detected appropriately.

なお、本明細書に開示の技術は、種々の態様で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。   The technology disclosed in the present specification can be realized in various modes. For example, an image processing method and an image processing apparatus, a computer program for realizing the function of the method or the apparatus, and the computer It can be realized in the form of a recording medium on which the program is recorded (for example, a recording medium that is not temporary).

複合機100の構成を示すブロック図である。2 is a block diagram illustrating a configuration of the multifunction peripheral 100. FIG. 実施形態における領域分離処理部103のブロック構成図である。It is a block block diagram of the area | region separation process part 103 in embodiment. 文字判定部1003の構成を示すブロック図である。4 is a block diagram illustrating a configuration of a character determination unit 1003. FIG. 文字判定部の処理を説明するための図である。It is a figure for demonstrating the process of a character determination part. 文字判定部の各処理の信号を示す図である。It is a figure which shows the signal of each process of a character determination part. テーブルの説明図である。It is explanatory drawing of a table. 網点判定部1004のブロック構成図である。3 is a block configuration diagram of a halftone dot determination unit 1004. FIG. 網点判定部の処理を説明するための図である。It is a figure for demonstrating the process of a halftone dot determination part. パターンマッチングの一例を示す第1の図である。It is a 1st figure which shows an example of pattern matching. 内エッジ信号と判定パターン1710とマッチングの結果の一例を示す図である。It is a figure which shows an example of the result of matching with an inner edge signal and the determination pattern 1710. OR処理部1207による処理の説明図である。FIG. 10 is an explanatory diagram of processing by an OR processing unit 1207. 積算処理部1209と閾値判定部1211との構成を示すブロック図である。It is a block diagram which shows the structure of the integrating | accumulating process part 1209 and the threshold value determination part 1211. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of a process with the threshold value determination part 1211 and the comprehensive determination part 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of a process with the threshold value determination part 1211 and the comprehensive determination part 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図である。It is a figure which shows an example of a process with the threshold value determination part 1211 and the comprehensive determination part 1213. 網点内文字判定部1005の構成を示すブロック図である。10 is a block diagram showing a configuration of a halftone dot character determination unit 1005. FIG. 適応的スムージング処理部2401の構成を示すブロック図である。It is a block diagram which shows the structure of the adaptive smoothing process part 2401. FIG. 線パターンの説明図である。It is explanatory drawing of a line pattern. 図18(A)の線パターン2600を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2600 of FIG. 図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line patterns 2610-2630 of FIG.18 (B)-(D). 図18(A)の線パターン2600を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line pattern 2600 of FIG. 図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。It is a figure which shows the example of the determination using the line patterns 2610-2630 of FIG.18 (B)-(D). 適応的スムージング処理部2401による平滑化の周波数特性2900の一例を示す説明図である。It is explanatory drawing which shows an example of the frequency characteristic 2900 of the smoothing by the adaptive smoothing process part 2401. FIG. 網点内文字判定部1005による網点文字判定の例を示す図である。It is a figure which shows the example of the halftone character determination by the halftone character determination part 1005. FIG. 網点内文字判定部1005による網点文字判定の例を示す図である。It is a figure which shows the example of the halftone character determination by the halftone character determination part 1005. FIG. 出力処理部110の構成を示すブロック図である。3 is a block diagram illustrating a configuration of an output processing unit 110. FIG. 第1種の特定領域の画素と第2種の特定領域の画素とを検出する処理の別の実施例を示すフローチャートである。It is a flowchart which shows another Example of the process which detects the pixel of a 1st type specific area, and the pixel of a 2nd type specific area. 複数のフィルタの例を示す説明図である。It is explanatory drawing which shows the example of a some filter. 明線用の初期値Wdiwを決定する処理の説明図である。It is explanatory drawing of the process which determines the initial value Wdiw for bright lines.

A.第1実施例:
A−1.複合機100の構成
次に、実施の形態を実施例に基づき説明する。図1は、実施例の画像処理装置としての複合機100の構成を示すブロック図である。
A. First embodiment:
A-1. Configuration of MFP 100 Next, an embodiment will be described based on examples. FIG. 1 is a block diagram illustrating a configuration of a multifunction peripheral 100 as an image processing apparatus according to an embodiment.

複合機100は、制御部120と、読取実行部130と、印刷実行部140と、通信インタフェース(通信IF)150と、図示しない液晶ディスプレイなどの表示部と、図示しないタッチパネルやボタンを含む操作部と、を備えている。   The MFP 100 includes a control unit 120, a reading execution unit 130, a printing execution unit 140, a communication interface (communication IF) 150, a display unit such as a liquid crystal display (not shown), and an operation unit including a touch panel and buttons (not shown). And.

制御部120は、メインプロセッサ101と、複数個の画像処理部102〜110と、DRAMなどの複数個の揮発性メモリ111〜116と、フラッシュメモリなどの不揮発性メモリ117と、を備えている。   The control unit 120 includes a main processor 101, a plurality of image processing units 102 to 110, a plurality of volatile memories 111 to 116 such as a DRAM, and a nonvolatile memory 117 such as a flash memory.

メインプロセッサ101は、不揮発性メモリ117に格納されるコンピュータプログラムPGを実行することによって、読取実行部130や印刷実行部140、および、画像処理部102〜110を含む複合機100の全体を制御するCPUである。   The main processor 101 executes the computer program PG stored in the nonvolatile memory 117, thereby controlling the entire multifunction peripheral 100 including the reading execution unit 130, the print execution unit 140, and the image processing units 102 to 110. CPU.

複数個の画像処理部102〜110は、メインプロセッサ101の制御に従って動作するASICなどのハードウェア回路である。揮発性メモリ111〜116は、メインプロセッサ101や画像処理部102〜110によって利用されるメモリである。これら画像処理部やメモリを用いた処理の概要は後述する。   The plurality of image processing units 102 to 110 are hardware circuits such as an ASIC that operate according to the control of the main processor 101. Volatile memories 111 to 116 are memories used by the main processor 101 and the image processing units 102 to 110. An outline of processing using these image processing units and memories will be described later.

不揮発性メモリ117には、上述のコンピュータプログラムPGが格納されている。コンピュータプログラムPGは、メインプロセッサ101に複合機100の制御を実現させる制御プログラムである。コンピュータプログラムPGは、複合機200の製造時に、不揮発性メモリ117に予め格納される形態で提供される。これに代えて、コンピュータプログラムPGは、サーバからダウンロードされる形態で提供されても良く、DVD−ROMなどに格納される形態で提供されてもよい。   The non-volatile memory 117 stores the computer program PG described above. The computer program PG is a control program that causes the main processor 101 to control the multifunction peripheral 100. The computer program PG is provided in a form stored in advance in the non-volatile memory 117 when the multifunction device 200 is manufactured. Instead of this, the computer program PG may be provided in a form downloaded from a server, or may be provided in a form stored in a DVD-ROM or the like.

読取実行部130は、メインプロセッサ101の制御に従って、一次元イメージセンサを用いて原稿を光学的に読み取ることによってスキャンデータを生成する。スキャンデータは、複数個の画素の値を含み、複数個の画素の値のそれぞれは、画素の色をRGB表色系の色値(RGB値とも呼ぶ)で表す。すなわち、スキャンデータは、RGB画像データである。1個の画素のRGB値は、例えば、赤色(R)と緑色(G)と青色(B)との3個の色成分の値(以下、R値、G値、B値とも呼ぶ)を含んでいる。本実施例では、各成分値の階調数は、256階調である。   The reading execution unit 130 generates scan data by optically reading a document using a one-dimensional image sensor under the control of the main processor 101. The scan data includes a plurality of pixel values, and each of the plurality of pixel values represents the color of the pixel by an RGB color system color value (also referred to as an RGB value). That is, the scan data is RGB image data. The RGB value of one pixel includes, for example, three color component values of red (R), green (G), and blue (B) (hereinafter also referred to as R value, G value, and B value). It is out. In this embodiment, the number of gradations of each component value is 256 gradations.

印刷実行部140は、メインプロセッサ101の制御に従って、複数種類のインク、具体的には、シアン(C)、マゼンタ(M)、イエロ(Y)、ブラック(K)のインクを、色材として用いて、用紙などの印刷媒体に色材としてのインクを吐出することによって、画像を印刷する(インクジェット方式とも呼ばれる)。なお、変形例では、印刷実行部140は、色材としてのトナーを用いて、レーザ方式で印刷媒体に画像を印刷するレーザ方式の印刷実行部であっても良い。   The print execution unit 140 uses a plurality of types of inks, specifically, cyan (C), magenta (M), yellow (Y), and black (K) inks as color materials according to the control of the main processor 101. Thus, an image is printed by ejecting ink as a color material onto a print medium such as paper (also called an inkjet method). In a modified example, the print execution unit 140 may be a laser type print execution unit that prints an image on a print medium by a laser method using toner as a color material.

通信IF150は、ユーザの端末装置(図示省略)などの外部装置と通信を行うためのインタフェース、例えば、イーサネット(登録商標)規格に従うネットワークインタフェースである。   The communication IF 150 is an interface for communicating with an external device such as a user terminal device (not shown), for example, a network interface according to the Ethernet (registered trademark) standard.

A−2.複合機100の処理の概要
複合機100によって実行されるコピー処理、すなわち、読取実行部130を用いて、原稿を示すスキャンデータを生成し、該スキャンデータを用いて原稿を示す画像を印刷する処理の概要を説明する。なお、本実施例の原稿は、例えば、複合機100、あるいは、図示しないプリンタによって画像が印刷された印刷物である。
A-2. Overview of Processing of Multifunction Device 100 Copy processing executed by the multifunction device 100, that is, processing for generating scan data indicating a document using the reading execution unit 130, and printing an image indicating the document using the scan data The outline of will be described. The document of this embodiment is a printed material on which an image is printed by, for example, the multifunction peripheral 100 or a printer (not shown).

利用者は、複写すべき原稿を読取実行部130のシートフィーダにセットし、複写の開始指示を図示しない操作部を介して入力する。読取実行部130は、開始指示に応じて、原稿を1枚ずつ読み取ることによって、対象画像データとしてのスキャンデータを生成する。生成されたスキャンデータは、第1入力処理部102に出力される。   The user sets a document to be copied on the sheet feeder of the reading execution unit 130, and inputs a copy start instruction via an operation unit (not shown). The reading execution unit 130 generates scan data as target image data by reading one document at a time in response to a start instruction. The generated scan data is output to the first input processing unit 102.

第1入力処理部102は、読取実行部130から出力されるスキャンデータに対して、シェーディング補正、色補正など、周知の画像処理を行って、画像処理済みのスキャンデータを領域分離処理部103に送信する。   The first input processing unit 102 performs well-known image processing such as shading correction and color correction on the scan data output from the reading execution unit 130, and sends the image processed scan data to the region separation processing unit 103. Send.

領域分離処理部103は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理を行う。領域分離処理部103は、スキャンデータによって示されるスキャン画像の画素ごとに写真(自然画)領域、文字領域、網点領域、網点内の文字領域といった画像の特徴を検出して、領域ごとの属性を表すフラグデータを、後述する文字フラグ1007、網点フラグ1008、網点内文字フラグ1009として生成する。該フラグデータは、第2入力処理部104に出力されるとともに、第1フラグメモリ112に格納される。   The region separation processing unit 103 performs region separation processing on the scan data output from the first input processing unit 102. The region separation processing unit 103 detects image features such as a photograph (natural image) region, a character region, a halftone dot region, and a character region within a halftone dot for each pixel of the scanned image indicated by the scan data, and Flag data representing an attribute is generated as a character flag 1007, a halftone dot flag 1008, and a halftone dot character flag 1009 described later. The flag data is output to the second input processing unit 104 and stored in the first flag memory 112.

第2入力処理部104は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理部103から出力されるフラグデータに基づき、領域ごとに適正な画像処理を行なって、処理済画像データを生成する。処理済画像データは、第1画像メモリ111に格納される。例えば、第2入力処理部104は、文字領域に対して、画像の高周波成分を強調して文字の鮮鋭度を強調する処理を行い、網点領域に対して、ローパスフィルタ処理を行う。ローパスフィルタ処理によって、スキャン画像に含まれるいわゆるモアレ成分が除去される。これらの処理の切り替えは、領域分離処理部103で生成したフラグデータに基づいて、画素単位で行われる。   The second input processing unit 104 performs appropriate image processing for each region on the scan data output from the first input processing unit 102 based on the flag data output from the region separation processing unit 103, and performs processing. Generate finished image data. The processed image data is stored in the first image memory 111. For example, the second input processing unit 104 performs processing for emphasizing high-frequency components of the image to enhance the sharpness of the character with respect to the character region, and performs low-pass filter processing with respect to the dot region. A so-called moire component included in the scan image is removed by the low-pass filter processing. Switching between these processes is performed on a pixel basis based on the flag data generated by the region separation processing unit 103.

第1画像メモリ111に1ページ分の処理済画像データが格納されると、データ圧縮部107は、該処理済画像データを、例えば、非可逆圧縮方式(例えば、JPEG方式)を用いて圧縮し、圧縮済みの処理済画像データを、メインメモリ113に格納する。   When processed image data for one page is stored in the first image memory 111, the data compression unit 107 compresses the processed image data using, for example, an irreversible compression method (for example, JPEG method). The compressed processed image data is stored in the main memory 113.

第1フラグメモリ112に1ページ分のフラグデータが格納されると、データ圧縮部107は、該フラグデータを、可逆圧縮方式(例えば、ZIP方式)を用いて圧縮し、圧縮済みのフラグデータを、メインメモリ113に格納する。   When one page of flag data is stored in the first flag memory 112, the data compression unit 107 compresses the flag data using a lossless compression method (for example, the ZIP method), and converts the compressed flag data into the first flag memory 112. And stored in the main memory 113.

上記の処理を行なって、メインメモリ113には各原稿の圧縮済みの処理済画像データおよび圧縮済みのフラグデータが蓄積されていく。この蓄積処理と並行して、データ復号部109は、メインメモリ113から圧縮済みの処理済画像データおよび圧縮済みのフラグデータを取得し、復号処理を行なう。このとき、解像度変換部108は、必要に応じて、復号された処理済画像データに対して、該処理済画像データの解像度を変換する解像度変換を行なう。   By performing the above processing, the processed image data and the compressed flag data of each document are accumulated in the main memory 113. In parallel with this accumulation process, the data decoding unit 109 acquires the processed image data and the compressed flag data from the main memory 113, and performs the decoding process. At this time, the resolution conversion unit 108 performs resolution conversion for converting the resolution of the processed image data on the decoded processed image data as necessary.

復号および解像度が変換された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータは、第2フラグメモリ115に格納される。   The processed image data whose decoding and resolution have been converted are stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データ(RGB値)に対して色変換処理やハーフトーン処理を含む生成処理を実行して、印刷データを生成する。出力処理部110は、印刷データを生成する過程において、第2フラグメモリ115に格納されたフラグデータを参照して、各画素が属する領域の属性を認識し、領域ごとに適した画像処理を実行することができる。これによって、適切な印刷データが生成される。生成される印刷データは、印刷実行部140に出力される。この結果、印刷実行部140によって、用紙上に原稿を示す画像が印刷される。   The output processing unit 110 performs generation processing including color conversion processing and halftone processing on the processed image data (RGB values) stored in the second image memory 116 to generate print data. In the process of generating print data, the output processing unit 110 refers to the flag data stored in the second flag memory 115, recognizes the attribute of the area to which each pixel belongs, and executes image processing suitable for each area. can do. As a result, appropriate print data is generated. The generated print data is output to the print execution unit 140. As a result, the print execution unit 140 prints an image showing the document on the paper.

上記は、コピー処理についてのものであったが、複合機100は、ユーザの端末装置などの端末装置から送信される印刷ジョブを、通信IF150を介して受信し、該印刷ジョブに基づいて画像を印刷する、いわゆるネットワークプリンタとしても機能する。   The above is for copy processing, but the multi-function device 100 receives a print job transmitted from a terminal device such as a user terminal device via the communication IF 150, and displays an image based on the print job. It also functions as a so-called network printer for printing.

この場合には、通信IF150を介して受信される印刷ジョブは、PDL形式の画像データを含む。PDL形式の画像データを含む印刷ジョブは、インタープリタ106に供給される。インタープリタ106は、受信した印刷ジョブに含まれるPDL形式の画像データを解釈し、RIP105が解釈可能な描画コマンド(中間データ)に変換する。RIP105は、この描画コマンドに基づき描画処理(ラスタライズ処理)を行なって、RGB画像データを生成する。このRGB画像データは、第1画像メモリ111に格納される。RIP105は、フラグデータを生成して、第1フラグメモリ112に格納する。PDL形式の印刷データでは、文字、写真(自然画)、網点等は、印刷コマンドで定義されているので、RIP105は、フラグデータを容易に生成することができる。   In this case, the print job received via the communication IF 150 includes image data in PDL format. A print job including image data in the PDL format is supplied to the interpreter 106. The interpreter 106 interprets PDL format image data included in the received print job, and converts it into a drawing command (intermediate data) that can be interpreted by the RIP 105. The RIP 105 performs drawing processing (rasterization processing) based on this drawing command to generate RGB image data. This RGB image data is stored in the first image memory 111. The RIP 105 generates flag data and stores it in the first flag memory 112. In PDL format print data, characters, photos (natural images), halftone dots, and the like are defined by print commands, so the RIP 105 can easily generate flag data.

A−3.領域分離処理部103による処理
領域分離処理部103によって実行される処理について説明する。図2は、実施形態における領域分離処理部103のブロック構成図である。
A-3. Processing by Region Separation Processing Unit 103 Processing executed by the region separation processing unit 103 will be described. FIG. 2 is a block configuration diagram of the region separation processing unit 103 in the embodiment.

輝度データ取得部1002には、第1入力処理部102から出力されるスキャンデータの各画素の値を示す画素単位の入力信号1001が、画素ごとに入力される。すなわち、入力信号1001は、スキャンデータの各画素のRGB値を示す信号である。輝度データ取得部1002は、入力信号1001によって示されるRGB値に基づいて、画素の明るさの度合いである輝度値を示す信号を、属性判定用の画素単位の判定信号として生成する。輝度値は、RGB値に含まれる複数個の成分値(R値、G値、B値)を用いて取得される。例えば、G値が、輝度値として用いられる。これに代えて、(R+2×G+B)/4などの演算によって、輝度値が算出されてもよい。また、RGB表色系の色値をLab表色系の色値に変換し、得られたL値を、輝度値として用いてもよい。輝度データ取得部1002は、画素ごとに入力されるスキャンデータを用いて、複数個の画素のそれぞれの輝度値を表す輝度画像データを取得する回路である、と言うことができる。   An input signal 1001 in units of pixels indicating the value of each pixel of the scan data output from the first input processing unit 102 is input to the luminance data acquisition unit 1002 for each pixel. That is, the input signal 1001 is a signal indicating the RGB value of each pixel of the scan data. Based on the RGB values indicated by the input signal 1001, the luminance data acquisition unit 1002 generates a signal indicating a luminance value, which is the degree of brightness of the pixel, as a determination signal for each pixel for attribute determination. The luminance value is acquired using a plurality of component values (R value, G value, B value) included in the RGB value. For example, the G value is used as the luminance value. Instead of this, the luminance value may be calculated by an operation such as (R + 2 × G + B) / 4. Alternatively, the RGB color system color value may be converted into the Lab color system color value, and the obtained L value may be used as the luminance value. It can be said that the luminance data acquisition unit 1002 is a circuit that acquires luminance image data representing the luminance values of a plurality of pixels using scan data input for each pixel.

輝度データ取得部1002にて生成された輝度値を示す判定信号は、文字判定部1003と、網点判定部1004と、網点内文字判定部1005と、にそれぞれ出力される。文字判定部1003と、網点判定部1004と、網点内文字判定部1005とは、供給される判定信号を用いて、文字判定、網点判定、網点内文字判定を、それぞれ、実行し、判定結果を示す結果信号を、属性フラグ生成部1006に出力する。   The determination signal indicating the luminance value generated by the luminance data acquisition unit 1002 is output to the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005, respectively. The character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005 execute character determination, halftone dot determination, and halftone dot character determination, respectively, using the supplied determination signal. The result signal indicating the determination result is output to the attribute flag generation unit 1006.

属性フラグ生成部1006は、各判定部1003〜1005からの結果信号を用いて、属性フラグを生成する。実施例では、文字フラグ1007、網点フラグ1008、網点内文字フラグ1009が生成される。文字フラグ1007は、スキャンデータ内の対応する画素が、文字領域を構成する文字画素であるか否かを示すフラグである。網点フラグ1008は、スキャンデータ内の対応する画素が、網点領域を構成する網点画素であるか否かを示すフラグである。網点内文字フラグ1009は、スキャンデータ内の対応する画素が、網点内文字領域を構成する網点内文字画素であるか否かを示すフラグである。これらの属性フラグを基に、スキャン画像に含まれる画像の特徴に応じて最適な画像処理を施すことが可能になる。以下、文字判定部1003、網点判定部1004、網点内文字判定部1005について、より詳しく説明する。   The attribute flag generation unit 1006 generates an attribute flag using the result signals from the determination units 1003 to 1005. In the embodiment, a character flag 1007, a halftone dot flag 1008, and a halftone dot character flag 1009 are generated. The character flag 1007 is a flag indicating whether or not the corresponding pixel in the scan data is a character pixel constituting the character area. A halftone dot flag 1008 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot pixel constituting a halftone dot region. The halftone dot character flag 1009 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot character pixel constituting a halftone dot character region. Based on these attribute flags, it is possible to perform optimum image processing according to the characteristics of the image included in the scanned image. Hereinafter, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005 will be described in more detail.

A−3−1.文字判定部1003の説明
図3は、文字判定部1003の構成を示すブロック図である。
A-3-1. Description of Character Determination Unit 1003 FIG. 3 is a block diagram showing a configuration of the character determination unit 1003.

エッジ強調部1102には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1102は、該判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。このエッジ強調処理は、輝度画像データの所望の周波数成分を、強調・抽出するフィルタ処理が行われる。本実施例では、ラプラシアンフィルタなどの2次微分フィルタが用いられる。このために、エッジ強調部1102は、フィルタ処理に必要な、輝度画像データの複数個の画素の輝度値を示す複数個の判定信号を記憶するためのバッファメモリを備える。   The edge enhancement unit 1102 receives a determination signal (luminance value) from the luminance data acquisition unit 1002. The edge enhancement unit 1102 performs edge enhancement processing on the determination signal and outputs an edge enhancement signal. In this edge enhancement process, a filter process for enhancing / extracting a desired frequency component of luminance image data is performed. In this embodiment, a secondary differential filter such as a Laplacian filter is used. For this purpose, the edge enhancement unit 1102 includes a buffer memory for storing a plurality of determination signals indicating luminance values of a plurality of pixels of luminance image data necessary for the filtering process.

エッジ強調部1102から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1103、1104に入力される。閾値判定部1103には正の値の閾値が、閾値判定部1104には負の値の閾値が設定されている。   The edge enhancement signal output from the edge enhancement unit 1102 is input to threshold determination units 1103 and 1104 that compare a value indicated by the edge enhancement signal with a threshold value. The threshold value determination unit 1103 is set with a positive threshold value, and the threshold value determination unit 1104 is set with a negative value threshold value.

図4は、文字判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(A)において、エッジ境界部1501は、下地1503(例えば白色)にある文字1502(例えば、黒色)と、下地1503と、のエッジを表している。図4(B)には、エッジ境界部1501の断面1510に対応する輝度画像データ(すなわち、判定信号)1504が示されている。この例では、文字1502の部分における輝度画像データの値(輝度値)は、比較的小さな値1505であり、下地1503の部分における輝度画像データの値は、比較的大きな値1506である。図4(C)には、図4(B)の輝度画像データ1504に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)が示されている。エッジ抽出データ1507は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。閾値判定部1103は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。「1」を示す内エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する小さな値側の画素(内エッジ画素)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する文字側の画素が、内エッジ画素である。閾値判定部1104は、エッジ強調信号によって示される値が、負の閾値を下回った場合に、「1」を示す外エッジ信号を出力し、負の閾値以上である場合に、「0」を示す外エッジ信号を出力する。「1」を示す外エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する大きな値側の画素(外エッジ画素とも呼ぶ)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する下地側の画素が、外エッジ画素である。   FIG. 4 is a diagram for explaining the processing of the character determination unit. When a secondary differential filter is used in the edge enhancement processing, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. In FIG. 4A, an edge boundary portion 1501 represents an edge between a character 1502 (for example, black) and a background 1503 on a background 1503 (for example, white). FIG. 4B shows luminance image data (that is, a determination signal) 1504 corresponding to the cross section 1510 of the edge boundary 1501. In this example, the luminance image data value (luminance value) in the character 1502 portion is a relatively small value 1505, and the luminance image data value in the background 1503 portion is a relatively large value 1506. FIG. 4C shows edge extraction data 1507 (that is, data indicated by an edge enhancement signal) obtained by performing edge enhancement processing on the luminance image data 1504 of FIG. 4B using a secondary differential filter. )It is shown. The edge extraction data 1507 has a positive value 1508 on the character 1502 side and a negative value 1509 on the background 1503 side. The threshold determination unit 1103 outputs an inner edge signal indicating “1” when the value indicated by the edge enhancement signal exceeds the positive threshold, and indicates “0” when the value is equal to or less than the positive threshold. The inner edge signal is output. The inner edge signal indicating “1” indicates that the corresponding pixel is a small value side pixel (inner edge pixel) that constitutes an edge that changes from a relatively small value to a relatively large value in the luminance image data. Indicates. In the example of FIG. 4, the pixel on the character side that forms the edge between the character 1502 and the background 1503 is the inner edge pixel. The threshold determination unit 1104 outputs an outer edge signal indicating “1” when the value indicated by the edge enhancement signal is below the negative threshold, and indicates “0” when the value is equal to or greater than the negative threshold. Outputs an outer edge signal. The outer edge signal indicating “1” is a pixel on the large value side (also referred to as an outer edge pixel) that constitutes an edge in which the corresponding pixel changes from a relatively small value to a relatively large value in the luminance image data. Indicates that there is. In the example of FIG. 4, the pixel on the ground side that forms the edge between the character 1502 and the ground 1503 is the outer edge pixel.

閾値判定部1103から出力された内エッジ信号は、エリア積算部1105へ、閾値判定部1104から出力された外エッジ信号は、エリア積算部1106へ、それぞれ出力される。エリア積算部1105は、注目画素を中心とする縦3画素×横3画素の周辺範囲内の画素に対応する9個の内エッジ信号を積算した積算信号を、画素ごとに出力する。エリア積算部1106は、注目画素の上記周辺範囲内の画素に対応する9個の外エッジ信号を積算した積算信号を、画素ごとに出力する。したがって、エリア積算部1105、1106から出力される積算信号は、対応する画素の周辺範囲内に存在する内エッジ画素の個数、外エッジ画素の個数を、それぞれ示す。したがって、積算信号が示す値は0以上9以下の範囲となる。   The inner edge signal output from the threshold determination unit 1103 is output to the area integration unit 1105, and the outer edge signal output from the threshold determination unit 1104 is output to the area integration unit 1106. The area integration unit 1105 outputs, for each pixel, an integration signal obtained by integrating nine inner edge signals corresponding to pixels in the peripheral range of 3 vertical pixels × 3 horizontal pixels centered on the target pixel. The area integration unit 1106 outputs an integration signal obtained by integrating the nine outer edge signals corresponding to the pixels in the peripheral range of the target pixel for each pixel. Therefore, the integration signals output from the area integration units 1105 and 1106 indicate the number of inner edge pixels and the number of outer edge pixels existing in the peripheral range of the corresponding pixel, respectively. Therefore, the value indicated by the integrated signal is in the range of 0 to 9.

閾値判定部1107、1108は、エリア積算部1105および1106から出力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。例えば、閾値としてそれぞれ「2」という値が設定されている。このために、閾値判定部1107から出力される積算判定信号は、対応する画素の上記周辺範囲内に、内エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。閾値判定部1108から出力される積算判定信号は、対応する画素の上記周辺範囲内に、外エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。   The threshold determination units 1107 and 1108 compare the value indicated by the integration signal output from the area integration units 1105 and 1106 with the threshold value, and output an integration determination signal indicating the result. For example, a value “2” is set as each threshold value. For this reason, the integration determination signal output from the threshold determination unit 1107 has a positive value (for example, “1”) when there are two or more inner edge pixels in the peripheral range of the corresponding pixel. Show. The integration determination signal output from the threshold determination unit 1108 indicates a positive value (for example, “1”) when there are two or more outer edge pixels in the peripheral range of the corresponding pixel.

処理の具体例を、図5を用いて説明する。図5は、文字判定部の各処理の信号を示す図である。図5(A)には、輝度画像データによって示される輝度画像内に現れる下地上の文字のエッジの一部1301が示されている。   A specific example of the process will be described with reference to FIG. FIG. 5 is a diagram illustrating signals of each process of the character determination unit. FIG. 5A shows a part 1301 of the edge of the character on the base that appears in the luminance image indicated by the luminance image data.

図5(B)は、判定信号(すなわち、輝度値を示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1104によって処理した結果、すなわち、外エッジ画素の特定結果を示している。図示のように、領域1302は、文字のエッジの外側の領域(外エッジ領域)を表わしている。   FIG. 5B shows a result of edge enhancement of the determination signal (that is, a signal indicating a luminance value) by the edge enhancement unit 1102 and processing by the threshold determination unit 1104, that is, a result of specifying the outer edge pixel. As illustrated, the region 1302 represents a region outside the character edge (outer edge region).

図5(C)は、閾値判定部1104からの外エッジ信号をエリア積算部1106によって処理し、エリア積算部1106からの積算信号を閾値判定部1108によって処理した結果、すなわち、外エッジのエリア積算の判定結果を示している。図示のように、領域1304は、外エッジ領域1302の拡張した結果となる。   FIG. 5C shows the result of processing the outer edge signal from the threshold determination unit 1104 by the area integration unit 1106 and processing the integration signal from the area integration unit 1106 by the threshold determination unit 1108, that is, area integration of the outer edge. The determination result is shown. As shown, region 1304 is the result of extending outer edge region 1302.

図5(D)は、判定信号(すなわち、最小成分値Vminを示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1103によって処理した結果、すなわち、内エッジ画素の特定結果を示している。図示のように、領域1303は、文字のエッジの内側の領域(内エッジ領域)を表わしている。   FIG. 5D shows the result of processing the edge of the determination signal (that is, the signal indicating the minimum component value Vmin) by the edge enhancement unit 1102 and processing by the threshold determination unit 1103, that is, the result of specifying the inner edge pixel. Yes. As illustrated, a region 1303 represents a region inside the edge of the character (inner edge region).

図5(E)は、閾値判定部1103からの内エッジ信号をエリア積算部1105によって処理し、エリア積算部1105からの積算信号を閾値判定部1107によって処理した結果、すなわち、内エッジのエリア積算の判定結果を示している。図示のように、領域1305は、内エッジ領域1303の拡張した結果となる。   FIG. 5E shows the result of processing the inner edge signal from the threshold determining unit 1103 by the area integrating unit 1105 and processing the integrated signal from the area integrating unit 1105 by the threshold determining unit 1107, that is, area integration of the inner edge. The determination result is shown. As shown in the figure, the area 1305 is the result of expanding the inner edge area 1303.

総合判定部1109には、閾値判定部1103、1107、1108から出力される3種類の信号、すなわち、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、が入力される。総合判定部1109は、文字判定部1003の判定結果を示す結果信号である文字判定信号1110を生成する。図5(F)には、文字判定信号によって文字である示される領域1306が示されている。   Three types of signals output from the threshold determination units 1103, 1107, and 1108, that is, the inner edge signal, the inner edge integration determination signal, and the outer edge integration determination signal are input to the overall determination unit 1109. The The overall determination unit 1109 generates a character determination signal 1110 that is a result signal indicating the determination result of the character determination unit 1003. FIG. 5F shows a region 1306 indicated as a character by the character determination signal.

総合判定部1109は、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、に基づいて、決められた論理に従って文字判定信号1110を出力する。例えば、文字判定信号1110は、以下のような論理で、文字であることを示す信号(本実施例では「1」)、または、文字でないことを示す信号(本実施例では「0」)に決定される。
(1)対応する画素が内エッジである。→「1」
(2)対応する画素が外エッジであり、かつ、上記縦3画素×縦3画素の周辺範囲に外エッジが2個以上ある。→「0」
(3)上記(1)、(2)のいずれにも該当せず、かつ、上記縦3画素×縦3画素の周辺範囲に内エッジが2個以上ある。→「1」
(4)上記(1)〜(3)のいずれにも該当しない。→「0」
上記を実現するためには、総合判定部1109は、図6に示すテーブルを保持している。図示の如く、入力される内エッジ信号、内エッジの積算判定信号、外エッジの積算判定信号の結果に応じて、文字判定信号1110が決定される。以上のように行うことで、文字を好適に抽出することができる。
Based on the inner edge signal, the inner edge integration determination signal, and the outer edge integration determination signal, the overall determination unit 1109 outputs a character determination signal 1110 according to a determined logic. For example, the character determination signal 1110 is a signal indicating that it is a character (“1” in the present embodiment) or a signal indicating that it is not a character (“0” in this embodiment) according to the following logic. It is determined.
(1) The corresponding pixel is the inner edge. → "1"
(2) The corresponding pixel is the outer edge, and there are two or more outer edges in the peripheral area of the vertical 3 pixels × vertical 3 pixels. → "0"
(3) It does not correspond to any of the above (1) and (2), and there are two or more inner edges in the peripheral area of the vertical 3 pixels × vertical 3 pixels. → "1"
(4) Does not correspond to any of the above (1) to (3). → "0"
In order to realize the above, the comprehensive determination unit 1109 holds the table shown in FIG. As shown in the figure, the character determination signal 1110 is determined according to the result of the input inner edge signal, inner edge integration determination signal, and outer edge integration determination signal. By performing as described above, it is possible to suitably extract characters.

A−3−2.網点判定部1004の説明
図7は、実施形態における網点判定部1004のブロック構成図である。
A-3-2. Description of Halftone Determination Unit 1004 FIG. 7 is a block configuration diagram of the halftone dot determination unit 1004 in the embodiment.

エッジ強調部1202には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1202は、判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。エッジ強調部1202によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。   The edge enhancement unit 1202 receives a determination signal (luminance value) from the luminance data acquisition unit 1002. The edge enhancement unit 1202 performs edge enhancement processing on the determination signal and outputs an edge enhancement signal. The edge enhancement processing by the edge enhancement unit 1202 is the same processing as the edge enhancement processing by the edge enhancement unit 1102 in FIG. 3, for example, filter processing using a secondary differential filter such as a Laplacian filter.

エッジ強調部1202から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1203、1204に入力される。閾値判定部1203には正の値の閾値が、閾値判定部1204には負の値の閾値が設定されている。   The edge enhancement signal output from the edge enhancement unit 1202 is input to threshold determination units 1203 and 1204 that compare a value indicated by the edge enhancement signal with a threshold value. The threshold value determination unit 1203 is set with a positive threshold value, and the threshold value determination unit 1204 is set with a negative value threshold value.

図8は、網点判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、上述したように、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図8(A)において、エッジ境界部1601は、下地1603(例えば、白色)にある1個の網点1602と、下地1603と、のエッジを表している。図8(B)には、網点エッジ境界部1601の断面1610に対する輝度画像データ(すなわち、判定信号)1604が示されている。この例では、網点1602の部分における輝度画像データの値(輝度値)は、比較的小さな値1605であり、下地1603の部分における輝度画像データの値は、比較的大きな値1606である。図8(C)には、図8(B)の輝度画像データ1604に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1607が示されている。エッジ抽出データ1607は、網点1602側では正の値1608となり、下地1603側では負の値1609となる。閾値判定部1203は、図3の閾値判定部1103と同様に、内エッジ信号を出力する。閾値判定部1204は、図3の閾値判定部1104と同様に、外エッジ信号を出力する。図6の例では、網点1602と下地1603とのエッジを構成する網点側の画素が、内エッジ画素である。また、網点1602と下地1603とのエッジを構成する下地側の画素が、外エッジ画素である。   FIG. 8 is a diagram for explaining the processing of the halftone dot determination unit. When the secondary differential filter is used in the edge enhancement process, as described above, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. In FIG. 8A, an edge boundary portion 1601 represents the edge of one halftone dot 1602 on the background 1603 (for example, white) and the background 1603. FIG. 8B shows luminance image data (that is, a determination signal) 1604 for the cross section 1610 of the halftone edge boundary 1601. In this example, the luminance image data value (luminance value) in the halftone dot 1602 portion is a relatively small value 1605, and the luminance image data value in the background 1603 portion is a relatively large value 1606. FIG. 8C shows edge extraction data 1607 obtained by performing edge enhancement processing on the luminance image data 1604 of FIG. 8B using a secondary differential filter. The edge extraction data 1607 has a positive value 1608 on the halftone dot 1602 side and a negative value 1609 on the background 1603 side. The threshold determination unit 1203 outputs an inner edge signal in the same manner as the threshold determination unit 1103 in FIG. The threshold determination unit 1204 outputs an outer edge signal, similar to the threshold determination unit 1104 in FIG. In the example of FIG. 6, the pixel on the halftone dot side that forms the edge between the halftone dot 1602 and the background 1603 is the inner edge pixel. Further, the pixel on the ground side that forms the edge between the halftone dot 1602 and the ground layer 1603 is an outer edge pixel.

閾値判定部1203から出力される内エッジ信号は、孤立量判定部1205に入力される。閾値判定部1204から出力される外エッジ信号は、孤立量判定部1206に入力される。   The inner edge signal output from the threshold determination unit 1203 is input to the isolation amount determination unit 1205. The outer edge signal output from the threshold determination unit 1204 is input to the isolation amount determination unit 1206.

孤立量判定部1205は、閾値判定部1203からの内エッジ信号についてパターンマッチング処理を行う。原稿に含まれる網点には、比較的単位面積当たりの線数が少ないものから比較的単位面積あたりの線数が多いものまであるため、原稿によって網点のサイズや間隔は異なる。そのため、どのような線数の網点でも検出できるように、パターンマッチングは複数のパターンにて行う。少線数の網点に対しては、比較的大きなパターンにてマッチングを行い、網点かどうかを判定する。多線数の網点に対しては、比較的小さなパターンにてマッチングを行い、網点かどうかを判定する。また、網点は、原稿上で表現すべき濃度によっても形状が変化するので、それに対応できるよう、マッチングの際に、複数の判定レベルを用いる。   The isolation amount determination unit 1205 performs pattern matching processing on the inner edge signal from the threshold determination unit 1203. Since halftone dots included in a document range from those having a relatively small number of lines per unit area to those having a relatively large number of lines per unit area, the sizes and intervals of the halftone dots vary depending on the document. Therefore, pattern matching is performed with a plurality of patterns so that halftone dots with any number of lines can be detected. For halftone dots with a small number of lines, matching is performed with a relatively large pattern to determine whether the dot is a halftone dot. For halftone dots with multiple lines, matching is performed with a relatively small pattern to determine whether the dot is a halftone dot. Further, since the shape of the halftone dot changes depending on the density to be expressed on the document, a plurality of determination levels are used for matching so as to cope with it.

図9は、パターンマッチングの一例を示す第1の図である。図9(A)は、閾値判定部1203の結果の例である。図9(A)には、縦4画素×横4画素の範囲でパターンマッチングする例を説明するため、当該範囲内の内エッジ信号1700を示している。その中で、閾値判定部1203で、「1」を示す内エッジ信号が出力された画素(内エッジ画素)が、ハッチングされた領域1702の4画素である。「0」を示す内エッジ信号が出力された画素(非内エッジ画素)は、ハッチングされていない領域1703の画素である。マッチングの対象となる注目画素は画素1701である。   FIG. 9 is a first diagram illustrating an example of pattern matching. FIG. 9A is an example of the result of the threshold determination unit 1203. FIG. 9A shows an inner edge signal 1700 within the range in order to explain an example of pattern matching in a range of 4 vertical pixels × 4 horizontal pixels. Among them, the pixels (inner edge pixels) from which the inner edge signal indicating “1” is output by the threshold determination unit 1203 are the four pixels in the hatched region 1702. A pixel (a non-inner edge pixel) from which an inner edge signal indicating “0” is output is a pixel in a region 1703 that is not hatched. A target pixel to be matched is a pixel 1701.

次に、同サイズの判定パターンの一例を図9(B)に示す。図示の判定パターン1710において、4個の黒画素1712は、該パターンにおいて、内エッジ画素であるべき画素である。8個の白画素1713は、非内エッジ画素であるべき画素である。4隅の画素は、内エッジ画素でも非内エッジ画素でも構わない任意画素1714である。これを基本パターンとして、黒画素1712と白画素1713のそれぞれに、複数の一致レベルを持たせて、判定レベルを調整する。   Next, an example of a determination pattern of the same size is shown in FIG. In the illustrated determination pattern 1710, four black pixels 1712 are pixels that should be inner edge pixels in the pattern. Eight white pixels 1713 are pixels that should be non-inner edge pixels. The pixels at the four corners are arbitrary pixels 1714 that may be inner edge pixels or non-inner edge pixels. Using this as a basic pattern, each of the black pixel 1712 and the white pixel 1713 has a plurality of matching levels, and the determination level is adjusted.

図10は、内エッジ信号と、図9(B)の判定パターン1710と、マッチングの結果の一例を示す図である。   FIG. 10 is a diagram illustrating an example of the inner edge signal, the determination pattern 1710 in FIG. 9B, and the matching result.

判定パターン1710における黒画素1712と、内エッジ信号における内エッジ画素と、が、4画素のうちN1画素(N1は、1以上3以下の整数)以上一致した場合は、黒画素判定を有効とする。判定パターン1710における白画素1713と、内エッジ信号における非エッジ画素と、が8画素のうちN2画素以上(N2は、1以上7以下の整数)一致した場合は、白画素判定を有効とする。黒画素判定と白画素判定との両方が有効である場合に限って、注目画素1801の判定結果を示す孤立量判定信号を、「1」とする。N1とN2の値を調整することで、判定レベルを任意に調整できる。本実施例では、N1=3、N2=6とする。   When the black pixel 1712 in the determination pattern 1710 and the inner edge pixel in the inner edge signal match at least N1 pixels (N1 is an integer of 1 to 3) of the four pixels, the black pixel determination is valid. . When the white pixel 1713 in the determination pattern 1710 and the non-edge pixel in the inner edge signal match N2 pixels or more (N2 is an integer of 1 to 7) among the 8 pixels, the white pixel determination is valid. Only when both the black pixel determination and the white pixel determination are valid, the isolation amount determination signal indicating the determination result of the target pixel 1801 is set to “1”. The determination level can be arbitrarily adjusted by adjusting the values of N1 and N2. In this embodiment, N1 = 3 and N2 = 6.

図10(A)の内エッジ信号1810の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。   In the case of the inner edge signal 1810 in FIG. 10A, the black pixel determination is valid (number of matches = 4) and the white pixel determination is valid (number of matches = 8). 1 ".

図10(B)の内エッジ信号1820の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=7)であるので、孤立量判定信号は「1」となる。   In the case of the inner edge signal 1820 in FIG. 10B, the black pixel determination is valid (number of matches = 4) and the white pixel determination is valid (number of matches = 7). 1 ".

図10(C)の内エッジ信号1830の場合、黒画素判定は有効(一致数=3)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。   In the case of the inner edge signal 1830 in FIG. 10C, the black pixel determination is valid (number of matches = 3) and the white pixel determination is valid (number of matches = 8). 1 ".

図10(D)の内エッジ信号1840の場合、黒画素判定は無効(一致数=2)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「0」となる。   In the case of the inner edge signal 1840 in FIG. 10D, since the black pixel determination is invalid (match number = 2) and the white pixel determination is valid (match number = 8), the isolation amount determination signal is “ 0 ".

このようなパターンマッチングを複数のサイズの判定パターンを用いて行う。実施例では、内エッジ信号について説明したが、外エッジ信号についても同様のパターンマッチングを行う。その際、判定パターンや判定レベルの調整値は任意に設定できる。   Such pattern matching is performed using determination patterns of a plurality of sizes. In the embodiment, the inner edge signal has been described, but the same pattern matching is performed for the outer edge signal. At this time, the adjustment value of the determination pattern and the determination level can be arbitrarily set.

さて、孤立量判定部1205、1206から出力される孤立量判定信号は、図7のOR処理部1207に入力される。OR処理部1207では、縦3画素×横3画素の範囲内で孤立量判定信号の論理和をとり、該範囲内に孤立量判定信号が「1」である画素があるか否かを判定する。OR処理部1207は、判定の結果、孤立量判定信号が「1」である画素が、該範囲内に1個以上あれば、判定対象の注目画素のOR処理信号を「1」とし、孤立量判定信号が「1」である画素が、該範囲内に1個もなければ、判定対象の注目画素のOR処理信号を「0」とする。   The isolation amount determination signals output from the isolation amount determination units 1205 and 1206 are input to the OR processing unit 1207 in FIG. The OR processing unit 1207 calculates the logical sum of the isolation amount determination signals within the range of 3 vertical pixels × 3 horizontal pixels, and determines whether there is a pixel with the isolation amount determination signal “1” within the range. . As a result of the determination, the OR processing unit 1207 sets the OR processing signal of the target pixel to be determined to “1” if there is one or more pixels whose isolation amount determination signal is “1” within the range, and the isolation amount If there is no pixel having the determination signal “1” within the range, the OR processing signal of the target pixel to be determined is set to “0”.

図11は、OR処理部1207による処理の説明図である。図11(A)の例では、縦3画素×横3画素の範囲のうち、中心の注目画素の孤立量判定信号だけが「1」である。従って、出力されるOR処理信号は、「1」である。図11(B)の例では、中心の注目画素の孤立量判定信号は「0」であるが、縦3画素×横3画素の範囲内の右上の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。図11(C)の例では、中心の注目画素の孤立量判定信号は「0」であるが、その周囲の8個の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。   FIG. 11 is an explanatory diagram of processing by the OR processing unit 1207. In the example of FIG. 11A, only the isolated amount determination signal of the center pixel of interest in the range of 3 vertical pixels × 3 horizontal pixels is “1”. Therefore, the output OR processing signal is “1”. In the example of FIG. 11B, the isolation amount determination signal of the pixel of interest at the center is “0”, but the isolation amount determination signal of the upper right pixel within the range of 3 vertical pixels × 3 horizontal pixels is “1”. It is. Therefore, the output OR processing signal is “1”. In the example of FIG. 11C, the isolation amount determination signal of the center pixel of interest is “0”, but the isolation amount determination signals of the eight surrounding pixels are “1”. Therefore, the output OR processing signal is “1”.

OR処理部1207から出力されるOR処理信号は、積算処理部1209に入力される。図12は、積算処理部1209と、閾値判定部1211と、の構成を示すブロック図である。   The OR processing signal output from the OR processing unit 1207 is input to the integration processing unit 1209. FIG. 12 is a block diagram illustrating configurations of the integration processing unit 1209 and the threshold determination unit 1211.

積算処理部1209は、注目画素を中心とする複数種類のサイズの積算範囲内の画素に対応する複数個のOR処理信号を積算した積算信号を、画素ごとに出力する。OR処理信号の信号を複数の積算範囲を用いて積算する。例えば、第1積算部2011は、積算範囲として、縦9画素×横9画素の範囲を用いる。したがって、第1積算部2011から出力される積算判定信号は、0以上81以下の範囲となる。第2積算部2012、第3積算部2013は、積算範囲として、それぞれ、縦15画素×横15画素の範囲、縦21画素×横21画素の範囲を用いる。したがって、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、0以上225以下の範囲、0以上441以下の範囲となる。第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、閾値判定部1211の第1判定部2021、第2判定部2022、第3判定部2023に、入力される。   The integration processing unit 1209 outputs, for each pixel, an integration signal obtained by integrating a plurality of OR processing signals corresponding to pixels within an integration range of a plurality of types with the pixel of interest as the center. The signal of the OR processing signal is integrated using a plurality of integration ranges. For example, the first integration unit 2011 uses a range of 9 vertical pixels × 9 horizontal pixels as the integration range. Therefore, the integration determination signal output from the first integration unit 2011 is in the range of 0 to 81. The second integration unit 2012 and the third integration unit 2013 use a range of 15 pixels vertical by 15 pixels horizontal and a range of 21 pixels vertical by 21 pixels horizontal as the integration ranges, respectively. Therefore, the integration signals output from the second integration unit 2012 and the third integration unit 2013 are in the range of 0 to 225 and 0 to 441, respectively. Integration signals output from the first integration unit 2011, the second integration unit 2012, and the third integration unit 2013 are respectively sent to the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 of the threshold determination unit 1211. Is entered.

第1判定部2021、第2判定部2022、第3判定部2023は、それぞれに入力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。を行う。具体的には、第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、積算信号が示す値が、設定された閾値以上である場合には、「1」とされ、該閾値未満である場合には、「0」とされる。第1判定部2021、第2判定部2022、第3判定部2023で用いられる閾値は、互いに異なる値であり、本実施例では、それぞれ、「5」、「12」、「23」に設定されている。これによって、各判定部2021、2022、2023は、積算信号が示す値が、積算範囲内の画素数の約5%を超える場合に、「1」を示す積算判定信号を出力し、積算信号が示す値が、積算範囲内の画素数の約5%以下である場合に、「0」を示す積算判定信号を出力する。   The first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 compare the value indicated by the integrated signal input thereto with the threshold value, and output an integrated determination signal indicating the result. I do. Specifically, the integration determination signal output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 indicates that the value indicated by the integration signal is equal to or greater than a set threshold value. “1”, and when it is less than the threshold, it is “0”. The threshold values used in the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are different from each other, and are set to “5”, “12”, and “23”, respectively, in this embodiment. ing. Thus, each determination unit 2021, 2022, 2023 outputs an integration determination signal indicating “1” when the value indicated by the integration signal exceeds about 5% of the number of pixels within the integration range, and the integration signal is When the indicated value is about 5% or less of the number of pixels in the integration range, an integration determination signal indicating “0” is output.

第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、総合判定部1213(図7、図12)に入力される。総合判定部1213は、入力される3個の積算判定信号に基づいて、網点判定部1004の判定結果を示す結果信号である網点判定信号1215を生成する。網点判定信号1215は、注目画素が網点画素であることを示す値「1」と、注目画素が網点画素でないことを示す値「0」と、のいずれかである。   The integration determination signals output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are input to the comprehensive determination unit 1213 (FIGS. 7 and 12). The overall determination unit 1213 generates a halftone dot determination signal 1215 that is a result signal indicating the determination result of the halftone dot determination unit 1004 based on the three input integration determination signals. The halftone dot determination signal 1215 is either a value “1” indicating that the target pixel is a halftone pixel, or a value “0” indicating that the target pixel is not a halftone pixel.

図13〜図15は、閾値判定部1211と、総合判定部1213と、の処理の一例を示す図である。図13(A)には、OR処理部1207によって出力されるOR処理信号2100が概念的に図示されている。このOR処理信号2100は、比較的低い濃度を示す網点を含む領域を処理した場合の例である。クロスハッチングされた画素は、対応するOR処理信号が「1」である画素を示し、クロスハッチングされていない画素は、対応するOR処理信号が「0」である画素を示す。図には、注目画素2101を中心とした、縦9画素×横9画素の積算範囲2102と、縦15画素×横15画素の積算範囲2103と、縦21画素×横21画素の積算範囲2104と、がそれぞれ示されている。それぞれの積算範囲での積算結果、すなわち、第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号の値が、図13(B)に示されている。第1積算部2011(9×9)の積算結果は、12画素であり、第2積算部2012(15×15)の積算結果は、40画素であり、第3積算部2013の積算結果は、76画素である。   13 to 15 are diagrams illustrating an example of processing by the threshold determination unit 1211 and the comprehensive determination unit 1213. FIG. 13A conceptually shows an OR processing signal 2100 output by the OR processing unit 1207. This OR processing signal 2100 is an example when a region including a halftone dot having a relatively low density is processed. Cross-hatched pixels indicate pixels whose corresponding OR processing signal is “1”, and pixels that are not cross-hatched indicate pixels whose corresponding OR processing signal is “0”. In the figure, an integration range 2102 of 9 vertical pixels × 9 horizontal pixels, an integration range 2103 of 15 vertical pixels × 15 horizontal pixels, and an integration range 2104 of 21 vertical pixels × 21 horizontal pixels, centered on the target pixel 2101, , Are shown respectively. FIG. 13B shows the integration results in the respective integration ranges, that is, the values of the integration signals output from the first integration unit 2011, the second integration unit 2012, and the third integration unit 2013. The integration result of the first integration unit 2011 (9 × 9) is 12 pixels, the integration result of the second integration unit 2012 (15 × 15) is 40 pixels, and the integration result of the third integration unit 2013 is 76 pixels.

したがって、図13(B)に示すように、第1積算部2011(9×9)の積算結果の「12」は閾値「5」以上であるので、第1判定部2021(9×9)が出力する積算判定信号は、「1」(網点)になる。同様に、第2積算部2012(15×15)の積算結果の「40」も閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「76」も閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」になる。   Therefore, as shown in FIG. 13B, since the integration result “12” of the first integration unit 2011 (9 × 9) is equal to or greater than the threshold value “5”, the first determination unit 2021 (9 × 9) The integration determination signal to be output is “1” (halftone dot). Similarly, the integration result “40” of the second integration unit 2012 (15 × 15) is also equal to or greater than the threshold “12”, and the integration result “76” of the third integration unit 2013 (21 × 21) is also the threshold “23”. Therefore, the integrated determination signals output from the corresponding second determination unit 2022 and third determination unit 2023 are both “1”.

総合判定部1213は、上記3種類の結果を元に、注目画素が最終的に網点かどうかを判定し、該判定結果を示す網点判定信号1215を生成する。本実施例では、総合判定部1213は、図13(C)に示すように、3種類の結果から二組のペアを作る。例えば、第1判定部2021と第2判定部2022との積算判定信号で第1のペアを作り、第2判定部2022と第3判定部2023との積算判定信号で第2のペアを作る。総合判定部1213は、それぞれの組の積算判定信号の論理積(AND)を算出する。第1のペアの論理積は、「1」(網点)であり、第2のペアの論理積も「1」(網点)である。総合判定部1213は、さらに、第1のペアの論理積と、第2のペアの論理積と、の論理和を、網点判定信号1215として生成する。図13の例では、いずれの論理積も「1」であるので、注目画素の網点判定信号1215は、「1」(網点)になる。   Based on the above three types of results, the overall determination unit 1213 determines whether or not the target pixel is finally a halftone dot, and generates a halftone dot determination signal 1215 indicating the determination result. In this embodiment, the comprehensive determination unit 1213 creates two pairs from three types of results, as shown in FIG. For example, a first pair is created by the integration determination signal of the first determination unit 2021 and the second determination unit 2022, and a second pair is generated by the integration determination signal of the second determination unit 2022 and the third determination unit 2023. The comprehensive determination unit 1213 calculates the logical product (AND) of the integration determination signals of each set. The logical product of the first pair is “1” (halftone dot), and the logical product of the second pair is also “1” (halftone dot). The overall determination unit 1213 further generates a logical sum of the logical product of the first pair and the logical product of the second pair as a halftone determination signal 1215. In the example of FIG. 13, since both logical products are “1”, the halftone dot determination signal 1215 of the target pixel is “1” (halftone dot).

図14(A)には、図13と同程度の濃度を示す網点を含み、かつ、文字のエッジ2205を含む領域に対応するOR処理信号2200が概念的に図示されている。図示のように、文字のエッジ2205がある場合は、該エッジ近傍には、孤立したドットが発生しないため、文字エッジ近傍のOR処理信号は「0」になる。この場合には、図14(B)に示すように、第1積算部2011(9×9)の積算結果は、4画素であり、第2積算部2012(15×15)の積算結果は、32画素であり、第3積算部2013の積算結果は、60画素である。   FIG. 14A conceptually shows an OR processing signal 2200 corresponding to a region including a halftone dot having a density similar to that in FIG. 13 and including an edge 2205 of a character. As shown in the figure, when there is a character edge 2205, an isolated dot does not occur near the edge, so the OR processing signal near the character edge is “0”. In this case, as shown in FIG. 14B, the integration result of the first integration unit 2011 (9 × 9) is 4 pixels, and the integration result of the second integration unit 2012 (15 × 15) is The number of pixels is 32, and the integration result of the third integration unit 2013 is 60 pixels.

したがって、図14(B)に示すように、第1積算部2011(9×9)の積算結果の「4」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「32」は閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「60」も、閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」(網点)になる。   Therefore, as shown in FIG. 14B, since the integration result “4” of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, the first determination unit 2021 (9 × 9) The integration determination signal to be output is “0” (non-halftone dot). The integration result “32” of the second integration unit 2012 (15 × 15) is equal to or greater than the threshold “12”, and the integration result “60” of the third integration unit 2013 (21 × 21) is also equal to or greater than the threshold “23”. Therefore, the integration determination signals output from the corresponding second determination unit 2022 and third determination unit 2023 are both “1” (halftone dot).

図14(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積は「1」(網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「1」(網点)になる。このように、文字のエッジを含むために、1つの積算範囲の積算結果が、非網点を示しても、最終的には、網点と判定される。このように、複数の積算範囲と、複数個の閾値を用いることで、網点として適切に検出できる。   As shown in FIG. 14C, the logical product of the first pair is “0” (non-halftone dot), and the logical product of the second pair is “1” (halftone dot). The logical sum of the logical product of the first pair and the logical product of the second pair, that is, the halftone dot determination signal 1215 of the target pixel is “1” (halftone dot). As described above, since the edge of the character is included, even if the integration result of one integration range indicates a non-halftone dot, it is finally determined as a halftone dot. In this way, by using a plurality of integration ranges and a plurality of threshold values, it can be appropriately detected as a halftone dot.

図15(A)には、図13(A)と同程度の濃度を示す網点を含む領域の縁の外側に注目画素がある場合のOR処理信号2300が概念的に図示されている。この場合には、図15(B)に示すように、第1積算部2011(9×9)の積算結果は、0画素であり、第2積算部2012(15×15)の積算結果は、12画素であり、第3積算部2013の積算結果は、20画素である。   FIG. 15A conceptually illustrates an OR processing signal 2300 when the pixel of interest is outside the edge of a region including a halftone dot having a density similar to that in FIG. In this case, as shown in FIG. 15B, the integration result of the first integration unit 2011 (9 × 9) is 0 pixel, and the integration result of the second integration unit 2012 (15 × 15) is There are 12 pixels, and the integration result of the third integration unit 2013 is 20 pixels.

したがって、図15(B)に示すように、第1積算部2011(9×9)の積算結果の「0」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「12」は閾値「12」以上であるので、第2判定部2022(15×15)が出力する積算判定信号は、「1」(網点)になる。第3積算部2013(21×21)の積算結果の「20」は閾値「23」未満であるので、第3判定部2023(21×21)が出力する積算判定信号は、「0」(非網点)になる。   Therefore, as shown in FIG. 15B, since the integration result “0” of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, the first determination unit 2021 (9 × 9) The integration determination signal to be output is “0” (non-halftone dot). Since the integration result “12” of the second integration unit 2012 (15 × 15) is equal to or greater than the threshold value “12”, the integration determination signal output by the second determination unit 2022 (15 × 15) is “1” (network Point). Since the integration result “20” of the third integration unit 2013 (21 × 21) is less than the threshold “23”, the integration determination signal output by the third determination unit 2023 (21 × 21) is “0” (non- Halftone dot).

図15(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積も「0」(非網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「0」(非網点)になる。図14の例のように、積算範囲に含まれる網点領域内に文字のエッジが含まれる場合、文字のエッジに重なる位置の網点が文字のエッジによって除かれるので、積算範囲内の網点の総数が少なくなる。ここで、積算範囲を拡張すると、積算範囲に含まれる網点の総数が多くなるので、網点の総数に対する文字のエッジによって除かれる網点の数の割合が小さくなる。この結果、網点領域内の画素を網点として適切に判定できる。しかし、積算範囲を拡張すると、網点を含む領域の縁から外側に遠く離れた画素も、網点であると判定され得るので、網点と判断される領域が拡張され得る。本実施例では、複数の積算範囲と、複数個の閾値を用いることで、網点の縁の外側の画素を、非網点として適切に検出できる。   As shown in FIG. 15C, the logical product of the first pair is “0” (non-halftone dot), and the logical product of the second pair is also “0” (non-halftone dot). The logical sum of the logical product of the first pair and the logical product of the second pair, that is, the halftone dot determination signal 1215 of the target pixel is “0” (non-halftone dot). As shown in the example of FIG. 14, when a character edge is included in the halftone dot area included in the accumulation range, the halftone dot at the position overlapping the character edge is removed by the character edge. The total number of Here, when the integration range is expanded, the total number of halftone dots included in the integration range increases, and therefore the ratio of the number of halftone dots removed by the edge of the character to the total number of halftone dots decreases. As a result, the pixels in the halftone area can be appropriately determined as halftone dots. However, when the integration range is expanded, pixels far away from the edge of the area including the halftone dots can also be determined to be halftone dots, so that the area determined to be a halftone dot can be expanded. In this embodiment, by using a plurality of integration ranges and a plurality of threshold values, pixels outside the edge of the halftone dot can be appropriately detected as non-halftone dots.

ここで説明した積算処理の組み合わせは一例に過ぎず、これに限るものではない。目的に応じて自由に組み合わせを構成できる。また、説明では3種類の積算処理の結果を用いたため二組の論理積を用いたが、これに限るものではない。入力数とその論理演算部は自由に構成できるものである。さらに、論理積と論理輪の組み合わせも一例に過ぎず、これに限るものではない。論理積や論理和を自由に組み合わせることができる。   The combination of integration processes described here is merely an example, and the present invention is not limited to this. Combinations can be freely configured according to the purpose. In the description, the results of three types of integration processing are used, so two sets of logical products are used. However, the present invention is not limited to this. The number of inputs and their logical operation units can be freely configured. Furthermore, the combination of logical product and logical ring is only an example, and the present invention is not limited to this. You can freely combine logical products and logical sums.

A−3−2.網点内文字判定部1005の説明
図16は、網点内文字判定部1005の構成を示すブロック図である。
A-3-2. Description of Intradot Character Determination Unit 1005 FIG. 16 is a block diagram showing the configuration of the in-halftone character determination unit 1005.

適応的スムージング処理部2401は、輝度データ取得部1002からの判定信号を入力し、適応的なスムージング処理を行なう。ここでは、適応的に文字/細線を除外しつつ、スキャンデータの所望の周波数成分を平滑化するデジタルフィルタ処理が行われる。   The adaptive smoothing processing unit 2401 receives the determination signal from the luminance data acquisition unit 1002 and performs an adaptive smoothing process. Here, digital filter processing for smoothing a desired frequency component of scan data while adaptively excluding characters / thin lines is performed.

適応的スムージング処理部2401から出力されたスムージング信号は、エッジ強調部2402に入力される。エッジ強調部2402は、スムージング信号に対して、エッジ強調処理を行い、エッジ強調信号を出力する。エッジ強調部2402によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。   The smoothing signal output from the adaptive smoothing processing unit 2401 is input to the edge enhancement unit 2402. The edge enhancement unit 2402 performs edge enhancement processing on the smoothing signal and outputs an edge enhancement signal. The edge enhancement processing by the edge enhancement unit 2402 is the same processing as the edge enhancement processing by the edge enhancement unit 1102 in FIG. 3, for example, filter processing using a secondary differential filter such as a Laplacian filter.

エッジ強調部2402から出力されたエッジ強調信号は、閾値判定部2403に入力される。閾値判定部2403には正の値の閾値が設定されている。   The edge enhancement signal output from the edge enhancement unit 2402 is input to the threshold determination unit 2403. The threshold value determination unit 2403 is set with a positive threshold value.

図4を参照して説明したように、エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(B)に示すように、文字が暗い色で表され、下地が明るい色で表されている場合には、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。逆に、文字が明るい色で表され、下地が暗い色で表されている場合には、エッジ抽出データは、文字側で外エッジに対応する負の値となり、下地側で内エッジに対応する正の値となる(図示省略)。   As described with reference to FIG. 4, when a secondary differential filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. is there. As shown in FIG. 4B, when the character is expressed in a dark color and the background is expressed in a bright color, edge extraction data 1507 ( In other words, the data indicated by the edge emphasis signal has a positive value 1508 on the character 1502 side and a negative value 1509 on the background 1503 side. On the contrary, when the character is expressed in a light color and the background is expressed in a dark color, the edge extraction data becomes a negative value corresponding to the outer edge on the character side and corresponds to the inner edge on the background side. It becomes a positive value (not shown).

網点内文字判定では、エッジが文字側であるのか下地側であるのかを区別することを目的とするのではなく、網点領域内の文字自体を抽出することを目的としている。この場合、正のエッジ(すなわち、内エッジ)と負のエッジ(すなわち、外エッジ)とのうちの一方を検出すればよい。本実施例では、内エッジを検出することとする。具体的には、閾値判定部2403は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。ただし、閾値判定部2403は、正のエッジ(内エッジ)を検出せずに負のエッジ(外エッジ)を検出してもよく、正のエッジ(内エッジ)と負のエッジ(外エッジ)との両方を検出してもよい。以下、上記処理を更に詳しく説明する。   The character determination in the halftone dot is not intended to distinguish whether the edge is on the character side or the background side, but is intended to extract the character itself in the halftone dot region. In this case, it is only necessary to detect one of a positive edge (that is, an inner edge) and a negative edge (that is, an outer edge). In this embodiment, the inner edge is detected. Specifically, the threshold determination unit 2403 outputs an inner edge signal indicating “1” when the value indicated by the edge enhancement signal exceeds the positive threshold, and when the value is equal to or less than the positive threshold, An inner edge signal indicating “0” is output. However, the threshold determination unit 2403 may detect a negative edge (outer edge) without detecting a positive edge (inner edge), and may detect a positive edge (inner edge) and a negative edge (outer edge). Both of them may be detected. Hereinafter, the above process will be described in more detail.

図17は、適応的スムージング処理部2401の構成を示すブロック図である。輝度データ取得部1002からの判定信号2501(輝度値)は、4つに分岐され、平滑化処理部2502と、セレクタ2504と、暗線判定部2503aと、明線判定部2503bと、にそれぞれ入力される。   FIG. 17 is a block diagram illustrating a configuration of the adaptive smoothing processing unit 2401. The determination signal 2501 (luminance value) from the luminance data acquisition unit 1002 is branched into four, and is input to the smoothing processing unit 2502, the selector 2504, the dark line determination unit 2503a, and the bright line determination unit 2503b, respectively. The

平滑化処理部2502は、判定信号2501に対して、処理対象の注目画素を中心とする縦M画素×横M画素(Mは、2以上の整数)のフィルタ範囲内の複数個の画素の値を用いて平滑化処理を実行する。平滑化処理は、特定周波数帯域の感度を落とすことを目的とする処理であり、例えば、ガウシアンフィルタを用いた処理であっても良いし、平均値フィルタを用いた処理であっても良い。処理部2502は、平滑化処理の結果を示す平滑化信号を、セレクタ2504に供給する。   The smoothing processing unit 2502 determines the values of a plurality of pixels within a filter range of vertical M pixels × horizontal M pixels (M is an integer of 2 or more) centered on the target pixel to be processed with respect to the determination signal 2501. The smoothing process is executed using The smoothing process is a process aimed at reducing the sensitivity of a specific frequency band. For example, the smoothing process may be a process using a Gaussian filter or a process using an average value filter. The processing unit 2502 supplies a smoothed signal indicating the result of the smoothing process to the selector 2504.

セレクタ2504に入力される判定信号2501は、平滑化処理部2502による処理の処理ライン数に応じた画像遅延に対応するために、図示しない遅延メモリを経由することで、遅延された後に、セレクタ2504に入力される。   The determination signal 2501 input to the selector 2504 is delayed by passing through a delay memory (not shown) in order to correspond to an image delay corresponding to the number of processing lines of processing by the smoothing processing unit 2502, and then the selector 2504. Is input.

暗線判定部2503aは、平滑化処理部2502による処理のM本のライン分の処理バッファを利用して、縦N画素×横L画素(L、Nは、2以上の整数、N≦Mが好ましい)の処理領域にて、注目画素について、暗い色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。暗線判定部2503aは、これらの暗い線についての判定結果に応じて、セレクタ2504に対して暗線切替信号を出力する。暗線判定部2503aは、注目画素が、これらの暗い線上の画素(暗線画素とも呼ぶ)であると判定した場合には、「1」を示す暗線切替信号を出力し、注目画素が暗線画素でないと判定した場合には、「0」を示す暗線切替信号を出力する。   The dark line determination unit 2503a uses a processing buffer for M lines of processing by the smoothing processing unit 2502, and uses vertical N pixels × horizontal L pixels (L and N are integers of 2 or more, and N ≦ M is preferable). In the processing area of (), it is determined whether or not the pixel of interest is a pixel on a vertical line, horizontal line, or diagonal line represented by a dark color. The dark line determination unit 2503a outputs a dark line switching signal to the selector 2504 in accordance with the determination result for these dark lines. When the dark line determination unit 2503a determines that the target pixel is a pixel on these dark lines (also referred to as a dark line pixel), the dark line determination unit 2503a outputs a dark line switching signal indicating “1”, and the target pixel is not a dark line pixel. If determined, a dark line switching signal indicating “0” is output.

明線判定部2503bは、平滑化処理部2502による処理のM本のライン分の処理バッファを利用して、縦N画素×横L画素(L、Nは、2以上の整数、N≦Mが好ましい)の処理領域にて、注目画素について、明るい色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。明線判定部2503bは、これらの明るい線についての判定結果に応じて、セレクタ2504に対して明線切替信号を出力する。明線判定部2503bは、注目画素が、これらの明るい線上の画素(明線画素とも呼ぶ)であると判定した場合には、「1」を示す明線切替信号を出力し、注目画素が明線画素でないと判定した場合には、「0」を示す明線切替信号を出力する。   The bright line determination unit 2503b uses a processing buffer for M lines of processing by the smoothing processing unit 2502, and uses vertical N pixels × horizontal L pixels (L and N are integers of 2 or more, and N ≦ M In the (preferred) processing region, it is determined whether or not the pixel of interest is a pixel on a vertical line, horizontal line, or diagonal line expressed in a bright color. The bright line determination unit 2503b outputs a bright line switching signal to the selector 2504 in accordance with the determination result for these bright lines. When the bright line determination unit 2503b determines that the pixel of interest is a pixel on these bright lines (also referred to as a bright line pixel), the bright line determination unit 2503b outputs a bright line switching signal indicating “1”, and the pixel of interest is bright. When it is determined that the pixel is not a line pixel, a bright line switching signal indicating “0” is output.

セレクタ2504は、暗線判定部2503aと明線判定部2503bからそれぞれ出力される暗線切替信号と明線切替信号とに基づき、平滑化処理部2502から出力される平滑化信号と、フィルタ処理されていない判定信号2501と、のいずれかを出力する。セレクタ2504は、暗線切替信号と明線切替信号との少なくとも一方が「1」である場合、すなわち、暗線判定部2503aにて注目画素が暗線画素であると判定されたときと、明線判定部2503bにて注目画素が明線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、暗線切替信号と明線切替信号との両方が「0」である場合、すなわち、注目画素が暗線画素と明線画素とのいずれでもないと判定されたときは、平滑化信号を出力する。   The selector 2504 is not filtered with the smoothed signal output from the smoothing processing unit 2502 based on the dark line switching signal and the bright line switching signal output from the dark line determination unit 2503a and the bright line determination unit 2503b, respectively. One of the determination signals 2501 is output. When at least one of the dark line switching signal and the bright line switching signal is “1”, that is, when the dark line determination unit 2503a determines that the pixel of interest is a dark line pixel, the selector 2504 In each of the cases where it is determined in 2503b that the pixel of interest is a bright line pixel, a determination signal 2501 that is not filtered is output. When both the dark line switching signal and the bright line switching signal are “0”, that is, when it is determined that the target pixel is neither a dark line pixel nor a bright line pixel, the selector 2504 outputs a smoothing signal. Output.

暗線判定部2503aについて説明する。暗線判定部2503aは、図18(A)〜(D)に示すような線パターンを用いて、注目画素が暗線画素であるか否かを判定する。線パターンのサイズは、上述した縦N画素×横L画素のサイズである。図18の例では、N=5、L=7である。縦方向(副走査方向)の画素数Nは、平滑化処理部2502の処理によるフィルタ範囲の副走査方向の画素数Mより小さい方がメモリを共有する観点から好ましいが、それに限られない。横方向(主走査方向)の画素数Lは、Mより大きくても構わない。   The dark line determination unit 2503a will be described. The dark line determination unit 2503a determines whether or not the target pixel is a dark line pixel by using a line pattern as illustrated in FIGS. The size of the line pattern is the size of the above-mentioned vertical N pixels × horizontal L pixels. In the example of FIG. 18, N = 5 and L = 7. The number N of pixels in the vertical direction (sub-scanning direction) is preferably smaller than the number M of pixels in the sub-scanning direction of the filter range obtained by the smoothing processing unit 2502 from the viewpoint of sharing the memory, but is not limited thereto. The number L of pixels in the horizontal direction (main scanning direction) may be larger than M.

図18(A)の線パターン2600は、縦線について判定するための線パターンを示し、図18(B)の線パターン2610は、横線について判定するための線パターンを示す。図18(C)、(D)の線パターン2620、2630は、延びる方向が互いに異なる斜め線について判定するための線パターンを表している。ここでは、線パターン2600を用いて、縦線についての判定方法を説明する。画素2601、2611、2621、2631は、注目画素を示している。   A line pattern 2600 in FIG. 18A indicates a line pattern for determining a vertical line, and a line pattern 2610 in FIG. 18B indicates a line pattern for determining a horizontal line. Line patterns 2620 and 2630 in FIGS. 18C and 18D represent line patterns for determining diagonal lines that extend in different directions. Here, a determination method for a vertical line will be described using the line pattern 2600. Pixels 2601, 261, 261, 2631 indicate the target pixel.

パターン2600は縦5画素×横7画素のサイズを有する。線パターン2600は、縦5画素×横1画素のブロック2602、2603、2604を含む。注目画素2601は、横方向に並ぶブロック2602、2603、2604のうちの中央のブロック2603の中心に配置されている。暗線判定部2503aは、それぞれのブロックについて、判定信号2501によって示される値の総和(ALL)、最大値(MAX)、最小値(MIN)を算出する。すなわち、それぞれのブロックについて、ブロック内の画素の輝度値の総和、最大値、最小値が、算出される。   The pattern 2600 has a size of 5 vertical pixels × 7 horizontal pixels. The line pattern 2600 includes blocks 2602, 2603, and 2604 each having 5 vertical pixels × 1 horizontal pixel. The target pixel 2601 is arranged at the center of the central block 2603 among the blocks 2602, 2603, and 2604 arranged in the horizontal direction. The dark line determination unit 2503a calculates the sum (ALL), maximum value (MAX), and minimum value (MIN) of the values indicated by the determination signal 2501 for each block. That is, for each block, the sum, the maximum value, and the minimum value of the luminance values of the pixels in the block are calculated.

暗線判定部2503aは、以下の条件式を評価する。
(1)MAX(2602)− MIN(2602) ≦ 閾値1
(2)MAX(2603)− MIN(2603) ≦ 閾値1
(3)ALL(2603)≦ ALL(2602)− 閾値2
条件(1)は、ブロック2602内の5画素について、画素の値の差がないことを評価する。条件(2)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(3)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に低いことを評価する。条件(1)〜(3)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が低い複数の画素が連続する領域である場合に、条件(1)〜(3)は、満たされる。
The dark line determination unit 2503a evaluates the following conditional expressions.
(1) MAX (2602) −MIN (2602) ≦ Threshold 1
(2) MAX (2603) −MIN (2603) ≦ Threshold 1
(3) ALL (2603) ≦ ALL (2602) −threshold value 2
Condition (1) evaluates that there is no difference in pixel values for the five pixels in the block 2602. Condition (2) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (3) compares the sum of the pixel values in the block 2602 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 has a pixel value relative to the pixel block 2602. To be low. When all the conditions (1) to (3) are satisfied, it is determined that the pixel block 2603 forms a dark vertical line. Conditions (1) to (3) are satisfied when the area of the pixel block 2603 is an area where a plurality of pixels with low average luminance are continuous.

暗線判定部2503aは、以下の条件式を評価する。
(4)MAX(2604)− MIN(2604) ≦ 閾値1
(5)MAX(2603)− MIN(2603) ≦ 閾値1
(6)ALL(2603)≦ ALL(2604)− 閾値2
条件(4)は、ブロック2604内の5画素について、画素の値の差がないことを評価する。条件(5)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(6)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に低いことを評価する。条件(4)〜(6)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が低い複数の画素が連続する領域である場合に、条件(4)〜(6)は、満たされる。
The dark line determination unit 2503a evaluates the following conditional expressions.
(4) MAX (2604) −MIN (2604) ≦ Threshold 1
(5) MAX (2603) −MIN (2603) ≦ Threshold 1
(6) ALL (2603) ≦ ALL (2604) —Threshold 2
Condition (4) evaluates that there is no difference in pixel values for the five pixels in block 2604. Condition (5) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (6) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 has a pixel value relative to the pixel block 2604. To be low. When all the conditions (4) to (6) are satisfied, it is determined that the pixel block 2603 forms a dark vertical line. Conditions (4) to (6) are satisfied when the area of the pixel block 2603 is an area in which a plurality of pixels with low average luminance are continuous.

条件(1)〜(3)、または、条件(4)〜(6)を評価した結果、いずれか一方において、ブロック2603は暗い色の縦線を構成すると判定された場合には、暗線判定部2503aは、注目画素2601は、暗い色の縦線上に位置する暗線画素である、と判定する。   As a result of evaluating the conditions (1) to (3) or the conditions (4) to (6), if it is determined that the block 2603 constitutes a dark vertical line, the dark line determination unit 2503a determines that the pixel of interest 2601 is a dark line pixel located on a dark vertical line.

図19は、図18(A)の線パターン2600を用いた判定の例を示す図である。図19(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値)2700、2710、2720が示されている。判定信号2700は、白地に暗い色の縦線がある部分の画像を示す。ハッチングされた複数個の画素は、縦線を構成している。説明の便宜上、判定信号が、0〜255の256階調の値を示す場合に、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。また、上記条件(1)〜(6)の閾値1は20であり、閾値2は200であるとする。   FIG. 19 is a diagram illustrating an example of determination using the line pattern 2600 of FIG. 19A to 19C show determination signals (luminance values) 2700, 2710, and 2720 in a vertical 5 pixel × horizontal 7 pixel region corresponding to the line pattern 2600. The determination signal 2700 indicates an image of a portion having a dark vertical line on a white background. A plurality of hatched pixels form a vertical line. For convenience of explanation, when the determination signal indicates a value of 256 gradations of 0 to 255, the white pixel has a corresponding determination signal value of “255”, and the single-hatched pixel has a corresponding determination value. It is assumed that the value of the signal is “128” and the value of the corresponding determination signal is “0” for the cross-hatched pixel. In addition, the threshold value 1 of the above conditions (1) to (6) is 20 and the threshold value 2 is 200.

判定信号2700に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)MAX(2702)− MIN(2702) ≦ 閾値1
128−128 ≦ 20 → 真
(2)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(3)ALL(2703)≦ ALL(2702)− 閾値2
0×5 ≦ 128×5 − 200 → 真
(4)MAX(2704)− MIN(2704) ≦ 閾値1
128−128 ≦ 20 → 真
(5)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(6)ALL(2703)≦ ALL(2704)− 閾値2
0×5 ≦ 128×5 − 200 → 真
このように、条件(1)〜(3)がすべて真のため、注目画素は、暗い色の縦線上に位置する暗線画素であると判定される。また、条件(4)〜(6)もすべて真であるので、こちらの条件からも、注目画素は、暗い色の縦線上に位置する暗線画素であると判定される。
The result of determining authenticity by applying the above conditions (1) to (6) to the determination signal 2700 is as follows.
(1) MAX (2702) −MIN (2702) ≦ Threshold 1
128−128 ≦ 20 → true (2) MAX (2703) −MIN (2703) ≦ Threshold 1
0-0 ≦ 20 → true (3) ALL (2703) ≦ ALL (2702) −threshold 2
0 × 5 ≦ 128 × 5−200 → true (4) MAX (2704) −MIN (2704) ≦ threshold 1
128−128 ≦ 20 → true (5) MAX (2703) −MIN (2703) ≦ Threshold 1
0-0 ≦ 20 → true (6) ALL (2703) ≦ ALL (2704) −threshold 2
0 × 5 ≦ 128 × 5−200 → true In this way, since all of the conditions (1) to (3) are true, it is determined that the pixel of interest is a dark line pixel located on a dark vertical line. In addition, since all of the conditions (4) to (6) are also true, the pixel of interest is determined to be a dark line pixel located on a dark vertical line from this condition.

図19(B)の判定信号2710は、白地に暗い色の横線がある部分の画像を示す。判定信号2710に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。(1)偽、(2)偽、(3)偽、(4)偽、(5)偽、(6)偽
この結果、注目画素は、暗い色の縦線上に位置する暗線画素でないと判定される。
A determination signal 2710 in FIG. 19B indicates an image of a portion where a dark horizontal line is present on a white background. The result of determining true / false by applying the above conditions (1) to (6) to the determination signal 2710 is as follows. (1) False, (2) False, (3) False, (4) False, (5) False, (6) False As a result, it is determined that the target pixel is not a dark line pixel located on a dark vertical line. The

図19(C)の判定信号2720は、白地に暗い色の斜め線がある部分の画像を示す。判定信号2720に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)偽、(2)偽、(3)真、(4)偽、(5)偽、(6)真
この結果、注目画素は、暗い色の縦線上に位置する暗線画素でないと判定される。
The determination signal 2720 in FIG. 19C indicates an image of a portion where a dark diagonal line is present on a white background. The result of determining true / false by applying the above conditions (1) to (6) to the determination signal 2720 is as follows.
(1) False, (2) False, (3) True, (4) False, (5) False, (6) True As a result, it is determined that the pixel of interest is not a dark line pixel located on a dark vertical line. The

図20は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図20(A)の判定信号2810は、白地に横線がある部分の画像を示す。図20(B)、(C)の判定信号2820、2830は、白地に斜め線がある部分の画像を示す。線パターン2610〜2630においても、注目画素2611、2621、2631は、線の延びる方向とは垂直な方向に並ぶ3個のブロックのうちの中央のブロック2613、2623、2633の中心に配置されている。そして、図20(A)〜(C)の例では、詳細は省略するが、注目画素は、いずれも暗線画素であると判定される。   FIG. 20 is a diagram illustrating an example of determination using the line patterns 2610 to 2630 in FIGS. A determination signal 2810 in FIG. 20A indicates an image of a portion having a horizontal line on a white background. The determination signals 2820 and 2830 in FIGS. 20B and 20C show images of a portion having a diagonal line on a white background. Also in the line patterns 2610 to 2630, the pixel of interest 2611, 2621, and 2631 is arranged at the center of the central blocks 2613, 2623, and 2633 among the three blocks arranged in the direction perpendicular to the line extending direction. . In the examples of FIGS. 20A to 20C, although details are omitted, it is determined that all the target pixels are dark line pixels.

次に、明線判定部2503bについて説明する。明線判定部2503bは、暗線判定部2503aと同じく、図18(A)〜(D)に示す線パターンを用いて、注目画素が明線画素であるか否かを判定する。以下、線パターン2600を用いて、縦線についての判定方法を説明する。   Next, the bright line determination unit 2503b will be described. Similarly to the dark line determination unit 2503a, the bright line determination unit 2503b determines whether or not the target pixel is a bright line pixel using the line patterns illustrated in FIGS. Hereinafter, the determination method about a vertical line is demonstrated using the line pattern 2600. FIG.

明線判定部2503bは、線パターン2600のブロック2602、2603、2604のそれぞれについて、判定信号2501によって示される値の総和(ALL)、最大値(MAX)、最小値(MIN)を算出する。すなわち、それぞれのブロックについて、ブロック内の画素の輝度値の総和、最大値、最小値が、算出される。   The bright line determination unit 2503b calculates the sum (ALL), maximum value (MAX), and minimum value (MIN) of the values indicated by the determination signal 2501 for each of the blocks 2602, 2603, and 2604 of the line pattern 2600. That is, for each block, the sum, the maximum value, and the minimum value of the luminance values of the pixels in the block are calculated.

明線判定部2503bは、以下の条件式を評価する。
(1)MAX(2602)− MIN(2602) ≦ 閾値1
(2)MAX(2603)− MIN(2603) ≦ 閾値1
(7)ALL(2603)≧ ALL(2602)+ 閾値2
条件(1)は、ブロック2602内の5画素について、画素の値の差がないことを評価する。条件(2)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(7)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に高いことを評価する。条件(1)(2)(7)が全て満たされる場合には、画素ブロック2603は、明るい色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が高い複数の画素が連続する領域である場合に、条件(1)(2)(7)は、満たされる。
The bright line determination unit 2503b evaluates the following conditional expressions.
(1) MAX (2602) −MIN (2602) ≦ Threshold 1
(2) MAX (2603) −MIN (2603) ≦ Threshold 1
(7) ALL (2603) ≧ ALL (2602) + threshold 2
Condition (1) evaluates that there is no difference in pixel values for the five pixels in the block 2602. Condition (2) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (7) compares the sum of the pixel values in the block 2602 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 has a pixel value relative to the pixel block 2602. Highly rated. When the conditions (1), (2), and (7) are all satisfied, it is determined that the pixel block 2603 forms a bright vertical line. Conditions (1), (2), and (7) are satisfied when the area of the pixel block 2603 is an area in which a plurality of pixels with high average luminance are continuous.

明線判定部2503bは、以下の条件式を評価する。
(4)MAX(2604)− MIN(2604) ≦ 閾値1
(5)MAX(2603)− MIN(2603) ≦ 閾値1
(8)ALL(2603)≧ ALL(2604)+ 閾値2
条件(4)は、ブロック2604内の5画素について、画素の値の差がないことを評価する。条件(5)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(8)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に高いことを評価する。条件(4)(5)(8)が全て満たされる場合には、画素ブロック2603は、明るい色の縦線を構成すると判定される。画素ブロック2603の領域が、平均的な輝度が高い複数の画素が連続する領域である場合に、条件(4)(5)(8)は、満たされる。
The bright line determination unit 2503b evaluates the following conditional expressions.
(4) MAX (2604) −MIN (2604) ≦ Threshold 1
(5) MAX (2603) −MIN (2603) ≦ Threshold 1
(8) ALL (2603) ≧ ALL (2604) + threshold 2
Condition (4) evaluates that there is no difference in pixel values for the five pixels in block 2604. Condition (5) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (8) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 has a pixel value relative to the pixel block 2604. Highly rated. When the conditions (4), (5), and (8) are all satisfied, it is determined that the pixel block 2603 forms a bright vertical line. When the area of the pixel block 2603 is an area where a plurality of pixels having high average luminance are continuous, the conditions (4), (5), and (8) are satisfied.

条件(1)(2)(7)、または、条件(4)(5)(8)を評価した結果、いずれか一方において、ブロック2603は明るい色の縦線を構成すると判定された場合には、明線判定部2503bは、注目画素は、明るい色の縦線上に位置する明線画素である、と判定する。   As a result of evaluating the conditions (1), (2), (7) or the conditions (4), (5), and (8), if it is determined that the block 2603 constitutes a bright vertical line, The bright line determination unit 2503b determines that the target pixel is a bright line pixel located on a bright vertical line.

図21は、図18(A)の線パターン2600を用いた判定の例を示す図である。図21(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値)2700w、2710w、2720wが示されている。判定信号2700wは、黒地に明るい色の縦線がある部分の画像を示す。ハッチングの無い複数個の画素は、縦線を構成している。図19の例と同様に、判定信号が0〜255の256階調の値を示し、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。また、上記条件(1)(2)(7)(4)(5)(8)の閾値1は20であり、閾値2は200であるとする。   FIG. 21 is a diagram illustrating an example of determination using the line pattern 2600 of FIG. 21A to 21C show determination signals (luminance values) 2700w, 2710w, and 2720w in a vertical 5 pixel × horizontal 7 pixel region corresponding to the line pattern 2600. The determination signal 2700w indicates an image of a portion having a bright vertical line on a black background. A plurality of pixels without hatching constitutes a vertical line. As in the example of FIG. 19, the determination signal indicates 256 gradation values from 0 to 255, and the white pixel has a corresponding determination signal value of “255”, and the single-hatched pixel corresponds to Assume that the value of the determination signal is “128”, and the value of the corresponding determination signal is “0” for the cross-hatched pixel. Further, it is assumed that the threshold value 1 is 20 and the threshold value 2 is 200 in the conditions (1), (2), (7), (4), (5), and (8).

判定信号2700に上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。
(1)MAX(2702w)− MIN(2702w) ≦ 閾値1
128−128 ≦ 20 → 真
(2)MAX(2703w)− MIN(2703w) ≦ 閾値1
255−255 ≦ 20 → 真
(7)ALL(2703w)≧ ALL(2702w)+ 閾値2
255×5 ≧ 128×5 + 200 → 真
(4)MAX(2704w)− MIN(2704w) ≦ 閾値1
128−128 ≦ 20 → 真
(5)MAX(2703w)− MIN(2703w) ≦ 閾値1
255−255 ≦ 20 → 真
(8)ALL(2703w)≧ ALL(2704w)+ 閾値2
255×5 ≧ 128×5 + 200 → 真
このように、条件(1)(2)(7)がすべて真のため、注目画素は、明るい色の縦線上に位置する明線画素であると判定される。また、条件(4)(5)(8)もすべて真であるので、こちらの条件からも、注目画素は、明るい色の縦線上に位置する明線画素であると判定される。
The result of determining authenticity by applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2700 is as follows.
(1) MAX (2702w) −MIN (2702w) ≦ Threshold 1
128−128 ≦ 20 → true (2) MAX (2703w) −MIN (2703w) ≦ threshold 1
255-255 ≦ 20 → true (7) ALL (2703 w) ≧ ALL (2702 w) + threshold 2
255 × 5 ≧ 128 × 5 + 200 → true (4) MAX (2704w) −MIN (2704w) ≦ threshold value 1
128−128 ≦ 20 → true (5) MAX (2703w) −MIN (2703w) ≦ threshold 1
255-255 ≦ 20 → true (8) ALL (2703w) ≧ ALL (2704w) + threshold 2
255 × 5 ≧ 128 × 5 + 200 → true In this way, since all of the conditions (1), (2), and (7) are true, it is determined that the target pixel is a bright line pixel located on a bright vertical line. Is done. Since all of the conditions (4), (5), and (8) are also true, the pixel of interest is determined to be a bright line pixel located on a bright vertical line from this condition.

図21(B)の判定信号2710wは、黒地に明るい色の横線がある部分の画像を示す。判定信号2710wに上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。(1)偽、(2)偽、(7)偽、(4)偽、(5)偽、(8)偽
この結果、注目画素は、明るい色の縦線上に位置する明線画素でないと判定される。
A determination signal 2710w in FIG. 21B indicates an image of a portion where a bright horizontal line is present on a black background. The result of determining authenticity by applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2710w is as follows. (1) False, (2) False, (7) False, (4) False, (5) False, (8) False As a result, it is determined that the target pixel is not a bright line pixel located on a bright vertical line. Is done.

図21(C)の判定信号2720wは、黒地に明るい色の斜め線がある部分の画像を示す。判定信号2720wに上記条件(1)(2)(7)(4)(5)(8)を適用して、真偽を判定した結果は、以下の通りである。
(1)偽、(2)偽、(7)真、(4)偽、(5)偽、(8)真
この結果、注目画素は、明るい色の縦線上に位置する明線画素でないと判定される。
A determination signal 2720w in FIG. 21C indicates an image of a portion where a bright diagonal line is present on a black background. The result of determining authenticity by applying the above conditions (1), (2), (7), (4), (5), and (8) to the determination signal 2720w is as follows.
(1) False, (2) False, (7) True, (4) False, (5) False, (8) True As a result, it is determined that the target pixel is not a bright line pixel located on a bright vertical line. Is done.

図22は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図22(A)の判定信号2810wは、黒地に明るい色の横線がある部分の画像を示す。図22(B)、(C)の判定信号2820w、2830wは、黒地に明るい色の斜め線がある部分の画像を示す。図22(A)〜(C)の例では、詳細は省略するが、注目画素は、いずれも明線画素であると判定される。   FIG. 22 is a diagram illustrating an example of determination using the line patterns 2610 to 2630 in FIGS. A determination signal 2810w in FIG. 22A shows an image of a portion where a bright horizontal line is present on a black background. The determination signals 2820w and 2830w shown in FIGS. 22B and 22C indicate images of a portion having a bright diagonal line on a black background. In the example of FIGS. 22A to 22C, although details are omitted, it is determined that all the target pixels are bright line pixels.

図23は、適応的スムージング処理部2401による平滑化の周波数特性2900の一例を示している。横軸は空間周波数特性を示し、縦軸はそれに対応する周波数応答を示す。高周波の帯域になればなるほど周波数応答が小さくなり、ある空間周波数以上(2902)では応答はない。このような平滑化の周波数特定を有する適応的スムージング処理部2401による処理を含む、網点内文字判定を行ったときの例を、図24を用いて説明する。   FIG. 23 shows an example of the frequency characteristic 2900 of smoothing by the adaptive smoothing processing unit 2401. The horizontal axis shows the spatial frequency characteristics, and the vertical axis shows the corresponding frequency response. The higher the frequency band, the smaller the frequency response, and there is no response above a certain spatial frequency (2902). An example of performing halftone dot character determination including processing by the adaptive smoothing processing unit 2401 having such smoothing frequency specification will be described with reference to FIG.

図24は、網点内文字判定部1005による網点文字判定の例を示す図である。図24(A)の画像3000は、網点画像の一部を抽出したものである。この網点の出力線数は高く、図23に示すフィルタの周波数特性で言えば、空間周波数が2903の位置にあるような特性を持つ網点である。よって、網点画像3000に図23の空間周波数特性を持つフィルタにてフィルタ処理を施すと、網点の周期構造は消滅し、平滑化画像3010を得る。   FIG. 24 is a diagram illustrating an example of halftone dot character determination by the halftone dot character determination unit 1005. An image 3000 in FIG. 24A is obtained by extracting a part of a halftone image. The number of output lines of this halftone dot is high. In terms of the frequency characteristic of the filter shown in FIG. 23, this is a halftone dot having such a characteristic that the spatial frequency is at the position of 2903. Therefore, when the halftone image 3000 is filtered using the filter having the spatial frequency characteristics shown in FIG. 23, the periodic structure of the halftone dot disappears and a smoothed image 3010 is obtained.

同じ線数の網点内に暗い色の文字がある場合を図24(B)で説明する。網点画像3020内には暗い色(例えば、黒色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030が得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031が明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図24(C)の画像3040が得られる。画像3040では、文字のエッジ(具体的には、文字側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050を得る。黒い部分が網点内文字として判定された領域である。実施例では細い文字を例に示したため、文字全体を網点内文字として抽出している。図示しないが、文字サイズが大きくなると、文字全体ではなく、文字のエッジ部(輪郭)を抽出するようになる。   A case where there are dark characters within the same number of lines will be described with reference to FIG. A dark color (for example, black) character is printed in the halftone image 3020, and when the processing by the adaptive smoothing processing unit 2401 is performed on this image, a smoothed image 3030 is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears. The character portion is smoothed by the adaptive processing, and the character region 3031 remains clearly. When this image is edge-enhanced by the edge emphasizing unit 2402, an image 3040 shown in FIG. 24C is obtained. In the image 3040, the edge of the character (specifically, the edge on the character side) is emphasized. When an edge-enhanced image is subjected to threshold determination processing by the threshold determination unit 2403, a halftone dot character signal 3050 is obtained. A black part is an area determined as a halftone dot character. In the embodiment, since a thin character is shown as an example, the entire character is extracted as a half-dot character. Although not shown, when the character size increases, not the entire character but the edge (contour) of the character is extracted.

図24(A)の例と同じ線数の網点内に明るい色の文字がある場合を図25(A)で説明する。網点画像3020w内には明るい色(例えば、白色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030wが得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031wが明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図25(B)の画像3040wが得られる。画像3040wでは、文字のエッジ(具体的には、網点側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050wを得る。黒い部分が網点内文字として判定された領域である。網点内に、平滑化された網点領域よりも明るい文字が配置される場合、文字の輪郭を表すエッジ部として、網点領域側のエッジ部が抽出される。   A case where a light color character is present in a halftone dot having the same number of lines as in the example of FIG. 24A will be described with reference to FIG. A bright color (for example, white) character is printed in the halftone image 3020w, and when this image is subjected to processing by the adaptive smoothing processing unit 2401, a smoothed image 3030w is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears. The character portion is smoothed by the adaptive processing, and the character region 3031w remains clearly. When edge enhancement is performed on this image by the edge enhancement unit 2402, an image 3040w shown in FIG. 25B is obtained. In the image 3040w, the edge of the character (specifically, the edge on the halftone dot side) is emphasized. When an edge-enhanced image is subjected to threshold determination processing by the threshold determination unit 2403, a halftone dot character signal 3050w is obtained. A black part is an area determined as a halftone dot character. When a character brighter than the smoothed halftone dot region is arranged in the halftone dot, an edge portion on the halftone dot side is extracted as an edge portion representing the outline of the character.

A−3−4.属性フラグ生成部1006の説明
属性フラグ生成部1006(図2)は、文字判定部1003から入力される文字判定信号と、網点判定部1004から入力される網点判定信号と、網点内文字判定部1005から入力される網点内文字判定信号と、に基づいて、画素ごとに属性フラグを生成する。生成される属性フラグは、次のようにして決定される。
(1)網点判定信号が「1」であり、かつ、文字判定信号が「0」であり、かつ、網点文字判定信号が「0」である場合には、属性フラグは「網点」を示す値に決定され、網点フラグ1008がONとなり、文字フラグ1007と網点内文字フラグ1009はOFFとなる。
(2)網点判定信号が「0」であり、かつ、文字判定信号が「1」である場合には、属性フラグは、「文字」を示す値に決定され、文字フラグ1007がONとなり、網点フラグ1008と網点内文字フラグ1009はOFFとなる。
(3)網点判定信号が「1」であり、かつ、網点内文字判定信号が「1」である場合には、属性フラグは、「網点内文字」を示す値に決定され、網点内文字フラグ1009がONとなり、文字フラグ1007と網点フラグ1008はOFFとなる。
(4)上記以外の場合には、属性フラグは、「自然画、写真画、階調画像」を示す値に決定され、文字フラグ1007と網点フラグ1008と網点内文字フラグ1009は全てOFFとなる。
A-3-4. Description of Attribute Flag Generation Unit 1006 The attribute flag generation unit 1006 (FIG. 2) includes a character determination signal input from the character determination unit 1003, a halftone dot determination signal input from the halftone dot determination unit 1004, and a character within a halftone dot. Based on the halftone dot character determination signal input from the determination unit 1005, an attribute flag is generated for each pixel. The attribute flag to be generated is determined as follows.
(1) When the halftone dot determination signal is “1”, the character determination signal is “0”, and the halftone dot character determination signal is “0”, the attribute flag is “halftone”. The halftone dot flag 1008 is turned on, and the character flag 1007 and the halftone dot character flag 1009 are turned off.
(2) When the halftone dot determination signal is “0” and the character determination signal is “1”, the attribute flag is determined to be a value indicating “character”, the character flag 1007 is turned ON, The halftone dot flag 1008 and the halftone dot character flag 1009 are OFF.
(3) When the halftone dot determination signal is “1” and the halftone dot character determination signal is “1”, the attribute flag is determined as a value indicating “halftone dot character”. The dot character flag 1009 is turned on, and the character flag 1007 and the halftone flag 1008 are turned off.
(4) In cases other than the above, the attribute flag is determined to be a value indicating “natural image, photographic image, gradation image”, and the character flag 1007, the halftone dot flag 1008, and the halftone dot character flag 1009 are all OFF. It becomes.

このように画素ごとの属性フラグを示すフラグデータが生成されるので、該フラグデータを用いることで、画素ごとの属性に応じて、エッジ強調量、色再現方法、画像形成方法などの種々の画像処理方法を制御することができる。   In this way, flag data indicating an attribute flag for each pixel is generated. By using the flag data, various images such as an edge enhancement amount, a color reproduction method, an image forming method, and the like can be used according to the attribute for each pixel. The processing method can be controlled.

A−3−5.印刷処理の説明
以上を踏まえて、具体的な印刷処理について説明する。上述したように、第2入力処理部104(図1)によってスキャンデータから生成される処理済データと、領域分離処理部103によって生成されるフラグデータとは、圧縮されてメインメモリ113に格納される。ここで説明するのは、圧縮済みの処理済画像データおよび圧縮済みのフラグデータ用いて実行される印刷処理である。
A-3-5. Description of Print Processing Based on the above, specific print processing will be described. As described above, the processed data generated from the scan data by the second input processing unit 104 (FIG. 1) and the flag data generated by the region separation processing unit 103 are compressed and stored in the main memory 113. The What will be described here is print processing executed using compressed processed image data and compressed flag data.

データ復号部109は、印刷実行部140の印刷可能になったタイミングに合わせて、メインメモリ113に格納された圧縮済みの処理済画像データおよび圧縮済みのフラグデータを読出し、復号処理を行なう。復号された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータについては、第2フラグメモリ115に格納される。   The data decoding unit 109 reads the compressed processed image data and the compressed flag data stored in the main memory 113 in accordance with the timing when the printing execution unit 140 becomes ready for printing, and performs a decoding process. The decoded processed image data is stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データと、第2フラグメモリ115に格納されたフラグデータと、に基づいて、印刷データを生成し、印刷実行部140に出力する。   The output processing unit 110 generates print data based on the processed image data stored in the second image memory 116 and the flag data stored in the second flag memory 115 and outputs the print data to the print execution unit 140. To do.

図26は、出力処理部110の構成を示すブロック図である。第2画像メモリ116および第2フラグメモリ115に、印刷可能となる予め設定されたデータ量の処理済画像データおよびフラグデータが格納されると、該処理済画像データおよびフラグデータは、出力処理部110に転送される。   FIG. 26 is a block diagram illustrating a configuration of the output processing unit 110. When the second image memory 116 and the second flag memory 115 store processed image data and flag data of a preset data amount that can be printed, the processed image data and flag data are output to the output processing unit. 110.

第2画像メモリ114から転送された処理済画像データ(RGB画像データ)は、RGB→CMYK変換部601、602にて、CMYK画像データに変換される。CMYK画像データは、印刷に用いられる色材に対応する色成分を含む表色系、本実施例では、C(シアン)、M(マゼンタ)、Y(イエロ)、およびK(ブラック)の成分を含むCMYK表色系の色値(CMYK値とも呼ぶ)で、各画素の色を示す画像データである。RGB→CMYK変換部601と602の違いは、前者が文字画像用の変換を行い、後者が写真画、網点用の変換を行なう点である。   The processed image data (RGB image data) transferred from the second image memory 114 is converted into CMYK image data by the RGB → CMYK conversion units 601 and 602. The CMYK image data includes a color system including color components corresponding to a color material used for printing, and in this embodiment, C (cyan), M (magenta), Y (yellow), and K (black) components. This is image data indicating the color of each pixel with the CMYK color system color values (also referred to as CMYK values). The difference between the RGB → CMYK conversion units 601 and 602 is that the former performs conversion for character images, and the latter performs conversion for photographic images and halftone dots.

通常、原稿中に印刷された文字の色は、黒単色か、白単色か、せいぜい数色の程度である。そこで実施例では、このRGB→YMCK変換部601は、予め定義された色(C、M、Y、K)のパターンのうち、最も近似する色に変換する。例えば、R≒G≒B≒0の場合には、着目画素が黒であると判定してよいので、C=M=Y=0、K=255というパターンに変換する。R≒G≒B≒255の場合には、着目画素が白であると判定してよいので、C=M=Y=K=0というパターンに変換する。RGB→YMCK変換部601は、入力したR、G、Bが8ビットで表現されている場合、それぞれの上位数ビット(2ビット程度で良いであろう)を入力し、CMYK(各8ビット)のデータを出力するルックアップテーブル(LUT)を用いて行われる。   Normally, the color of characters printed in a document is black, white, or several colors at most. Therefore, in this embodiment, the RGB → YMCK conversion unit 601 converts the color to the closest color among the predefined color (C, M, Y, K) patterns. For example, when R≈G≈B≈0, it may be determined that the pixel of interest is black, so the pattern is converted into a pattern of C = M = Y = 0 and K = 255. If R≈G≈B≈255, it may be determined that the pixel of interest is white, so the pattern is converted to a pattern of C = M = Y = K = 0. The RGB → YMCK conversion unit 601 inputs the upper few bits (may be about 2 bits) when the input R, G, and B are expressed in 8 bits, and CMYK (each 8 bits) This is performed by using a look-up table (LUT) that outputs the data.

RGB→YMCK変換部602は、高い精度でRGB→YMCKへの変換を行なう。この変換は、例えば、マトリクス演算で行われる。あるいは、RGBの計24ビットアドレス入力、YMCKの32ビット出力のLUTを用いて行われる。   The RGB → YMCK conversion unit 602 performs conversion from RGB → YMCK with high accuracy. This conversion is performed by matrix calculation, for example. Alternatively, it is performed using a LUT with a total of 24-bit address input for RGB and a 32-bit output for YMCK.

合成部603は、第2フラグメモリ115からの転送されるフラグデータに基づき、上記2つの変換部601、602から出力されるCMYK画像データを合成する。具体的には、フラグデータに含まれる注目画素の属性フラグが「文字」を示す場合には、RGB→CMYK変換部601から出力された注目画素のCMYK値を選択し、出力する。また、注目画素の属性フラグが、「自然画」、または、「網点」を示す場合には、RGB→CMYK変換部602から出力された注目画素のCMYK値を選択し、出力する。そして、注目画素の属性フラグが、「網点内文字」を示す場合には、2つの変換部601、602から出力される2個のCMYK値を、所定の重みに従って合成して得られる値(例えば、平均値)を生成し、出力する。   The combining unit 603 combines the CMYK image data output from the two conversion units 601 and 602 based on the flag data transferred from the second flag memory 115. Specifically, when the attribute flag of the target pixel included in the flag data indicates “character”, the CMYK value of the target pixel output from the RGB → CMYK conversion unit 601 is selected and output. When the attribute flag of the target pixel indicates “natural image” or “halftone dot”, the CMYK value of the target pixel output from the RGB → CMYK conversion unit 602 is selected and output. When the attribute flag of the target pixel indicates “character in halftone dot”, a value obtained by combining the two CMYK values output from the two conversion units 601 and 602 according to a predetermined weight ( For example, an average value) is generated and output.

合成部603から出力された各画素のCMYK値を示す信号は、フィルタ処理部604〜606に供給される。これらフィルタ処理部604〜606は、内部に数ライン分のバッファを有し、2次元フィルタ処理を行なう。フィルタ処理部604〜606の違いは、フィルタ処理のエッジ強調の度合を決定する係数が異なる点である。   A signal indicating the CMYK value of each pixel output from the combining unit 603 is supplied to the filter processing units 604 to 606. These filter processing units 604 to 606 have buffers for several lines inside and perform two-dimensional filter processing. The difference between the filter processing units 604 to 606 is that the coefficients for determining the degree of edge enhancement in the filter process are different.

フィルタ処理部604は、「文字」に適したフィルタ処理を行なう。フィルタ処理部605は、「網点内文字」に適したフィルタ処理を行なう。フィルタ処理部606は、「写真画」又は「網点」に適したフィルタ処理を行なう。各フィルタ処理部のエッジ強調の度合は、フィルタ処理部604>フィルタ処理部605>フィルタ処理部606の順である。ただし、上記エッジ強調の度合は一例に過ぎず、必ずしもこれに限るものではない。   The filter processing unit 604 performs filter processing suitable for “character”. The filter processing unit 605 performs filter processing suitable for “characters in halftone dots”. The filter processing unit 606 performs filter processing suitable for “photographs” or “halftone dots”. The degree of edge enhancement of each filter processing unit is in the order of filter processing unit 604> filter processing unit 605> filter processing unit 606. However, the degree of edge enhancement is merely an example and is not necessarily limited to this.

上記は、平滑化処理の強度が、フィルタ処理部604<フィルタ処理部605<フィルタ処理部606の順であると言い換えることもできる。   In other words, the strength of the smoothing process is in the order of filter processing unit 604 <filter processing unit 605 <filter processing unit 606.

セレクタ607は、注目画素の属性フラグが「文字」を示す場合に、フィルタ処理部604から出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「網点内文字」を示す場合に、フィルタ処理部605からから出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「写真」又は「網点」を示す場合に、フィルタ処理部606からから出力された処理済みのCMYK値を選択し、出力する。   The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 604 when the attribute flag of the target pixel indicates “character”. The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 605 when the attribute flag of the target pixel indicates “character in halftone dot”. The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 606 when the attribute flag of the target pixel indicates “photograph” or “halftone dot”.

セレクタ607から出力された処理済みのCMYK値は、ガンマ補正部608、610に入力される。ガンマ補正部608は、「文字」、「網点内文字」に適した補正を行ない、ガンマ補正部610は「網点」、「写真画」に適した補正を行なう。   The processed CMYK values output from the selector 607 are input to the gamma correction units 608 and 610. The gamma correction unit 608 performs correction suitable for “character” and “character in halftone dot”, and the gamma correction unit 610 performs correction suitable for “halftone dot” and “photograph”.

ガンマ補正部608から出力される補正済みのCMYK値は、誤差拡散処理部609に入力される。誤差拡散処理部609は、入力されるCMYK値を、誤差拡散法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。文字の場合には、印刷時に生成されるドットが分散されにくいことが望ましいので、ハーフトーン処理には、誤差拡散法が用いられることが好ましい。   The corrected CMYK value output from the gamma correction unit 608 is input to the error diffusion processing unit 609. The error diffusion processing unit 609 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to the error diffusion method, and outputs the dot value. In the case of characters, it is desirable that the dots generated at the time of printing are difficult to disperse. Therefore, it is preferable to use an error diffusion method for the halftone process.

ガンマ補正部610から出力される補正済みのCMYK値は、ディザ処理部611に入力される。ディザ処理部611は、入力されるCMYK値を、ディザマトリクスを用いるディザ法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。写真画、網点の場合には、階調性が重視されるので、ハーフトーン処理には、ディザ法が用いられることが好ましい。   The corrected CMYK value output from the gamma correction unit 610 is input to the dither processing unit 611. The dither processing unit 611 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to a dither method using a dither matrix, and outputs the dot value. In the case of a photographic image or halftone dot, gradation is emphasized, and therefore dithering is preferably used for halftone processing.

セレクタ612は、注目画素の属性フラグが「文字」または「網点内文字」を示す場合には、誤差拡散処理部609から出力されるドット値を選択し、印刷実行部140に出力する。また、セレクタ612は、注目画素の属性フラグが「写真」または「網点」を示す場合には、ディザ処理部611から出力されるドット値を選択し、印刷実行部140に出力する。   The selector 612 selects the dot value output from the error diffusion processing unit 609 and outputs it to the print execution unit 140 when the attribute flag of the target pixel indicates “character” or “character in halftone dot”. Further, when the attribute flag of the target pixel indicates “photograph” or “halftone dot”, the selector 612 selects the dot value output from the dither processing unit 611 and outputs it to the print execution unit 140.

以上のように、文字、網点、および、網点内文字の領域を適切に抽出することで、その属性に応じた画像処理を実施可能となる。従って、文字は鮮明に、写真は滑らかな再現をすることが可能となる。特に、網点を含む原稿内で、網点と文字とを識別し、文字に平滑化処理を施すことなく、網点を平滑化することが可能なため、好適なモアレ除去が可能となる。その結果、網点を含む原稿内の写真にはスムージング処理を施し、モアレ除去した上でディザ処理を実施することで階調性の高い画像を印刷できる。また、網点を含む原稿内の文字には、エッジ強調処理を施した上で誤差拡散系の処理を実施することで、くっきりとした読みやすい文字を印刷できる。   As described above, by appropriately extracting characters, halftone dots, and character areas in halftone dots, it is possible to perform image processing according to the attributes. Accordingly, it is possible to reproduce characters clearly and photographs smoothly. In particular, in a document including halftone dots, the halftone dots and characters can be identified, and the halftone dots can be smoothed without applying a smoothing process to the characters. Therefore, suitable moire removal is possible. As a result, it is possible to print an image with high gradation by performing smoothing processing on a photograph in a document including halftone dots, removing moire, and performing dither processing. Also, clear and easy-to-read characters can be printed on characters in a document including halftone dots by performing an edge enhancement process and then an error diffusion system process.

また、以上説明した第1実施例によれば、第1入力処理部102(図1)は、処理対象の入力画像を表す入力画像データであるスキャンデータを取得する。そして、領域分離処理部103(図2)の輝度データ取得部1002は、第1入力処理部102からの画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する。網点内文字判定部1005(図16)の適応的スムージング処理部2401は、輝度データ取得部1002からの輝度画像データを用いて、注目画素が、複数の画素が連続する第1種の特定領域に含まれるか否かと、注目画素が、複数の画素が連続する第2種の特定領域に含まれるか否かを判断する(ここで、第1種の特定の領域の明るさは、第2種の特定の領域の明るさと比べて、暗い)。具体的には、適応的スムージング処理部2401(図17)の暗線判定部2503aは、図18〜図20で説明したように、注目画素が、図19(A)のブロック2703や、図20(A)〜図20(C)のブロック2813、2823、2833のように、低輝度の複数の画素が連続する特定の領域に含まれるか否かを判断する(第1種の特定領域の例である)。また、適応的スムージング処理部2401(図17)の明線判定部2503bは、図18、図21、図22で説明したように、注目画素が、図21(A)のブロック2703wや、図22(A)〜図22(C)のブロック2813w、2823w、2833wのように、高輝度の複数の画素が連続する特定の領域に含まれるか否かを判断する(第2種の特定領域の例である)。また、適応的スムージング処理部2401(図17)の平滑化処理部2502とセレクタ2504とは、第1種の特定領域に含まれると判断される画素(ここでは、暗線画素)の輝度値と第2種の特定領域に含まれると判断される画素(ここでは、明線画素)の輝度値とを平滑化せずに、第1種の特定領域に含まれると判断されず、かつ、第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、平滑化信号である適応的スムージング信号2505(平滑化データとも呼ぶ)を生成する。そして、網点内文字判定部1005(図16)のエッジ強調部2402と閾値判定部2403とは、適応的スムージング処理部2401からの平滑化データを用いて、入力画像内のエッジを表すエッジ画素を検出する。   Further, according to the first embodiment described above, the first input processing unit 102 (FIG. 1) acquires scan data that is input image data representing an input image to be processed. Then, the luminance data acquisition unit 1002 of the region separation processing unit 103 (FIG. 2) uses the image data from the first input processing unit 102 to obtain a plurality of luminance values that are degrees of brightness of the plurality of pixels. The luminance image data including is acquired. The adaptive smoothing processing unit 2401 of the halftone dot character determination unit 1005 (FIG. 16) uses the luminance image data from the luminance data acquisition unit 1002, and the target pixel is a first type specific region in which a plurality of pixels are continuous. And whether or not the target pixel is included in a second type of specific area in which a plurality of pixels are continuous (where the brightness of the first type of specific area is the second type Dark compared to the brightness of a specific area of the species). Specifically, as described with reference to FIGS. 18 to 20, the dark line determination unit 2503a of the adaptive smoothing processing unit 2401 (FIG. 17) has the pixel of interest as the block 2703 in FIG. 19A or FIG. A) to determine whether or not a plurality of low-luminance pixels are included in a continuous specific area as in blocks 2813, 2823, and 2833 in FIG. 20C (in the example of the first type of specific area) is there). Further, as described with reference to FIGS. 18, 21, and 22, the bright line determination unit 2503b of the adaptive smoothing processing unit 2401 (FIG. 17) has the pixel of interest as the block 2703w in FIG. As in blocks 2813w, 2823w, and 2833w in FIGS. 22A to 22C, it is determined whether or not a plurality of high-luminance pixels are included in a specific area that continues (example of a second type of specific area). Is). Further, the smoothing processing unit 2502 and the selector 2504 of the adaptive smoothing processing unit 2401 (FIG. 17) determine the luminance value of the pixel (here, the dark line pixel) determined to be included in the first type specific area. The luminance values of the pixels that are determined to be included in the two types of specific regions (here, bright line pixels) are not smoothed and are not determined to be included in the first type of specific region, and the second By smoothing luminance values of pixels that are not determined to be included in the specific region of the seed, an adaptive smoothing signal 2505 (also referred to as smoothed data) that is a smoothed signal is generated. Then, the edge enhancement unit 2402 and the threshold determination unit 2403 of the halftone character determination unit 1005 (FIG. 16) use the smoothed data from the adaptive smoothing processing unit 2401 to represent edge pixels representing edges in the input image. Is detected.

このように、第1種の特定領域に含まれると判断される画素(ここでは、暗線画素)の輝度値と、第2種の特定領域に含まれると判断される画素(ここでは、明線画素)の輝度値と、を平滑化せずに、エッジ画素が検出されるので、明るい背景中に暗い色(すなわち、低輝度の色)で表される文字のエッジを表す画素と、暗い背景中に明るい色(すなわち、高輝度の色)で表される文字のエッジを表す画素と、の両方を、適切に検出できる。   Thus, the luminance value of the pixel (here, the dark line pixel) determined to be included in the first type specific area and the pixel (here, the bright line) determined to be included in the second type specific area. Since the edge pixel is detected without smoothing the luminance value of the pixel), the pixel representing the edge of the character represented by the dark color (that is, the low luminance color) in the light background, and the dark background Both pixels representing the edge of a character represented by a bright color (that is, a high-luminance color) can be appropriately detected.

また、本実施例では、暗線判定部2503aは、暗線画素を検出するための条件として、上記の条件(1)〜(3)と条件(4)〜(6)とを用い、明線判定部2503bは、明線画素を検出するための条件として、上記の条件(1)(2)(7)と条件(4)(5)(8)とを用いる。これらの条件を用いる場合、図19(A)のブロック2703と、図21(A)のブロック2703wとのように、暗線画素が属する第1種の特定領域としては、複数の画素が連続する領域であって、明線画素が属する第2種の特定領域と比べて明るさが暗い領域を用いることができ、第2種の特定領域としては、複数の画素が連続する領域であって、第1種の特定領域と比べて明るさが明るい領域を用いることができる。なお、暗線判定部2503aによって検出される複数の暗線画素が連続する領域は、暗線画素を含む第1種の特定領域の少なくとも一部に相当し、明線判定部2503bによって検出される複数の明線画素が連続する領域は、明線画素を含む第2種の特定領域の少なくとも一部に相当する。複数の暗線画素が連続する領域の平均的な輝度が、複数の明線画素が連続する領域の平均的な輝度と比べて低い場合、第1種の特定領域は、第2種の特定領域と比べて明るさが暗い領域であると言え、第2種の特定領域は、第1種の特定領域と比べて明るさが明るい領域であると言える。   In this embodiment, the dark line determination unit 2503a uses the above conditions (1) to (3) and the conditions (4) to (6) as conditions for detecting dark line pixels, and a bright line determination unit. 2503b uses the above conditions (1), (2), and (7) and the conditions (4), (5), and (8) as conditions for detecting bright line pixels. When these conditions are used, the first type of specific area to which the dark line pixels belong, such as a block 2703 in FIG. 19A and a block 2703w in FIG. In addition, it is possible to use a darker area than the second type specific area to which the bright line pixel belongs, and the second type specific area is an area where a plurality of pixels are continuous, An area that is brighter than one type of specific area can be used. Note that a region in which a plurality of dark line pixels detected by the dark line determination unit 2503a is continuous corresponds to at least a part of the first type specific region including the dark line pixels, and a plurality of bright lines detected by the bright line determination unit 2503b. The region where the line pixels are continuous corresponds to at least a part of the second type specific region including the bright line pixels. When the average luminance of the region where the plurality of dark line pixels are continuous is lower than the average luminance of the region where the plurality of bright line pixels are continuous, the first type of specific region is the second type of specific region and It can be said that the area is darker than that of the first type of specific area, and the second type of specific area is brighter than the first type of specific area.

なお、通常は、明るい背景中に暗い色で文字が表される場合が多く、暗い背景中に明るい色で文字が表される場合は少ない。しかし、ユーザは、画像処理の品質を評価する場合には、暗い背景中に明るい色で文字が表される場合の画質も、明るい背景中に暗い色で文字が表される場合の画質と同様に、重要視し得る。従って、本実施例のように、明るい背景中に暗い色で表される文字のエッジと、暗い背景中に明るい色で表される文字のエッジと、の両方を検出して画像処理に利用することによって、高画質な画像処理を実現できる。   Usually, characters are often displayed in a dark color on a light background, and characters are often displayed in a light color on a dark background. However, when assessing the quality of image processing, the user is also assured that the image quality when characters are represented in light colors on a dark background is the same as the image quality when characters are represented in dark colors on a light background. It may be important. Therefore, as in this embodiment, both the edge of the character represented by a dark color on a light background and the edge of the character represented by a light color on a dark background are detected and used for image processing. As a result, high-quality image processing can be realized.

B.第2実施例:
図27は、第1種の特定領域の画素と第2種の特定領域の画素とを検出する処理の別の実施例を示すフローチャートである。この処理は、適応的スムージング処理部2401(図17)の暗線判定部2503aと明線判定部2503bとによって行われる。上記の第1実施例との差異は、互いに異なる太さの線に対応付けられた複数のフィルタが用いられる点である。第1実施例では、図18に示すように、複数のフィルタ(具体的には、複数の線パターン2600〜2630)の間で、線の延びる方向が異なるものの、線の太さはおおよそ同じである。この場合、入力画像に含まれる線の太さによっては、図18〜図22の実施例では、適切な判定ができない場合がある。例えば、太い線分上の注目画素は、図18(A)〜(D)に示すいずれのフィルタによっても、線画素(暗線画素、または、明線画素)であると判定されない場合がある。そこで、第2実施例では、暗線判定部2503aと明線判定部2503bとは、互いに異なる太さの線に対応付けられた複数のフィルタを用いる。
B. Second embodiment:
FIG. 27 is a flowchart illustrating another example of the process of detecting the pixels of the first type of specific area and the pixels of the second type of specific area. This process is performed by the dark line determination unit 2503a and the bright line determination unit 2503b of the adaptive smoothing processing unit 2401 (FIG. 17). The difference from the first embodiment described above is that a plurality of filters associated with lines having different thicknesses are used. In the first embodiment, as shown in FIG. 18, although the extending direction of the lines is different between the plurality of filters (specifically, the plurality of line patterns 2600 to 2630), the line thickness is approximately the same. is there. In this case, depending on the thickness of the line included in the input image, it may not be possible to make an appropriate determination in the examples of FIGS. For example, a pixel of interest on a thick line segment may not be determined to be a line pixel (dark line pixel or bright line pixel) by any of the filters shown in FIGS. Therefore, in the second embodiment, the dark line determination unit 2503a and the bright line determination unit 2503b use a plurality of filters associated with lines having different thicknesses.

図28は、複数のフィルタの例を示す説明図である。図28(A)は、線幅Wdが1画素であるフィルタ2660を示し、図28(B)は、線幅Wdが2画素であるフィルタ2670を示し、図28(C)は、線幅Wdが3画素であるフィルタ2680を示し、図28(D)は、線幅Wdが4画素であるフィルタ2690を示している。これらのフィルタ2660〜2690は、いずれも、図18(A)の線パターン2600と同様に、縦線について判定するための線パターンを示している。   FIG. 28 is an explanatory diagram illustrating an example of a plurality of filters. 28A shows a filter 2660 having a line width Wd of 1 pixel, FIG. 28B shows a filter 2670 having a line width Wd of 2 pixels, and FIG. 28C shows a line width Wd. Shows a filter 2680 having three pixels, and FIG. 28D shows a filter 2690 having a line width Wd of four pixels. Each of these filters 2660 to 2690 shows a line pattern for determining a vertical line, similarly to the line pattern 2600 of FIG.

図28(A)のフィルタ2660は、縦19画素×横1画素の3個のブロック2662、2663、2664を含む。これらのブロック2662、2663、2664は、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。注目画素2661は、中央のブロック2663の中心に配置されている。 The filter 2660 in FIG. 28A includes three blocks 2662, 2663, and 2664 of 19 vertical pixels × 1 horizontal pixel. These blocks 2662, 2663 and 2664 are arranged side by side with a gap having the same width as the line width Wd. The pixel of interest 2661 is arranged at the center of the central block 2663.

同様に、図28(B)のフィルタ2670は、縦19画素×横2画素の3個のブロック2672、2673、2674を含む。図28(C)のフィルタ2680は、縦19画素×横3画素の3個のブロック2682、2683、2684を含む。図28(D)のフィルタ2690は、縦19画素×横4画素の3個のブロック2692、2693、2694を含む。いずれのフィルタ2670〜2690においても、3個のブロックは、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。そして、注目画素2671、2681、2691は、中央のブロック2673、2683、2693の中心に配置されている(線幅Wdが偶数である場合、注目画素は、ブロックの中心の左側の画素位置に配置されている)。   Similarly, the filter 2670 in FIG. 28B includes three blocks 2672, 2673, and 2675 of 19 vertical pixels × 2 horizontal pixels. The filter 2680 in FIG. 28C includes three blocks 2682, 2683, and 2684 of 19 vertical pixels × 3 horizontal pixels. The filter 2690 in FIG. 28D includes three blocks 2692, 2693, and 2694, each having 19 vertical pixels × 4 horizontal pixels. In any of the filters 2670 to 2690, the three blocks are arranged side by side with a gap having the same width as the line width Wd. The target pixels 2671, 2681, and 2691 are arranged at the center of the central blocks 2673, 2683, and 2663 (when the line width Wd is an even number, the target pixel is arranged at the pixel position on the left side of the center of the block. Have been).

図示を省略するが、利用可能な複数のフィルタは、図18(B)〜図18(D)のフィルタ2610〜2630と同様に、横線について判定するための線パターンを示すフィルタと、2つの方向の斜め線について判定するための2種類の線パターンを示すフィルタと、を含んでいる。そして、線の延びる方向が互いに異なる4種類のフィルタのそれぞれとしては、互いに線幅が異なる複数のフィルタを利用可能である。いずれのフィルタにおいても、3個のブロックは、ブロックの延びる方向に垂直な方向に、線幅と同じ幅の隙間をあけて、並んで配置される。そして、注目画素は、中央のブロックの中心に配置される。   Although not shown, a plurality of usable filters include a filter indicating a line pattern for determining a horizontal line and two directions, like the filters 2610 to 2630 in FIGS. 18B to 18D. And a filter showing two types of line patterns for determining a diagonal line. A plurality of filters having different line widths can be used as each of the four types of filters having different line extending directions. In any filter, the three blocks are arranged side by side with a gap having the same width as the line width in a direction perpendicular to the extending direction of the blocks. The target pixel is arranged at the center of the central block.

暗線判定部2503a(図17)と明線判定部2503bとは、図18のフィルタ2600〜2630を用いる場合と同様に、各フィルタを用いて、注目画素が線画素であるか否かを判断する。暗線判定部2503aは、上記の条件(1)〜(3)と条件(4)〜(6)を、各フィルタの3個のブロック(例えば、図28のフィルタ2660の3個のブロック2662、2663、2664)に適用することによって、評価し、注目画素が、暗い色の線上に位置する暗線画素であるか否かを判断する。同様に、明線判定部2503bは、上記の条件(1)(2)(7)と条件(4)(5)(8)を評価することによって、注目画素が、明るい色の線上に位置する明線画素であるか否かを判断する。各条件の閾値1と閾値2とは、適切な判断ができるように、予め実験的に決定されてよい。   The dark line determination unit 2503a (FIG. 17) and the bright line determination unit 2503b use each filter to determine whether the target pixel is a line pixel, as in the case of using the filters 2600 to 2630 in FIG. . The dark line determination unit 2503a sets the above conditions (1) to (3) and conditions (4) to (6) to three blocks of each filter (for example, three blocks 2661 and 2663 of the filter 2660 in FIG. 28). , 2664) to evaluate and determine whether the pixel of interest is a dark line pixel located on a dark line. Similarly, the bright line determination unit 2503b evaluates the above conditions (1), (2), and (7) and the conditions (4), (5), and (8), so that the target pixel is located on a light color line. It is determined whether the pixel is a bright line pixel. The threshold value 1 and the threshold value 2 of each condition may be experimentally determined in advance so that an appropriate determination can be made.

暗線判定部2503a(図17)と明線判定部2503bとは、図27の手順に従って、注目画素が線画素であるか否かを判断する。図27の例では、暗線判定部2503aと明線判定部2503bとが、協働して、線切替信号を出力することとしている。図中において、符号2503aが付された枠で囲まれる処理は、暗線判定部2503aの処理を示し、符号2503bが付された枠で囲まれる処理は、明線判定部2503bの処理を示している。S190、S195は、暗線判定部2503aと明線判定部2503bとのいずれかによって、実行され得る。なお、暗線判定部2503aと明線判定部2503bとは、第1実施例と同様に、独立に、暗線切替信号と明線切替信号とを出力してもよい。   The dark line determination unit 2503a (FIG. 17) and the bright line determination unit 2503b determine whether the pixel of interest is a line pixel according to the procedure of FIG. In the example of FIG. 27, the dark line determination unit 2503a and the bright line determination unit 2503b cooperate to output a line switching signal. In the figure, the process surrounded by the frame denoted by reference numeral 2503a indicates the process of the dark line determination unit 2503a, and the process surrounded by the frame denoted by reference numeral 2503b indicates the process of the bright line determination unit 2503b. . S190 and S195 can be executed by either the dark line determination unit 2503a or the bright line determination unit 2503b. Note that the dark line determination unit 2503a and the bright line determination unit 2503b may independently output a dark line switching signal and a bright line switching signal, as in the first embodiment.

S100では、暗線判定部2503aは、線切替フラグをオフに初期化する。S105では、暗線判定部2503aは、現行の線幅Wdを、利用可能なフィルタの線幅Wdのうちの最小値(ここでは、1)に初期化する。S110では、暗線判定部2503aは、現行の線幅Wdに対応付けられたフィルタを選択する。上述したように、本実施例では、1つの線幅Wdに、線の延びる方向が異なる4個のフィルタが対応付けられている。S110では、4個のフィルタが選択される。S115では、暗線判定部2503aは、S110で選択した4個のフィルタを用いて、フィルタ毎に、注目画素が暗線画素であるか否かを判断する。S120では、暗線判定部2503aは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が暗線画素であると判断されたか否かを判断する。   In S100, the dark line determination unit 2503a initializes the line switching flag to OFF. In S105, the dark line determination unit 2503a initializes the current line width Wd to the minimum value (here, 1) of the available filter line widths Wd. In S110, the dark line determination unit 2503a selects a filter associated with the current line width Wd. As described above, in this embodiment, four filters having different line extending directions are associated with one line width Wd. In S110, four filters are selected. In S115, the dark line determination unit 2503a uses the four filters selected in S110 to determine whether the target pixel is a dark line pixel for each filter. In S120, the dark line determination unit 2503a determines whether or not the target pixel is determined to be a dark line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が暗線画素であると判断された場合(S120:Yes)、S190で、暗線判定部2503aは、線切替フラグをオンに設定する。S195では、暗線判定部2503aは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。   When it is determined that the target pixel is a dark line pixel by at least one filter (S120: Yes), in S190, the dark line determination unit 2503a sets the line switching flag to ON. In S195, the dark line determination unit 2503a outputs a line switching signal (here, “1” line switching signal) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が暗線画素であると判断されなかった場合(S120:No)、S125で、暗線判定部2503aは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。図27の例では、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。本実施例では、図28で説明したように、最大値WdMaxは、4である。   If any of the four filters is used and the target pixel is not determined to be a dark line pixel (S120: No), the dark line determination unit 2503a performs processing of all available line widths Wd in S125. It is determined whether or not it has been completed. In the example of FIG. 27, it is determined whether or not the current line width Wd is greater than or equal to the maximum value WdMax of the available filter line width Wd. In the present embodiment, the maximum value WdMax is 4 as described in FIG.

未処理の線幅Wdが残っている場合(S125:No)、S130で、暗線判定部2503aは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、暗線判定部2503aは、S110へ移行し、更新済の線幅Wdの処理を実行する。   When the unprocessed line width Wd remains (S125: No), in S130, the dark line determination unit 2503a updates the current line width Wd to a line width Wd that is one step larger (in this embodiment, the line width 1 is added to Wd). Then, the dark line determination unit 2503a proceeds to S110 and executes the process of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S125:Yes)、処理は、S155へ移行する。   When the processing for all the line widths Wd is completed (S125: Yes), the processing proceeds to S155.

S155では、明線判定部2503bは、現行の線幅Wdを、明線用の初期値Wdiwに初期化する。明線用の初期値Wdiwは、暗線用の初期値(ここでは、1)よりも、大きい値に設定されている。明線判定部2503bは、この明線用の初期値Wdiw未満の線幅Wdのフィルタを用いずに、初期値Wdiw以上の線幅Wdのフィルタを利用して、判断を行う。この理由は、以下の通りである。明るい色の線の幅が細い場合には、印刷済の画像において、線の周囲の暗い色の下地を表す色材の滲みや位置ズレなどに起因して、細い線が潰れ易い。細い線が潰れると、その線の視認性が低下するので、網点内文字のための画像処理の画質改善の効果が低くなる。一方、暗い色の線の幅が細い場合は、印刷済の画像において、暗い色の線を表す色材の滲みや位置ズレが生じる場合であっても、その線を容易に視認できる。従って、網点内文字のための画像処理の画質改善の効果が高い。以上により、暗線用の処理で用いられるフィルタの最小の線幅Wd(ここでは、1)は、明線用の処理で用いられるフィルタの最小の線幅Wdiwよりも、小さい。   In S155, the bright line determination unit 2503b initializes the current line width Wd to the initial value Wdiw for the bright line. The bright line initial value Wdiw is set to a value larger than the dark line initial value (here, 1). The bright line determination unit 2503b makes a determination using a filter having a line width Wd equal to or greater than the initial value Wdiw, without using a filter having a line width Wd less than the initial value Wdiw for the bright line. The reason for this is as follows. When the width of a bright color line is thin, the thin line is likely to be crushed in a printed image due to bleeding or misalignment of a color material representing a dark ground around the line. When the thin line is crushed, the visibility of the line is lowered, and the effect of improving the image quality of the image processing for the characters in the halftone dot is reduced. On the other hand, when the width of the dark color line is narrow, the line can be easily visually recognized even in the case where bleeding or displacement of the color material representing the dark color line occurs in the printed image. Therefore, the effect of improving the image quality of the image processing for the characters in the halftone dot is high. As described above, the minimum line width Wd (here, 1) of the filter used in the dark line processing is smaller than the minimum line width Wdiw of the filter used in the bright line processing.

S160では、明線判定部2503bは、現行の線幅Wdに対応付けられたフィルタを選択する。S160は、S110と同様に、行われる。S165では、明線判定部2503bは、S160で選択した4個のフィルタを用いて、フィルタ毎に、注目画素が明線画素であるか否かを判断する。S170では、明線判定部2503bは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が明線画素であると判断されたか否かを判断する。   In S160, the bright line determination unit 2503b selects a filter associated with the current line width Wd. S160 is performed in the same manner as S110. In S165, the bright line determination unit 2503b uses the four filters selected in S160 to determine whether or not the target pixel is a bright line pixel for each filter. In S170, the bright line determination unit 2503b determines whether or not the target pixel is determined to be a bright line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が明線画素であると判断された場合(S170:Yes)、S190で、明線判定部2503bは、線切替フラグをオンに設定する。S195では、明線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。   When it is determined that the target pixel is a bright line pixel by at least one filter (S170: Yes), in S190, the bright line determination unit 2503b sets the line switching flag to ON. In S195, the bright line determination unit 2503b outputs a line switching signal (here, a line switching signal of “1”) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が明線画素であると判断されない場合(S170:No)、S175で、明線判定部2503bは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。具体的には、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。   If it is not determined that the pixel of interest is a bright line pixel using any of the four filters (S170: No), the bright line determination unit 2503b performs processing of all available line widths Wd in S175. It is determined whether or not it has been completed. Specifically, it is determined whether or not the current line width Wd is equal to or greater than the maximum value WdMax of the available filter line width Wd.

未処理の線幅Wdが残っている場合(S175:No)、S180で、明線判定部2503bは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、明線判定部2503bは、S160へ移行し、更新済の線幅Wdの処理を実行する。   When the unprocessed line width Wd remains (S175: No), in S180, the bright line determination unit 2503b updates the current line width Wd to a line width Wd that is one step larger (in this embodiment, the line width Wd 1 is added to the width Wd). Then, the bright line determination unit 2503b proceeds to S160 and executes the process of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S175:Yes)、S195で、明線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「0」の線切替信号)を、セレクタ2504に対して、出力する。そして、明線判定部2503bは、図27の処理を終了する。   When all the line widths Wd have been processed (S175: Yes), in S195, the bright line determination unit 2503b sends a line switching signal associated with the line switching flag (here, a line switching signal of “0”). Is output to the selector 2504. Then, the bright line determination unit 2503b ends the process of FIG.

なお、本実施例では、セレクタ2504(図17)は、暗線判定部2503aと明線判定部2503bとのいずれか一方からS195で出力される線切替信号を受信する。そして、セレクタ2504は、線切替信号が「1」である場合、すなわち、暗線判定部2503aにて注目画素が暗線画素であると判定されたときと、明線判定部2503bにて注目画素が明線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、線切替信号が「0」である場合、すなわち、注目画素が暗線画素と明線画素とのいずれでもないと判定されたときは、平滑化信号を出力する。   In this embodiment, the selector 2504 (FIG. 17) receives the line switching signal output in S195 from either the dark line determination unit 2503a or the bright line determination unit 2503b. Then, when the line switching signal is “1”, that is, when the dark line determination unit 2503a determines that the pixel of interest is a dark line pixel, the selector 2504 determines that the pixel of interest is bright in the bright line determination unit 2503b. A determination signal 2501 that is not filtered is output at each time when it is determined that the pixel is a line pixel. The selector 2504 outputs a smoothed signal when the line switching signal is “0”, that is, when it is determined that the target pixel is neither a dark line pixel nor a bright line pixel.

図29は、明線用の初期値Wdiw(すなわち、利用可能なフィルタ)を決定する処理の説明図である。図29(A)は、決定処理のフローチャートを示している。S200では、線幅Wdが互いに異なる複数のフィルタのそれぞれに対応するテストパターンデータが生成される。図29(B)〜図29(E)は、テストパターンデータによって表されるテストパターンの例を示す説明図である。図29(B)〜図29(E)は、それぞれ、Wd=1、2、3、4のためのテストパターンTP1、TP2、TP3、TP4を、示している。各テストパターンTP1〜TP4は、黒色の下地BGと白色の縦線WL1〜WL4とを、それぞれ表している。白縦線WL1〜WL4は、対応する線幅Wdの白縦線を表すデータで、表されている。例えば、Wd=1のためのテストパターンTP1の白縦線WL1は、線幅が1である白縦線を表すデータによって、表される。テストパターンデータの生成方法としては、任意の方法を採用可能である。本実施例では、図示しないコンピュータが、プログラムに従って、テストパターンデータを生成する。 FIG. 29 is an explanatory diagram of processing for determining the initial value Wdiw for bright lines (that is, usable filters). FIG. 29A shows a flowchart of the determination process. In S200, test pattern data corresponding to each of a plurality of filters having different line widths Wd is generated. FIG. 29B to FIG. 29E are explanatory diagrams illustrating examples of test patterns represented by test pattern data. FIGS. 29B to 29E show test patterns TP1, TP2, TP3, and TP4 for Wd = 1, 2, 3, and 4, respectively. Each test pattern TP1 to TP4 represents a black base BG and white vertical lines WL1 to WL4, respectively. The white vertical lines WL1 to WL4 are represented by data representing white vertical lines having a corresponding line width Wd. For example, the white vertical line WL1 of the test pattern TP1 for Wd = 1 is represented by data representing a white vertical line having a line width of 1. Any method can be adopted as a method for generating test pattern data. In this embodiment, a computer (not shown) generates test pattern data according to a program.

S210では、複合機100の制御部120は、テストパターンデータを用いて、印刷実行部140に、テストパターンTP1〜TP4を印刷させる。S220では、ユーザは、印刷されたテストパターンTP1〜TP4を目視で観察することによって、白線を識別できるか否かを判断する。上述したように、印刷される白線の線幅が小さい場合、色材の滲みなどに起因して、白線が潰れ得る。細い白線が潰れる場合、ユーザは、白線を識別できない。そして、ユーザは、識別可能な白線のうち、最も細い白線を特定する。特定された白線に対応付けられた線幅Wdを、最小幅Wminと呼ぶ。   In step S210, the control unit 120 of the multifunction peripheral 100 causes the print execution unit 140 to print the test patterns TP1 to TP4 using the test pattern data. In S220, the user determines whether the white line can be identified by visually observing the printed test patterns TP1 to TP4. As described above, when the line width of the printed white line is small, the white line may be crushed due to bleeding of the color material. When the thin white line is crushed, the user cannot identify the white line. Then, the user specifies the thinnest white line among the identifiable white lines. The line width Wd associated with the identified white line is referred to as the minimum width Wmin.

S230では、明線用の初期値Wdiwが、最小幅Wminに設定される。設定された最小幅Wminを表すデータは、明線判定部2503b(図17)に、組み込まれる(例えば、最小幅Wminを表すデータは、明線判定部2503bの図示しない不揮発性メモリに書き込まれる)。そして、図29(A)の処理は終了する。これにより、明線判定部2503bは、印刷される場合に識別可能な明るい色の線の画素を、適切に、検出できる。   In S230, the initial value Wdiw for the bright line is set to the minimum width Wmin. Data representing the set minimum width Wmin is incorporated in the bright line determination unit 2503b (FIG. 17) (for example, data representing the minimum width Wmin is written in a non-illustrated nonvolatile memory of the bright line determination unit 2503b). . Then, the process of FIG. 29A ends. Accordingly, the bright line determination unit 2503b can appropriately detect pixels of a bright color line that can be identified when printed.

以上のように、第2実施例では、暗線判定部2503aと明線判定部2503bとは、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、注目画素が、線を表す特定領域に含まれるか否かを判断する。従って、種々の太さの線で表される文字のエッジを表す画素を、適切に、検出できる。   As described above, in the second embodiment, the dark line determination unit 2503a and the bright line determination unit 2503b are filters for detecting pixels representing lines, and are associated with lines having different thicknesses. Is used to determine whether or not the target pixel is included in a specific region representing a line. Accordingly, it is possible to appropriately detect pixels that represent the edges of characters represented by lines of various thicknesses.

また、明線用の線幅Wdの初期値Wdiwは、暗線用の線幅Wdの初期値(ここでは、1)よりも、大きい。従って、暗線判定部2503aによって利用され得るフィルタの総数Pは、明線判定部2503bによって利用され得るフィルタの総数Qよりも、多い(本実施例では、総数P=16(線幅Wdの総数4×線の方向の種類数4)、総数Qは、1以上、Pとは異なる整数)。これにより、低輝度の画素が連続する線で表される細い文字のエッジを、適切に検出できる。また、高輝度の画素が連続する線で表される文字のエッジも、適切に検出できる。   Further, the initial value Wdiw of the line width Wd for bright lines is larger than the initial value (here, 1) of the line width Wd for dark lines. Therefore, the total number P of filters that can be used by the dark line determination unit 2503a is larger than the total number Q of filters that can be used by the bright line determination unit 2503b (in this embodiment, the total number P = 16 (total number 4 of the line width Wd 4 × Number of types of X-ray directions 4), the total number Q is 1 or more and an integer different from P). Thereby, it is possible to appropriately detect the edge of a thin character represented by a continuous line of low luminance pixels. In addition, it is possible to appropriately detect the edge of a character represented by a continuous line of high luminance pixels.

また、暗線判定部2503aによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wd(ここでは、1)は、明線判定部2503bによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wdiwよりも、細い。従って、低輝度の画素が連続する細い線で表される文字のエッジを、適切に、検出できる。   The line width Wd (here, 1) of the thinnest line among the plurality of lines associated with the plurality of filters used by the dark line determination unit 2503a corresponds to the plurality of filters used by the bright line determination unit 2503b. It is narrower than the line width Wdiw of the thinnest line among the plurality of lines to be attached. Therefore, it is possible to appropriately detect an edge of a character represented by a thin line with continuous low-luminance pixels.

また、領域分離処理部103(図1)と第2入力処理部104と出力処理部110とは、第1入力処理部102によって取得された入力画像データに、領域分離処理部103の網点内文字判定部1005(図16)によって検出されたエッジ画素を用いる画像処理を行うことによって、印刷用の画像データである印刷データを生成する。そして、出力処理部110は、生成された印刷データを、印刷実行部140に供給する。ここで、図29(A)で説明したように、明線用の複数のフィルタに対応付けられる複数種類の線のうちの最も細い線の線幅Wdiwは、印刷実行部140によって利用される色材の滲み特定に基づいて、予め決定されている。従って、印刷実行部140によって利用される色材の滲み特性に適した太さの線で表される文字のエッジを、検出できる。   In addition, the region separation processing unit 103 (FIG. 1), the second input processing unit 104, and the output processing unit 110 add the input image data acquired by the first input processing unit 102 within the halftone dots of the region separation processing unit 103. By performing image processing using the edge pixels detected by the character determination unit 1005 (FIG. 16), print data that is image data for printing is generated. Then, the output processing unit 110 supplies the generated print data to the print execution unit 140. Here, as described with reference to FIG. 29A, the line width Wdiw of the thinnest line among the plurality of types of lines associated with the plurality of bright line filters is the color used by the print execution unit 140. It is determined in advance based on the material blur identification. Therefore, it is possible to detect the edge of a character represented by a line having a thickness suitable for the bleeding characteristic of the color material used by the print execution unit 140.

C.変形例:
(1)暗線判定部2503a(図17)によって注目画素が第1種の特定領域(比較的暗い領域)に含まれると判断されるための条件は、上述した条件(1)〜(3)と条件(4)〜(6)とに限らず、種々の条件であってよい。同様に、明線判定部2503bによって注目画素が第2種の特定領域(比較的明るい領域)に含まれると判断されるための条件は、上述した条件(1)(2)(7)と条件(4)(5)(8)とに限らず、種々の条件であってよい。例えば、注目画素が第1種の特定領域に含まれると判断されるための条件は、注目画素を含む画素ブロック(例えば、図18(A)のブロック2603)の輝度値の平均値が、予め決められた第1閾値(例えば、128)よりも小さいこと、を含んでもよい。同様に、注目画素が第2種の特定領域に含まれると判断されるための条件は、注目画素を含む画素ブロック(例えば、図18(A)のブロック2603)の輝度値の平均値が、予め決められた第2閾値(例えば、128)よりも大きいこと、を含んでもよい(第2閾値は、第1閾値以上)。
C. Variation:
(1) The conditions for determining that the target pixel is included in the first type specific area (relatively dark area) by the dark line determination unit 2503a (FIG. 17) are the above-described conditions (1) to (3). Not only the conditions (4) to (6) but various conditions may be used. Similarly, the conditions for determining that the target pixel is included in the second type specific area (relatively bright area) by the bright line determination unit 2503b are the conditions (1), (2), and (7) described above. (4) Not limited to (5) and (8), various conditions may be used. For example, the condition for determining that the target pixel is included in the first type of specific region is that the average value of the luminance values of the pixel block including the target pixel (for example, the block 2603 in FIG. 18A) is It may include being smaller than a predetermined first threshold value (for example, 128). Similarly, the condition for determining that the target pixel is included in the second type specific region is that the average value of the luminance values of the pixel block including the target pixel (for example, the block 2603 in FIG. 18A) is The predetermined threshold value may be greater than a predetermined second threshold value (for example, 128) (the second threshold value is equal to or greater than the first threshold value).

一般的には、注目画素が第1種の特定領域に含まれると判断するための条件(暗領域条件と呼ぶ)は、第2種の特定領域と比べて平均的な輝度が低い複数の画素が連続する領域である第1種の特定領域に注目画素が含まれることを示す種々の条件であってよい。そして、注目画素が第2種の特定領域に含まれると判断するための条件(明領域条件と呼ぶ)は、第1種の特定領域と比べて平均的な輝度が高い複数の画素が連続する領域である第2種の特定領域に注目画素が含まれることを示す種々の条件であってよい。例えば、暗領域条件と明領域条件としては、第1種の特定領域における輝度値の平均が第2種の特定領域における輝度値の平均よりも暗くなるように構成された種々の条件を、採用してよい。   In general, the condition for determining that the target pixel is included in the first type of specific area (referred to as a dark area condition) is a plurality of pixels whose average luminance is lower than that of the second type of specific area. There may be various conditions indicating that the pixel of interest is included in the first type specific area that is a continuous area. The condition for determining that the pixel of interest is included in the second type specific area (referred to as a bright area condition) is that a plurality of pixels having higher average luminance than the first type specific area are continuous. There may be various conditions indicating that the target pixel is included in the second type specific area which is an area. For example, as the dark area condition and the bright area condition, various conditions configured such that the average luminance value in the first type specific area is darker than the average luminance value in the second type specific area are adopted. You can do it.

(2)暗線判定部2503aによって利用され得る1以上のフィルタと、明線判定部2503bによって利用され得る1以上のフィルタとしては、図18、図27〜図29で説明したフィルタに代えて、他の種々のフィルタであってよい。例えば、1個のフィルタに含まれる3個のブロック(例えば、図28(A)の3個のブロック2662、2663、2664)の間隔は、各ブロックの幅と異なっていてもよい。一般的には、フィルタとしては、特定の太さの線を表す画素を検出することが可能な種々のフィルタ、すなわち、特定の太さの線を表す領域に含まれる画素を検出することが可能な種々のフィルタを、採用可能である。 (2) One or more filters that can be used by the dark line determination unit 2503a and one or more filters that can be used by the bright line determination unit 2503b are other than the filters described in FIGS. Various filters may be used. For example, the interval between three blocks included in one filter (for example, the three blocks 2662, 2663, and 2664 in FIG. 28A) may be different from the width of each block. In general, as a filter, it is possible to detect various filters that can detect pixels that represent a line of a specific thickness, that is, pixels that are included in an area that represents a line of a specific thickness. Various filters can be employed.

また、明線判定部2503bによって利用され得るフィルタの総数Qは、暗線判定部2503aによって利用され得るフィルタの総数Pと同じであってよく、これに代えて、総数Pとは異なる任意の整数であってよい。ここで、P>Qであってもよく、P<Qであってもよい。   In addition, the total number Q of filters that can be used by the bright line determination unit 2503b may be the same as the total number P of filters that can be used by the dark line determination unit 2503a. Instead of this, an arbitrary integer different from the total number P is used. It may be. Here, P> Q may be sufficient and P <Q may be sufficient.

また、暗線判定部2503aによって利用され得る暗線用の1以上のフィルタの最小の線幅が、明線判定部2503bによって利用され得る明線用の1以上のフィルタの最小の線幅よりも太くてもよい。また、明線判定部2503bによって利用され得る1以上のフィルタの最小の線幅は、色材の滲み特性とは独立に決定されてもよい。   The minimum line width of one or more filters for dark lines that can be used by the dark line determination unit 2503a is larger than the minimum line width of one or more filters for bright lines that can be used by the bright line determination unit 2503b. Also good. Further, the minimum line width of one or more filters that can be used by the bright line determination unit 2503b may be determined independently of the bleeding characteristics of the color material.

また、フィルタとしては、特定の方向に延びる線状の領域と、その線状の領域を挟む両側の領域の少なくとも一方と、の間に輝度値の差が生じているか否かを判断するための、種々のフィルタを採用してよい。   Further, as a filter, it is possible to determine whether or not there is a difference in luminance value between a linear region extending in a specific direction and at least one of both regions sandwiching the linear region. Various filters may be employed.

なお、暗線判定部2503aは、そのようなフィルタを用いずに、注目画素が第1種の特定領域に含まれるか否かを判断してもよい。例えば、暗線判定部2503aは、輝度画像データを解析することによって輝度値が所定の暗閾値未満である画素が連続する領域を特定し、特定された領域を第1種の特定領域として採用してもよい。同様に、明線判定部2503bは、そのようなフィルタを用いずに、注目画素が第2種の特定領域に含まれるか否かを判断してもよい。例えば、明線判定部2503bは、輝度画像データを解析することによって輝度値が所定の明閾値を超える画素が連続する領域を特定し、特定された領域を第2種の特定領域として採用してもよい(ここで、明閾値は、暗閾値以上)。   Note that the dark line determination unit 2503a may determine whether or not the target pixel is included in the first type specific region without using such a filter. For example, the dark line determination unit 2503a identifies an area where pixels having a luminance value less than a predetermined dark threshold by analyzing the luminance image data, and adopts the identified area as the first type specific area. Also good. Similarly, the bright line determination unit 2503b may determine whether or not the target pixel is included in the second type specific region without using such a filter. For example, the bright line determination unit 2503b identifies an area where pixels whose luminance value exceeds a predetermined bright threshold value continues by analyzing the luminance image data, and adopts the identified area as the second type specific area. (Here, the bright threshold is equal to or higher than the dark threshold).

(3)上記各実施例では、処理済画像データは、印刷実行部140によって、処理済画像を印刷するために用いられている(図26)。これに限らず、処理済画像データは、処理済画像を液晶ディスプレイなどの表示部に表示するために用いられても良い。 (3) In each of the above embodiments, the processed image data is used by the print execution unit 140 to print the processed image (FIG. 26). However, the processed image data may be used to display the processed image on a display unit such as a liquid crystal display.

(4)上記各実施例では、入力信号1001(図1)は、RGB値である。これに代えて、他の表色系の色値が用いられても良い。例えば、スキャンデータの各画素の値は、CMY表色系の色値に変換された後に、入力信号1001として、領域分離処理部103に入力されても良い。 (4) In each of the above embodiments, the input signal 1001 (FIG. 1) is an RGB value. Instead, color values of other color systems may be used. For example, the value of each pixel of the scan data may be input to the region separation processing unit 103 as the input signal 1001 after being converted into a CMY color system color value.

(5)上記各実施例の領域分離処理部103に含まれる各部、例えば、文字判定部1003、網点判定部1004、網点内文字判定部1005が実行する具体的な処理は、一例であり、適宜に変更される。例えば、図3のエリア積算部1105、1106が用いる縦3画素×横3画素の周辺範囲は、他のサイズの範囲、例えば、縦3画素×横5画素あるいは縦5画素×横5画素の範囲であっても良い。また、図12の積算処理部1209は、3種類の積算範囲を用いているが、これらの積算範囲のサイズや種類数は、適宜に変更され得る。また、閾値判定部1211が、積算結果を判定するための閾値は、用いる積算範囲のサイズ等によって適宜に調整される。図12の総合判定部1213が、これらの閾値判定部1211によって積算範囲ごとに出力される複数個の判定結果を用いて、網点判定信号を生成する際には、例えば、論理和、論理積の論理演算を、どのように組み合わせるかは、適宜に変更され得る。 (5) Specific processing executed by each unit included in the region separation processing unit 103 of each of the above embodiments, for example, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005 is an example. , As appropriate. For example, the peripheral range of vertical 3 pixels × horizontal 3 pixels used by the area integration units 1105 and 1106 in FIG. 3 is a range of other sizes, for example, a range of vertical 3 pixels × horizontal 5 pixels or vertical 5 pixels × horizontal 5 pixels. It may be. Further, the integration processing unit 1209 in FIG. 12 uses three types of integration ranges, but the size and the number of types of these integration ranges can be changed as appropriate. Further, the threshold for the threshold determination unit 1211 to determine the integration result is appropriately adjusted according to the size of the integration range to be used. When the overall determination unit 1213 in FIG. 12 generates a halftone determination signal using a plurality of determination results output for each integration range by the threshold determination unit 1211, for example, logical sum, logical product The combination of these logical operations can be changed as appropriate.

(6)出力処理部110が、印刷データを生成する処理(図26)は、一例であり適宜に変更され得る。例えば、出力処理部110は、ハーフトーン処理として、誤差拡散法、ディザ法を採用する例を示したがこれに限られない。例えば、誤差拡散法のみを用いる場合、文字(網点内文字を含む)と写真(網点を含む)とでは、前者の誤差拡散マトリクスサイズを小さくし、後者の誤差拡散マトリクスサイズを大きくすることが好ましい。また、ディザ処理のみを用いる場合には、文字と写真とで異なるディザマトリクスパターンを採用しても良い。また、ハーフトーン処理の方法として、これ以外の方法を採用しても構わない。 (6) The process (FIG. 26) in which the output processing unit 110 generates print data is an example and can be changed as appropriate. For example, although the output processing unit 110 has shown an example in which the error diffusion method and the dither method are employed as the halftone processing, the present invention is not limited thereto. For example, when only the error diffusion method is used, the error diffusion matrix size of the former is reduced and the error diffusion matrix size of the latter is increased for characters (including characters in halftone dots) and photographs (including halftone dots). Is preferred. When only dither processing is used, different dither matrix patterns may be used for characters and photographs. Also, other methods may be employed as the halftone processing method.

(7)上記実施例では、入力画像データは、スキャンデータであるが、これに限られない。入力画像データは、印刷物などの原稿を、2次元イメージセンサを備えるデジタルカメラによって光学的に撮影して生成される撮像画像データであっても良い。また、ワードプロセッサなどのアプリケーションプログラムを用いて生成された画像データであってもよい。 (7) In the above embodiment, the input image data is scan data, but is not limited thereto. The input image data may be captured image data generated by optically photographing a document such as a printed matter with a digital camera including a two-dimensional image sensor. Further, it may be image data generated using an application program such as a word processor.

(8)エッジ強調部2402と閾値判定部2403とによって検出されるエッジ画素は、任意の処理に利用されてよい。例えば、エッジを表すエッジ画像データの生成に利用されてもよい。 (8) The edge pixels detected by the edge enhancement unit 2402 and the threshold determination unit 2403 may be used for arbitrary processing. For example, it may be used to generate edge image data representing an edge.

(9)図1の複合機100が実行する処理、例えば、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理の全部または一部は、複合機100に限らず、種々の装置によって実行されても良い。例えば、スキャナやデジタルカメラが、自身で生成された入力画像データを用いて、領域分離処理部103や第2入力処理部104が実行する処理を実行しても良い。また、例えば、スキャナやプリンタと通信可能な接続される端末装置(図示省略)やサーバ(図示省略)が、スキャナから取得したスキャンデータを用いて、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を実行しても良い。そして、その結果生成される印刷データがプリンタに供給されても良い。また、ネットワークを介して互いに通信可能な複数個のコンピュータ(例えば、クラウドサーバ)が、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を一部ずつ分担して、全体として、画像処理を実行してもよい。この場合、複数個のコンピュータの全体が、画像処理装置の例である。 (9) The processing executed by the multifunction device 100 of FIG. 1, for example, all or part of the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is not limited to the multifunction device 100. May be executed by various devices. For example, a scanner or a digital camera may execute processing executed by the region separation processing unit 103 or the second input processing unit 104 using input image data generated by itself. Further, for example, a terminal device (not shown) or a server (not shown) connected to be communicable with a scanner or a printer uses the scan data acquired from the scanner, and the region separation processing unit 103 and the second input processing unit 104. The processing executed by the output processing unit 110 may be executed. Then, print data generated as a result may be supplied to the printer. In addition, a plurality of computers (for example, cloud servers) that can communicate with each other via a network share part of the processing executed by the region separation processing unit 103, the second input processing unit 104, and the output processing unit 110. As a whole, image processing may be executed. In this case, the entirety of the plurality of computers is an example of the image processing apparatus.

なお、上記各実施例では、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理の全部または一部は、これらのハードウエア回路によって実行されるが、CPUであるメインプロセッサ101によって実行されても良い。この場合には、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理のうち、メインプロセッサ101が実行する処理のためのプログラムは、コンピュータプログラムPGに含まれる。例えば、第1実施例では、メインプロセッサ101は、領域分離処理部103によって実行される輝度画像データを生成する処理と、輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する処理と、輝度画像データを用いて、注目画素が、第2種の特定領域に含まれるか否かを判断する処理と、判断結果を用いて輝度画像データを平滑化することによって平滑化データを生成する処理と、平滑化データを用いて、入力画像内のエッジを表すエッジ画素を検出する処理と、を、コンピュータプログラムPGを実行することによって、実現しても良い。   In each of the above embodiments, all or part of the processing executed by the region separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is executed by these hardware circuits, but is a CPU. It may be executed by the main processor 101. In this case, a program for processing executed by the main processor 101 among processing executed by the region separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is included in the computer program PG. For example, in the first embodiment, the main processor 101 uses the process of generating luminance image data executed by the area separation processing unit 103 and the luminance image data, so that the target pixel is included in the first type specific area. Processing to determine whether or not the target pixel is included in the second type specific area using the luminance image data, and smoothing the luminance image data using the determination result By executing the computer program PG, the processing for generating the smoothed data and the processing for detecting the edge pixels representing the edges in the input image using the smoothed data may be realized. .

このように、上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。   As described above, in each of the above embodiments, a part of the configuration realized by hardware may be replaced with software. Conversely, part or all of the configuration realized by software is replaced with hardware. You may make it replace.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。   As mentioned above, although this invention was demonstrated based on the Example and the modification, Embodiment mentioned above is for making an understanding of this invention easy, and does not limit this invention. The present invention can be changed and improved without departing from the spirit and scope of the claims, and equivalents thereof are included in the present invention.

100…複合機、101…メインプロセッサ、102…第1入力処理部、103…領域分離処理部、104…第2入力処理部、106…インタープリタ、107…データ圧縮部、108…解像度変換部、109…データ復号部、110…出力処理部、111…第1画像メモリ、112…第1フラグメモリ、113…メインメモリ、114…第2画像メモリ、115…第2フラグメモリ、116…第2画像メモリ、117…不揮発性メモリ、120…制御部、130…読取実行部、140…印刷実行部、200…複合機、601…変換部、603…合成部、604…フィルタ処理部、604…フィルタ処理部、605…フィルタ処理部、606…フィルタ処理部、607…セレクタ、608…ガンマ補正部、609…誤差拡散処理部、610…ガンマ補正部、611…ディザ処理部、612…セレクタ、1001…入力信号、1002…輝度データ取得部、1003…文字判定部、1004…網点判定部、1005…網点内文字判定部、1006…属性フラグ生成部、1007…文字フラグ、1008…網点フラグ、1009…網点内文字フラグ、1102…エッジ強調部、1103…閾値判定部、1104…閾値判定部、1105…エリア積算部、1106…エリア積算部、1107…閾値判定部、1108…閾値判定部、1109…総合判定部、1110…文字判定信号、1202…エッジ強調部、1203…閾値判定部、1204…閾値判定部、1205…孤立量判定部、1206…孤立量判定部、1209…積算処理部、1211…閾値判定部、1213…総合判定部、1215…網点判定信号、1302…外エッジ領域、1303…内エッジ領域、1304…領域、1305…領域、1306…領域、1501…エッジ境界部、1502…文字、1503…下地、1504…輝度画像データ、1507…エッジ抽出データ、1510…断面、1601…網点エッジ境界部、1601…エッジ境界部、1602…網点、1603…下地、1604…輝度画像データ、1607…エッジ抽出データ、1610…断面、1700…内エッジ信号、1710…判定パターン、1712…黒画素、1713…白画素、1810…内エッジ信号、1820…内エッジ信号、1830…内エッジ信号、1840…内エッジ信号、2011…第1積算部、2012…第2積算部、2013…第3積算部、2021…第1判定部、2022…第2判定部、2023…第3判定部、2101…注目画素、2102…積算範囲、2103…積算範囲、2104…積算範囲、2205…エッジ、2401…適応的スムージング処理部、2402…エッジ強調部、2403…閾値判定部、2501…判定信号、2502…平滑化処理部、2503a…暗線判定部、2503b…明線判定部、2504…セレクタ、2505…適応的スムージング信号、PG…コンピュータプログラム DESCRIPTION OF SYMBOLS 100 ... MFP, 101 ... Main processor, 102 ... First input processing unit, 103 ... Region separation processing unit, 104 ... Second input processing unit, 106 ... Interpreter, 107 ... Data compression unit, 108 ... Resolution conversion unit, 109 DESCRIPTION OF SYMBOLS ... Data decoding part, 110 ... Output processing part, 111 ... 1st image memory, 112 ... 1st flag memory, 113 ... Main memory, 114 ... 2nd image memory, 115 ... 2nd flag memory, 116 ... 2nd image memory DESCRIPTION OF SYMBOLS 117 ... Nonvolatile memory, 120 ... Control part, 130 ... Reading execution part, 140 ... Print execution part, 200 ... Multifunction machine, 601 ... Conversion part, 603 ... Composition part, 604 ... Filter processing part, 604 ... Filter processing part 605: Filter processing unit, 606: Filter processing unit, 607 ... Selector, 608 ... Gamma correction unit, 609 ... Error diffusion processing unit, 610 ... Gamma correction unit, 611... Dither processing unit, 612... Selector, 1001... Input signal, 1002 .. Luminance data acquisition unit, 1003... Character determination unit, 1004. Attribute flag generation unit, 1007 ... Character flag, 1008 ... Halftone dot flag, 1009 ... Halftone dot character flag, 1102 ... Edge emphasis unit, 1103 ... Threshold decision unit, 1104 ... Threshold decision unit, 1105 ... Area integration unit, 1106 ... Area integration unit, 1107 ... threshold judgment unit, 1108 ... threshold judgment unit, 1109 ... total judgment unit, 1110 ... character judgment signal, 1202 ... edge enhancement unit, 1203 ... threshold judgment unit, 1204 ... threshold judgment unit, 1205 ... isolation amount Determination unit, 1206 ... isolated amount determination unit, 1209 ... integration processing unit, 1211 ... threshold determination unit, 1213 ... comprehensive determination unit, 12 5 ... halftone dot determination signal, 1302 ... outer edge area, 1303 ... inner edge area, 1304 ... area, 1305 ... area, 1306 ... area, 1501 ... edge boundary, 1502 ... character, 1503 ... background, 1504 ... luminance image data , 1507 ... edge extraction data, 1510 ... cross section, 1601 ... halftone edge boundary part, 1601 ... edge boundary part, 1602 ... halftone dot, 1603 ... background, 1604 ... luminance image data, 1607 ... edge extraction data, 1610 ... cross section, 1700 ... inner edge signal, 1710 ... determination pattern, 1712 ... black pixel, 1713 ... white pixel, 1810 ... inner edge signal, 1820 ... inner edge signal, 1830 ... inner edge signal, 1840 ... inner edge signal, 2011 ... first integration , 2012... Second accumulator, 2013... Third accumulator, 2021. 22 ... 2nd determination unit, 2023 ... 3rd determination unit, 2101 ... Pixel of interest, 2102 ... Integration range, 2103 ... Integration range, 2104 ... Integration range, 2205 ... Edge, 2401 ... Adaptive smoothing processing unit, 2402 ... Edge enhancement , 2403 ... threshold value determination unit, 2501 ... determination signal, 2502 ... smoothing processing unit, 2503a ... dark line determination unit, 2503b ... bright line determination unit, 2504 ... selector, 2505 ... adaptive smoothing signal, PG ... computer program

Claims (7)

画像処理装置であって、
入力画像を表す入力画像データを取得する入力画像データ取得部と、
前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得部と、
前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断部であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断部と、
前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断部であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断部と、
前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成部であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成部と、
前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出部と、
を備える、画像処理装置。
An image processing apparatus,
An input image data acquisition unit for acquiring input image data representing the input image;
Using the input image data, a luminance image data acquisition unit that acquires luminance image data including a plurality of luminance values that are degrees of brightness of a plurality of pixels;
A first determination unit that determines whether or not a target pixel is included in a first type of specific region using the luminance image data, wherein the first type of specific region is a region in which a plurality of pixels are continuous. The first type specific area is an area that is darker than the second type specific area; and
A second determination unit configured to determine whether the target pixel is included in the second type of specific region using the luminance image data, wherein the second type of specific region includes a plurality of pixels; The second determination unit, wherein the second type specific region is a brighter region than the first type specific region;
A smoothed data generation unit that generates smoothed data by smoothing the brightness image data, and the brightness value of a pixel that is determined to be included in the first type specific region among the plurality of pixels And the luminance value of the pixel determined to be included in the second type of specific area are not determined to be included in the first type of specific area without being smoothed, and the second type of specific value is determined. The smoothed data generation unit that generates the smoothed data by smoothing luminance values of pixels that are not determined to be included in the region;
A detection unit that detects edge pixels representing edges in the input image using the smoothed data;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記第1判断部と前記第2判断部との少なくとも一方は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、前記注目画素が、線を表す前記特定領域に含まれるか否かを判断する、
画像処理装置。
The image processing apparatus according to claim 1,
At least one of the first determination unit and the second determination unit is a filter for detecting a pixel representing a line, and using a plurality of filters associated with lines having different thicknesses, Determining whether the pixel of interest is included in the specific region representing a line;
Image processing device.
請求項2に記載の画像処理装置であって、
前記第1判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたP個(Pは1以上の整数)のフィルタの少なくとも1つを用いて、前記注目画素が、線を表す前記第1種の特定領域に含まれるか否かを判断し、
前記第2判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたQ個(Qは、1以上、かつ、Pとは異なる整数)のフィルタの少なくとも1つを用いて、前記注目画素が、線を表す前記第2種の特定領域に含まれるか否かを判断する、
画像処理装置。
The image processing apparatus according to claim 2,
The first determination unit is a filter for detecting pixels representing a line, and uses at least one of P (P is an integer of 1 or more) filters associated with lines having different thicknesses. Determining whether the pixel of interest is included in the first type specific region representing a line;
The second determination unit is a filter for detecting pixels representing a line, and is Q (Q is an integer different from P) that is associated with lines having different thicknesses. Using at least one of the filters to determine whether the pixel of interest is included in the specific region of the second type representing a line;
Image processing device.
請求項3に記載の画像処理装置であって、
P>Qである、
画像処理装置。
The image processing apparatus according to claim 3,
P> Q,
Image processing device.
請求項4に記載の画像処理装置であって、
前記第1判断部によって用いられ得る前記P個のフィルタに対応付けられるP種類の線のうち最も細い線の幅は、前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅よりも、細い、
画像処理装置。
The image processing apparatus according to claim 4,
The width of the narrowest line among the P types of lines associated with the P filters that can be used by the first determination unit is the Q associated with the Q filters that can be used by the second determination unit. Thinner than the width of the thinnest line of types,
Image processing device.
請求項5に記載の画像処理装置であって、
前記入力画像データに前記エッジ画素を用いる画像処理を行うことによって、印刷用の画像データである出力データを生成する出力データ生成部と、
前記出力データを、色材を利用して画像を印刷する印刷実行部に供給する供給部と、
を備え、
前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅は、前記印刷実行部によって利用される色材の滲み特性に基づいて、予め決定されている、
画像処理装置。
The image processing apparatus according to claim 5,
An output data generation unit that generates output data that is image data for printing by performing image processing using the edge pixels on the input image data;
A supply unit that supplies the output data to a print execution unit that prints an image using a color material;
With
The narrowest line width among the Q types of lines associated with the Q filters that can be used by the second determination unit is determined in advance based on the bleeding characteristics of the color material used by the print execution unit. Being
Image processing device.
画像処理のためのコンピュータプログラムであって、
入力画像を表す入力画像データを取得する入力画像データ取得機能と、
前記入力画像データを用いて、複数の画素のそれぞれの明るさの度合いである複数個の輝度値を含む輝度画像データを取得する輝度画像データ取得機能と、
前記輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する第1判断機能であって、前記第1種の特定領域は複数の画素が連続する領域であり、前記第1種の特定領域は第2種の特定領域と比べて明るさが暗い領域である、前記第1判断機能と、
前記輝度画像データを用いて、前記注目画素が、前記第2種の特定領域に含まれるか否かを判断する第2判断機能であって、前記第2種の特定領域は複数の画素が連続する領域であり、前記第2種の特定領域は前記第1種の特定領域と比べて明るさが明るい領域である、前記第2判断機能と、
前記輝度画像データを平滑化することによって平滑化データを生成する平滑化データ生成機能であって、前記複数の画素のうち、前記第1種の特定領域に含まれると判断される画素の輝度値と前記第2種の特定領域に含まれると判断される画素の輝度値とを平滑化せずに、前記第1種の特定領域に含まれると判断されず、かつ、前記第2種の特定領域に含まれると判断されない画素の輝度値を平滑化することによって、前記平滑化データを生成する、前記平滑化データ生成機能と、
前記平滑化データを用いて、前記入力画像内のエッジを表すエッジ画素を検出する検出機能と、
をコンピュータに実現させる、コンピュータプログラム。
A computer program for image processing,
An input image data acquisition function for acquiring input image data representing an input image;
Using the input image data, a luminance image data acquisition function for acquiring luminance image data including a plurality of luminance values that are degrees of brightness of a plurality of pixels,
A first determination function for determining whether or not a target pixel is included in a first type of specific region using the luminance image data, wherein the first type of specific region is a region in which a plurality of pixels are continuous. The first determination function, wherein the first type specific area is an area that is darker than the second type specific area;
A second determination function for determining whether or not the target pixel is included in the second type of specific region using the luminance image data, wherein a plurality of pixels are continuous in the second type of specific region. The second determination function, wherein the second type specific area is an area brighter than the first type specific area;
A smoothed data generation function for generating smoothed data by smoothing the brightness image data, and the brightness value of a pixel determined to be included in the first type specific region among the plurality of pixels And the luminance value of the pixel determined to be included in the second type of specific area are not determined to be included in the first type of specific area without being smoothed, and the second type of specific value is determined. The smoothed data generation function for generating the smoothed data by smoothing luminance values of pixels that are not determined to be included in the region; and
A detection function for detecting edge pixels representing edges in the input image using the smoothed data;
A computer program that causes a computer to realize
JP2017070795A 2017-03-31 2017-03-31 Image processing equipment and computer programs Active JP6794901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070795A JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070795A JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Publications (2)

Publication Number Publication Date
JP2018174418A true JP2018174418A (en) 2018-11-08
JP6794901B2 JP6794901B2 (en) 2020-12-02

Family

ID=64108822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070795A Active JP6794901B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Country Status (1)

Country Link
JP (1) JP6794901B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118628941A (en) * 2024-08-07 2024-09-10 中科云谷科技有限公司 Slope detection method, device, drone and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118628941A (en) * 2024-08-07 2024-09-10 中科云谷科技有限公司 Slope detection method, device, drone and storage medium

Also Published As

Publication number Publication date
JP6794901B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP6031286B2 (en) Image processing apparatus and image processing method
JP4700721B2 (en) Image processing device
US9497353B2 (en) Image processing apparatus, image processing method, and image processing system
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
JP2008252700A (en) Image processing apparatus and image processing method
CN108012046A (en) Device, method and the storage medium of image are formed on the print medium
JP4957668B2 (en) Image processing device
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2007013551A (en) Image processing apparatus and image processing method
US11503188B2 (en) Image processing apparatus, control method for controlling image processing apparatus, and storage medium
JP6794901B2 (en) Image processing equipment and computer programs
JP2004350240A (en) Image processing apparatus and image processing method
JP6882043B2 (en) Image processing equipment, programs and image processing methods
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2015088910A (en) Image processing device
JP6834701B2 (en) Image processing equipment and computer programs
JP2019134232A (en) Image formation device, and method and program for the device
JP5165043B2 (en) Device, method and program capable of detecting line
JP2018174420A (en) Image processing apparatus and computer program
JP3944032B2 (en) Image processing apparatus and method
JP6995594B2 (en) Information processing equipment, information processing methods and programs
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP4165599B2 (en) Image processing device
JP5165137B2 (en) Device, method and program capable of detecting line

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201026

R150 Certificate of patent or registration of utility model

Ref document number: 6794901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150