JPH1166297A - Image processing apparatus and method - Google Patents
Image processing apparatus and methodInfo
- Publication number
- JPH1166297A JPH1166297A JP9221649A JP22164997A JPH1166297A JP H1166297 A JPH1166297 A JP H1166297A JP 9221649 A JP9221649 A JP 9221649A JP 22164997 A JP22164997 A JP 22164997A JP H1166297 A JPH1166297 A JP H1166297A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- image data
- luminance
- value
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
(57)【要約】
【課題】 中間調領域と文字領域が混在する原稿を読み
取って得られる画像データに基づいて画像を再現する場
合に、簡単な構成で中間調領域を忠実に再現しながら文
字領域については尖鋭化した画像を再現する。
【解決手段】 第1パラメータ抽出部104は入力され
た画像データの輝度に基づいてパラメータを獲得する。
そして、強調処理判定部105は、パラメータに対しエ
ッジ強調を実行するか否かを判定する。また、第2パラ
メータ抽出部106は画像データの輝度に基づいてパラ
メータを獲得する。そして、獲得されたパラメータに対
しエッジ強調を実行して得られるエッジ量が所定の閾値
以上であるか否かをエッジ量演算部108が判定する。
この判定結果、エッジ量が所定の閾値以上である場合、
エッジ量加算部109は入力された画像データに対しエ
ッジ強調を実行する。
(57) [Problem] To reproduce an image based on image data obtained by reading a document in which a halftone area and a character area are mixed, and to reproduce a halftone area faithfully with a simple configuration For the region, a sharpened image is reproduced. SOLUTION: A first parameter extracting unit 104 acquires a parameter based on luminance of input image data.
Then, the enhancement processing determination unit 105 determines whether to perform edge enhancement on the parameter. Further, the second parameter extracting unit 106 acquires a parameter based on the luminance of the image data. Then, the edge amount calculation unit 108 determines whether or not the edge amount obtained by executing the edge enhancement on the obtained parameter is equal to or larger than a predetermined threshold.
As a result of this determination, if the edge amount is equal to or greater than a predetermined threshold,
The edge amount adding unit 109 performs edge enhancement on the input image data.
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】本発明は、入力された画像デ
ータを処理する画像処理装置及び方法に関するものであ
る。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and method for processing input image data.
【0002】[0002]
【従来の技術】従来よりディジタル複写機、ディジタル
ファクシミリ等の画像処理装置において、原稿を良好に
再現するために原稿の種類によって、例えば、文字原稿
の場合は固定閾値による2値化法、自然画、写真等の中
間調原稿ではディザ法や誤差拡散法(ED法)等による
2値化法を採用してきた。この切換は、一般に外部キー
の操作によって行われる。2. Description of the Related Art Conventionally, in an image processing apparatus such as a digital copying machine or a digital facsimile, in order to reproduce an original satisfactorily, depending on the type of the original, for example, in the case of a character original, a binarization method using a fixed threshold, a natural image, etc. For halftone originals such as photographs and the like, a binarization method such as a dither method or an error diffusion method (ED method) has been adopted. This switching is generally performed by operating an external key.
【0003】しかしながら、原稿の種別をキー操作によ
って決定するための操作が煩わしいという問題を抱えて
いる。また、1ページの原稿内に文字や写真が混在した
原稿の場合は、いずれか一方の処理では良好な画像を得
ることはできない。However, there is a problem that the operation for determining the type of the original by key operation is troublesome. In the case of a document in which characters and photographs are mixed in a one-page document, a good image cannot be obtained by either one of the processes.
【0004】そこで、像域分離の手法を用いて原稿内の
文字領域と中間調領域を自動的に判別し画像の種類に応
じて処理方法を切り換える方法(像域分離法)をいくつ
か提案してきた。Therefore, several methods (image area separation method) have been proposed in which a character area and a halftone area in a document are automatically discriminated using an image area separation technique, and a processing method is switched according to the type of image. Was.
【0005】その中でも、簡単なものとしては、注目画
素を含む参照マトリクス内の最大値と最小値の差である
画素データの輝度差をパラメータをして抽出し、その抽
出したパラメータをある固定閾値と比較するものであ
る。また、輝度データを濃度データに変化した後に得ら
れるK(黒)成分の値によって文字領域と中間調領域を
判別するものもある。Among them, as a simple one, a luminance difference of pixel data which is a difference between a maximum value and a minimum value in a reference matrix including a target pixel is extracted as a parameter, and the extracted parameter is extracted as a fixed threshold value. It is to compare with. In some cases, a character area and a halftone area are determined based on the value of a K (black) component obtained after changing luminance data into density data.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、輝度差
をパラメータとして原稿内の文字領域と中間調領域を判
別する場合、入力された画像データはR,G,Bの3色
の色成分からなる画像データであるため、その画像デー
タの処理を行う演算回路は色成分毎に構成する必要があ
り、回路規模や処理時間が増大するという問題があっ
た。However, in the case where a character area and a halftone area in a document are discriminated using the luminance difference as a parameter, the input image data is an image composed of three color components of R, G and B. Since the data is data, it is necessary to configure an arithmetic circuit for processing the image data for each color component, and there is a problem that a circuit scale and a processing time increase.
【0007】また、一般に輝度差が小さければ中間調領
域、大きければ文字領域として判定するため、背景部
(白地)や自然画、写真等ではない濃度の濃い部分も中
間調領域として判定される。そして、中間調領域として
判定された背景部(白地)や自然画、写真等ではない濃
度の濃い部分からなる領域に対し、濃度保存型の量子化
処理を行うとこの領域に粒状性のノイズが発生してしま
うということがある。In general, if the luminance difference is small, it is determined as a halftone area, and if it is large, it is determined as a character area. Therefore, a high-density part other than a background (white background), a natural image, or a photograph is also determined as a halftone area. When a density-preserving quantization process is performed on a region including a background portion (white background), a natural image, a photograph, or the like, which is determined as a halftone region, and a high-density portion, granular noise is generated in this region. It can happen.
【0008】そのため、この領域のノイズの発生を防止
する方法の一つとして、背景部(白地)や濃度の濃い部
分からなる領域を識別し、ノイズが発生しないような閾
値処理を行うことが考えられる。しかしながら、このよ
うな閾値処理は、実際の中間調領域も背景部(白地)や
自然画、写真等ではない濃度の濃い部分からなる領域と
判定されてしまうため、粒状性のノイズの発生を防止す
ることはできるものの、逆に中間調領域(自然画、写真
等からなる領域)を忠実に際限できないという問題点が
あった。Therefore, as one of the methods for preventing the generation of noise in this area, it is conceivable to identify a region consisting of a background portion (white background) or a high-density portion and perform threshold processing so that no noise is generated. Can be However, such threshold processing prevents an actual halftone area from being a background area (white background), a natural image, a photograph, or the like, and is determined to be an area composed of high-density parts. However, there is a problem that a halftone area (an area composed of a natural image, a photograph, and the like) cannot be faithfully limited.
【0009】本発明は上記の問題点に鑑みてなされたも
のであり、中間調領域と文字領域が混在する原稿を読み
取って得られる画像データに基づいて画像を再現する場
合に、簡単な構成で中間調領域を忠実に再現しながら文
字領域については尖鋭化した画像を再現することができ
る画像処理装置及びその方法を提供することを目的とし
ている。SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has a simple configuration for reproducing an image based on image data obtained by reading a document in which a halftone area and a character area are mixed. It is an object of the present invention to provide an image processing apparatus and method capable of reproducing a sharpened image of a character area while faithfully reproducing a halftone area.
【0010】[0010]
【課題を解決するための手段】この課題を解決するた
め、例えば本発明の画像処理装置は以下の構成を備え
る。すなわち、入力された画像データを処理する画像処
理装置であって、入力された画像データの輝度に基づい
てパラメータを獲得する第1の獲得手段と、前記第1の
獲得手段で構成されるパラメータに対しエッジ強調を実
行するか否かを判定する第1の判定手段と、前記入力さ
れた画像データの輝度に基づいてパラメータを獲得する
第2の獲得手段と、前記第2の獲得手段で獲得されるパ
ラメータに対しエッジ強調を実行して得られるエッジ量
が所定の閾値以上であるか否かを判定する第2の判定手
段と、前記第2の判定手段による判定の結果、前記エッ
ジ量が所定の閾値以上である場合、前記入力された画像
データに対しエッジ強調を実行する実行手段とを備え
る。To solve this problem, for example, an image processing apparatus according to the present invention has the following arrangement. That is, an image processing apparatus that processes input image data, wherein a first obtaining unit that obtains a parameter based on luminance of the input image data, and a parameter that is configured by the first obtaining unit. On the other hand, a first determination unit that determines whether or not to perform edge enhancement, a second acquisition unit that acquires a parameter based on the luminance of the input image data, and an image acquired by the second acquisition unit. A second determining means for determining whether or not an edge amount obtained by performing edge enhancement on a parameter is equal to or greater than a predetermined threshold value; and a result of the determination by the second determining means, the edge amount is determined to be a predetermined value. Execution means for executing edge enhancement on the input image data when the threshold value is equal to or more than the threshold value.
【0011】[0011]
【発明の実施の形態】以下、添付図面に従って本発明に
係る実施形態を詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
【0012】<第1の実施形態>図1は第1の実施形態
の画像処理装置の構成を示したブロック図である。<First Embodiment> FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to a first embodiment.
【0013】図1において、101は原稿の読み取りを
行うスキャナである。スキャナ101は、CCD(固定
撮像素子)イメージセンサ、またはCS(コンタクトセ
ンサ)で構成されている。101aはスキャナ101か
ら出力されるアナログビデオ信号である。In FIG. 1, reference numeral 101 denotes a scanner for reading a document. The scanner 101 includes a CCD (fixed image sensor) image sensor or a CS (contact sensor). Reference numeral 101a denotes an analog video signal output from the scanner 101.
【0014】102はアナログ信号101aに前処理を
行う前処理部であり、この前処理部102における処理
については後で詳細に説明する。102aは前処理部1
02において1画素あたり8bitに量子化されたR,
G,Bの多値の輝度データである。Reference numeral 102 denotes a pre-processing unit that performs pre-processing on the analog signal 101a. The processing in the pre-processing unit 102 will be described later in detail. 102a is the preprocessing unit 1
02, R quantized to 8 bits per pixel,
G and B multi-valued luminance data.
【0015】103はR,G,Bの各色成分の輝度デー
タを格納するバッファであり、104はバッファ103
に格納されたR,G,Bの各色成分の輝度データからエ
ッジ強調処理を実行するか否かを判定するのに必要なパ
ラメータを抽出する第1のパラメータ抽出部である(詳
細は後述)。105は第1のパラメータ抽出部104に
よって抽出されたパラメータに基づき強調処理を行うか
否かの判定を行う強調処理判定部である。Reference numeral 103 denotes a buffer for storing luminance data of each of R, G, and B color components;
Is a first parameter extraction unit that extracts parameters necessary to determine whether or not to execute the edge enhancement process from the luminance data of each of the R, G, and B color components stored in the first parameter extraction unit (details will be described later). Reference numeral 105 denotes an emphasis processing determination unit that determines whether to perform the emphasis processing based on the parameters extracted by the first parameter extraction unit 104.
【0016】106はバッファ103に格納されたR,
G,Bの各色成分の輝度データからエッジ強調処理を実
行するのに必要なパラメータを抽出する第2のパラメー
タ抽出部であり(詳細は後述)、107は第2パラメー
タ抽出部106で抽出されたエッジ強調処理に必要なパ
ラメータを格納するバッファである。Reference numeral 106 denotes R stored in the buffer 103,
A second parameter extraction unit extracts parameters necessary for executing the edge enhancement process from the luminance data of each of the G and B color components (details will be described later). Reference numeral 107 denotes the second parameter extraction unit 106. This is a buffer for storing parameters necessary for edge enhancement processing.
【0017】108は抽出されたパラメータによって注
目画素のエッジ量を演算するエッジ量演算部である(詳
細は後述)。Reference numeral 108 denotes an edge amount calculation unit that calculates the edge amount of the pixel of interest based on the extracted parameters (details will be described later).
【0018】109はエッジ量演算部108で求められ
たエッジ量を、注目画素に加算するエッジ量加算部であ
る。An edge amount adding unit 109 adds the edge amount obtained by the edge amount calculating unit 108 to the target pixel.
【0019】110は輝度データから濃度データへの変
換を行うための輝度濃度変換部であり、LUT等の変換
テーブルで構成されている。この変換テーブルは、RO
MもしくはRAMによって構成されている。尚、ここで
入力される輝度データ及び出力される濃度データは各色
成分につき8bitのデータである。Reference numeral 110 denotes a luminance / density conversion unit for converting luminance data into density data, and is constituted by a conversion table such as an LUT. This conversion table is RO
M or RAM. The input luminance data and output density data are 8-bit data for each color component.
【0020】111は輝度濃度変換部110で変換され
た濃度データの補正を行う濃度補正部であり、LUT等
の複数の補正テーブル及び演算回路で構成されている。
尚、ここで入力される濃度データ、濃度補正後の濃度デ
ータの各色成分はともに8bitのデータである。ま
た、この補正テーブルはROMもしくはRAMによって
構成されている。Reference numeral 111 denotes a density correction unit for correcting the density data converted by the brightness / density conversion unit 110, and is constituted by a plurality of correction tables such as an LUT and an arithmetic circuit.
Each color component of the density data input here and the density data after the density correction is 8-bit data. This correction table is constituted by a ROM or a RAM.
【0021】112は多値データである濃度データを2
値データに量子化する誤差拡散処理部である。113は
誤差拡散処理部112からの2値データに基づき、画像
を記録するプリンタである。このプリンタは、通常の記
録装置に用いられる熱転写方式、レーザビームなどを用
いた電子写真方式、インクジェット方式等のプリンタに
より構成されている。Reference numeral 112 denotes density data, which is multi-value data, of 2
An error diffusion processing unit that quantizes the value data. A printer 113 records an image based on the binary data from the error diffusion processing unit 112. This printer is configured by a printer of a thermal transfer system, an electrophotographic system using a laser beam, or the like, which is used for a normal recording apparatus, an inkjet system, or the like.
【0022】次に、第1の実施形態の画像処理装置にお
ける全体の処理内容を図2のフローチャートに従って説
明する。Next, the entire processing content of the image processing apparatus according to the first embodiment will be described with reference to the flowchart of FIG.
【0023】まず、ステップS201は、スキャナ10
1で実行される原稿を読み取る処理を示している。スキ
ャナ101で、読み取られたアナログビデオ信号101
aは前処理部102へ送られる。First, in step S201, the scanner 10
1 shows a process of reading a document performed in step S1. The analog video signal 101 read by the scanner 101
a is sent to the preprocessing unit 102.
【0024】次に、ステップS202は、前処理部10
2で実行される処理を示している。前処理部102で
は、図1に示したようにアナログビデオ信号101aを
8bitのディジタル画像データ102aに量子化す
る。このディジタル画像データ102aはR,G,Bの
各色成分の輝度データであり、これはバッファ103へ
送られる。Next, in step S202, the pre-processing unit 10
2 shows the processing executed. In the pre-processing unit 102, the analog video signal 101a is quantized into 8-bit digital image data 102a as shown in FIG. The digital image data 102 a is luminance data of each color component of R, G, and B, and is sent to the buffer 103.
【0025】次のステップS202は、パラメータ抽出
部104、強調処理判定部105、パラメータ抽出部1
06、バッファ107、エッジ量演算部108、エッジ
量加算部109で実行される一連のエッジ強調処理を示
している。パラメータ抽出部104、強調処理判定部1
05、パラメータ抽出部106、バッファ107、エッ
ジ量演算部108、エッジ量加算部109で実行される
処理によって、画像データのエッジ強調処理を行い、輝
度濃度変換部110へエッジ強調された画像データを送
る。In the next step S202, the parameter extracting section 104, the emphasis processing determining section 105, and the parameter extracting section 1
06, a buffer 107, an edge amount calculating unit 108, and an edge amount adding unit 109. Parameter extraction unit 104, emphasis processing determination unit 1
05, the edge extraction processing of the image data is performed by the processing executed by the parameter extraction unit 106, the buffer 107, the edge amount calculation unit 108, and the edge amount addition unit 109, and the edge-enhanced image data is sent to the luminance / density conversion unit 110. send.
【0026】尚、本実施形態におけるエッジ強調処理
は、後述するパラメータによって、画像データのうち、
特に文字領域を示す画像データに対して行われることに
なる。The edge emphasizing process in the present embodiment is performed based on the parameters described later in the image data.
In particular, this is performed for image data indicating a character area.
【0027】ステップS204は、輝度濃度変換部11
0で実行される変換処理を示している。In step S204, the brightness / density conversion unit 11
0 shows a conversion process executed at 0.
【0028】また、ステップS205は、濃度補正部1
10で実行される変換処理を示している。輝度濃度変換
部110では、ステップS203においてエッジ強調処
理された輝度データの輝度濃度変換を行い、さらに変換
された濃度データを濃度補正部111で濃度補正を行
う。濃度補正後の濃度データは、誤差拡散処理部112
へ送られる。そして最後にステップS206は、誤差拡
散処理部112における2値化処理を示している。誤差
拡散処理部112では、誤差拡散法による2値化処理を
行う。In step S205, the density correction unit 1
10 shows a conversion process executed in step S10. The luminance / density conversion unit 110 performs luminance / density conversion of the luminance data subjected to the edge enhancement processing in step S <b> 203, and the density correction unit 111 performs density correction on the converted density data. The density data after density correction is output to the error diffusion processing unit 112.
Sent to Finally, step S206 shows a binarization process in the error diffusion processing unit 112. The error diffusion processing unit 112 performs a binarization process using an error diffusion method.
【0029】次に、第1の実施形態の図2で示されるエ
ッジ強調処理(ステップS203)について、図3のフ
ローチャートを用いて説明する。Next, the edge emphasizing process (step S203) shown in FIG. 2 of the first embodiment will be described with reference to the flowchart of FIG.
【0030】ステップS301は、エッジ強調をするか
否かの判定を行うためのパラメータを抽出する処理を示
している。本実施形態では、R,G,Bの各輝度値(各
8ビットであることは既に説明した)の中から最大値と
最小値をピックアップする。Step S301 shows a process of extracting a parameter for determining whether or not to perform edge enhancement. In the present embodiment, the maximum value and the minimum value are picked up from among the luminance values of R, G, and B (each having 8 bits has already been described).
【0031】次に、ステップS302は、ステップS3
01で抽出されたパラメータと任意の閾値とを比較す
る。具体的には、ある閾値th1よりも抽出した最大値
が小さいか、または、ある閾値th2よりも抽出した最
小値が大きいかどうかの比較を行う。この比較結果、い
ずれかの不等式を満足した場合にはステップS303に
進み、いずれも満足しなかった場合には強調処理を行わ
ないとして決定する。Next, step S302 is replaced with step S3.
01 is compared with an arbitrary threshold value. Specifically, a comparison is made as to whether the maximum value extracted is smaller than a certain threshold th1 or whether the minimum value extracted is larger than a certain threshold th2. As a result of the comparison, if any of the inequalities is satisfied, the process proceeds to step S303. If none of the inequalities is satisfied, it is determined that the enhancement process is not performed.
【0032】ステップS303は、ステップS302で
強調処理を行うと判定された場合の処理で、エッジ量を
演算するためのパラメータ、本実施形態では輝度の最小
値を獲得する。Step S303 is a process in the case where it is determined in step S302 that the emphasizing process is to be performed. In step S303, a parameter for calculating an edge amount, in this embodiment, a minimum value of luminance is acquired.
【0033】ステップS304は、ステップS303で
抽出された演算用のパラメータを用いてエッジ量を演算
する。具体的にはラプラシアンによる演算を行う。In step S304, an edge amount is calculated using the calculation parameters extracted in step S303. Specifically, a calculation based on Laplacian is performed.
【0034】ステップS305は、ステップS304で
求められたエッジ量についてそのエッジ量を加算するか
否かを判定する。具体的にはある閾値thとエッジ量を
比較し、閾値以下の場合はエッジ強調を終了する。In step S305, it is determined whether the edge amount obtained in step S304 is to be added. More specifically, the threshold value th is compared with the edge amount, and if the threshold value is equal to or smaller than the threshold value, the edge enhancement ends.
【0035】ステップS306では、ステップS305
でエッジ量を加算とすると判断された場合に求められた
エッジ量を加算する。ソフトウェアでは並列に処理を進
めることはできないが、ハードウェアによる構成では上
記ステップS301のパラメータ抽出とステップS30
3のパラメータ抽出を同時に行うことが可能であるし、
他もパイプライン処理することで効率よく強調処理が行
われる。In step S306, step S305
When it is determined that the edge amount is to be added, the obtained edge amount is added. Although the processing cannot be performed in parallel by software, in a hardware configuration, the parameter extraction in step S301 and the
It is possible to perform parameter extraction of 3 at the same time,
The other processing is efficiently performed by pipeline processing.
【0036】以上が実施形態における各構成要素のおお
まかな動作処理内容であるが、如何にその詳細を説明す
る。The general operation processing of each component in the embodiment has been described above. The details will be described.
【0037】まず、スキャナ101、前処理部102の
詳細な構成について、図4を用いて説明する。First, the detailed configurations of the scanner 101 and the preprocessing unit 102 will be described with reference to FIG.
【0038】図3は第1の実施形態のスキャナ101、
前処理部102の詳細な構成を示したブロック図であ
る。図示において、401は装置全体の制御を行なうC
PUであるが、スキャナ101や前処理部102だけの
ための単独のCPUであっても良い。FIG. 3 shows a scanner 101 according to the first embodiment.
FIG. 3 is a block diagram showing a detailed configuration of a preprocessing unit 102. In the figure, reference numeral 401 denotes C for controlling the entire apparatus.
Although it is a PU, it may be a single CPU for only the scanner 101 and the preprocessing unit 102.
【0039】402はスキャナ403を駆動する駆動部
であり、404は読み取り原稿である。405はCCD
センサ、406はCCDセンサ405からのアナログ出
力信号をディジタル信号に変換するA/D変換器であ
る。ここでは、10bitのA/D変換器を想定してい
る。407はA/D変換器406のディジタル信号に基
づき入力信号の補正を行う画像信号補正回路である。Reference numeral 402 denotes a driving unit for driving the scanner 403, and reference numeral 404 denotes a document to be read. 405 is a CCD
A sensor 406 is an A / D converter for converting an analog output signal from the CCD sensor 405 into a digital signal. Here, a 10-bit A / D converter is assumed. An image signal correction circuit 407 corrects an input signal based on a digital signal of the A / D converter 406.
【0040】スキャンの制御は、CPU401によって
行われる。CPU401は、まずスキャナ403が原稿
404に対してスキャンを行うように駆動系402に信
号を出力し、その後はスキャナの光源から出された光を
受けた原稿404からの反射光が検出手段であるCCD
センサ405により原稿404の画像情報が検出され、
A/D変換器406でRGB各10bitのディジタル
信号に変換(量子化)された後、この信号に基づいて画
像信号補正回路で各色成分につき8bitの出力へと変
換する際入力レベルの補正(感度ムラ及び光源の配光特
性の歪みであるシェーディング歪みの補正)をかけ、さ
らにこの信号を基にCPU401は駆動系402に信号
を出力し、スキャナの動作を制御する。プリスキャン時
はRGBのうちG成分のみなど一色の信号でスキャンを
行う。尚、405のCCDセンサはCS(コンタクトセ
ンサ)でもよい。Scan control is performed by the CPU 401. The CPU 401 first outputs a signal to the drive system 402 so that the scanner 403 scans the document 404, and thereafter, reflected light from the document 404 receiving light emitted from the light source of the scanner is a detection unit. CCD
Image information of the document 404 is detected by the sensor 405,
After being converted (quantized) into 10-bit RGB digital signals by the A / D converter 406, the input signal is corrected (sensitivity) when an image signal correction circuit converts each color component to an 8-bit output based on this signal. The CPU 401 outputs a signal to the drive system 402 based on this signal, and controls the operation of the scanner. At the time of pre-scanning, scanning is performed using one color signal such as only the G component of RGB. The CCD sensor 405 may be a CS (contact sensor).
【0041】次にバッファ103とパラメータ抽出部1
04の詳細な構成及びその動作について、図5を用いて
説明する。Next, the buffer 103 and the parameter extracting unit 1
The detailed configuration and operation of the device 04 will be described with reference to FIG.
【0042】図5は第1の実施形態のバッファ103と
パラメータ抽出部104の構成を示したブロック図であ
る。FIG. 5 is a block diagram showing a configuration of the buffer 103 and the parameter extracting unit 104 according to the first embodiment.
【0043】バッファ103内のメモリ501に格納さ
れている画像データのうち、注目画素のR,G,Bの各
色成分の中から、最大値及び最小値をパラメータとして
抽出するパラメータ抽出回路502(パラメータ抽出部
104)を経てパラメータが抽出される。パラメータの
抽出はR,G,B各色の輝度値の大小を比較することに
よって行われる。In the image data stored in the memory 501 in the buffer 103, a parameter extracting circuit 502 (parameter) for extracting the maximum value and the minimum value as parameters from the R, G, and B color components of the target pixel. The parameters are extracted through the extraction unit 104). The extraction of the parameters is performed by comparing the magnitudes of the luminance values of the R, G, and B colors.
【0044】ここで、パラメータ抽出回路502の一構
成例について、図6を用いて説明する。Here, an example of the configuration of the parameter extraction circuit 502 will be described with reference to FIG.
【0045】図6は第1の実施形態のパラメータ抽出回
路502の一構成例を示したブロック図である。FIG. 6 is a block diagram showing an example of the configuration of the parameter extracting circuit 502 according to the first embodiment.
【0046】601は注目画素R,G,Bの各色成分の
輝度データを格納してあるメモリである。A memory 601 stores luminance data of each color component of the target pixel R, G, B.
【0047】602はメモリ601に格納されている注
目画素の輝度データのG成分601とB成分601cか
ら、それらの輝度値の大小を比較するコンパレータであ
る。コンパレータの構成については後で詳述する。Reference numeral 602 denotes a comparator for comparing the magnitudes of the luminance values of the G component 601 and the B component 601c of the luminance data of the target pixel stored in the memory 601. The configuration of the comparator will be described later in detail.
【0048】602aは最大値を演算する場合は輝度値
の大きい方、最小値を演算する場合は輝度値の小さい方
の輝度データの成分である。Reference numeral 602a denotes a luminance data component having a larger luminance value when the maximum value is calculated, and a luminance data component having a smaller luminance value when the minimum value is calculated.
【0049】603はラッチ回路であり、603aは上
記と同じ目的とする輝度データの成分である。Reference numeral 603 denotes a latch circuit, and reference numeral 603a denotes the same luminance data component as the above.
【0050】604はコンパレータであり、メモリ60
1に格納されている注目画素の輝度データのR成分60
1aとコンパレータ601によって求められた目的とす
る輝度データの成分を比較する。Reference numeral 604 denotes a comparator.
R component 60 of the luminance data of the pixel of interest stored in
1a is compared with the target luminance data component obtained by the comparator 601.
【0051】このような回路構成にすることで、最大値
を演算する場合は輝度の大きい方、最小値を演算する場
合は輝度の小さい方をパラメータとして選択、抽出する
ことができる。By adopting such a circuit configuration, it is possible to select and extract, as a parameter, a larger luminance when calculating the maximum value and a smaller luminance when calculating the minimum value.
【0052】図7は第1の実施形態のパラメータ抽出回
路502の他の構成例を示したブロック図である。FIG. 7 is a block diagram showing another example of the configuration of the parameter extraction circuit 502 of the first embodiment.
【0053】701は注目画素R,G,Bの各色成分の
輝度データを格納してあるメモリである。A memory 701 stores luminance data of each color component of the target pixel R, G, B.
【0054】703はメモリ701に格納されている注
目画素の各色成分の輝度データのG成分及びB成分をク
ロック入力によってどちらかを出力するマルチプレクサ
である。702も同じマルチプレクサで最初は輝度デー
タのR成分を出力する。704はコンパレータであり、
R成分と、G成分及びB成分のうちどちらかの輝度値の
大小を比較する。705はラッチ回路であり、コンパレ
ータ704の出力をラッチする。その出力はマルチプレ
クサ702を通して、今度は先程選択されなかったG成
分及びB成分のうちどちらかとコンパレータ704で比
較される。これによってR,G,Bの各色成分の輝度デ
ータのうち、最大値及び最小値を演算することができ
る。A multiplexer 703 outputs either the G component or the B component of the luminance data of each color component of the target pixel stored in the memory 701 in response to a clock input. The same multiplexer 702 first outputs the R component of the luminance data. 704 is a comparator,
The R component is compared with the luminance value of one of the G component and the B component. A latch circuit 705 latches the output of the comparator 704. The output is passed through a multiplexer 702 and compared by a comparator 704 with either the G component or the B component that was not selected previously. As a result, the maximum value and the minimum value of the luminance data of each of the R, G, and B color components can be calculated.
【0055】このような回路構成にすることで、図6に
示したパラメータ抽出回路502よりも小さい回路構成
でパラメータ抽出回路502を構成することができる。With such a circuit configuration, the parameter extraction circuit 502 can be configured with a smaller circuit configuration than the parameter extraction circuit 502 shown in FIG.
【0056】但し、図7に示したパラメータ抽出回路5
02は、図6に示したパラメータ抽出回路502よりも
処理時間が長くかかるので目的に応じて図6、図7に示
した回路構成のいずれかを選択して用いればよい。However, the parameter extraction circuit 5 shown in FIG.
02 requires a longer processing time than the parameter extraction circuit 502 shown in FIG. 6, so any one of the circuit configurations shown in FIGS. 6 and 7 may be selected and used according to the purpose.
【0057】ここで、図6、図7に用いられているコン
パレータの構成を、図8を用いて説明する。Here, the configuration of the comparator used in FIGS. 6 and 7 will be described with reference to FIG.
【0058】図8は第1の実施形態の図6、図7に用い
られているコンパレータの構成を示したブロック図であ
る。FIG. 8 is a block diagram showing the configuration of the comparator used in FIGS. 6 and 7 of the first embodiment.
【0059】801は入力される輝度データに対応する
ビット数を持つコンパレータであり、801aは出力信
号である。802は比較の対象となる2つの輝度データ
(データa、データb)をコンパレータ801の出力信
号によって選択するセレクタである。尚、このコンパレ
ータは、後述する図9、図11、図17、図23でも用
いられている。Reference numeral 801 denotes a comparator having the number of bits corresponding to the input luminance data, and reference numeral 801a denotes an output signal. A selector 802 selects two pieces of luminance data (data a and data b) to be compared based on an output signal of the comparator 801. This comparator is also used in FIGS. 9, 11, 17, and 23 described later.
【0060】次に強調処理判定部105の構成を図9を
用いて説明する。Next, the configuration of the emphasis processing determination unit 105 will be described with reference to FIG.
【0061】図9は第1の実施形態の強調処理判定部1
05の回路構成図である。FIG. 9 shows an emphasis processing judging section 1 according to the first embodiment.
FIG. 5 is a circuit configuration diagram of the embodiment of FIG.
【0062】901はパラメータ抽出回路104で得ら
れた輝度信号の最大値と任意の閾値th1とを比較する
コンパレータである。ここで輝度信号の最大値が閾値t
h1よりも大きい場合はエッジ強調処理を行うことを示
す信号を出力する。A comparator 901 compares the maximum value of the luminance signal obtained by the parameter extraction circuit 104 with an arbitrary threshold value th1. Here, the maximum value of the luminance signal is equal to the threshold value t.
If it is larger than h1, a signal indicating that edge enhancement processing is to be performed is output.
【0063】902はパラメータ抽出回路104で得ら
れた輝度信号の最小値と任意の閾値th2とを比較する
コンパレータである。ここで輝度信号の最小値が閾値t
h2よりも大きい場合アはエッジ強調処理を行うことを
示す信号を出力する。A comparator 902 compares the minimum value of the luminance signal obtained by the parameter extracting circuit 104 with an arbitrary threshold value th2. Here, the minimum value of the luminance signal is a threshold value t.
If it is larger than h2, a outputs a signal indicating that edge enhancement processing is to be performed.
【0064】ここで得られた二つの信号はORゲートを
通して、つまりどちらか一方でも強調処理を行う場合
は、その信号をエッジ量加算部109へ送り、エッジ量
演算部108で求められたエッジ量を加算するかどうか
の判定に使われる。The two signals obtained here pass through an OR gate, that is, when one of them is subjected to the emphasis processing, the signals are sent to the edge amount adding section 109, and the edge amount calculated by the edge amount calculating section 108 is obtained. Is used to determine whether to add.
【0065】次にパラメータ抽出部106とバッファ1
07の構成及びその動作について図10を用いて説明す
る。Next, the parameter extraction unit 106 and the buffer 1
07 and its operation will be described with reference to FIG.
【0066】図10は第1の実施形態のパラメータ抽出
部106とバッファ107の構成を示したブロック図で
ある。FIG. 10 is a block diagram showing the configuration of the parameter extraction unit 106 and the buffer 107 according to the first embodiment.
【0067】バッファ103に格納されている画像デー
タの画素のうち、注目画素のR,G,Bの各色成分の中
から、最大値、最小値、もしくは中間値をパラメータと
して抽出するパラメータ抽出回路1001(パラメータ
抽出部106)を経てパラメータが抽出される。A parameter extraction circuit 1001 for extracting, as a parameter, a maximum value, a minimum value, or an intermediate value from among the R, G, and B color components of the pixel of interest among the pixels of the image data stored in the buffer 103. The parameters are extracted via the (parameter extracting unit 106).
【0068】抽出されたパラメータはメモリ(バッファ
106)1002へ格納される。The extracted parameters are stored in the memory (buffer 106) 1002.
【0069】ここで、パラメータ抽出回路1001の一
構成例について、図11を用いて説明する。Here, an example of the configuration of the parameter extraction circuit 1001 will be described with reference to FIG.
【0070】図11は第1の実施形態のパラメータ抽出
回路1001の一構成例を示したブロック図である。FIG. 11 is a block diagram showing an example of the configuration of the parameter extraction circuit 1001 of the first embodiment.
【0071】1101は注目画素のR,G,Bの各色成
分の輝度データを格納してあるメモリである。Reference numeral 1101 denotes a memory that stores luminance data of each of the R, G, and B color components of the target pixel.
【0072】1102はメモリ1101に格納されてい
る注目画素の輝度データのG成分1101bとB成分1
101cから、それらの輝度値の大小を比較するコンパ
レータである。Reference numeral 1102 denotes a G component 1101b and a B component 1 of the luminance data of the pixel of interest stored in the memory 1101.
From 101c, a comparator for comparing the magnitudes of these luminance values.
【0073】1102aは最大値を演算する場合なら輝
度値の大きい方、最小値を演算する場合なら輝度値の小
さい方の輝度データの成分である。Reference numeral 1102a denotes the luminance data component having the larger luminance value when the maximum value is calculated, and the luminance data component having the smaller luminance value when the minimum value is calculated.
【0074】1103はラッチ回路であり、1103a
は上記と同じ目的とする輝度データの成分である。Reference numeral 1103 denotes a latch circuit;
Is a component of luminance data of the same purpose as above.
【0075】1104はコンパレータであり、メモリ1
101に格納されている注目画素の輝度データのR成分
1101aとコンパレータ1102によって求められた
目的とする輝度データの成分を比較する。Reference numeral 1104 denotes a comparator.
The R component 1101a of the luminance data of the pixel of interest stored in 101 is compared with the component of the target luminance data obtained by the comparator 1102.
【0076】このような回路構成にすることで、最大値
を演算する場合なら大きい方、最小値を演算する場合な
ら小さい方の輝度データの成分をパラメータとして選
択、抽出することができる。なお回路構成は図6と同じ
である。With such a circuit configuration, it is possible to select and extract a component of luminance data which is larger when calculating the maximum value and which is smaller when calculating the minimum value as a parameter. The circuit configuration is the same as in FIG.
【0077】次にエッジ量演算部108で用いられるエ
ッジ強調用のフィルタについて、図12を用いて説明す
る。Next, an edge emphasis filter used in the edge amount calculator 108 will be described with reference to FIG.
【0078】図12は第1の実施形態のエッジ量演算部
108で用いられるエッジ強調用のフィルタを示した図
である。FIG. 12 is a diagram showing an edge emphasis filter used in the edge amount calculation unit 108 according to the first embodiment.
【0079】エッジ量演算部108で用いられるエッジ
強調用のフィルタであるラプラシアンフィルタは画像の
尖鋭化を目的としたもので、主走査方向の解像度の向上
を目的として、画像データの注目画素に対し2次の微分
操作に相当する3×3のマトリクス形状を持つ。そし
て、エッジ量演算部108では、エッジ量を、注目画素
Aのパラメータ抽出部106で抽出され、バッファ10
7でバッファリングされているパラメータ値の4倍から
a,b,c,dの各パラメータW値を減算した値によっ
て求める。The Laplacian filter, which is an edge emphasizing filter used in the edge amount calculation unit 108, is for sharpening an image. For the purpose of improving the resolution in the main scanning direction, a Laplacian filter is used for a target pixel of image data. It has a 3 × 3 matrix shape corresponding to a second-order differentiation operation. Then, in the edge amount calculation unit 108, the edge amount is extracted by the parameter extraction unit 106 of the target pixel A, and
The value obtained by subtracting each parameter W value of a, b, c, and d from four times the parameter value buffered in step 7 is obtained.
【0080】つまり、注目画素のエッジ量は、 4×A−(a+b+c+d) として求める。ここで、Aは注目画素におけるパラメー
タ抽出部106で選られたパラメータを示し、a〜dは
注目画素位置におけるそれぞれの画素位置におけるパラ
メータ抽出部106で選られたパラメータである。That is, the edge amount of the target pixel is obtained as 4 × A− (a + b + c + d). Here, A indicates a parameter of the target pixel selected by the parameter extracting unit 106, and a to d are parameters selected by the parameter extracting unit 106 at each pixel position at the target pixel position.
【0081】さらに、エッジ強調ゲインとの積をとった
後、注目画素の各色成分に加える。また、ノイズの強調
を押さえるため、エッジ量が任意の閾値以下の場合には
エッジ量を注目画素に加えない操作を行う。Further, after multiplying the product with the edge emphasis gain, it is added to each color component of the target pixel. In addition, in order to suppress noise enhancement, an operation is performed in which the edge amount is not added to the target pixel when the edge amount is equal to or less than an arbitrary threshold.
【0082】このような処理によって、特に文字領域を
示す画像データに対しエッジ強調がなされたことにな
る。By such processing, edge emphasis is performed particularly on image data indicating a character area.
【0083】エッジ量加算部108の詳細な構成につい
て、図13を用いて説明する。The detailed configuration of the edge amount adder 108 will be described with reference to FIG.
【0084】図13は第1の実施形態のエッジ量加算部
108の詳細な構成を示したブロック図である。FIG. 13 is a block diagram showing a detailed configuration of the edge amount adding unit 108 according to the first embodiment.
【0085】エッジ量演算部108で求められたエッジ
量はセレクタ1301へ入力される。ここでもう一方の
入力データは0である。セレクト信号はエッジ量がある
閾値以下かどうかを判定する信号で、出力される信号1
301aは判定の結果が大きい場合は演算したエッジ量
を、小さい場合はエッジ量0(つまりエッジ量を加算し
ない)となる。The edge amount calculated by the edge amount calculation unit 108 is input to the selector 1301. Here, the other input data is 0. The select signal is a signal for determining whether or not the edge amount is below a certain threshold value.
In the case 301a, the calculated edge amount is obtained when the determination result is large, and the edge amount is 0 (that is, the edge amount is not added) when the result is small.
【0086】次にセレクタ1302ではセレクタ130
1で出力されたエッジ量とエッジ量“0”とを選択す
る。セレクト信号は強調処理判定部105で出力された
もので、強調処理判定部105で強調処理を行うことが
選択された場合は、セレクタ1301の出力信号を、そ
うでない場合はエッジ量0を出力信号1302aとして
出力する。Next, the selector 1302 selects the selector 130
The edge amount output at step 1 and the edge amount “0” are selected. The select signal is output by the enhancement processing determination unit 105. If the enhancement processing determination unit 105 selects to perform enhancement processing, the output signal of the selector 1301 is output. Otherwise, the edge amount 0 is output. Output as 1302a.
【0087】最終的に求められたエッジ量は加算器13
03,1304,1305のそれぞれの加算器によって
R,G,Bの各画素に加えられる。The finally obtained edge amount is added to the adder 13.
03, 1304, and 1305 are added to R, G, and B pixels, respectively.
【0088】次に、輝度濃度変換部110と濃度補正部
111の詳細な構成及びその動作について、図14を用
いて説明する。Next, the detailed configurations and operations of the luminance / density conversion unit 110 and the density correction unit 111 will be described with reference to FIG.
【0089】図14は第1の実施形態の濃度変換部11
0と濃度補正部111の詳細な構成を示したブロック図
である。FIG. 14 shows the density converter 11 according to the first embodiment.
FIG. 2 is a block diagram showing a detailed configuration of a density correction unit 111 and 0.
【0090】エッジ量を加算されたR,G,Bの各色成
分の輝度データはlog変換部1401で濃度データ1
401aに変換される。log変換部1401は、RO
MまたはRAMによって構成されたLUTによって構成
される。ここでは、R,G,Bの各色成分の輝度データ
はY,M,Cの濃度データ1401aに変換される。The luminance data of each of the R, G, and B color components to which the edge amount has been added is converted into density data 1 by a log converter 1401.
It is converted to 401a. The log conversion unit 1401 calculates RO
It is configured by an LUT configured by M or RAM. Here, the luminance data of each color component of R, G, and B is converted into density data 1401a of Y, M, and C.
【0091】墨生成部1402では、Y,M,Cの各成
分の濃度データ1401aの中から最も小さい濃度値を
持つ濃度データ1402aを算出し、UCR処理部14
03へ送る。The black generation unit 1402 calculates the density data 1402a having the smallest density value from the density data 1401a of each of the Y, M, and C components, and calculates the density data 1402a.
Send to 03.
【0092】UCR処理部1403ではK(黒)成分を
演算し、さらにY,M,Cの各成分から下色であるK成
分を除去する。K成分を除去されたY,M,Cの各成分
とK成分1403aは、マスキング処理部1404へ送
られる。マスキング処理部1404では、プリンタなど
出力先の特性に合わせた濃度補正が行われる。The UCR processing unit 1403 calculates the K (black) component, and further removes the K component, which is an undercolor, from each of the Y, M, and C components. The Y, M, and C components from which the K component has been removed and the K component 1403a are sent to a masking processing unit 1404. The masking processing unit 1404 performs density correction according to the characteristics of the output destination such as a printer.
【0093】以上の処理によって得られる濃度データ1
404aに対し、後述する誤差拡散処理部112におけ
る2値化処理が実行されることになる。The density data 1 obtained by the above processing
The binarization process in the error diffusion processing unit 112 described below is performed on the 404a.
【0094】また、図15は図10のマスキング処理部
1404をマッピング処理部1505によって構成した
ものである。FIG. 15 shows a configuration in which the masking processing section 1404 of FIG.
【0095】マッピング処理部1505では、マスキン
グ処理部1404で実行される処理と同等の効果を上
位、下位ビットを分けたLUTによる参照処理によって
実現している。尚、マッピング処理部1504以前に実
行される処理については図14と同じであるので省略す
る。The mapping processing section 1505 realizes the same effect as the processing executed by the masking processing section 1404 by reference processing using an LUT in which upper and lower bits are separated. Note that processing performed before the mapping processing unit 1504 is the same as that in FIG.
【0096】次に、log変換部1401の詳細な構成
について、図16を用いて説明すR。Next, the detailed configuration of the log converter 1401 will be described with reference to FIG.
【0097】図16は第1の実施形態のlog変換部1
401の詳細な構成を示したブロック図である。FIG. 16 shows a log converter 1 according to the first embodiment.
FIG. 3 is a block diagram showing a detailed configuration of a reference numeral 401.
【0098】図16に示すように、log変換部140
1では、8bitの輝度データ(A0〜A7)の入力に
対して同じく8bitの濃度データ(D0〜D7)を出
力する。そして、R,G,Bの各色成分毎に図のLUT
が必要であり、LUTはROMまたはRAMによって構
成される。As shown in FIG. 16, the log converter 140
In step 1, 8-bit density data (D0 to D7) is output in response to input of 8-bit luminance data (A0 to A7). Then, for each of the R, G, and B color components, the LUT in the figure is used.
Is required, and the LUT is constituted by a ROM or a RAM.
【0099】次に、墨生成部1402の詳細な構成につ
いて、図17を用いて説明する。Next, the detailed configuration of the black generator 1402 will be described with reference to FIG.
【0100】図示は第1の実施形態の墨生成部1402
の詳細な構成を示したブロック図である。1701は濃
度データMとCの大小を比較するコンパレータであり、
小さい値を出力する。1702はラッチ回路で、ラッチ
された濃度データMとCのうち小さい方のデータとYを
コンパレータ1703によって比較する。これによって
濃度データY,M,Cの各成分のうち最小値の成分を
(K成分)を求められる。The illustration shows the black generator 1402 of the first embodiment.
FIG. 3 is a block diagram showing a detailed configuration of FIG. Reference numeral 1701 denotes a comparator for comparing the magnitudes of the density data M and C,
Output a small value. Reference numeral 1702 denotes a latch circuit which compares the smaller of the latched density data M and C with Y by a comparator 1703. As a result, the component having the minimum value (K component) among the components of the density data Y, M, and C can be obtained.
【0101】次に、UCR処理部1403の詳細な構成
について図18を用いて説明する。Next, the detailed configuration of UCR processing section 1403 will be described with reference to FIG.
【0102】図18は第1の実施形態のUCR処理部1
403の詳細な構成を示したブロック図である。FIG. 18 shows the UCR processing unit 1 according to the first embodiment.
FIG. 403 is a block diagram illustrating a detailed configuration of the 403.
【0103】1801はUCR成分生成部で、濃度デー
タY,M,Cの各成分のうち最小値を持つ成分からK成
分を求める。求められたK成分を濃度データY,M,C
の各成分から減算処理するのが1302〜1304まで
の各減算器であり、これによってY’,M’,C’,K
の各成分が求められる。Reference numeral 1801 denotes a UCR component generation unit for obtaining a K component from a component having the minimum value among the components of the density data Y, M, and C. The obtained K component is used as density data Y, M, C
Subtractors 1302 to 1304 perform subtraction processing on each component of Y ′, M ′, C ′, and K ′.
Are determined.
【0104】次に、マッピング処理部1504の詳細な
構成について図19を用いて説明する。Next, the detailed configuration of mapping processing section 1504 will be described with reference to FIG.
【0105】図19は第1の実施形態のマッピング処理
部1504の詳細な構成を示したブロック図である。FIG. 19 is a block diagram showing a detailed configuration of the mapping processing unit 1504 according to the first embodiment.
【0106】UCR処理部1403で求められたY’,
M’,C’,Kの各成分から出力先の特性に合わせた濃
度補正を行う回路であり、各色の上位4bitと下位4
bitを分離しそれぞれをLUTで変換処理し、その結
果から最終的な濃度データを求める。Y ′ obtained by UCR processing section 1403,
This circuit performs density correction in accordance with the characteristics of the output destination from each of the components M ', C', and K. The upper 4 bits and lower 4 bits of each color are provided.
The bits are separated, each is converted by an LUT, and the final density data is obtained from the result.
【0107】次に、誤差拡散処理部112の詳細な構成
について、図20を用いて説明する。Next, a detailed configuration of the error diffusion processing section 112 will be described with reference to FIG.
【0108】図20は第1の実施形態の誤差拡散処理部
112の詳細な構成を示したブロック図である。FIG. 20 is a block diagram showing a detailed configuration of the error diffusion processing section 112 according to the first embodiment.
【0109】濃度補正部111から送られてきたデータ
Xi.j(濃度データ)は既に2値化処理を行った時に
発生した加算器2015からの誤差データE*i.jと
加算器2001で加算される。その誤差で補正されたデ
ータDi.jは以下の式で表される。The data Xi. j (density data) is the error data E * i.j from the adder 2015 generated when the binarization processing has already been performed. j and an adder 2001. The data Di. corrected by the error. j is represented by the following equation.
【0110】Di,j=Xi,j+Ei,j このDi,jはコンパレータ2002において閾値(T
=128)で2値化される。つまり、2値化出力Yi.j
は以下のように表される。Di, j = Xi, j + Ei, j This Di, j is a threshold value (T
= 128) and is binarized. That is, the binarized output Yi.j
Is expressed as follows.
【0111】Di,j≧T のとき Yi,j=255 Di,j<T のとき Yi,j=0 一方、加算器2001から得たDi,jは誤差拡散演算器
2007に送られる。誤差演算器2007ではDi,jと
2値化出力Yi,jに基づき局辺画素に分散する誤差Ei,j
を演算する。即ち、Ei,jは以下のように表すことがで
きる。When Di, j ≧ T, Yi, j = 255 When Di, j <T, Yi, j = 0 On the other hand, Di, j obtained from the adder 2001 is sent to the error diffusion calculator 2007. The error calculator 2007 calculates an error Ei, j distributed to local pixels based on Di, j and the binarized output Yi, j.
Is calculated. That is, Ei, j can be expressed as follows.
【0112】Ei.j=Di,j−Yi,j このE(i,j)は誤差配分値演算回路2008に送ら
れ、誤差配分値演算回路2008では注目画素の周囲4
画素へ配分する誤差の量を演算する。Ei. j = Di, j-Yi, j This E (i, j) is sent to the error distribution value calculation circuit 2008, and the error distribution value calculation circuit 2008
The amount of error to be distributed to pixels is calculated.
【0113】ここで、誤差拡散処理における重みマトリ
クスを図21を用いて説明する。同図1は第1の実施形
態の誤差拡散処理における重みマトリクスを示した図で
ある。Here, the weight matrix in the error diffusion processing will be described with reference to FIG. FIG. 1 is a diagram showing a weight matrix in the error diffusion processing according to the first embodiment.
【0114】このマトリクスは注目画素Xで発生した誤
差Ei,jを配分する画素の位置及び割合を示している。
そして、誤差配分値演算回路2008は誤差量Ai,jと
Bi,jを以下のごとく決定する。This matrix shows the positions and ratios of the pixels to which the error Ei, j generated in the target pixel X is distributed.
Then, the error distribution value calculation circuit 2008 determines the error amounts Ai, j and Bi, j as follows.
【0115】Ai,j=2×Int(Ei,j×1/6) Bi,j=Int(Ei,j×1/6) ここで、Int(x)はxの整数部分を返す関数であ
る。つまり、誤差配分値演算回路2008は、小数点以
下を切り捨てる構成となっていて、整数演算のみ実行可
能である。そして、小数点を切り捨てることにより注目
画素で発生した誤差Ei,jと誤差配分値演算回路200
8で演算された周辺4画素へ分散する誤差量Ai,j、B
i,jとの間には剰余Ri,jが発生する。これを式で示すと
以下のごとくとなる。Ai, j = 2 × Int (Ei, j × 1/6) Bi, j = Int (Ei, j × 1/6) where Int (x) is a function that returns an integer part of x. . That is, the error distribution value calculation circuit 2008 has a configuration in which the fractional part is rounded down, and can execute only the integer calculation. The error Ei, j generated at the pixel of interest by truncating the decimal point and the error distribution value calculation circuit 200
Error amounts Ai, j, B distributed to the four surrounding pixels calculated in 8
A remainder Ri, j is generated between i and j. This is expressed by the following equation.
【0116】Ri,j=Ei,j−2×(Ai,j+Bi,j) この剰余Ri,jはラッチ2009に送られ、一画素分遅
延されて次の画素の入力データXi+1,jに加算される。Ri, j = Ei, j−2 × (Ai, j + Bi, j) This remainder Ri, j is sent to the latch 2009, delayed by one pixel, and added to the input data Xi + 1, j of the next pixel. Is added.
【0117】一方、誤差Ai,jは画素(i+1,j)に
配分するため、加算器2013と画素(i,j+1)に
配分するため加算器2004に送られる。また、誤差B
i,jは画素(i+1,j+1)に配分するためラッチ2
003と画素(i−1,j+1)に配分するため加算器
2006にそれぞれ送られる。メモリ2011はj+1
ライン目へ分散する誤差を記憶するメモリで、少なくと
も1ライン分の画素の誤差データを記憶することができ
る。タイミング発生回路2010はラッチ回路200
9,2003,2005,2012,2014へのラッ
チ信号及びメモリ2011へのアドレス信号等各種信号
を発生する。On the other hand, the error Ai, j is sent to the adder 2013 for distribution to the pixel (i + 1, j) and to the adder 2004 for distribution to the pixel (i, j + 1). Also, the error B
i, j is a latch 2 for distributing to pixel (i + 1, j + 1).
003 and the pixel (i−1, j + 1) are sent to the adder 2006 respectively. The memory 2011 is j + 1
A memory for storing an error distributed to the line can store error data of pixels of at least one line. The timing generation circuit 2010 includes the latch circuit 200
9, 2003, 2005, 2012, 2014, and various signals such as an address signal to the memory 2011 are generated.
【0118】以上の処理が1ライン分終了し、次のライ
ンへの処理が移ったときメモリから前ラインで発生した
誤差を読み出す。メモリから読み出された誤差は加算器
2013で1画素前で発生した誤差と加算されラッチ2
014から出力される。このラインメモリ2011から
の誤差の読み出しは、前ラインと対応がとれるようにタ
イミング発生回路2015で制御されている。When the above processing is completed for one line and the processing for the next line is shifted, the error generated in the previous line is read from the memory. The error read from the memory is added to the error generated one pixel before by an adder 2013, and the result is latched.
014. The reading of the error from the line memory 2011 is controlled by the timing generation circuit 2015 so as to correspond to the previous line.
【0119】タイミング発生回路2015は注目画素が
Xiであればメモリ2011のMi−3のアドレスを読
み出すよう制御する。ここでMi−3はMi−3までに
発生した誤差の値の合計が書き込まれているメモリのi
−3番地を示している。The timing generation circuit 2015 controls to read the address of Mi-3 in the memory 2011 if the target pixel is Xi. Here, Mi-3 is the i of the memory in which the sum of the error values generated up to Mi-3 is written.
-3 is shown.
【0120】以上説明したような処理を入力された画像
データ全てに対して行うことにより誤差拡散法による2
値化を行うことができる。また、誤差拡散処理部112
で2値化する画像データは、上述のエッジ強調処理によ
って、特に文字領域に対してエッジ強調された画像デー
タを含む画像データであるため、誤差拡散処理部112
で2値化されて得られる画像データは、中間調領域を忠
実に再現するとともに文字領域が尖鋭化された画像デー
タとなっている。By performing the processing described above on all the input image data, the error diffusion method 2
Value conversion can be performed. The error diffusion processing unit 112
Since the image data binarized by the above is image data including image data in which the character area is edge-enhanced by the above-described edge enhancement processing, the error diffusion processing unit 112
The image data obtained by binarizing the image data is image data in which the halftone area is faithfully reproduced and the character area is sharpened.
【0121】そして、この画像データを用いてプリンタ
113による記録を行うことで、中間調領域を忠実に再
現するとともに文字領域が尖鋭化された画像を形成する
ことができる。By performing recording using the image data by the printer 113, an image in which the halftone area is faithfully reproduced and the character area is sharpened can be formed.
【0122】以上説明したように第1の実施形態によれ
ば、読み取った文字領域と中間調領域が混在する原稿よ
り得られる画像データを画像として再現する場合に、そ
の画像データに対して、特に文字領域を示す画像データ
のエッジ強調処理が実行されるように制御しておく。こ
れによって、各領域に対応した量子化処理をそれぞれの
領域に行わずに、中間調領域を忠実に再現するとともに
文字領域が尖鋭化された画像データを生成することがで
きる。As described above, according to the first embodiment, when image data obtained from a document in which a read character area and a halftone area are mixed is reproduced as an image, the image data is particularly processed. Control is performed so that edge enhancement processing of image data indicating a character area is executed. This makes it possible to generate image data in which the halftone region is faithfully reproduced and the character region is sharpened without performing the quantization process corresponding to each region.
【0123】また、量子化処理が単一なため、各領域に
対応した量子化処理を領域毎に切替えるための外部キー
による選択操作を必要としないばかりか、各領域に対応
した量子化処理を領域毎に切り換えることによって発生
する画像の不連続等の画質の劣化を防止できる。Further, since the quantization processing is single, not only the selection operation by an external key for switching the quantization processing corresponding to each area for each area is not required, but also the quantization processing corresponding to each area is not required. It is possible to prevent image quality deterioration such as image discontinuity caused by switching for each area.
【0124】さらに、背景部(白地)や自然画、写真等
の濃度の濃い部分からなる領域と中間調領域を識別する
ための閾値処理を必要としないので、形成される画像の
粒状性ノイズを抑圧でき、ノイズ感が抑えられる。Further, since it is not necessary to perform a threshold process for distinguishing a region consisting of a high density portion such as a background portion (white background), a natural image, or a photograph from a halftone region, the granularity noise of an image to be formed is reduced. It can be suppressed, and noise is suppressed.
【0125】また、輝度濃度変換部110や濃度補正部
111における処理をLUT等のテーブルを用いて行う
構成とし、エッジ強調処理の実行の是非を判定するため
のパラメータを単一のパラメータを用いて行う構成とし
ているため、回路構成の単純化、回路規模や縮小化、処
理速度の高速化を実現することができる。The processing in the luminance / density conversion unit 110 and the density correction unit 111 is performed using a table such as an LUT, and a single parameter is used as a parameter for determining whether or not to execute the edge enhancement processing. Since the configuration is performed, simplification of the circuit configuration, reduction in circuit scale and size, and increase in processing speed can be realized.
【0126】また、第1の実施形態では入力データを輝
度データとして取り扱ってきたが濃度データの入力であ
っても輝度濃度変換部110などの構成が不要になるだ
けで同様の効果が得られることは言うまでもない。In the first embodiment, input data is handled as luminance data. However, even when density data is input, the same effect can be obtained only by eliminating the need for the configuration of the luminance / density conversion unit 110 and the like. Needless to say.
【0127】尚、第1の実施形態では、入力された画像
データの2値化処理として濃度保存型の誤差拡散方(E
D法)を例に説明したが、誤差拡散法と等価である平均
誤差最小法や、平均濃度保存法など他の濃度保存型の2
値化方法はもちろんディザ法など中間調画像を良好に2
値化することができる2値化方法を適用することも可能
である。In the first embodiment, the density preserving type error diffusion method (E
D method) is described as an example, but other methods such as the average error minimization method equivalent to the error diffusion method and the average density
Good for halftone images such as dithering as well as binarization
It is also possible to apply a binarization method that can be binarized.
【0128】<第2の実施形態>第1の実施形態では、
パラメータ抽出部106で抽出するパラメータとして、
R,G,Bの各色成分の輝度データのうち最大値もしく
は最小値もしくは中間値のいずれかを用いる構成を示し
たが、これに限らない。<Second Embodiment> In the first embodiment,
As parameters extracted by the parameter extraction unit 106,
Although the configuration using any of the maximum value, the minimum value, and the intermediate value among the luminance data of the R, G, and B color components has been described, the present invention is not limited to this.
【0129】例えば、以下第2の実施形態で示すよう
な、パラメータ抽出部106で抽出するパラメータとし
てR,G,Bの各色成分の輝度データの最大値と最小値
の相加平均をパラメータとして用いる構成にしても良
い。For example, the arithmetic mean of the maximum value and the minimum value of the luminance data of each of the R, G, and B color components is used as a parameter to be extracted by the parameter extracting unit 106 as described in the second embodiment. It may be configured.
【0130】尚、第2の実施形態のパラメータ抽出部1
06で実行される処理を除く処理は、第1の実施形態と
同じであるのでその部分の説明は省略する。Note that the parameter extracting unit 1 of the second embodiment
The processing other than the processing performed in step 06 is the same as that of the first embodiment, and the description of that part will be omitted.
【0131】まず、第2の実施形態のパラメータ抽出部
106で実行される処理について、図22のフローチャ
ートを用いて説明する。尚、パラメータ抽出部は同図の
処理に従えば良いので、それを実現する手段としてハー
ドウェアを用いてもソフトウェアを用いてもよい。First, the processing executed by the parameter extracting unit 106 according to the second embodiment will be described with reference to the flowchart in FIG. Note that the parameter extraction unit may follow the processing shown in the figure, so that hardware or software may be used as means for realizing it.
【0132】まず、ステップS2201において、R,
G,Bの各色成分の輝度データのうち最大値と最小値を
抽出する。次いで、ステップS2202に進み、ステッ
プS2201で求めた最大値及び最小値の相加平均値を
求める。First, in step S2201, R,
The maximum value and the minimum value are extracted from the luminance data of each of the G and B color components. Next, the process proceeds to step S2202, and an arithmetic mean of the maximum value and the minimum value obtained in step S2201 is obtained.
【0133】次に、第2の実施形態のパラメータ抽出部
106を構成するパラメータ抽出回路の構成について、
図23を用いて説明する。Next, the configuration of a parameter extraction circuit constituting the parameter extraction unit 106 of the second embodiment will be described.
This will be described with reference to FIG.
【0134】図23は第2の実施形態のパラメータ抽出
回路の構成を示したブロック図である。図中、2301
はR,G,Bの各色成分の輝度データを格納してあるメ
モリであり、2302はメモリ2301に格納されてい
る注目画素の各色成分の輝度データのうちG成分230
1b及びB成分2301cの大小を比較するコンパレー
タである。2302a,2302bはそれぞれ大きい方
と小さい方の輝度データである。2303及び2304
はラッチ回路であり、2303a,2304aはそれぞ
れ大きい方の輝度データと小さい方の輝度データであ
る。2305は大きい方の輝度データ2305aとメモ
リ2301に格納されているR成分2301aを比較す
るコンパレータである。そして、これによって大きい方
を選択、つまりR,G,Bの各色成分の輝度データのう
ち最も大きい輝度データを持つものを最大値として選択
する回路である。FIG. 23 is a block diagram showing the configuration of the parameter extraction circuit according to the second embodiment. In the figure, 2301
Reference numeral 230 denotes a memory in which luminance data of each of the R, G, and B color components is stored. Reference numeral 2302 denotes a G component 230 out of the luminance data of each color component of the pixel of interest stored in the memory 2301.
This is a comparator for comparing the magnitudes of the 1b and B components 2301c. 2302a and 2302b are luminance data of the larger and the smaller, respectively. 2303 and 2304
Is a latch circuit, and 2303a and 2304a are larger luminance data and smaller luminance data, respectively. Reference numeral 2305 denotes a comparator for comparing the larger luminance data 2305a with the R component 2301a stored in the memory 2301. This is a circuit that selects the larger one, that is, selects the one with the largest luminance data among the luminance data of the R, G, and B color components as the maximum value.
【0135】2306は小さい方の輝度データ2304
aとメモリ2301に格納されているR成分2301a
を比較するコンパレータであり、これによって小さい方
を選択、つまりR,G,Bの各色成分の輝度データのう
ち最も小さい輝度データを持つものを最小値として選択
する回路である。2307及び2308はラッチ回路で
あり、2307a,2308aはそれぞれ3成分のうち
最大値と最小値の輝度データである。2309は最大値
と最小値を加算する加算器であり、出力である2309
aは1bit右にシフトした値、つまり、相加平均が出
力される。Reference numeral 2306 denotes the smaller luminance data 2304
a and the R component 2301a stored in the memory 2301
Is a circuit that selects the smaller one, that is, selects the one having the smallest luminance data among the luminance data of the R, G, and B color components as the minimum value. Reference numerals 2307 and 2308 denote latch circuits, and reference numerals 2307a and 2308a denote luminance data of the maximum value and the minimum value of the three components, respectively. Reference numeral 2309 denotes an adder for adding the maximum value and the minimum value.
a is a value shifted to the right by 1 bit, that is, an arithmetic average is output.
【0136】<第3の実施形態>また、パラメータ抽出
部106で抽出するパラメータとして、以下、説明する
実施形態3のようなR,G,Bの各色成分の輝度データ
の平均値をパラメータとして用いる構成にしても良い。<Third Embodiment> As a parameter to be extracted by the parameter extracting unit 106, an average value of luminance data of each of R, G, and B color components as in the third embodiment described below is used as a parameter. It may be configured.
【0137】尚、第3の実施形態のパラメータ抽出部1
06で実行される処理を除く処理については、第1の実
施形態と同じであるのでその部分の説明は省略する。The parameter extracting unit 1 of the third embodiment
Processing other than the processing executed in step 06 is the same as in the first embodiment, and a description thereof will be omitted.
【0138】まず、第3の実施形態のパラメータ抽出部
104で実行される処理について、図24のフローチャ
ートを用いて説明する。First, the processing executed by the parameter extracting unit 104 according to the third embodiment will be described with reference to the flowchart in FIG.
【0139】まず、ステップS2401はR,G,Bの
各色成分の輝度データのうち任意の1つを選択する。次
いで、ステップS2402に進み、ステップS2401
で選択した輝度データとR,G,Bの各色成分の輝度デ
ータの和をとって4で割る処理を実行する。First, in step S2401, any one of the luminance data of each of the R, G, and B color components is selected. Next, the process proceeds to step S2402, and step S2401
A process is performed in which the sum of the luminance data selected in step 4 and the luminance data of each of the R, G, and B color components is calculated and divided by 4.
【0140】次に、第3の実施形態のパラメータ抽出部
106を構成するパラメータ抽出回路構成について、図
25を用いて説明する。Next, the configuration of a parameter extracting circuit constituting the parameter extracting section 106 of the third embodiment will be described with reference to FIG.
【0141】図25は第3の実施形態のパラメータ抽出
回路の構成を示したブロック図である。図中、2501
はR,G,Bの各色成分の輝度データを格納してあるメ
モリであり、2502はメモリ2501に格納されてい
る注目画素の各色成分の輝度データのうちR成分250
1a及びG成分2501bを加算する加算器である。2
502aは加算した値である。2503はR,G,Bの
各色成分の輝度データのうち、任意の1つを選択するセ
レクタであり、選択された輝度データは2503aであ
る。2505はメモリ2501に格納されているR,
G,Bの各色成分の輝度データのうちB成分2501c
とセレクタ2503で選択した輝度データ2503aを
加算する加算器である。2505aは加算された値であ
る。2504,2506はラッチ回路であり、2504
a,2506aはそれぞれ2502,2505で加算さ
れた値である。2507は2504aと2506aの値
を加算する加算器であり、出力である2507aは2b
it右にシフトした値、つまり、擬似的に平均値として
用いる値となる。FIG. 25 is a block diagram showing a configuration of a parameter extraction circuit according to the third embodiment. In the figure, 2501
Reference numeral 2502 denotes a memory storing luminance data of each of the R, G, and B color components. Reference numeral 2502 denotes an R component of the luminance data of each color component of the pixel of interest stored in the memory 2501.
1a and an adder for adding the G component 2501b. 2
502a is the value added. Reference numeral 2503 denotes a selector for selecting any one of the luminance data of each of the R, G, and B color components, and the selected luminance data is 2503a. 2505, R stored in the memory 2501;
B component 2501c of the luminance data of each color component of G and B
And the luminance data 2503a selected by the selector 2503. 2505a is an added value. Reference numerals 2504 and 2506 denote latch circuits.
a and 2506a are values added by 2502 and 2505, respectively. An adder 2507 adds the values of 2504a and 2506a, and the output 2507a is 2b.
It is a value shifted to the right of it, that is, a value used as a pseudo average value.
【0142】以上の構成によっても第1の実施形態と同
様の作用効果を奏することができる。With the above configuration, the same operation and effect as those of the first embodiment can be obtained.
【0143】なお、本発明は、複数の機器(例えばホス
トコンピュータ,スキャナ、プリンタなど)から構成さ
れるシステムに適用しても、一つの機器からなる装置
(例えば、複写機,ファクシミリ装置など)に適用して
もよい。Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, a scanner, a printer, etc.), the present invention can be applied to an apparatus (for example, a copying machine, a facsimile machine, etc.) including one device. May be applied.
【0144】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.
【0145】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
【0146】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
【0147】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.
【0148】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0149】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、簡単に説明すると、図26のメモリマップ例
に示す各モジュールを記憶媒体に格納することになる。When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts. Will be stored in the storage medium.
【0150】すなわち、入力された画像データの輝度に
基づいてパラメータを獲得する「獲得モジュール」、獲
得されるパラメータに対し、エッジ強調を実行して得ら
れるエッジ量が所定の閾値以上であるか否かを判定する
「判定モジュール」、および判定の結果、エッジ量が所
定の閾値以上である場合、入力された画像データに対し
エッジ強調を実行する「実行モジュール」の各モジュー
ルのプログラムコードを記憶媒体に格納すればよい。That is, an "acquisition module" for acquiring a parameter based on the luminance of input image data, and determining whether or not an edge amount obtained by executing edge enhancement on the acquired parameter is equal to or larger than a predetermined threshold value. A determination module for determining whether the edge amount is equal to or greater than a predetermined threshold, and a program code for each module of an "execution module" for performing edge enhancement on the input image data. May be stored.
【0151】なお、実施形態では主として入力画像デー
タがRGBの輝度データであることを前提にして説明し
たが、YMC等の濃度データであっても良い。この場合
には、輝度濃度変換部110は不用になる。Although the embodiment has been described mainly on the assumption that the input image data is RGB luminance data, the input image data may be density data such as YMC. In this case, the brightness / density conversion unit 110 becomes unnecessary.
【0152】[0152]
【発明の効果】以上説明したように本発明によれば、中
間調領域と文字領域が混在する原稿を読み取って得られ
る画像データに基づいて画像を再現する場合に、簡単な
構成で中間調領域を忠実に再現しながら文字領域につい
ては尖鋭化した画像を再現することができる。As described above, according to the present invention, when an image is reproduced based on image data obtained by reading a document in which a halftone area and a character area are mixed, the halftone area can be simply constructed. Can be reproduced with respect to the character area while faithfully reproducing.
【0153】[0153]
【図1】第1の実施形態の画像処理装置の構成を示した
ブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
【図2】実施形態における全体の処理手順を示すフロー
チャートである。FIG. 2 is a flowchart illustrating an overall processing procedure in the embodiment.
【図3】第1の実施形態のスキャナ101、前処理部1
02の詳細な構成を示したブロック図である。FIG. 3 illustrates a scanner 101 and a preprocessing unit 1 according to the first embodiment.
FIG. 2 is a block diagram showing a detailed configuration of the second embodiment.
【図4】第1の実施形態におけるスキャナ101、前処
理部102の詳細な構成図である。FIG. 4 is a detailed configuration diagram of a scanner 101 and a preprocessing unit 102 according to the first embodiment.
【図5】第1の実施形態のバッファ103とパラメータ
抽出部104の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of a buffer 103 and a parameter extraction unit 104 according to the first embodiment.
【図6】第1の実施形態のパラメータ抽出回路502の
一構成例を示したブロック図である。FIG. 6 is a block diagram illustrating a configuration example of a parameter extraction circuit 502 according to the first embodiment.
【図7】第1の実施形態のパラメータ抽出回路502の
他の構成例を示したブロック図である。FIG. 7 is a block diagram illustrating another configuration example of the parameter extraction circuit 502 according to the first embodiment.
【図8】第1の実施形態の図6、図7に用いられている
コンパレータの構成を示したブロック図である。FIG. 8 is a block diagram showing a configuration of a comparator used in FIGS. 6 and 7 of the first embodiment.
【図9】第1の実施形態の強調処理判定部105の回路
構成図である。FIG. 9 is a circuit configuration diagram of an emphasis processing determination unit 105 according to the first embodiment.
【図10】第1の実施形態のパラメータ抽出部106と
バッファ107の構成を示したブロック図である。FIG. 10 is a block diagram showing a configuration of a parameter extraction unit 106 and a buffer 107 according to the first embodiment.
【図11】第1の実施形態のパラメータ抽出回路100
1の一構成例を示したブロック図である。FIG. 11 is a parameter extraction circuit 100 according to the first embodiment;
FIG. 1 is a block diagram showing one configuration example.
【図12】第1の実施形態のエッジ量演算部108で用
いられるエッジ強調用のフィルタを示した図である。FIG. 12 is a diagram illustrating an edge emphasis filter used in the edge amount calculation unit according to the first embodiment.
【図13】第1の実施形態のエッジ量加算部108の詳
細な構成を示したブロック図である。FIG. 13 is a block diagram illustrating a detailed configuration of an edge amount adding unit according to the first embodiment.
【図14】第1の実施形態の濃度変換部110と濃度補
正部111の詳細な構成を示すブロック図である。FIG. 14 is a block diagram illustrating a detailed configuration of a density conversion unit 110 and a density correction unit 111 according to the first embodiment.
【図15】図10のマスキング処理部1404をマッピ
ング処理部1505によって構成した図である。15 is a diagram in which the masking processing unit 1404 in FIG. 10 is configured by a mapping processing unit 1505.
【図16】第1の実施形態のlog変換部1401の詳
細な構成を示したブロック図である。FIG. 16 is a block diagram illustrating a detailed configuration of a log converter 1401 according to the first embodiment.
【図17】墨生成部1402の詳細な構成ブロック図で
ある。FIG. 17 is a detailed configuration block diagram of a black generation unit 1402.
【図18】第1の実施形態のUCR処理部1403の詳
細な構成を示したブロック図である。FIG. 18 is a block diagram illustrating a detailed configuration of a UCR processing unit 1403 according to the first embodiment.
【図19】第1の実施形態のマッピング処理部1504
の詳細な構成を示したブロック図である。FIG. 19 is a mapping processing unit 1504 according to the first embodiment.
FIG. 3 is a block diagram showing a detailed configuration of FIG.
【図20】第1の実施形態の誤差拡散処理部112の詳
細な構成を示したブロック図である。FIG. 20 is a block diagram illustrating a detailed configuration of an error diffusion processing unit 112 according to the first embodiment.
【図21】第1の実施形態の誤差拡散処理における重み
マトリクスを示す図である。FIG. 21 is a diagram illustrating a weight matrix in the error diffusion processing according to the first embodiment.
【図22】第2の実施形態におけるパラメータ抽出部1
06の処理内容を示すフローチャートである。FIG. 22 is a parameter extraction unit 1 according to the second embodiment.
It is a flowchart which shows the process content of 06.
【図23】第2の実施形態のパラメータ抽出回路の構成
を示すブロック図である。FIG. 23 is a block diagram illustrating a configuration of a parameter extraction circuit according to the second embodiment.
【図24】第3の実施形態におけるパラメータ抽出部1
04の処理内容を示すフローチャートである。FIG. 24 is a parameter extraction unit 1 according to the third embodiment.
14 is a flowchart showing the processing contents of Step 04.
【図25】第3の実施形態のパラメータ抽出回路の構成
を示したブロック図である。FIG. 25 is a block diagram illustrating a configuration of a parameter extraction circuit according to a third embodiment.
【図26】実施形態の処理をプログラムによって実現す
る場合の記憶媒体のメモリマップを示す図である。FIG. 26 is a diagram showing a memory map of a storage medium when the processing of the embodiment is realized by a program.
Claims (25)
理装置であって、 入力された画像データの輝度に基づいてパラメータを獲
得する第1の獲得手段と、 前記第1の獲得手段で構成されるパラメータに対しエッ
ジ強調を実行するか否かを判定する第1の判定手段と、 前記入力された画像データの輝度に基づいてパラメータ
を獲得する第2の獲得手段と、 前記第2の獲得手段で獲得されるパラメータに対しエッ
ジ強調を実行して得られるエッジ量が所定の閾値以上で
あるか否かを判定する第2の判定手段と、 前記第2の判定手段による判定の結果、前記エッジ量が
所定の閾値以上である場合、前記入力された画像データ
に対しエッジ強調を実行する実行手段とを備えることを
特徴とする画像処理装置。1. An image processing apparatus for processing input image data, comprising: first obtaining means for obtaining a parameter based on luminance of the input image data; and said first obtaining means. First determining means for determining whether or not to perform edge enhancement on a parameter to be obtained, second obtaining means for obtaining a parameter based on luminance of the input image data, and second obtaining means A second determining means for determining whether or not an edge amount obtained by performing edge enhancement on the parameter obtained in step 2 is equal to or greater than a predetermined threshold; and a result of the determination by the second determining means, An image processing apparatus comprising: an execution unit configured to execute edge enhancement on the input image data when the amount is equal to or more than a predetermined threshold.
成分であるR,G,Bの各輝度値のうち最大となる輝度
値と最小となる輝度値をパラメータとして獲得すること
を特徴とする請求項1に記載の画像処理装置。2. The method according to claim 1, wherein the first acquisition unit acquires, as parameters, a maximum luminance value and a minimum luminance value among R, G, and B luminance values, which are color components of image data. The image processing apparatus according to claim 1.
成分であるY、M、Cの各濃度値のうち最大となる濃度
値と最小となる濃度値をパラメータとして獲得すること
を特徴とする請求項1に記載の画像処理装置。3. The method according to claim 1, wherein the first acquisition unit acquires, as parameters, a maximum density value and a minimum density value among Y, M, and C density values, which are color components of the image data. The image processing apparatus according to claim 1.
値th1,th2と前記第1の獲得手段によって獲得さ
れたパラメータとを比較した結果によってエッジ強調を
実行するか否かを判定することを特徴とする請求項1に
記載の画像処理装置。4. The method according to claim 1, wherein the first determining unit determines whether to perform edge enhancement based on a result of comparing arbitrary different threshold values th1 and th2 with parameters obtained by the first obtaining unit. The image processing apparatus according to claim 1, wherein:
成分であるR,G,Bの各輝度値のうち最大となる輝度
値をパラメータとして獲得することを特徴とする請求項
1に記載の画像処理装置。5. The image processing apparatus according to claim 1, wherein the second acquisition unit acquires, as a parameter, a maximum luminance value among R, G, and B luminance values which are color components of the image data. The image processing apparatus according to any one of the preceding claims.
成分であるY,M,Cの各濃度値のうち最大となる濃度
値をパラメータとして獲得することを特徴とする請求項
1に記載の画像処理装置。6. The apparatus according to claim 1, wherein said second acquisition means acquires a maximum density value among Y, M, and C density values, which are color components of image data, as a parameter. The image processing apparatus according to any one of the preceding claims.
成分であるR,G,Bの各輝度値のうち最小となる輝度
値をパラメータとして獲得することを特徴とする請求項
1に記載の画像処理装置。7. The method according to claim 1, wherein the second acquisition unit acquires, as a parameter, a minimum luminance value among R, G, and B luminance values which are color components of image data. The image processing apparatus according to any one of the preceding claims.
成分であるY,M,Cの各濃度値のうち最小となる濃度
値をパラメータとして獲得することを特徴とする請求項
1に記載の画像処理装置。8. The apparatus according to claim 1, wherein said second acquisition means acquires, as a parameter, a minimum density value among Y, M, and C density values, which are color components of image data. The image processing apparatus according to any one of the preceding claims.
成分であるR,G,Bの各輝度値のうち中間となる輝度
値をパラメータとして獲得することを特徴とする請求項
1に記載の画像処理装置。9. The method according to claim 1, wherein the second acquisition unit acquires, as a parameter, an intermediate luminance value among R, G, and B luminance values that are color components of image data. The image processing apparatus according to any one of the preceding claims.
成分であるR,G,Bの各輝度値のうち最大値と最小値
の相加平均値をパラメータとして獲得することを特徴と
する請求項1に記載の画像処理装置。10. The method according to claim 1, wherein the second acquisition unit acquires, as a parameter, an arithmetic mean of maximum and minimum values among R, G, and B luminance values, which are color components of image data. The image processing device according to claim 1.
成分であるY,M,Cの各濃度のうち最大値と最小値の
相加平均値をパラメータとして獲得することを特徴とす
る請求項1に記載の画像処理装置。11. The method according to claim 11, wherein the second acquisition unit acquires an arithmetic mean of the maximum value and the minimum value among the densities of Y, M, and C, which are color components of the image data, as a parameter. Item 2. The image processing device according to Item 1.
色成分であるR,G,B各輝度値に基づいて、輝度値の
平均値を算出する算出手段を備え、前記算出された輝度
値の平均値をパラメータとして獲得することを特徴とす
る請求項1に記載の画像処理装置。12. The second obtaining means includes calculating means for calculating an average value of luminance values based on R, G, and B luminance values which are color components of image data, and wherein the calculated luminance is calculated. The image processing apparatus according to claim 1, wherein an average value is obtained as a parameter.
色成分であるY,M,C各濃度値に基づいて、濃度値の
平均値を算出する算出手段を備え、前記算出された濃度
値の平均値をパラメータとして獲得することを特徴とす
る請求項1に記載の画像処理装置。13. The image processing apparatus according to claim 1, wherein the second obtaining unit includes a calculating unit that calculates an average value of the density values based on Y, M, and C density values that are color components of the image data. The image processing apparatus according to claim 1, wherein an average value is obtained as a parameter.
色成分であるR,G,Bの各輝度値と色成分のうち任意
の色成分の輝度値の和を算出し、その和より輝度値の平
均値を算出することを特徴とする請求項12に記載の画
像処理装置。14. The calculating means calculates a sum of luminance values of R, G, and B, which are color components of the image data, and a luminance value of an arbitrary color component among the color components, and calculates a luminance value from the sum. The image processing apparatus according to claim 12, wherein an average value is calculated.
色成分であるR,G,Bの各濃度値と色成分のうち任意
の色成分の濃度値の和を算出し、その和より濃度値の平
均値を算出することを特徴とする請求項13に記載の画
像処理装置。15. The calculating means calculates a sum of density values of R, G, and B, which are color components of the image data, and a density value of an arbitrary color component among the color components, and calculates a density value from the sum. The image processing apparatus according to claim 13, wherein an average value is calculated.
で獲得されるパラメータに対し、マトリクスからなるラ
プラシアンフィルタによる演算によって得られる演算値
であることを特徴とする請求項1に記載の画像処理装
置。16. The image according to claim 1, wherein the edge amount is an operation value obtained by operation of a parameter obtained by the second obtaining unit by a Laplacian filter composed of a matrix. Processing equipment.
スからなるラプラシアンフィルタの中心の位置に対応す
る画素の輝度値に基づいてパラメータを獲得することを
特徴とする請求項16に記載の画像処理装置。17. The image processing apparatus according to claim 16, wherein said second obtaining means obtains a parameter based on a luminance value of a pixel corresponding to a center position of the Laplacian filter including the matrix. apparatus.
スからなるラプラシアンフィルタの中心の位置に対応す
る画素の濃度値に基づいてパラメータを獲得することを
特徴とする請求項16に記載の画像処理装置。18. The image processing apparatus according to claim 16, wherein said second obtaining means obtains a parameter based on a density value of a pixel corresponding to a center position of the Laplacian filter including the matrix. apparatus.
強調は、前記マトリクスからなるラプラシアンフィルタ
の中心の位置に対応する画素の輝度値に前記演算値を加
算することを特徴とする請求項17に記載の画像処理装
置。19. The edge emphasis executed by the execution means, wherein the calculated value is added to a luminance value of a pixel corresponding to a center position of the Laplacian filter composed of the matrix. Image processing device.
強調は、前記マトリクスからなるラプラシアンフィルタ
の中心の位置に対応する画素の濃度値に前記演算値を加
算することを特徴とする請求項18に記載の画像処理装
置。20. The method according to claim 18, wherein the edge enhancement performed by the execution unit adds the calculated value to a density value of a pixel corresponding to a center position of the Laplacian filter including the matrix. Image processing device.
スからなるラプラシアンフィルタの各マトリクス成分の
位置に対応する各画素の輝度値に基づいて各パラメータ
を獲得し、各パラメータを獲得するために該画像データ
を格納するラインバッファを少なくとも該マトリクスの
行数−1以上備えることを特徴とする請求項10に記載
の画像処理装置。21. The second obtaining means obtains each parameter based on a luminance value of each pixel corresponding to a position of each matrix component of the Laplacian filter including the matrix, and obtains each parameter by obtaining the parameter. 11. The image processing apparatus according to claim 10, wherein a line buffer for storing image data is provided at least equal to or greater than the number of rows of the matrix minus one.
強調は、前記マトリクスからなるラプラシアンフィルタ
の各マトリクス成分の位置に対応する各画素の輝度値に
前記演算値を加算することを特徴とする請求項16に記
載の画像処理装置。22. The edge emphasis executed by the execution means, wherein the operation value is added to a luminance value of each pixel corresponding to a position of each matrix component of the Laplacian filter composed of the matrix. An image processing apparatus according to claim 1.
強調は、前記マトリクスからなるラプラシアンフィルタ
の各マトリクス成分の位置に対応する各画素の濃度値に
前記演算値を加算することを特徴とする請求項17に記
載の画像処理装置。23. The edge emphasis executed by the execution means, wherein the operation value is added to a density value of each pixel corresponding to a position of each matrix component of the Laplacian filter composed of the matrix. An image processing apparatus according to claim 1.
処理方法であって、 入力された画像データの輝度に基づいてパラメータを獲
得する第1の獲得工程と、 前記第1の獲得工程で構成されるパラメータに対しエッ
ジ強調を実行するか否かを判定する第1の判定工程と、 前記入力された画像データの輝度に基づいてパラメータ
を獲得する第2の獲得工程と、 前記第2の獲得工程で獲得されるパラメータに対しエッ
ジ強調を実行して得られるエッジ量が所定の閾値以上で
あるか否かを判定する第2の判定工程と、 前記第2の判定工程による判定の結果、前記エッジ量が
所定の閾値以上である場合、前記入力された画像データ
に対しエッジ強調を実行する実行工程とを備えることを
特徴とする画像処理方法。24. An image processing method for processing input image data, comprising: a first obtaining step of obtaining parameters based on luminance of input image data; and a first obtaining step. A first determining step of determining whether to perform edge enhancement on a parameter to be performed, a second obtaining step of obtaining a parameter based on luminance of the input image data, and the second obtaining step A second determination step of determining whether an edge amount obtained by performing edge enhancement on the parameter obtained in step 2 is equal to or greater than a predetermined threshold value; and a result of the determination in the second determination step Performing an edge emphasis on the input image data when the amount is equal to or greater than a predetermined threshold value.
れたコンピュータ可読メモリであって、 入力された画像データの輝度に基づいてパラメータを獲
得する第1の獲得工程のプログラムコードと、 前記第1の獲得工程で獲得されるパラメータに対しエッ
ジ強調を実行するか否かを判定する第1の判定工程のプ
ログラムコードと、 前記入力された画像データの輝度に基づいてパラメータ
を獲得する第2の獲得工程のプログラムコードと、 前記第2の獲得工程で獲得されるパラメータに対しエッ
ジ強調を実行して得られるエッジ量が所定の閾値以上で
あるか否かを判定する判定工程のプログラムコードと、 前記第2の判定工程による判定の結果、前記エッジ量が
所定の閾値以上である場合、前記入力された画像データ
に対しエッジ強調を実行する実行工程のプログラムコー
ドとを備えることを特徴とするコンピュータ可読メモ
リ。25. A computer readable memory storing image processing program code, the program code of a first obtaining step of obtaining a parameter based on luminance of input image data, and the first obtaining step. A program code for a first determination step for determining whether to perform edge enhancement on a parameter obtained in the step, and a second acquisition step for obtaining a parameter based on luminance of the input image data. A program code, and a program code of a determining step of determining whether an edge amount obtained by performing edge enhancement on the parameter obtained in the second obtaining step is equal to or more than a predetermined threshold value, When the edge amount is equal to or greater than a predetermined threshold as a result of the determination step, edge enhancement is performed on the input image data. A computer-readable memory characterized by comprising a program code that executes steps.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9221649A JPH1166297A (en) | 1997-08-18 | 1997-08-18 | Image processing apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9221649A JPH1166297A (en) | 1997-08-18 | 1997-08-18 | Image processing apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH1166297A true JPH1166297A (en) | 1999-03-09 |
| JPH1166297A5 JPH1166297A5 (en) | 2004-10-21 |
Family
ID=16770097
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9221649A Pending JPH1166297A (en) | 1997-08-18 | 1997-08-18 | Image processing apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH1166297A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008278538A (en) * | 2008-08-01 | 2008-11-13 | Nikon Corp | Electronic camera |
| US8614752B2 (en) | 1999-09-14 | 2013-12-24 | Nikon Corporation | Electronic still camera with peaking function |
-
1997
- 1997-08-18 JP JP9221649A patent/JPH1166297A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8614752B2 (en) | 1999-09-14 | 2013-12-24 | Nikon Corporation | Electronic still camera with peaking function |
| JP2008278538A (en) * | 2008-08-01 | 2008-11-13 | Nikon Corp | Electronic camera |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6389162B2 (en) | Image processing apparatus and method and medium | |
| US6118547A (en) | Image processing method and apparatus | |
| JP3437226B2 (en) | Image processing method and apparatus | |
| JPH01228265A (en) | Method and device for processing image | |
| JPH02100575A (en) | Picture processor | |
| JPH1185978A (en) | Image processing apparatus and method | |
| JP3014252B2 (en) | Image processing method and image processing apparatus | |
| JP6693310B2 (en) | Image processing apparatus, image processing method and program | |
| JPH10283470A (en) | Image processor, image processing method and recording medium | |
| US6356361B1 (en) | Image processing apparatus and method for processing gradation image data using error diffusion | |
| JPH1166297A (en) | Image processing apparatus and method | |
| US6625324B1 (en) | Apparatus and method for providing compensation bits for post image processing | |
| JPS63288565A (en) | Image processor | |
| JP4035696B2 (en) | Line segment detection apparatus and image processing apparatus | |
| JP3245600B2 (en) | Image processing device | |
| JPH06284281A (en) | Picture processor | |
| JPH10108012A (en) | Image area separation device | |
| JPH11346311A (en) | Tone reproduction method | |
| JPH02228878A (en) | Picture processor | |
| JP2874592B2 (en) | Image processing device for distinguishing text / photo / dot area | |
| JPH0698157A (en) | Halftone image forming device | |
| JP3256267B2 (en) | Image processing device | |
| JPH1023268A (en) | Image processing apparatus and method | |
| JP3679522B2 (en) | Image processing method and apparatus | |
| JP3070174B2 (en) | Image forming device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061013 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061023 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061220 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070119 |