JP2001203900A - Image reader - Google Patents
Image readerInfo
- Publication number
- JP2001203900A JP2001203900A JP2000012385A JP2000012385A JP2001203900A JP 2001203900 A JP2001203900 A JP 2001203900A JP 2000012385 A JP2000012385 A JP 2000012385A JP 2000012385 A JP2000012385 A JP 2000012385A JP 2001203900 A JP2001203900 A JP 2001203900A
- Authority
- JP
- Japan
- Prior art keywords
- color
- pixel
- edge
- edge portion
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003086 colorant Substances 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 230000002238 attenuated effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000010606 normalization Methods 0.000 description 7
- 230000004075 alteration Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 101100524587 Arabidopsis thaliana RH15 gene Proteins 0.000 description 2
- 101150009575 RH10 gene Proteins 0.000 description 2
- 101150068029 RH11 gene Proteins 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 101100524580 Arabidopsis thaliana RH12 gene Proteins 0.000 description 1
- 101100524582 Arabidopsis thaliana RH13 gene Proteins 0.000 description 1
- 101100524585 Arabidopsis thaliana RH14 gene Proteins 0.000 description 1
- 101000857682 Homo sapiens Runt-related transcription factor 2 Proteins 0.000 description 1
- 101000631695 Homo sapiens Succinate dehydrogenase assembly factor 3, mitochondrial Proteins 0.000 description 1
- 102100025368 Runt-related transcription factor 2 Human genes 0.000 description 1
- 102100028996 Succinate dehydrogenase assembly factor 3, mitochondrial Human genes 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Landscapes
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、カラーディジタル
複写機やカラースキャナ等に用いられ、3ラインカラー
センサを用いてカラー原稿画像を読み取るカラー画像読
み取り装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color image reading apparatus which is used in a color digital copying machine, a color scanner and the like, and reads a color original image using a three-line color sensor.
【0002】[0002]
【従来の技術】従来、この種のカラー画像読み取り装置
においては、3ラインカラーセンサの各読み取り位置が
僅かにずれていることや機械の振動などに起因して、カ
ラー原稿画像を読み取った時に、R(赤)、G(緑)、
B(青)の画像データのエッジ部などにおいて本来の色
とは異なる色データが出力されて色ずれを生じることが
ある。そこで、このような色ずれ補正を目的として、例
えば、特開平6-334814号公報あるいは、特開平8-139949
号公報に示されるように、読み取った原稿の画像データ
からR,G,Bの各センサ間の色ずれ量を検出して副走
査方向の色ずれを補正する技術や、特開平9-98256号公
報に示されるように、原稿外の部分に基準チャートを配
して、機械の振動などに起因した、R,G,Bの各セン
サの読み取り位置ずれによる色ずれを検知して副走査方
向の色ずれを補正する補正技術や、特開平8-107472号公
報に示されるように、原稿の搬送速度を検知し、所定速
度からのずれを求めて、そのずれに基づいてセンサの読
み取り速度を一定にするように読み取り用のシリンドリ
カルレンズの位置を可変制御し、読み取り速度むらなど
による色ずれ補正技術が提案されている。また、特開平
10-215381号公報に示されるように、センサ出力の変化
より白黒エッジ部を検出し、中央に配置されているセン
サのデータに3色を揃えるものがある。2. Description of the Related Art Conventionally, in a color image reading apparatus of this kind, when a color original image is read due to a slight shift of each reading position of a three-line color sensor or mechanical vibration, etc. R (red), G (green),
In some cases, color data different from the original color is output at an edge portion of the B (blue) image data, causing a color shift. Therefore, for the purpose of such color misregistration correction, for example, JP-A-6-334814 or JP-A-8-139949
As disclosed in Japanese Patent Application Laid-Open No. 9-98256, a technique for detecting the amount of color misregistration between each of the R, G, and B sensors from image data of a read original to correct color misregistration in the sub-scanning direction is disclosed. As shown in the official gazette, a reference chart is arranged on a portion outside the document to detect a color shift due to a reading position shift of each of the R, G, and B sensors due to a mechanical vibration or the like, and to detect a color shift in the sub-scanning direction. As disclosed in Japanese Patent Application Laid-Open No. 8-107472, a correction technique for correcting color misregistration, detects the conveyance speed of a document, calculates a deviation from a predetermined speed, and keeps the sensor reading speed constant based on the deviation. There has been proposed a technology for correcting color misregistration due to uneven reading speed by variably controlling the position of a reading cylindrical lens. In addition,
As disclosed in Japanese Patent Application Laid-Open No. 10-215381, there is a method in which a monochrome edge portion is detected from a change in sensor output, and three colors are aligned with data of a sensor disposed at the center.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上述し
たような従来の色ずれ補正技術においては、例えば、特
開平6-334814号公報や特開平9-98256号公報の技術で
は、R,G,Bセンサの副走査方向の機械の振動などに
起因して、読み取り時に副走査方向に時々刻々変化する
ような色ずれを原稿画像や原稿外の基準画像から求めて
補正するものであるので、主走査1ライン内の色ずれに
は対応できない。また、特開平8-139949号公報では、原
稿データから色ずれ量を検出するために、各R,G,B
について補間データや相関関数を求めるので、処理が繁
雑になり、回路も複雑になる上に、副走査方向の色ずれ
しか補正しない。また、特開平8-107472号公報の技術で
は、読み取り速度の変化量から色ずれを補正するので、
振動や収差といったものに起因する主走査方向の色ずれ
は補正できないという問題があった。また、特開平10-2
15381号公報の技術では、白黒以外の色のエッジに対し
ては、センサ検出値が白黒エッジ部の検出を行うための
しきい値を越えないことになり、補正がかからない。However, in the conventional color misregistration correction technique described above, for example, in the techniques disclosed in Japanese Patent Application Laid-Open Nos. 6-334814 and 9-98256, R, G, B Since the color misregistration that changes every moment in the sub-scanning direction during reading due to mechanical vibrations in the sub-scanning direction of the sensor is obtained from the original image or the reference image outside the original, it is corrected. It cannot deal with color shift within one line. In Japanese Patent Application Laid-Open No. 8-139949, each of R, G, B
Since interpolation data and a correlation function are obtained for, the processing becomes complicated, the circuit becomes complicated, and only color shift in the sub-scanning direction is corrected. In the technology disclosed in Japanese Patent Application Laid-Open No. 8-107472, the color shift is corrected based on the amount of change in the reading speed.
There is a problem that color shift in the main scanning direction due to vibration and aberration cannot be corrected. In addition, JP-A-10-2
In the technique disclosed in Japanese Patent No. 15381, the edge of a color other than black and white is not corrected because the sensor detection value does not exceed the threshold value for detecting the black and white edge portion.
【0004】本発明は、上述した問題点を解決するため
になされたものであり、レンズ収差や機械振動などに起
因して生じる主走査同一ライン内での色ずれを補正する
ことができ、また、白色と黒色のエッジ部以外の色のエ
ッジに対しても色ずれ補正可能なカラー画像読み取り装
置を提供することを目的とする。The present invention has been made to solve the above-described problems, and can correct a color shift within the same main scanning line caused by a lens aberration or mechanical vibration. It is another object of the present invention to provide a color image reading apparatus capable of correcting color misregistration even for edges of colors other than white and black edges.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明は、3ラインカラーセンサを用
いて原稿の画像を読み取る画像読み取り装置において、
3ラインカラーセンサを有する読み取り手段と、この読
み取り手段により読み取ったR(赤)、G(緑)、B
(青)の画像データのエッジ部を検出するエッジ部検出
手段と、このエッジ部検出手段により検出したエッジ部
の画素領域で色ずれ補正処理を行う色ずれ補正手段とを
備え、前記色ずれ補正手段は、R,G,Bの出力がエッ
ジ部の画素領域において異なる場合、R,G,Bのいず
れか1色を選んで、これを基準色とし、該基準色のエッ
ジ部画素と該エッジ部画素の前後の画素よりなるエッジ
部画素群の出力の最大値を抽出し、この抽出された最大
値に基づいて前記基準色の値に他の2色の値を揃える補
正を行うものである。According to a first aspect of the present invention, there is provided an image reading apparatus for reading an image of a document using a three-line color sensor.
Reading means having a three-line color sensor, and R (red), G (green), and B read by the reading means
An edge portion detecting means for detecting an edge portion of the (blue) image data; and a color misregistration correcting means for performing color misregistration correction processing on a pixel area of the edge portion detected by the edge portion detecting means. The means selects one of R, G, and B colors when the outputs of R, G, and B are different in the pixel region of the edge portion, uses the selected color as a reference color, and determines the edge portion pixel of the reference color and the edge portion. The maximum value of the output of the edge portion pixel group consisting of the pixels before and after the partial pixel is extracted, and correction for aligning the values of the other two colors with the value of the reference color is performed based on the extracted maximum value. .
【0006】上記構成においては、R,G,B各センサ
の読み取り位置が微妙にずれると、画像データのエッジ
部画素のR,G,Bの各センサ出力は等しくならず、そ
のため、本来そこにはない何らかの色のデータが現れ
て、色ずれが発生する。そこで、画像エッジ部が検出さ
れた時、基準となる色のエッジ部画素と該エッジ部画素
の前後の画素よりなるエッジ部画素群の出力の最大値を
抽出し、これに3色とも値を揃えることで、色ずれ補正
を行う。これにより、色ずれが最も目立つエッジ部での
色ずれを補正するので、色ずれの目立たない画像を得る
ことができ、また、画素出力でもって補正するので、主
走査方向での色ずれ補正も可能となる。In the above configuration, if the reading positions of the R, G, and B sensors are slightly shifted, the R, G, and B sensor outputs of the edge pixels of the image data are not equal. Some color data that does not exist appears, causing color misregistration. Therefore, when an image edge portion is detected, the maximum value of the output of the edge portion pixel group including the edge portion pixel of the reference color and the pixels before and after the edge portion pixel is extracted. The color misregistration correction is performed by aligning them. As a result, the color shift at the edge portion where the color shift is most noticeable is corrected, so that an image with less noticeable color shift can be obtained. Further, since the correction is performed using the pixel output, the color shift correction in the main scanning direction can be performed. It becomes possible.
【0007】また、請求項2に記載の発明は、請求項1
に記載の画像読み取り装置において、前記色ずれ補正手
段は、補正しようとする色の元の値が前記基準色の最大
値よりも小さい場合、前記元の値を増幅して前記最大値
に揃えて色ずれ補正を行い、その後、補正後の値を増幅
分に応じて減衰させるものである。[0007] The invention described in claim 2 is the first invention.
Wherein the color misregistration correction unit amplifies the original value and aligns the original value with the maximum value when the original value of the color to be corrected is smaller than the maximum value of the reference color. The color shift is corrected, and then the corrected value is attenuated according to the amount of amplification.
【0008】上記構成においては、白と黒のエッジ以外
で任意の色のエッジの場合、色ずれが生じていると、補
正しようとする色の元の値が基準色の最大値よりも小さ
くなることがあるが、そうした場合にあっても、適正に
色ずれ補正を行うことができる。In the above arrangement, in the case of any color edge other than the white and black edges, if a color shift occurs, the original value of the color to be corrected becomes smaller than the maximum value of the reference color. However, even in such a case, the color misregistration correction can be appropriately performed.
【0009】[0009]
【発明の実施の形態】以下、本発明の一実施形態に係る
画像読み取り装置について図面を参照して説明する。図
1は上向きカラー画像読み取り装置の斜視図である。カ
ラー読み取り装置は、書籍やファイルなどの原稿が上向
きに置かれる原稿台1を有し、この原稿台1の上方に
は、R(赤)、G(緑)、B(青)の3ラインカラーセ
ンサを有して、その走査により原稿を読み取る撮像カメ
ラ部(読み取り手段)2が設けられている。撮像カメラ
部2には、自動合焦(AF)用のレンズ等が含まれる。
また、原稿台1の上方奥側には原稿を照明する照明部3
が配置され、原稿台1の奥には、原稿の上端部形状を写
す測高ミラー4が設けられている。原稿の合焦位置を検
出するには、測高ミラー4に写った原稿上端部の形状の
出力データを用いる。この原稿上端部の形状データよ
り、AF制御データ(レンズ位置)を算出する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image reading apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view of an upward color image reading apparatus. The color reading apparatus has a platen 1 on which a document such as a book or a file is placed facing upward. Above the platen 1, a three-line color of R (red), G (green), and B (blue) is provided. An imaging camera unit (reading unit) 2 having a sensor and reading an original by scanning the sensor is provided. The imaging camera unit 2 includes a lens for automatic focusing (AF) and the like.
An illumination unit 3 for illuminating the original is provided on the upper rear side of the original table 1.
And a height measuring mirror 4 that captures the shape of the upper end portion of the document is provided behind the document table 1. In order to detect the focus position of the document, output data of the shape of the upper end portion of the document reflected on the height measuring mirror 4 is used. The AF control data (lens position) is calculated from the shape data of the upper end of the document.
【0010】原稿を読み取る時は、原稿台1上に読み取
る書籍やファイルなどの原稿を置き、原稿台上の読み取
り開始スイッチ5を押すことで読み取りが開始される。
原稿を読み取る時の種々の設定・変更は、照明部3上に
配置された操作部6上の設定スイッチを操作することに
より行える。なお、3ラインカラーセンサは、Gのライ
ンセンサを真ん中に、R,Bの各センサがその両側に並
んでいるものとし、CCDなどにより構成される。When reading a document, a document such as a book or a file to be read is placed on the document table 1 and reading is started by pressing a reading start switch 5 on the document table.
Various settings and changes when reading a document can be performed by operating a setting switch on an operation unit 6 arranged on the illumination unit 3. The three-line color sensor has a G line sensor in the center, and R and B sensors arranged on both sides thereof, and is constituted by a CCD or the like.
【0011】次に、このような画像読み取り装置の原稿
読み取り動作でのエッジ部検出と、そこでの色ずれ発生
及びその補正方法について説明する。まず、色ずれが発
生する一例として、読み取り原稿の白紙上に黒のライン
や黒ベタが有る場合の白と黒の境界(エッジ部)を検出
する場合について説明する。エッジ部検出のための手段
としては、Gセンサの各画素出力の1次微分値を常時演
算していき、その値がある値を越えた時に、その画素の
部分にGの画像でエッジがあることになる。そこで、そ
の画素に対応するR,Bのセンサ出力の1次微分値を算
出し、それらR,Bも同様にある値を越えたなら、その
部分は黒のラインや黒ベタのエッジ部であるので、色ず
れ補正を行う。Next, edge detection in such an original reading operation of the image reading apparatus, occurrence of color misregistration there, and a method of correcting the same will be described. First, as an example of occurrence of color misregistration, a case of detecting a boundary between white and black (edge portion) in a case where a black line or a black solid is present on a blank sheet of a read document will be described. As means for detecting an edge portion, a first derivative of each pixel output of the G sensor is constantly calculated, and when the value exceeds a certain value, an edge of the G image exists at the pixel portion. Will be. Therefore, the first derivative of the sensor output of R and B corresponding to the pixel is calculated, and if these R and B also exceed a certain value, the portion is a black line or a solid black edge. Therefore, color shift correction is performed.
【0012】図2に上記1次微分値を算出するための、
代表的な1次微分のマトリクスを示す。これ以外にもい
くつかの1次微分のマトリクスが存在するので、読み取
る画像に合わせた1次微分マトリクスを選択することも
できる。また、複数のマトリクスを組み合わせて、より
高精度に黒のラインや黒ベタのエッジ部を検出すること
も可能である。FIG. 2 shows a graph for calculating the first derivative.
4 shows a typical first derivative matrix. Since there are several other primary differential matrices, it is also possible to select a primary differential matrix that matches the image to be read. Further, by combining a plurality of matrices, it is possible to detect a black line or a solid black edge with higher accuracy.
【0013】次に、検出したエッジでの色ずれ発生のメ
カニズムについて説明する。図3(a)は、原稿の中の
白と黒の境界、すなわちエッジ部を3ラインセンサで読
み取った時のR,G,B各センサの出力を示している。
図示の画素位置(矢印)はセンサの主走査方向になる。
Gセンサのn番目の画素の出力をGnと表し、同様に、R
センサのn番目、Bセンサのn番目の各画素出力をRn,
Bnと表す。本来、黒のエッジ部ならば、GnとRnとBn
の出力は、色ずれがなければ等しく、次式のようになる
はずである。このとき、白と黒の境界の色は灰色にな
る。Next, the mechanism of the occurrence of color misregistration at the detected edge will be described. FIG. 3A shows the output of each of the R, G, and B sensors when the boundary between white and black in the document, that is, the edge portion is read by the three-line sensor.
The illustrated pixel position (arrow) is in the main scanning direction of the sensor.
The output of the nth pixel of the G sensor is denoted as Gn, and similarly, R
The nth pixel output of the sensor and the nth pixel output of the B sensor are Rn,
Expressed as Bn. Originally, if it is a black edge, Gn, Rn, and Bn
Are equal without color shift and should be: At this time, the color of the boundary between white and black becomes gray.
【0014】Gn=Rn=Bn ・・・ (式1)Gn = Rn = Bn (1)
【0015】ところが、実際には機械振動やレンズの収
差などにより、R,G,B各センサの読み取り位置が微
妙にずれ、色ずれが発生する。色ずれがある場合、図3
(b)のように、エッジ部の画素nのR,G,Bの各セ
ンサの出力は等しくならず、次式のようになる。この
時、白と黒の境界の色は、灰色以外の、本来そこにはな
い何らかの色が現れてしまう。However, actually, the reading positions of the R, G, and B sensors are slightly shifted due to mechanical vibration, lens aberration, and the like, and color shift occurs. When there is a color shift, FIG.
As shown in (b), the outputs of the R, G, and B sensors of the pixel n at the edge portion are not equal, and are expressed by the following equation. At this time, as the color at the boundary between white and black, some color other than gray, which is not originally there, appears.
【0016】Gn≠Rn≠Bn ・・・ (式2)Gn ≠ Rn ≠ Bn (Equation 2)
【0017】次に、色ずれの補正方法について図4を参
照して説明する。図4には、Gセンサ出力を基準として
RセンサとBセンサの出力を補正する場合を示してい
る。本方法では、エッジ部の画像データRn,Bnと、そ
れぞれの画素に隣接する画素n+1、n-1から1画素未満で
ずらした画像データとを作成する。すなわち、Rセンサ
のn-1画素とn画素、n画素とn+1画素の間を、それぞれm
等分した補間データを以下のように計算する。Next, a method of correcting a color shift will be described with reference to FIG. FIG. 4 shows a case where the outputs of the R sensor and the B sensor are corrected based on the output of the G sensor. In this method, image data Rn and Bn of an edge portion and image data shifted by less than one pixel from pixels n + 1 and n-1 adjacent to each pixel are created. That is, the distance between the n-1 pixel and the n pixel and the n pixel and the n + 1 pixel of the R sensor is m, respectively.
The equally divided interpolation data is calculated as follows.
【0018】 (m−1)/m*Rn-1+1/m*Rn (m−2)/m*Rn-1+2/m*Rn ・・ 2/m*Rn-1+(m−2)/m*Rn 1/m*Rn-1+(m−1)/m*Rn Rn (m−1)/m*Rn+1/m*Rn+1 (m−2)/m*Rn+2/m*Rn+1 ・・ 2/m*Rn+(m−2)/m*Rn+1 1/m*Rn+(m−1)/m*Rn+1 ・・・ (式3)(M-1) / m * Rn-1 + 1 / m * Rn (m-2) / m * Rn-1 + 2 / m * Rn... 2 / m * Rn-1 + (m-2) / m * Rn1 / m * Rn-1 + (m-1) / m * Rn Rn (m-1) / m * Rn + 1 / m * Rn + 1 (m-2) / m * Rn + 2 / m * Rn + 1 ·· 2 / m * Rn + (m−2) / m * Rn + 1 1 / m * Rn + (m−1) / m * Rn + 1 (Equation 3)
【0019】同様に、Bセンサのn-1画素とn画素、n画
素とn+1画素の間を、それぞれm等分した補間データを
以下のように計算する。Similarly, interpolation data obtained by equally dividing the n-th pixel and the n-th pixel and the n-th pixel and the n + 1-th pixel of the B sensor by m are calculated as follows.
【0020】 (m−1)/m*Bn-1+1/m*Bn (m−2)/m*Bn-1+2/m*Bn ・・ 2/m*Bn-1+(m−2)/m*Bn 1/m*Bn-1+(m−1)/m*Bn Bn (m−1)/m*Bn+1/m*Bn+1 (m−2)/m*Bn+2/m*Bn+1 ・・ 2/m*Bn+(m−2)/m*Bn+1 1/m*Bn+(m−1)/m*Bn+1 ・・・ (式4)(M-1) / m * Bn-1 + 1 / m * Bn (m-2) / m * Bn-1 + 2 / m * Bn... 2 / m * Bn-1 + (m-2) / m * Bn1 / m * Bn-1 + (m-1) / m * Bn Bn (m-1) / m * Bn + 1 / m * Bn + 1 (m-2) / m * Bn + 2 / m * Bn + 1 ·· 2 / m * Bn + (m−2) / m * Bn + 1 1 / m * Bn + (m−1) / m * Bn + 1 (Equation 4)
【0021】例えば、m=8とすると、Rの補間デー
タ、Bの補間データは以下のようになる。For example, if m = 8, R interpolation data and B interpolation data are as follows.
【0022】 Rの補間データ: RH1 = 7/8*Rn-1+1/8*Rn RH2 = 6/8*Rn-1+2/8*Rn RH3 = 5/8*Rn-1+3/8*Rn RH4 = 4/8*Rn-1+4/8*Rn RH5 = 3/8*Rn-1+5/8*Rn RH6 = 2/8*Rn-1+6/8*Rn RH7 = 1/8*Rn-1+7/8*Rn RH8 = 0/8*Rn-1+8/8*Rn = Rn RH9 = 7/8*Rn +1/8*Rn+1 RH10 = 6/8*Rn +2/8*Rn+1 RH11 = 5/8*Rn +3/8*Rn+1 RH12 = 4/8*Rn +4/8*Rn+1 RH13 = 3/8*Rn +5/8*Rn+1 RH14 = 2/8*Rn +6/8*Rn+1 RH15 = 1/8*Rn +7/8*Rn+1 ・・・ (式5)Interpolated data of R: RH1 = 7/8 * Rn-1 + / * Rn RH2 = 6/8 * Rn-1 + 2/8 * Rn RH3 = 5/8 * Rn-1 + 3/8 * Rn RH4 = 4 / 8 * Rn-1 + 4/8 * Rn RH5 = 3/8 * Rn-1 + 5/8 * Rn RH6 = 2/8 * Rn-1 + 6/8 * Rn RH7 = 1/8 * Rn-1 + 7/8 * Rn RH8 = 0/8 * Rn-1 + 8/8 * Rn = Rn RH9 = 7/8 * Rn + 1/8 * Rn + 1 RH10 = 6/8 * Rn + 2/8 * Rn + 1 RH11 = 5/8 * Rn + 3 / 8 * Rn + 1 RH12 = 4/8 * Rn + 4/8 * Rn + 1 RH13 = 3/8 * Rn + 5/8 * Rn + 1 RH14 = 2/8 * Rn + 6/8 * Rn + 1 RH15 = 1/8 * Rn + 7/8 * Rn + 1 (Equation 5)
【0023】 Bの補間データ: BH1 = 7/8*Bn-1+1/8*Bn BH2 = 6/8*Bn-1+2/8*Bn BH3 = 5/8*Bn-1+3/8*Bn BH4 = 4/8*Bn-1+4/8*Bn BH5 = 3/8*Bn-1+5/8*Bn BH6 = 2/8*Bn-1+6/8*Bn BH7 = 1/8*Bn-1+7/8*Bn BH8 = 0/8*Bn-1+8/8*Bn = Bn BH9 = 7/8*Bn +1/8*Bn+1 BH10 = 6/8*Bn +2/8*Bn+1 BH11 = 5/8*Bn +3/8*Bn+1 BH12 = 4/8*Bn +4/8*Bn+1 BH13 = 3/8*Bn +5/8*Bn+1 BH14 = 2/8*Bn +6/8*Bn+1 BH15 = 1/8*Bn +7/8*Bn+1 ・・・ (式6)Interpolation data of B: BH1 = 7/8 * Bn-1 + 1/8 * Bn BH2 = 6/8 * Bn-1 + 2/8 * Bn BH3 = 5/8 * Bn-1 + 3/8 * Bn BH4 = 4 / 8 * Bn-1 + 4/8 * Bn BH5 = 3/8 * Bn-1 + 5/8 * Bn BH6 = 2/8 * Bn-1 + 6/8 * Bn BH7 = 1/8 * Bn-1 + 7/8 * Bn BH8 = 0/8 * Bn-1 + 8/8 * Bn = Bn BH9 = 7/8 * Bn + 1/8 * Bn + 1 BH10 = 6/8 * Bn + 2/8 * Bn + 1 BH11 = 5/8 * Bn + 3 / 8 * Bn + 1 BH12 = 4/8 * Bn + 4/8 * Bn + 1 BH13 = 3/8 * Bn + 5/8 * Bn + 1 BH14 = 2/8 * Bn + 6/8 * Bn + 1 BH15 = 1/8 * Bn + 7/8 * Bn + 1 (Equation 6)
【0024】上記Rの補間データ{RH1,…,RH15}
の中でGnに最も近いRHiを、Rnの代わりに新しいRn
とする。同様に、Bの補間データ{BH1,…,BH15}
の中でGnに最も近いBHiをBnの代わりに新しいBnと
する。図4の例では、次のようにする。The above-mentioned interpolation data of R {RH1,..., RH15}
RHi closest to Gn is replaced with a new Rn instead of Rn.
And Similarly, the interpolation data of B {BH1, ..., BH15}
BHi closest to Gn is set as a new Bn instead of Bn. In the example of FIG.
【0025】 新Rn=RH10 ・・・ (式7) 新Bn=BH5 ・・・ (式8)New Rn = RH10 (Equation 7) New Bn = BH5 (Equation 8)
【0026】このように、エッジ部のデータRn,Bnを
基準となるGnの値に近づけることにより、3ラインカ
ラーセンサを用いて白と黒の境界、すなわちエッジ部を
読み込んだ時に、機械の振動やレンズ収差によって発生
する色ずれを補正することができる。As described above, by bringing the edge data Rn and Bn close to the reference Gn value, when the boundary between white and black, that is, the edge is read by using the three-line color sensor, the vibration of the machine is reduced. And a color shift caused by a lens aberration can be corrected.
【0027】以上では、白と黒のエッジ部における色ず
れの発生と補正方法について述べてきたが、さらに、こ
の補正方法を応用して、白と黒以外の他の色が接するエ
ッジについても補正を行うことができる。以下、図5乃
至図7を参照してその詳細を説明する。In the above, the generation and correction method of the color misregistration at the white and black edge portions has been described. Further, by applying this correction method, the edge where colors other than white and black are in contact is also corrected. It can be performed. Hereinafter, the details will be described with reference to FIGS.
【0028】図5(a)は、原稿の中の赤色と水色のエ
ッジ部を3ラインセンサで読み取った時のR,G,B各
センサの出力を示している。赤色と水色の境界では、
R,G,Bすべてにおいてエッジが検出される。この場
合、RGBのセンサ出力の変化の向きは、Rは右下が
り、GBは右上がりとなる。また、白黒のエッジでは、
エッジ前後の各センサ出力群の中の最大値が同じ値にな
るが、白黒以外の色のエッジでは最大値が異なったもの
となる。いま、赤色と水色のエッジ部がセンサの1画素
(n)の中央にあったと仮定すると、色ずれがない場
合、その画素のR,G,Bすべての出力は、次式で示す
ように、エッジ部の画素の直前と直後の出力の差の1/
2となり、R,G,Bのすべての出力が同じ値を取るは
ずである。FIG. 5A shows the output of each of the R, G, and B sensors when the red and light blue edges in the original are read by the three-line sensor. At the border between red and light blue,
Edges are detected in all of R, G, and B. In this case, the direction of the change in the RGB sensor output is such that R decreases to the right and GB changes to the right. Also, at the black and white edges,
Although the maximum value in each sensor output group before and after the edge becomes the same value, the maximum value differs for edges of colors other than black and white. Now, assuming that the red and light blue edges are at the center of one pixel (n) of the sensor, if there is no color shift, the outputs of all the R, G, and B of that pixel are: The difference between the output immediately before and immediately after the pixel at the edge is 1 /
2 and all outputs of R, G and B should have the same value.
【0029】 Rn=Rn-1+{(Rn+1)―(Rn-1)}/2 ・・・ (式 9) Gn=Gn-1+{(Gn+1)―(Gn-1)}/2 ・・・ (式10) Bn=Bn-1+{(Bn+1)―(Bn-1)}/2 ・・・ (式11) Rn=Gn=Bn ・・・・・・・・・・・・・・・・ (式12)Rn = Rn−1 + {(Rn + 1) − (Rn−1)} / 2 (Equation 9) Gn = Gn−1 + {(Gn + 1) − (Gn−1)} / 2 (Equation 10) Bn = Bn-1 + {(Bn + 1)-(Bn-1)} / 2 (Equation 11) Rn = Gn = Bn ..... (Equation 12)
【0030】ところが、実際には機械振動やレンズの収
差などでR,G,B各センサの読み取り位置が微妙にず
れ、色ずれが発生する。色ずれがある場合、図5(b)
のように、エッジ部の画素nのR,G,Bの各センサの
出力は、同一の値にならない。However, actually, the reading positions of the R, G, and B sensors are slightly shifted due to mechanical vibration, lens aberration, and the like, and color shift occurs. When there is a color shift, FIG.
, The outputs of the R, G, and B sensors of the pixel n at the edge do not have the same value.
【0031】このような白と黒のエッジ部以外の任意の
色のエッジにおける、色ずれの補正について、図6及び
図7を用いて説明する。まず、エッジ部の直前と直後の
画素の出力の中で、最大値を見つける。上記図5(b)
ではRのエッジ部の直前と直後の画素の出力の中で、最
大値はRn-1である。同様に、Gについては、Gn+1、B
については、Bn+1である。ここに、赤と水色のエッジ
部であって、Rn-1=Gn+1であるので(等しくなる最大
値のある各画素位置がエッジ部の直前、直後である
が)、Gセンサを基準とすると、Rに関しては、上述の
白黒のエッジで用いた色ずれ補正方法が適用できる。従
って、図6に示すように、色ずれ補正後の新しいRn
は、次式で表される。The correction of color misregistration at an arbitrary color edge other than the white and black edge portions will be described with reference to FIGS. First, the maximum value is found in the output of the pixels immediately before and after the edge portion. FIG. 5 (b)
In R, the maximum value among the outputs of the pixels immediately before and immediately after the edge portion of R is Rn-1. Similarly, for G, Gn + 1, B
Is Bn + 1. Here, since the red and light blue edge portions are Rn-1 = Gn + 1 (although each pixel position having a maximum value that becomes equal is immediately before and after the edge portion), the G sensor is used as a reference. Then, for R, the above-described color shift correction method used for the black and white edge can be applied. Therefore, as shown in FIG.
Is represented by the following equation.
【0032】新Rn=RH11 ・・・ (式13)New Rn = RH11 (Equation 13)
【0033】一方、Bについては、図5(b)のよう
に、Bn+1<Gn+1であるので、このままでは、白黒のエ
ッジで用いた色ずれ補正方法を適用できない。そこで、
白黒のエッジで用いた色ずれ補正方法を適用するため、
Bn+1をGn+1に近づける必要がある。そのため、エッジ
部とその前後の画素のデータを、基準となるGに対し
て、正規化する。すなわち、Bn-1、Bn、Bn+1に次の
ような係数αを乗ずる(請求項でいう増幅)。その様子を
図7に示す。On the other hand, as for B, since Bn + 1 <Gn + 1 as shown in FIG. 5B, the color misregistration correction method used for the black and white edge cannot be applied as it is. Therefore,
To apply the color shift correction method used for black and white edges,
Bn + 1 needs to be close to Gn + 1. Therefore, the data of the edge portion and the pixels before and after the edge portion are normalized with respect to the reference G. That is, Bn-1, Bn, and Bn + 1 are multiplied by the following coefficient α (amplification in claims). This is shown in FIG.
【0034】α=Gn+1/Bn+1 ・・・ (式14)Α = Gn + 1 / Bn + 1 (Equation 14)
【0035】こうして得られたB出力のGに対する正規
化データを、(α*Bn-1)、(α*Bn)、(α*Bn+
1)とすると、The normalized data of the B output thus obtained with respect to G is represented by (α * Bn-1), (α * Bn), (α * Bn +
1)
【0036】 (α*Bn-1):(α*Bn):(α*Bn+1)=Bn-1:Bn:Bn+1 …(式15) であるので、Bn-1、Bn、Bn+1、それぞれの出力変化
の割合の関係は失われていない。さらに、Since (α * Bn−1) :( α * Bn) :( α * Bn + 1) = Bn−1: Bn: Bn + 1 (Equation 15), Bn−1, Bn, Bn +1 and the relationship of the output change ratio is not lost. further,
【0037】 (α*Bn+1)=Gn+1 ・・・ (式16) であるので、白と黒のエッジにおける色ずれ補正方法が
適用できる。Since (α * Bn + 1) = Gn + 1 (Equation 16), a color shift correction method for white and black edges can be applied.
【0038】Bの正規化データ、(α*Bn-1)、(α
*Bn)、(α*Bn+1)とGnから、白と黒のエッジに
おける色ずれ補正方法を用いて、新α*Bnを求める。
図7では、次のようになる。The normalized data of B, (α * Bn-1), (α
* Bn), (α * Bn + 1), and Gn, a new α * Bn is obtained by using a color shift correction method for white and black edges.
In FIG. 7, it is as follows.
【0039】 新(α*Bn)=BH12 ・・・ (式17)New (α * Bn) = BH12 (Equation 17)
【0040】最後に、(新α*Bn)は、補間データの
作成時に、正規化のためα倍しているので、1/αを乗
じることにより(請求項でいう減衰)、実際の補正値で
ある、新Bnを求めることができる。すなわち、新Bnは
次式で表される。Finally, (new α * Bn) is multiplied by α for normalization at the time of creating the interpolation data. Therefore, the actual correction value is multiplied by 1 / α (attenuation in claims). , A new Bn can be obtained. That is, the new Bn is represented by the following equation.
【0041】 新Bn=BH12/α ・・・ (式18)New Bn = BH12 / α (Equation 18)
【0042】上記色ずれ補正方法は、画素の出力のみで
補正を行うので、ラインセンサの主走査、副走査のどち
らの方向の色ずれにも対応可能である。そこで、1次微
分値を算出する時に、ラインの方向や、色と色の境界す
なわち、エッジ部の方向も同時に求め、その結果から色
ずれ補正をする方向を決め、その方向に色ずれ補正処理
をすることで、より良好な画像を得ることができる。In the above-described color misregistration correction method, since the correction is performed only by the output of the pixel, it is possible to cope with the color misregistration in either the main scanning direction or the sub scanning direction of the line sensor. Therefore, when calculating the first derivative, the direction of the line and the boundary between the colors, that is, the direction of the edge portion, are also obtained at the same time, and the direction of the color shift correction is determined from the result, and the color shift correction processing is performed in that direction. , A better image can be obtained.
【0043】図8に上記色ずれ補正処理を行うための制
御のブロック構成を示す。ラインセンサを成すCCD1
1は、原稿を走査して原稿の画像情報を持つ電気信号を
生成する。この信号は、A/D変換12によりディジタ
ル信号とされ、ライン補正13、シェーディング補正1
4、エッジ判別15、エッジ方向判別16、及び色ずれ
補正17において画像処理が施される。エッジ判別15
において信号変化よりエッジが検出され、色ずれ補正1
7において色ずれ補正処理が成される。FIG. 8 shows a block diagram of the control for performing the color misregistration correction processing. CCD1 that forms a line sensor
1 scans a document and generates an electric signal having image information of the document. This signal is converted into a digital signal by the A / D converter 12, and the line correction 13 and the shading correction 1 are performed.
4, image processing is performed in edge determination 15, edge direction determination 16, and color misregistration correction 17. Edge discrimination 15
, An edge is detected from a signal change, and color shift correction 1
At 7, color shift correction processing is performed.
【0044】図9は上述したエッジ検出と色ずれ補正処
理のフローチャートである。本例では、少なくとも2つ
以上のセンサ出力からエッジが検出された時に色ずれ補
正を行い、Gの出力を基準としている。まず、エッジ判
別のために、Rの1画素出力にエッジ判別マトリクスを
かけてRにエッジがあるかを調べ(#1)、Rにエッジ
がなければ、Gにエッジがあるかを調べる(#2)。い
ずれもエッジがなければ、エッジ判別マトリクスを1画
素移動し(#3)、画像終端かを調べて(#4)、終端
でなければ#1に戻る。#1で、Rにエッジがあれば、
Gにエッジがあるかを調べ(#5)、Gにエッジがなけ
れば、Bにエッジがあるかを調べ(#6)、いずれもエ
ッジがなければ、#3に移る。#2でGにエッジがあれ
ば、Bにエッジがあるかを調べ(#7)、Bにエッジが
なければ#3に移る。FIG. 9 is a flowchart of the above-described edge detection and color misregistration correction processing. In this example, when an edge is detected from at least two or more sensor outputs, color shift correction is performed, and the output of G is used as a reference. First, for edge discrimination, an edge discrimination matrix is applied to one pixel output of R to check whether there is an edge in R (# 1). If there is no edge in R, it is checked whether there is an edge in G (# 2). If there is no edge, the edge discrimination matrix is moved by one pixel (# 3), and it is checked whether it is the end of the image (# 4). If not, the process returns to # 1. In # 1, if R has an edge,
It is determined whether or not G has an edge (# 5). If G has no edge, it is determined whether or not B has an edge (# 6). If none has an edge, the process proceeds to # 3. If there is an edge in G in # 2, it is checked whether there is an edge in B (# 7), and if there is no edge in B, the process proceeds to # 3.
【0045】上記#5、#6、#7でエッジがあれば、
R,G,Bの内の2つ以上にエッジがあるので、色ずれ
補正処理(#8〜#11,#12〜#15,#16〜#
19)を行う。#8〜#11では、エッジ部画素のGセ
ンサ出力と、その前後のGセンサ出力よりなるエッジ部
周辺のGセンサ出力群の最大値に、Gセンサ群と同じ位
置のRセンサ出力群の最大値を一致せしめる正規化係数
αをRセンサ出力群に乗ずることにより、Rセンサ出力
群を正規化した後、エッジ部画素のGセンサと同じ位置
のR画素を基準にして、その両側のR画素の前記正規化
後の出力を用いて、1画素未満の範囲でずらしたRの値
を複数個演算し、その複数個の値の中から最適なRのデ
ータを見つけ、さらにそのデータを1/α倍し、エッジ
部画素の新たなRセンサ出力とする。If there is an edge in # 5, # 6, and # 7,
Since there are edges in two or more of R, G, and B, the color shift correction processing (# 8 to # 11, # 12 to # 15, # 16 to #
19) is performed. In steps # 8 to # 11, the maximum value of the G sensor output of the edge portion pixel and the maximum value of the G sensor output group around the edge portion including the G sensor outputs before and after the G sensor output are set to the maximum value of the R sensor output group at the same position as the G sensor group. After the R sensor output group is normalized by multiplying the R sensor output group by the normalization coefficient α for matching the values, the R pixels on both sides of the R pixel at the same position as the G sensor of the edge portion pixel are used as a reference. Using the output after the normalization, a plurality of R values shifted in a range of less than one pixel are calculated, an optimum R data is found from among the plurality of values, and the data is further divided by 1 / Multiply by α to obtain a new R sensor output of the edge portion pixel.
【0046】#16〜#19では、同様にして、エッジ
部画素のGセンサ出力と、その前後のGセンサ出力より
なるエッジ部周辺のGセンサ出力群の最大値に、Gセン
サ群と同じ位置のBセンサ出力群の最大値を一致せしめ
る正規化係数βをBセンサ出力群に乗ずることにより、
Bセンサ出力群を正規化した後、エッジ部画素のGセン
サと同じ位置のB画素を基準にして、その両側のB画素
の前記正規化後の出力を用いて、1画素未満の範囲でず
らしたBの値を複数個演算し、その複数個の値の中から
最適なBのデータを見つけ、さらにそのデータを1/β
倍し、エッジ部画素の新たなBセンサ出力とする。In steps # 16 to # 19, the G sensor output of the edge portion pixel and the maximum value of the G sensor output group around the edge portion composed of the G sensor outputs before and after the pixel are set to the same position as the G sensor group. By multiplying the B sensor output group by a normalization coefficient β for making the maximum value of the B sensor output group
After normalizing the B sensor output group, the B pixel at the same position as the G sensor of the edge portion pixel is used as a reference and the B pixel on both sides thereof is shifted by less than 1 pixel using the normalized output. A plurality of values of B are calculated, the optimum B data is found from the plurality of values, and the data is further divided by 1 / β
Multiply by 2 to obtain a new B sensor output of the edge portion pixel.
【0047】また、#12〜#15では、Gセンサ出力
にエッジがなく、RとBセンサの両方でエッジがある場
合には、エッジ部画素のRセンサ出力と、その前後のR
センサ出力よりなるエッジ部周辺のRセンサ出力群の最
大値に、Rセンサ群と同じ位置のBセンサ出力群の最大
値を一致せしめる正規化係数γをBセンサ出力群に乗ず
ることにより、Bセンサ出力群を正規化した後、エッジ
部画素のRセンサと同じ位置のB画素を基準にして、そ
の両側のB画素の前記正規化後の出力を用いて、1画素
未満の範囲でずらしたBの値を複数個演算し、その複数
個の値の中から最適なBのデータを見つけ、さらにその
データを1/γ倍し、エッジ部画素の新たなBセンサ出
力とする。In steps # 12 to # 15, if there is no edge in the output of the G sensor and there are edges in both the R and B sensors, the output of the R sensor of the edge portion pixel and the R before and after the pixel are detected.
By multiplying the B sensor output group by a normalization coefficient γ for matching the maximum value of the B sensor output group at the same position as the R sensor group with the maximum value of the R sensor output group around the edge portion composed of the sensor output After normalizing the output group, B is shifted within a range of less than one pixel using the normalized output of the B pixels on both sides of the B pixel at the same position as the R sensor of the edge portion pixel. Are calculated, the optimum B data is found from among the plurality of values, and the data is further multiplied by 1 / γ to obtain a new B sensor output of the edge portion pixel.
【0048】図10は赤から水色への色エッジにおける
色ずれ補正処理の効果を説明するものである。同図にお
いて、Rn-1及びGn+1の出力は白しきい値を越えている
が、Bの原データ:Bn+1が白しきい値を越えていない
ので、従来技術ではエッジと判断されず、補正がかから
ない。それに対して本発明では、上述から明らかなよう
に、Bの出力がしきい値を越えていなくても、Gのピー
ク値:Gn+1にBのピーク値:Bn+1を合わせるように、
β=Gn+1/Bn+1なる係数βをBn-1,Bn+1に乗じて、
B’n-1=β*Bn-1、B’n=β*Bn、B’n+1=β*
Bn+1を計算し、Gn+1とBn+1のピーク値を合わせてか
ら(正規化による増分)、B’nの補正値候補群:[BH
i]を計算し、補正値候補群の中から、Gnに最も近い補
正値候補:BHkを決定し、最後に、補正後Bn=BHk/
βとし、正規化を元に戻すことにより、色エッジにおい
ても、補正を行うことができる。FIG. 10 illustrates the effect of the color misregistration correction processing at the color edge from red to light blue. In the figure, the outputs of Rn-1 and Gn + 1 exceed the white threshold value, but the original data of B: Bn + 1 does not exceed the white threshold value. No correction is applied. On the other hand, in the present invention, as is apparent from the above, even if the output of B does not exceed the threshold value, the peak value of B: Bn + 1 is matched with the peak value of G: Gn + 1.
The coefficient β of β = Gn + 1 / Bn + 1 is multiplied by Bn−1 and Bn + 1, and
B'n-1 = β * Bn-1, B'n = β * Bn, B'n + 1 = β *
Bn + 1 is calculated, the peak values of Gn + 1 and Bn + 1 are combined (increment by normalization), and then a correction value candidate group of B'n: [BH
i] is calculated, and a correction value candidate: BHk closest to Gn is determined from the correction value candidate group, and finally, after correction Bn = BHk /
By resetting the normalization to β, it is possible to correct even the color edge.
【0049】なお、本発明は上記実施の形態の構成に限
られず種々の変形が可能である。例えば、上記実施の形
態では、白黒のエッジ以外の例として、赤色から水色の
エッジ部でのRGBの各センサ出力の変化について説明
したが、その他の色のエッジでも同様に色ずれ補正処理
を適用することが可能である。The present invention is not limited to the configuration of the above embodiment, and various modifications are possible. For example, in the above-described embodiment, as an example other than the black and white edge, the change of each sensor output of RGB at the edge portion of red to light blue has been described, but the color misregistration correction processing is similarly applied to the edge of other colors. It is possible to
【0050】[0050]
【発明の効果】以上のように請求項1に記載の発明によ
れば、ラインセンサにより読み取った画像データより画
像のエッジ部を検出して、基準となる画素データとそれ
に隣接する画素データから各ラインセンサの読み取り位
置のずれを補正して、色ずれを防止するという簡単な処
理方法でありながら、機械の振動やレンズ収差などによ
る色ずれを補正することができ、また、ラインセンサの
主走査同一ライン内での色ずれをも補正可能となる。As described above, according to the first aspect of the present invention, an edge portion of an image is detected from the image data read by the line sensor, and each edge is detected from the reference pixel data and the adjacent pixel data. It is a simple processing method that corrects the deviation of the reading position of the line sensor to prevent color deviation, but it can also correct the color deviation due to machine vibration and lens aberration, and also the main scanning of the line sensor. It is also possible to correct a color shift in the same line.
【0051】また、請求項2に記載の発明によれば、白
黒のエッジや細線以外の他の色のエッジや細線での色ず
れをも補正することができる。Further, according to the second aspect of the present invention, it is possible to correct color misregistration at edges of other colors and fine lines other than monochrome edges and fine lines.
【図1】 本発明の一実施形態による画像読み取り装置
の斜視図。FIG. 1 is a perspective view of an image reading apparatus according to an embodiment of the present invention.
【図2】 同装置においてエッジ検出に用いられる1次
微分マトリクスを示す図。FIG. 2 is a view showing a first-order differential matrix used for edge detection in the apparatus.
【図3】 (a)は白黒エッジ部での色ずれがない場合
のR,G,B各センサの出力を示す図、(b)は色ずれ
がある場合の出力を示す図。3A is a diagram illustrating outputs of R, G, and B sensors when there is no color misregistration at a monochrome edge portion, and FIG. 3B is a diagram illustrating an output when there is a color misregistration.
【図4】 色ずれ補正方法を示す図。FIG. 4 is a diagram showing a color misregistration correction method.
【図5】 (a)は赤と水色のエッジでの色ずれがない
場合のR,G,B各センサの出力を示す図、(b)は色
ずれがある場合の出力を示す図。5A is a diagram showing the output of each of the R, G, B sensors when there is no color misregistration at the red and light blue edges, and FIG. 5B is a diagram showing the output when there is a color misregistration;
【図6】 Rセンサの色ずれ補正方法を示す図。FIG. 6 is a diagram showing a method for correcting a color shift of an R sensor.
【図7】 Bセンサの色ずれ補正方法を示す図。FIG. 7 is a diagram showing a color shift correction method of a B sensor.
【図8】 色ずれ補正処理を行う制御ブロックを示す
図。FIG. 8 is a diagram showing a control block for performing a color misregistration correction process.
【図9】 色ずれ補正処理のフローチャート。FIG. 9 is a flowchart of a color misregistration correction process.
【図10】 色エッジにおける色ずれ補正の効果を示す
図。FIG. 10 is a view showing the effect of color misregistration correction at a color edge.
2 撮像カメラ部(読み取り手段) 11 CCD(ラインカラーセンサ) 15 エッジ判別(エッジ部検出手段) 17 色ずれ補正(色ずれ補正手段) 2 imaging camera section (reading means) 11 CCD (line color sensor) 15 edge determination (edge detection means) 17 color shift correction (color shift correction means)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 新宅 庸隆 京都市南区久世殿城町88番地 旭光精工株 式会社内 Fターム(参考) 5B047 AA01 AB04 BB03 DA01 DC11 5C055 BA06 EA05 HA36 HA37 5C072 AA01 BA19 EA05 QA17 UA05 UA18 5C077 LL19 MP07 MP08 NP01 PP32 PP39 PP43 PP47 PQ03 RR19 5C079 HB01 JA23 LA02 LA24 LA28 NA02 NA03 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor: Yasutaka Shintaku 88, Kuzedonojo-cho, Minami-ku, Kyoto Asahi Kosei Co., Ltd. F-term (reference) 5B047 AA01 AB04 BB03 DA01 DC11 5C055 BA06 EA05 HA36 HA37 5C072 AA01 BA19 EA05 QA17 UA05 UA18 5C077 LL19 MP07 MP08 NP01 PP32 PP39 PP43 PP47 PQ03 RR19 5C079 HB01 JA23 LA02 LA24 LA28 NA02 NA03
Claims (2)
像を読み取る画像読み取り装置において、前記3ライン
カラーセンサを有する読み取り手段と、前記読み取り手
段により読み取ったR(赤)、G(緑)、B(青)の画
像データのエッジ部を検出するエッジ部検出手段と、前
記エッジ部検出手段により検出したエッジ部の画素領域
で色ずれ補正処理を行う色ずれ補正手段とを備え、前記
色ずれ補正手段は、R,G,Bの出力がエッジ部の画素
領域において異なる場合、R,G,Bのいずれか1色を
選んで、これを基準色とし、該基準色のエッジ部画素と
該エッジ部画素の前後の画素よりなるエッジ部画素群の
出力の最大値を抽出し、この抽出された最大値に基づい
て前記基準色の値に他の2色の値を揃える補正を行うこ
とを特徴とする画像読み取り装置。1. An image reading apparatus for reading an image of a document using a three-line color sensor, comprising: reading means having the three-line color sensor; and R (red), G (green), and B read by the reading means. An edge portion detecting unit for detecting an edge portion of the (blue) image data; and a color misregistration correcting unit for performing a color misregistration correction process on a pixel region of the edge portion detected by the edge portion detecting device. The means selects one of R, G, and B colors when the outputs of R, G, and B are different in the pixel region of the edge portion, uses the selected color as a reference color, and determines the edge portion pixel of the reference color and the edge portion. Extracting the maximum value of the output of an edge pixel group consisting of pixels before and after the partial pixel, and performing correction for aligning the values of the other two colors with the value of the reference color based on the extracted maximum value. Image Reader.
る色の元の値が前記基準色の最大値よりも小さい場合、
前記元の値を増幅して前記最大値に揃えて色ずれ補正を
行い、その後、補正後の値を増幅分に応じて減衰させる
ことを特徴とする請求項1に記載の画像読み取り装置。2. The color misregistration correction unit according to claim 1, wherein an original value of the color to be corrected is smaller than a maximum value of the reference color.
2. The image reading apparatus according to claim 1, wherein the original value is amplified to perform color misregistration correction to the maximum value, and thereafter, the corrected value is attenuated in accordance with the amount of amplification.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000012385A JP2001203900A (en) | 2000-01-21 | 2000-01-21 | Image reader |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000012385A JP2001203900A (en) | 2000-01-21 | 2000-01-21 | Image reader |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001203900A true JP2001203900A (en) | 2001-07-27 |
Family
ID=18540109
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000012385A Pending JP2001203900A (en) | 2000-01-21 | 2000-01-21 | Image reader |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001203900A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100818479B1 (en) | 2007-03-07 | 2008-04-02 | 삼성전기주식회사 | Image processing method to improve sharpness |
| KR100866490B1 (en) | 2007-01-17 | 2008-11-03 | 삼성전자주식회사 | Apparatus and method for correcting chromatic aberration of an image |
| KR100885266B1 (en) | 2007-05-10 | 2009-02-23 | 삼성전기주식회사 | How to Correct Achromatic Aberration |
| US7525702B2 (en) | 2004-08-02 | 2009-04-28 | Seiko Epson Corporation | Methods and systems for correcting color distortions |
| US20090231641A1 (en) * | 2008-03-13 | 2009-09-17 | Canon Kabushiki Kaisha | Image reading apparatus and method of controlling the same |
| US8348391B2 (en) | 2004-12-17 | 2013-01-08 | Brother Kogyo Kabushiki Kaisha | Valve and actuator employing capillary electrowetting phenomenon |
| JP2013131975A (en) * | 2011-12-22 | 2013-07-04 | Riso Kagaku Corp | Image processing apparatus and image processing method |
| JP2013223087A (en) * | 2012-04-16 | 2013-10-28 | Mitsubishi Electric Corp | Image reading device, image processing device, image processing method, and computer program |
| JP2014027508A (en) * | 2012-07-27 | 2014-02-06 | Kyocera Document Solutions Inc | Image reading device and image forming apparatus including the same |
| KR101418391B1 (en) | 2013-03-07 | 2014-07-11 | 경북대학교 산학협력단 | Apparatus and Method for Generating images |
| KR101610756B1 (en) * | 2014-03-28 | 2016-04-08 | 주식회사 신도리코 | Scanner and method having function of color misregistration correction |
-
2000
- 2000-01-21 JP JP2000012385A patent/JP2001203900A/en active Pending
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7525702B2 (en) | 2004-08-02 | 2009-04-28 | Seiko Epson Corporation | Methods and systems for correcting color distortions |
| US8348391B2 (en) | 2004-12-17 | 2013-01-08 | Brother Kogyo Kabushiki Kaisha | Valve and actuator employing capillary electrowetting phenomenon |
| KR100866490B1 (en) | 2007-01-17 | 2008-11-03 | 삼성전자주식회사 | Apparatus and method for correcting chromatic aberration of an image |
| KR100818479B1 (en) | 2007-03-07 | 2008-04-02 | 삼성전기주식회사 | Image processing method to improve sharpness |
| KR100885266B1 (en) | 2007-05-10 | 2009-02-23 | 삼성전기주식회사 | How to Correct Achromatic Aberration |
| US8274716B2 (en) | 2008-03-13 | 2012-09-25 | Canon Kabushiki Kaisha | Image reading apparatus and method of controlling the same |
| JP2009224829A (en) * | 2008-03-13 | 2009-10-01 | Canon Inc | Image reading apparatus |
| US20090231641A1 (en) * | 2008-03-13 | 2009-09-17 | Canon Kabushiki Kaisha | Image reading apparatus and method of controlling the same |
| JP2013131975A (en) * | 2011-12-22 | 2013-07-04 | Riso Kagaku Corp | Image processing apparatus and image processing method |
| JP2013223087A (en) * | 2012-04-16 | 2013-10-28 | Mitsubishi Electric Corp | Image reading device, image processing device, image processing method, and computer program |
| JP2014027508A (en) * | 2012-07-27 | 2014-02-06 | Kyocera Document Solutions Inc | Image reading device and image forming apparatus including the same |
| US8928961B2 (en) | 2012-07-27 | 2015-01-06 | Kyocera Document Solutions Inc. | Image reading device, image forming apparatus therewith, and method of controlling an image reading device |
| KR101418391B1 (en) | 2013-03-07 | 2014-07-11 | 경북대학교 산학협력단 | Apparatus and Method for Generating images |
| KR101610756B1 (en) * | 2014-03-28 | 2016-04-08 | 주식회사 신도리코 | Scanner and method having function of color misregistration correction |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6587224B1 (en) | Image reading apparatus that can correct chromatic aberration caused by optical system and chromatic aberration correction method | |
| US7653239B2 (en) | Image processing method and image processing apparatus for correcting for color shift occurring in color image data | |
| EP2040455B1 (en) | Image forming apparatus and control method thereof | |
| JP2001203900A (en) | Image reader | |
| US7515298B2 (en) | Image processing apparatus and method determining noise in image data | |
| CN106998405A (en) | Scanner and image generating method | |
| US6175660B1 (en) | Image reading apparatus | |
| JP2008227625A (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
| JP2011010168A (en) | Image processing program, image processing apparatus, and image processing method | |
| JP3473707B2 (en) | Color image processing equipment | |
| JP3923293B2 (en) | Image processing method, image processing apparatus, and image forming apparatus | |
| US10701241B2 (en) | Image processing performing edge enhancement based on pixel isolation | |
| JP2003143421A (en) | Image processing device and method therefor | |
| JPH0646260A (en) | Picture reader | |
| JP4042335B2 (en) | Document reader | |
| JP3906524B2 (en) | Image reading device | |
| JP3478042B2 (en) | Image reading device | |
| JPH10215381A (en) | Image reading device | |
| JP2002016798A (en) | Image reading method, recording medium, and image reading device | |
| JP2002165092A (en) | Image processing apparatus and image processing method | |
| JP2009171219A (en) | Document reader | |
| JPH10257323A (en) | Image reader | |
| JP2001016401A (en) | Picture reader | |
| JP6033182B2 (en) | Image reading device | |
| JPH06311376A (en) | Color detector |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050614 |