JPH118763A - Image reading device - Google Patents
Image reading deviceInfo
- Publication number
- JPH118763A JPH118763A JP10108891A JP10889198A JPH118763A JP H118763 A JPH118763 A JP H118763A JP 10108891 A JP10108891 A JP 10108891A JP 10889198 A JP10889198 A JP 10889198A JP H118763 A JPH118763 A JP H118763A
- Authority
- JP
- Japan
- Prior art keywords
- shading correction
- data
- image
- image reading
- shading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Input (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
(57)【要約】
【課題】 原稿の画像を読取る場合、装置の経時的な変
化や、光量のバラツキ等による生じるシェーディング歪
みによる出力のバラツキを補正する。
【解決手段】 読取画像データ(1B)が、シェーディ
ング補正部18に入力されることで、該シェーディング
補正部18にて画像読取装置の経時的な変化や画像読取
りのための光学系の光量のバラツキによるシェーディン
グ補正を処理を施し、正常な画像データ1Cとして出力
する。このシェーディング補正部18は、ニューラルネ
ットワーク演算部43を有し、原稿台(11)の各位置
においてシェーディング歪を補正するためのシェーディ
ング補正データを記憶した記憶部44を備える。該記憶
部44には、原稿台の位置座標を入力すると、その位置
におけるシェーディング補正値が出力できるシェーディ
ング補正データが予め記憶されており、上記ニューラル
ネットワーク演算部43を用いてシェーディング補正処
理を行い、原稿面全体に対して安定なシェーディング補
正を実現する。
(57) [Summary] When reading an image of a document, a variation in output due to shading distortion caused by a change over time of a device or a variation in light amount is corrected. SOLUTION: When read image data (1B) is input to a shading correction unit 18, the shading correction unit 18 changes with time of an image reading apparatus and variation in light amount of an optical system for reading an image. And outputs the image data as normal image data 1C. The shading correction unit 18 includes a neural network operation unit 43 and a storage unit 44 that stores shading correction data for correcting shading distortion at each position of the document table (11). When the position coordinates of the document table are input to the storage unit 44, shading correction data capable of outputting a shading correction value at that position is stored in advance, and the shading correction process is performed using the neural network operation unit 43. A stable shading correction is realized for the entire document surface.
Description
【0001】[0001]
【発明の属する技術分野】本発明はデジタル複写機、フ
ァクシミリ、カラースキャナ等に搭載され、被読取原稿
の画像を光走査によって読取り、それを電気信号の形で
出力するスキャナとして称される画像読取装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reading apparatus which is mounted on a digital copying machine, a facsimile, a color scanner or the like, reads an image of an original to be read by optical scanning, and outputs the image in the form of an electric signal. Related to the device.
【0002】[0002]
【従来の技術】従来、画像読取装置としては、主にガラ
スで構成される透明な原稿台面上に置かれた原稿に対し
て、これを光源から発せられる光で光走査し、得られた
反射光をカラー画像を読取る場合に、何らかの方法でR
(赤)G(緑)B(青)の光の3成分に分解し、読取素
子であるCCD等の光電変換素子の受光部に結像し、こ
れらをR,G,Bの各成分のアナログ電気信号に変換
し、これをA/Dコンバータ等の手段を介してディジタ
ル電気信号の形で出力するように構成されたものが一般
的である。2. Description of the Related Art Conventionally, as an image reading apparatus, an original placed on a transparent original table surface mainly made of glass is optically scanned with light emitted from a light source, and the resulting reflection is obtained. When reading a color image with light, the R
(Red) Decomposes into three components of G (green) and B (blue) light and forms an image on a light receiving part of a photoelectric conversion element such as a CCD which is a reading element, and these are analog of each component of R, G and B. In general, an electric signal is converted into an electric signal, and the electric signal is outputted in the form of a digital electric signal through means such as an A / D converter.
【0003】ここに、上記のような画像読取装置におい
ては、光源の光量ムラ、光電変換素子の各画素毎の変換
特性のばらつき、装置内部の電圧変動による光源の光量
の変動、経年使用による光電変換素子の変換特性の変
化、結像用レンズの透過光量のばらつき等の諸要因によ
って、同一濃度の画像を光走査によって光電変換素子に
結像しても、該光電変換素子からの出力電気信号は常に
一定の値にはならず、常に変動するシェーディング歪と
いう現象が生じる。Here, in the above-described image reading apparatus, the light amount unevenness of the light source, the variation of the conversion characteristic of each pixel of the photoelectric conversion element, the fluctuation of the light amount of the light source due to the voltage fluctuation inside the apparatus, and the photoelectric conversion due to aging use. Even if an image of the same density is formed on the photoelectric conversion element by optical scanning due to various factors such as a change in the conversion characteristic of the conversion element and a variation in the amount of transmitted light of the imaging lens, the output electric signal from the photoelectric conversion element Does not always have a constant value, and a phenomenon of constantly varying shading distortion occurs.
【0004】この様なシェーディング歪現象に対し、出
力信号のばらつきをできる限り抑制して、同一濃度の画
像を読取る場合には、上記のような諸要因に関わらず常
に一定の出力電気信号を得ようとする補正を、シェーデ
ィング補正と称し、様々な試みがなされている。[0004] When reading an image of the same density while suppressing variations in output signals as much as possible against such a shading distortion phenomenon, a constant output electric signal is always obtained irrespective of the above factors. The correction to be performed is called shading correction, and various attempts have been made.
【0005】中でも一般的に用いられているのは、原稿
の画像を光走査して読取る光学系の移動経路中の原稿台
以外の場所に補正用基準白板(以下、基準白板と称す
る)を設置し、原稿を光走査する前にこの基準白板を前
もって光走査して光電変換素子にその画像を読取らせ、
その読取画像データを基準として各画素を構成する光電
変換素子毎にR,G,B成分の各信号に対する補正係数
を算出して、これを読取った読取画像データのディジタ
ル電気信号に加えることにより補正を行なう方法であ
る。[0005] Above all, a commonly used correction white plate (hereinafter referred to as a reference white plate) is provided at a position other than the platen in the movement path of an optical system for optically scanning and reading an image of a document. Then, before the original is optically scanned, the reference white plate is optically scanned in advance to make the photoelectric conversion element read the image,
Based on the read image data, a correction coefficient for each of the R, G, and B component signals is calculated for each photoelectric conversion element constituting each pixel, and the correction coefficient is added to the digital electric signal of the read read image data for correction. It is a method of performing.
【0006】この様な例として特開平7―336535
号公報では、各光電変換素子毎に設置された基準白板に
それぞれ側色データを表すバーコードを添付し、原画を
読取る前にこのバーコードデータの読取りと基準白板の
光走査を行なうことによって基準白板の製造時の濃度ば
らつきを抑えて安定したシェーディング補正を行なう方
法が開示されている。[0006] Japanese Patent Application Laid-Open No. 7-336535 discloses such an example.
In the publication, a bar code representing side color data is attached to a reference white plate provided for each photoelectric conversion element, and the bar code data is read and an optical scan of the reference white plate is performed before reading an original image. There is disclosed a method of performing stable shading correction while suppressing density variations at the time of manufacturing a white plate.
【0007】これに対し、特開平8―172531号公
報では、原稿台の走査線上に上記の基準白板を分散して
配置し、これらの基準白板の信号を読取った値からその
間の基準白板のない部分のシェーディング補正値を推定
直線計算を行なって算出するという方法が開示されてい
る。On the other hand, in Japanese Patent Application Laid-Open No. Hei 8-172553, the above-mentioned reference white plates are dispersedly arranged on a scanning line of a document table, and a signal obtained by reading the signals of these reference white plates has no reference white plate therebetween. A method of calculating a shading correction value of a portion by performing an estimated straight line calculation is disclosed.
【0008】[0008]
【発明が解決しようとする課題】上述したようなシェー
ディング補正におていは、白色基準板における出力状態
を考慮し、実際の読取画像データに対して補正を行うこ
とで、それなりの効果、つまり画像データを全体に同一
濃度で出力することができる。In the above-described shading correction, by performing correction on actual read image data in consideration of the output state of the white reference plate, a certain effect, that is, image Data can be output at the same density throughout.
【0009】しかしながら、特開平7−336535号
公報記載のシェーディングにおいては、光電変換素子間
での出力信号のばらつきは、ある程度抑えることができ
るが、原稿読取り面の全体にわたってのばらつきを抑え
ることはできない。即ち、原稿台にある原稿を光走査し
ていく際に、光源の光量の変動、各走査線に対して光源
から照明される走査光の角度の変動等の諸要因によっ
て、読取原稿の画像に同一濃度の画像があっても、場所
によって出力信号の値が変化するという現象が生じる。However, in the shading described in Japanese Patent Application Laid-Open No. Hei 7-336535, the dispersion of output signals between photoelectric conversion elements can be suppressed to some extent, but the dispersion over the entire document reading surface cannot be suppressed. . That is, when an original on the original platen is optically scanned, various factors such as a change in the light amount of the light source and a change in the angle of the scanning light illuminated from the light source with respect to each scanning line cause an image of the read original to be scanned. Even if images having the same density exist, a phenomenon occurs in which the value of the output signal changes depending on the location.
【0010】また、特開平8−172531号公報記載
のシェーディング補正においても、基準白板のない部分
に対して精度の高いシェーディング補正を行なうのは非
常に困難である。In the shading correction described in JP-A-8-172531, it is very difficult to perform high-precision shading correction on a portion having no reference white plate.
【0011】従って、いずれのシェーディング補正の方
法、手段においても原稿台全体に対して常に良好なシェ
ーディング補正を行なうことは非常に困難であり、どう
しても原稿台の位置によって、ある程度のシェーディン
グ歪を発生させてしまう。また、原稿の画像を読取る前
に、その都度基準白板等を読取り、これによるシェーデ
ィング補正処理を行う必要があり、読取時間が長くなる
傾向にあった。Therefore, it is very difficult to always perform good shading correction on the entire document table by any of the shading correction methods and means, and some shading distortion is inevitably generated depending on the position of the document table. Would. In addition, before reading an image of a document, it is necessary to read a reference white plate or the like each time and perform a shading correction process based on the reference white plate, and the reading time tends to be long.
【0012】本発明の目的は、シェーディング歪を発生
させる光電変換素子や光源の特性変化等の諸要因を考慮
し、かつ原稿台全体にわたって安定したシェーディング
補正を行なう画像読取装置を提供することにある。An object of the present invention is to provide an image reading apparatus which takes into account various factors such as a change in characteristics of a photoelectric conversion element and a light source which generate shading distortion and performs stable shading correction over the entire document table. .
【0013】特に本発明の目的は、シェーディング補正
を行う場合、原稿台上に同一濃度の画像を載置した時に
は、経時変化、光源の光量変化、さらにはその他の変化
に関係なく、一定の濃度による画像データを出力するよ
うにしたものある。In particular, an object of the present invention is to perform shading correction, and when an image of the same density is placed on a document table, a constant density is obtained regardless of a change over time, a change in light amount of a light source, and other changes. Is output.
【0014】[0014]
【課題を解決するための手段】上述した目的を達成する
ための請求項1記載の発明による画像読取装置は、原稿
台上に載置される原稿の画像を光学的に走査し、該走査
れた画像の反射光を電気信号に変換して読取画像データ
として出力する光電変換手段に結像し、該反射光による
画像に応じた光電変換手段から出力される読取画像デー
タに対して、予め画像の同一濃度の出力状態が一定とな
るようなシェーディング補正値に基づいてシェーディン
グ補正処理を行う補正手段を備えた画像読取装置におい
て、シェーディング補正のために上記原稿台上の任意の
点を複数指定し、上記補正手段は、予め上記同一基準濃
度の基準データに対して、シェーディング補正のための
上記指定された複数の任意の点における上記同一基準濃
度による上記光電変換手段にて読取ったシェーディング
補正用読取データが、上記基準データになるシェーディ
ング補正値を求めるとともに、上記複数の指定された点
の位置間のシェーディング補正値を求め、このシェーデ
ィング補正値により上記読取画像データのシェーディン
グ補正処理を施し、画像データとして出力するように構
成されたことを特徴とするこのようにすることで、複数
の任意の点によるシェーディング補正値の間を補完する
形で全域を原稿台全域をカバーするようなシェーディン
グ補正値を求めるようにしている。これにより、原稿の
読取画像データに対するシェーディング補正処理を施せ
る。つまり、原稿台全域をカバーできるようにシェーデ
ィング補正処理を行える。特に、任意の点においては、
シェーディング補正を必要となる箇所、例えば光学走査
手段の走査位置での変動や、経時変化による出力状態が
変化する位置を指定入力しておくことでシェーディング
補正を安定させることが可能になる。According to a first aspect of the present invention, there is provided an image reading apparatus for optically scanning an image of a document placed on a document table. The reflected light of the image is converted into an electric signal, and the image is formed on a photoelectric conversion unit that outputs the image as read image data. In an image reading apparatus provided with a correction means for performing shading correction processing based on a shading correction value such that an output state of the same density becomes constant, a plurality of arbitrary points on the platen are designated for shading correction. The correction means may be configured to perform the photoelectric conversion based on the same reference density at the plurality of designated points for shading correction with respect to the reference data having the same reference density in advance. The shading correction read data read by the conversion means obtains a shading correction value serving as the reference data, obtains a shading correction value between the positions of the plurality of designated points, and obtains the read image based on the shading correction value. The shading correction processing of the data is performed, and the image data is output as image data. By doing so, the entire area of the platen is complemented by complementing the shading correction values at a plurality of arbitrary points. A shading correction value that covers the entire area is obtained. Thereby, shading correction processing can be performed on the read image data of the document. That is, the shading correction processing can be performed so as to cover the entire area of the document table. In particular, at any point,
The shading correction can be stabilized by designating and inputting a position where shading correction is required, for example, a change in the scanning position of the optical scanning unit or a position where the output state changes due to aging.
【0015】そこで、上述した構成の画像読取装置にお
いて、請求項2記載の発明によれば、上記補正手段は、
ニューラルネットワークを用い上記原稿台上の任意に指
定された点の位置情報を入力要素とし、その位置情報に
応じて、上記基準データと、シェーディング補正用読取
データとにより求めたシェーディング補正値を教師信号
として学習を行い、学習結果が最終的にシェーディング
補正値となる係合係数をシェーディング補正データとし
て求め、このシェーディング補正データを記憶する記憶
部と、上記読取画像データの各位置情報を入力層に加
え、上記記憶部に記憶されたシェーディング補正データ
に応じたシェーディング補正値を出力層より出力するニ
ューロ演算部と、上記ニューロ演算部より出力されるシ
ェーディング補正値に応じた上記読取画像データのシェ
ーディング補正処理を行う補正演算部とから構成されて
いることを特徴とする。Therefore, in the image reading apparatus having the above-described configuration, according to the second aspect of the present invention, the correcting means includes:
Using a neural network, position information of an arbitrarily designated point on the platen is used as an input element, and a shading correction value obtained from the reference data and the shading correction reading data according to the position information is used as a teacher signal. Learning is performed, an engagement coefficient at which the learning result finally becomes a shading correction value is obtained as shading correction data, and a storage unit for storing the shading correction data and each position information of the read image data are added to the input layer. A neuro operation unit that outputs a shading correction value corresponding to the shading correction data stored in the storage unit from an output layer, and a shading correction process of the read image data that corresponds to the shading correction value output from the neuro operation unit And a correction operation unit for performing .
【0016】このようにニューラルネットワークを利用
して、シェーディング補正処理を行うようにしておけ
ば、光電変換手段の各素子の変換特性や光学走査用の光
源の光量ムラやシェーディング歪みの諸要因を反映し
た、原稿台での各位置におけるシェーディング補正が可
能になる。また、シェーディング補正のためのニューラ
ルネットワークを用いることで、シェーディング補正に
必要な情報をニューラルネットワーク演算用の重み計数
(係合係数)と応答関数の式のみに止めることが可能と
なる。更に原稿台の予め指定した任意の複数の点(位
置)でシエーディング補正データを算出するので、各点
間のシェーディング補正値を類推する形で出力できるよ
うになる。また、原稿の画像を読取る前には、同一濃度
となる画像、例えば基準白板をその都度光走査する必要
もなくなる。そのため、原稿の読取時間を短縮できる。If the shading correction process is performed using the neural network as described above, the conversion characteristics of each element of the photoelectric conversion means, the light amount unevenness of the light source for optical scanning, and various factors of shading distortion are reflected. Thus, shading correction can be performed at each position on the document table. In addition, by using a neural network for shading correction, it is possible to limit information necessary for shading correction to only equations for a weight coefficient (engagement coefficient) for neural network calculation and a response function. Further, since shading correction data is calculated at any of a plurality of points (positions) specified in advance on the document table, it is possible to output the shading correction value between the points by analogy. Further, it is not necessary to optically scan an image having the same density, for example, a reference white plate before reading an image of a document. Therefore, the reading time of the document can be reduced.
【0017】また、上述した構成の画像読取装置におい
て、本発明の請求項3記載のものによれば、上記記憶部
は、原稿台上を予め任意の領域に設定し、それぞれの領
域に応じて上記ニューラルネットワークにて学習演算し
たシェーディング補正データを区別して記憶しており、
上記補正手段は、読取画像データと共にそのデータに応
じた位置情報にて原稿台上を予め設定した領域を判別す
る判別部を備え、上記判別部は上記位置情報に応じた原
稿台上の予め設定された領域を判別し、上記補正手段
は、上記判別手段の判別結果に応じてシェーディング補
正データを記憶部よりニューロ演算部へと出力し、上記
予め設定した領域毎のシェーディング補正処理を行える
ようにしたことを特徴とする。According to the third aspect of the present invention, in the image reading apparatus having the above-described configuration, the storage unit sets an arbitrary area on the document table in advance, and sets the area in accordance with each area. The shading correction data learned and calculated by the neural network is stored separately.
The correction means includes a discriminating unit for discriminating a preset area on the platen based on the read image data and position information corresponding to the data, wherein the discriminating unit determines a predetermined area on the platen according to the position information. The correction unit outputs the shading correction data from the storage unit to the neuro calculation unit according to the determination result of the determination unit, and performs the shading correction process for each of the predetermined regions. It is characterized by having done.
【0018】このような補正手段の構成によれば、上述
した通りニューラルネットワークによるシェーディング
補正を行えると同時に、原稿台上の領域毎に細かなシェ
ーディング補正処理を行える。例えば原稿台上の中央部
と、その周辺部分の領域を区分して設定しておき、それ
ぞれの領域毎によるシェーディング補正処理を行える。
そのため、さらに高精度のシェーディング補正処理が可
能になる。また、領域の設定においては、任意に行えば
よく、光学系の走査位置での変動等を配慮できるように
任意に設定でき、より精度の高いシェーディング補正が
可能になる。According to such a configuration of the correction means, the shading correction by the neural network can be performed as described above, and at the same time, the fine shading correction processing can be performed for each area on the document table. For example, a central portion on a document table and a region around the central portion are set separately, and shading correction processing can be performed for each region.
Therefore, more accurate shading correction processing can be performed. In addition, the region may be set arbitrarily, and can be set arbitrarily so as to take into consideration fluctuations in the scanning position of the optical system, and more accurate shading correction becomes possible.
【0019】さらに、上述した構成による画像読取装置
において、請求項4記載の発明によれば、原稿台上の任
意に指定した複数の点の位置情報に加え、画像読取装置
の電源投入からの経過時間を入力要素としたシェーディ
ング補正用のニューラルネットワークを用いて各指定し
た点でのシェーディング補正値に基づく学習を行い、そ
の学習結果のシェーディング補正データを記憶部に記憶
しておき、これを利用して電源投入から電源電圧が安定
するまでのシェーディング補正を可能にできる。つま
り、画像読取装置の電源投入後に数時間といった比較的
短い期間での装置の内部電圧等の諸要因に対して、これ
を反映したシェーディング補正データを出力することが
できる。これにより、電源投入後に装置内部の電圧変動
によって光学走査系の光源の光量もしくは光量分布が変
化しても、原稿台上の各画素点において常に安定なシェ
ーディング補正を行なうことが可能となる。Further, in the image reading apparatus having the above-described configuration, according to the fourth aspect of the present invention, in addition to the position information of a plurality of arbitrarily designated points on the document table, the time elapsed since the power of the image reading apparatus is turned on. Learning is performed based on the shading correction value at each designated point using a neural network for shading correction using time as an input element, and the shading correction data obtained as a result of the learning is stored in a storage unit. Thus, shading correction from power-on until power supply voltage is stabilized can be performed. That is, it is possible to output shading correction data reflecting various factors such as the internal voltage of the image reading apparatus in a relatively short period such as several hours after the power of the image reading apparatus is turned on. Thus, even if the light amount or the light amount distribution of the light source of the optical scanning system changes due to the voltage fluctuation inside the apparatus after the power is turned on, it is possible to always perform stable shading correction at each pixel point on the document table.
【0020】また、上述した構成による画像形成装置に
おいて、請求項5記載の発明によれば、原稿台上の任意
に指定した複数の点の位置情報に加え、画像読取装置の
動作状態における経過時間を入力要素としたシェーディ
ング補正用のニューラルネットワークを用いて各指定し
た点でのシェーディング補正値に基づく学習を行い、そ
の学習結果のシェーディング補正データを記憶部に記憶
しておき、経時変化に対処できるシェーディング補正処
理を可能にできる。つまり、画像読取装置の読取動作に
より経時変化、例えば数ケ月あるいは数年といった長期
間で特性が変化するCCD等の光電変換素子の変換特性
や光源の特性等の諸要因に対して、これを反映したシェ
ーディング補正処理を行うことができる。従って、光電
変換素子や光源の継続使用による特性変化が発生して
も、原稿台上の各画素点において常に安定なシェーディ
ング補正を行なうことが可能となる。According to the fifth aspect of the present invention, in addition to the position information of a plurality of arbitrarily designated points on the platen, the elapsed time in the operation state of the image reading apparatus is provided. The learning based on the shading correction value at each designated point is performed using a neural network for shading correction using as an input element, and the shading correction data of the learning result is stored in the storage unit, so that it can cope with a temporal change. Shading correction processing can be performed. In other words, it is reflected on various factors such as the conversion characteristics of photoelectric conversion elements such as CCDs and the characteristics of light sources, whose characteristics change over time due to the reading operation of the image reading device, for example, the characteristics change over a long period of time such as several months or several years. The shading correction process can be performed. Therefore, even if a characteristic change occurs due to the continuous use of the photoelectric conversion element and the light source, it is possible to always perform stable shading correction at each pixel point on the document table.
【0021】また、上述した構成による画像読取装置に
おいて、請求項6記載の発明によれば、原稿台上の任意
に指定した複数の点の位置情報に加え、画像形成装置の
周囲の環境変化の検出信号を入力要素としたシェーディ
ング補正用のニューラルネットワークを用いて各指定し
た点でのシェーディング補正値に基づく学習を行い、そ
の学習結果のシェーディング補正データを記憶部に記憶
しておき、環境変化に対処したシェーディング補正を可
能にできる。つまり、画像読取装置の周囲の環境変化、
例えば湿度変化による原稿台内面の水滴によるくもり等
の諸要因に対して、これを反映したシェーディング補正
データを出力することができる。従って、画像読取装置
内の湿度により、原稿台内面に水滴によるくもり等が生
じた場合に対しても原稿台上の各画素点において常に安
定したシェーディング補正を行なうことが可能にでき
る。According to the image reading apparatus having the above-described configuration, in addition to the position information of a plurality of arbitrarily designated points on the document table, the image reading apparatus according to the sixth aspect of the present invention can also detect the environmental change around the image forming apparatus. The learning based on the shading correction value at each designated point is performed using a neural network for shading correction using the detection signal as an input element, and the shading correction data of the learning result is stored in the storage unit, and the learning result is stored in the storage unit. Shading correction that has been dealt with can be made possible. That is, environmental changes around the image reading device,
For example, it is possible to output shading correction data reflecting various factors such as clouding due to water droplets on the inner surface of the document table due to a change in humidity. Therefore, stable shading correction can be always performed at each pixel point on the document table even when clouding or the like due to water droplets occurs on the inner surface of the document table due to the humidity in the image reading apparatus.
【0022】最後に、上述した構成による画像読取装置
において、請求項7記載の発明によれば、原稿台上の任
意に指定した複数の点の位置情報に加え、画像読取装置
の電源投入時からの時間をカウントする第1のカウント
手段、画像読取装置の読取動作時間をカウントする第2
のカウント手段、画像読取装置の周囲の環境変化を検出
する検出センサからのそれぞれの信号が入力要素とした
シェーディング補正用のニューラルネットワークを用い
て各指定した点での各種シェーディング補正値に基づく
学習を行い、その学習結果のそれぞれのシェーディング
補正データを記憶部に記憶しておき、上記第1、第2の
カウント手段、検出センサからのいずれかの信号を入力
要素に加えるか否かを任意に外部から選択可能にし、い
ずれかのシェーディング補正を任意に行えるようにでき
る。そのため、ニューラルネットワーク演算部の入力層
に加える否かの入力要素を任意に外部から選択可能にし
ておけば、実際に画像を読取る際の画像読取装置の状況
や入力画像が要求する精度に応じて、上記の入力要素を
考慮したシエーディング補正を行なうかどうかを選択す
ることが可能となる。よって、特に高精度なシェーディ
ング補正を必要としない画像データを出力させる場合に
は、これらの入力要素を考慮しないシェーディング補正
のためのニューラルネットワークを選択することによ
り、処理時間の大幅な短縮が可能となる。Finally, in the image reading apparatus having the above-described structure, according to the invention of claim 7, in addition to the position information of a plurality of arbitrarily designated points on the document table, the position of the image reading apparatus from when the power of the image reading apparatus is turned on. Counting means for counting the time of reading, and second counting for counting the reading operation time of the image reading apparatus.
The learning means based on various shading correction values at designated points using a neural network for shading correction, in which each signal from the detection means for detecting environmental changes around the image reading device is used as an input element. Then, each shading correction data of the learning result is stored in the storage unit, and it is arbitrarily determined whether any one of the signals from the first and second counting means and the detection sensor is added to the input element. , And any of the shading corrections can be arbitrarily performed. Therefore, if the input element of whether to add to the input layer of the neural network operation unit can be arbitrarily selected from the outside, according to the situation of the image reading apparatus when actually reading the image and the accuracy required by the input image, It is possible to select whether or not to perform the shading correction in consideration of the above input elements. Therefore, when outputting image data that does not require high-precision shading correction, the processing time can be significantly reduced by selecting a neural network for shading correction that does not consider these input elements. Become.
【0023】[0023]
【本発明の実施の形態】本発明の各種実施形態について
図面を参照に詳細に説明する。図1は本発明の画像読取
装置によるシェーディング補正処理を行うためのニュー
ラルネットワークを用いたシェーディング補正部の詳細
を示すブロック図、図2は原稿を載置するための透明な
原稿台を示す平面図であり、特に本発明にかかるシェー
ディング補正のための座標点を任意に設定入力するため
の例を示している。図3は図1におけるシェーディング
補正に用いられるニューラルネットワークの一例を示す
説明図である。また、図4は図1に示すシェーディング
補正部を備える画像読取装置全体の概略構造及び、読取
った画像データをシェーディング補正処理するためのブ
ロック図である。DESCRIPTION OF THE PREFERRED EMBODIMENTS Various embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing details of a shading correction unit using a neural network for performing shading correction processing by the image reading apparatus of the present invention, and FIG. 2 is a plan view showing a transparent platen for placing a document. In particular, an example for arbitrarily setting and inputting a coordinate point for shading correction according to the present invention is shown. FIG. 3 is an explanatory diagram showing an example of a neural network used for shading correction in FIG. FIG. 4 is a schematic diagram of the overall structure of an image reading apparatus including the shading correction unit shown in FIG. 1 and a block diagram for performing shading correction processing on read image data.
【0024】まず、図4において、本発明にかかる画像
読取装置の概略構成を説明する。本発明の画像読取装置
は、透明な原稿台11に置かれた読取原稿を、原稿台1
1の下面に配置してなる光源12からの走査光によって
走査し、その反射光を反射ミラー13a,13b,13
cによって結像用レンズ14に導く。結像用レンズ14
を通過した反射光、つまり原稿からの反射光像は、光電
変換素子であるCCD素子15上に結像される。CCD
素子15には、CCDドライバ16が接続されており、
該ドライバを介してR,G,B成分の各濃度を示すアナ
ログ電気信号1A(各色信号Ra,Ga,Ba)が出力
される。このアナログ信号1Aは、次にA/D変換部1
7に伝送され、該変換部にてR,G,Bの各成分につい
て、例えばそれぞれ8bitのデジタル電気信号(読取
画像データ)1B(Rd,Gd,Bd)として出力され
る。First, referring to FIG. 4, a schematic configuration of an image reading apparatus according to the present invention will be described. The image reading apparatus according to the present invention converts a read document placed on a transparent platen 11 into a platen 1.
1 is scanned by scanning light from a light source 12 disposed on the lower surface of the light source 1, and the reflected light is reflected by reflecting mirrors 13a, 13b, 13b.
The light is guided to the imaging lens 14 by c. Imaging lens 14
, That is, the image of the reflected light from the original is formed on a CCD element 15 which is a photoelectric conversion element. CCD
A CCD driver 16 is connected to the element 15.
An analog electric signal 1A (each color signal Ra, Ga, Ba) indicating the density of each of the R, G, and B components is output via the driver. The analog signal 1A is then supplied to the A / D converter 1
7, and the conversion unit outputs each of the R, G, and B components as, for example, an 8-bit digital electric signal (read image data) 1B (Rd, Gd, Bd).
【0025】上記デジタル信号1Bは、次にシェーディ
ング補正部18に伝送される。このデジタル信号である
読取画像データ1Bは、上記シェーディング補正部18
にて本発明によるシェーディング補正処理を施された
後、補正後の画像データ1C(Rd1,Gd1,Bd
1)として外部機器へと出力される。例えば、デジタル
複写機であれば、レーザプリンタ等のカラー画像形成部
へと転送される。また、外部のカラープリンタ等に転送
される。Next, the digital signal 1B is transmitted to the shading correction unit 18. The read image data 1B, which is a digital signal, is supplied to the shading correction unit 18
After performing the shading correction processing according to the present invention, the corrected image data 1C (Rd1, Gd1, Bd
Output to the external device as 1). For example, in the case of a digital copying machine, the data is transferred to a color image forming unit such as a laser printer. The data is transferred to an external color printer or the like.
【0026】上記CCD素子15は、ラインセンサとし
て構成される。つまり、CCD素子15の各光電変換素
子は、図2において原稿台11に対してX方向に配列さ
れている。また、A/D変換部17とシェーディング補
正部18は、それぞれ専用のIC回路で構成される。The CCD element 15 is configured as a line sensor. That is, the photoelectric conversion elements of the CCD element 15 are arranged in the X direction with respect to the document table 11 in FIG. Further, the A / D conversion unit 17 and the shading correction unit 18 are each configured by a dedicated IC circuit.
【0027】本発明の画像読取装置は、光源12及び反
射ミラー13a,13b,13cが矢印で示した方向に
移動していくことにより、原稿を1ラインずつ光走査
し、得られる画像による反射光を、上記方法により出力
する動作を繰り返すことにより原稿の画像を読取り、そ
の電気的に変換された画像データを出力することができ
る。In the image reading apparatus of the present invention, the light source 12 and the reflection mirrors 13a, 13b, 13c move in the directions indicated by arrows, thereby optically scanning the original line by line, and the reflected light by the obtained image. Is repeated by the above method, the image of the document can be read, and the electrically converted image data can be output.
【0028】また、本発明によるシェーディング補正部
18は、シェーディング補正値が求められており、読取
った読取画像データ1Bに対してシェーディング補正処
理を施し、補正した処理後の画像データ1Cを出力して
いる。そのため、初期時、つまり製品の出荷前に、事前
に基準白板10を原稿台11上に載置し、この基準白板
10によるCCD素子15からのシェーディング補正の
ための基準となる読取データが得ておく。そして、その
基準となる基準の読取データに対して、該データが全て
同一になるようなシェーディング補正値が予め求められ
る。このシェーディング補正値を得るために、以下の実
施形態において詳細に説明するが、予めニューラルネッ
トワークにて演算した結果、つまり上記シェーディング
補正値となるような係合係数がシェーディング補正デー
タとして記憶される。このシェーディング補正データに
基づいて得られるシェーディング補正値にて、CCD素
子15からの読取データをシェーディング補正処理し、
画像データとして出力するようにしている。Further, the shading correction unit 18 according to the present invention calculates a shading correction value, performs shading correction processing on the read image data 1B, and outputs the corrected image data 1C. I have. Therefore, at the initial stage, that is, before shipment of the product, the reference white plate 10 is placed on the document table 11 in advance, and read data serving as a reference for shading correction from the CCD device 15 by the reference white plate 10 is obtained. deep. Then, a shading correction value is determined in advance so that the data becomes the same with respect to the reference read data serving as the reference. In order to obtain this shading correction value, a detailed description will be given in the following embodiments. As a result, a result of calculation in advance by a neural network, that is, an engagement coefficient which becomes the above-mentioned shading correction value is stored as shading correction data. With the shading correction value obtained based on the shading correction data, the read data from the CCD element 15 is subjected to shading correction processing,
Output as image data.
【0029】上記シェーディング補正部18は、ニュー
ラルネットワークにて、予め求めたシェーディング補正
データに従って、シェーディング補正処理を実行する。
そのために、基準白板10によるCCD素子15からの
シェーディング補正用読取データと、上記基準白板10
に対して全ての領域で同一出力となるような基準データ
(測色データ)との比較、例えば差をシェーディング補
正値として定め、このシェーディング補正値に基づいて
ニューラルネットワークを利用してシェーディング補正
データを求める。即ち、後に詳細に説明するが、光源1
2の光量ムラや電圧変動、また経時変化等に合わせてシ
ェーディング補正値に基づいて、同一の出力データが得
られるようなシェーディング補正データを、上述しシェ
ーディング補正部18にて予め得ておき、これに基づき
実際に原稿の画像を読取ったデータによるシェーディン
グ補正処理を行っていく。The shading correction section 18 executes a shading correction process using a neural network in accordance with shading correction data obtained in advance.
Therefore, the shading correction read data from the CCD element 15 by the reference white plate 10 and the reference white plate 10
For example, a comparison with reference data (colorimetric data) such that all areas have the same output, for example, a difference is determined as a shading correction value, and based on the shading correction value, the shading correction data is Ask. That is, the light source 1 will be described in detail later.
The shading correction unit 18 obtains in advance the shading correction data to obtain the same output data based on the shading correction value in accordance with the shading correction value in accordance with the light amount unevenness, the voltage fluctuation, the aging change, etc. , A shading correction process based on data obtained by actually reading an image of a document.
【0030】このようにしてシェーディング補正データ
を求め、実際には被読取原稿が原稿台11に載置される
ことで、CCD素子15から出力される読取画像データ
1Bに対して、先に求めたシェーディング補正データに
基づく、シェーディング補正値にてシェーディング補正
処理を施し、最終的にシェーディング補正後のデジタル
信号1Cを画像データとして出力する。In this manner, the shading correction data is obtained. When the document to be read is actually placed on the document table 11, the read image data 1B output from the CCD element 15 is obtained first. A shading correction process is performed using a shading correction value based on the shading correction data, and finally the digital signal 1C after the shading correction is output as image data.
【0031】このようにすることで、電圧変動や光源の
光量ムラ、光量分布の違い、さらに画像読取装置の経時
的な変化、CCD素子の各画素毎の出力にばらつき等に
対して、CCD素子15からの出力が、同一濃度の画像
に対して一定しない時でも、常に一定状態で安定した画
像データの出力が可能になるようにしている。By doing so, the CCD device is protected against voltage fluctuations, light amount unevenness of the light source, differences in light amount distribution, changes over time of the image reading device, and variations in the output of each pixel of the CCD device. Even when the output from the image 15 is not constant for an image of the same density, it is possible to always output a stable image data in a constant state.
【0032】(第1の実施形態)そこで、本発明におい
ては、シェーディング補正のために原稿台11に対して
全域で行えば非常に時間を要すると同時に、大容量の記
憶部が必要となる。そのため、原稿台11上の任意の点
を複数設定しておき、その設定した点におけるシェーデ
ィング補正値を求め、これに基づいてシェーディング補
正データを予めニューラルネットワークを用いて演算し
ておき、このシェーディング補正データに基づいて、シ
ェーディング補正処理を行うようにしている。その結
果、記憶部の容量が少なくてすむ。また、処理時間につ
いても差ほど必要としなくなる。しかも、実際の原稿の
画像読取走査時にその都度、シェーディング補正値を出
力させ、これによるシェーディング補正値による補正を
可能にしている。また、原稿の読取り前に、その都度基
準白板等を走査し、シェーディング補正値等を求める必
要がないため、1枚目から原稿の読取時間も短縮でき
る。(First Embodiment) Therefore, in the present invention, if shading correction is performed on the document table 11 over the entire area, it takes a very long time and a large-capacity storage unit is required. Therefore, a plurality of arbitrary points on the platen 11 are set, a shading correction value at the set point is obtained, and shading correction data is calculated in advance using a neural network based on the shading correction value. The shading correction processing is performed based on the data. As a result, the capacity of the storage unit can be reduced. Also, the processing time is not required as much. In addition, a shading correction value is output each time an actual document is scanned for reading an image, thereby enabling correction using the shading correction value. Further, before reading the document, it is not necessary to scan the reference white plate or the like each time to obtain a shading correction value or the like, so that the reading time of the document from the first sheet can be shortened.
【0033】以下に本発明のシェーディング補正の処理
を順を追って説明する。まず、シェーディング補正デー
タを求めるための例を詳細に説明すれば、図4に示す原
稿台11の原稿面全体にシェーディング補正用の基準白
板10を設置する。この基準白板10は、上述したよう
に図示しない原稿カバーによる白色板を利用してもよ
い。そして、初期時に上記基準白板10にて、予め基準
として測色データ(カラー画像の場合、反射光のR,
G,B成分を読取った値をそれぞれデジタルデータに変
換した上述した基準読取データ)を求めておく。Hereinafter, the shading correction processing of the present invention will be described step by step. First, an example for obtaining shading correction data will be described in detail. A reference white plate 10 for shading correction is installed on the entire document surface of the document table 11 shown in FIG. As the reference white plate 10, as described above, a white plate with a document cover (not shown) may be used. Then, at the initial stage, the colorimetric data (for a color image, R, R of reflected light,
The above-described reference read data obtained by converting the values obtained by reading the G and B components into digital data are obtained.
【0034】図2は図4に示す原稿台11の平面図であ
る。この原稿台11上の複数の任意の画素を測定点とし
て予め指定する。図2において符号21,22,23
は、このような測定点の例である。この測定点の数は、
任意であり、適宜設定すればよいことである。また、そ
の数が増すに従って、以下に説明する本発明によるシェ
ーディング補正がより精度の高いものとなる。反面、ニ
ューラルネットワークによる演算時間等が長くるが、こ
れは出荷前に事前に行っているため、実際に原稿の画像
を読取った後の読取データに対してシェーディング補正
を行う時には、その処理時間が長くなることはない。FIG. 2 is a plan view of the document table 11 shown in FIG. A plurality of arbitrary pixels on the document table 11 are designated in advance as measurement points. 2, reference numerals 21, 22, 23
Is an example of such a measurement point. The number of these measurement points is
It is optional and may be set as appropriate. Further, as the number increases, shading correction according to the present invention described below becomes more accurate. On the other hand, the calculation time by the neural network is longer, but since this is performed in advance before shipping, when performing shading correction on the read data after actually reading the image of the original, the processing time is It will not be long.
【0035】ここで、原稿台11上の任意の1点を原点
として指定しておけば、これを基準に上記測定点21,
22,23・・の座標を一義的に決めることができる。
この場合、原点の位置及び座標系は任意に設定すればよ
いことである。そこで、説明を簡単にするために、図2
において原稿台11の頂点の1つ、つまり点24を原点
(0,0)として設定しておけば、走査線方向(CCD
素子の配列方向)XをX軸、光源12の移動方向YをY
軸とする座標系が設定される。これにより、原稿台11
上の任意に指定(設定)した各測定点21,22,23
に対して、(x1,y1)・・等で示される位置座標が
一義的に定まる。Here, if an arbitrary point on the document table 11 is designated as the origin, the measurement points 21 and
The coordinates of 22, 23... Can be uniquely determined.
In this case, the position of the origin and the coordinate system may be arbitrarily set. Therefore, to simplify the explanation, FIG.
If one of the vertices of the platen 11, that is, the point 24 is set as the origin (0, 0), the scanning line direction (CCD
X is the X axis, and the moving direction Y of the light source 12 is Y.
A coordinate system as an axis is set. Thereby, the platen 11
Each measurement point 21, 22, 23 arbitrarily specified (set) above
, The position coordinates indicated by (x1, y1)... Are uniquely determined.
【0036】この様な任意の測定点を指示入力した上
で、光源12を移動させて基準白板10を光走査し、A
/D変換部17から出力されるデジタルデータを各画素
に対応して記録する。これにより、基準白板10を読取
った時のR,G,B各成分のデジタル信号(シェーディ
ング補正用読取データ)が、予め上述したように指定し
た各測定点において求まる。After inputting such an arbitrary measurement point, the light source 12 is moved and the reference white plate 10 is optically scanned.
The digital data output from the / D conversion unit 17 is recorded corresponding to each pixel. As a result, digital signals (reading data for shading correction) of the R, G, and B components when the reference white plate 10 is read are obtained at the measurement points designated in advance as described above.
【0037】そして、各測定点におけるこれらのシェー
ディング補正用読取データと、上述したように予め求め
ておいた基準白板10の測色データとを比較することに
より、R,G,B各成分に対する各測定点でのシェーデ
ィング補正値が算出される。上記測色データは、基準白
板10を読取素子にて実際に読取った場合、例えば走査
方向において全て同一濃度のデータとして得られる基準
データである。Then, by comparing the read data for shading correction at each measurement point with the colorimetric data of the reference white plate 10 obtained in advance as described above, each of the R, G, and B components is obtained. A shading correction value at the measurement point is calculated. The colorimetric data is, for example, reference data obtained as data having the same density in the scanning direction when the reference white plate 10 is actually read by the reading element.
【0038】そのため、実際に基準白板10をCCD素
子15により読取った基準読取データは、理想的には上
述した測色データに一致すれば、シェーディング歪みの
ない読取画像データを得ることができことになる。しか
し、実際には原稿台11やレンズ14、CCD素子15
の各読取画素毎のばらつきによるシェーディング歪みに
より、その出力が一定しない。そのため、基準白板10
を読取った時に理想の測色データが得られるように、そ
の測色データと上記基準白板10を実際に読取ったの基
準読取データとの差や、比率によるシェーディング補正
値を求める。Therefore, if the reference read data obtained by actually reading the reference white plate 10 by the CCD element 15 ideally matches the above-described colorimetric data, it is possible to obtain read image data without shading distortion. Become. However, in practice, the platen 11, the lens 14, the CCD element 15
The output is not constant due to shading distortion due to the variation of each read pixel. Therefore, the reference white plate 10
In order to obtain ideal colorimetric data when the image data is read, a difference between the colorimetric data and the reference read data obtained by actually reading the reference white plate 10 and a shading correction value based on a ratio are obtained.
【0039】上記シェーディング補正値においては、当
然CCD素子15からの各画素の出力が同一濃度、つま
り基準白板10を読取った状態において同一になるよう
にするための値である。また、このシェーディング補正
値は、上述したように予め設定した測定点21,22,
23等において求められる。即ち、各測定点において、
以下の表1で示されるようなシェーディング補正値のデ
ータが作成される。The above-mentioned shading correction value is a value for ensuring that the output of each pixel from the CCD element 15 has the same density, that is, the same value when the reference white plate 10 is read. Further, the shading correction values are set at the measurement points 21, 22 and 22 set in advance as described above.
23 and so on. That is, at each measurement point,
Data of shading correction values as shown in Table 1 below is created.
【0040】[0040]
【表1】 [Table 1]
【0041】以上の表1で示した各測定点におけるシェ
ーディング補正値のデータを基にして、図3に示すよう
に入力層が原稿台11上の各画素の位置座標(x,
y)、出力層がその画素におけるR,G,B各成分に対
する表1に示したシェーディング補正値Rh,Gh,B
hであるニューラルネットワークを構成し、各測定点で
のシェーディング補正値(Rh,Gh,Bh)を教師信
号として学習させるシェーディング補正用ニューラルネ
ットワーク(以下ニューロと記す)を構成する。Based on the data of the shading correction values at the respective measurement points shown in Table 1 above, the input layer has the position coordinates (x,
y), the output layer is a shading correction value Rh, Gh, B shown in Table 1 for each of the R, G, B components of the pixel.
A neural network for shading correction (Rh, Gh, Bh) at each measurement point is learned as a teacher signal (hereinafter, referred to as a neural network).
【0042】この場合、図3に示すニューロにおいて、
予め指定した測定点21,22,23・・の座標位置
(x1,y1),(x2,y2),(x3,y3)・・
に対する表1に示すシェーディング補正値(Rh,G
h,Bh)を出力できる学習が行われる。この時、例え
ば測定点21においては、予め中間層(Hidden Laye
r)の各係合係数を任意の値に設定しておき、その時の
出力層の値と、シェーディング補正値(Rh1,Gh
1,Bh1)とが比較され、それを教師データとして最
終的に出力層(Output Layer)からシェーディング補
正値(Rh1,Gh1,Bh1)が出力されるように係
合係数が逐次変更され学習が行われる。そして、最終的
に出力層に得られる値が、シェーディング補正値(Rh
1,Gh1,Bh1)になった時の係合係数がシェーデ
ィング補正データとして後に説明する記憶部に記憶され
る。In this case, in the neuro shown in FIG.
The coordinate positions (x1, y1), (x2, y2), (x3, y3) of the measurement points 21, 22, 23,.
Of the shading correction values (Rh, G
h, Bh). At this time, for example, at the measurement point 21, the intermediate layer (Hidden Laye
r) is set to an arbitrary value, and the value of the output layer at that time and the shading correction value (Rh1, Gh
, Bh1) are compared with each other, and the engagement coefficient is sequentially changed such that the shading correction value (Rh1, Gh1, Bh1) is finally output from the output layer (Output Layer) as the teacher data, and learning is performed. Will be The value finally obtained in the output layer is the shading correction value (Rh
1, Gh1, Bh1) is stored in a storage unit described later as shading correction data.
【0043】このようにして、各測定点22,23・・
においても同様のニューロによる学習が行われ、最終的
にその測定点22,23・・のシェーディング補正値が
出力層に出力される時の中間層の係合係数がシェーディ
ング補正データとして記憶される。In this way, the measurement points 22, 23,.
, The same neural learning is performed, and the engagement coefficient of the intermediate layer when the shading correction values of the measurement points 22, 23,... Are finally output to the output layer is stored as shading correction data.
【0044】このシェーディング補正用ニューラルネッ
トワークは、各画素毎に変換特性のばらつきのあるCC
D素子15と光量ムラを生じている光源12をはじめ、
基準白板10走査時の読取装置内の各機構の特性を反映
することになる。This neural network for shading correction uses a CC having a variation in conversion characteristics for each pixel.
Including the D element 15 and the light source 12 having uneven light amount,
This reflects the characteristics of each mechanism in the reading device when the reference white plate 10 is scanned.
【0045】本発明にかかる図3に示すニューラルネッ
トワークにて求めたシェーディング補正データは、図4
におけるシェーディング補正部18に利用されるもので
あって、該シェーディング補正部18の詳細については
図1に基づいて以下に説明する。The shading correction data obtained by the neural network shown in FIG. 3 according to the present invention is shown in FIG.
The shading correction unit 18 is used in the above. The details of the shading correction unit 18 will be described below with reference to FIG.
【0046】図1に示すシェーディング補正部18は、
補正演算部41と、判別部42と、ニューロ演算部(図
3に示すニューラルネットワークにて構成されるものと
同等のもの)43とシェーディング補正データ記憶部4
4を備えている。The shading correction section 18 shown in FIG.
A correction operation unit 41, a determination unit 42, a neuro operation unit (equivalent to the one configured by the neural network shown in FIG. 3) 43, and a shading correction data storage unit 4.
4 is provided.
【0047】図1においては、1Bは図4にて説明した
ようにCCD素子15よりドライバ16を介して出力さ
れるアナログデータ1AをA/D変換したデジタル信号
である読取画像データであって、これがシェーディング
補正部18へと入力される。シェーディング補正を行う
補正演算部41は、先に説明したようにシェーディング
補正データ記憶部44に記憶されているシェーディング
補正データに基づいて、上記ニューロ演算部43が演算
により出力するシェーディング補正値にて、上記読取画
像データ1Bに対してシェーディング補正処理を施し、
処理後の画像データ1Cとして出力する。In FIG. 1, reference numeral 1B denotes read image data which is a digital signal obtained by A / D conversion of analog data 1A output from the CCD element 15 via the driver 16 as described with reference to FIG. This is input to the shading correction unit 18. The correction operation unit 41 that performs shading correction is based on the shading correction data stored in the shading correction data storage unit 44, as described above, and calculates the shading correction value output by the neuro operation unit 43 by calculation. Applying a shading correction process to the read image data 1B;
Output as processed image data 1C.
【0048】上記シェーディング補正データ記憶部44
は、表1に示す各測定点でのシェーディング補正値、こ
の補正値に基づく学習による求められた中間層の係合係
数をシェーディング補正データとして記憶されている。
そして、この記憶内容が上記ニューロ演算部43に送ら
れることで、ニューロ演算部43からシェーディング補
正値が出力され、これにより読取画像データ1Bに対す
るシェーディング補正処理が行われ、出力画像データ1
Cとして出力処理される。The shading correction data storage section 44
In the table, shading correction values at each measurement point shown in Table 1 and an engagement coefficient of the intermediate layer obtained by learning based on the correction values are stored as shading correction data.
The stored contents are sent to the neuro operation unit 43, so that the neuro operation unit 43 outputs a shading correction value. As a result, the shading correction process is performed on the read image data 1B, and the output image data 1
Output processing is performed as C.
【0049】また、判別部42には、上述したように原
稿台11上の任意の測定点21,22,23等が読取り
画素の位置座標(x,y)の形式で、読取画像データ1
Bと共に入力され、入力された位置座標により、シェー
ディング補正を各原稿の領域に応じて処理するための原
稿範囲等を判別する機能等が備わっている。Further, as described above, the discrimination unit 42 stores the read image data 1 in the form of the position coordinates (x, y) of the read pixel at the arbitrary measurement points 21, 22, 23, etc. on the document table 11.
B, and a function of determining a document range or the like for performing shading correction in accordance with the area of each document based on the input position coordinates.
【0050】まず、上述したシェーディング補正データ
記憶部44に、予めニューロ演算させた結果によるシェ
ーディング補正データを記憶させる手順を説明する。そ
こで、初期時に、基準白板10を原稿台11にセットす
る。この基準白板10の基準濃度の画像を図4に示す装
置、つまり、原稿台11、ミラー及びレンズ等からなる
スキャナを構成する光学系を介して読取る。この時、原
稿台11にセットされた基準白板10の全域による読取
データがA/D変換部17よりR,G,B成分のデジタ
ル信号1Bと、先に説明したように基準白板10を図4
に示すような読取装置ではなく、純粋な読取手段にて直
接読取った時の測色データとを対比し、上記デジタル信
号1Bが測色データになる値をシェーディング補正値と
して求める。First, a procedure for storing the shading correction data based on the result of the neuro operation in advance in the above-described shading correction data storage unit 44 will be described. Therefore, the reference white plate 10 is set on the document table 11 at the initial stage. The image of the reference density on the reference white plate 10 is read through an apparatus shown in FIG. 4, that is, an optical system constituting a scanner including a document table 11, a mirror, a lens, and the like. At this time, the read data of the entire area of the reference white plate 10 set on the document table 11 is converted into digital signals 1B of R, G, and B components by the A / D converter 17 and the reference white plate 10 is
Is compared with the colorimetric data directly read by a pure reading means instead of a reading device as shown in FIG. 1 and the value at which the digital signal 1B becomes colorimetric data is obtained as a shading correction value.
【0051】このシェーディング補正値は、例えば予め
指定した図2に示すような測定点21,22,23・・
の各点において表1に示すように求まる。その測定点2
1,22,23・・のシェーディング補正値に基づい
て、図3に示すニューロにて測定点の座標値を入力層
に、上記シェーディング補正値を出力層として、中間層
の係合係数を種々変化させて、最終的に測定点によるシ
ェーディング補正値が出力層より出力される係合係数を
求める。この求めた結果の係合係数がシェーディング補
正データとして、シェーディング補正データ記憶部44
に記憶される。これは、各測定点において同様にニュー
ロ演算を実行し、その結果が逐次、シェーディング補正
データとして記憶部44に記憶されている。The shading correction values are, for example, the measurement points 21, 22, 23,.
Are obtained as shown in Table 1 at each point. Measurement point 2
Based on the shading correction values of 1, 22, 23,..., The engagement coefficient of the intermediate layer is variously changed using the neuron shown in FIG. 3 with the coordinate values of the measurement points as the input layer and the shading correction values as the output layer. Then, the engagement coefficient at which the shading correction value at the measurement point is finally output from the output layer is obtained. The engagement coefficient obtained as a result of this determination is used as shading correction data as the shading correction data storage unit 44.
Is stored. In this case, a neuro operation is similarly performed at each measurement point, and the result is sequentially stored in the storage unit 44 as shading correction data.
【0052】このようにして求めたシェーディング補正
データを記憶した記憶部44を用いて、図1に示すシェ
ーディング補正部18にて実際に、被読取原稿の画像が
読取られた読取データ1Bに対してシェーディング補正
演算部41にてニューロ演算部より出力されるシェーデ
ィング補正値に基づいてシェーディング補正処理され、
出力データ1Cとして出力される。Using the storage unit 44 storing the shading correction data obtained as described above, the read data 1B from which the image of the original to be read is actually read by the shading correction unit 18 shown in FIG. The shading correction calculation unit 41 performs shading correction processing based on the shading correction value output from the neuro calculation unit,
It is output as output data 1C.
【0053】そこで、図4に示す画像読取装置にて原稿
台11に実際に被読取原稿を載置し、画像を読取る。そ
の読取った読取画像データ1Bは、図1に示す補正演算
部41に入力される。この時、各読取画像データに合わ
せて座標データ(x,y)が判別部42に入力される。
この座標データは、図2に示すように原稿台11におい
て測定点21,22,23・・の座標位置を決めた通り
であり、X軸方向においては、CCD読取素子15のラ
イン方向に読取画素の位置であり、Y軸方向においては
図4におけるスキャナを構成するランプ12及び反射ミ
ラー13aが原稿台11に沿って走行される時の位置で
ある。これにより、読取画像データ1Bにおいては、上
記CCD読取素子15と上記ランプ12等の位置にて決
まる座標データが入力される。The document to be read is actually placed on the document table 11 by the image reading apparatus shown in FIG. The read image data 1B thus read is input to the correction operation unit 41 shown in FIG. At this time, the coordinate data (x, y) is input to the determination unit 42 in accordance with each read image data.
The coordinate data is obtained by determining the coordinate positions of the measurement points 21, 22, 23,... On the document table 11, as shown in FIG. In the Y-axis direction, this is the position when the lamp 12 and the reflection mirror 13a constituting the scanner in FIG. Thus, in the read image data 1B, coordinate data determined by the positions of the CCD reading element 15, the lamp 12, and the like is input.
【0054】この座標データ(位置情報)は、判別部4
2を介してニューロ演算部43の図3に示す入力層に加
えられる。そして、その位置に応じたシェーディング補
正データ記憶部44より、シェーディング補正データが
ニューロ演算部43の中間層の係合係数として出力され
る。これにより、ニューロ演算部43は、シェーディン
グ補正データに応じたシェーディング補正値を補正演算
部41に出力し、入力される特定の座標データにおける
読取画像データのシェーディング補正処理が補正演算部
41にて行われる。補正処理後、補正演算部41より画
像データ1Cとして出力される。つまり、画像に応じた
読取画像データ1Bは、ニューロ演算部43にて求めた
られたシェーエディング補正データに基づき、順次シェ
ーエディング補正され、画像データ1Cとして出力され
る。The coordinate data (position information) is transmitted to the discriminating unit 4
2 is applied to the input layer shown in FIG. Then, the shading correction data storage unit 44 corresponding to the position outputs the shading correction data as the engagement coefficient of the intermediate layer of the neuro operation unit 43. Accordingly, the neuro operation unit 43 outputs the shading correction value corresponding to the shading correction data to the correction operation unit 41, and the correction operation unit 41 performs the shading correction processing of the read image data at the specific coordinate data to be input. Will be After the correction processing, the image is output as image data 1C from the correction calculation unit 41. That is, the read image data 1B corresponding to the image is sequentially subjected to the shading correction based on the shading correction data obtained by the neuro operation unit 43, and is output as the image data 1C.
【0055】ここで、本発明においては、図2に示すよ
うに原稿台11の任意の点を指定し、その指定した測定
点21,22,23・・でのシェーディング補正値を求
め、この補正値に基づく、上述したようなニューロによ
る学習演算を行う。この学習については、任意の測定点
21,22,23・・毎で求めた表1に示すシェーディ
ング補正値を教師データとして学習を行い、その中間層
の係合係数を更新させながら、その測定点でのシェーデ
ィング補正値が得られるまで学習が行われる。Here, in the present invention, as shown in FIG. 2, an arbitrary point on the document table 11 is designated, and shading correction values at the designated measurement points 21, 22, 23,. The learning operation based on the neuron is performed based on the value. For this learning, learning is performed using the shading correction values shown in Table 1 obtained at each of the arbitrary measurement points 21, 22, 23,... As teacher data, and while the engagement coefficient of the intermediate layer is updated, the learning is performed. Learning is performed until a shading correction value is obtained.
【0056】このように各点での学習を行われること
で、その後はニューロの特徴となるが、上述したような
各点での学習を行うことにより、学習されたニューロ
は、例えば測定点21と測定点22までの各画素点のシ
ェーディング補正値を連続的な値として出力することが
可能となる。そのため、測定点以外の図2に示すような
原稿台11全域をカバーするようなシェーディング補正
値を各座標データの入力に合わせて出力させることが可
能となる。By performing the learning at each point in this manner, the neural characteristics are thereafter obtained. By performing the learning at each point as described above, the learned neuron is, for example, measured at the measurement point 21. And the shading correction value of each pixel point up to the measurement point 22 can be output as a continuous value. Therefore, it is possible to output a shading correction value that covers the entire area of the document table 11 other than the measurement points as shown in FIG. 2 in accordance with the input of each coordinate data.
【0057】例えば、測定点21と22の座標位置を基
にして、その点間のシェーディング補正値を推測してい
る。これを用いることで、読取画像データ1Bに対して
全ての点でのシェーディング補正処理が行われることが
できる。しかも、任意の点を複数指定するだけでよい。
これを上述したニューロを用いて予め学習させておくこ
とで、原稿台11に対する全域をカバーするようにした
シェーディング補正処理を可能にしている。しかも、被
読取原稿の読取走査を行う前に、その都度基準白板10
の読取結果を求めてシェーディング補正処理を行う必要
がなくなるため、1枚目の読取時間を短縮できる。For example, based on the coordinate positions of the measurement points 21 and 22, a shading correction value between the points is estimated. By using this, the shading correction processing at all points can be performed on the read image data 1B. Moreover, it is only necessary to specify a plurality of arbitrary points.
By learning this in advance using the above-described neuro, shading correction processing that covers the entire area of the document table 11 is enabled. In addition, before scanning the document to be read, the reference white plate 10
Therefore, it is not necessary to perform the shading correction processing to obtain the reading result of the first sheet, so that the reading time of the first sheet can be reduced.
【0058】また、測定点21と原点24までのシェー
ディング補正値についても、同様にして推測した形で求
まる。また、測定点23と原稿台11上の終点までも同
様にして求まる。この場合、原点24及び終点25(x
n,yn)を測定点として指定しておけば、その間のシ
ェーディング補正値を正確に推測できる。さらに、測定
点の数を増せば、自ずとより正確なシェーディング補正
値を全域をカバーするものとして得ることが可能とな
る。Further, the shading correction values from the measurement point 21 to the origin 24 can be obtained in a similar manner. In addition, the measurement point 23 and the end point on the document table 11 are similarly obtained. In this case, the origin 24 and the end point 25 (x
If (n, yn) is designated as a measurement point, the shading correction value during that period can be accurately estimated. Further, if the number of measurement points is increased, a more accurate shading correction value can naturally be obtained as covering the entire area.
【0059】(第2の実施形態)なお、原稿台11に載
置された被読取原稿は、その読取画像データが光学走査
により順次補正演算部41へと入力される。この時、原
稿台11における任意の点、つまり測定点21,22,
23の範囲において、上述したように学習させたシェー
エディング補正データに基づくシェーエディング補正値
を出力し、これによる補正処理が施される。(Second Embodiment) In the original to be read placed on the original platen 11, the read image data is sequentially input to the correction operation section 41 by optical scanning. At this time, any point on the platen 11, that is, the measurement points 21, 22,
In the range of 23, a shading correction value based on the shading correction data learned as described above is output, and a correction process based thereon is performed.
【0060】この場合、図2においては、原稿台11の
原点24から終点25までの全域をカバーできるような
任意の測定点21,22,23・・を指定している。こ
の指定領域は、例えば原稿台11のほぼ中央部における
シェーディング補正を反映することにもなる。In this case, in FIG. 2, arbitrary measurement points 21, 22, 23,... That can cover the entire area from the origin 24 to the end point 25 of the document table 11 are designated. This specified area reflects, for example, shading correction in the substantially central portion of the document table 11.
【0061】これに対して図5に示すように、原稿台1
1の先端(図において上部)部分から所定の距離で示す
領域11a、原稿台11の図において左右の領域11
c,11d、そして原稿台11の後端(図中下部)から
所定の距離までの領域11bで示す周辺のシェーディン
グ補正を良好に行う場合には、それらの領域において、
任意の測定点を複数指定し、上述したように測色データ
と、実際にCCD素子15にて基準白板10を読取った
基準読取データとの対比によるシェーディング補正値を
表1に示すように別個に求める。On the other hand, as shown in FIG.
An area 11a shown at a predetermined distance from the tip (upper part in the figure) of the document 1;
c, 11d, and the peripheral shading correction indicated by the area 11b from the rear end (lower part in the figure) of the document table 11 to a predetermined distance, in the areas,
A plurality of arbitrary measurement points are designated, and the shading correction values based on the comparison between the colorimetric data as described above and the reference read data obtained by actually reading the reference white plate 10 by the CCD element 15 are separately shown in Table 1. Ask.
【0062】例えば、原稿台11の上部領域11aにお
いて、測定点21a,22a,23a・・の位置を任意
に指定する。それらの、座標データ(x1a,1a),
(x2a,y2a)・・との関係で、上述した第1の実
施形態において説明したようにニューロによる学習を行
い、その結果を図1に示すシェーディング補正データ記
憶部44に、第1の実施形態において求めたシェーディ
ング補正データとは個別に記憶させておく。この場合、
原稿台11に対して中央部を除く、先端、後端、左右の
周辺の4つの領域11a,11b,11c,11d毎
に、シェーディング補正データを求めておけば、より正
確なシェーディング補正処理を行える。しかし、その記
憶データが増すのを避けるために、上述した周辺領域を
一つの領域としてシェーディング補正データを求めるこ
ともできる。For example, in the upper region 11a of the document table 11, the positions of the measurement points 21a, 22a, 23a,. Their coordinate data (x1a, 1a),
(X2a, y2a)... Learning is performed by neuron as described in the first embodiment, and the result is stored in the shading correction data storage unit 44 shown in FIG. 1 in the first embodiment. Is stored separately from the shading correction data obtained in. in this case,
If shading correction data is obtained for each of the four regions 11a, 11b, 11c, and 11d at the leading edge, the trailing edge, and the left and right sides of the document table 11 excluding the central portion, more accurate shading correction processing can be performed. . However, in order to avoid an increase in the stored data, the shading correction data can be obtained by using the above-described peripheral area as one area.
【0063】そこで、図1に示す判別部42において
は、外部より例えば原稿台11の領域に応じたシェーデ
ィング補正処理を行うか、図2に示すような一つの領域
によるシェーディング補正処理を行うかの外部より入力
設定が行えるようになっている。そのため、入力された
条件に応じた、シェーディング補正を行えるようにシェ
ーディングデータ記憶部44の記憶領域を指定し、それ
に応じたシェーディング補正データをニューロ演算部4
3へと出力させるようにしている。Therefore, the discriminating section 42 shown in FIG. 1 determines whether to perform shading correction processing corresponding to the area of the document table 11 from outside or to perform shading correction processing using one area as shown in FIG. Input settings can be made externally. Therefore, the storage area of the shading data storage unit 44 is designated so that shading correction can be performed according to the input conditions, and the shading correction data corresponding to the shading correction data is stored in the neuro operation unit 4.
3 is output.
【0064】つまり、判別部42は、読取領域に応じた
シェーディング補正処理を行わせるような設定入力がな
されると、読取装置による読取画像データ1Bと共に入
力される座標データ(x,y)にて、図5に示すような
領域11a,11b,11c,11dか、それ以外の中
央部の領域かを判別し、その領域に応じたシェーディン
グ補正データを記憶部44より出力させるように構成さ
れている。従って、原稿台11の全体のシェーディング
補正を良好に行うことが可能になる。That is, when a setting input for performing the shading correction process according to the reading area is made, the determination unit 42 uses the coordinate data (x, y) input together with the image data 1B read by the reading device. 5 and the central area other than the areas 11a, 11b, 11c, and 11d, and the storage unit 44 outputs shading correction data corresponding to the area. . Therefore, it is possible to favorably perform shading correction of the entire document table 11.
【0065】そのため、この実施形態に従えば、原稿台
11の周辺により出力データの落ち込み、また各領域に
よる光量や走査光学系のぶれ等により出力補正を良好に
行うことが可能になる。For this reason, according to this embodiment, it is possible to perform output correction favorably due to a drop in output data due to the periphery of the document table 11, a light amount in each area, a blur of the scanning optical system, and the like.
【0066】(経時変化に対処する本発明の実施形態)
ここで、読取装置においては、その経時変化により基準
白板10を読取っても、初期の基準読取データを得るこ
とができなくなる。そのため、本発明を利用すること
で、経時変化に対しても、読取装置による出力データに
対してシェーディング補正処理を行うことで、最初の読
取状態と同様の画像データ1Cの出力を行うことができ
る。そのため、上述した第1の実施形態において説明し
たニューラルネットワークを利用してシェーディング補
正データを学習させて求める。(Embodiment of the present invention for coping with aging)
Here, in the reading apparatus, even if the reference white plate 10 is read due to the change with time, initial reference read data cannot be obtained. Therefore, by using the present invention, even when the image data 1C is output, the same image data 1C as in the first reading state can be output by performing the shading correction processing on the output data from the reading apparatus even with the lapse of time. . Therefore, the shading correction data is obtained by learning using the neural network described in the first embodiment.
【0067】そのためにも、実際に画像読取装置の経時
変化に基づいて読取りを行う状態を作り出す。例えば、
初期より画像読取装置の寿命までの間に所用時間毎に複
数の測定時間点を設定する。これは、画像読取装置を、
実際に動作させるエージング処理にて、1年後の状態、
2年後の状態、さらに3年後の状態を疑似的に作り出
す。このようなエージング処理等にて行うことで、疑似
的といえども、画像読取装置は実際に経時変化する状態
と同様になる。For this purpose, a state is created in which reading is actually performed based on the aging of the image reading apparatus. For example,
A plurality of measurement time points are set for each required time from the beginning until the life of the image reading apparatus. This is an image reading device,
In the aging process that actually operates, the state one year later,
Simulate the state two years later and the state three years later. By performing such aging processing or the like, the image reading apparatus becomes similar to a state that actually changes with time, even if it is pseudo.
【0068】そして、それぞれの経時変化の状態におい
て、基準白板10を読取り、図2に示すような測定点2
1,22,23・・に基づくシェーディング補正値を、
表1に示す先に説明したように測色データとの対比によ
り求める。このシェーディング補正値と、上記測定点2
1,22,23・・との関係を、ニューロを用いて学習
させ、その学習結果によるシェーディング補正データを
1つの経時変化のデータとして記憶部44に、第1の実
施形態において説明したシェーディング補正データとは
別の領域に区別して記憶させておく。Then, in each time-dependent change state, the reference white plate 10 was read, and the measurement point 2 as shown in FIG.
The shading correction value based on 1, 22, 23.
As described above in Table 1, it is determined by comparison with the colorimetric data. This shading correction value and the measurement point 2
, 22, 23,... Are trained using a neuro, and the shading correction data based on the learning result is stored in the storage unit 44 as one time-dependent change data in the shading correction data described in the first embodiment. And stored in a different area.
【0069】例えば、上述したように画像読取装置の寿
命までの時間(期間)を複数、例えば1年毎に区切り、
その1年毎のシェーディング補正データを予め求めてお
き、これを記憶部44に区分して記憶しておく。For example, as described above, the time (period) until the life of the image reading apparatus is divided into a plurality of times, for example, every year.
The shading correction data for each year is obtained in advance, and this is separately stored in the storage unit 44.
【0070】そのため、図1に示すように別途、シェー
ディング補正部18の外部に画像読取装置の初期からの
動作時間をカウントするタイマ46を用意しておく。こ
のタイマ46からの出力は、上述したように例えば、1
年単位に基づいて信号出力するように構成されている。
そのタイマ46からの出力がニューロの入力層の一端子
に入力されるようにする。これにより、所定時間毎(1
年経過毎)にタイマ46からの出力に応答して、その経
時変化に応じたシェーディング補正処理を同様にして行
える。For this reason, as shown in FIG. 1, a timer 46 for counting the operation time of the image reading apparatus from the beginning is separately provided outside the shading correction section 18. The output from the timer 46 is, for example, 1 as described above.
It is configured to output a signal on a yearly basis.
The output from the timer 46 is input to one terminal of the neuro input layer. Thereby, every predetermined time (1
In response to the output from the timer 46 (every year has passed), the shading correction processing corresponding to the temporal change can be similarly performed.
【0071】そのために、上述した1年毎に経時変化し
た状態でのシェーディング補正データを得るためのニュ
ーロ演算が実行される。これは、図3に示すニューロに
おいて、経時時間による要素が入力層に加わる。図3に
おいて装置の動作時間がそれである。そして、上述した
ように画像読取装置をエージング処理にて実際に経時変
化した状態を作り出し、その時の状態での基準白板10
の読取データと、測色データとの対比によるシェーディ
ング補正値を表1に示すように求め、それぞれの測定点
との関係を、ニューロにて学習させ、その結果がシェー
ディング補正データとして記憶部44に区分された期間
毎、例えば1年毎に区分して記憶されている。For this purpose, a neuro operation is performed to obtain shading correction data in a state that has changed over time every year as described above. This is because, in the neuro shown in FIG. 3, an element due to aging time is added to the input layer. In FIG. 3, the operation time of the device is the same. Then, as described above, the aging process of the image reading apparatus is used to create a state that has actually changed over time, and the reference white plate 10 in that state is created.
The shading correction value based on the comparison between the read data and the colorimetric data is obtained as shown in Table 1, and the relationship between each measurement point is learned by neuro, and the result is stored in the storage unit 44 as shading correction data. The data is stored separately for each divided period, for example, for each year.
【0072】このようにして得られたシェーディング補
正データに基づき、以下に示す実際の原稿画像の読取処
理が行われる。そのため、図1において実際に画像読取
装置に原稿の画像読取を行い、初期から1年間では第1
の実施形態と同様なシェーディング補正を行う。Based on the shading correction data thus obtained, the following actual reading process of the original image is performed. Therefore, in FIG. 1, the image of the original is actually read by the image reading apparatus,
The same shading correction as in the embodiment is performed.
【0073】そして、画像読取装置の1年後において
は、そのデータがニューロ演算部43の入力要素して加
わり、上述した経時変化がに応じたシェーディング補正
を行うべく、装置の1年後に応じたシェーディング補正
データを記憶部44より出力させる。従って、1年経過
後には、1年後に基づくシェーディング補正データによ
り読取画像データ1Bが補正演算部41にてシェーディ
ング補正処理を実行でき、処理後のデータ1Cを出力す
る。これにより一定の出力状態を経時変化に関係なく補
正出力できる。One year after the image reading apparatus, the data is added as an input element of the neuro-operation unit 43, and the data is added one year after the apparatus in order to perform the shading correction according to the above-mentioned aging. The storage unit 44 outputs the shading correction data. Therefore, after one year has elapsed, the read image data 1B can be subjected to shading correction processing by the correction calculation unit 41 using shading correction data based on one year later, and the processed data 1C is output. As a result, a fixed output state can be corrected and output irrespective of a temporal change.
【0074】(電圧変動に対処する本発明の実施形態)
一方、画像読取装置は、その電圧変動に応じても出力状
態が大きく変化する。そのため電源投入後から装置内部
の電圧が一定化するまでの所用時間中に複数の測定時間
点を上述した経時変化と同様に設定する。各測定時間点
までエージング処理を施した場合の図2に示す各測定点
におけるR,G,B各成分のシェーディング補正値を求
める。これにより各測定時間点において、表1で示され
るような同様なシェーディング補正値が求まる。これ
は、実際に各測定時間点毎に、基準白板10を読取り、
その読取データと測色データの関係から求まることは上
述した通りである。(Embodiment of the present invention for coping with voltage fluctuation)
On the other hand, the output state of the image reading apparatus greatly changes according to the voltage fluctuation. For this reason, a plurality of measurement time points are set during the required time from when the power is turned on to when the voltage inside the device is stabilized, in the same manner as the above-described temporal change. The shading correction value of each of the R, G, and B components at each measurement point shown in FIG. 2 when the aging process is performed up to each measurement time point is obtained. As a result, a similar shading correction value as shown in Table 1 is obtained at each measurement time point. This means that the reference white plate 10 is actually read at each measurement time point,
The relationship between the read data and the colorimetric data is as described above.
【0075】そこで、図3に示した入力層に電源投入か
らの時間を追加したニューラルネットワークを上述した
各測定時間点における測定点21,22,23・・のシ
エーディング補正値を教師データとして学習させてお
く。これを電源投入からの時間を考慮したシェーディン
グ補正用ニューロとして学習演算させ、この結果をシェ
ーディング補正データとして、上述したシェーディング
補正データ記憶部44に記憶させる。Therefore, the neural network in which the time since power-on is added to the input layer shown in FIG. 3 is made to learn the shading correction values of the measurement points 21, 22, 23,... Keep it. This is subjected to learning calculation as a shading correction neuro that takes into account the time since power-on, and the result is stored in the above-described shading correction data storage unit 44 as shading correction data.
【0076】そのため、実際に被読取原稿の画像を読取
処理する場合、シェーディング補正部18の外部には、
電源投入からの時間をカウントするタイマ(第1のカウ
ント手段)45を用意している。このタイマ45からの
出力が図3に示すようにニューラルネットワークにおけ
る入力層への入力要素の一つとして加わる。Therefore, when the image of the original to be read is actually read, the shading correction unit 18
A timer (first counting means) 45 for counting the time from power-on is prepared. The output from the timer 45 is added as one of the input elements to the input layer in the neural network as shown in FIG.
【0077】従って、電源投入時の電源電圧の不安定な
状態で、実際に原稿の画像を読取っても、その時の不安
定な状態での適切なシェーディング補正値に基づくシェ
ーディング補正を行える。つまり、電源投入した直後に
原稿の画像読取動作開始すれば、電源投入からの時間に
応じたシェーディング補正データが記憶部44よりニュ
ーロ演算部43に出力される。そのため、ニューロ演算
部43からは、電源投入時点から読取動作が開始する時
間に応じたシェーディング補正値を補正演算部41へと
出力することになる。この結果、補正演算部41より出
力されるデータ1Cは、不安定な状態を配慮したシェー
ディング補正が施され、正確な読取り画像データ1Cと
なる。Therefore, even when an image of a document is actually read in a state where the power supply voltage is unstable when the power is turned on, shading correction based on an appropriate shading correction value in the unstable state at that time can be performed. That is, if the image reading operation of the document is started immediately after the power is turned on, the shading correction data corresponding to the time since the power is turned on is output from the storage unit 44 to the neuro calculation unit 43. Therefore, the neuro calculation unit 43 outputs to the correction calculation unit 41 a shading correction value corresponding to the time at which the reading operation starts from the time when the power is turned on. As a result, the data 1C output from the correction operation unit 41 is subjected to shading correction in consideration of an unstable state, and becomes accurate read image data 1C.
【0078】つまり、電源投入後の画像読取動作時に、
電圧変動によって光源12の光量変化もしくは光量分布
等が変動しても、原稿台11上の各画素点において常に
安定したシェーディング補正処理を行えることになる。That is, during the image reading operation after the power is turned on,
Even if the light amount changes or the light amount distribution of the light source 12 fluctuates due to the voltage fluctuation, stable shading correction processing can always be performed at each pixel point on the document table 11.
【0079】(環境変化に対処する本発明の実施形態)
また、上述した電源投入直後の電圧変動によるものに限
らず、画像読取装置が設置された場所において生じる環
境変化等においても、光源12の光量変化、CCD素子
からの出力特性変化が生じることが考えられる。(Embodiment of the present invention for coping with environmental changes)
In addition to the above-described voltage fluctuations immediately after the power is turned on, it is conceivable that a change in the amount of light of the light source 12 and a change in output characteristics from the CCD element may also occur in an environmental change or the like that occurs in a place where the image reading apparatus is installed. Can be
【0080】そのため、画像読取装置内部に、環境変化
を検出する例えば湿度センサ(湿度計)47を設け、湿
度の変化状態を検出し、これに応じて予めニューロ演算
した結果のシエーディング補正データに基づいて、シェ
ーディング補正処理が行えるようにしている。For this purpose, for example, a humidity sensor (hygrometer) 47 for detecting an environmental change is provided inside the image reading apparatus to detect a change in humidity, and based on shading correction data obtained as a result of performing a neuro operation in advance in accordance with the humidity sensor. Thus, shading correction processing can be performed.
【0081】そこで、実際に画像読取装置を各湿度状
態、例えば湿度60%,70%,80%の状態で、基準
白板10を原稿台11上に載置し、これを図4に示す光
学系を介して上述した各実施形態と同様にCCD素子1
5にて読取り、この読取基準データと測色データに基づ
き、表1に示すような湿度変化の状態のでシェーディン
グ補正値を求める。これを、図2に示す各測定点21,
22,23・・と、シェーディング補正値との関係を、
予め図3に示すように湿度信号を入力層の一つに加えた
ニューロにて学習演算を行う。この演算の結果によるシ
ェーディング補正データ(中間層の係合係数)がシェー
ディング補正データ記憶部44に予め記憶される。Therefore, the reference white plate 10 is placed on the document table 11 with the image reading apparatus actually in each humidity state, for example, in the state of 60%, 70%, and 80% humidity, and the optical system shown in FIG. CCD device 1 in the same manner as in each of the above-described embodiments.
5, and based on the read reference data and the colorimetric data, a shading correction value is obtained in a humidity change state as shown in Table 1. This is referred to as each measurement point 21 shown in FIG.
, And the relationship between the shading correction value and
As shown in FIG. 3, a learning operation is performed using a neural network in which a humidity signal is previously added to one of the input layers. The shading correction data (the engagement coefficient of the intermediate layer) based on the result of this calculation is stored in the shading correction data storage unit 44 in advance.
【0082】上述したように、湿度変化に応じた各種の
ニューラルネットワークによる演算結果を記憶したシェ
ーディング補正データ記憶部44を用いて、図1に示す
シェーディング補正部18によるシェーディング補正処
理が実際の被読取原稿に対して行われる。これを図1を
参照して説明すれば、シェーディング補正部18の外部
に画像読取装置内部の湿度を測定する湿度センサ47を
用意する。この湿度センサ47からの出力が図3に示す
入力層の一つの入力端子に入力される。これにより、湿
度が変化した時に、その湿度に応じたシェーディング補
正データが、記憶部44よりニューロ演算部43へと出
力するように、シェーディング補正データ記憶部44の
記憶領域を、上記湿度計47からの信号に応じて選択す
る。As described above, the shading correction processing by the shading correction unit 18 shown in FIG. 1 is performed by using the shading correction data storage unit 44 storing the calculation results by various neural networks according to the humidity change. Performed on the manuscript. This will be described with reference to FIG. 1. A humidity sensor 47 for measuring the humidity inside the image reading apparatus is prepared outside the shading correction unit 18. The output from the humidity sensor 47 is input to one input terminal of the input layer shown in FIG. Thus, when the humidity changes, the storage area of the shading correction data storage unit 44 is read from the hygrometer 47 so that the shading correction data corresponding to the humidity is output from the storage unit 44 to the neuro calculation unit 43. Select according to the signal of
【0083】これにより、読取装置内の環境変化、特に
湿度変化により、原稿台11に結露等が生じても、原稿
台11上の原稿画像の各読取点において常に安定したシ
ェーディング補正を行うことが可能となる。つまり、湿
度状態に応じた個別のシェーディング補正を行うことが
できる。そのため、環境変化に左右されずに、適正なシ
ェーディング補正を施したデータ1Cを出力できる。Thus, even when dew condensation or the like occurs on the document table 11 due to a change in the environment inside the reading apparatus, particularly a change in humidity, stable shading correction can be always performed at each reading point of the document image on the document table 11. It becomes possible. That is, individual shading correction according to the humidity state can be performed. Therefore, the data 1C subjected to appropriate shading correction can be output without being affected by environmental changes.
【0084】(本発明の他の実施形態)以上のように、
画像読取装置において、実際に画像を読取る前に、原稿
台11の任意の指定点に基づくニューロによる学習を行
うことで、シェーディング補正データを求めておく。そ
して、その学習結果であるシェーディング補正データに
基づいて、実際に画像を読取ったデータに対するシェー
ディング補正処理を行い、一定の画像データとして出力
できる。(Other Embodiments of the Present Invention) As described above,
In the image reading device, shading correction data is obtained by performing learning using a neuro based on an arbitrary designated point on the document table 11 before actually reading an image. Then, based on the shading correction data that is the learning result, shading correction processing is performed on the data obtained by actually reading the image, and the image data can be output as fixed image data.
【0085】そのため、本発明においては、上述したよ
うに単一のシェーディング補正データだけでなく、画像
読取装置の経時変化、湿度変化、さらには電源投入時点
から安定するまので電圧変動によるシェーディング補正
データをそれぞれ求めて、それらを必要に応じて使い分
けることが可能になる。Therefore, in the present invention, not only the single shading correction data but also the shading correction data due to the aging of the image reading apparatus, the humidity change, and the voltage fluctuation until the power supply is stabilized until the power is turned on. , Respectively, and these can be used as needed.
【0086】その一例を以下に説明する。それらによる
シェーディング補正処理の設定入力を任意に行うことが
できる。つまり、湿度変化等がほとんど考えられない場
所において、湿度変化に応じたシェーディング補正を行
う必要はない。そのため、そのような処理を省ける。An example will be described below. It is possible to arbitrarily input the setting of the shading correction processing based on them. That is, it is not necessary to perform shading correction according to the humidity change in a place where the humidity change is hardly considered. Therefore, such processing can be omitted.
【0087】そこで、それらを選択利用てきるようにす
るために、図1において判別部42に外部より光源等の
電源電圧変動、読取装置の経時変化等に応じたシェーデ
ィング補正処理を行うか否かの条件設定信号等を入力で
きるようにしておく。この入力条件設定信号に基づい
て、ニューロ演算部43側では、図3に示すようにx,
yの位置情報とは別の入力端子に、それぞの条件設定信
号に応じた図1に示す如きタイマ45,46、そして環
境変化を検出する湿度センサ47からの信号が選択入力
されるようにしておく。Therefore, in order to select and use them, the discriminating unit 42 in FIG. 1 determines whether or not to perform shading correction processing in response to a change in the power supply voltage of a light source or the like, a change over time in a reading device, or the like. To be able to input the condition setting signal and the like. On the basis of this input condition setting signal, the neuro-calculating section 43 performs x, as shown in FIG.
Signals from timers 45 and 46 as shown in FIG. 1 corresponding to respective condition setting signals and a humidity sensor 47 for detecting an environmental change are selectively inputted to input terminals different from the position information of y. Keep it.
【0088】これによりニューロ演算部43側では、そ
れぞれのタイマ45,46又は湿度センサ47からの入
力を条件としてシェーディング補正のためのニューロ演
算を行うことになる。As a result, the neuro operation unit 43 performs the neuro operation for shading correction on the condition that the input from each of the timers 45 and 46 or the humidity sensor 47 is a condition.
【0089】そのため、ユーザ側では、それぞれの条件
設定を任意にて設定でき、不要な場合にはその条件設定
を行わないようにしておく。その設定入力状態を、判別
部42が判別し、該判別部43を介して条件設定信号と
してシェーディング補正データ記憶部44に転送され
る。これを受けて記憶部44は、その条件に応じた予め
求めら記憶しているシェーディング補正データをニュー
ロ演算部43に出力する。そして、ニューロ演算部43
は、それに応じたシェーディング補正値を補正演算部4
1に出力する。またタイマ45、タイマ46、湿度セン
サ47に、上記条件設定に応じて入力要求信号を出力す
る。これを受けてタイマ45、タイマ46、湿度計47
のいずれかは、経過時間もしくは湿度の信号をニューロ
演算部43ヘ出力する。これらの信号と演算データから
ニューロ演算部43は、R,G,B各成分のシェーディ
ング補正値を算出して補正演算部41ヘと出力する。For this reason, the user can arbitrarily set the respective condition settings, and when unnecessary, do not set the condition. The setting input state is discriminated by the discriminating section 42 and transferred to the shading correction data storage section 44 via the discriminating section 43 as a condition setting signal. In response to this, the storage unit 44 outputs the shading correction data previously obtained and stored according to the condition to the neuro calculation unit 43. And the neuro operation unit 43
Calculates a shading correction value corresponding to the shading correction value
Output to 1. Further, an input request signal is output to the timer 45, the timer 46, and the humidity sensor 47 in accordance with the above-described condition setting. In response, the timer 45, the timer 46, the hygrometer 47
Outputs an elapsed time or humidity signal to the neuro operation unit 43. From these signals and the operation data, the neuro operation unit 43 calculates the shading correction values of the R, G, and B components and outputs the result to the correction operation unit 41.
【0090】そこで、以下に本発明のシェーディング補
正による制御、及び上述した入力条件を任意に選択して
設定した時のシェーディング補正による処理の流れを図
6及び図7に示すフローチャートに従って説明する。図
6及び図7において破線にて囲った部分は、それぞれ図
1のブロック図の各回路での処理を示すものであって、
説明を簡単にするために同一符号で示している。The flow of control by shading correction according to the present invention and the flow of processing by shading correction when the above-mentioned input conditions are arbitrarily selected and set will be described below with reference to flowcharts shown in FIGS. 6 and 7 indicate processing in each circuit of the block diagram of FIG. 1, respectively.
For the sake of simplicity, the same reference numerals are used.
【0091】まず、原稿台11上に載置された原稿の画
像読取りが開始すれば、その読取画像信号(データ)1
B(カラーの場合にはRd,Gd,Bd)及びその時の
座標信号(位置情報タ)の(x,y)が出力され、これ
が図1に示すブロック図に示す各回路に入力(ステップ
6A)される。そこで、入力される各信号は、それぞれ
読取画像データ1Bがシェーディング補正演算部41、
その時の位置座標信号(x,y)が判別部42にそれぞ
れ送られる(ステップ6B)。そのため、読取画像デー
タ1Bは、そのまま図1に示すシェーディング補正演算
部41に送られ、ステップ6Mによるシェーディング補
正処理が行われることになる。この処理は、後に説明す
るニューロ演算部43より出力されるシェーディング補
正値に基づいて行われる。First, when the image reading of the document placed on the document table 11 starts, the read image signal (data) 1
B (Rd, Gd, Bd in the case of color) and (x, y) of the coordinate signal (position information data) at that time are input to the respective circuits shown in the block diagram shown in FIG. 1 (step 6A). Is done. Therefore, as for each input signal, the read image data 1B is converted into the shading correction operation unit 41,
The position coordinate signal (x, y) at that time is sent to the determination unit 42 (step 6B). Therefore, the read image data 1B is sent to the shading correction calculation unit 41 shown in FIG. 1 as it is, and the shading correction processing in step 6M is performed. This process is performed based on a shading correction value output from a neuro operation unit 43 described later.
【0092】そして、判別部42に送られた位置座標信
号(x,y)は、該判別部42にて最初にステップ6C
にて予め外部から設定されたニューロによるシェーディ
ング補正が必要な座標範囲内の画素であるかが判断され
る。ここで対象外とされた画素については、予め決めら
れたシェーディング補正のための値が補正演算部41に
出力(ステップ6M)される。これは、本発明によるニ
ューロによるシェーディング補正処理を必要としない場
合のものである。即ち、本発明によるシェーディング補
正を対象とせずに、従来周知のシェーディング補正を実
行させるようにしている。そのため、ユーザが予め領域
毎に、例えば図5にて説明したように原稿台11に対し
て周辺領域11a,11b,11c,11dのみ本発明
によるシェーディング補正処理を行うように設定してお
く。これにより、中央部の座標位置でれあれば、本発明
によるシェーディング補正処理を行うものではないと判
断し、上記ステップ6Mによる処理を実行させる。Then, the position coordinate signal (x, y) sent to the discriminating section 42 is first sent to the discriminating section 42 in step 6C.
It is determined whether the pixel is within a coordinate range that requires shading correction by a neuro set in advance from outside. Here, for the pixels excluded from the target, a predetermined value for shading correction is output to the correction calculation unit 41 (Step 6M). This is a case where the shading correction processing by the neuro according to the present invention is not required. In other words, conventionally well-known shading correction is executed without targeting the shading correction according to the present invention. For this reason, the user sets in advance such that the shading correction processing according to the present invention is performed for each of the areas, for example, only the peripheral areas 11a, 11b, 11c, and 11d on the document table 11 as described with reference to FIG. As a result, if the coordinate position is at the center, it is determined that the shading correction processing according to the present invention is not to be performed, and the processing in step 6M is executed.
【0093】このステップ6Mにおていは、ニューロに
よるシェーディング補正ではなく、例えば従来より行わ
れているシェーディング補正のためのシェーディング補
正値が、そのまま補正演算部41へと出力されるように
なっている。そのため、シェーディング補正値を予め記
憶部44a等に記憶させておき、位置座標に応じたシェ
ーディング補正値を出力させるようにしている。例え
ば、シェーディング補正値は1ライン分における、各画
素毎に対応させて記憶しておき、座標位置(x,y)の
yの値には関係なくxの値に基づいてシェーディング補
正値を出力するようにしておけば、記憶容量が1ライン
分のみで済む。これは、簡易な方法であり、原稿台11
全域に対応させておくこともできるが、これではシェー
ディング補正値の記憶容量が膨大になる。In step 6M, for example, a shading correction value for shading correction that has been conventionally performed, instead of a shading correction using a neuron, is output to the correction calculation unit 41 as it is. . Therefore, the shading correction value is stored in advance in the storage unit 44a or the like, and the shading correction value corresponding to the position coordinates is output. For example, the shading correction value is stored in association with each pixel in one line, and the shading correction value is output based on the value of x regardless of the y value of the coordinate position (x, y). In this case, the storage capacity is only required for one line. This is a simple method.
Although it is possible to correspond to the entire area, the storage capacity of the shading correction value becomes enormous.
【0094】一方、上記位置座標データ(x,y)が、
ニューロによるシェーディング対象内と判断された場
合、ステップ6D〜6Fにおいて、それぞれ電源投入か
らの時間、画像読取装置の読取動作の経過時間、機器内
部の湿度の各要因を考慮したニューロによるシェーディ
ング補正を行なうかどうかが判別される。つまり、これ
が本発明によるニューロによるシェーディング補正処理
対象となる。On the other hand, when the position coordinate data (x, y) is
If it is determined that the image is within the shading target due to neuro, in steps 6D to 6F, shading correction using neuro is performed in consideration of factors such as the time from power-on, the elapsed time of the reading operation of the image reading device, and the humidity inside the device. Is determined. That is, this is the object of the shading correction processing by the neuro according to the present invention.
【0095】そこで、判別部42での処理が終了した
後、以後の処理はニューロ演算部43ヘ送られる。その
ため、ステップ6D〜6Fにて判断された結果に応じ
て、ステップ6G〜6Jにてニューロ演算に必要な演算
データと、入力値がロードされる。なお演算データは、
上述したようにシェーディング補正データ記憶部44に
記憶された各種データであり、これよりニューロ演算部
43にシェーディング補正データがロードされる。な
お、外部からの条件設定がなされていない場合には、位
置座標データに基づくニューロ演算部43の演算処理が
そのまま実行される(ステップ6J)。これは、図2に
示す各測定点21,22,23・・に基づいて求めたシ
ェーディング補正データにのみ基づくものである。Therefore, after the processing in the discrimination section 42 is completed, the subsequent processing is sent to the neuro operation section 43. Therefore, in accordance with the results determined in Steps 6D to 6F, in Steps 6G to 6J, the calculation data necessary for the neuro calculation and the input values are loaded. The operation data is
The various types of data stored in the shading correction data storage unit 44 as described above, and the shading correction data is loaded into the neuro operation unit 43 from this. If the condition has not been set from the outside, the calculation process of the neuro calculation unit 43 based on the position coordinate data is executed as it is (step 6J). This is based only on the shading correction data obtained based on the measurement points 21, 22, 23,... Shown in FIG.
【0096】上記ステップ6Jにおいては、第2の実施
形態の項にて説明したように、予め原稿台11を任意の
領域に設定しておき、その領域毎によるシェーディング
補正処理を行うこともできる。つまり、座標位置データ
が、中央部か、周辺部かを判別し、その領域毎に予め求
めたシェーディング補正データをニューロ演算部43に
ロード(出力)することもできる。これは、領域毎によ
るシェーディング補正処理を行うことを事前に設定して
おけばよい。In step 6J, as described in the second embodiment, the document table 11 can be set in an arbitrary area in advance, and the shading correction processing can be performed for each area. That is, it is also possible to determine whether the coordinate position data is the central part or the peripheral part, and to load (output) the shading correction data obtained in advance for each area to the neuro operation part 43. This may be set in advance to perform shading correction processing for each area.
【0097】また、電源投入時からの電圧変動にかかわ
るシェーディング補正処理を配慮する場合には、上述し
た(電圧変動に対処する実施形態)において説明したシ
ェーディング補正データが、記憶部44よりニューロ演
算部43へとロード(ステップ6D→6G)される。ま
た、画像読取装置による経時変化に対処する場合には、
それに応じたシェーディング補正データが、ニューロ演
算部43にロード(ステップ6E→6H)される。そし
て、環境変化に対処する場合には、その条件が予め判別
部42に入力されているため、そのシェーディング補正
データが、ニューロ演算部43にロード(ステップ6F
→6I)される。それ以外においては、上述した通りで
ある。In consideration of shading correction processing related to voltage fluctuations after power-on, the shading correction data described in the above-mentioned (embodiment for coping with voltage fluctuations) is stored in the storage unit 44 by the neuro calculation unit. 43 (step 6D → 6G). Also, when dealing with the aging of the image reading device,
The corresponding shading correction data is loaded into the neuro operation unit 43 (steps 6E → 6H). Then, when coping with an environmental change, the shading correction data is loaded into the neuro operation unit 43 (Step 6F) because the conditions have been input to the determination unit 42 in advance.
→ 6I). Otherwise, it is as described above.
【0098】次に、上述した何れかの条件に応じたシェ
ーディング補正データがロードされたニューロ演算部4
3では、シェーディング補正データが入力されること
で、それに応じたシェーディング補正値を補正演算部4
1へと出力する。つまり、ステップ6Lにて、上記ニュ
ーロ演算部43にてシェーディング補正データ記憶部4
4より送られてくる係合係数であるシェーディング補正
データによる演算を行い、出力層よりシェーディング補
正値(Rh,Gh,Bh)を補正演算部41へと出力す
る。Next, the neuro operation unit 4 loaded with the shading correction data according to any of the above conditions.
In 3, when the shading correction data is input, the shading correction value corresponding to the shading correction data is
Output to 1. That is, in step 6L, the neuro-operation unit 43 uses the shading correction data storage unit 4
The shading correction data (Rh, Gh, Bh) is output from the output layer to the correction calculation unit 41 by performing calculation based on the shading correction data that is the engagement coefficient sent from the control unit 4.
【0099】このシェーディング補正値が補正演算部4
1に出力されることで、上述したステップ6Bより既に
シェーディング補正演算部41に入力している読取画像
データ1Bに対してシェーディング補正処理(ステップ
6M)が行われ、処理後の画像データ1Cとして、外部
へ出力(ステップ6N)される。この場合、上述したニ
ューロ演算部43によるシェーディング補正データを得
るものでない場合には、上述したようにステップ6Kに
て予め定められたシェーディング補正値が、シェーディ
ング補正演算部41に送られており、上述したようにシ
ェーディング補正演算部41にシェーディング補正処理
を施し、読取画像データを補正処理後の画像データ1C
として出力される。The shading correction value is calculated by the correction operation unit 4
1, the shading correction processing (step 6M) is performed on the read image data 1B already input to the shading correction calculation unit 41 from step 6B described above, and the processed image data 1C is It is output to the outside (step 6N). In this case, if the shading correction data obtained by the neuro calculation unit 43 is not obtained, the shading correction value predetermined in step 6K is sent to the shading correction calculation unit 41 as described above. As described above, the shading correction operation unit 41 performs the shading correction process, and the read image data is subjected to the image data 1C after the correction process.
Is output as
【0100】従って、読取画像データを原稿台11の全
域においてニューロ演算部43より出力されるシェーデ
ィング補正値にて、シェーディング補正処理を行うこと
になる。この場合、予め指定した図2に示すような任意
に指定した測定点21,22,23等における位置での
シェーディング補正データをニューロ演算させて求めて
おき、これに基づいて出力処理するようにしてるため、
実際の画像読取後の画像データ1Cの出力処理が遅れる
ことはない。Accordingly, shading correction processing is performed on the read image data in the entire area of the document table 11 using the shading correction value output from the neuro operation unit 43. In this case, shading correction data at positions at measurement points 21, 22, 23 and the like arbitrarily specified as shown in FIG. 2 specified in advance is obtained by performing a neuro operation, and an output process is performed based on this. For,
The output processing of the image data 1C after the actual image reading is not delayed.
【0101】しかも、第2の実施形態において述べたよ
うに、原稿台11の図5に示すように複数領域を設定
し、それぞれの領域によるシェーディング補正処理を行
うこともできる。つまり、原稿台11の周辺領域の経時
変化を大きい場合には、その領域によるシェーディング
補正を、経時変化に応じて行い、中央部においては第1
の実施形態による位置情報に応じたシェーディング補正
のみで行うようにできる。従って、部分的にシェーディ
ング補正データをニューロ演算部43にて得るようにす
ることもできるため、経時変化の大きな点でのシェーデ
ィング補正処理を効果的に行え、安定したシェーディン
グ補正処理が可能になる。Further, as described in the second embodiment, a plurality of areas can be set on the document table 11 as shown in FIG. 5, and shading correction processing can be performed for each area. That is, when the temporal change in the peripheral area of the document table 11 is large, the shading correction in that area is performed according to the temporal change, and the first portion is provided in the central portion.
The shading correction according to the position information according to the embodiment can be performed only. Therefore, since the shading correction data can be partially obtained by the neuro operation unit 43, the shading correction processing at a point where the change with time is large can be effectively performed, and the stable shading correction processing can be performed.
【0102】[0102]
【発明の効果】本発明の画像読取装置によれば、原稿台
上のある読取画素の位置座標を入力すると、その位置に
よる読取画像データに対するシェーディング補正値を求
め、これによるシェーディング補正処理を行うため、原
稿台全域をカバーした安定したシェーディング補正処理
が行える。According to the image reading apparatus of the present invention, when the position coordinates of a certain read pixel on the document table are input, a shading correction value for the read image data based on the position is obtained, and the shading correction processing based on the shading correction value is performed. Thus, stable shading correction processing covering the entire area of the document table can be performed.
【0103】そこで、シェーディング補正値を求めるた
めに、ニューラルネットワークを利用しており、従来よ
りも短い読取り時間で読取原稿全体に対して安定したシ
ェーディング補正を行なうことが可能となる。特に、シ
ェーディング補正値をニューラルネットワークを用いて
出力させるために、予め複数の任意の点を指定してお
き、その指定した点でのシェーディング補正値を学習演
算させることで、これらの点の間を実質的にシェーディ
ング補正値を推測するようにシェーディング補正値が出
力でき、これによるシェーディング補正処理を行えるた
め、事前に基準白板等をその都度読み込みシェーディン
グ補正を行う場合と比べて、読取時間を短縮できる。Therefore, a neural network is used to obtain a shading correction value, and it is possible to perform stable shading correction on the entire read document in a shorter read time than in the related art. In particular, in order to output a shading correction value using a neural network, a plurality of arbitrary points are specified in advance, and the shading correction value at the specified point is learned and calculated, so that the distance between these points is determined. Since the shading correction value can be output so as to substantially estimate the shading correction value, and the shading correction process can be performed using the shading correction value, the reading time can be reduced as compared with the case where the reference white board or the like is read in advance each time and the shading correction is performed. .
【0104】また、電源投入からの経過時間を入力に追
加して学習させたニューラルネットワークを、シェーデ
ィング補正用に利用ことで、電源投入後に装置内部の電
圧変動によって光源の光量もしくは光量分布が変化して
も、原稿台上の各画素点において常に安定なシェーディ
ング補正を行なうことができる。Further, by using a neural network learned by adding the elapsed time from the power-on to the input for shading correction, the light amount or light amount distribution of the light source changes due to voltage fluctuation inside the device after the power-on. However, stable shading correction can always be performed at each pixel point on the document table.
【0105】しかも、画像読取装置における経時変化に
よる特性変化においても、ニューラルネットワークを利
用して、シェーディング補正処理を行うことができ、光
電変換素子(読取素子)や光学走査による特性変化に左
右されず、安定なシェーディング補正を行なうことがで
きる。これは、また環境変化に応じてもシェーディング
補正処理を行える。Further, even in the case of characteristic changes due to aging in the image reading apparatus, shading correction processing can be performed using a neural network, and is not affected by characteristic changes due to photoelectric conversion elements (reading elements) or optical scanning. And stable shading correction can be performed. This also enables shading correction processing to be performed in response to environmental changes.
【0106】そして、シェーディング補正を行うため
に、上述した各ニューラルネットワークを利用するか否
かを任意に選択できるようにしておけば、特に高精度な
シェーディング補正を必要としない場合には、これらの
条件設定を考慮しないシェーディング補正処理を行える
ため、処理時間の短縮が可能となる。If it is possible to arbitrarily select whether or not to use each of the above-described neural networks to perform shading correction, these shading corrections can be performed particularly when high-precision shading correction is not required. Since the shading correction processing can be performed without considering the condition setting, the processing time can be reduced.
【図1】本発明の画像読取装置を構成するシェーディン
グ補正部の一例の詳細をブロック図である。FIG. 1 is a block diagram illustrating details of an example of a shading correction unit included in an image reading apparatus according to the present invention.
【図2】本発明にかかる画像読取装置の原稿台上での任
意の位置座標を設定できる測定点の事例を示す平面図で
ある。FIG. 2 is a plan view showing an example of measurement points at which arbitrary position coordinates can be set on a document table of the image reading apparatus according to the present invention.
【図3】図1にかかるシェーディング補正部に用いられ
るニューラルネットワークの一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of a neural network used in the shading correction unit according to FIG. 1;
【図4】本発明における画像読取装置のシェーディング
補正部の回路部をも含めて示した概略構成ブロック図で
ある。FIG. 4 is a schematic block diagram showing a configuration of a shading correction unit of the image reading apparatus according to the present invention, including a circuit unit;
【図5】図2における原稿台上の領域に応じたシェーデ
ィング補正のための任意の測定点を指定する事例を示す
平面図である。FIG. 5 is a plan view showing an example in which an arbitrary measurement point for shading correction according to an area on a document table in FIG. 2 is designated;
【図6】図1におけるシェーディング補正による処理手
順の一例を示す制御フローチャートである。FIG. 6 is a control flowchart illustrating an example of a processing procedure by shading correction in FIG. 1;
【図7】図6の処理手順の続きを示す制御フローチャー
トである。FIG. 7 is a control flowchart showing a continuation of the processing procedure of FIG. 6;
10 シェーディング補正用基準白板 11 原稿台 12 光学走査用の光源 13a〜13c 反射ミラー 14 結像用レンズ l5 ラインCCD(光電変換素子) 16 CCDドライバ 17 A/D変換器 l8 シエーディング補正部 1A 光電変換されたアナログ画像信号 1B A/D変換器より変換されたデジタル画像信号
(読取画像データ) 1C シェーディング補正処理されたデジタル画像信号
(画像データ) 21〜23 シエーディング補正用データ取集のための
測定点 41 補正演算部 42 判別部 43 ニューラルネットワークによる演算部 44 シェーディング補正データ記憶部 45 電源投入からの経過時間にかかるタイマ(第1の
カウント手段) 46 画像読取装置の読取動作時間にかかるタイマ(第
2のカウント手段) 47 湿度計(環境変化の検出センサ)REFERENCE SIGNS LIST 10 shading correction reference white plate 11 original table 12 light source for optical scanning 13 a to 13 c reflection mirror 14 imaging lens 15 line CCD (photoelectric conversion element) 16 CCD driver 17 A / D converter 18 shading correction unit 1 A photoelectrically converted Analog image signal 1B Digital image signal (read image data) converted from A / D converter 1C Digital image signal (image data) subjected to shading correction processing 21-23 Measurement points 41 for collecting data for shading correction 41 Correction calculation unit 42 Discrimination unit 43 Neural network calculation unit 44 Shading correction data storage unit 45 Timer (first counting means) for elapsed time from power-on 46 Timer for reading operation time of image reading apparatus (second timer) Counting means) 47 Hygrometer Detection sensor of environmental changes)
Claims (7)
的に走査し、該走査れた画像の反射光を電気信号に変換
して読取画像データとして出力する光電変換手段に結像
し、該反射光による画像に応じた光電変換手段から出力
される読取画像データに対して、予め画像の同一濃度の
出力状態が一定となるようなシェーディング補正値に基
づいてシェーディング補正処理を行う補正手段を備えた
画像読取装置において、 シェーディング補正のために上記原稿台上の任意の点を
複数指定し、 上記補正手段は、予め上記同一基準濃度の基準データに
対して、シェーディング補正のための上記指定された複
数の任意の点における上記同一基準濃度による上記光電
変換手段にて読取ったシェーディング補正用読取データ
が、上記基準データになるシェーディング補正値を求め
るとともに、上記複数の指定された点の位置間のシェー
ディング補正値を求め、このシェーディング補正値によ
り上記読取画像データのシェーディング補正処理を施
し、画像データとして出力するように構成されたことを
特徴とする画像読取装置。An image of a document placed on a document table is optically scanned, and reflected light of the scanned image is converted into an electric signal and formed on photoelectric conversion means for outputting as read image data. Then, correction is performed on the read image data output from the photoelectric conversion means corresponding to the image based on the reflected light based on a shading correction value such that the output state of the same density of the image becomes constant in advance. In the image reading apparatus provided with means, a plurality of arbitrary points on the platen are designated for shading correction, and the correction means preliminarily performs the shading correction for the reference data having the same reference density. The shading correction read data read by the photoelectric conversion means at the specified reference densities at the plurality of specified points is the shade data serving as the reference data. And calculating a shading correction value between the positions of the plurality of designated points, performing shading correction processing of the read image data with the shading correction value, and outputting the image data as image data. An image reading apparatus comprising:
クを用い上記原稿台上の任意に指定された点の位置情報
を入力要素とし、その位置情報に応じて、上記基準デー
タと、シェーディング補正用読取データとにより求めた
シェーディング補正値を教師信号として学習を行い、学
習結果が最終的にシェーディング補正値となる係合係数
をシェーディング補正データとして求め、このシェーデ
ィング補正データを記憶する記憶部と、 上記読取画像データの各位置情報を入力層に加え、上記
記憶部に記憶されたシェーディング補正データに応じた
シェーディング補正値を出力層より出力するニューロ演
算部と、 上記ニューロ演算部より出力されるシェーディング補正
値に応じた上記読取画像データのシェーディング補正処
理を行う補正演算部とから構成されていることを特徴と
する請求項1記載の画像読取装置。2. The method according to claim 1, wherein the correction means uses a neural network to input position information of an arbitrarily designated point on the platen as an input element, and according to the position information, the reference data and the read data for shading correction. Learning is performed using the shading correction value obtained by the above as a teacher signal, an engagement coefficient whose learning result is finally a shading correction value is obtained as shading correction data, and a storage unit for storing the shading correction data; A neuro-operation unit that adds each position information of the data to the input layer, outputs a shading correction value corresponding to the shading correction data stored in the storage unit from the output layer, and a shading correction value output from the neuro operation unit. A correction calculation unit that performs shading correction processing of the read image data according to The image reading apparatus according to claim 1, characterized in that it is configured.
域に設定し、それぞれの領域に応じて上記ニューラルネ
ットワークにて学習演算したシェーディング補正データ
を区別して記憶しており、 上記補正手段は、読取画像データと共にそのデータに応
じた位置情報にて原稿台上を予め設定した領域を判別す
る判別部を備え、 上記判別部は上記位置情報に応じた原稿台上の予め設定
された領域を判別し、 上記補正手段は、上記判別手段の判別結果に応じてシェ
ーディング補正データを記憶部よりニューロ演算部へと
出力し、上記予め設定した領域毎に応じたシェーディン
グ補正処理を行えるようにしたことを特徴とする請求項
2記載の画像読取装置。3. The storage unit sets a document table in an arbitrary area in advance, and stores shading correction data learned and calculated by the neural network in accordance with each area, and stores the data separately. Comprises a discriminating section for discriminating a preset area on the platen based on read image data and position information corresponding to the data, wherein the discriminating section includes a preset area on the platen corresponding to the position information. The correction unit outputs shading correction data from the storage unit to the neuro calculation unit in accordance with the determination result of the determination unit, so that the shading correction process corresponding to each of the predetermined regions can be performed. 3. The image reading device according to claim 2, wherein:
置情報に加え、画像読取装置の電源投入からの経過時間
を入力要素としたシェーディング補正用のニューラルネ
ットワークを用いて各指定した点でのシェーディング補
正値に基づく学習を行い、その学習結果のシェーディン
グ補正データを記憶部に記憶しておき、電源投入から電
源電圧が安定するまでのシェーディング補正を可能にし
たことを特徴とする請求項2記載の画像読取装置。4. In addition to the positional information of a plurality of arbitrarily designated points on a platen, each designated point is input using a neural network for shading correction using an elapsed time from power-on of the image reading apparatus as an input element. The learning based on the shading correction value is performed, and the shading correction data as a result of the learning is stored in the storage unit, so that the shading correction from power-on to stabilization of the power supply voltage is enabled. 2. The image reading device according to 2.
置情報に加え、画像読取装置の動作状態における経過時
間を入力要素としたシェーディング補正用のニューラル
ネットワークを用いて各指定した点でのシェーディング
補正値に基づく学習を行い、その学習結果のシェーディ
ング補正データを記憶部に記憶しておき、経時変化に対
処できるシェーディング補正処理を可能にしたことを特
徴とする請求項2記載の画像読取装置。5. In addition to the positional information of a plurality of arbitrarily designated points on the platen, each designated point is determined using a neural network for shading correction using an elapsed time in the operating state of the image reading device as an input element. 3. The image reading apparatus according to claim 2, wherein learning based on the shading correction value is performed, and shading correction data obtained as a result of the learning is stored in a storage unit, thereby enabling shading correction processing capable of coping with aging. apparatus.
置情報に加え、画像形成装置の周囲の環境変化の検出信
号を入力要素としたシェーディング補正用のニューラル
ネットワークを用いて各指定した点でのシェーディング
補正値に基づく学習を行い、その学習結果のシェーディ
ング補正データを記憶部に記憶しておき、環境変化に対
処したシェーディング補正を可能にしたことを特徴とす
る請求項2記載の画像読取装置。6. In addition to position information of a plurality of points arbitrarily designated on a platen, each designation is made using a shading correction neural network using a detection signal of a change in environment around the image forming apparatus as an input element. The image according to claim 2, wherein learning based on a shading correction value at a point is performed, and shading correction data as a result of the learning is stored in a storage unit, thereby enabling shading correction in response to environmental changes. Reader.
置情報に加え、画像読取装置の電源投入時からの時間を
カウントする第1のカウント手段、画像読取装置の読取
動作時間をカウントする第2のカウント手段、画像読取
装置の周囲の環境変化を検出する検出センサからのそれ
ぞれの信号が入力要素としたシェーディング補正用のニ
ューラルネットワークを用いて各指定した点での各種シ
ェーディング補正値に基づく学習を行い、その学習結果
のそれぞれのシェーディング補正データを記憶部に記憶
しておき、 上記第1、第2のカウント手段、検出センサからのいず
れかの信号を入力要素に加えるか否かを任意に外部から
選択可能にし、いずれかのシェーディング補正を任意に
行えるようにしたことを特徴とする請求項2記載の画像
読取装置。7. A first counting means for counting the time from when the power of the image reading device is turned on, in addition to the position information of a plurality of arbitrarily designated points on the document table, and counting the reading operation time of the image reading device. A second counting means for converting each signal from a detection sensor for detecting a change in environment around the image reading device into various shading correction values at designated points using a neural network for shading correction as an input element. Learning based on the learning result is stored in the storage unit, and whether any one of the signals from the first and second counting means and the detection sensor is added to the input element is determined. 3. An image reading apparatus according to claim 2, wherein said image reading apparatus is arbitrarily selectable from outside so that any one of the shading corrections can be arbitrarily performed. .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10108891A JPH118763A (en) | 1997-04-24 | 1998-04-20 | Image reading device |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9-107287 | 1997-04-24 | ||
| JP10728797 | 1997-04-24 | ||
| JP10108891A JPH118763A (en) | 1997-04-24 | 1998-04-20 | Image reading device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH118763A true JPH118763A (en) | 1999-01-12 |
Family
ID=26447332
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10108891A Pending JPH118763A (en) | 1997-04-24 | 1998-04-20 | Image reading device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH118763A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8854698B2 (en) | 2011-05-31 | 2014-10-07 | Konica Minolta, Inc. | Image reading apparatus with at least three reference members arranged along sub-scanning direction for shading correction |
| WO2019156070A1 (en) * | 2018-02-09 | 2019-08-15 | 国立大学法人静岡大学 | Machine learning system and machine learning method |
| JP2021100247A (en) * | 2020-01-20 | 2021-07-01 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Distorted document image correction method and device |
-
1998
- 1998-04-20 JP JP10108891A patent/JPH118763A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8854698B2 (en) | 2011-05-31 | 2014-10-07 | Konica Minolta, Inc. | Image reading apparatus with at least three reference members arranged along sub-scanning direction for shading correction |
| WO2019156070A1 (en) * | 2018-02-09 | 2019-08-15 | 国立大学法人静岡大学 | Machine learning system and machine learning method |
| JPWO2019156070A1 (en) * | 2018-02-09 | 2021-01-28 | 国立大学法人静岡大学 | Machine learning system and machine learning method |
| JP2021100247A (en) * | 2020-01-20 | 2021-07-01 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Distorted document image correction method and device |
| US11756170B2 (en) | 2020-01-20 | 2023-09-12 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for correcting distorted document image |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6950139B2 (en) | Image reading device and storage medium storing control procedure for image reading device | |
| EP0590559B1 (en) | Image reading apparatus | |
| JPH0722311B2 (en) | Color image reading device | |
| US7400430B2 (en) | Detecting and compensating for color misregistration produced by a color scanner | |
| JPH118763A (en) | Image reading device | |
| US6144776A (en) | Image reader | |
| US6806870B1 (en) | Image display control apparatus including adjustment based on brightness | |
| JP3939466B2 (en) | Image processing apparatus, method, and recording medium | |
| JP3559451B2 (en) | Image processing method and image processing apparatus | |
| JPH08279919A (en) | Image processing apparatus and method thereof | |
| JP6763214B2 (en) | Image reader, image forming device, and control program for image reader | |
| JP4181732B2 (en) | Image discrimination method, image processing method using the same, and recording medium | |
| JP2000152067A (en) | Method and device for picture processing and recording medium | |
| JP2644487B2 (en) | Image reading device | |
| US20050173617A1 (en) | Image forming apparatus | |
| JPH0461560A (en) | Original reader | |
| JPH05110881A (en) | Color reader | |
| JPH10264449A (en) | Image recorder | |
| JPH07298047A (en) | Image reader | |
| JPH1155511A (en) | Image reading device | |
| JP2001298626A (en) | Image input device, image processing device, and image processing system | |
| JP2001274941A (en) | Inspection apparatus and inspection method for image reading system | |
| JPH05110878A (en) | Color reader | |
| JPH0595450A (en) | Image reader | |
| JPH07131645A (en) | Image reader |