JPH03214970A - Picture reader - Google Patents
Picture readerInfo
- Publication number
- JPH03214970A JPH03214970A JP2011140A JP1114090A JPH03214970A JP H03214970 A JPH03214970 A JP H03214970A JP 2011140 A JP2011140 A JP 2011140A JP 1114090 A JP1114090 A JP 1114090A JP H03214970 A JPH03214970 A JP H03214970A
- Authority
- JP
- Japan
- Prior art keywords
- data
- attribute
- image
- discrimination
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、原稿を読み取って得た信号に画像処理を施し
た上で、原稿に対応した画像信号を出力する画像読取り
装置に関する.
〔従来の技術〕
従来より、デジタル式の複写機やファクシミリ、OCR
(光学式文字読取り機)、光ファイリングシステム、
各種ディスプレイ装置などのように、一定の大きさのド
ット(画素)の組み合わせによって画像の作像、記憶、
表示などを行う装置の画像入力手段として、原稿を画素
に細分化して読み取る画像読取り装置(イメージリーグ
)が用いられている.
この種の画像読取り装置では、読み取った画像情報が量
子化されデジタルの画像データとして取り扱われるので
、種々の画像処理を容易に行うことができる.一般には
、画像を明瞭にするエッジ(輪郭)強調、画像を自然な
ものにする平滑化(スムージング)などの画質改善のた
めの画像処理と、画像編集のための画像処理とを行うよ
うに構成されている。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image reading device that performs image processing on a signal obtained by reading a document and then outputs an image signal corresponding to the document. [Conventional technology] Conventionally, digital copying machines, facsimile machines, and OCR
(optical character reader), optical filing system,
As in various display devices, images are created, stored, and
An image reading device (Image League) that reads a document by dividing it into pixels is used as an image input means for display devices. In this type of image reading device, the read image information is quantized and treated as digital image data, so various image processing can be easily performed. Generally, it is configured to perform image processing to improve image quality, such as edge enhancement to make the image clearer, smoothing to make the image more natural, and image processing to edit the image. has been done.
画像編集としては、原稿内の特定領域のみを抽出するト
リミング、特定領域を白ぬきとするマスキング、ネガと
ボジとを反転(白黒反転)するリバース、特定色の部分
を他の色に置き換える色変換などが知られている。Image editing includes trimming to extract only a specific area within a document, masking to whiten out a specific area, reverse to invert the negative and positive (black and white inversion), and color conversion to replace a specific color with another color. etc. are known.
画像編集が可能とされた画像読取り装置では、例えば、
特開昭62−181570号公報に示されているように
、画像処理の内容に対応した属性データを記憶するため
の属性メモリが設けられ、この属性メモリに、原稿を細
かく区分した各区分領域毎の属性データを予め記憶させ
ておき、画像の読取りに合わせてリアルタイムで属性デ
ータに基づく画像処理を実行させるようになっている。For example, in an image reading device that allows image editing,
As shown in Japanese Unexamined Patent Publication No. 181570/1989, an attribute memory is provided for storing attribute data corresponding to the content of image processing, and this attribute memory stores information for each divided area in which the manuscript is divided into fine sections. Attribute data is stored in advance, and image processing based on the attribute data is executed in real time as the image is read.
これによれば、各区分領域毎に画像処理の内容を指定す
ることができ、複雑多樟な画像編集が可能である。According to this, the content of image processing can be specified for each segmented area, and complex image editing is possible.
ところで、周知のように、原稿の各画素の濃度に応じた
多値データを2値化するための画像処理(以下「2値化
処理」という)においては、再現画像の品質の上から、
一般に、文字などの線画像に対しては、1つの画素の多
値レベルと一定の闇値レベルとを比較するいわゆる単純
2値処理が適し、写真などの中間調画像に対しては、デ
ィザ法や誤差拡散法などによる疑似階調処理が適する。By the way, as is well known, in image processing (hereinafter referred to as "binarization processing") for binarizing multi-valued data according to the density of each pixel of a document, from the quality of the reproduced image,
In general, so-called simple binary processing, which compares the multivalue level of one pixel with a certain darkness value level, is suitable for line images such as characters, and dithering is suitable for halftone images such as photographs. Pseudo gradation processing using the error diffusion method or the like is suitable.
したがって、線画像と中間調画像とが混在する原稿を読
み取る場合には、線画像であるが中間調画像であるかと
いう画像の属性(以下「2値化属性」ということがある
)に応じて2値化処理を切り換える必要がある.
このような2W化処理の切り換えを自動的に行うために
、従来より、例えば特開昭62−39978号公報など
に示された種々の手法によって2値化属性を判別する判
別手段を組み入れた画像読取り装置がある.なお、色変
換などのカラー編集が可能とされた画像読取り装置では
、画像の色の属性を判別する手段が組み込まれている。Therefore, when reading a document containing a mixture of line images and halftone images, it is necessary to It is necessary to switch the binarization process. In order to automatically switch the 2W processing, image processing methods have conventionally been developed that incorporate discriminating means for discriminating binarized attributes using various methods disclosed in, for example, Japanese Patent Application Laid-Open No. 62-39978. There is a reading device. Note that an image reading device capable of color editing such as color conversion has a built-in means for determining color attributes of an image.
従来の画像読取り装置では、画像処理が施された後の画
像データのみが出力され、画像処理の内容を示す属性デ
ータは出力されない。In conventional image reading devices, only image data after image processing is output, and attribute data indicating the content of the image processing is not output.
したがって、オペレータ又は画像データを人力とする各
種装置は、画像読取り装置からの画像データがどのよう
な画像処理を施されたものであるのかを容易に確認又は
認識することができないという問題があった。Therefore, there has been a problem in that operators or various devices that manually process image data cannot easily confirm or recognize what kind of image processing has been performed on image data from an image reading device. .
すなわち、オペレータは、特に2値化処理のように画像
読取り装置の内部での判別結果に基づく画像処理の様子
を確認する場合において、プリンタ又はディスプレイ装
置によって画像データに基づく画像を得た後、この画像
と原稿とを細かく比較観察することにより、間接的に各
区分領域における判別結果に誤りがないか否かをチェン
クしなければならず、確認作業が甚だ面倒である.また
、例えば画像読取り装置及びホストコンピュータ(ホス
ト)からなるOCRでは、ホストは、特に画像データの
値が空白部を示す「0」の場合に、その画像データがマ
スキングによる白ぬき部分に対応するのか又は原稿の空
白部に対応するのかを認識する必要があり、この認識の
ために画像読取り装置からの画像データを画像メモリ上
に一旦展開し、画像メモリのアドレス(座標)と画像編
集の指定領域(指定座標)とを対応付けるための座標演
算を行わなければならない。That is, especially when checking the state of image processing based on the discrimination results inside the image reading device, such as binarization processing, the operator should check the image data after obtaining the image based on the image data using the printer or display device. By carefully comparing and observing the image and the manuscript, it is necessary to indirectly check whether there are any errors in the classification results for each segmented area, which is extremely troublesome. For example, in OCR consisting of an image reading device and a host computer (host), especially when the value of image data is "0" indicating a blank area, the host determines whether the image data corresponds to a white area due to masking. It is necessary to recognize whether the image data corresponds to a blank area of the document or a blank area of the manuscript.For this recognition, the image data from the image reading device is once developed on the image memory, and the address (coordinates) of the image memory and the designated area for image editing are stored. (specified coordinates) must be calculated in order to associate them with (specified coordinates).
本発明は、上述の問題に鑑み、画像データに対して施さ
れた画像処理の内容の確認又は認識の要否に応じて出力
を選択可能な画像読取り装置を提供することを目的とし
ている。SUMMARY OF THE INVENTION In view of the above-mentioned problems, it is an object of the present invention to provide an image reading device that can select output depending on whether confirmation or recognition of the content of image processing performed on image data is necessary.
本発明は、上述の課題を解決するため、原稿を画素に細
分化して読み取り、得られた信号に画像処理を施し、各
画素に対応した画像データを出力するように構成された
画像読取り装置において、前記原稿を区分した各区分領
域毎に生成された画像処理のための指定属性データを記
憶する属性記憶手段と、前記原稿の読み取りに合わせて
前記区分領域毎に特定の属性の判別を行い、判別属性デ
ータを生成する属性判別手段と、前記指定属性データ及
び前記判別属性データの内の少なくとも一方に基づいて
画像処理を行う画像処理手段と、前記画像データ及び画
像処理を規定する属性データの内の少なくとも一方のデ
ータを出力する出力制御手段とを備えてなることを特徴
として構成される。In order to solve the above-mentioned problems, the present invention provides an image reading device configured to read a document by dividing it into pixels, perform image processing on the obtained signal, and output image data corresponding to each pixel. , an attribute storage means for storing designated attribute data for image processing generated for each segmented area into which the manuscript is divided; and determining a specific attribute for each segmented area in accordance with reading of the manuscript; Attribute discriminating means for generating discriminating attribute data; image processing means for performing image processing based on at least one of the specified attribute data and the discriminating attribute data; and output control means for outputting at least one of the data.
属性記憶手段は、原稿を区分した各区分領域毎に生成さ
れた画像処理のための指定属性データを記憶する。The attribute storage means stores designated attribute data for image processing generated for each divided area of the document.
属性判別手段は、原稿の読み取りに合わせて区分領域毎
に特定の属性の判別を行い、判別属性データを生成する
。The attribute determining means determines a specific attribute for each segmented area as the document is read, and generates determined attribute data.
画像処理手段は、指定属性データ及び判別属性データの
内の少なくとも一方に基づいて画像処理を行う.
出力制御手段は、原稿を細分化した各画素に対応した画
像データ、及び画像処理手段での画像処理を規定する属
性データの内の少なくとも一方のデータを出力する.
〔実施例〕
以下、本発明の実施例を図面を参照しつつ説明する。The image processing means performs image processing based on at least one of the specified attribute data and the discrimination attribute data. The output control means outputs at least one of image data corresponding to each pixel of the subdivided document and attribute data that defines image processing by the image processing means. [Example] Hereinafter, an example of the present invention will be described with reference to the drawings.
第2図はイメージリーダ1の概略の構成を示す断面正面
図である。FIG. 2 is a cross-sectional front view showing the general configuration of the image reader 1. As shown in FIG.
イメージリーダ1には、直方体状の筐体の上面に最大で
A3サイズの原稿が載置可能な原稿台ガラス2が取り付
けられており、載置された原稿は原稿カバー3によって
押さえられるようになっている。原稿台ガラス2の走査
方向の前端部にはシェーディング補正用の白色画像から
なる基準パターン14が設けられている.
筐体の内部には、原稿台ガラス2の下方で原稿画像を矢
印M5方閏(副走査方向)に走査可能に配置された光学
系、及び原稿画像の濃度に応じた画像データを生成する
電気回路部12が設けられている.
光学系は、露光ランプ4、反射鏡5、ミラー6を有する
第1スライダ13、ミラー7,8を有する第2スライダ
13a、及び主レンズ9などから構成されている。第1
スライダ13の移動速度をVとしたとき、第2スライダ
13aはv / 2の速度で移動するように駆動制御さ
れる。The image reader 1 has a document table glass 2 attached to the top surface of a rectangular parallelepiped housing, on which a document of up to A3 size can be placed, and the placed document is held down by a document cover 3. ing. A reference pattern 14 consisting of a white image for shading correction is provided at the front end of the document platen glass 2 in the scanning direction. Inside the housing, there is an optical system that is arranged to scan the original image in the direction of arrow M5 (sub-scanning direction) below the original platen glass 2, and an electric system that generates image data according to the density of the original image. A circuit section 12 is provided. The optical system includes an exposure lamp 4, a reflecting mirror 5, a first slider 13 having a mirror 6, a second slider 13a having mirrors 7 and 8, a main lens 9, and the like. 1st
When the moving speed of the slider 13 is V, the second slider 13a is driven and controlled to move at a speed of v/2.
主レンズ9を通過した走査光は、支持部材11に取り付
けられたイメージセンサーlOに入射し、電気信号に変
換される。イメージセンサー10は、主走査方向に連続
するように配列した複数個のCCDチップにより構成さ
れ、400画素/インチの解像度で原稿の読取りが可能
とされている。各CCDチップには、多数の受光素子が
1列に配列されており、さらに、各受光素子は3つの領
域に分割され、1つの分割領域が、R(レッド)、G(
グリーン)、B(ブルー)の3色の内の1色の光を受光
するように各受光素子の表面に分光フィルターが設けら
れている.1つの受光素子が原稿画像の1つの画素に対
応し、各受光素子から画素の1色に対する反射光強度に
応じた光電変換信号が電気回路部12へ出力される.
第1図は電気回路部12のブロック図である。The scanning light that has passed through the main lens 9 is incident on the image sensor IO attached to the support member 11, and is converted into an electrical signal. The image sensor 10 is composed of a plurality of CCD chips arranged continuously in the main scanning direction, and is capable of reading an original at a resolution of 400 pixels/inch. Each CCD chip has a large number of light-receiving elements arranged in a row, and each light-receiving element is divided into three regions, one divided region being R (red), G (
A spectral filter is provided on the surface of each light-receiving element to receive light of one of three colors: green) and B (blue). One light-receiving element corresponds to one pixel of the original image, and each light-receiving element outputs a photoelectric conversion signal to the electric circuit section 12 in accordance with the intensity of reflected light for one color of the pixel. FIG. 1 is a block diagram of the electric circuit section 12.
電気回路部12は、イメージセンサーlOからの光電変
換信号をR,G.Bの各色の信号に分離して所定の増幅
を行う色分離部21、各色のアナログ信号をA/D変換
(量子化)して8ビントの画像データDm7〜0を出力
するデジタル化処理部22、画像データDm7〜0の主
走査方向の光量むらやイメージセンサー10のビット間
のバラッキを補正するためのシェーディング補正部23
、2値化属性及び色属性を判別する画像判別部25、濃
度レベル調整や外部接続機器の濃度特性(T特性)に応
じたγ変換を行う濃度変換部26、画像編集処理及び2
値化処理を含む画像処理を行う画像処理部28、データ
出力の制御のための出力制御部29、後述の指定属性デ
ータa2〜0を記憶する属性メモリ30、属性データ出
力制御部31、クロック発生回路41 シェーディング
補正部23から出力される画像データDml7〜10の
1ライン分の記憶を行うラインメモリ24、各部に各種
同期信号を出力する同期信号発生部40、露光ランブ4
の点灯制御を行うランプ制御部4a、走査用のスキャナ
モータl6を駆動するためのドライバ16a、及び、こ
れらの全体を制御するCPU20などから構成されてい
る.
CPtJ20には、処理プログラムを格納したROM2
0 a、プログラムの実行に際し、各種フラグやステー
タスデータなどの一時記憶のためのレジスタ20b及び
RAM20cが内蔵されている。The electric circuit section 12 converts the photoelectric conversion signal from the image sensor IO into R, G, . A color separation unit 21 that separates the signals of each color of B and performs predetermined amplification, and a digitization processing unit 22 that A/D converts (quantizes) the analog signals of each color and outputs 8-bin image data Dm7 to Dm0. , a shading correction unit 23 for correcting uneven light amount in the main scanning direction of image data Dm7 to Dm0 and variations between bits of the image sensor 10.
, an image discrimination section 25 that discriminates binarization attributes and color attributes, a density conversion section 26 that performs density level adjustment and γ conversion according to the density characteristics (T characteristics) of externally connected equipment, and an image editing process.
An image processing section 28 that performs image processing including value conversion processing, an output control section 29 for controlling data output, an attribute memory 30 that stores designated attribute data a2 to 0 (described later), an attribute data output control section 31, and a clock generation unit. Circuit 41: a line memory 24 that stores one line of image data Dml7 to Dml10 output from the shading correction section 23, a synchronization signal generation section 40 that outputs various synchronization signals to each section, and an exposure lamp 4.
The lamp controller 4a controls the lighting of the scanner, the driver 16a drives the scanner motor 16 for scanning, and the CPU 20 controls all of these components. CPtJ20 has ROM2 that stores the processing program.
0a, a register 20b and a RAM 20c are built-in for temporarily storing various flags and status data during program execution.
CPU20は、オペレータによる操作手段を備えた外部
のホスト装置との間で、各種のコマンド(制御命令コー
ドデータ)やイメージリーダ1の動作状態(ステータス
)を示すデータの受渡しのための通信を行い、受信した
コマンドに基づいて、原稿の読み取りに先立って画像編
集や2値化処理を規定する指定属性データa2〜0を生
成し、これを属性メモリ30に格納する。The CPU 20 communicates with an external host device equipped with operator operation means to exchange various commands (control instruction code data) and data indicating the operating state (status) of the image reader 1. Based on the received command, designated attribute data a2 to a0 defining image editing and binarization processing is generated prior to reading the document, and is stored in the attribute memory 30.
なお、同期信号発生部40により出力される同期信号と
しては、主走査の1ライン毎に出力される水平同期信号
Hsync、1画素毎のデータ伝送タイミングの基準と
なる画素クロック信号SYNCK、イメージリーダ1か
らのデータ出力の有効期間を示すイネーブル信号VDが
ある。Note that the synchronization signals outputted by the synchronization signal generation section 40 include a horizontal synchronization signal Hsync outputted for each main scanning line, a pixel clock signal SYNCK that serves as a reference for data transmission timing for each pixel, and the image reader 1 There is an enable signal VD indicating the valid period of data output from the .
第3図(a)及び(b)は属性メモリ3oの構成を示す
図である.
属性メモリ30は、第3図(b)に示されるように、画
像Gを主走査方向及び副走査方向にそれぞれ8画素毎に
区分した8×8のドントマトリクスからなる各区分領域
E毎にCPU20により生成される指定属性データa2
〜0を記憶可能に構成されている.
イメージリーダlにおいて、指定属性データaO,al
.a2は、それぞれ2値化処理、ネガボジ反転、トリミ
ングを規定するためのデータである.
第4図は画像判別部25のブロック図である。FIGS. 3(a) and 3(b) are diagrams showing the structure of the attribute memory 3o. As shown in FIG. 3(b), the attribute memory 30 uses the CPU 20 for each segmented region E, which is composed of an 8×8 donma matrix obtained by segmenting the image G into 8-pixel units in the main scanning direction and the sub-scanning direction. Specified attribute data a2 generated by
It is configured to be able to store ~0. In the image reader l, specified attribute data aO, al
.. a2 is data for specifying binarization processing, negative/positive inversion, and trimming, respectively. FIG. 4 is a block diagram of the image discrimination section 25.
画像判別部25は、2値化属性判別部251、色属性判
別部252、及び判別属性データ出力部253などから
なる.
2値化属性判別部251は、区分領域E毎に2値化属性
の判別、すなわち区分領域Eが文字画像に対応するか又
は中間調画像に対応するかを判別?、判別結果を示す1
ビットの判別属性データα0を出力する.また、色属性
判別部252は、区分頷域Eが色編集の対象として指定
された特定色に対応するか否かを判別し、1ビットの判
別属性データα1を出力する.
なお、画像判別部25には、区分領域E毎の属性判別を
可能とするために、8ライン分の画像データDml7〜
10を格納するラインメモリ(不図示)が設けられてい
る.
判別属性データαOは、判別対象の区分頷域Eが文字画
像に対応する場合には「0」とされ、中間調画像に対応
する場合には「1」とされる。また、判別属性データα
lは、判別対象の区分領域Eが特定色に対応する場合に
は「1」とされ、特定色以外に対応する場合にはr■,
とされる.第5図は画像処理部28のブロック図である
.画像処理部28は、フィルタリング部281、トリミ
ング・マスキング部282、単純2値化処理部283、
疑似中間調処理部284、データ選択部286、セレク
タ285、及びネガ処理部287などから構成されてい
る。The image discrimination section 25 includes a binarized attribute discrimination section 251, a color attribute discrimination section 252, a discrimination attribute data output section 253, and the like. The binarization attribute determination unit 251 determines the binarization attribute for each segmented area E, that is, determines whether the segmented area E corresponds to a character image or a halftone image. , 1 showing the discrimination result
Output the bit discrimination attribute data α0. Further, the color attribute determination unit 252 determines whether or not the classification nod area E corresponds to a specific color designated as a color editing target, and outputs 1-bit determination attribute data α1. In addition, in order to enable attribute discrimination for each segmented area E, the image discrimination unit 25 includes image data Dml7 to Dml7 for 8 lines.
A line memory (not shown) for storing 10 is provided. The discrimination attribute data αO is set to "0" when the classification target area E to be discriminated corresponds to a character image, and is set to "1" when it corresponds to a halftone image. In addition, the discrimination attribute data α
l is set to "1" when the divided area E to be determined corresponds to a specific color, and r■, when it corresponds to a color other than the specific color.
It is said that FIG. 5 is a block diagram of the image processing section 28. The image processing unit 28 includes a filtering unit 281, a trimming/masking unit 282, a simple binarization processing unit 283,
It is composed of a pseudo halftone processing section 284, a data selection section 286, a selector 285, a negative processing section 287, and the like.
画像処理部28には、濃度変換部26から画像データD
m27〜20が画素配列順にシリアルに入力される。人
力された画像データDm27〜20に対しては、先ずフ
ィルタリング部281でエッジ強調及びスムージングな
どの画質改善のための処理が施される。次に指定属性デ
ータa2に従うトリミング・マスキ1ング部282にて
、データa2がrlJのときには、マスキング処理とし
て強制的に空白部に対応したrOjとされる.データa
2が「0」のときには、そのままトリミング・マスキン
グ部282から出力される(データスルー)。The image processing unit 28 receives image data D from the density conversion unit 26.
m27 to m20 are input serially in the order of pixel arrangement. The manually generated image data Dm27 to Dm20 are first subjected to processing to improve image quality, such as edge enhancement and smoothing, in the filtering unit 281. Next, in the trimming/masking unit 282 according to the specified attribute data a2, when the data a2 is rlJ, rOj corresponding to the blank area is forcibly set as masking processing. data a
When 2 is "0", the data is output as is from the trimming/masking unit 282 (data through).
トリミング・マスキング部282から出力された画像デ
ータは、単純2値化処理部283及び疑領中間調処理部
284でそれぞれ2値化され、2値画像データDA,D
Bとして同時にセレクタ285に入力される,
セレクタ285は、データ選択部286からの出力デー
タDSELOに従って2値画像データDA又はDBの一
方を選択して出力する。The image data output from the trimming/masking section 282 is binarized by a simple binarization processing section 283 and a false halftone processing section 284, respectively, and binary image data DA, D are obtained.
The selector 285 selects and outputs either binary image data DA or DB according to the output data DSELO from the data selection section 286.
データ選択部286には、2値化属性を自動判別して得
られる上述の判別属性データα0とともに、2値化処理
を制御するための指定属性データaOが加えられており
、このデータaOの値に応じて出力データDSELOの
値が定まる。すなわち、データaOが「0」であれば、
出力データDSELOとして判別属性データαOがその
まま出力され、データaOが「1」であれば、判別属性
データαOを反転したデータが出力される.つまり、画
像処理部28では、データaOが「O」のときには、外
部からの2値化処理の指定がデフォルトされて画像判別
部25による2値化属性の自動判別に基づいた2値画像
データが出力され、データaOが「l」のときには、2
値化属性の自動判別の結果とは逆の2値化処理を受けた
2値画像データが出力されることになる.
ネガ処理部287は、指定属性データa1が「0」であ
れば、セレクタ285から入力された2値画像データを
そのまま出力し、データa1が「1」であれば、値を反
転した2値画像データを出力する。ネガ処理部287が
らのデータ出力に際しては、8画素分ずつのパラレルの
画像データV I DEO 1〜8の形で順次出力され
る.なお、画像処理部28には、区分領域E毎の画像判
別を可能とするために、8ライン分の画像データDm2
7〜20を格納する図外のラインメモリ、及び8ビット
のシリアル/パラレル変換手段が設けられている。The data selection unit 286 includes specified attribute data aO for controlling the binarization process along with the above-mentioned discrimination attribute data α0 obtained by automatically discriminating the binarization attribute, and the value of this data aO The value of output data DSELO is determined according to. That is, if data aO is "0",
The discrimination attribute data αO is output as is as the output data DSELO, and if the data aO is “1”, data obtained by inverting the discrimination attribute data αO is output. In other words, in the image processing unit 28, when the data aO is “O”, the designation of binarization processing from the outside is defaulted, and the binary image data is processed based on the automatic discrimination of the binarization attribute by the image discrimination unit 25. is output, and when data aO is “l”, 2
Binary image data that has been subjected to a binarization process that is the opposite of the result of automatic discrimination of digitized attributes will be output. If the designated attribute data a1 is "0", the negative processing unit 287 outputs the binary image data input from the selector 285 as is, and if the data a1 is "1", it outputs the binary image data with the values reversed. Output data. When outputting data from the negative processing section 287, it is sequentially outputted in the form of parallel image data V I DEO 1 to 8 for each 8 pixels. Note that the image processing unit 28 includes 8 lines of image data Dm2 in order to enable image discrimination for each segmented area E.
A line memory (not shown) for storing numbers 7 to 20 and 8-bit serial/parallel conversion means are provided.
第6図は属性データ出力制御部30のブロック図である
。FIG. 6 is a block diagram of the attribute data output control section 30.
属性データ出力制御部30は、判別属性データα0.α
1及び指定属性データa2〜0を合わせて5ビットの属
性データa4〜Oを出力する合成部301からなる。The attribute data output control unit 30 outputs the discrimination attribute data α0. α
1 and specified attribute data a2 to 0 to output 5-bit attribute data a4 to O.
属性データa4,a3は、それぞれ判別属性データαO
,α1に対応する。Attribute data a4 and a3 are discrimination attribute data αO, respectively.
, α1.
第7図は出力制御部29のブロック図、第8図は属性デ
ータa4〜0の出力動作を示すタイミングチャートであ
る。FIG. 7 is a block diagram of the output control section 29, and FIG. 8 is a timing chart showing the output operation of attribute data a4 to a0.
出力制御部29は、信号SYNCKを8分の1に分周し
た信号1/8・Hsyncを出力する分周器401、信
号Hsyncに従って信号VDをラッチするラッチ回路
402、CPU20からの出力制御データCO〜1に応
じて出力制御信号SO,Slをそれぞれ出力するセレク
タ403,404、信号so,stにより出力制御され
、それぞれ画像データV I DEO 1〜8又は属性
データa4〜0を出力データDATAとして選択するた
めのデータラッチ回路405.406などから構成され
ている.
信号1/8・Hsyncは、データラッチ回路405
406のクロック端子(CK)に入力され、セレクタ
404には選択肢入力としてそのまま加えられ、セレク
タ403にはその選択肢入力としてインバータ407で
反転されて加えられ、また、インバータ408を介して
出力同期信号DSYNCとして外部へ出力される。The output control unit 29 includes a frequency divider 401 that outputs a signal 1/8·Hsync obtained by dividing the signal SYNCK by 1/8, a latch circuit 402 that latches the signal VD according to the signal Hsync, and output control data CO from the CPU 20. The output is controlled by the selectors 403 and 404 which respectively output the output control signals SO and Sl in accordance with ~1, and the signals so and st, and each selects the image data V I DEO 1 to 8 or the attribute data a4 to 0 as the output data DATA. It consists of data latch circuits 405, 406, etc. The signal 1/8・Hsync is the data latch circuit 405
The clock terminal (CK) of 406 is input to the selector 404 as it is as a selection input, the selection input is inverted by an inverter 407 and added to the selector 403, and the output synchronization signal DSYNC is input via an inverter 408. It is output to the outside as
信号VDがアクティブ(’LJ)になると、分周器40
1、セレクタ403,404からそれぞれ信号1/8
・HSync,So,SLが出力され、出力データDA
TAの出力が可能となる。When signal VD becomes active ('LJ), frequency divider 40
1. Signal 1/8 from selectors 403 and 404, respectively
・HSync, So, SL are output, output data DA
TA output becomes possible.
第8図及び第1図をも参照しつつ、出力データDATA
の出力動作を説明する。With reference to FIGS. 8 and 1, the output data DATA
The output operation of is explained.
原稿の走査が開始されると、1ライン目の先頭の画素に
対応するものから順に画像データDm17〜10が画像
判別部25及び濃度変換部26に入力される。When scanning of the original is started, image data Dm17 to Dm10 are input to the image discrimination section 25 and the density conversion section 26 in order from those corresponding to the first pixel of the first line.
上述のように、8本のラインに跨がる区分領域E毎に画
像判別を行うために、画像判別部25には8ライン分の
画像データDm17〜lOが格納されるので、8ライン
目までの走査中における画像判別部25の出力は無効デ
ータである。第8図においては、無効データには斜線を
付してある.したがって、信号VDは、9ライン目の走
査開始を示す信号Hsyncに同期して「L」とされ、
画像判別部25からは、9ライン目の先頭の8画素分の
画像データDm17〜10が入力された時点から以後、
信号1/8・HSyncに同期してlライン目を含む区
分領域Eに対応した判別属性データα0.αlが出力さ
れる。As mentioned above, in order to perform image discrimination for each segmented area E spanning eight lines, the image discrimination unit 25 stores image data Dm17 to lO for eight lines, so up to the eighth line. The output of the image discriminator 25 during scanning is invalid data. In Figure 8, invalid data is shaded. Therefore, the signal VD is set to "L" in synchronization with the signal Hsync indicating the start of scanning on the 9th line,
From the time when the image data Dm17 to Dm10 for the first 8 pixels of the 9th line are input from the image discrimination unit 25,
In synchronization with the signal 1/8.HSync, the discrimination attribute data α0. αl is output.
属性メモリ30からは判別属性データα0,α1の出力
にタイミングを合わせて指定属性データa2〜0が出力
される.
一方、濃度変換部26にて8ドット分の遅延が生じるの
で、画像処理部28には、画像判別部25に対して8ド
ット分遅れて9ライン目の画像データDm27〜20が
入力される.画像処理部28においても上述のように8
ライン分の遅延が生じるので、9ライン目の画像データ
Dm27〜20が入力された時点で、Iライン目の画像
データDm27〜20に対する画像処理が完了すること
となる。さらに、丙像処理部28では、シリアル/パラ
レル変換による遅延が生じ、9ライン目の入力時点から
さらに8ドット分遅れて、1ライン目に対応した画像デ
ータV I DEO 1〜8が8画素毎にまとめて並列
出力される.
属性データ出力制御部3lは、画像データVIDEO1
〜8の出力にタイミングを合わせて属性データa4〜0
を出力する。The attribute memory 30 outputs specified attribute data a2 to 0 in synchronization with the output of the discrimination attribute data α0 and α1. On the other hand, since a delay of 8 dots occurs in the density conversion section 26, the image data Dm27-20 of the 9th line is input to the image processing section 28 with a delay of 8 dots relative to the image discrimination section 25. The image processing unit 28 also processes 8 as described above.
Since a line delay occurs, the image processing for the I-th line image data Dm27-20 is completed when the 9th line image data Dm27-20 is input. Furthermore, in the C image processing unit 28, a delay occurs due to serial/parallel conversion, and the image data V I DEO 1 to 8 corresponding to the first line are processed every 8 pixels with a further delay of 8 dots from the input point of the 9th line. are output in parallel. The attribute data output control unit 3l outputs image data VIDEO1.
Attribute data a4 to 0 in synchronization with the output of ~8
Output.
このように出力された画像データV I DEO 1〜
8及び属性データa4〜0は、それぞれ出力制御部29
のデータラッチ回路405,406により、信号1/8
・Hsyncの立ち上がりのタイミングでラッチされる
.ただし、データラッチ回路405.406では、ラッ
チデータは出力端子(Q)から常時出力されることはな
く、出力は、CPU20からの計2ビットの出力制御デ
ータCO〜lに応じた信号so,st (アクティブロ
ー)によって制御される。Image data V I DEO 1~ output in this way
8 and attribute data a4 to a0 are each output control unit 29.
The data latch circuits 405 and 406 allow the signal 1/8
-Latched at the rising edge of Hsync. However, in the data latch circuits 405 and 406, the latch data is not always output from the output terminal (Q), and the output is the signals so and st according to the total 2-bit output control data CO to l from the CPU 20. (active low).
すなわち、出力制御データCO,CIがともに「0」の
場合には、信号Soは「L」 (接地レベル)とされ、
信号SLはrH」 (Vccレヘル)とされ、データラ
ッチ回路405が出力可能状態となり、データラッチ回
路406の出力端子はハイインピーダンス状態となる。That is, when the output control data CO and CI are both "0", the signal So is set to "L" (ground level),
The signal SL is set to rH'' (Vcc level), the data latch circuit 405 is enabled to output, and the output terminal of the data latch circuit 406 is placed in a high impedance state.
これにより、出力制御部29からは、出力データDAT
Aとして画像データV I DEO 1〜8が走査順に
出力される。As a result, the output control unit 29 outputs the output data DAT.
Image data V I DEO 1 to 8 are output as A in scanning order.
また、出力制御データcoがr1,であり且つ出力制御
データC1が「0」である場合には、信号50.51は
、それぞれrH,、r L Jとされ、出力データDA
TAとして属性データa4〜0が順次出力される.
さらに、出力制御データCOが「0」であり且つ出力制
御データClが「l」である場合には、信号so,st
は、信号1/8・Hsyncに応じてr}iJ又は「L
」とされ、出力データDATAとして画像データVID
EO1〜8と属性データa4〜Oとが交互に出力される
.
つまり、イメージリーダ1では、ホスト装置からのコマ
ンド指定によって出力制御データCO.CIを設定して
おくことにより、通常どおりに画像データVIDEO1
〜8を出力させるか、画像編集の領域指定の修正などの
ために属性データa4〜0を出力させるか、または画像
とその属性とを同時に表示させて画像判別の確認を行う
などのために画像データV I DEO 1〜8とこれ
に対応した属性データa4〜0とを交互に出力させると
いうように、出力データDATAの活用目的や受け側の
データ処理形態などに応じて出力の選択が可能である。Further, when the output control data co is r1, and the output control data C1 is "0", the signals 50, 51 are respectively rH, , r L J, and the output data DA
Attribute data a4 to a0 are sequentially output as TA. Furthermore, when the output control data CO is "0" and the output control data Cl is "l", the signals so, st
is r}iJ or “L” according to the signal 1/8・Hsync.
”, and image data VID is output as output data DATA.
EO1-8 and attribute data a4-O are output alternately. That is, in the image reader 1, the output control data CO. By setting CI, image data VIDEO1 can be used as usual.
~8, output attribute data a4~0 for correcting the area specification in image editing, or display the image and its attributes at the same time to confirm image discrimination. The output can be selected depending on the purpose of use of the output data DATA and the data processing form of the receiving side, such as alternately outputting the data V I DEO 1 to 8 and the corresponding attribute data a4 to 0. be.
なお、第8図に示されるように、イメージリーダ1では
、画像データV I DEO 1〜8及び属性データa
4〜0を出力する場合において、両者のデータが画像デ
ータV I DEO 1〜8のみを出力する場合の2分
の1の周期で交互に出力されるので、属性データa4〜
0の出力によって画像データD1〜8の出力時間が延長
することはない。また、属性データa4〜0は画像デー
タVIDEO1〜8と同一の信号線を介して出力され、
属性データa4〜0の出力のために専用の信号線を設け
る必要がない.
次に、第9図〜第18図のフローチャートを参照してイ
メージリーダlの動作を説明する.第9図はCPU20
の動作を概略的に示すメインフローチャートである.
電源が投入されてプログラムがスタートすると、まず、
ステップ#1で初期設定を行う.ステップ#2において
は、ホスト装置からのコマンドの有無をチェックする。Note that, as shown in FIG. 8, in the image reader 1, image data V I DEO 1 to 8 and attribute data a
In the case of outputting 4 to 0, both data are output alternately at half the cycle of the case of outputting only image data V I DEO 1 to 8, so the attribute data a4 to
The output time of image data D1 to D8 is not extended by outputting 0. Further, the attribute data a4-0 are outputted via the same signal line as the image data VIDEO1-8,
There is no need to provide a dedicated signal line for outputting attribute data a4-0. Next, the operation of the image reader I will be explained with reference to the flowcharts shown in FIGS. 9 to 18. Figure 9 shows CPU20
This is a main flowchart schematically showing the operation of. When the power is turned on and the program starts, first,
Perform initial settings in step #1. In step #2, the presence or absence of a command from the host device is checked.
コマンドが有れば、コマンドの種別を判断し(ステップ
#3)、種別に応じて、読取り処理(ステップ#4)、
読取りモード指定処理(ステップ#5)、属性指定処理
(ステップ#6)、出力データ指定処理(ステップ#7
)を実行する。If there is a command, the type of command is determined (step #3), and depending on the type, reading processing (step #4) is performed.
Reading mode specification processing (step #5), attribute specification processing (step #6), output data specification processing (step #7)
).
その後、その他の処理(ステップ#8)を実行しステッ
プ#2へ戻り、ステップ#2〜ステップ#8の処理を繰
り返す。Thereafter, other processing (step #8) is executed, the process returns to step #2, and the processing from step #2 to step #8 is repeated.
第10図は受信処理のフローチャート、第11図は送信
処理のフローチャートである。FIG. 10 is a flowchart of reception processing, and FIG. 11 is a flowchart of transmission processing.
これらのルーチンは割り込みルーチンであり、ホスト装
置からのアクセスに応じて適時実行される.
第10図の受信処理においては、まず、受信した信号の
コード解析(ステップ#11)を行い、ステップ#l2
でコマンドの受信が確認された場合には、受信したコマ
ンドをレジスタ2Ob内の所定領域に格納する(ステッ
プ#13).受信した信号が、ステータスの通知を要求
するものであれば(ステップ#14)、待機状態やウエ
イト状態などのステータスを示すデータをレジスタ20
bから読み出してホスト装置へ送信する.また、受信し
た信号が予め定義されているコマンド及びステータス要
求の何れにも対応しない場合には、受信エラーを示すコ
ードデータを送信する(ステップ#16)。These routines are interrupt routines and are executed at appropriate times in response to access from the host device. In the reception process shown in FIG. 10, first, code analysis of the received signal (step #11) is performed, and step #l2
If reception of the command is confirmed, the received command is stored in a predetermined area in the register 2Ob (step #13). If the received signal requests status notification (step #14), data indicating the status such as standby state or wait state is stored in the register 20.
b and send it to the host device. Furthermore, if the received signal does not correspond to any of the predefined commands and status requests, code data indicating a reception error is transmitted (step #16).
第11図の送信処理においては、前の送信が完了して次
の送信が可能となるのを待ち(ステップ#21)、送信
すべきコードデータをレジスタ20bにセットする(ス
テップ#22)。In the transmission process shown in FIG. 11, wait until the previous transmission is completed and the next transmission becomes possible (step #21), and set the code data to be transmitted in the register 20b (step #22).
その後、ステップ#23で、続いて送信すべきコードデ
ータの有無、すなわち送信の要否をチェックし、送信が
必要であればステップ#21へ戻る.
第12図は第9図のステップ#1の初期設定のフローチ
ャートである。Thereafter, in step #23, the presence or absence of code data to be subsequently transmitted, that is, whether or not transmission is necessary, is checked, and if transmission is necessary, the process returns to step #21. FIG. 12 is a flowchart of the initial setting of step #1 in FIG.
まず、ステータスとして、読取り走査のための準備の途
中であることを示すrWAIT,をセットする.すなわ
ち、レジスタZQb内のステータス用の領域にrWA
I TJに対応したデータを格納する(ステップ#31
)。First, rWAIT, which indicates that preparation for read scanning is in progress, is set as the status. In other words, rWA is placed in the status area in register ZQb.
Store data corresponding to I TJ (step #31
).
次に、ステップ#32で、各部が正常に動作するか否か
をチェックするためのセルフテストを行う。Next, in step #32, a self-test is performed to check whether each part operates normally.
ステップ#33で、異常の有無をチエ・ノクし、異常が
有れば、ステップ#37へ移って動作不可コードをホス
ト装置へ送信する。At step #33, a check is made to see if there is an abnormality, and if there is an abnormality, the process moves to step #37 and an inoperable code is sent to the host device.
異常が無ければ、ステップ#34へ進み、各部の初期化
を行う。このとき、属性メモリ30に対しては、指定属
性データaO,al,a2として「0」が書き込まれる
。したがって、以降において指定属性データa2〜0の
書き換えがなければ、画像処理部28においては、トリ
ミング及びネガボジ反転の画像編集は施されず、且つ2
値化処理は判別属性データα0に基づいて行われること
になる。If there is no abnormality, the process proceeds to step #34, where each part is initialized. At this time, "0" is written into the attribute memory 30 as designated attribute data aO, al, a2. Therefore, if the designated attribute data a2 to a0 are not rewritten thereafter, the image processing unit 28 will not perform image editing such as trimming and negative/positive reversal, and
The value conversion process will be performed based on the discrimination attribute data α0.
また、濃度変換部26においては、標準の濃度となるよ
うに設定が行われ、出力制御部29においては、画像デ
ータV I DEO 1〜8と属性データa4〜0が交
互に出力されるようにセレクタ403.404の入力が
選ばれる。Further, the density converter 26 is set to have a standard density, and the output controller 29 is set so that image data V I DEO 1 to 8 and attribute data a4 to 0 are output alternately. The inputs of selectors 403 and 404 are selected.
これらの初期化の後に、ステップ#35で、第1スライ
ダ13をホーム位置へ移動し、移動が終了すると、ステ
ップ#36で、ステータスを「WAITJから待機状態
を示すrREADYJに変更する。After these initializations, the first slider 13 is moved to the home position in step #35, and when the movement is completed, the status is changed from "WAITJ" to rREADYJ indicating a standby state in step #36.
第13図は上述の読取り処理のフローチャートである。FIG. 13 is a flowchart of the above-mentioned reading process.
まず、ステータスを読取り中であることを示すrBUs
Y」とし(ステップ#41)、露光ランブ4を点灯する
(ステップ#42)。First, rBUs indicating that the status is being read.
Y" (step #41), and the exposure lamp 4 is turned on (step #42).
次に、スキャナモータ16をオンし(ステップ#43L
第1スライダ13がシェーディング位置、つまり基準パ
ターン14の直下の位置に達するのを待つ(ステップ#
44)。Next, turn on the scanner motor 16 (step #43L).
Wait until the first slider 13 reaches the shading position, that is, the position directly below the reference pattern 14 (step #
44).
第1スライダ13が基準パターン14に達すると、シェ
ーディング補正のために基準パターン14を読み取り、
基準画像データ(白色データ)をラインメモリ24に格
納する(ステップ#45).続いて、ステップ#46で
、第1スライダ13が原稿の先端位置に達するのを待ち
、ステップ#47で、同期信号発生部40をオンして同
期信号を出力させる.これにより、同期信号に従って各
部が動作し、上述のように9ライン目の走査開始後に有
効な画像データV I DEO 1〜8及び属性データ
a4〜0が交互に出力される。When the first slider 13 reaches the reference pattern 14, the reference pattern 14 is read for shading correction;
The reference image data (white data) is stored in the line memory 24 (step #45). Next, in step #46, the first slider 13 waits for the first slider 13 to reach the leading edge position of the document, and in step #47, the synchronization signal generator 40 is turned on to output a synchronization signal. As a result, each part operates according to the synchronization signal, and as described above, after the start of scanning for the 9th line, valid image data V I DEO 1 to 8 and attribute data a4 to 0 are alternately output.
原稿の走査の終了、すなわち第1スライダ13が原稿の
後端位置に達するのを待ち(ステップ#48)、同期信
号発生部40をオフし(ステップ#49)、スキャナモ
ータl6を一旦オフし(ステップ#50)、露光ランプ
4を消灯する(ステップ#51)。Wait until the scanning of the original is completed, that is, the first slider 13 reaches the rear end position of the original (step #48), turn off the synchronization signal generator 40 (step #49), and turn off the scanner motor l6 ( Step #50), and the exposure lamp 4 is turned off (Step #51).
そして、スキャナモータ16を逆転させて両スライダ1
3.13aをリターンさせ(ステップ#52)、第1ス
ライダ13がホーム位置に戻るのを待ち(ステップ#5
3)、スキャナモータ16をオフし(ステップ#54L
最後に、ステップ#5 5 でスf−タスを’READ
YJ とtる.第14図は第9図のステップ#5の読取
りモード指定処理のフローチャートである。Then, the scanner motor 16 is reversed so that both sliders 1
3. Return 13a (step #52) and wait for the first slider 13 to return to the home position (step #5
3), turn off the scanner motor 16 (step #54L)
Finally, in step #5 5 the f-task is 'READ'.
YJ and t. FIG. 14 is a flowchart of the reading mode designation process in step #5 of FIG.
ステップ#61で、ステータスをrWAITJとし、ス
テップ#62で、コマンドに含まれているパラメータを
チェックし、パラメータに応じて濃度指定(ステップ#
63)又は出力対象機器の指定などを行うその他の指定
(ステップ#64)を実行する.そして、ステップ#6
5でステータスをrREADYJに戻す.
第15図はステップ#63の濃度指定のフローチャート
である。In step #61, the status is set to rWAITJ, and in step #62, the parameters included in the command are checked, and the concentration is specified according to the parameters (step #62).
63) or other specifications such as specifying the output target device (step #64). And step #6
Step 5 returns the status to rREADYJ. FIG. 15 is a flowchart for specifying density in step #63.
ステップ#71で、濃度の指定方法が自動であるか否か
をチェックする.指定方法が自動以外であれば、ステッ
プ#74へ移り、そこでオペレータによる指定操作に基
づいてホスト装置がら送られるパラメータに応じて濃度
変換部26の設定を行う.
ステップ#71で自動と判断された場合には、ステップ
#72で原稿の濃度を検知するための予備走査を行い、
ラインメモリ24に順次格納される画像データDm17
〜10をRAM2 0 cに適時取り込む.そして、
ステップ#73でRAM20Cのデータに基づいて原稿
の濃度を検知した後にステップ#74へ進み、検知結果
に応じて濃度変換部26の設定を行う。In step #71, it is checked whether the density specification method is automatic. If the designation method is other than automatic, the process moves to step #74, where the density conversion unit 26 is set according to the parameters sent from the host device based on the designation operation by the operator. If automatic is determined in step #71, preliminary scanning is performed to detect the density of the document in step #72.
Image data Dm17 sequentially stored in line memory 24
Load ~10 into RAM20c at the appropriate time. and,
After detecting the density of the document based on the data in the RAM 20C in step #73, the process proceeds to step #74, where the density conversion section 26 is set according to the detection result.
第16図は第9図のステップ#6の属性指定処理のフロ
ーチャートである.
まず、ステータスをrWAITJとし(ステップ#81
)、指定の正否をチェックする(ステップ#82)。FIG. 16 is a flowchart of the attribute specification process in step #6 of FIG. First, set the status to rWAITJ (step #81
), the correctness of the specification is checked (step #82).
指定が正しくない場合、例えば、読取り範囲外の領域が
指定された場合や座標指定の順序に誤りがある場合には
、ステップ#85へ移ってエラーコードをホスト装置へ
送信する.
指定が正しい場合には、.属性メモリ30に対して指定
属性データao,al,a2の書き込む属性データ書込
み処理を実行し(ステップ#83)、ステータスをrR
EADY,とする(ステップ#84).
第17図はステップ#83の属性データ書込み処理のフ
ローチャートである.
ステップ#91で、ホスト装置からの指定の種?をチェ
ックし、種別に応じてステップ#92〜ステップ#98
の各処理を実行する。If the specification is incorrect, for example, if an area outside the reading range is specified or if there is an error in the order of coordinate specification, the process moves to step #85 and an error code is sent to the host device. If the specification is correct, . Execute attribute data write processing to write designated attribute data ao, al, a2 to the attribute memory 30 (step #83), and set the status to rR.
EADY (step #84). FIG. 17 is a flowchart of the attribute data writing process in step #83. In step #91, the specified seed from the host device? Check and step #92 to step #98 depending on the type.
Execute each process.
すなわち、2値化属性の自動判別が指定された場合には
、ステップ#92で、指定された区分領域已について、
指定属性データaOをr■,とする。That is, when automatic discrimination of binarization attributes is specified, in step #92, for the specified segmented area,
Let designated attribute data aO be r■.
2値化属性が予め指定された場合には、ステップ#93
で、指定された区分頷域Eについて、指定属性データa
Oを「1」とする。If the binarization attribute is specified in advance, step #93
Then, for the specified classification nod area E, the specified attribute data a
Let O be "1".
ボジの指定、つまり、白黒反転を行わない旨の指定がな
された場合には、ステップ#94で、指定された区分領
域Eについて、指定属性データa1を「0」とする.こ
れに対して、ネガの指定、つまり、白黒反転を行う旨の
指定がなされた場合には、ステップ#95で、指定され
た区分領域Eについて、指定属性データalを「1」と
する.トリミングが指定された場合には、ステップ#9
6で、指定された区分領域E以外について、指定属性デ
ータa2を「1」とし、マスキングが指定された場合に
は、ステップ#97で、指定された区分領域已について
、指定属性データa2を「l」とする.
また、トリミング・マスキング解除が指定された場合に
は、ステップ#98で、指定された区分領域E以外につ
いて、指定属性データa2を「0」に戻す.
第18図は第9図のステップ#7の出力データ指定処理
のフローチャートである.
このルーチンでは、最初にステップ#101で出力デー
タDATAの種別をチェックし、種別に応じて、ステッ
プ#102〜ステップ#104の処理を行う.
画像データV I DEO 1〜8のみの出力が選択さ
れた場合には、ステップ#102で、出力制御データC
o,CIをともにrQJとする.属性データa4〜0の
みの出力が選択された場合には、ステップ#103が実
行され、出力制御データCOは「l」とされ、出力制御
データC1は「O」とされる.
また、画像データV I DEO 1〜8及び属性デ一
タa4〜0の双方の出力が選択された場合には、ステッ
プ#104で、出力制御データcoは「0」とされ、出
力制御データCIはr1,とされる.
上述の実施例によれば、2値化属性の判別結果に対応し
た判別属性データα0が出力されるので、ホスト装置に
て文字認識を行う場合には、判別属性データαOに基づ
いて、文字画像に対応する区分領域Eのみについて認識
処理を実行することができ認識効率が向上する.また、
イメージリーダlをファイリングシステムやファクシミ
リの画像読取り手段として用いる場合には、判別属性デ
ータαOに基づいて、画像データV I DEO 1〜
8に対して線画像又は中間調画像のそれぞれに適したデ
ータ圧縮などのデータ処理を施すことが可能となる.
〔発明の効果〕
本発明によれば、画像データに対して施された画像処理
の内容の確認又は認識の要否に応じて出力が選択可能と
なる.When a blur designation, that is, a designation to not perform black and white reversal, is made, in step #94, the designated attribute data a1 is set to "0" for the designated segmented area E. On the other hand, if a negative designation, that is, a designation to perform black and white reversal, is made, in step #95, the designated attribute data al is set to "1" for the designated segmented area E. If trimming is specified, step #9
In step #97, the specified attribute data a2 is set to "1" for areas other than the specified segmented area E, and if masking is specified, the specified attribute data a2 is set to "1" for the specified segmented area E in step #97. "l". If trimming/unmasking is specified, in step #98, the specified attribute data a2 is returned to "0" for areas other than the specified segmented area E. FIG. 18 is a flowchart of the output data designation process in step #7 of FIG. In this routine, the type of output data DATA is first checked in step #101, and steps #102 to #104 are performed depending on the type. If output of only image data V I DEO 1 to 8 is selected, in step #102, output control data C
Let both o and CI be rQJ. When outputting only attribute data a4 to a0 is selected, step #103 is executed, output control data CO is set to "l", and output control data C1 is set to "O". Furthermore, if the output of both the image data VI DEO 1 to 8 and the attribute data a4 to 0 is selected, the output control data co is set to "0" in step #104, and the output control data CI is assumed to be r1. According to the embodiment described above, the discrimination attribute data α0 corresponding to the discrimination result of the binarized attribute is output, so when character recognition is performed on the host device, the character image is determined based on the discrimination attribute data αO. Recognition processing can be performed only on the segmented area E corresponding to , which improves recognition efficiency. Also,
When using the image reader l as an image reading means for a filing system or facsimile, image data V I DEO 1 to
8, it becomes possible to perform data processing such as data compression suitable for line images or halftone images. [Effects of the Invention] According to the present invention, output can be selected depending on whether confirmation or recognition of the content of image processing performed on image data is necessary.
第1図は本発明に係る電気回路部のブロック図、第2図
はイメージリーグの概略の構成を示す断面正面図、第3
図は属性メモリの構成を示す図、第4図は画像判別部の
ブロック図、第5図は画像処理部のブロック図、第6図
は属性データ出力制御部のブロック図、第7図は出力制
御部のブロック図、第8図は属性データの出力動作を示
すタイミングチャート、第9図〜第18図はイメージリ
ーダの動作を示すフローチャートである.1・・・イメ
ージリーダ(*像読取り装置)、25・・・画像判別部
(属性判別手段)、28・・・画像処理部(画像処理手
段)、29・・・出力制御部(出力制御手段)、30・
・・属性メモリ(属性記憶手段)、aO.al,a’l
・・・指定属性データ、a4〜0・・・属性データ、
α0.α1・・・判別属性データ、
V I DEO 1〜8・・・画像データ、Dm27〜
20・・・画像データ(信号)、E・・・区分領域であ
る.FIG. 1 is a block diagram of the electric circuit section according to the present invention, FIG. 2 is a cross-sectional front view showing the general configuration of the image league, and FIG.
The figure shows the configuration of the attribute memory, Figure 4 is a block diagram of the image discrimination unit, Figure 5 is a block diagram of the image processing unit, Figure 6 is a block diagram of the attribute data output control unit, and Figure 7 is the output FIG. 8 is a block diagram of the control section, FIG. 8 is a timing chart showing the output operation of attribute data, and FIGS. 9 to 18 are flow charts showing the operation of the image reader. DESCRIPTION OF SYMBOLS 1... Image reader (*image reading device), 25... Image discrimination part (attribute discrimination means), 28... Image processing part (image processing means), 29... Output control part (output control means) ), 30・
...Attribute memory (attribute storage means), aO. al, a'l
... Specified attribute data, a4-0... Attribute data, α0. α1...Discrimination attribute data, VI DEO 1-8...Image data, Dm27-
20...Image data (signal), E...Divided area.
Claims (1)
に画像処理を施し、各画素に対応した画像データを出力
するように構成された画像読取り装置において、 前記原稿を区分した各区分領域毎に生成された画像処理
のための指定属性データを記憶する属性記憶手段と、 前記原稿の読み取りに合わせて前記区分領域毎に特定の
属性の判別を行い、判別属性データを生成する属性判別
手段と、 前記指定属性データ及び前記判別属性データの内の少な
くとも一方に基づいて画像処理を行う画像処理手段と、 前記画像データ及び画像処理を規定する属性データの内
の少なくとも一方のデータを出力する出力制御手段と を備えてなることを特徴とする画像読取り装置。(1) In an image reading device configured to read a document by dividing it into pixels, perform image processing on the obtained signal, and output image data corresponding to each pixel, each segmented area into which the document is divided. Attribute storage means for storing designated attribute data for image processing generated in each case; and Attribute determination means for determining a specific attribute for each of the divided areas in accordance with reading of the document and generating discriminating attribute data. and an image processing unit that performs image processing based on at least one of the specified attribute data and the discrimination attribute data, and an output that outputs at least one of the image data and the attribute data that defines the image processing. An image reading device comprising a control means.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011140A JPH03214970A (en) | 1990-01-19 | 1990-01-19 | Picture reader |
| US07/642,688 US5371610A (en) | 1990-01-19 | 1991-01-17 | Image data processing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011140A JPH03214970A (en) | 1990-01-19 | 1990-01-19 | Picture reader |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03214970A true JPH03214970A (en) | 1991-09-20 |
Family
ID=11769715
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011140A Pending JPH03214970A (en) | 1990-01-19 | 1990-01-19 | Picture reader |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03214970A (en) |
-
1990
- 1990-01-19 JP JP2011140A patent/JPH03214970A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4924509A (en) | Image processing apparatus | |
| US5583667A (en) | Color image processing apparatus for forming a color image based on image attributes of an original image | |
| JPH0567105B2 (en) | ||
| US5371610A (en) | Image data processing apparatus | |
| GB2194117A (en) | Image processing apparatus | |
| JP3334385B2 (en) | Image reading apparatus and reading method | |
| US6228125B1 (en) | Image processing apparatus for parallel image processing and method therefor | |
| US6028966A (en) | Image reading apparatus and method including pre-scanning | |
| JPH03214970A (en) | Picture reader | |
| JPH03214967A (en) | Picture reader | |
| JPH03214969A (en) | Picture reader | |
| JPH03214965A (en) | Picture reader | |
| JP3358133B2 (en) | Image processing device | |
| JP2557480B2 (en) | Color image processor | |
| US6055007A (en) | Image processing device and image reading device | |
| JPH05268479A (en) | Picture reader and picture processing method in picture reader | |
| JP2926710B2 (en) | Image processing device | |
| JP2557481B2 (en) | Color image processor | |
| JP2656561B2 (en) | Color image processing equipment | |
| JPH05199404A (en) | Variable enlargement processing method for image reader | |
| JP2783739B2 (en) | Drop-out color adjustment method | |
| JP2001169100A (en) | Image reading method and apparatus, and storage medium | |
| JPH07254981A (en) | Data managing device for image magnifying processor | |
| JPH08251385A (en) | Image processing device | |
| JPS6346872A (en) | Image processing device |