[go: up one dir, main page]

JPH09261448A - Image processor - Google Patents

Image processor

Info

Publication number
JPH09261448A
JPH09261448A JP8071619A JP7161996A JPH09261448A JP H09261448 A JPH09261448 A JP H09261448A JP 8071619 A JP8071619 A JP 8071619A JP 7161996 A JP7161996 A JP 7161996A JP H09261448 A JPH09261448 A JP H09261448A
Authority
JP
Japan
Prior art keywords
image
frame
area
data
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8071619A
Other languages
Japanese (ja)
Inventor
Hiroshi Miura
浩 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP8071619A priority Critical patent/JPH09261448A/en
Publication of JPH09261448A publication Critical patent/JPH09261448A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Facsimiles In General (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an output image of high definition by plurally setting the range of recognizing an image area to excellently erase a frame area with respect to an original with plural image areas. SOLUTION: The plural ranges of recognizing an image area are provided to obtain information of a frame area within respective ranges, plural frame erasing processing is executed by leaving the individual image area and image data removed of a frame area within each range is generated to output to a laser printer. When a micro image is duplex, a reading range is divided into right left two pieces and respectively one black frame is searched in right and left frame recognizing area to obtain two pieces of square information (C). Thus, as the frame erasing processing of two black frames is easily executed by leaving two image areas, the image is not lost with respect to a microfilm (B) imprinted with two images as well and the black fame is erased (D) without leaving a space between the right and left images black to obtain the high definition output image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えばマイクロフ
ィルム等にデュープレックスの形態で写し込まれた原稿
画像を読み取り、画像領域の周囲の枠領域を除去した画
像データを生成し、プリンタ等へ出力する画像処理装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention reads a document image printed in a duplex form on, for example, a microfilm, generates image data from which a frame area around the image area is removed, and outputs the image data to a printer or the like. The present invention relates to an image processing device.

【0002】[0002]

【従来の技術】マイクロフィルムに写し込まれた画像を
処理する画像処理装置には、マイクロ像をスクリーンに
拡大投影する機能と、光電変換素子で読み取って生成し
た画像データをプリンタ側へ出力して記録用紙上にプリ
ントアウトする機能とを備えたリーダースキャナ装置が
ある。マイクロフィルムに写し込まれた画像は、画像領
域の周囲に枠領域を有している。
2. Description of the Related Art An image processing apparatus for processing an image projected on a microfilm has a function of enlarging and projecting a micro image on a screen and outputting image data read by a photoelectric conversion element to a printer side. There is a reader / scanner device having a function of printing out on recording paper. The image printed on the microfilm has a frame area around the image area.

【0003】リーダースキャナ装置には、一般に、画像
データからマイクロフィルムの枠領域に相当する画像デ
ータを除去し、当該枠領域が黒ベタとして用紙上にプリ
ントアウトされることを防止する機能が付加されてい
る。このような機能を付加したのは、上記黒ベタ部が見
苦しいという理由の他、プリンタでのトナー消費量を抑
制したいという要請による。
In general, the reader scanner device is provided with a function of removing the image data corresponding to the frame area of the microfilm from the image data and preventing the frame area from being printed out on paper as black solid. ing. The reason why such a function is added is not only because the black solid portion is unsightly but also because of the demand for suppressing the toner consumption amount in the printer.

【0004】従来の枠認識方法には、例えば、特公平4
一65371に示されるように、読み取り範囲の周辺部
から内側へ画像を探し出して、矩形の外側を白くする方
法がある。また、画像の4辺を探し出して、画像が斜め
でもその外側を消去し得るようにした方法もある。
The conventional frame recognition method includes, for example, Japanese Patent Publication No.
As shown in No. 65371, there is a method in which an image is searched from the periphery of the reading range to the inside and the outside of the rectangle is whitened. There is also a method in which four sides of the image are searched so that the outside of the image can be erased even if the image is oblique.

【0005】ところで、マイクロ像は種々の業務に用い
られているが、例えば、小切手の問い合わせ業務に対応
するために、小切手の表面および裏面は1組としてマイ
クロフィルムの1つの画像駒に写し込まれている。この
ように被写体の表裏を上下2列になるようにマイクロフ
ィルムに撮影した形態はデュープレックスと称されてい
る。
By the way, although the micro image is used in various business operations, for example, in order to respond to a check inquiry business, the front and back surfaces of a check are printed as a set on one image frame of a microfilm. ing. Such a form in which the front and the back of the subject are photographed on the microfilm so that the front and the back are arranged in two rows is called a duplex.

【0006】かかるデュープレックスのように複数の画
像がセットで写し込まれたマイクロフィルムにあって
も、画像領域の周囲の枠領域が黒ベタとして用紙上にプ
リントアウトされるという問題が同様に生じることか
ら、枠領域を品質良く消去することが強く要請されてい
る。
Even in the case of a microfilm on which a plurality of images are imprinted as a set like such a duplex, the same problem occurs that the frame area around the image area is printed out as black solid on the paper. Therefore, it is strongly requested to erase the frame area with high quality.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記公
報に示される枠認識手法を採用したリーダースキャナ装
置にあっては、光電変換素子による読取範囲内に画像が
2つあると、画像間の枠領域を認識できず、プリントア
ウトすると画像間に黒ベタ部が残ってしまうという問題
があった。
However, in the reader / scanner device adopting the frame recognition method disclosed in the above publication, if there are two images within the range read by the photoelectric conversion element, a frame area between the images is generated. However, there is a problem that a black solid portion remains between the images when the printout is made.

【0008】また、上下左右を1辺ずつ探し、探し出し
た辺で囲まれる領域の外側を枠領域(黒枠)として認識
する手法を採用したリーダースキャナ装置にあっては、
次ぎのような不具合が生じる。つまり、例えば2つの画
像が左右に並んでいる場合には、上下の辺として、左右
いずれか一方の画像の辺が採用されるが、このとき、他
方の画像の辺が採用された辺の延長線上に存在しなけれ
ば、当該他方の画像に画像欠損が生じるという不具合が
あった。
Further, the reader / scanner apparatus adopting a method of searching for the upper, lower, left and right sides one by one and recognizing the outside of the area surrounded by the found sides as a frame area (black frame),
The following problems occur. That is, for example, when two images are arranged side by side, the side of either one of the left and right images is adopted as the upper and lower sides, but at this time, the side of the other image is extended. If it does not exist on the line, there is a problem that an image loss occurs in the other image.

【0009】本発明は、上記従来技術に伴う課題を解決
するためになされたものであり、複数の画像領域を有す
る原稿に対する枠領域の消去を品質よく行い、画像品位
の高い出力画像を得ることができる画像処理装置を提供
することを目的とする。
The present invention has been made in order to solve the problems associated with the prior art described above, and it is possible to obtain a high-quality output image by erasing a frame area of a document having a plurality of image areas with high quality. An object of the present invention is to provide an image processing device capable of performing the above.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
の本発明は、画像領域の周囲に枠領域を有する原稿を読
み取る読取手段を備え、当該読取手段からの画像信号に
基づいて、前記画像領域を認識し前記枠領域を除去した
画像データを生成する画像処理装置において、画像領域
を認識する範囲を複数設定する設定手段と、前記設定手
段により設定されたそれぞれの範囲内における画像領域
を認識する画像領域認識手段と、前記画像領域認識手段
からの出力に基づいて、前記それぞれの範囲内の前記枠
領域を除去した画像データを生成する生成手段と、を有
することを特徴とする画像処理装置である。
In order to achieve the above object, the present invention comprises a reading means for reading a document having a frame area around the image area, and the image is read based on an image signal from the reading means. In an image processing device for recognizing a region and generating image data in which the frame region is removed, setting means for setting a plurality of ranges for recognizing the image region, and recognizing the image region within each range set by the setting means An image processing apparatus, comprising: an image area recognizing unit that performs the image area recognizing unit; and a generating unit that generates image data in which the frame areas in the respective ranges are removed based on an output from the image area recognizing unit. Is.

【0011】上記構成の画像処理装置では、画像領域が
例えば左右に2つある原稿に対しては次ぎのように作用
する。2つの画像領域の周囲に枠領域を有する原稿は、
その全体が読取手段により読み取られる。読取手段によ
り読み取った読取範囲は、設定手段により、左右に分割
されて画像領域を認識する範囲が左右に2個設定され
る。画像領域認識手段により、左側の範囲内における画
像領域が認識されて1つ目の枠領域の位置情報が求めら
れ、さらに、右側の範囲内における画像領域も認識され
て2つ目の枠領域の位置情報が求められる。そして、生
成手段は、画像領域認識手段からの出力に基づいて、左
右それぞれの範囲内の枠領域を除去した画像データを生
成し、この画像データをレーザプリンタなどに出力す
る。
In the image processing apparatus having the above-mentioned structure, the following acts on a document having two image areas on the left and right sides, for example. A document that has a frame area around the two image areas is
The whole is read by the reading means. The reading range read by the reading unit is divided into left and right by the setting unit, and two ranges for recognizing the image area are set on the left and right. The image area recognizing unit recognizes the image area in the left side range to obtain the position information of the first frame area, and further recognizes the image area in the right side range to detect the second frame area. Location information is required. Based on the output from the image area recognizing means, the generating means generates image data from which the frame areas in the respective right and left areas have been removed, and outputs this image data to a laser printer or the like.

【0012】このように、画像領域を認識する範囲を複
数個に分けて、それぞれの範囲内で枠領域の情報を取得
することから、個々の画像領域を残して、複数の枠消し
処理を容易に行うことができ、複数の画像領域を有する
原稿に対しても、画像領域の欠損を招くことがなく、し
かも、各画像相互間の枠領域も消去され、画像品位の高
い出力画像を得ることができる
As described above, the range in which the image area is recognized is divided into a plurality of areas, and the information on the frame area is acquired within each range. Therefore, it is possible to easily erase a plurality of frames while leaving the individual image areas. In addition, even for a document having a plurality of image areas, the image area is not lost, and the frame area between the images is erased, so that an output image with high image quality can be obtained. Can

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照しつつ説明する。図1は、本発明の実施の形態に
係るリーダースキャナ装置を組み込んだ画像処理システ
ムの外観を示す斜視図、図2は、リーダースキャナ装置
の光路系の概略構成図、図3は、リーダースキャナ装置
のスクリーンにデュープレックス画像が投影されている
状態を示す正面図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view showing an external appearance of an image processing system incorporating a reader scanner device according to an embodiment of the present invention, FIG. 2 is a schematic configuration diagram of an optical path system of the reader scanner device, and FIG. 3 is a reader scanner device. 3 is a front view showing a state in which a duplex image is projected on the screen of FIG.

【0014】《1.リーダースキャナ装置の機構》図示
するリーダースキャナ装置1は、マイクロフィルムキャ
リア4にセットされたマイクロフィルムを照射して、そ
の透過光をスクリーン9に投影することで閲覧に供し、
または、その透過光をCCDラインセンサ12(読取手
段に相当する)に投影することで画像データを生成する
装置であり、次ぎのようにしてマイクロ像を投影する。
<< 1. Mechanism of Reader Scanner Device >> The illustrated reader scanner device 1 irradiates a microfilm set on a microfilm carrier 4 and projects the transmitted light on a screen 9 for viewing.
Alternatively, it is a device that generates image data by projecting the transmitted light onto the CCD line sensor 12 (corresponding to a reading unit), and projects a micro image as follows.

【0015】図2に示すように、光源2から照射された
光は、コンデンサレンズ3によって集光された後、キャ
リア4に装填されているマイクロフィルムを下から照射
する。マイクロフィルムの透過光は、投影レンズ5およ
び像回転プリズム6を経て、走査ミラー7へ導かれる。
As shown in FIG. 2, after the light emitted from the light source 2 is condensed by the condenser lens 3, the microfilm loaded on the carrier 4 is illuminated from below. The transmitted light of the microfilm is guided to the scanning mirror 7 via the projection lens 5 and the image rotation prism 6.

【0016】電源投入時には初期状態としてリーダーモ
ードが設定されており、このリーダーモードにおいて
は、走査ミラー7で反射されたフィルム透過光は、反射
ミラー8でさらに反射されてスクリーン9に至り、当該
スクリーン9上に拡大投影される。例えば小切手の表裏
両面をマイクロフィルムに撮影するときには、マイクロ
フィルムに写し込まれたマイクロ像の配列はデュープレ
ックスの形態をなしている。マイクロ像がデュープレッ
クスの形態で写し込まれているマイクロフィルムの場
合、リーダーモードにおいては、図3に示すように、ス
クリーン9上には、左右に並列的に2つの画像が拡大投
影される。
When the power is turned on, the reader mode is set as an initial state. In this reader mode, the film-transmitted light reflected by the scanning mirror 7 is further reflected by the reflection mirror 8 and reaches the screen 9, which is the screen. 9 is enlarged and projected. For example, when the front and back surfaces of a check are photographed on a microfilm, the array of microimages projected on the microfilm is in the form of duplex. In the case of a micro film on which a micro image is imprinted in the form of a duplex, in the reader mode, two images are enlarged and projected side by side on the screen 9 in parallel as shown in FIG.

【0017】一方、図示しない操作パネルに設けられた
操作スイッチ等から読取モードが指令された場合には、
走査ミラー7が回転され、回転中の走査ミラー7で反射
されたフィルム透過光は、さらに複数の反射ミラー1
0,11で反射されてCCDラインセンサ12まで導か
れ、当該センサ12に結像する。このように読取モード
時には、走査ミラー7の回転に伴ってマイクロフィルム
の画像がスキャンされ、マイクロフィルムの画像がCC
Dラインセンサ12に投影露光されてlラインづつ読み
込まれることになる。
On the other hand, when a reading mode is instructed from an operation switch or the like provided on an operation panel (not shown),
The scanning mirror 7 is rotated, and the film transmitted light reflected by the rotating scanning mirror 7 is further reflected by the plurality of reflecting mirrors 1.
It is reflected by 0 and 11 and guided to the CCD line sensor 12, and an image is formed on the sensor 12. As described above, in the reading mode, the image on the microfilm is scanned as the scanning mirror 7 rotates, and the image on the microfilm is scanned by CC.
Projection exposure is performed on the D-line sensor 12 and the lines are read one by one.

【0018】画像はCCDラインセンサ12により主走
査方向にスキャンされる。また、走査ミラー7が回転す
ることで、画像は主走査方向に対して垂直な副走査方向
にスキャンされる。なお、副走査は、走査ミラー7を駆
動するミラースキャンの他、CCDラインセンサ12ま
たはマイクロフィルムを駆動することによって行う形態
でもよい。
The image is scanned by the CCD line sensor 12 in the main scanning direction. Further, as the scanning mirror 7 rotates, the image is scanned in the sub-scanning direction perpendicular to the main scanning direction. The sub-scanning may be performed by driving the CCD line sensor 12 or the microfilm in addition to the mirror scanning for driving the scanning mirror 7.

【0019】CCDラインセンサ12は、4800個の
光電変換素子が直線状に配列され、各素子のそれぞれ
は、照射光量を電圧に変換して出力する。フィルム透過
光がCCDラインセンサ12上で結像して、フィルム上
の1ラインの明暗が4800個の電圧に変換され、これ
によりマイクロフィルムの画像がセンサ12にアナログ
電気信号として捕らえられる。ここでは明るいとセンサ
12の出力電圧は低く、暗いと高いものとする。
In the CCD line sensor 12, 4800 photoelectric conversion elements are linearly arranged, and each of the elements converts the irradiation light amount into a voltage and outputs it. The light transmitted through the film forms an image on the CCD line sensor 12, and the brightness of one line on the film is converted into 4800 voltages, whereby the image of the microfilm is captured by the sensor 12 as an analog electric signal. Here, it is assumed that the output voltage of the sensor 12 is low when it is bright and high when it is dark.

【0020】図4は、リーダースキャナ装置の制御系の
概略ブロック図である。
FIG. 4 is a schematic block diagram of a control system of the reader / scanner device.

【0021】A/D変換器30は、CPU31からの変
換信号に基づいて、CCDラインセンサ12から出力さ
れた電圧を8ビットのデジタル画像信号に変換する。A
/D変換器30は、ある上限電圧値と下限電圧値との間
を256個に等分割し、入力されたアナログ電圧がどの
区間に相当するかに基づいて、所定のデジタル値を出力
する。ここではCCDラインセンサ12からの出力電圧
が低い方(明るい方)を0、高い方(暗い方)を255
とする。
The A / D converter 30 converts the voltage output from the CCD line sensor 12 into an 8-bit digital image signal based on the conversion signal from the CPU 31. A
The / D converter 30 equally divides a certain upper limit voltage value and a lower limit voltage value into 256 pieces, and outputs a predetermined digital value based on which section the input analog voltage corresponds to. Here, the one with a low output voltage (bright one) from the CCD line sensor 12 is 0, and the one with a high output voltage (dark one) is 255.
And

【0022】変換後のデジタル画像信号は、第1処理回
路32および第2処理回路33に入力され、CPU31
から出力される信号に基づいて、ガンマ変換、拡大・縮
小、メディアン処理、エッジ強調、枠消し、2値化とい
った所定の画像処理を受けた後、外部へ出力される。各
画像処理の順番は適宜決められるが、予備スキャンでの
サンプリングに必要な画像処理が第1処理回路32でな
され、他の画像処理が第2処理回路32でなされる。
The converted digital image signal is input to the first processing circuit 32 and the second processing circuit 33, and the CPU 31
A predetermined image processing such as gamma conversion, enlargement / reduction, median processing, edge enhancement, frame elimination, and binarization is performed on the basis of the signal output from, and then output to the outside. Although the order of each image processing is appropriately determined, the image processing required for sampling in the preliminary scan is performed by the first processing circuit 32, and the other image processing is performed by the second processing circuit 32.

【0023】予備スキャン時のデジタル画像信号は、第
1処理回路32で所定の画像処理を受けた後、所定ピッ
チでサンプリングされ、画像メモリ部34に格納され
る。CPU31は、画像メモリ部34から読み出したサ
ンプリングデータを、EPROM35に記憶されている
プログラムに基づいて演算し、黒枠を消去する枠消し処
理などをする。CPU31からは、走査ミラー7を駆動
するモータや像回転プリズム6を駆動するモータなどに
制御信号が出力される一方、CPU31には走査ミラー
7やプリズム6の定位置信号が入力される。なお、EP
ROM35は、後述する枠消し処理を行うためのプログ
ラムなどを記憶しているものであり、RAM36は、C
PU31が各種の処理を行う際の演算結果などを一時記
憶しておくためのものである。
The digital image signal at the time of preliminary scanning is subjected to predetermined image processing by the first processing circuit 32, then sampled at a predetermined pitch and stored in the image memory section 34. The CPU 31 calculates the sampling data read from the image memory unit 34 based on a program stored in the EPROM 35, and performs a frame erasing process for erasing a black frame. The CPU 31 outputs a control signal to a motor that drives the scanning mirror 7, a motor that drives the image rotation prism 6, and the like, while the CPU 31 receives a fixed position signal of the scanning mirror 7 and the prism 6. In addition, EP
The ROM 35 stores a program for performing a frame erasing process described later, and the RAM 36 is a C
This is for temporarily storing the calculation result and the like when the PU 31 performs various processes.

【0024】第2処理回路33で所定の画像処理を受け
た画像データは、インターフェース回路を介して出力さ
れ、図1に示すレーザプリンタ20に転送されて画像デ
ータに基づいた複写等が行われたり、パーソナルコンピ
ュータに転送されてCRT表示されたり、光ディスク記
憶装置に記憶されたりする。なお、画像データはインタ
ーフェース回路内のRAMに一旦格納されてもよい。
The image data subjected to the predetermined image processing in the second processing circuit 33 is output through the interface circuit and transferred to the laser printer 20 shown in FIG. 1 to perform copying or the like based on the image data. , Transferred to a personal computer and displayed on a CRT, or stored in an optical disk storage device. The image data may be temporarily stored in the RAM in the interface circuit.

【0025】前記CPU31が、画像領域を認識する範
囲を複数設定する設定手段、設定されたそれぞれの範囲
内における画像領域を認識する画像領域認識手段、およ
び、それぞれの範囲内の枠領域を除去した画像データを
生成する生成手段として機能する。
The CPU 31 removes the setting means for setting a plurality of ranges for recognizing the image area, the image area recognizing means for recognizing the image area within each set range, and the frame area within each range. It functions as a generation unit that generates image data.

【0026】《2.処理の概要》次ぎに、リーダースキ
ャナ装置における処理の概要を、図15に示すフローチ
ャートに基づいて説明する。
<< 2. Outline of Processing >> Next, an outline of processing in the reader scanner device will be described based on the flowchart shown in FIG.

【0027】本実施の形態のリーダースキャナ装置1で
は、図示しない操作スイッチ等によりマイクロフィルム
のプリントアウトが指令されると、まず、予備スキャン
が行われ、所定の処理の後、続いて本スキャンが行われ
る。
In the reader / scanner apparatus 1 of the present embodiment, when a microfilm printout is instructed by an operation switch (not shown) or the like, first, a preliminary scan is performed, and after a predetermined process, a main scan is subsequently performed. Done.

【0028】まず、対象となるマイクロフィルムが、ネ
ガフィルムであるか、ポジフィルムであるかが判別され
る(S11)。
First, it is determined whether the target microfilm is a negative film or a positive film (S11).

【0029】次に、枠認識が行われる(Sl2)。この
枠認識処理は、マイクロ像の配列がシンプレックスであ
るフィルムか、デュープレックスであるフィルムかに応
じてなされる。シンプレックス・フィルムの場合には、
CCDラインセンサ12による読取範囲の全体が枠認識
領域として選択され、この枠認識領域内で黒枠を検出
し、当該黒枠の位置情報を求める枠認識処理が行われ
る。一方、デュープレックス・フィルムの場合には、ま
ず、前記読取範囲の全体が左右2つに分割され、左側枠
認識領域と右側枠認識領域とに分けられる。まず最初に
左側枠認識領域が指定ないし選択され、この左側枠認識
領域内で黒枠を検出し、1番目の黒枠の位置情報を求め
る枠認識処理が行われる。次いで、右側枠認識領域に切
り替えられ、この右側枠認識領域内で黒枠を検出し、2
番目の黒枠の位置情報を求める枠認識処理が行われる。
Next, frame recognition is performed (S12). This frame recognition processing is performed depending on whether the micro image array is a simplex film or a duplex film. In the case of simplex film,
The entire reading range of the CCD line sensor 12 is selected as a frame recognition area, a black frame is detected in this frame recognition area, and frame recognition processing is performed to obtain position information of the black frame. On the other hand, in the case of a duplex film, first, the entire reading range is divided into left and right parts, that is, a left frame recognition region and a right frame recognition region. First, the left-side frame recognition area is designated or selected, a black frame is detected in the left-side frame recognition area, and a frame recognition process for obtaining position information of the first black frame is performed. Next, the right frame recognition area is switched to, and a black frame is detected in the right frame recognition area,
A frame recognition process for obtaining position information of the th black frame is performed.

【0030】枠認識(S12)が終了すると、次に、A
E(自動露光)処理(S13)が行われて、本スキャン
時の光源2の光量が設定される。この設定は、上記枠認
識処理(Sl2)で識別された画像領域内のデータのみ
に基づいて行われる。これにより、枠に影響されない最
適な露光制御が可能となる。
When the frame recognition (S12) is completed, next, A
An E (automatic exposure) process (S13) is performed to set the light amount of the light source 2 during the main scan. This setting is performed based on only the data in the image area identified by the frame recognition process (S12). This enables optimum exposure control that is not affected by the frame.

【0031】その後、用紙の中央部分へのプリントを等
倍で行うセンタリング、あるいは、出力用紙大に拡大し
てプリントを行うフルフレーミンダ等、モードに応じて
設定されている画像出力範囲に応じてプリントするべ
く、プリント動作のための本スキャンが行われる(Sl
4)。
After that, centering for printing on the central portion of the paper at the same size, or full framer for printing by enlarging the size of the output paper, depending on the image output range set according to the mode. To print, the main scan for the printing operation is performed (Sl
4).

【0032】本スキャンにより読み取った画像データ
は、所定の画像処理が施され、さらに、ステップS12
で求めた枠認識情報をもとに画像数に応じた枠消し処理
がなされる。つまり、シンプレックス・フィルムの場合
には、枠認識情報をもとに1つの枠消し処理がなされ、
デュープレックス・フィルムの場合には、左右の枠認識
領域のそれぞれで求めた枠認識情報をもとに2つの枠消
し処理がなされ、その後にレーザプリンタ20に出力さ
れる。
The image data read by the main scan is subjected to predetermined image processing, and further, step S12.
A frame erasing process is performed according to the number of images based on the frame recognition information obtained in step. In other words, in the case of simplex film, one frame erase process is performed based on the frame recognition information,
In the case of a duplex film, two frame erasing processes are performed based on the frame recognition information obtained in each of the left and right frame recognition areas, and then output to the laser printer 20.

【0033】《3.処理の詳細》 《3-1. ネガ/ポジ判別(S11)》ステップS11の
ネガ/ポジ判別は、図示しない操作スイッチ等からネガ
/ポジが指定されている場合には、その指定に基づいて
行われる。また、前記指定がない場合には、プレスキャ
ン(予備スキャン)時に、当該マイクロフィルム全体の
明暗をしきい値と比較して、ネガ/ポジ判別が行われ
る。
<< 3. Details of Processing >><< 3-1. Negative / Positive Discrimination (S11) >> When the negative / positive is designated by an operation switch (not shown), the negative / positive discrimination in step S11 is performed based on the designation. Be seen. If there is no designation, negative / positive discrimination is performed by comparing the lightness and darkness of the entire microfilm with a threshold value during prescanning (preliminary scanning).

【0034】ネガ/ポジ判別をまず最初に行う必要があ
るのは、引き続いて実行される枠認識処理(Sl2)に
おいて、ネガフィルムであるか、ポジフィルムであるか
に応じて、枠認識の処理内容が変わるからである。
It is necessary to first perform the negative / positive determination in the frame recognition process (S12) executed subsequently, depending on whether the film is a negative film or a positive film. This is because the content changes.

【0035】すなわち、図7に示すように、ネガフィル
ムでは枠が低濃度部であり画像領域が高濃度部(斜線
部)である一方、ポジフィルムでは逆に枠が高濃度部で
あり画像領域が低濃度部となっている。そして、枠認識
処理(Sl2)では、ネガフィルムの場合には、「枠→
画像領域」の境界でデータ(デジタル値)が「小(明)
→大(暗)」と変化することを利用して枠を探す一方、
ポジフィルムの場合には、「枠→画像領域」の境界でデ
ータが「大(暗)→小(明)」と変化することを利用し
て枠を探している。このように枠認識の処理内容が変わ
ることから、まず、ネガ/ポジを判別する必要がある。
That is, as shown in FIG. 7, in the negative film, the frame is the low density portion and the image area is the high density portion (hatched portion), while in the positive film, the frame is the high density portion and the image area is opposite. Is the low concentration part. Then, in the frame recognition process (S12), in the case of a negative film, “frame →
Data (digital value) is "small (bright)" at the boundary of "image area"
→ While searching for a frame by utilizing the change of "large (dark)",
In the case of a positive film, the frame is searched by utilizing the fact that the data changes from “large (dark) to small (bright)” at the boundary of “frame → image area”. Since the processing contents of frame recognition are changed in this way, it is necessary to first discriminate negative / positive.

【0036】《3-2. 枠認識(S12)》図16は、枠
認識処理の手順を示すフローチャート、図17は、図1
6に示される画像領域抽出処理の手順を示すフローチャ
ートである。
<< 3-2. Frame Recognition (S12) >> FIG. 16 is a flowchart showing the procedure of frame recognition processing, and FIG. 17 is shown in FIG.
6 is a flowchart showing a procedure of image area extraction processing shown in FIG.

【0037】ステップS12の枠認識では、画像領域の
抽出処理に先立って、枠認識領域が読取範囲の全体であ
るか、左右に分割した各領域であるかが予め設定され、
この設定に基づいて、枠と画像領域とを識別する画像領
域抽出処理が実行される。枠認識領域の判別形態を読取
範囲の全体とするか、分割された範囲とするかは、オペ
レータが図示しない操作スイッチ等を操作することによ
って選択ないし指定される。画像領域抽出処理は、図1
7に基づいて後述する。
In the frame recognition in step S12, whether the frame recognition region is the entire reading range or the left and right divided regions is preset before the image region extraction processing.
Based on this setting, the image area extraction process for identifying the frame and the image area is executed. Whether the determination form of the frame recognition area is the entire reading range or a divided range is selected or designated by an operator operating an operation switch or the like (not shown). The image area extraction process is shown in FIG.
It will be described later based on 7.

【0038】図3に示したように、デュープレックス・
フィルムの場合には、スクリーン9上には左右に2つの
画像が投影されている。操作スイッチ等からデュープレ
ックスモードが指定されていると(S21;YES)、ま
ず、読取範囲の全体のうち左半分(図3のABED)が
枠認識領域として設定され(S22)、この左側枠認識
領域に対して画像領域の抽出処理が行われ、1番目の黒
枠の位置情報が求められる(S23)。左側枠認識領域
に対する画像領域抽出処理が終了すると(S22,S2
3)、次ぎに、読取範囲の全体のうち右半分(図3のB
CFE)が枠認識領域として設定され(S24)、この
右側枠認識領域に対して画像領域抽出処理が行われ、2
番目の黒枠の位置情報が求められる(S25)。
As shown in FIG.
In the case of a film, two images are projected on the left and right on the screen 9. When the duplex mode is designated by the operation switch or the like (S21; YES), first, the left half (ABED of FIG. 3) of the entire reading range is set as the frame recognition area (S22), and the left frame recognition area is set. An image area extraction process is performed on the position information to obtain position information of the first black frame (S23). When the image area extraction processing for the left frame recognition area is completed (S22, S2
3) Next, the right half of the entire reading range (see B in FIG. 3).
CFE) is set as the frame recognition area (S24), and the image area extraction processing is performed on this right frame recognition area, and 2
The position information of the th black frame is obtained (S25).

【0039】一方、デュープレックスモードが指定され
ていないときには(S21;NO )、読取範囲の全体(図
3のACFD)が枠認識領域として設定され(S2
6)、この枠認識領域に対して画像領域抽出処理が行わ
れ、1つの黒枠の位置情報が求められる(S27)。
On the other hand, when the duplex mode is not designated (S21; NO), the entire reading range (ACFD in FIG. 3) is set as the frame recognition area (S2).
6), the image area extraction processing is performed on this frame recognition area, and the position information of one black frame is obtained (S27).

【0040】なお、分割される左右の枠認識領域は読取
範囲の1/2の大きさに限られるものではなく、これよ
り多少広めの範囲ととすることもできる。
The left and right frame recognition areas to be divided are not limited to the size of 1/2 of the reading range, but may be set to a slightly wider range.

【0041】画像領域抽出処理(S23,S25,S2
7)は、図17に示すように、まず、枠と画像領域の境
界線の候補、即ち、上下左右の各境界線を構成するもの
と推定される座標群が、上下左右から各々検出される
(S31)。次に、検出された座標群が連続か否か各々
チェックされ、連続座標群の中で飛び離れた位置に座標
がある場合は、当該連続線上の位置へ補正される(S3
2)。次に、上下左右の各境界線を表す直線式が、各々
演算される(S33)。この演算は、連続と判定された
中で座標数が最大の連続座標群に基づいて行われる。最
後に、上下左右の各境界線の交点(4隅)の座標が演算
され(S34)、これにより、枠と画像領域とが識別さ
れる。
Image region extraction processing (S23, S25, S2
In 7), as shown in FIG. 17, first, candidates of boundary lines between the frame and the image area, that is, coordinate groups estimated to constitute the upper, lower, left, and right boundary lines are detected from the upper, lower, left, and right sides, respectively. (S31). Next, it is checked whether or not the detected coordinate groups are continuous, and if there are coordinates at positions far apart in the continuous coordinate group, the coordinates are corrected to positions on the continuous line (S3).
2). Next, linear equations representing the upper, lower, left, and right boundaries are calculated (S33). This calculation is performed based on the continuous coordinate group having the largest number of coordinates among the continuous coordinates. Finally, the coordinates of the intersections (four corners) of the upper, lower, left, and right boundaries are calculated (S34), and the frame and the image area are identified.

【0042】本実施の形態のように、マイクロ像がデュ
ープレックスであるか否かに応じて枠認識領域を指定す
るようにした利点を説明する。図5(A)に概念的に示
すように、読取範囲に画像が1つだけある場合には、符
号、、およびで示される各辺が、左辺、下辺、
右辺および上辺としてそれぞれ認識されるので、枠消し
処理を良好に行うことができ、右側に図示するような出
力画像を得ることができる。
The advantage of designating the frame recognition area according to whether or not the micro image is duplex as in the present embodiment will be described. As conceptually shown in FIG. 5A, when there is only one image in the reading range, the sides indicated by the symbols, and are the left side, the lower side,
Since they are recognized as the right side and the upper side, respectively, the frame erasing process can be favorably performed, and the output image as shown on the right side can be obtained.

【0043】これに対して、図5(B)に概念的に示す
ように、読取範囲に左画像と右画像の2つがX方向に並
んでいる場合において、枠認識領域を分割指定しないと
きには、以下に示す不具合が生じる。なお、この図で
は、符号、、およびで示される各辺が、左画像
の左辺、下辺、右辺および上辺とし、符号、、お
よびで示される各辺が、右画像の左辺、下辺、右辺お
よび上辺とする。
On the other hand, as conceptually shown in FIG. 5B, in the case where the left image and the right image are lined up in the X direction in the reading range and the frame recognition region is not designated to be divided, The following problems occur. In this figure, the sides indicated by the symbols, and are the left side, the bottom side, the right side, and the top side of the left image, and the sides indicated by the symbols, and are the left side, the bottom side, the right side, and the top side of the right image. And

【0044】枠認識領域を分割指定せずに画像領域抽出
処理を行うと、左辺は左画像の左辺(辺)、右辺は右
画像の右辺(辺)として認識できる。下辺は、候補点
の連続性を調べるときに、左画像の下辺(辺)と右画
像の下辺(辺)の2つが認識されるが、長い方の辺を
この枠認識領域での下辺として採用する。上辺も同様
に、左右いずれかの画像の上辺(または)が採用さ
れる。仮に、左画像の上下辺が右画像の上下辺よりも長
いとすると、辺、が採用された結果、辺、、
およびで作られる四角形と認識される。このときに
は、右側に図示するような出力画像となり、右画像の上
方が欠損し、さらに下方に黒枠が残ってしまう。さらに
左右の画像間も黒く残ってしまうという不具合がある。
When the image area extraction processing is performed without designating the frame recognition area as divided, the left side can be recognized as the left side (side) of the left image and the right side can be recognized as the right side (side) of the right image. When checking the continuity of candidate points, the lower side is recognized as the lower side (side) of the left image and the lower side (side) of the right image. The longer side is used as the lower side in this frame recognition area. To do. Similarly, the upper side (or) of the left or right image is adopted as the upper side. If the upper and lower sides of the left image are longer than the upper and lower sides of the right image, then the side is adopted, and as a result,
Recognized as a rectangle made with and. At this time, the output image is as shown on the right side, the upper part of the right image is lost, and the black frame remains below. Furthermore, there is a problem that the left and right images also remain black.

【0045】これに対し、本実施の形態にあっては、図
5(C)に概念的に示すように、マイクロ像がデュープ
レックスの場合には、読取範囲が左右の2個に分割さ
れ、左右の枠認識領域中でそれぞれ1つの黒枠を探し
て、4辺形の情報が2個取得される。このため2個の画
像領域を残して、2つの黒枠の枠消し処理を容易に行い
得るので、同図(B)に示すような2つ画像が写し込ま
れたマイクロフィルムに対しても、同図(D)に示すよ
うに、画像が欠損せず、しかも左右の画像の間が黒く残
ることなく黒枠が消去され、高品位の出力画像を得るこ
とが可能となる。
On the other hand, in the present embodiment, as conceptually shown in FIG. 5 (C), when the micro image is a duplex, the reading range is divided into two left and right, and the left and right are read. By searching for one black frame in each frame recognition area, two pieces of quadrilateral information are acquired. For this reason, it is possible to easily perform the frame erasing process of the two black frames by leaving the two image areas. Therefore, the same can be applied to the microfilm on which the two images shown in FIG. As shown in FIG. 3D, the image is not lost, and the black frame is erased without left black between the left and right images, so that a high-quality output image can be obtained.

【0046】なお、本実施の形態では、読取範囲(図3
および図5のACFD)の中で2つの枠を探すために当
該読取範囲の中央で左右2つに枠認識領域を分け、左側
領域(ABED)、右側領域(BCFE)のそれぞれの
中で1つの枠を探すようにした場合を説明した。ここで
は2画像であることを前提として枠認識領域を2つに分
けてあるが、3個以上の複数の画像に対しては、当該画
像の数に応じて、読取範囲をさらに分割して枠認識領域
を増やせばよい。
In the present embodiment, the reading range (see FIG.
In addition, in order to search for two frames in FIG. 5 (ACFD), the frame recognition area is divided into two left and right at the center of the reading range, and one of the left area (ABED) and the right area (BCFE) is divided. The case where the frame is searched has been described. Here, the frame recognition area is divided into two on the premise that it is two images, but for a plurality of images of three or more, the reading range is further divided according to the number of the images. Increase the recognition area.

【0047】また、枠認識領域の判別形態は、操作スイ
ッチ等による指定に限られるものではない。例えば、サ
ンプリングデータを調べて画像が1つでなく分かれてい
るか否かを判別し、この判別の結果、画像が1つであれ
ば、枠認識領域は読取領域(ACFD)のままとして、
以後の処理を自動的に行う。また、画像が複数であれ
ば、当該画像の数および配置状態に応じて読取範囲を分
割して枠認識領域を複数個設定し、以後の処理を自動的
に行うようにすることもできる。
Further, the form of discriminating the frame recognition area is not limited to the designation by the operation switch or the like. For example, by examining the sampling data, it is determined whether or not the image is divided into one, and if the result of this determination is that there is one image, the frame recognition area remains the reading area (ACFD),
Subsequent processing is automatically performed. If there are a plurality of images, it is possible to divide the reading range according to the number and arrangement state of the images, set a plurality of frame recognition areas, and automatically perform the subsequent processing.

【0048】《3-3. 画像領域抽出(S23,S25,
S27)》以下に、画像領域抽出処理(図17)の詳細
を、ステップS3l、ステップS32、ステップS3
3、ステップS34の順に説明する。
<< 3-3. Image area extraction (S23, S25,
S27) >> The details of the image area extraction processing (FIG. 17) will be described below with reference to step S31, step S32, step S3.
3 and step S34 will be described in this order.

【0049】《3-3-1. 候補を探す(S31)》画像の
下端側から予備スキャンされてセンサ12で読み取られ
た画像信号は、前記の如く処理されて画像データとされ
た後、図6のように、1mmピッチで取り込まれて、編
集RAMに格納される。例えば、400dpiであれ
ば、1ドットが63.5μmであるため、15.748
ドット毎に取り込まれる。この編集RAMは、図8のよ
うに、(00,00)番地から、(210,297)番
地まで、画像データを格納可能とされている。これは、
A4サイズが、210×297mmであるため、上記の
ように1mmピッチで格納する場合の必要とするRAM
容量である。
<< 3-3-1. Searching for Candidates (S31) >> The image signal prescanned from the lower end side of the image and read by the sensor 12 is processed as described above to be image data, Like No. 6, it is fetched at a pitch of 1 mm and stored in the edit RAM. For example, in the case of 400 dpi, since one dot is 63.5 μm, it is 15.748.
It is captured for each dot. As shown in FIG. 8, this edit RAM can store image data from the address (00,00) to the address (210,297). this is,
A4 size is 210 x 297 mm, so RAM required when storing at a 1 mm pitch as described above
Capacity.

【0050】枠と画像領域の境界線(上下左右の各境界
線)を構成するものと推定される座標群、即ち枠候補座
標群は、編集RAMのデータに基づいて検出される。例
えば、図18のように画像領域の左辺の枠を検出する場
合であれば、図9の破線矢印群Aのように、Y方向の各
ライン(第0ライン〜第297ライン)について、各々
X方向へデータが探される。デュープレックスモードの
場合に読取範囲が左右2つの枠認識領域が分割されたと
きは、X方向の0〜105ライン、106〜210ライ
ンに分けてそれぞれ行われる。
A coordinate group estimated to form a boundary line between the frame and the image area (upper and lower left and right boundary lines), that is, a frame candidate coordinate group is detected based on the data in the edit RAM. For example, in the case of detecting the frame on the left side of the image area as shown in FIG. 18, as shown by the broken line arrow group A in FIG. Data is searched for in the direction. In the duplex mode, when the left and right frame recognition areas are divided into two reading areas, the reading is performed by dividing the lines into 0 to 105 lines and 106 to 210 lines in the X direction.

【0051】まず、当該ラインの左端の座標(X=0
0)が基準座標とされて、そのデータが読み出される
(Sl02)。また、この基準座標からX方向へ2座標
目(この場合は、X=02)のデータが読み出される
(S103)。次に、読み出された2つのデータが比較
される(Sl04)。その結果、差がある所定値(=基
準値)以下であれば(S105;NO )、基準座標がX方
向へ1座標移動されて(S109;この場合は、X=0
1)、その座標のデータが読み出された後(S10
2)、上記と同様に、X方向へ2座標目(この場合は、
X=03)のデータと比較される(S103、S10
4)。
First, the coordinates of the left end of the line (X = 0
0) is set as the reference coordinate, and the data is read (S102). Further, the data of the second coordinate (X = 02 in this case) from the reference coordinate in the X direction is read (S103). Next, the two read data are compared (S104). As a result, if the difference is less than or equal to a predetermined value (= reference value) (S105; NO), the reference coordinate is moved one coordinate in the X direction (S109; in this case, X = 0.
1) After the data of the coordinates are read (S10
2) Similarly to the above, the second coordinate in the X direction (in this case,
It is compared with the data of X = 03 (S103, S10).
4).

【0052】こうして、基準座標をX方向へ1づつ移動
させて、順次、比較が行われる。その結果、読み出され
た2つのデータの差が、当該ラインでは最初に前記基準
値を越えたとき(S105;YES)、その2つの座標の間
のある位置が、当該ラインの左辺の枠候補座標であると
されて、格納される(Sl06)。
In this way, the reference coordinates are moved one by one in the X direction, and the comparisons are sequentially performed. As a result, when the difference between the two data read out first exceeds the reference value in the line (S105; YES), a position between the two coordinates is a frame candidate on the left side of the line. The coordinates are stored and stored (S106).

【0053】次に、処理対象がY方向に関して1ライン
移動され(Sl07)、その移動後のラインについて、
上記と同様に左端側から順次比較が行われて(S102
〜Sl04)、当該移動後のラインの左辺の枠候補座標
が探される(S105)。なお、図18の処理では図示
を省略されているが、上述の如く探されることで基準座
標がX方向へ移動された結果、基準座標が右端から2番
目の座標になっても、未だ、当該ライン上で左辺の枠候
補座標が検出されなかった場合には、当然に、処理対象
がY方向に関して1ライン移動されるものとする。
Next, the object to be processed is moved by one line in the Y direction (S107), and the line after the movement is
Similar to the above, the comparison is sequentially performed from the left end side (S102).
~ S104), frame candidate coordinates on the left side of the line after the movement are searched (S105). Although not shown in the processing of FIG. 18, even if the reference coordinates become the second coordinates from the right end as a result of the reference coordinates being moved in the X direction by searching as described above, When no frame candidate coordinate on the left side is detected on the line, the processing target is naturally moved by one line in the Y direction.

【0054】このようにして、Y方向の全ライン(第0
ライン〜第297ライン)について左辺の枠候補探しが
終了すると(Sl08;YES)、次に右辺の枠候補座標
が、その次に上辺の枠候補座標が、最後に下辺の枠候補
座標が、順次、探される。
In this way, all lines in the Y direction (0th line
When the search for the left-side frame candidates for lines (line 297) is completed (S08; YES), the right-side frame candidate coordinates are next, then the upper-side frame candidate coordinates, and finally the lower-side frame candidate coordinates. , Searched.

【0055】なお、右辺の枠候補探しは、破線矢印B群
(図9)のようにY方向の各ラインについてXの負方向
へデータを探すことで、上辺の枠候補探しは、破線矢印
C群のようにX方向の各ライン(第0ライン〜第210
ライン)についてY方向へデータを探すことで、下辺の
枠候補探しは、破線矢印D群のようにX方向の各ライン
についてYの負方向へデータを探すことで、各々行われ
る。
The search for the frame candidate on the right side is performed by searching the data in the negative direction of X for each line in the Y direction as shown by the group of broken line arrows B (FIG. 9). Each line in the X direction like the group (0th line to 210th line)
The search for the frame candidate on the lower side is performed by searching for data in the Y direction with respect to each line) by searching for the data in the negative direction of Y for each line in the X direction as indicated by the group of broken line arrows D.

【0056】この枠候補探し処理(S31)では、基準
座標のデータを次の座標のデータと比較することで枠候
補座標を探すのではなく、上述のように、次の次(1つ
飛ばして2つ目)の座標のデータと比較することで探し
ている。これは、枠・画像領域の境界での濃度変化が比
較的なだらかであるため、隣接する座標のデータ間で
は、前記ある所定値(=基準値)の差を得られないため
である。
In this frame candidate search processing (S31), the frame candidate coordinates are not searched by comparing the data of the reference coordinates with the data of the next coordinates, but as described above, skip the next (skip one). I am looking for it by comparing it with the data of the second) coordinate. This is because the density change at the boundary between the frame and the image area is comparatively gentle, and thus the difference of the predetermined value (= reference value) cannot be obtained between the data of the adjacent coordinates.

【0057】《3-3-2. 連続かをチェックする(S3
2)》前記ステップS31で探された枠候補座標につい
て、順番に、図19および図20のフローチャートに示
す手順で連続性がチェックされる。以下、図10をも参
照して説明する。
<< 3-3-2. Check if continuous (S3
2) >> With respect to the frame candidate coordinates searched for in step S31, continuity is sequentially checked by the procedure shown in the flowcharts of FIGS. 19 and 20. Hereinafter, description will be made with reference to FIG.

【0058】まず、最初のデータが基準とされて、その
座標値が、次のデータの座標値と比較される(S20
3)。その結果、X方向およびY方向ともに、その差が
1以下(1mm以下)であれば、この2つのデータが連
続であるとされて(S204;YES)、保存され(S24
1)、また、連続数がカウントされる(S242)。さ
らに、保存された最後のデータ(この場合は上記次のデ
ータ)が基準とされて(S243)、上記と同様に比較
される。即ち、この新たに基準とされたデータの座標値
が、その次のデータの座標値と比較されて(S20
3)、同様に処理される。例えば、図10の〜は、
X方向には不連続であるが、Y方向に連続な場合であ
る。また、〜は、X方向およびY方向に連続な場合
である。
First, the first data is used as a reference, and its coordinate value is compared with the coordinate value of the next data (S20).
3). As a result, if the difference between the X-direction and the Y-direction is 1 or less (1 mm or less), these two data are considered to be continuous (S204; YES) and saved (S24).
1) In addition, the continuous number is counted (S242). Further, the last data stored (in this case, the next data described above) is used as a reference (S243), and the comparison is performed in the same manner as above. That is, the coordinate value of the newly set data is compared with the coordinate value of the next data (S20
3), processed in the same manner. For example,
The case is discontinuous in the X direction but continuous in the Y direction. Further, ˜ is a case where the X direction and the Y direction are continuous.

【0059】また、比較の結果、差が1を越えている場
合は(S204;NO )、1つ飛ばして、その次のデータ
の座標値と比較される(S205)。その結果、その差
が2以下(2mm以下)であれば、これらのデータが連
続であるとされて(S206;YES)、上記で飛ばされた
データが、比較対象とされた2つのデータの中間の座標
へ補正される(S221)。その後、データが保存され
(S241)、連続数がカウントされた後(S24
2)、保存された最後のデータが基準とされて(S24
3)、この新たに基準とされたデータに基づいて、上記
と同様の処理が継続される。例えば、図10の〜は
不連続であり、また、〜○で囲ったl0も不連続であ
るが、と○で囲ったl0とはY方向での差が2である
ため連続とされて(S206;YES)、がと○で囲っ
たl0の中間の座標へ補正される(S221)。
If the result of comparison is that the difference exceeds 1, (S204; NO), one is skipped and compared with the coordinate value of the next data (S205). As a result, if the difference is 2 or less (2 mm or less), it is determined that these data are continuous (S206; YES), and the data skipped above is the middle of the two data to be compared. The coordinates are corrected to (S221). After that, the data is stored (S241), and after the continuous number is counted (S24).
2) The last stored data is used as a reference (S24
3) Based on this newly set reference data, the same processing as above is continued. For example, ~ in Fig. 10 is discontinuous, and l0 surrounded by ~ ○ is also discontinuous, but since the difference between and 10 surrounded by ○ is 2 in the Y direction, it is regarded as continuous ( (S206; YES), the coordinates are corrected to the intermediate coordinates of 10 surrounded by G and O (S221).

【0060】また、上記ステップS206で不連続と判
定された場合は(S206;NO )、さらに1つ飛ばし
て、その次のデータの座標値との比較が行われる(S2
07)。その結果、中間の2つのデータを飛ばして比較
した場合には連続であるとされると(S208;YES)、
これら中間の2つのデータが前記と同様に補正され(S
231)、その後、データの保存(S241)、連続数
のカウント(S242)、基準データの更新(S24
3)が、前記と同様に行われる。このように中間の1つ
又は2つのデータの座標が補正されることで(S22
1、S23l参照)、マイクロフィルム上の傷・ゴミ等
により枠候補座標が誤検出されていた場合の悪影響が防
止される。
If it is determined in step S206 that the data is discontinuous (S206; NO), another one is skipped and the comparison with the coordinate value of the next data is performed (S2).
07). As a result, if two intermediate data are skipped and compared, it is determined that they are continuous (S208; YES),
The two data in between are corrected in the same manner as above (S
231), then data storage (S241), continuous count (S242), and reference data update (S24).
3) is performed as described above. In this way, the coordinates of one or two intermediate data are corrected (S22
1, S231)), the adverse effect when the frame candidate coordinates are erroneously detected due to scratches or dust on the microfilm is prevented.

【0061】一方、上記ステップS208でも不連続と
判定された場合は(S208;NO )、基準とされていた
データまでが連続であり、その次のデータから連続でな
くなったと判断される(S209)。このため、連続座
標群の格納場所が移動され(S210)、基準とされて
いたデータの次のデータが基準とされて、この新たに基
準とされたデターを基にして、新たに連続座標群が探さ
れる(S211)。
On the other hand, when it is determined that the data is discontinuous also in step S208 (S208; NO), it is determined that the data up to the reference is continuous, and the next data is not continuous (S209). . Therefore, the storage location of the continuous coordinate group is moved (S210), the data next to the reference data is set as the reference, and a new continuous coordinate group is newly set based on the newly set reference data. Is searched for (S211).

【0062】《3-3-3. 直線式を演算する(S33)》
前記ステップS32で探された複数の連続座標群の中か
ら、連続数が最大である連続座標群がピックアップさ
れ、該連続座標群に基づいて、図21のフローチャート
に示す手順で、枠と画像領域の境界を表す直線式が、上
下左右の各辺について各々演算される。但し、ピックア
ップされた連続座標群の連続数が、ある基準数に満たな
い場合には、当該連続座標群の辺についての演算は行わ
れない。あまり連続数が少ない場合には、本当の枠か否
か確実でないためである。以下、図11をも参照して説
明する。
<< 3-3-3. Calculating linear equation (S33) >>
The continuous coordinate group having the largest number of continuous ones is picked up from the plurality of continuous coordinate groups searched in step S32, and the frame and the image area are processed based on the continuous coordinate group by the procedure shown in the flowchart of FIG. A straight line expression representing the boundary of is calculated for each of the upper, lower, left and right sides. However, if the number of consecutive picked-up continuous coordinate groups is less than a certain reference number, no calculation is performed on the sides of the consecutive coordinate group. This is because it is uncertain whether or not it is a true frame when the number of consecutive characters is too small. Hereinafter, description will be made with reference to FIG. 11 as well.

【0063】まず、ピックアップされた連続座標群につ
いて、座標の最大値、最小値、その差および平均値が演
算される(S301)。ここで、左辺および右辺の直線
式を求める場合であればX座標について演算され、上辺
および下辺の直線式を求める場合であればY座標につい
て演算される。
First, the maximum value, the minimum value, the difference and the average value of the coordinates are calculated for the picked-up continuous coordinate group (S301). Here, when the linear expressions of the left side and the right side are calculated, the X coordinate is calculated, and when the linear expressions of the upper side and the lower side are calculated, the Y coordinate is calculated.

【0064】次に、上記最大値と最小値の差が2以下で
あるか否か判定され、2以下であれば(S302;YE
S)、直線式は演算されず、当該辺の平均値の座標が、
当該辺の切片を示すものとされる(S307)。即ち、
当該辺が、編集RAMの座標に対して傾斜していないも
のとして扱われる。これは、センサと測光の構成上、傾
斜が無い場合でも1座標程度のバラツキは必ず生ずるた
め、差が2以下の場合は傾斜が無いものとして扱うこと
で、図11に斜線部で示す三角形の黒枠や欠損を防止す
るようにしたものである。
Next, it is judged whether or not the difference between the maximum value and the minimum value is 2 or less, and if it is 2 or less (S302; YE).
S), the linear equation is not calculated, and the coordinates of the average value of the side are
The section of the side is shown (S307). That is,
The side is treated as being not inclined with respect to the coordinates of the edit RAM. This is because, due to the configuration of the sensor and photometry, even if there is no inclination, a variation of about 1 coordinate will always occur. Therefore, if the difference is 2 or less, it is treated as if there is no inclination. It is designed to prevent black frames and defects.

【0065】一方、差が2を越えている場合は(S30
2;NO )、当該連続座標群の先頭から5番目のデータの
X・Y座標と(S304)、最後から5番目のデータの
X・Y座標から(S305)、当該連続座標群に対応す
る辺の直線式が演算される(S306)。即ち、当該連
続座標群の両端の座標に基づいて直線式を演算するので
はなく、少し内側の座標に基づいて直線式を演算してい
る。このようにすることで、耳折れによる影響や、画像
端の測光時のずれ等の影響を、避けることができる。
On the other hand, if the difference exceeds 2, (S30
2; NO), the X / Y coordinates of the fifth data from the beginning of the continuous coordinate group and (S304), the X / Y coordinates of the fifth data from the end (S305), and the side corresponding to the continuous coordinate group. Is calculated (S306). That is, the linear equation is not calculated based on the coordinates of both ends of the continuous coordinate group, but the linear equation is calculated based on the coordinates slightly inside. By doing so, it is possible to avoid the influence of the broken ear and the influence of the shift of the image edge at the time of photometry.

【0066】《3-3-4. 交点の座標を求める(S3
4)》前記ステップS33で演算された各辺の直線式に
基づいて、図22〜図24のフローチャートに示す手順
で画像領域の4隅の座標が演算される。以下、図12〜
図14をも参照して説明する。
<< 3-3-4. Find the coordinates of the intersection (S3
4) >> The coordinates of the four corners of the image area are calculated by the procedure shown in the flowcharts of FIGS. 22 to 24 based on the linear equation of each side calculated in step S33. Hereinafter, FIG.
Description will be made also with reference to FIG.

【0067】上下左右の各辺を示す直線式が全て求まっ
ている場合は(S40l;YES)、それらの交点から、上
記4隅の座標が演算される(S402)。
When all the straight line equations indicating the upper, lower, left and right sides have been obtained (S40l; YES), the coordinates of the four corners are calculated from their intersections (S402).

【0068】上下左右の各辺のうち、3辺のみが求まっ
ている場合は(S403;YES)、該3辺の直線式の交点
として2点の座標が求まる(S411)。また、他の2
点については、交点として求められた2点の反対側の端
の座標として、前記枠候補座標群から求めることができ
る(S4l2)。
If only three sides of the upper, lower, left and right sides are obtained (S403; YES), the coordinates of two points are obtained as the intersections of the linear equations of the three sides (S411). Another 2
The point can be obtained from the frame candidate coordinate group as the coordinate of the end on the opposite side of the two points obtained as the intersection (S412).

【0069】例えば、図12の上側の2点は、左辺と上
辺の交点および右辺と上辺の交点として各々求まる。ま
た、他の2点については、左辺の下端の座標および右辺
の下端の座標として各々求まる。ここで、反対側の端
(下端)の座標とは、候補を探す処理(S31)に於い
て当該辺の枠候補座標として検出され、かつ、連続かを
チェックする処理(S32)において必要に応じて図1
0ののように補正された座標群の中で、反対側の端に
在る座標をいう。なお、左辺と右辺が平行であるか否か
をチェックすることで、より正確さを増すことができ
る。
For example, the upper two points in FIG. 12 are respectively determined as the intersection of the left side and the upper side and the intersection of the right side and the upper side. Further, the other two points are respectively obtained as the coordinates of the lower end of the left side and the coordinates of the lower end of the right side. Here, the coordinate of the end (lower end) on the opposite side is detected as a frame candidate coordinate of the relevant side in the process of searching for a candidate (S31), and if necessary, in the process of checking whether it is continuous (S32). Figure 1
In the coordinate group corrected as 0, it is the coordinate at the opposite end. The accuracy can be increased by checking whether the left side and the right side are parallel to each other.

【0070】2辺のみが求まっている場合は(S40
5;YES)、平行な2辺であるか、直交する2辺であるか
に応じて、各々異なる処理が行われる。平行な2辺の場
合は(S42l;YES)、図14のように、それらの両端
の座標が、前記枠候補座標群から各々求められる(S4
22)。ここで、両端の座標とは、上記『3辺が求まっ
ている場合』の『端』の定義と同様である。直交する2
辺の場合は(S421;NO )、図13のように、該2辺
の直線式の交点として1点の座標が求まる(S42
3)。また、この1点に隣接する2点は、上記2辺の反
対側の端の座標として、前記枠候補座標群から各々求ま
る(S424)。また、残りの1点は上記の3点に基づ
いて演算される(S425)。
If only two sides are obtained (S40
5; YES), different processing is performed depending on whether the two sides are parallel or two orthogonal. In the case of two parallel sides (S421; YES), the coordinates of both ends thereof are obtained from the frame candidate coordinate group as shown in FIG. 14 (S4).
22). Here, the coordinates of both ends are the same as the definition of "end" in "when three sides are determined". Two orthogonal
In the case of a side (S421; NO), as shown in FIG. 13, the coordinate of one point is obtained as the intersection of the linear equations of the two sides (S42).
3). Further, two points adjacent to this one point are respectively obtained from the frame candidate coordinate group as coordinates of the ends on the opposite side of the two sides (S424). The remaining one point is calculated based on the above three points (S425).

【0071】このように、全ての辺が求まっていない場
合でも、2辺又は3辺が求まっている場合には画像領域
の4隅を決定できるため、傷の多いフィルムや、規定外
ブリップ等の画像でも、枠を認識することができる。
As described above, even when not all the sides are obtained, the four corners of the image area can be determined when the two sides or the three sides are obtained. The frame can be recognized even in the image.

【0072】なお、1辺のみが求まっているか、又は、
一辺も求まっていない場合は(S405;NO )、枠が無
いものとされる(S407)。このようにして、本実施
の形態では、枠と画像領域との境界線が決定される。
It should be noted that only one side is obtained, or
If no side has been obtained (S405; NO), it is determined that there is no frame (S407). In this way, in the present embodiment, the boundary line between the frame and the image area is determined.

【0073】[0073]

【発明の効果】以上説明したように、本発明の画像処理
装置によれば、画像領域を認識する範囲を複数個に分け
て、それぞれの範囲内で枠領域の情報を取得することか
ら、個々の画像領域を残して、複数の枠消し処理を容易
かつ品質よく行うことができる。したがって、複数の画
像領域を有する原稿に対して、画像領域の欠損がなく、
しかも各画像相互間の枠領域をも消去された画像品位の
高い出力画像を得ることが可能となる。
As described above, according to the image processing apparatus of the present invention, the range in which the image area is recognized is divided into a plurality of areas, and the information on the frame area is acquired within each range. It is possible to easily and with high quality perform a plurality of frame erasing processes while leaving the image area of. Therefore, for a document having a plurality of image areas, there is no loss of the image area,
Moreover, it is possible to obtain an output image with high image quality in which the frame area between the images is erased.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施の形態に係るリーダースキャナ
装置を組み込んだ画像処理システムの外観を示す斜視図
である。
FIG. 1 is a perspective view showing an external appearance of an image processing system incorporating a reader / scanner device according to an embodiment of the present invention.

【図2】 リーダースキャナ装置の光路系の概略構成図
である。
FIG. 2 is a schematic configuration diagram of an optical path system of a reader scanner device.

【図3】 リーダースキャナ装置のスクリーンにデュー
プレックス画像が投影されている状態を示す正面図であ
る。
FIG. 3 is a front view showing a state in which a duplex image is projected on the screen of the reader scanner device.

【図4】 リーダースキャナ装置の制御系の概略ブロッ
ク図である。
FIG. 4 is a schematic block diagram of a control system of the reader scanner device.

【図5】 図5(A)〜(D)は、マイクロ像がデュー
プレックスであるか否かに応じて枠認識領域を指定する
ようにした利点の説明に供する説明図である。
5A to 5D are explanatory diagrams for explaining the advantage of designating a frame recognition region depending on whether a micro image is a duplex or not.

【図6】 データの読み取りピッチを示す説明図であ
る。
FIG. 6 is an explanatory diagram showing a data reading pitch.

【図7】 ネガ/ポジフィルムで枠の濃度が反転する様
子を示す説明図である。
FIG. 7 is an explanatory diagram showing a state in which the density of a frame is reversed on a negative / positive film.

【図8】 編集RAM上の座標を示す説明図である。FIG. 8 is an explanatory diagram showing coordinates on the edit RAM.

【図9】 枠と画像領域の境界線を構成する座標を探す
際、左辺は左方から、右辺は右方から、上辺は上方か
ら、下辺は下方から、各々探すことを示す説明図であ
る。
FIG. 9 is an explanatory diagram showing that when a coordinate forming a boundary line between a frame and an image area is searched, the left side is searched from the left side, the right side is searched from the right side, the upper side is searched from above, and the lower side is searched from below. .

【図10】境界線を構成する座標群が連続か否かを判別
する方式の説明図である。
FIG. 10 is an explanatory diagram of a method of determining whether or not the coordinate groups forming the boundary line are continuous.

【図11】境界線の一辺を構成する座標群のX又はY座
標の最大値と最小値の差が2以下の場合は、傾きが0゜
又は90゜であるとする方式の説明図である。
FIG. 11 is an explanatory diagram of a method in which the inclination is 0 ° or 90 ° when the difference between the maximum value and the minimum value of the X or Y coordinates of the coordinate group forming one side of the boundary line is 2 or less. .

【図12】境界線の3辺が見つかった場合に画像領域の
4隅の座標を求める方式を示す説明図である。
FIG. 12 is an explanatory diagram showing a method for obtaining coordinates of four corners of an image area when three sides of a boundary line are found.

【図13】境界線の2辺が見つかった場合に画像領域の
4隅の座標を求める方式を示す説明図である。
FIG. 13 is an explanatory diagram showing a method for obtaining coordinates of four corners of an image area when two sides of a boundary line are found.

【図14】境界線の2辺が見つかった場合に画像領域の
4隅の座標を求める方式を示す説明図である。
FIG. 14 is an explanatory diagram showing a method of obtaining coordinates of four corners of an image area when two sides of a boundary line are found.

【図15】リーダースキャナ装置の動作の順序の概略を
示すフローチャートである。
FIG. 15 is a flowchart showing an outline of an operation sequence of the reader scanner device.

【図16】枠認識処理の手順を示すフローチャー卜であ
る。
FIG. 16 is a flowchart showing a procedure of frame recognition processing.

【図17】画像領域抽出処理の手順を示すフローチャー
卜である。
FIG. 17 is a flowchart showing a procedure of image area extraction processing.

【図18】枠と画像領域の境界線を構成する座標を探す
手順を、左辺について示すフローチャートである。
FIG. 18 is a flowchart showing, on the left side, a procedure for searching for coordinates that form a boundary line between a frame and an image area.

【図19】境界線を構成する座標群が連続か否かを判別
する手順を示すフローチャートである。
FIG. 19 is a flowchart showing a procedure for determining whether or not the coordinate groups forming the boundary line are continuous.

【図20】図19の分図である。20 is a partial diagram of FIG.

【図21】境界線を表す式を演算する手順を示すフロー
チャートである。
FIG. 21 is a flowchart showing a procedure for calculating an expression representing a boundary line.

【図22】画像領域の4隅の座標を求める手順を示すフ
ローチャートである。
FIG. 22 is a flowchart showing a procedure for obtaining coordinates of four corners of an image area.

【図23】境界線の3辺が見つかった場合に画像領域の
4隅の座標を求める手順を示すフローチャートである。
FIG. 23 is a flowchart showing a procedure for obtaining coordinates of four corners of an image area when three sides of a boundary line are found.

【図24】境界線の2辺が見つかった場合に画像領域の
4隅の座標を求める手順を示すフローチャートである。
FIG. 24 is a flowchart showing a procedure for obtaining coordinates of four corners of an image area when two sides of a boundary line are found.

【符号の説明】[Explanation of symbols]

1…リーダースキャナ装置(画像処理装置) 2…光源 7…走査ミラー 9…スクリーン 12…CCDラインセンサ(読取手段) 31…CPU(設定手段、画像領域認識手段、生成手
段)
DESCRIPTION OF SYMBOLS 1 ... Reader scanner device (image processing device) 2 ... Light source 7 ... Scanning mirror 9 ... Screen 12 ... CCD line sensor (reading means) 31 ... CPU (setting means, image area recognition means, generation means)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像領域の周囲に枠領域を有する原稿を
読み取る読取手段を備え、当該読取手段からの画像信号
に基づいて、前記画像領域を認識し前記枠領域を除去し
た画像データを生成する画像処理装置において、 画像領域を認識する範囲を複数設定する設定手段と、 前記設定手段により設定されたそれぞれの範囲内におけ
る画像領域を認識する画像領域認識手段と、 前記画像領域認識手段からの出力に基づいて、前記それ
ぞれの範囲内の前記枠領域を除去した画像データを生成
する生成手段と、を有することを特徴とする画像処理装
置。
1. A reading means for reading a document having a frame area around the image area is provided, and based on an image signal from the reading means, the image area is recognized and image data in which the frame area is removed is generated. In the image processing apparatus, setting means for setting a plurality of ranges for recognizing image areas, image area recognizing means for recognizing image areas within the respective ranges set by the setting means, and output from the image area recognizing means And a generating unit that generates image data in which the frame area in each of the ranges is removed based on the above.
JP8071619A 1996-03-27 1996-03-27 Image processor Withdrawn JPH09261448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8071619A JPH09261448A (en) 1996-03-27 1996-03-27 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8071619A JPH09261448A (en) 1996-03-27 1996-03-27 Image processor

Publications (1)

Publication Number Publication Date
JPH09261448A true JPH09261448A (en) 1997-10-03

Family

ID=13465854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8071619A Withdrawn JPH09261448A (en) 1996-03-27 1996-03-27 Image processor

Country Status (1)

Country Link
JP (1) JPH09261448A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7010745B1 (en) 1999-07-01 2006-03-07 Sharp Kabushiki Kaisha Border eliminating device, border eliminating method, and authoring device
CN103731585A (en) * 2012-10-16 2014-04-16 光宝电子(广州)有限公司 File digitization method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7010745B1 (en) 1999-07-01 2006-03-07 Sharp Kabushiki Kaisha Border eliminating device, border eliminating method, and authoring device
CN103731585A (en) * 2012-10-16 2014-04-16 光宝电子(广州)有限公司 File digitization method and device
CN103731585B (en) * 2012-10-16 2016-05-04 光宝电子(广州)有限公司 File digitizing solution and device

Similar Documents

Publication Publication Date Title
JP4037512B2 (en) Image reading device
JPH09238248A (en) Method for correcting read image and image reader
US5969795A (en) Image reading apparatus
JPS63261952A (en) Microreader scanner
US5719968A (en) Digital copy machine that carries out optimum copy regardless of original mounted position
US5416605A (en) Print control method and apparatus for microfilm reader
JP3090848B2 (en) In-frame area rectangularization device
JPH11103380A (en) Image reader
JPH09261448A (en) Image processor
JPH07245682A (en) Image reader and copying machine incorporating it
JP3384208B2 (en) Image reading device
JP2010154244A (en) Apparatus, and method for processing image, and program
JP2958407B2 (en) Image processing device
JP3207209B2 (en) Tilt image correction processor
JP3707204B2 (en) Method for correcting read image and image reading apparatus
JPH07245680A (en) Image reader and copying machine incorporating it
JP2898973B2 (en) Image processing device
JPH0818763A (en) Device for recognizing rectangular processing in intra-frame area
JP2926710B2 (en) Image processing device
JP2547748B2 (en) Image processing device
JPH043656A (en) Picture processor
JPH06291973A (en) Picture reader
JPH10229486A (en) Image reader
JPH11266362A (en) Digital image processing device
JPH1196338A (en) Image reader

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030603