[go: up one dir, main page]

JPH06251128A - Image processor and copying machine using its processor - Google Patents

Image processor and copying machine using its processor

Info

Publication number
JPH06251128A
JPH06251128A JP5054586A JP5458693A JPH06251128A JP H06251128 A JPH06251128 A JP H06251128A JP 5054586 A JP5054586 A JP 5054586A JP 5458693 A JP5458693 A JP 5458693A JP H06251128 A JPH06251128 A JP H06251128A
Authority
JP
Japan
Prior art keywords
pattern
image
specific pattern
predetermined
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5054586A
Other languages
Japanese (ja)
Other versions
JP2899736B2 (en
Inventor
Yasuhiro Tsutsumi
康弘 堤
Koji Soma
宏司 相馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP5054586A priority Critical patent/JP2899736B2/en
Publication of JPH06251128A publication Critical patent/JPH06251128A/en
Application granted granted Critical
Publication of JP2899736B2 publication Critical patent/JP2899736B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Cleaning In Electrography (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To provide an image processor which can detect at a high speed paper money, etc., being an object by a single scan. CONSTITUTION:Prescribed image information is inputted successively to a specific pattern detecting means 1, and by its detecting means, gradated image data is formed by lowering the resolution by an averaging processing part 10, and by an edge extraction filter 13 of the next stage, an edge of density/ color tone is extracted from image data of low resolution. Subsequently, the extracted edge is sent to an angle candidate rough retrieving/positioning part 15, expanded to a built-in register buffer array, and whether two pieces of orthogonal straight lines (corners) exist or not is detected by a logic circuit connected thereto. When they are detected, data in a prescribed area containing them is given to a segmenting means 2, a necessary part is segmented therein and outputted to a specific pattern matching means 3 of the next stage, and whether a candidate pattern segmented therein is a specific pattern or not is decided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、紙幣、有価証券等の偽
造を防止するために適した画像処理装置及びそれを搭載
した複写機に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus suitable for preventing forgery of banknotes, securities, etc. and a copying machine equipped with the image processing apparatus.

【0002】[0002]

【従来の技術】近年のフルカラー複写機等の複写装置の
開発により、複写画像の画質は原画像と肉眼では見分け
が付かないレベルにまで達し、係る忠実な複写が手軽に
得られるようになった。しかし、それにともない紙幣、
有価証券等の本来複写が社会的に禁止されているものの
偽造に悪用される危険性が増大すると考える必要があ
り、係る危険性を未然に防止するための偽造防止装置が
種々開発されている。そして、その中の一つとして、例
えば特開平2−210481号公報に開示された画像処
理装置がある。
2. Description of the Related Art With the recent development of a copying machine such as a full-color copying machine, the quality of a copied image has reached a level indistinguishable from the original image and the naked eye can easily obtain such a faithful copy. . However, with it, banknotes,
It is necessary to consider that the risk of being illegally used for counterfeiting is increased even though copying of securities or the like is originally prohibited socially, and various anti-counterfeiting devices have been developed to prevent such risk. Then, as one of them, for example, there is an image processing apparatus disclosed in Japanese Patent Laid-Open No. 210481/1990.

【0003】すなわち、係る処理装置は、原稿全面に対
して4回スキャンすることにより原稿台上に載置された
原画像を読み込むとともに複写処理を行うフルカラーデ
ィジタル複写機に搭載されるもので、原稿台上に紙幣等
が載置されている場合に、1回目のスキャンにより偽造
防止しようとする検出対象の紙幣の透かしをもとに紙幣
が存在するであろうおおまかな位置を検出し、2回目の
スキャン時には、係る紙幣の正確な位置並びに置かれて
いる角度(原稿台上における紙幣の正確な位置座標)を
検出する。そして、3回目のスキャン時には、2回目の
スキャン時に求めた紙幣の正確な位置から紙幣に印刷さ
れた朱印の位置座標を算出し、前記算出した位置座標に
基づいて朱印が存在する領域の画像を抽出するとともに
それが朱印であるか否かを判断するというように複数回
スキャンを行うことにより検出対象物が原稿台上に載置
されていることを検出するようになっている。そして、
紙幣等が原稿台上に載置され複写されようとしているこ
とを検知したなら、4回目のスキャン時に、例えば、画
面全体を黒に表示したり、複写を禁止したりする等の所
定の偽造防止処理を行うようになっている。
That is, such a processing apparatus is mounted on a full-color digital copying machine that scans the entire surface of an original four times to read the original image placed on the original table and performs copying processing. When a banknote or the like is placed on the table, the rough position where the banknote is likely to exist is detected based on the watermark of the banknote to be detected for the forgery prevention by the first scan, and the second time is detected. At the time of scanning, the accurate position of the banknote and the angle at which the banknote is placed (correct position coordinate of the banknote on the document table) are detected. Then, at the time of the third scan, the position coordinates of the red stamp printed on the banknote are calculated from the accurate position of the banknote obtained at the second scan, and the image of the area in which the red stamp exists is calculated based on the calculated position coordinates. It is configured to detect that the object to be detected is placed on the platen by performing a plurality of scans such as extracting and determining whether or not it is a red stamp. And
If it is detected that a bill or the like is placed on the platen and is about to be copied, a predetermined forgery prevention such as displaying the entire screen in black or prohibiting copying during the fourth scanning is performed. It is supposed to process.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記し
た従来の装置では、紙幣等の複写が禁止されている物体
を検知するのに複数回スキャンする必要があり、判定に
長時間を要する。また、紙幣の大きさに相当するメモリ
容量が必要となり、装置のコスト高を生じるばかりか、
判別(検出)可能な紙幣などの種類が少くなる。さら
に、カラー複写機等においては、スキャンの回数が上記
4回方式のものの他に、3回や1回方式のものもあり、
係る方式の複写機には、上記の処理装置では適用するこ
とができない。しかも、少なくとも検出対象の紙幣等の
大きさに相当する非常に大きなメモリ容量が必要とな
る。そして、このことは必然的に検出可能な紙幣等の種
類が少なくなるという問題を生じる。
However, in the above-mentioned conventional apparatus, it is necessary to scan a plurality of times in order to detect an object such as a banknote for which copying is prohibited, and it takes a long time for the determination. In addition, a memory capacity corresponding to the size of a bill is required, which not only increases the cost of the device,
There are few types of bills that can be discriminated (detected). Further, in color copying machines and the like, in addition to the above four-time scanning method, there are also three-time and one-time scanning methods.
The above processing apparatus cannot be applied to the copying machine of this type. Moreover, a very large memory capacity corresponding to at least the size of the bill or the like to be detected is required. This inevitably causes a problem that the types of bills and the like that can be detected are reduced.

【0005】本発明は、上記した背景に鑑みてなされた
もので、その目的とするところは、1回のスキャンで対
象となる紙幣等を検出することができ、しかも、使用す
るメモリ容量が小さくて済み、リアルタイムで高速な処
理が行え、コスト安となる画像処理装置及びそれを用い
た複写機を提供することにある。
The present invention has been made in view of the above background, and an object of the present invention is to detect a bill or the like as an object with one scan and to use a small memory capacity. Another object of the present invention is to provide an image processing apparatus that can be processed at high speed in real time and can be manufactured at low cost, and a copying machine using the same.

【0006】[0006]

【課題を解決するための手段】上記した目的を達成する
ために、本発明に係る画像処理装置では、与えられた画
像情報中に存在する特定パターンらしきパターンを検知
する手段と、その検知したパターンを前記画像情報から
切り出す手段と、予め設定しておいた基準パターンと前
記切り出したパターンの類似度を演算する手段とを備
え、かつ、前記検知する手段が、少くとも画像情報から
エッジを抽出する手段を有し、その抽出する手段により
抽出されたエッジに基づいて前記特定パターンらしきパ
ターンを検知するようにした。
In order to achieve the above object, in an image processing apparatus according to the present invention, a means for detecting a specific pattern-like pattern existing in given image information, and the detected pattern. From the image information, and means for calculating the similarity between the preset reference pattern and the cut-out pattern, and the detecting means at least extracts an edge from the image information. The specific pattern-like pattern is detected based on the edge extracted by the extracting means.

【0007】また、前記検知する手段を、少くとも画像
情報から2値情報を算出する手段と、算出された平面の
2値情報をレジスタバッファに保持する手段と、前記レ
ジスタバッファの各出力に接続された前記特定パターン
らしきパターン検出用の所定の論理回路とから構成する
ようにしてもよい。
Further, the detecting means is connected to at least means for calculating binary information from image information, means for holding the calculated binary information of the plane in a register buffer, and each output of the register buffer. It may be configured by a predetermined logic circuit for detecting the specific pattern-like pattern.

【0008】そして好ましくは、前記パターンを検知す
る手段が、与えられた画像情報に対し、解像度を低下さ
せてぼかした画像を形成する手段をさらに備え、前記ぼ
かした画像に対して上記各処理を行うようにすることで
ある。
[0008] Preferably, the means for detecting the pattern further comprises means for forming a blurred image by reducing the resolution of the given image information, and performing the above processes on the blurred image. To do it.

【0009】さらに、本発明に係る複写機では、上記し
た各種の画像処理装置を、少なくとも原稿を読み取る手
段と、その読み取る手段に接続され、その読み取った画
像データを印刷するための信号に変換する色信号変換手
段と、その色信号変換手段からの出力を受け、所定の印
刷処理を行う印刷手段とを備えた複写機に搭載する。そ
して、前記原稿を読み取る手段から出力される画像デー
タを前記色信号変換手段と並列に前記画像処理装置に入
力させ、かつ、前記画像処理装置は、複写処理中の物体
が、紙幣等の予め登録した所定の物体か否かを判断し、
少なくとも前記所定の物体と判断した時には前記複写機
の所定の処理手段に対し制御信号を送り、複写を抑制す
るようにした。
Further, in the copying machine according to the present invention, the above-mentioned various image processing apparatuses are converted into signals for printing at least a document reading means and a reading means connected to the reading means. It is mounted on a copying machine equipped with a color signal conversion unit and a printing unit that receives an output from the color signal conversion unit and performs a predetermined printing process. Then, the image data output from the document reading unit is input to the image processing apparatus in parallel with the color signal conversion unit, and the image processing apparatus registers in advance that the object being copied is a banknote or the like. Judge whether it is a predetermined object,
At least when it is determined that the object is the predetermined object, a control signal is sent to a predetermined processing means of the copying machine to suppress copying.

【0010】[0010]

【作用】検知する手段にて与えられた画像情報に対して
濃度等の特徴量に基づいてエッジを抽出し、平面(2次
元)情報を、線(1次元)情報に変換する。そして、か
かる線情報に基づいて与えられた画像情報中に所定のパ
ターンがあるか否かを検知する。そして、ある場合に
は、次段の切り出す手段にて、画像情報中の所定領域
(検知したパターンを含む領域)を切り出すとともに、
それを類似度を演算する手段に送り、そこにおいて所定
の演算処理を行い、基準パターンらしさ(類似度)を求
める。この求めた類似度が高ければ、検知したパターン
は、最終的な検出目的である特定パターンと認定され
る。そして、線情報に基づいて各種処理がなされるた
め、上記各処理は高速に行われ、しかも、レジスタバッ
ファ並びに所定の論理回路を組むことにより特定パター
ンの検知処理をする場合には、より高速に処理され、画
像情報の読み取りに対してリアルタイムで処理される。
The edge is extracted from the image information given by the detecting means based on the characteristic amount such as the density, and the plane (two-dimensional) information is converted into the line (one-dimensional) information. Then, it is detected whether or not there is a predetermined pattern in the image information given based on the line information. Then, in some cases, a cutting-out unit at the next stage cuts out a predetermined area (area including the detected pattern) in the image information,
It is sent to a means for calculating the degree of similarity, and predetermined arithmetic processing is performed there to obtain the reference pattern likelihood (similarity). If the calculated similarity is high, the detected pattern is recognized as the specific pattern which is the final detection purpose. Since various processes are performed based on the line information, the above processes are performed at high speed. In addition, when the detection process of a specific pattern is performed by forming a register buffer and a predetermined logic circuit, the process is performed at higher speed. Processed and processed in real time for reading image information.

【0011】一方、係る画像処理装置を複写機に搭載し
た場合には、特定パターン(基準パターン)を紙幣等の
複写禁止物の所定領域の画像に対応したものに設定して
おくことにより、複写機を用いて複写禁止物を複写処理
しようとした場合には、通常の複写処理と平行して上記
画像処理装置を作動させ、複写しようとするもの(原
稿)に所定の特定パターンが含まれていると判断した場
合には、所定の複写禁止処理が実行される。そして、上
記したように画像処理装置は、高速処理され原稿の読み
取りにリアルタイムに追従される。
On the other hand, when such an image processing apparatus is installed in a copying machine, a specific pattern (reference pattern) is set so as to correspond to an image of a predetermined area of a copy-prohibited object such as a banknote, so that copying is performed. When a copy-prohibited object is to be copied using a copying machine, the image processing apparatus is operated in parallel with the normal copy processing so that the copy (original) to be copied contains a predetermined specific pattern. If it is determined that there is a predetermined copy prohibition process is executed. Then, as described above, the image processing apparatus is processed at high speed and follows the reading of the document in real time.

【0012】[0012]

【実施例】以下、本発明に係る画像処理装置及びそれを
用いた複写機の好適な実施例を添付図面を参照にして詳
述する。本例では、フルカラー複写機に実装され、係る
フルカラー複写機を用いて紙幣等の複写が禁止されてい
るものを複写しようとした場合に、それを検知して複写
処理を停止するための画像処理装置を示している。すな
わち、図1に示すように、複写機本体に設けられた光学
的読取装置であるCCD等のイメージセンサにより読み
取られた画像情報が、特定パターン検知手段1に入力さ
れる。この画像情報は、上記イメージセンサによるスキ
ャンが進むにしたがって順次所定の領域分ずつリアルタ
イムで送られてくるようになっており、具体的なデータ
としては、フルカラー情報であるレッド(R),グリー
ン(G),ブルー(B)成分それぞれについて、400
DPIの解像度となっている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of an image processing apparatus according to the present invention and a copying machine using the same will be described in detail with reference to the accompanying drawings. In this example, when an image is mounted on a full-color copying machine and an attempt is made to copy a banknote or the like for which copying is prohibited using such a full-color copying machine, image processing for detecting that and stopping the copying process. The device is shown. That is, as shown in FIG. 1, image information read by an image sensor such as a CCD, which is an optical reading device provided in the main body of the copying machine, is input to the specific pattern detecting means 1. This image information is sequentially sent in real time by a predetermined area as scanning by the image sensor progresses. Specific data is full-color information of red (R) and green ( 400) for each of G) and blue (B) components
The resolution is DPI.

【0013】そして、この特定パターン検知手段1に
て、入力された画像データを圧縮して形成したぼかした
画像に対して、パターンマッチングによりそのエリア内
に検出対象の特定パターンらしい候補パターンがあるか
否かをチェックするとともに、係る候補の基準位置(矩
形状であればコーナーの頂点の位置等)を特定し、その
データを次段の特定パターン切り出し手段2に送るよう
になっている。
With respect to the blurred image formed by compressing the input image data by the specific pattern detection means 1, whether there is a candidate pattern that seems to be the specific pattern to be detected in the area by pattern matching. While checking whether or not the reference position of such a candidate (in the case of a rectangular shape, the position of the apex of a corner or the like) is specified, the data is sent to the specific pattern cutting means 2 in the next stage.

【0014】そして、この特定パターン切り出し手段2
では、粗検索により検出された候補パターンを含むぼか
された画像データに対し、上記した基準位置に基づいて
その周囲の所定部位を切り出し、後工程におけるパター
ンマッチングを行うための比較パターンを作成(実際に
は特徴量抽出)するようにし、特定パターンマッチング
手段3に送るようになっいてる。
Then, the specific pattern cutting means 2
Then, with respect to the blurred image data including the candidate pattern detected by the rough search, a predetermined portion around the blurred image data is cut out based on the reference position, and a comparison pattern for performing pattern matching in a subsequent process is created ( Actually, the feature amount is extracted) and is sent to the specific pattern matching means 3.

【0015】そして、特定パターンマッチング手段3で
は、ファジィパターンマッチングにより比較パターンの
基準パターン(特定パターン)に対する適合度を求め、
比較パターンが特定パターンであるか否かを判断し、少
なくとも特定パターンの時には所定の制御信号を出力す
るようになっている。
Then, the specific pattern matching means 3 obtains the matching degree of the comparison pattern to the reference pattern (specific pattern) by fuzzy pattern matching,
It is determined whether or not the comparison pattern is a specific pattern, and a predetermined control signal is output at least when the comparison pattern is the specific pattern.

【0016】すなわち、本例では、通常の複写機の読み
取りデータに対し、前記基準パターンをぼかして作成さ
れたパターンに基づいてパターンマッチングを行うこと
により逐次比較的ラフな粗検索を行い特定パターンらし
い候補パターンを抽出し、係る候補パターンが検出され
たなら、その候補パターンに対して順次ファジィ推論に
よるパターンマッチングを行い、特定パターンか否かの
判定処理を行う。しかも、上記パターンの検知並びに切
り出しが後述するごとくハードウエアにより高速に処理
されるため、特別に大きな記憶容量を有する記憶部を用
いることなくリアルタイムで処理可能となる。
That is, in this example, the read data of a normal copying machine is subjected to pattern matching on the basis of a pattern created by blurring the reference pattern to successively perform a relatively rough rough search, which seems to be a specific pattern. A candidate pattern is extracted, and when such a candidate pattern is detected, pattern matching by fuzzy inference is sequentially performed on the candidate pattern to determine whether or not it is a specific pattern. Moreover, since the detection and cutting of the pattern are processed at high speed by hardware as described later, the processing can be performed in real time without using a storage unit having a particularly large storage capacity.

【0017】次に、上記した各手段の具体的な構成につ
いて説明する。まず、特定パターン検知手段1は、平均
化処理部10にて図外のイメージセンサから送られて来
た400DPIの小さな画素の複数個分(主走査方向に
N画素分で副走査方向にMライン)を1まとめにすると
ともに、それらの濃度及びまたは色調(以下、基本的に
濃度について説明)を平均化してやや大きな(解像度の
低い)濃淡画像データを作成する。ここで、与えられる
画像データは、主走査方向に1ライン分毎であるため、
平均化処理部10では、内蔵される加算器等を用いて各
ライン中の所定のN画素分の濃度を加算して得られた結
果を、その平均化処理部10に接続された第1のライン
メモリ11に格納したり、すでに格納した前のラインに
関するデータを呼び出すとともにそれに現在処理中のラ
インの濃度データを加算し再書き込みする等の処理を行
う。そして、所定のMライン数分の画像データの総和が
求められたなら、内蔵する除算器により除算して平均値
を求め、それを第2のラインメモリ12に格納する。
Next, a concrete configuration of each of the above means will be described. First, the specific pattern detection unit 1 includes a plurality of small pixels of 400 DPI sent from an image sensor (not shown) in the averaging processing unit 10 (N pixels in the main scanning direction and M lines in the sub scanning direction). ) Are summarized as one, and their densities and / or color tones (hereinafter, basically explained about densities) are averaged to create slightly large (low resolution) grayscale image data. Here, since the image data given is for each line in the main scanning direction,
In the averaging processing unit 10, the result obtained by adding the densities of the predetermined N pixels in each line using the built-in adder is connected to the averaging processing unit 10. Processing such as storing the data in the line memory 11 or calling already stored data on the previous line, adding the density data of the line currently being processed to it, and rewriting the data is performed. Then, when the total sum of the image data for a predetermined number of M lines has been obtained, division is performed by a built-in divider to obtain an average value, and the average value is stored in the second line memory 12.

【0018】これにより、第2のラインメモリ12に格
納された画像は、元の400DPIの画像データに比し
ぼやけた画像となり、細かな模様はなくなりおおざっぱ
な形状が現れる。よって、たとえ読み取って入力された
原画像に印刷ずれ等があり、予め記憶設定されている特
定パターンとわずかな相違があったとしても、画像をぼ
かした結果係る相違が解消(消滅)されてしまう。これ
により以後の各種のパターン検知,パターン認識等の各
種処理を高速かつ正確に行うことができる。
As a result, the image stored in the second line memory 12 becomes a blurred image as compared with the original 400 DPI image data, and a fine pattern disappears and a rough shape appears. Therefore, even if the original image read and input has a print deviation or the like and has a slight difference from the specific pattern stored in advance, the difference caused by blurring the image is eliminated (erased). . As a result, various processes such as various pattern detection and pattern recognition thereafter can be performed at high speed and accurately.

【0019】そして、係る第2のラインメモリ12に格
納された低解像度の濃淡画像データを次段のエッジ抽出
フィルタ13に送り、ここにおいて、3×3で構成され
る所定のフィルタ係数からなるフィルタを用い、濃淡画
像の濃度エッジ及びまたは色調エッジを抽出する。ここ
で使用するフィルタ係数としては、例えば対象画素が
「+8」で周囲の8画素が「-1」としたり、或いは、対象
画素を「+8+N」で周囲が「-1」としたものなど、検出対
象などにより適宜設定する。また、このエッジ抽出フィ
ルタ13に入力するデータとしては、R,G,Bそれぞ
れをそのまま入力してもよく、或いは、R−G,G−
B,B−R,R+G+B、さらには、それらRGBに適
当な重み付けをした線形式等種々のものを用いることが
でき、これも、検出対象に応じて決定する。そして、所
定のエッジ抽出された画像データが第3のラインメモリ
14に書き込まれる。
Then, the low-resolution grayscale image data stored in the second line memory 12 is sent to the edge extraction filter 13 in the next stage, where a filter having a predetermined filter coefficient of 3 × 3 is formed. Is used to extract the density edge and / or color tone edge of the grayscale image. As the filter coefficient used here, for example, the target pixel is "+8" and the surrounding eight pixels are "-1", or the target pixel is "+ 8 + N" and the surrounding is "-1". It is set as appropriate depending on the object to be detected and the like. As the data to be input to the edge extraction filter 13, R, G and B may be directly input, or R-G and G-.
Various types such as B, B-R, R + G + B, and a linear format in which RGB are appropriately weighted can be used, and these are also determined according to the detection target. Then, the predetermined edge-extracted image data is written in the third line memory 14.

【0020】さらに、この第3のラインメモリ14に格
納された画像データは、逐次次段の角候補粗検索・位置
決め部15に送られ、そこにおいて検出対象の特定パタ
ーンらしい候補パターンがあるか否かを判断し、係る候
補が検出されたなら、その基準位置であるコーナーの頂
点の位置並びに角度を特定し、係るデータを次段の特定
パターン切り出し手段2に送るようになっている。な
お、上記第3のラインメモリ14に格納された画像デー
タは、上記特定パターン切り出し手段2にも与えられる
ようになっている。
Further, the image data stored in the third line memory 14 is successively sent to the corner candidate rough search / positioning unit 15 in the next stage, and whether or not there is a candidate pattern which seems to be a specific pattern to be detected there. If such a candidate is detected, the position and angle of the apex of the corner, which is the reference position, are specified, and such data is sent to the specific pattern cutting means 2 in the next stage. The image data stored in the third line memory 14 is also supplied to the specific pattern cutting means 2.

【0021】そして角候補粗検索・位置決め部15につ
いて説明すると、図2に示すような直線抽出マスク(図
中黒或いは網掛けで示す部分)を用い、第3のラインメ
モリ14からセットされた図3に示すような31×31
のシフトレジスタ(レジスタバッファ)内のデータ中
に、中心位置で所定の角度(90度)で交差する2本の
直線があるか否かを検出するようになっている。
The corner candidate rough search / positioning unit 15 will be described. A diagram set from the third line memory 14 using a straight line extraction mask (black or shaded portion in the drawing) as shown in FIG. 31 × 31 as shown in 3
It is adapted to detect whether or not there are two straight lines intersecting at a predetermined angle (90 degrees) at the center position in the data in the shift register (register buffer).

【0022】まず直線抽出マスクについて説明すると、
図2では、便宜上第1象限の90度分について示してお
り、しかも、隣接する各直線を明示するために同図
(A)〜(D)の4つに分割して示している。よって、
実際の第1象限におけるマスクは図2(A)〜(D)を
合成したものとなり、0〜29番までの30本のマスク
を備える。そして、残りの270度分についても同様の
マスクを用意し、全体で120本のマスクを持つことに
なり、分解能は3.8度となる。
First, the straight line extraction mask will be described.
In FIG. 2, for convenience, 90 ° of the first quadrant is shown, and in addition, in order to clearly show each adjacent straight line, it is divided into four parts of FIGS. Therefore,
The actual mask in the first quadrant is a combination of FIGS. 2A to 2D, and includes 30 masks 0 to 29. Then, similar masks are prepared for the remaining 270 degrees, and a total of 120 masks are provided, resulting in a resolution of 3.8 degrees.

【0023】そして基本的には、抽出されたエッジが上
記いずれかの直線マスクに一致する(エッジを構成する
画素が、直線マスクを構成する画素上に位置する)場合
には、そのエッジは直線であると判断するようになって
いる。但し、本例では検出誤差その他を考慮し、各直線
マスクを構成する画素のうち、隣接する連続した2つ以
上の画素に空白(エッジでない部分)がない場合には、
その直線マスク上に直線のエッジがあると判定するよう
になっている。
Basically, when the extracted edge matches any one of the straight line masks described above (the pixels forming the edge are located on the pixels forming the straight line mask), the edge is a straight line. It is supposed to be. However, in this example, in consideration of detection error and the like, when there is no blank (non-edge portion) in two or more adjacent pixels that are adjacent to each other among the pixels that form each linear mask,
It is determined that there is a straight edge on the straight mask.

【0024】さらにそのようにして検出された直線が複
数ある場合に、任意の2本の直線のなす角が90度であ
る時に31×31のシフトレジスタの中心位置が特定パ
ターン(候補パターン)のコーナーの頂点の座標とな
る。そしてさらに、検出した直線マスクの番号nの値に
より、コーナーの傾斜している角度(向き)が検出でき
るようになっている。
Further, in the case where there are a plurality of straight lines thus detected, the center position of the 31 × 31 shift register has a specific pattern (candidate pattern) when the angle formed by two arbitrary straight lines is 90 degrees. It is the coordinates of the corner apex. Further, the angle (orientation) at which the corner is inclined can be detected by the value of the detected line mask number n.

【0025】次に、上記各種の検出を行う実際の回路構
成について説明する。図4に示すように各直線のマスク
を構成する各画素(実際には各レジスタの出力)のう
ち、隣接する2つの画素にそれぞれ2入力の直線検出用
オア素子16の各入力端子を接続し、すべての直線検出
用オア素子16の出力を多入力の直線検出用アンド素子
17に入力するようにしている。これにより、所定のマ
スクを構成する画素上にエッジがあるならば、対応する
直線検出用アンド素子17の出力が「1」になるため、
高速に直線の検出ができる。
Next, an actual circuit configuration for performing the above various detections will be described. As shown in FIG. 4, of the pixels (actually, the outputs of the registers) forming the masks of the straight lines, the adjacent two pixels are connected to the respective input terminals of the 2-input straight line detecting OR element 16. The outputs of all the linear detection OR elements 16 are input to the multi-input linear detection AND element 17. Accordingly, if there is an edge on a pixel forming a predetermined mask, the output of the corresponding straight-line detecting AND element 17 becomes "1".
A straight line can be detected at high speed.

【0026】なお、本例では、中心から4画素分のデー
タは、直線の検知に使用しないが、これは中心から4画
素の領域中は、1の画素上を複数の直線が通過するた
め、識別の特徴量としてはさほど重要ではないと共に、
例えば、頂点付近がない(頂点で接続されてはいない)
2本の直線(なす角は90度)をも検出可能とするため
である。なおまた、直線の抽出ルールは、上記したもの
(本例では、連続する複数の画素がしろでなければ直線
とする)に限ることはなく、検出対象(特定パターン)
に応じて適宜変更するようにしてもよく、係る場合には
それに対応して適宜論理回路を組み直すことにより対応
すればよい。
In this example, the data for four pixels from the center is not used for detecting a straight line, but this is because a plurality of straight lines pass over one pixel in the region of four pixels from the center. It is not very important as a feature quantity for identification,
For example, there is no near vertices (not connected at vertices)
This is because it is possible to detect even two straight lines (the angle formed is 90 degrees). In addition, the rule for extracting a straight line is not limited to the one described above (in this example, a straight line is used if a plurality of consecutive pixels are not white), and the detection target (specific pattern)
It may be changed appropriately according to the above, and in such a case, it may be dealt with by reassembling the logic circuit accordingly.

【0027】また、2つの直線が直交するのを検出する
手段としては、図5に示すようにn番の直線検出用アン
ド素子17の出力を2入力の直角判定用アンド素子18
の一方の入力端子に接続し、係る直角判定用アンド素子
18の他方の入力端子には、n+29番,n+30番,n+
31番の各直線マスクのための直線検出用アンド素子17
の出力を直角判定用オア素子19を介して入力するよう
になっている。そして、係る直角判定用アンド素子18
と直角判定用オア素子19とで構成される直角判定回路
20を所定数設け、直角となるべきすべての直線検出用
アンド素子17の組み合わせに対応して係る素子17の
出力に接続する。
As a means for detecting whether two straight lines are orthogonal to each other, as shown in FIG. 5, the output of the n-th straight line detecting AND element 17 is a 2-input right angle determining AND element 18.
One of the input terminals is connected to one input terminal, and the other input terminal of the AND element 18 for determining the right angle is connected to n + 29th, n + 30th, and n + th.
AND element 17 for detecting the straight line for each of the 31st straight line masks
Is input through the right angle determination OR element 19. Then, the right angle determination AND element 18
And a right angle determining OR element 19 are provided in a predetermined number, and are connected to the outputs of the elements 17 corresponding to all combinations of the straight line detecting AND elements 17 which should be right angles.

【0028】すなわち、本例では90度分に30本の直
線マスクを設けたため、n番とn+30番に相当する2本
の直線は、そのなす角が90度となるので、31×31
のエリア内に、その中心画素で直交する2本の直線があ
ると、対応する所定の直交判定用アンド素子18の出力
が「1」となる。よって、31×31のエリア内の画像
データ中に存在する直交する2本の直線の検出が、適宜
組み合わされ接続構成されたゲート回路により行われ、
しかも、その検出処理はすべてハードウェアからなる回
路で実行されるため、瞬時に判定できる。
That is, in this example, since 30 straight line masks are provided for 90 degrees, two straight lines corresponding to the nth and n + 30ths form an angle of 90 degrees, so 31 × 31.
If there are two straight lines orthogonal to each other in the center pixel in the area of, the output of the corresponding predetermined orthogonal determination AND element 18 becomes "1". Therefore, the detection of two orthogonal straight lines existing in the image data in the 31 × 31 area is performed by a gate circuit that is appropriately combined and connected,
Moreover, since the detection processing is executed by the circuit composed of hardware, it is possible to make an instant determination.

【0029】さらに、出力が「1」となった直交判定用
アンド素子18を特定することにより、コーナーの傾斜
角度も自動的に判定できる。なお、n番に対応させてア
ンド素子18に入力させるのがn+30番のみでなく、n
+29番並びにn+31番も入力させるようにしたのは、±
1番の検出角度誤差に対応するためである。
Furthermore, the inclination angle of the corner can be automatically determined by specifying the orthogonal determination AND element 18 whose output is "1". Note that it is not only n + 30 that is input to the AND element 18 in correspondence with nth, but n
+29 and n + 31 are also entered
This is because it corresponds to the first detected angle error.

【0030】次に、図3を用いて第3のラインメモリ1
4から31×31のシフトレジスタへデータを書き込む
ための装置について説明する。図示するように、まず入
力側に並列入力直列出力の8ビットのシフトレジスタ2
0を所定の位置関係で31列配置する。具体的には、前
後を一致させた状態で4列配置したなら、その下方は、
1ビットだけシフト方向に前へ進めた状態で4列配置
し、以下それを繰り返す。そして、各シフトレジスタ2
0の出力に、上記した入力側のシフトレジスタ20のシ
フト方向の位置ズレに応じて38〜31ビットの所定の
ビット長からなる直列入力並列出力のシフトレジスタ2
1を接続している。これにより、各シフトレジスタ21
の最終段は一致するとともに、最終段側から31×31
のエリアが形成され、かかるエリア内の並列出力である
各レジスタに、上記の各直線検出用オア素子16が、所
定の配線を介して接続される。
Next, the third line memory 1 will be described with reference to FIG.
A device for writing data from 4 to 31 × 31 shift registers will be described. As shown in the figure, first, an 8-bit shift register 2 with parallel input and serial output is provided on the input side.
31 columns of 0s are arranged in a predetermined positional relationship. Specifically, if four rows are arranged with the front and back aligned,
4 columns are arranged in the state of moving forward by 1 bit in the shift direction, and then repeated. And each shift register 2
The serial input / parallel output shift register 2 having a predetermined bit length of 38 to 31 bits depending on the shift of the input side shift register 20 in the shift direction.
1 is connected. As a result, each shift register 21
And the final stage of the match, and 31 × 31 from the final stage side
Area is formed, and each of the linear detection OR elements 16 is connected to each register, which is a parallel output in the area, through a predetermined wiring.

【0031】そして、係る構成のシフトレジスタ20,
21へのデータ書き込みは、第3のラインメモリ14に
接続された8ビットのD−F/F22と、ロードフラグ
発生回路23を用いて行われる。すなわち、D−F/F
22の8ビットの出力は、入力側の31列のすべての8
ビットシフトレジスタ20に並列に接続されており(図
中では、便宜上最上段の1列のみに接続した状態を示し
ている(矢印で示す))、ロードフラグ発生回路23か
らフラグがたった(出力が「1」)シフトレジスタ20
にD−F/F22の出力が書き込まれるようになってい
る。そして、本例では、係るロードフラグ発生回路23
も所定ビット数からなる巡回型の並列出力のシフトレジ
スタを用い、1箇所のみ「1」とし残りを「0」とした
データを巡回させるようにしている。
Then, the shift register 20 having such a configuration,
Data writing to 21 is performed using the 8-bit DF / F 22 connected to the third line memory 14 and the load flag generation circuit 23. That is, DF / F
The 8-bit output of 22 is all 8 of the 31 columns on the input side.
It is connected in parallel to the bit shift register 20 (in the figure, for convenience, only the uppermost one column is connected (indicated by an arrow)), and the load flag generation circuit 23 outputs a flag (output is "1") shift register 20
The output of the D-F / F22 is written in. Then, in this example, the load flag generating circuit 23
Also uses a cyclic parallel output shift register having a predetermined number of bits, and data in which only one position is "1" and the rest is "0" is circulated.

【0032】さらに、上記ロードフラグ発生回路23を
構成するシフトレジスタは、1画素スキャンする間(低
解像度の画像データの1画素分が第3のラインメモリに
書き込まれる間)に4回パルスが発生するシフトタイミ
ングシグナル(STS)1によりシフトし、また、上記
シフトレジスタ20,21は、係る1画素スキャンする
間に1回パルスが発生するシフトタイミングシグナル
(STS)2によりシフトするようになっている。
Furthermore, the shift register constituting the load flag generating circuit 23 generates four pulses during one pixel scan (while one pixel of low resolution image data is written in the third line memory). The shift registers 20 and 21 are shifted by a shift timing signal (STS) 2 which generates a pulse once during one pixel scanning. .

【0033】これにより、1画素スキャンされている間
に、上から1〜4列目の入力側のシフトレジスタに対し
てロードフラグ発生回路23から順にロードフラグが立
つため、第3のラインメモリ14に格納されている所定
の過去8画素分のデータが係る8×4のエリアAに書き
込まれる。そして、上記1画素がスキャンされたならS
TS2が1回パルスを発生し、上記エリアAに書き込ま
れたデータが1画素分シフトされる。そして次の1画素
がスキャンされる間に、上から5〜8列目の入力側のシ
フトレジスタに対してロードフラグ発生回路23から順
にロードフラグが立つため、第3のラインメモリ14に
格納されている所定の過去8画素分のデータが係る8×
4のエリアBに書き込まれる。
As a result, the load flags are sequentially set from the load flag generating circuit 23 to the shift registers on the input side of the first to fourth columns from the top while one pixel is scanned, so that the third line memory 14 The data for the predetermined past 8 pixels stored in 8 is written in the 8 × 4 area A. If the above 1 pixel is scanned, S
TS2 generates a pulse once, and the data written in the area A is shifted by one pixel. Then, while the next one pixel is scanned, the load flags are sequentially set from the load flag generation circuit 23 to the shift registers on the input side of the 5th to 8th columns from the top, so that they are stored in the third line memory 14. 8 × related to the data of the predetermined past 8 pixels
4 is written in area B.

【0034】この時、上記したごとくエリアAとエリア
Bとは1画素分だけずらして配置し、しかも、エリアA
に書き込まれたデータはエリアBに書き込み処理をして
いる時にはすでに1画素分だけシフトされているため、
結局、このエリアBの先頭B1に書き込まれた画素と、
エリアAに書き込まれ1つシフトされた先頭A1に書き
込まれた画素は、もとの画像で主走査方向の同一位置
(副走査方向では所定列数ずれている)のものとなる。
At this time, as described above, the area A and the area B are displaced by one pixel, and the area A is
Since the data written in the area has already been shifted by one pixel during the writing process in area B,
After all, with the pixel written in the beginning B1 of this area B,
The pixels written in the area A and shifted by one and written in the head A1 are at the same position in the main scanning direction (shifted by a predetermined number of columns in the sub scanning direction) in the original image.

【0035】そして、以下順に上記書き込み処理を行う
ことにより、後段のシフトレジスタ21中に形成される
31×31のエリアには、相対位置関係が整った状態の
上記平均化された低画像データ中の所定領域が配置さ
れ、それぞれ接続された所定の直線検知用オア素子16
に入力され、直交する直線の検知が行われる。
By performing the writing process in the following order, in the 31 × 31 area formed in the shift register 21 in the subsequent stage, the averaged low image data in the relative positional relationship is set. Predetermined linear detection OR elements 16 in which predetermined regions of
Is input to and the orthogonal straight line is detected.

【0036】一方特定パターン切り出し手段2では、角
候補粗検索・位置決め部15にて検知され与えられたコ
ーナーの頂点の位置並びに傾斜角度θ(検出した直線マ
スクの番号nから算出される)に基づいて、第3のライ
ンメモリ14から与えられる対応する所定の領域(検知
したコーナーを含む領域)の画像データ中の有効画素領
域を抽出するようになっている。
On the other hand, the specific pattern cutting means 2 is based on the position of the apex of the corner and the inclination angle θ (calculated from the detected linear mask number n) detected by the corner candidate rough search / positioning unit 15. Then, the effective pixel area in the image data of the corresponding predetermined area (area including the detected corner) given from the third line memory 14 is extracted.

【0037】すなわち、多くの場合図6に示すように検
索対象領域R(8画素×8画素で構成される特徴量ブロ
ックを1辺に8個設けた正方形領域)は、イメージセン
サにて読み取られた長方形領域Tにおける主走査・副走
査方向を基準とした直交座標系x,yに対して所定角度
θだけ傾斜している。したがって、上記の直交座標系か
ら検索対象領域の隣接する2辺からなる直交座標系
x′,y′に座標変換すると共に、検索対象領域Rを構
成する有効画素か否かを判断し、有効画素のみを抽出
し、さらに、次段の認識処理用の特徴量抽出を行うよう
になっている。そして、具体的な処理手順は、図7に示
すようなフローのようになっている。
That is, in many cases, the search target area R (a square area in which eight feature amount blocks composed of 8 pixels × 8 pixels are provided on one side) as shown in FIG. 6 is read by the image sensor. The rectangular area T is inclined by a predetermined angle θ with respect to the Cartesian coordinate systems x and y with reference to the main scanning / sub scanning directions. Therefore, the above-mentioned orthogonal coordinate system is subjected to coordinate conversion to an orthogonal coordinate system x ', y'consisting of two adjacent sides of the search target area, and at the same time, it is determined whether or not the search target area R is an effective pixel. Only the extracted feature amount is extracted, and the feature amount for the next recognition process is extracted. The specific processing procedure is as shown in the flow in FIG.

【0038】つまり、まず与えれたコーナーの頂点位置
座標(X0,Y0)と傾斜角度θとから、図6(B)に
示すような検索対象領域の外接正方形(図中破線で示
す)の対角の2つの頂点となるx,yの直交座標系にお
ける起点と終点の座標を求める(S101)。そして、
具体的な算出方法としては、まず、角度θから象限を求
め(本例では、θは128の分解能をもつため、上位2
ビットでθの象限が決定され、その象限内での角度(ア
ドレス)は、下位5ビットで決定される)、角度θの範
囲(象限)にしたがって下記表から求める。
That is, first, from the vertex position coordinates (X0, Y0) of the given corner and the inclination angle θ, the diagonal of the circumscribed square (indicated by the broken line in the figure) of the search target area as shown in FIG. 6B. The coordinates of the starting point and the ending point in the Cartesian coordinate system of x and y which are the two vertices of are obtained (S101). And
As a concrete calculation method, first, the quadrant is obtained from the angle θ (in this example, θ has a resolution of 128, so
The bit determines the quadrant of θ, and the angle (address) in the quadrant is determined by the lower 5 bits) and the range of the angle θ (quadrant), and is obtained from the following table.

【0039】[0039]

【表1】0<θ<π/2 基点:(X0−64sin θ,Y0) 終点:(X0+64cos θ,Y0+64cos θ+64si
n θ) π/2<θ<π 基点:(X0+64cos θ+64sin θ,Y0+64co
s θ) 終点:(X0,Y0+64sin θ) π<θ<3π/2 基点:(X0+64cos θ,Y0+64cos θ+64si
n θ) 終点:(X0−64sin θ,Y0) 3π/2<θ<2π 基点:(X0,Y0+64sin θ) 終点:(X0+64cos θ+64sin θ,Y0+64co
s θ) このようにして基点,終点が算出されたなら、次に基点
並びに終点が含まれるメモリのバイトをそれぞれ基点バ
イト,終点バイトとし、初期設定として対象バイトを基
点,対象ビットを0にセットする(S102)。そし
て、実画像位置から変換後画素位置を算出する(S10
3)。すなわち、実画像の座標系の座標(x,y)と、
変換後の座標系の座標(x′,y′)の関係は、 x′=xcos θ+ysin θ y′=−xsin θ+ycos θ となっているため、係る座標変換を行うことにより簡単
に求められる。
[Table 1] 0 <θ <π / 2 Base point: (X0-64sin θ, Y0) End point: (X0 + 64cos θ, Y0 + 64cos θ + 64si
n θ) π / 2 <θ <π Reference point: (X0 + 64cos θ + 64sin θ, Y0 + 64co
s θ) End point: (X0, Y0 + 64sin θ) π <θ <3π / 2 Base point: (X0 + 64cos θ, Y0 + 64cos θ + 64si
n θ) End point: (X0-64sin θ, Y0) 3π / 2 <θ <2π Base point: (X0, Y0 + 64sin θ) End point: (X0 + 64cos θ + 64sin θ, Y0 + 64co
s θ) If the base point and the end point are calculated in this way, the bytes of the memory containing the base point and the end point are set as the base point byte and the end point byte, respectively, and the target byte is set to the base point and the target bit is set to 0 by default. Yes (S102). Then, the converted pixel position is calculated from the actual image position (S10).
3). That is, the coordinates (x, y) in the coordinate system of the actual image,
The relationship of the coordinates (x ', y') in the coordinate system after conversion is x '= xcos θ + ysin θ y ′ = − xsin θ + ycos θ, and thus can be easily obtained by performing such coordinate conversion.

【0040】次いで、変換後画素位置から特徴量ブロッ
クを算出し、さらに現在処理中の画素が特徴量ブロック
か否か(さらには、どの特徴ブロックか)を判断し、検
索対象領域内の有効画素(図6(B)参照)であれは、
特徴量の計算、すなわち、処理中の画素が黒であれば、
対応する特徴量ブロックに1加算する処理を行った後、
対象ビットをインクリメントし、無効画素(図6(B)
参照)であればそのまま対象ビットをインクリメントす
る(S104〜107)。ここで、特徴量ブロックか否
かの判別並びにどの特徴量ブロックに属する画素かの判
定は、本例の場合は検索対象領域Rは1辺が64画素の
正方形であるため、変換後の座標系における座標値
x′,y′の値が0〜63の場合には、有効画素でそれ
以外は無効画素と判定できる。また、有効画素の場合に
は、その座標値からどの特徴量ブロックに含まれるかを
求める。すなちわ、例えば座標(x′,y′)のx′,
y′がともに0〜7の範囲であれは、1番目の特徴量ブ
ロックであるというように、その座標値から簡単に求め
られる。
Next, a feature amount block is calculated from the post-conversion pixel position, and it is further determined whether or not the pixel currently being processed is a feature amount block (further, which feature block), and an effective pixel in the search target area. (See FIG. 6B)
Feature calculation, that is, if the pixel being processed is black,
After performing the process of adding 1 to the corresponding feature amount block,
The target bit is incremented and the invalid pixel (see FIG. 6B)
Reference), the target bit is incremented as it is (S104 to 107). Here, in the case of this example, whether the pixel is a feature amount block or not and which feature amount block the pixel belongs to is determined as the search target region R is a square having 64 pixels on one side. When the coordinate values x ', y'in 0 are 0 to 63, it can be determined that the pixel is an effective pixel and the other pixels are ineffective pixels. Further, in the case of an effective pixel, which feature amount block is included in the coordinate value is obtained. That is, for example, x'of the coordinates (x ', y'),
If y'is both in the range of 0 to 7, it can be easily obtained from the coordinate values, such as the first feature amount block.

【0041】そして、処理対象のビット数が8になるま
で上記ステップ103〜107を繰り返し行い、ビット
数が8になると、その画素は長方領域Tにおける次のバ
イトになることを意味するため、対象ビットを0に初期
化すると共に対象バイトをインクリメントする。そし
て、対象バイトが行の最後(図6の例では基点+12)
でなければ、ステップ103に戻りその対象バイトの0
〜7ビット分の画素に基づいて特徴量算出を行う。ま
た、対象バイトが行の最後の場合になったなら、次の行
の先頭バイトに移り、その行について上記と同様ステッ
プ103〜111の処理を行い特徴量算出を行う(S1
08〜112)。これにより、すべての有効画素につい
ての特徴量抽出が終了するため、抽出された特徴量を次
段のファジィパターン用メモリ30に書き込む。なお、
本例における特徴量は、各特徴量ブロック(8×8画
素)中に存在する黒画素の数である。
Then, the above steps 103 to 107 are repeated until the number of bits to be processed reaches 8. When the number of bits reaches 8, it means that the pixel becomes the next byte in the rectangular area T. The target bit is initialized to 0 and the target byte is incremented. Then, the target byte is the end of the line (base point +12 in the example of FIG. 6)
If not, the process returns to step 103 and 0 of the target byte
The feature amount is calculated based on the pixels for 7 bits. If the target byte is at the end of the line, the process moves to the first byte of the next line, and the process of steps 103 to 111 is performed for that line in the same manner as described above to calculate the feature amount (S1).
08-112). As a result, the feature amount extraction for all effective pixels is completed, and the extracted feature amount is written in the fuzzy pattern memory 30 in the next stage. In addition,
The feature amount in this example is the number of black pixels existing in each feature amount block (8 × 8 pixels).

【0042】そして、上記処理を行う具体的な構成とし
ては、図8,図9に示すハードウエアにより実行され
る。まず、各ROMには、128の分解能に応じたそれ
ぞれ90度分のcos θ,sin θの値が格納されている。
すなわち、変換後の座標(x′,y′)と変換前の座標
(x,y)の関係をθの値(象限)にわけて説明する
と、下記のようになっている。
As a specific configuration for performing the above processing, the hardware shown in FIGS. 8 and 9 is used. First, each ROM stores the values of cos θ and sin θ corresponding to 90 degrees corresponding to 128 resolutions.
That is, the relationship between the coordinates (x ′, y ′) after conversion and the coordinates (x, y) before conversion is explained by dividing it into the value of θ (quadrant).

【0043】0<θ<π/2 x′=xcos θ′+ysin θ′ y′=−xsin θ′+ycos θ′ θ′=θ π/2<θ<π x′=−xcos θ′+ysin θ′ y′=−xsin θ′−ycos θ′ θ′=θ−π/2 π<θ<3π/2 x′=−xcos θ′−ysin θ′ y′=xsin θ′−ycos θ′ θ′=θ−π 3π/2<θ<2π x′=xcos θ′−ysin θ′ y′=xsin θ′+ycos θ′ θ′=θ−3π/2 そして、0 <θ <π / 2 x ′ = xcos θ ′ + ysin θ ′ y ′ = − xsin θ ′ + ycos θ ′ θ ′ = θ π / 2 <θ <π x ′ = − xcos θ ′ + ysin θ ′ y ′ = − xsin θ′−ycos θ ′ θ ′ = θ−π / 2 π <θ <3π / 2 x ′ = − xcos θ′−ysin θ ′ y ′ = xsin θ′−ycos θ ′ θ ′ = θ−π 3π / 2 <θ <2π x ′ = xcos θ′−ysin θ ′ y ′ = xsin θ ′ + ycos θ ′ θ ′ = θ−3π / 2

【0044】[0044]

【数1】 cos θ=−sin (θ−π/2)=−cos (θ−π)=sin (θ−3π/2) sin θ=cos (θ−π/2)=−sin (θ−π)=−cos (θ−3π/2) であるため、0〜π/2までのcos θ,sin θの値を用
意しておけば、必要に応じてその値に負数をつけること
により0〜2πまでのx′,y′を求めることができる
からである。
Cos θ = −sin (θ−π / 2) = − cos (θ−π) = sin (θ−3π / 2) sin θ = cos (θ−π / 2) = − sin (θ− Since π) = − cos (θ−3π / 2), if the values of cos θ and sin θ from 0 to π / 2 are prepared, 0 can be obtained by adding a negative number to the values as necessary. This is because x ′ and y ′ up to 2π can be obtained.

【0045】したがって、図8に示すように、各ROM
に対して変換前の対象画素の座標値並びにθの下位5ビ
ット(0〜90度分に相当(上位2ビットが象限を表
す))を入力することにより、それをアドレスとして対
応するxcos θ,xsin θ,ycos θ,ysin θが出力
される。よって、それら出力された各値を適宜加減算す
ることにより変換後の座標が求まるのであるが、本例で
は、さらに、x方向隣の画素の変換後座標値を次々と求
めるべく、D−FFとAdder1とにより構成される
回路により、対象画素の隣の画素に基づく(x+n)co
s θ,(x+n)sin θにおけるn(n=0〜7)を求
め(より厳密にはncos θ,nsin θを求めている)、
それをAdder2を用いて上記出力であるxcos θ,
xsin θに加えることにより、算出する。そして、その
算出結果を4入力1出力の各マルチプレクサ(4−1M
PX)に入力する。さらに、上記した−cos θ,−sin
θを求めるべく、上記Adder2の出力をInver
tを介して上記4−1MPXに入力するようになってい
る。
Therefore, as shown in FIG.
To the coordinate value of the target pixel before conversion and the lower 5 bits of θ (corresponding to 0 to 90 degrees (the upper 2 bits represent the quadrant)), the corresponding xcos θ, xsin θ, ycos θ, ysin θ are output. Therefore, the coordinates after conversion can be obtained by appropriately adding and subtracting the respective output values, but in this example, in order to further obtain the coordinate values after conversion of pixels adjacent in the x direction, D-FF and With the circuit configured by Adder1, (x + n) co based on the pixel next to the target pixel
n (n = 0 to 7) in s θ, (x + n) sin θ is calculated (more strictly, ncos θ and n sin θ are calculated),
The above output xcos θ, using Adder2,
Calculated by adding to xsin θ. Then, the result of the calculation is used for each multiplexer (4-1M) having four inputs and one output.
PX). In addition, −cos θ, −sin
In order to obtain θ, the output of Adder2 above
It is adapted to be input to the 4-1MPX via t.

【0046】さらに、上記4−1MPXの出力は、そこ
に与えられるθの上位2ビットにより選択され、その4
−1MPXの出力をAdder3を用いて加算処理する
ことにより、それぞれ変換後の座標(x′,y′)が求
められるようになっている。すなわち、上記したごとく
θの上位2ビットは、象限を示しているため、上記した
象限に対応する変換式になるように、選択・出力される
のである。
Further, the output of the 4-1MPX is selected by the upper 2 bits of θ given thereto,
By adding the output of -1MPX using Adder3, the converted coordinates (x ', y') can be obtained. That is, as described above, since the upper 2 bits of θ indicate the quadrant, they are selected and output so as to be a conversion formula corresponding to the above quadrant.

【0047】そして、その様にして求められた変換後の
座標データ(x′,y′)が、図9に示す回路に入力さ
れるようになっている。すなわち、図9は、特徴量算出
回路を構成しており、本例では特徴量ブロックが64個
あるため、かかる回路も64個設け、それら各回路には
上記した図8の回路の出力が並列的に入力されるように
なっている。
The converted coordinate data (x ', y') thus obtained are input to the circuit shown in FIG. That is, FIG. 9 configures a feature amount calculation circuit, and in this example, there are 64 feature amount blocks. Therefore, 64 such circuits are also provided, and the output of the circuit of FIG. It is designed to be input.

【0048】そして、入力された変換後の座標(x′,
y′)は、Address Matchingにより、
該当する座標があるか無いかが判断され、ある場合(そ
の特徴量ブロック内の座標である)には、それがエッジ
の時にはカウンタが1カウントアップする。これによ
り、有効画素であれば、いずれか1つの特徴量算出回路
のAddress Matchingに一致し、無効画
素であればすべての特徴量算出回路のAddress
Matchingに一致しないことになる。そして、各
カウンタのカウント値が、対応する特徴量ブロックの特
徴量となり、上記したごとく次段のマッチング手段3に
向けて出力されるようになっている。上記したごとく、
特定パターン切り出し手段2は、ゲート回路等のハード
ウエアにより構成されるため、非常に高速な処理が可能
となり、座標変換・特徴量算出がリアルタイムで行われ
る。
Then, the input transformed coordinates (x ',
y ') is by Address Matching,
Whether or not there is a corresponding coordinate is determined, and if there is (that is, the coordinate within the feature amount block), the counter is incremented by 1 when it is an edge. As a result, if it is an effective pixel, it matches the Address Matching of any one of the feature amount calculation circuits, and if it is an invalid pixel, the Address of all feature amount calculation circuits.
It will not match Matching. Then, the count value of each counter becomes the feature amount of the corresponding feature amount block and is output to the matching unit 3 in the next stage as described above. As mentioned above,
Since the specific pattern cutout unit 2 is composed of hardware such as a gate circuit, extremely high-speed processing is possible, and coordinate conversion and feature amount calculation are performed in real time.

【0049】次に、特定パターンマッチング手段3につ
いて説明する。特定パターン切り出し手段2からファジ
ィパターン用メモリ30に格納された、抽出された1つ
の候補パターンについての有効画素領域中の特徴量デー
タが、正規化部31に送られ、そこにおいて濃度補正,
平均値の補正その他の各種処理を行い、次段のファジィ
推論を行うための入力データを作成する。そして、この
ようにして作成された推論の入力値データを、次段のフ
ァジィ推論部(FP−5000:オムロン株式会社製フ
ァジィチップ)33に送り、そこにおいて、メモリ34
に格納されたルールやメンバシップ関数等のファジィ知
識に基づいて、推論処理をし、与えられた画像データ
が、予め設定された特定パターンとの類似度が判断され
る。そして、係る推論結果が複写機本体に向けて出力さ
れる。そして、複写機本体側では、その適合度がある閾
値を越えたら紙幣等の複写禁止物と判断して偽造防止の
所定の処理(複写禁止,全体に黒画面で出力等)をする
ようになっている。なお、係る紙幣等の複写禁止物(特
定パターン)であるか否かの判断も画像処理装置側で行
い、その判定結果(停止信号等)を出力するようにして
もよい。また、認識(類似度を求める)処理は、必ずし
も上記したファジィパターンマッチングを用いる必要は
なく、種々の手法をとることができる。
Next, the specific pattern matching means 3 will be described. The feature amount data in the effective pixel area for one extracted candidate pattern stored in the fuzzy pattern memory 30 from the specific pattern cutout unit 2 is sent to the normalization unit 31, where density correction,
The input data for performing the fuzzy inference of the next stage is created by performing the average value correction and various other processes. Then, the input value data of the inference thus created is sent to the fuzzy inference unit (FP-5000: fuzzy chip manufactured by OMRON Corporation) 33 in the next stage, and the memory 34 is stored therein.
Inference processing is performed based on fuzzy knowledge such as rules and membership functions stored in, and the degree of similarity of given image data with a preset specific pattern is determined. Then, the inference result is output to the main body of the copying machine. When the degree of conformity exceeds a certain threshold, the copier body determines that the copy is prohibited such as banknotes and performs a predetermined process for preventing forgery (copy prohibition, output to the entire black screen, etc.). ing. The image processing apparatus may also determine whether or not the bill is a prohibited copy object (specific pattern) and output the determination result (stop signal or the like). In addition, the recognition (similarity finding) process does not necessarily need to use the above fuzzy pattern matching, and various methods can be adopted.

【0050】なお、上記した例では、特定パターンが、
なす角が90度のコーナーを含むものであるため、レジ
スタバッファ並びに所定の論理回路で検出するものも直
線でしかもなす角が90度としたが、本発明はこれに限
られるものではなく、例えばなす角が90度以外の所定
角度でもよいのはもちろんで、検出対象も直線に限るこ
となく、円・曲線等種々の形状のものでもよい。但しそ
の場合には、かかる形状に応じてマスクを設定すること
である。
In the above example, the specific pattern is
Since the formed angle includes a 90-degree corner, the angle detected by the register buffer and the predetermined logic circuit is also a straight line, and the formed angle is 90 degrees. However, the present invention is not limited to this. May be a predetermined angle other than 90 degrees, and the detection target is not limited to a straight line, and may be a circle, a curved line, or any other shape. However, in that case, the mask is set according to the shape.

【0051】図10,図11は、実際に複写機に上記装
置を組み込んだ例を示している。図示するように、原稿
台50上に載置された原稿51にランプ52から出射さ
れた光の反射光を光学系53を介してイメージセンサで
あるCCD54にて原稿の画像を読み取る。なお、ラン
プ52並びに光学系53を構成する平面鏡等は所定速度
で移動してスキャンしていき、原稿51の所定部位をC
CD54にて逐次読み取り、信号処理部55に画像デー
タ(R・G・B)を送るようになっている。
FIGS. 10 and 11 show an example in which the above apparatus is actually incorporated in a copying machine. As shown in the figure, the reflected light of the light emitted from the lamp 52 on the original 51 placed on the original table 50 is read through the optical system 53 by the CCD 54 which is the image sensor to read the image of the original. It should be noted that the lamp 52 and the plane mirror or the like forming the optical system 53 move at a predetermined speed to perform scanning to scan a predetermined portion of the document 51 at a C position.
The CD 54 is sequentially read and image data (R, G, B) is sent to the signal processing unit 55.

【0052】この信号処理部55は、図10に示すよう
に、通常の色処理回路56と、上記した本発明に係る画
像処理装置57が実装され、上記画像データが、色処理
回路56と画像処理装置57に並列に送られるようにな
っている。そして、色処理回路56では、マゼンタ
(M),シアン(C),イエロー(Y)並びにブラック
(Bk)の各成分に分解し、印刷手段58に出力する。
そして、実際には4回スキャンし、1回のスキャンにと
もない上記4つの成分(M,C,Y,Bk)のうち一つ
の成分を印刷手段58の入力側に配置されたレーザドラ
イバ59に出力し、レーザ光を感光ドラム60の所定位
置に照射するようになっている。そして、4回のスキャ
ン終了後、コピー紙に対して複写処理を行い複写物61
を出力するようになっている。なお、具体的な複写処理
をする機構については従来のものと同様であるため、そ
の説明は省略する。
As shown in FIG. 10, the signal processing unit 55 is equipped with a normal color processing circuit 56 and the above-described image processing device 57 according to the present invention, and the above image data includes the color processing circuit 56 and the image. The data is sent to the processing device 57 in parallel. Then, in the color processing circuit 56, the components are decomposed into magenta (M), cyan (C), yellow (Y) and black (Bk) components and output to the printing unit 58.
Then, actually, scanning is performed four times, and one component out of the four components (M, C, Y, Bk) is output to the laser driver 59 arranged on the input side of the printing unit 58 with one scanning. Then, the laser light is applied to a predetermined position of the photosensitive drum 60. Then, after the four scans are completed, the copy paper is copied, and a copy 61 is obtained.
Is output. Since a mechanism for performing a specific copying process is the same as that of the conventional one, its description is omitted.

【0053】一方、画像処理装置57では、上記色処理
回路56における信号処理を行っている間にそれと平行
して上記した処理を行い読み取り最中の画像データ中の
パターンの特定(基準)パターンに対する類似度を求
め、その読み取り処理中の原稿51が、紙幣等の複写禁
止物の場合には、上記レーザドライバ59の出力を停止
する制御信号を発したり、或いは、色処理回路56に対
し制御信号を送り、例えば複写画面全面を黒画像にする
等種々の複写禁止処理を行うようになる。
On the other hand, in the image processing device 57, while the signal processing in the color processing circuit 56 is being performed, the above-described processing is performed in parallel with the signal processing, and the specific (reference) pattern of the pattern in the image data being read If the degree of similarity is determined and the original document 51 being read is a copy-prohibited object such as a banknote, a control signal for stopping the output of the laser driver 59 is issued, or a control signal is sent to the color processing circuit 56. Is sent to perform various copy prohibition processing such as making the entire copy screen a black image.

【0054】なお、本例では、1回のスキャンによりリ
アルタイムで判定処理が行えるため、搭載した複写機が
1回スキャン方式のものでも対応することができる。そ
して、紙幣全体ではなくその一部の特定パターン部位を
検出し、パターンマッチングを行うため、各種の記憶容
量も少なくて済み、たとえ上記のように多種類の偽造防
止に対応するようにしても全体としてはさほど大きなメ
モリ容量は不要となる。
In this example, since the determination processing can be performed in real time by one scan, it is possible to support the mounted copying machine of the one-scan type. Then, not only the entire bill but a part of the specific pattern is detected and pattern matching is performed, so that various storage capacities are small, and even if it corresponds to various kinds of forgery prevention as described above, the whole As a result, a large memory capacity is unnecessary.

【0055】なおまた、上記した実施例では複写機に適
用するものについて説明したが、本発明はこれに限るこ
とはなく、例えばカラープリンター,FAX,通信伝送
装置その他種々の装置に適用できるのはもちろんであ
る。
Although the above-described embodiments have been described as being applied to a copying machine, the present invention is not limited to this, and is applicable to, for example, a color printer, a FAX, a communication transmission device and various other devices. Of course.

【0056】[0056]

【発明の効果】以上のように、本発明に係る画像処理装
置及びそれを用いた複写機では、複写(印刷)禁止物等
の全体(外形状)の大きさに関係なく、その物体の一部
に有する特定パターンに着目し、その特定パターンを有
するか否かにより検出を行うため、使用するメモリ容量
が少なくて済み、コスト安となる。しかも、1回のスキ
ャンによって特定パターンの検知からその類似度判定ま
でリアルタイムで行えるため、1回スキャン方式の複写
機等においても見落としなく高い認識率が得られる。そ
して、各種の処理は、エッジ抽出して得られた平面状の
線情報に基づいて各種処理を行い認識されるため、面情
報の場合に比し、チェックする画像データ・範囲が削減
でき、処理速度をより高速にすることができ、装置並び
に使用するメモリ容量の小型化が図れる。
As described above, in the image processing apparatus and the copying machine using the same according to the present invention, one of the objects of the copy (printing) prohibited object is irrespective of the size of the whole (outer shape). Since a specific pattern included in a part is focused and detection is performed depending on whether or not the specific pattern is included, the memory capacity used is small and the cost is low. Moreover, since the detection of the specific pattern to the determination of the similarity can be performed in real time by one scan, a high recognition rate can be obtained without oversight even in a one-scan type copying machine. Then, since various types of processing are recognized by performing various types of processing based on the planar line information obtained by edge extraction, the image data and range to be checked can be reduced compared to the case of surface information. The speed can be increased, and the device and the memory capacity used can be downsized.

【0057】さらに、平面の画像をレジスタバッファ上
に展開し、論理回路によるハードウエアで検出処理が行
われるようにした場合には、メモリをその都度アクセス
することにより、上記効果はよりいっそうのものとな
る。そして、画像の読み取り速度に対して、認識処理を
リアルタイムで追従できるようになり、検知した候補デ
ータを一時的に保持する退避バッファ的なメモリが不要
となり、メモリ容量をより削減できる。
Further, when a plane image is developed on the register buffer and the detection processing is performed by hardware by the logic circuit, the above effect is further enhanced by accessing the memory each time. Becomes Then, the recognition process can be followed in real time with respect to the image reading speed, and a memory like a save buffer for temporarily holding the detected candidate data becomes unnecessary, and the memory capacity can be further reduced.

【0058】しかも、検知する際に、与えられた画像を
ぼかし、そのぼかした画像(パターン)に基づいて各種
処理を行うようにした場合には、位置ずれや汚れ,読取
り誤差等にも強く高速にかつ確実に特定パターンを有す
る画像データを抽出することができる。
In addition, when a given image is blurred at the time of detection and various processing is performed based on the blurred image (pattern), it is strong against a positional shift, dirt, a reading error, etc. In addition, it is possible to reliably and reliably extract the image data having the specific pattern.

【0059】そして、係る画像処理装置を複写機に実装
することにより、紙幣,有価証券等の複写禁止物に対
し、確実にその複写物の出力を禁止する(複写自体を行
わない,原稿(複写禁止物)と異なる画像を複写・出力
する等)ことができる。
By mounting the image processing apparatus in a copying machine, it is possible to reliably prohibit the output of the copied matter such as banknotes and securities (copying itself is not performed, original (copying It is possible to copy and output images different from prohibited items).

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置の一実施例を示すブ
ロック構成図である。
FIG. 1 is a block configuration diagram showing an embodiment of an image processing apparatus according to the present invention.

【図2】直線マスクの一例を示す図である。FIG. 2 is a diagram showing an example of a linear mask.

【図3】平面の画像情報が展開されるレジスタバッファ
及び、そのレジスタバッファへデータを書き込む手段の
一例を示す図である。
FIG. 3 is a diagram showing an example of a register buffer in which plane image information is expanded and a unit for writing data into the register buffer.

【図4】直線を検知するための回路の一例を示す図であ
る。
FIG. 4 is a diagram showing an example of a circuit for detecting a straight line.

【図5】検知した2本の直線が直交するか否かを判定す
る回路の一例を示す図である。
FIG. 5 is a diagram showing an example of a circuit for determining whether or not two detected straight lines are orthogonal.

【図6】パターンを切り出す手段の作用を説明する図で
ある。
FIG. 6 is a diagram for explaining the operation of a means for cutting out a pattern.

【図7】そのフローチャート図である。FIG. 7 is a flow chart diagram thereof.

【図8】それを実行するためのハードウエアの一構成例
の一部を示す図である。
FIG. 8 is a diagram showing a part of a configuration example of hardware for executing it.

【図9】それを実行するためのハードウエアの一構成例
の残部を示す図である。
FIG. 9 is a diagram showing the rest of a configuration example of hardware for executing it.

【図10】本発明に係る複写機の一例を示す図である。FIG. 10 is a diagram showing an example of a copying machine according to the present invention.

【図11】本発明に係る複写機の一例を示す図である。FIG. 11 is a diagram showing an example of a copying machine according to the present invention.

【符号の説明】[Explanation of symbols]

1 特定パターン検知手段 2 特定パターン切り出し手段 3 特定パターンマッチング手段(類似度を算出する手
段) 10 平均化処理部 13 エッジ抽出フィルタ 15 角候補粗検索・位置決め部(レジスタバッファ
等)
1 Specific Pattern Detection Means 2 Specific Pattern Cutout Means 3 Specific Pattern Matching Means (Means to Calculate Similarity) 10 Averaging Processor 13 Edge Extraction Filter 15 Corner Candidate Rough Search / Positioning Unit (Register Buffer etc.)

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 与えられた画像情報中に存在する特定パ
ターンらしきパターンを検知する手段と、その検知した
パターンを前記画像情報から切り出す手段と、予め設定
しておいた基準パターンと前記切り出したパターンの類
似度を演算する手段とを備え、 かつ、前記検知する手段が、少くとも画像情報からエッ
ジを抽出する手段を有し、その抽出する手段により抽出
されたエッジに基づいて前記特定パターンらしきパター
ンを検知するようにしたことを特徴とする画像処理装
置。
1. A means for detecting a pattern that seems to be a specific pattern existing in given image information, a means for cutting out the detected pattern from the image information, a preset reference pattern and the cut-out pattern. And a means for calculating the degree of similarity, and the detecting means has at least means for extracting an edge from image information, and the specific pattern-like pattern based on the edge extracted by the extracting means. An image processing apparatus, which is configured to detect a.
【請求項2】 与えられた画像情報中に存在する特定パ
ターンらしきパターンを検知する手段と、その検知した
パターンを前記画像情報から切り出す手段と、予め設定
しておいた基準パターンと前記切り出したパターンの類
似度を演算する手段とを備え、 かつ、前記検知する手段が、少くとも画像情報から2値
情報を算出する手段と、算出された平面の2値情報をレ
ジスタバッファに保持する手段と、前記レジスタバッフ
ァの各出力に接続された前記特定パターンらしきパター
ン検出用の所定の論理回路とを有してなることを特徴と
する画像処理装置。
2. A means for detecting a pattern which seems to be a specific pattern existing in given image information, a means for cutting out the detected pattern from the image information, a preset reference pattern and the cut out pattern. And a means for calculating the binary information from the image information, and a means for holding the calculated binary information of the plane in a register buffer. An image processing apparatus comprising: a predetermined logic circuit for detecting the pattern that seems to be the specific pattern, which is connected to each output of the register buffer.
【請求項3】 前記パターンを検知する手段が、与えら
れた画像情報に対し、解像度を低下させてぼかした画像
を形成する手段をさらに備え、前記ぼかした画像に対し
て上記各処理を行うようにしたことを特徴とする請求項
1または2に記載の画像処理装置。
3. The means for detecting the pattern further comprises means for forming a blurred image by reducing the resolution of the given image information, and performing each of the processes on the blurred image. The image processing device according to claim 1 or 2, wherein
【請求項4】 少なくとも原稿を読み取る手段と、その
読み取る手段に接続され、その読み取った画像データを
印刷するための信号に変換する色信号変換手段と、その
色信号変換手段からの出力を受け、所定の印刷処理を行
う印刷手段とを備えた複写機において、前記請求項1〜
3のいずれか1項に示す画像処理装置を搭載するととも
に、前記原稿を読み取る手段から出力される画像データ
を前記色信号変換手段と並列に前記画像処理装置に入力
させ、かつ、前記画像処理装置は、複写処理中の物体
が、紙幣等の予め登録した所定の物体か否かを判断し、
少なくとも前記所定の物体と判断した時には前記複写機
の所定の処理手段に対し制御信号を送り、複写を抑制す
るようにしたことを特徴とする複写機。
4. A means for reading at least a manuscript, a color signal conversion means connected to the reading means for converting the read image data into a signal for printing, and an output from the color signal conversion means, A copying machine provided with a printing means for carrying out a predetermined printing process, wherein:
The image processing apparatus according to any one of 3 above is mounted, and the image data output from the document reading unit is input to the image processing apparatus in parallel with the color signal conversion unit, and the image processing apparatus is also provided. Determines whether the object being copied is a predetermined object such as a banknote registered in advance,
A copying machine, characterized in that a control signal is sent to a predetermined processing means of the copying machine at least when it is judged that the object is the predetermined object to suppress copying.
JP5054586A 1993-02-22 1993-02-22 Image processing apparatus and copying machine using the same Expired - Lifetime JP2899736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5054586A JP2899736B2 (en) 1993-02-22 1993-02-22 Image processing apparatus and copying machine using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5054586A JP2899736B2 (en) 1993-02-22 1993-02-22 Image processing apparatus and copying machine using the same

Publications (2)

Publication Number Publication Date
JPH06251128A true JPH06251128A (en) 1994-09-09
JP2899736B2 JP2899736B2 (en) 1999-06-02

Family

ID=12974824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5054586A Expired - Lifetime JP2899736B2 (en) 1993-02-22 1993-02-22 Image processing apparatus and copying machine using the same

Country Status (1)

Country Link
JP (1) JP2899736B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7024030B1 (en) 1999-07-02 2006-04-04 Omron Corporation Image recognition device, image forming device, and recoded medium
JP2006302109A (en) * 2005-04-22 2006-11-02 Glory Ltd Worn-out sheet determination device for sheet, worn-out sheet determination method, and worn-out sheet determination program
US7301681B2 (en) 2003-03-06 2007-11-27 Kabushiki Kaisha Toshiba System and method for processing documents with four-line CCD sensor
JP2013008176A (en) * 2011-06-24 2013-01-10 Hitachi Omron Terminal Solutions Corp Automatic transaction device with image tracing function
CN104952142A (en) * 2014-03-28 2015-09-30 冲电气工业株式会社 Banknote processing device
CN108492446A (en) * 2018-02-07 2018-09-04 深圳怡化电脑股份有限公司 A kind of bank note edge finding method and system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7024030B1 (en) 1999-07-02 2006-04-04 Omron Corporation Image recognition device, image forming device, and recoded medium
US7301681B2 (en) 2003-03-06 2007-11-27 Kabushiki Kaisha Toshiba System and method for processing documents with four-line CCD sensor
JP2006302109A (en) * 2005-04-22 2006-11-02 Glory Ltd Worn-out sheet determination device for sheet, worn-out sheet determination method, and worn-out sheet determination program
JP2013008176A (en) * 2011-06-24 2013-01-10 Hitachi Omron Terminal Solutions Corp Automatic transaction device with image tracing function
CN104952142A (en) * 2014-03-28 2015-09-30 冲电气工业株式会社 Banknote processing device
CN104952142B (en) * 2014-03-28 2017-11-10 冲电气工业株式会社 Bank note treatment device
CN108492446A (en) * 2018-02-07 2018-09-04 深圳怡化电脑股份有限公司 A kind of bank note edge finding method and system
CN108492446B (en) * 2018-02-07 2020-09-15 深圳怡化电脑股份有限公司 Paper money edge searching method and system

Also Published As

Publication number Publication date
JP2899736B2 (en) 1999-06-02

Similar Documents

Publication Publication Date Title
JP3743494B2 (en) Image processing method and apparatus, and copier, scanner and printer equipped with the same
US6801636B2 (en) Image processing apparatus and method, and storage medium
EP0800123B1 (en) Image recognition method and device and copier and scanner employing same
EP0940780B1 (en) Image processing device and method for detecting a reference pattern
US6343204B1 (en) Detection and deterrence of counterfeiting of documents with tokens characteristic color and spacing
US20020009229A1 (en) Image processing apparatus and methods for pattern recognition
US8120795B2 (en) Method of document protection
JPH08340443A (en) Method and device for forgery information generation, and equipment using the same
EP1014294B1 (en) Method and apparatus for mark detection
JP2899736B2 (en) Image processing apparatus and copying machine using the same
JP2893080B2 (en) Image processing method and apparatus, and copier, scanner, and printer using the same
JP2000076458A (en) Color picture recognizing device, its method, and recording medium
WO2006001793A9 (en) Full color scanning protection of document
JPH08115021A (en) Color image processor
JPH07143335A (en) Copy-inhibited original copying preventing device/method for color copying machine
JPH11110545A (en) Image recognition device
JP3178440B2 (en) Image processing method and apparatus, copier, scanner and printer equipped with the same
JP3151993B2 (en) Image processing apparatus and copier equipped with the same
JP4235352B2 (en) Image discrimination apparatus, copying machine, and image discrimination method
JP3490069B2 (en) Image processing device
JP3178439B2 (en) Image processing method and apparatus, copier, scanner and printer equipped with the same
JPH08115022A (en) Image processor
JPH06225134A (en) Copy inhibit original detector in color picture processor
JPH0659600A (en) Image processing device
JP3109984B2 (en) Color image processing equipment

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090319

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090319

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100319

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100319

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110319

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110319

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 14

EXPY Cancellation because of completion of term