[go: up one dir, main page]

JP4692377B2 - Image collation device, image collation method and program - Google Patents

Image collation device, image collation method and program Download PDF

Info

Publication number
JP4692377B2
JP4692377B2 JP2006133149A JP2006133149A JP4692377B2 JP 4692377 B2 JP4692377 B2 JP 4692377B2 JP 2006133149 A JP2006133149 A JP 2006133149A JP 2006133149 A JP2006133149 A JP 2006133149A JP 4692377 B2 JP4692377 B2 JP 4692377B2
Authority
JP
Japan
Prior art keywords
image data
candidate
intersection
image
intersections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006133149A
Other languages
Japanese (ja)
Other versions
JP2007304892A (en
Inventor
景則 長尾
裕之 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2006133149A priority Critical patent/JP4692377B2/en
Publication of JP2007304892A publication Critical patent/JP2007304892A/en
Application granted granted Critical
Publication of JP4692377B2 publication Critical patent/JP4692377B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像データの照合を行う画像照合装置、画像照合方法及びプログラムに関する。   The present invention relates to an image collation apparatus, an image collation method, and a program for collating image data.

近年、記憶装置の大容量化などに伴って、多くの文書データや画像データを蓄積して、利用者に提供するデータ管理システムが普及しつつある。このようなデータ管理システムが効率的に利用されるためには、蓄積された大量のデータからユーザが必要とするデータを容易に見つけられるように検索機能を充実させる必要がある。しかしながら、文字コード情報などからなる文書データを検索する場合と比較して、画像データの検索は一般に困難である場合が多い。すなわち、例えば殆ど同じ画像を表す画像データであっても、一度紙などの記録媒体上に印刷されて再びスキャナで読み取られた場合などにおいては、位置ずれや色合いの変化などが生じて、データとしては全く異なるものになってしまう。その結果、単純に画像データ同士を比較するだけでは、類似する画像であることが判定できない。そこで、例えば画像データから画像の特徴を表すデータを抽出して照合することで、類似する画像であるか否かを判定する画像照合技術が提案されている。   In recent years, with the increase in capacity of storage devices and the like, data management systems that accumulate a large amount of document data and image data and provide them to users are becoming widespread. In order to efficiently use such a data management system, it is necessary to enhance the search function so that the user can easily find the necessary data from the large amount of accumulated data. However, searching for image data is generally more difficult than searching for document data consisting of character code information or the like. That is, for example, even when image data representing almost the same image is printed on a recording medium such as paper and then read again by a scanner, misalignment, color change, etc. occur, and the data Will be completely different. As a result, it is not possible to determine that the images are similar by simply comparing the image data. In view of this, for example, an image matching technique has been proposed in which data representing image characteristics is extracted from image data and verified to determine whether the images are similar.

このような画像照合技術の一つとして、照合対象となる2つの画像データのそれぞれに基づく画像特徴情報を取得し、当該画像特徴情報に基づいて一方の画像データに対するアフィン変換の変換パラメタである、拡縮率及び平行移動量の値を推定し、推定された変換パラメタを用いて画像の照合を行う技術がある(特許文献1)。当該技術においては、例えば画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形を取得し、当該画素値投影波形において波形の変化が特徴的となる位置を表す位置情報を画像特徴情報として用いる。この技術によれば、例えば横書きや縦書きの文字列を含む文書を表すような画像において、画素が集中する行や列の配置に関する情報を画素値投影波形として抽出し、照合することで、画像が類似するか否かを判定できる。   As one of such image collation techniques, image feature information based on each of two image data to be collated is acquired, and is a conversion parameter of affine transformation for one image data based on the image feature information. There is a technique for estimating values of an enlargement / reduction ratio and a parallel movement amount, and performing image matching using an estimated conversion parameter (Patent Document 1). In this technique, for example, a pixel value projection waveform obtained by accumulating pixel values of each pixel included in image data in a predetermined direction is acquired, and a position where the waveform change is characteristic in the pixel value projection waveform is obtained. The represented position information is used as image feature information. According to this technology, for example, in an image representing a document including a horizontally written or vertically written character string, information regarding the arrangement of rows and columns where pixels are concentrated is extracted as a pixel value projection waveform and collated, whereby the image Can be determined.

図7(a)及び図7(b)は、画素値投影波形を生成する際の、画像データに含まれる画素値を累算する方向の例を表す説明図である。図7(a)においては、画像データの水平方向に画素値を累算する場合の例が示されている。また、図7(b)においては、画像データの垂直方向に画素値を累算する場合の例が示されている。この図に示す方向に沿って画素値を累算することにより、各行又は各列の画素の画素値を累算して得られる累算値を画像データ上の位置に応じた順序で並べた累算値系列が得られる。そして、この累算値系列によって表される波形が画素値投影波形となる。図8は、このようにして得られた画素値投影波形の一例を模式的に表す説明図である。   FIGS. 7A and 7B are explanatory diagrams illustrating examples of directions in which pixel values included in image data are accumulated when a pixel value projection waveform is generated. FIG. 7A shows an example in which pixel values are accumulated in the horizontal direction of image data. FIG. 7B shows an example in which pixel values are accumulated in the vertical direction of image data. By accumulating the pixel values along the direction shown in this figure, the accumulated values obtained by accumulating the pixel values of the pixels in each row or each column are arranged in an order corresponding to the position on the image data. An arithmetic value series is obtained. A waveform represented by this accumulated value series is a pixel value projection waveform. FIG. 8 is an explanatory diagram schematically showing an example of the pixel value projection waveform thus obtained.

ここで、もし2つの画像データが完全に一致するのであれば、当該画像データから生成された所定方向についての画素値投影波形も一致するはずである。しかしながら、照合対象となる画像データの一方が、他方の画像データに対して拡大や縮小された画像データであったり、位置ずれを起こしたりしている場合には、画像データの画素値投影波形にもずれが生じる。そこで当該技術によれば、画像照合装置は、照合対象となる画像データの一致度が高くなるように、それぞれの画素値投影波形から得られた位置情報に基づいて、一方の画像データに対するアフィン変換の変換パラメタ(拡縮率及び平行移動量)を算出する。そして、決定された変換パラメタにより一方の画像データに対して拡大、縮小、平行移動などの画像変換処理を施し、変換された画像データを用いて画像の照合を行う。これにより、拡大や縮小、また位置ずれを起こした画像からであっても、類似する画像を検索することができる。
特開2003−91730号公報
Here, if the two image data completely match, the pixel value projection waveforms in the predetermined direction generated from the image data should also match. However, when one of the image data to be collated is image data that has been enlarged or reduced with respect to the other image data, or a positional shift has occurred, the pixel value projection waveform of the image data Misalignment occurs. Therefore, according to the technology, the image collation apparatus performs affine transformation on one image data based on position information obtained from each pixel value projection waveform so that the degree of coincidence of the image data to be collated is high. The conversion parameters (enlargement / reduction ratio and parallel movement amount) are calculated. Then, image conversion processing such as enlargement, reduction, and parallel movement is performed on one image data according to the determined conversion parameter, and the images are collated using the converted image data. As a result, a similar image can be searched even from an image that has been enlarged, reduced, or misaligned.
JP 2003-91730 A

しかしながら、上記従来例の技術においては、例えば画像データの特性等によって生成される画素値投影波形に多数のピーク位置が含まれるような画像の照合を行う場合、十分高い精度で画像を照合できないことがある。すなわち、画像データから多数の画像特徴情報(例えばピーク位置の位置情報)が得られる場合、照合対象となるそれぞれの画像データに基づいて取得した画像特徴情報同士を比較して変換パラメタを算出する際に、ノイズが生じてしまい、算出される変換パラメタの精度が悪くなってしまう場合がある。   However, in the above-described conventional technique, for example, when collating images in which a large number of peak positions are included in the pixel value projection waveform generated based on the characteristics of the image data, the images cannot be collated with sufficiently high accuracy. There is. That is, when a large number of image feature information (for example, position information of peak positions) is obtained from image data, the conversion parameter is calculated by comparing image feature information acquired based on the respective image data to be collated In addition, noise may occur, and the accuracy of the calculated conversion parameter may deteriorate.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、画像照合の精度を向上できる画像照合装置、画像照合方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and one of its purposes is to provide an image collation apparatus, an image collation method, and a program capable of improving the accuracy of image collation.

上記課題を解決するための本発明に係る画像照合装置は、第1画像データと第2画像データとの照合を行う画像照合装置であって、前記第1及び第2画像データのそれぞれに基づいて取得した画像特徴情報に基づいて、前記第1画像データに基づく画像特徴情報を前記第2画像データに基づく画像特徴情報に一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す直線式を複数決定する直線式決定手段と、前記決定した複数の直線式の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定する交点群決定手段と、前記決定した候補交点群に属する各交点の位置に基づいて、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値を算出する変換パラメタ算出手段と、を含み、前記算出した拡縮率及び平行移動量が、前記第1画像データと前記第2画像データとの照合処理に供されることを特徴とする。   An image collation apparatus according to the present invention for solving the above-described problems is an image collation apparatus that collates first image data and second image data, based on each of the first and second image data. Based on the acquired image feature information, an enlargement / reduction ratio and a parallel movement amount are affine transformation conversion parameters for matching the image feature information based on the first image data with the image feature information based on the second image data. A linear formula determining means for determining a plurality of linear formulas representing the relationship between possible values as a straight line on a two-dimensional space having coordinate axes corresponding to the scaling ratio and the amount of parallel movement, and an intersection of the determined linear formulas An intersection group determining means for performing a clustering process for classifying each intersection and determining at least one intersection group including a plurality of intersections as a candidate intersection group; Based on the position of each intersection belonging to the determined candidate intersection group, a conversion parameter calculation that calculates the scaling ratio and the amount of parallel movement that increase the degree of coincidence between the first image data and the second image data And the calculated enlargement / reduction ratio and parallel movement amount are provided for collation processing between the first image data and the second image data.

上記構成によれば、照合対象となる画像データの一方に対するアフィン変換の変換パラメタである拡縮率及び平行移動量が採りうる値の関係を表す複数の直線式を決定し、各変換パラメタを座標軸とする2次元空間上における当該直線式の交点を分類するクラスタリング処理を実行することで、ノイズとして生じてしまった2次元空間上の交点を除去できる。これにより、照合対象となる2つの画像データの一致度が高くなるような変換パラメタを精度よく求めることができ、画像照合の精度を向上できる。   According to the above configuration, a plurality of linear expressions representing a relationship between values that can be taken by the scaling factor and the amount of translation that are the conversion parameters of the affine transformation for one of the image data to be collated are determined, and each conversion parameter is defined as a coordinate axis. By executing the clustering process for classifying the intersections of the linear equations in the two-dimensional space to be performed, the intersections in the two-dimensional space that have been generated as noise can be removed. As a result, a conversion parameter that increases the degree of coincidence between two image data to be collated can be obtained with high accuracy, and the accuracy of image collation can be improved.

また、上記画像照合装置は、前記第1及び第2画像データのそれぞれに対し、画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形を取得する画素値投影波形取得手段をさらに含み、前記画像特徴情報は、前記取得した各画素値投影波形内での波形の変化が特徴的となる位置を表す位置情報であることとしてもよい。さらに、前記波形の変化が特徴的となる位置は、前記画素値投影波形内での波形のピークを表す位置であることとしてもよい。   In addition, the image collating device obtains a pixel value projection waveform obtained by accumulating pixel values of pixels included in the image data in a predetermined direction for each of the first and second image data. Projection waveform acquisition means may be further included, and the image feature information may be position information representing a position where a change in waveform within each acquired pixel value projection waveform is characteristic. Furthermore, the position where the change in the waveform is characteristic may be a position representing a peak of the waveform in the pixel value projection waveform.

また、上記画像照合装置において、前記交点群決定手段は、前記2次元空間上において所定の条件を満たす候補領域に含まれる交点に対して、クラスタリング処理を実行することとしてもよい。   In the image collation apparatus, the intersection group determination unit may perform a clustering process on intersections included in a candidate region that satisfies a predetermined condition in the two-dimensional space.

また、本発明に係る画像照合方法は、コンピュータを用いて、第1画像データと第2画像データとの照合を行う画像照合方法であって、前記第1及び第2画像データのそれぞれに基づいて取得した画像特徴情報に基づいて、前記第1画像データに基づく画像特徴情報を前記第2画像データに基づく画像特徴情報に一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す直線式を複数決定するステップと、前記決定した複数の直線式の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定するステップと、前記決定した候補交点群に属する各交点の位置に基づいて、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値を算出するステップと、を含み、前記算出した拡縮率及び平行移動量が、前記第1画像データと前記第2画像データとの照合処理に供されることを特徴とする。   An image collating method according to the present invention is an image collating method for collating first image data and second image data using a computer, and is based on each of the first and second image data. Based on the acquired image feature information, an enlargement / reduction ratio and a parallel movement amount are affine transformation conversion parameters for matching the image feature information based on the first image data with the image feature information based on the second image data. A step of determining a plurality of linear expressions representing a relationship of values that can be taken as a straight line in a two-dimensional space having coordinate axes corresponding to the scaling ratio and the amount of parallel movement, and the intersection of the determined plurality of linear expressions Performing a clustering process for classifying each intersection and determining at least one intersection group including a plurality of intersections as a candidate intersection group; and Calculating values of the enlargement / reduction ratio and the amount of translation that increase the degree of coincidence between the first image data and the second image data based on the positions of the respective intersections belonging to the candidate intersection group. The calculated enlargement / reduction ratio and parallel movement amount are used for collation processing between the first image data and the second image data.

また、本発明に係るプログラムは、第1及び第2画像データのそれぞれに基づいて取得した画像特徴情報に基づいて、前記第1画像データに基づく画像特徴情報を前記第2画像データに基づく画像特徴情報に一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す直線式を複数決定する直線式決定手段、前記決定した複数の直線式の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定する交点群決定手段、及び前記決定した候補交点群に属する各交点の位置に基づいて、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値を算出する変換パラメタ算出手段、としてコンピュータを機能させ、前記算出した拡縮率及び平行移動量が、前記第1画像データと前記第2画像データとの照合処理に供されることを特徴とする。   In addition, the program according to the present invention can convert image feature information based on the first image data based on image feature information acquired based on each of the first and second image data to image feature based on the second image data. The relationship between values that can be taken by the scaling factor and the translation amount, which is a transformation parameter of the affine transformation that matches the information, is expressed as a straight line in a two-dimensional space having coordinate axes respectively corresponding to the scaling factor and the translation amount. A straight line determining means for determining a plurality of straight lines, and performing a clustering process for classifying each cross point on the determined cross points of the plurality of straight lines, and selecting at least one cross point group including a plurality of cross points as candidate cross points The first image data and the second image based on the intersection group determination means determined as a group, and the position of each intersection belonging to the determined candidate intersection group A computer that functions as a conversion parameter calculation unit that calculates values of the enlargement / reduction ratio and parallel movement amount that increase the degree of coincidence with the data, and the calculated enlargement / reduction ratio and parallel movement amount correspond to the first image data and the translation amount It is used for collation processing with the second image data.

以下、本発明の実施の形態について、図面を参照しながら説明する。本発明の一実施形態に係る画像照合装置は、図1に示すように、制御部11と、記憶部12と、画像読み取り部13と、表示部14と、を含んで構成されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image collation apparatus according to an embodiment of the present invention includes a control unit 11, a storage unit 12, an image reading unit 13, and a display unit 14.

制御部11は、CPU等であって、記憶部12に記憶されたプログラムに従って動作する。本実施の形態においては、検索キーとなるキー画像データと、記憶部12に記憶されている蓄積画像データと、にそれぞれ基づく画像特徴情報を用いて、当該2つの画像データの一致度が高くなるような変換パラメタを算出する。さらに、算出した変換パラメタを用いて2つの画像データの照合を行い、両者が類似する画像か否かを判定する画像照合処理を実行する。これにより、本実施形態に係る画像照合装置は、キー画像データに類似する蓄積画像データを検索し、その結果を出力できる。本実施の形態において制御部11が実行する処理の例については、後に詳しく述べる。   The control unit 11 is a CPU or the like, and operates according to a program stored in the storage unit 12. In the present embodiment, the degree of coincidence between the two image data is increased by using image feature information based on the key image data serving as a search key and the accumulated image data stored in the storage unit 12. Calculate the conversion parameters. Further, two image data are collated using the calculated conversion parameter, and an image collation process for determining whether or not the two images are similar is executed. Thereby, the image collation apparatus according to the present embodiment can search stored image data similar to the key image data and output the result. An example of processing executed by the control unit 11 in the present embodiment will be described in detail later.

記憶部12は、制御部11によって実行されるプログラムを保持するコンピュータで読み取り可能な記憶媒体であって、RAMやROM等のメモリ素子とディスクデバイス等との少なくとも一方を含んで構成されている。また、記憶部12は、制御部11のワークメモリとしても動作する。さらに、本実施形態においては、記憶部12は、照合対象となる複数の画像データを、蓄積画像データとして記憶している。   The storage unit 12 is a computer-readable storage medium that holds a program executed by the control unit 11, and includes at least one of a memory element such as a RAM or a ROM, a disk device, or the like. The storage unit 12 also operates as a work memory for the control unit 11. Further, in the present embodiment, the storage unit 12 stores a plurality of pieces of image data to be collated as accumulated image data.

画像読み取り部13は、光学的に紙などの記録媒体に形成されている画像を読み取り、これを画像データに変換して制御部11に出力する。これにより、制御部11はキー画像データを取得できる。また、表示部14は、ディスプレイ等であって、制御部11から入力される指示に従い、検索結果などの種々の情報を表示する。   The image reading unit 13 optically reads an image formed on a recording medium such as paper, converts the image into image data, and outputs the image data to the control unit 11. Thereby, the control part 11 can acquire key image data. The display unit 14 is a display or the like, and displays various information such as search results in accordance with instructions input from the control unit 11.

次に、本実施形態に係る画像照合装置が実現する機能について説明する。本実施形態に係る画像照合装置は、機能的には、図2に示すように、投影波形取得部21と、位置情報取得部22と、直線式決定部23と、交点群決定部24と、変換パラメタ算出部25と、画像照合部26と、を含んで構成されている。これらの機能は、例えば制御部11が記憶部12に格納されているプログラムを実行することによって実現できる。   Next, functions realized by the image collating apparatus according to the present embodiment will be described. As shown in FIG. 2, the image matching device according to the present embodiment functionally has a projection waveform acquisition unit 21, a position information acquisition unit 22, a linear equation determination unit 23, an intersection group determination unit 24, A conversion parameter calculation unit 25 and an image collation unit 26 are included. These functions can be realized, for example, when the control unit 11 executes a program stored in the storage unit 12.

投影波形取得部21は、照合対象となるキー画像データ及び蓄積画像データ(以下、両者を合わせて照合対象画像データという)のそれぞれに対し、画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形を取得する。   The projection waveform acquisition unit 21 sets the pixel value of each pixel included in the image data in a predetermined direction for each of key image data and accumulated image data (hereinafter referred to as “matching target image data”) to be collated. A pixel value projection waveform obtained by accumulation is acquired.

ここで所定方向とは、例えば水平方向や垂直方向などである。具体例として、キー画像データが文書画像を表すデータであって、当該文書が縦書きであるか横書きであるかが予めわかっている場合、この文字の配置された方向を所定方向として選択することとしてもよい。このような方向を用いることで、特に画像の特徴を反映した画素値投影波形を得ることができる。また、例えば画像データの特徴が不明瞭な場合、水平方向と垂直方向の両方など、複数の方向についての画素値投影波形を取得することとしてもよい。この場合、本実施形態に係る画像照合装置は、複数の所定方向についての画素値投影波形をそれぞれ比較することで、より精度の高い画像の照合を行うことができる。さらに、例えばキー画像データに対する水平方向と垂直方向とのいずれか一方についての画素値投影波形を、蓄積画像データに対する水平方向及び垂直方向それぞれの画素値投影波形と比較することとしてもよい。これにより、キー画像データが蓄積画像データに対して90度回転した画像である場合であっても、画像を照合して類似画像であると判定できる。   Here, the predetermined direction is, for example, a horizontal direction or a vertical direction. As a specific example, if the key image data is data representing a document image and it is known in advance whether the document is vertical writing or horizontal writing, the direction in which the characters are arranged is selected as a predetermined direction. It is good. By using such a direction, it is possible to obtain a pixel value projection waveform that particularly reflects the characteristics of the image. For example, when the characteristics of the image data are unclear, pixel value projection waveforms in a plurality of directions such as both the horizontal direction and the vertical direction may be acquired. In this case, the image collating apparatus according to the present embodiment can perform collation of images with higher accuracy by comparing pixel value projection waveforms in a plurality of predetermined directions. Further, for example, the pixel value projection waveform in one of the horizontal direction and the vertical direction with respect to the key image data may be compared with the pixel value projection waveforms in the horizontal direction and the vertical direction with respect to the accumulated image data. Thus, even when the key image data is an image rotated 90 degrees with respect to the stored image data, it can be determined that the images are similar by collating the images.

投影波形取得部21は、この所定方向に沿って、画像データに含まれる各画素の画素値を累算して得られる画素値投影波形を取得する。画素値投影波形は、当該所定方向に画像データの画素値を投影した場合の分布を表す。コンピュータ上においては、この画素値投影波形は、所定方向に沿って各画素の画素値を累算して得られる複数の累算値が、当該各累算値を算出する対象となった画素群の画像データ上の配置順に従って並べられた数値配列(累算値系列)として、表現される。   The projection waveform acquisition unit 21 acquires a pixel value projection waveform obtained by accumulating pixel values of each pixel included in the image data along the predetermined direction. The pixel value projection waveform represents a distribution when the pixel values of the image data are projected in the predetermined direction. On the computer, this pixel value projection waveform is a pixel group in which a plurality of accumulated values obtained by accumulating pixel values of each pixel along a predetermined direction are targets for calculating each accumulated value. Are expressed as a numerical array (accumulated value series) arranged according to the arrangement order on the image data.

この累算値を演算するにあたり、照合対象画像データが白黒画像データであれば、白の点の画素値を「0」、黒の点の画素値を「1」として累算すればよいし、中間調を含む多値画像データであれば、例えば白を「0」、黒を「255」等とすればよい。さらにカラー画像データの場合は、例えばその濃度成分を分離して得られる濃度画像を上記多値画像と見なして累算値を計算する。濃度成分の分離は、公知のカラー値に対する変換処理により行うことができる。   In calculating the accumulated value, if the image data to be collated is monochrome image data, the pixel value of the white point may be accumulated as “0”, and the pixel value of the black point may be accumulated as “1”. In the case of multi-value image data including a halftone, for example, white may be “0”, black may be “255”, and the like. Further, in the case of color image data, for example, the density value obtained by separating the density components is regarded as the multi-value image, and the accumulated value is calculated. The separation of density components can be performed by a conversion process for known color values.

また、投影波形取得部21は、例えば画像照合処理を行う際に、照合対象画像データに基づいて各累算値を算出することで、この画素値投影波形を取得してもよい。あるいは、特に蓄積画像データについては、予め当該蓄積画像データの所定方向について算出された画素値投影波形が、当該蓄積画像データに対応づけられて記憶部12に保持されることとしてもよい。この場合、投影波形取得部21は単に記憶部12から読み出すことで画素値投影波形を取得でき、画像の照合を行う際の演算量を低減することができる。   The projection waveform acquisition unit 21 may acquire the pixel value projection waveform by calculating each accumulated value based on the verification target image data, for example, when performing the image verification process. Alternatively, particularly for the accumulated image data, a pixel value projection waveform calculated in advance in a predetermined direction of the accumulated image data may be stored in the storage unit 12 in association with the accumulated image data. In this case, the projection waveform acquisition unit 21 can acquire the pixel value projection waveform simply by reading it from the storage unit 12, and can reduce the amount of calculation when collating images.

なお、画像読み取り部13が読み取ることで取得したキー画像データに対して画素値投影波形を生成する場合、画素値投影波形の生成処理前に公知の傾き補正技術を利用して読み取り時の軽微な傾きを補正することとしてもよい。また、キー画像データを読み取った際の画像読み取り部13の解像度の設定などに応じて、キー画像データから一時的に生成した画素値投影波形を所定のスケール(既定スケール)にスケーリングした、いわば規格化した画素値投影波形を取得することとしてもよい。これにより、予め蓄積画像データの画素値投影波形に近いサイズに規格化された画素値投影波形を用いて、画素値投影波形の比較を行うことができる。   When generating a pixel value projection waveform for key image data acquired by reading by the image reading unit 13, a known tilt correction technique is used before the pixel value projection waveform generation process to make a slight reading. The inclination may be corrected. In addition, the pixel value projection waveform temporarily generated from the key image data is scaled to a predetermined scale (default scale) according to the resolution setting of the image reading unit 13 when the key image data is read. The converted pixel value projection waveform may be acquired. Thereby, the pixel value projection waveforms can be compared using the pixel value projection waveforms that have been standardized in advance to a size close to the pixel value projection waveform of the stored image data.

また、ここまでの説明においては、画素値を累算して得られる累算値系列によって表される波形そのものを取得対象の画素値投影波形としたが、当該波形を微分して得られる、微分波形を比較する対象となる画素値投影波形として取得してもよい。例えばキー画像データとして複写文書を用いる場合、画像データに写真やドローイングのような中間調領域を含んでいると、その濃度値は大きく変化している場合が多く、その結果累算値系列からなる波形の波高値も安定しない場合が多い。このような場合でも累算値系列からなる波形の凹凸の様子は多くの場合維持されているので、微分波形を比較対象となる画素値投影波形として用いる方が好ましい場合も多いからである。   In the description so far, the waveform itself represented by the accumulation value series obtained by accumulating the pixel values is the pixel value projection waveform to be acquired, but the differentiation is obtained by differentiating the waveform. You may acquire as a pixel value projection waveform used as the object which compares a waveform. For example, when a copy document is used as key image data, if the image data includes a halftone area such as a photograph or drawing, the density value often changes greatly. The peak value of the waveform is often not stable. This is because, even in such a case, the state of the unevenness of the waveform composed of the accumulated value series is maintained in many cases, so it is often preferable to use the differential waveform as the pixel value projection waveform to be compared.

位置情報取得部22は、投影波形取得部21が取得した各画素値投影波形に基づいて、当該画素値投影波形内での波形の変化が特徴的となる位置を表す複数の位置情報を取得する。この位置情報は、本発明における画像特徴情報の一例であって、照合対象画像データの一致度が高くなるような変換パラメタの算出に用いられる。   The position information acquisition unit 22 acquires, based on each pixel value projection waveform acquired by the projection waveform acquisition unit 21, a plurality of position information representing positions where the change in waveform within the pixel value projection waveform is characteristic. . This position information is an example of image feature information in the present invention, and is used for calculation of a conversion parameter that increases the degree of matching of collation target image data.

波形の変化が特徴的となる位置としては、例えば累算値のピーク位置を用いることができる。累算値のピーク位置は、画素値投影波形の極値として算出できる。また、位置情報取得部22は、波形の変化が特徴的となる位置として累算値の最大値や最小値、波形の変曲点などの位置、重心位置、累算値が所定値を取る位置などを用いてもよい。   As the position where the change in waveform is characteristic, for example, the peak position of the accumulated value can be used. The peak position of the accumulated value can be calculated as the extreme value of the pixel value projection waveform. In addition, the position information acquisition unit 22 is a position where the change of the waveform is characteristic, such as the maximum or minimum value of the accumulated value, the position of the inflection point of the waveform, the position of the center of gravity, or the position where the accumulated value takes a predetermined value. Etc. may be used.

ここで、例えば累算値のピーク位置を波形の変化が特徴的となる位置として用いる場合、全てのピーク位置の位置情報を取得しなくともよい。例えば画素値投影波形の高周波成分によって生じるピークは、画像データに含まれるノイズ等によって容易にその数や位置が変動してしまい、画像の特徴を反映していない場合もあり得る。そこで、位置情報取得部22は、このようなピークを前述した特許文献1に記載された方法などによって除外したうえで、ピーク位置を表す位置情報を取得することとしてもよい。   Here, for example, when the peak position of the accumulated value is used as a position where the waveform change is characteristic, the position information of all the peak positions may not be acquired. For example, the number and position of peaks generated by high-frequency components of the pixel value projection waveform can be easily fluctuated due to noise or the like included in the image data, and the characteristics of the image may not be reflected. Therefore, the position information acquisition unit 22 may acquire position information representing the peak position after excluding such a peak by the method described in Patent Document 1 described above.

位置情報取得部22は、投影波形取得部21と同様に、取得した画素値投影波形に対して演算を行って位置情報を取得してもよいし、あるいは予め画像データに対応づけて記憶部12に記憶された位置情報を読み出すことで取得してもよい。一例として、図8に例示するような画素値投影波形に対してピーク位置を表す位置情報を取得する場合、位置情報取得部22は、α,β及びγの値をそれぞれ位置情報として取得する。   Similar to the projection waveform acquisition unit 21, the position information acquisition unit 22 may perform operation on the acquired pixel value projection waveform to acquire position information, or may store the storage unit 12 in association with image data in advance. You may acquire by reading the positional information memorize | stored in. As an example, when acquiring position information representing a peak position with respect to a pixel value projection waveform as illustrated in FIG. 8, the position information acquisition unit 22 acquires values of α, β, and γ as position information.

直線式決定部23は、照合対象画像データのそれぞれに基づいて取得した画像特徴情報に基づいて、一方の画像データに基づく画像特徴情報を他方の画像データに基づく画像特徴情報に一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を表す関係式を決定する。ここで、当該関係式は、拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間(変換パラメタ平面)上における直線を表す直線式となる。   The linear formula determination unit 23 is configured to match the image feature information based on one image data with the image feature information based on the other image data based on the image feature information acquired based on each of the collation target image data. A relational expression representing a relation between values that can be taken by the enlargement / reduction ratio and the amount of translation, which is a conversion parameter of the conversion, is determined. Here, the relational expression is a linear expression representing a straight line on a two-dimensional space (conversion parameter plane) having coordinate axes respectively corresponding to the scaling ratio and the parallel movement amount.

ここで、拡縮率は、照合対象画像データ間で縮尺が変化していたり、読み取りを行う際に異なる解像度で読み取られて画像サイズが変化したりしている場合に、このような変化を補正するスケーリング処理に用いられるパラメタである。また、平行移動量は、読み取りの際の原稿の位置のずれ等により、画像データに含まれる各画素の全体の位置がずれている場合に、このような位置ずれを補正する平行移動処理に用いられるパラメタである。この変換パラメタを用いて、一方の画素値投影波形に対してスケーリング処理と平行移動処理とを含むアフィン変換処理を行ってから2つの画像データ又は画像データから得られる画素値投影波形を比較することで、本実施形態に係る画像照合装置は、元の画像データに対して拡大や縮小、また平行移動がされた画像データからでも、類似する画像データの検索を行うことができる。ここで、アフィン変換処理の対象となる画像データは、キー画像データであってもよいし、蓄積画像データであってもよい。   Here, the enlargement / reduction ratio corrects such a change when the scale changes between image data to be collated, or when the image size changes due to reading at a different resolution when reading. This parameter is used for scaling processing. The parallel movement amount is used for a parallel movement process for correcting such a positional shift when the entire position of each pixel included in the image data is shifted due to a shift in the position of the document at the time of reading. Parameter. Using this conversion parameter, comparing the pixel value projection waveform obtained from two image data or image data after performing affine transformation processing including scaling processing and translation processing on one pixel value projection waveform Thus, the image collating apparatus according to the present embodiment can search for similar image data from image data that has been enlarged, reduced, or translated with respect to the original image data. Here, the image data to be subjected to the affine transformation process may be key image data or accumulated image data.

具体例として、直線式決定部23は、位置情報取得部22が取得した、キー画像データに対する複数の位置情報と、蓄積画像データに対する複数の位置情報と、からそれぞれ1つずつ位置情報を選択してなる位置情報ペアを複数生成する。そして、当該各位置情報ペアを構成する2つの位置情報を一致させるような変換パラメタが採りうる値の集合を表す直線式を、それぞれ決定する。   As a specific example, the linear equation determination unit 23 selects one piece of position information from each of the plurality of pieces of position information for the key image data and the plurality of pieces of position information for the stored image data acquired by the position information acquisition unit 22. A plurality of position information pairs are generated. Then, a linear expression that represents a set of values that can be taken by a conversion parameter that matches the two pieces of position information constituting each position information pair is determined.

具体的に、直線式決定部23が直線式を決定する処理の例について、以下に説明する。ここでは、拡縮率を変数k、平行移動量を変数sで表し、キー画像データから得られた画素値投影波形のピーク位置の位置情報をp1,p2,p3とする。また、蓄積画像データから得られた画素値投影波形のピーク位置の位置情報をq1,q2,q3とする。   Specifically, an example of processing in which the linear equation determination unit 23 determines a linear equation will be described below. Here, the enlargement / reduction ratio is represented by a variable k, the parallel movement amount is represented by a variable s, and the position information of the peak position of the pixel value projection waveform obtained from the key image data is represented by p1, p2, and p3. Further, the position information of the peak position of the pixel value projection waveform obtained from the accumulated image data is assumed to be q1, q2, q3.

まず直線式決定部23は、複数の位置情報ペアを生成する。直線式決定部23は、照合対象であるキー画像データから得られた位置情報と、蓄積画像データから得られた位置情報と、からそれぞれ1つずつ位置情報を選択することで位置情報ペアを生成できる。ここで、直線式決定部23は可能な全ての組み合わせについて、位置情報ペアを生成してもよいし、所定の条件を満たす位置情報ペアのみを選択することとしてもよい。例えば、2つの位置情報の差が所定の値以上の場合、位置情報ペアとして選択しないこととしてもよい。上述した例においては、直線式決定部23は、位置情報ペアとして例えば(p1,q1),(p1,q2),(p1,q3),(p2,q1),(p2,q2),(p2,q3),(p3,q1),(p3,q2)及び(p3,q3)の9つのペアを生成する。なお、直線式決定部23は、同じ種別の特徴的な位置を表す位置情報を組み合わせて位置情報ペアを生成する必要がある。すなわち、例えば凸ピークと凹ピークのそれぞれについての位置情報を位置情報取得部22が取得している場合、直線式決定部23は、凸ピークの位置情報は凸ピークの位置情報と、凹ピークについては凹ピークの位置情報と、それぞれ組み合わせて位置情報ペアを生成する。   First, the linear equation determination unit 23 generates a plurality of position information pairs. The linear equation determination unit 23 generates a position information pair by selecting position information one by one from position information obtained from key image data to be collated and position information obtained from accumulated image data. it can. Here, the linear equation determination unit 23 may generate position information pairs for all possible combinations, or may select only position information pairs that satisfy a predetermined condition. For example, when the difference between two pieces of position information is greater than or equal to a predetermined value, the position information pair may not be selected. In the above-described example, the linear equation determination unit 23 uses, for example, (p1, q1), (p1, q2), (p1, q3), (p2, q1), (p2, q2), (p2) as position information pairs. , Q3), (p3, q1), (p3, q2) and (p3, q3). The linear equation determination unit 23 needs to generate a position information pair by combining position information representing characteristic positions of the same type. That is, for example, when the position information acquisition unit 22 acquires position information about each of the convex peak and the concave peak, the linear equation determination unit 23 determines the position information of the convex peak as the position information of the convex peak and the concave peak. Generates a position information pair in combination with the position information of the concave peak.

この複数の位置情報ペアに基づいて、当該各位置情報ペアに属する2つの位置情報を一致させるような変換パラメタが採りうる値の集合を表す直線式を、それぞれ決定できる。ここで、位置情報ペアに含まれるキー画像データの位置情報をpi、蓄積画像データの位置情報をqiとする。キー画像データの画素値投影波形に対して拡縮率k及び平行移動量sを用いてスケーリング処理及び平行移動処理を行った結果、キー画像データの画素値投影波形におけるピーク位置piと、蓄積画像データの画素値投影波形におけるピーク位置qiとが一致したとする。この場合、このような拡縮率k及び平行移動量sは、以下の関係式を満たすこととなる。
qi=k・pi+s
この関係式を変形することにより、以下のような変換パラメタ平面上における直線式が得られる。
s=−pi・k+qi
直線式決定部23は、生成した各位置情報ペアに対して、このような直線式を決定する。
Based on the plurality of position information pairs, linear expressions representing sets of values that can be taken by conversion parameters that match two position information belonging to each position information pair can be determined. Here, it is assumed that the position information of the key image data included in the position information pair is pi and the position information of the stored image data is qi. As a result of performing scaling processing and translation processing using the scaling factor k and the translation amount s on the pixel value projection waveform of the key image data, the peak position pi in the pixel value projection waveform of the key image data and the accumulated image data It is assumed that the peak position qi in the pixel value projection waveform of coincides. In this case, the expansion / contraction rate k and the parallel movement amount s satisfy the following relational expression.
qi = k · pi + s
By transforming this relational expression, the following linear expression on the conversion parameter plane is obtained.
s = −pi · k + qi
The linear equation determination unit 23 determines such a linear equation for each generated position information pair.

このようにして決定した複数の直線式を変換パラメタ平面上に描画した場合、理想的には多くの直線が交差する座標が求められる。この座標値(k,s)を用いて一方の画素値投影波形に対してアフィン変換を行えば、類似する2つの画像から生成された2つの画素値投影波形において、各ピーク位置は一致するはずである。しかしながら、演算の誤差等の要因により、各直線式から求められるkやsは必ずしも一致しない。そこで、複数の直線式に基づいて、2つの画像データの一致度が高くなるような変換パラメタを推測する必要がある。   When a plurality of linear expressions determined in this way are drawn on the conversion parameter plane, ideally, coordinates at which many straight lines intersect are obtained. If affine transformation is performed on one pixel value projection waveform using this coordinate value (k, s), the peak positions should match in two pixel value projection waveforms generated from two similar images. It is. However, k and s obtained from each linear equation do not necessarily match due to factors such as calculation errors. Therefore, it is necessary to estimate a conversion parameter that increases the degree of coincidence between the two image data based on a plurality of linear expressions.

本実施の形態において特徴的なことは、この変換パラメタを算出する際に、クラスタリング処理により決定した交点群を用いることである。すなわち、本実施の形態においては、交点群決定部24が、直線式決定部23が決定した複数の直線の交点に対して、クラスタリング処理を実行して当該各交点を分類する。そして、分類した結果得られる交点群(交点クラスタ)の中から、求めるべき変換パラメタの位置座標に対応すると考えられる少なくとも一つの候補交点群を決定する。交点群決定部24が決定した交点群は、変換パラメタ算出部25による変換パラメタの算出に用いられる。これにより、本実施形態に係る画像照合装置は、変換パラメタ平面上にノイズとして生じてしまった交点を候補交点群から除外することで、2つの画像データの一致度が高くなるような変換パラメタを精度よく求めることができる。   What is characteristic in the present embodiment is that the intersection point group determined by the clustering process is used when calculating the conversion parameter. That is, in the present embodiment, the intersection group determination unit 24 performs clustering processing on the intersections of a plurality of straight lines determined by the linear equation determination unit 23 to classify the intersections. Then, at least one candidate intersection group that is considered to correspond to the position coordinates of the conversion parameter to be obtained is determined from the intersection group (intersection cluster) obtained as a result of the classification. The intersection group determined by the intersection group determination unit 24 is used for calculation of the conversion parameter by the conversion parameter calculation unit 25. Thereby, the image collation device according to the present embodiment excludes the intersection that has been generated as noise on the conversion parameter plane from the candidate intersection group, so that the conversion parameter that increases the degree of coincidence of the two image data is obtained. It can be obtained with high accuracy.

ここで、交点群決定部24は、まず変換パラメタ平面上において所定の条件を満たす領域を、求めるべき変換パラメタが存在すると推定される候補領域として決定することとしてもよい。具体例として、交点群決定部24は、例えば特許文献1において示されるように、投影波形取得部21が取得した画素値投影波形の幅や重心の情報に基づいて、候補領域を決定する。この候補領域に含まれる交点のみを用いてクラスタリング処理を実行することで、本実施形態に係る画像照合装置は変換パラメタ算出の際の演算量を低減でき、また誤った変換パラメタを求めるべき変換パラメタとして決定することを避けることができる。   Here, the intersection group determination unit 24 may first determine an area that satisfies a predetermined condition on the conversion parameter plane as a candidate area that is estimated to have a conversion parameter to be obtained. As a specific example, as shown in Patent Document 1, for example, the intersection group determination unit 24 determines a candidate region based on information on the width and the center of gravity of the pixel value projection waveform acquired by the projection waveform acquisition unit 21. By executing the clustering process using only the intersections included in this candidate area, the image matching apparatus according to the present embodiment can reduce the amount of calculation when calculating the conversion parameter, and the conversion parameter for which an incorrect conversion parameter should be obtained. Can be avoided as determined.

また、交点群決定部24は、変換パラメタ平面を複数の単位領域(セル)に分割して量子化することで、この複数の単位領域の中から候補領域を決定してもよい。この場合、例えば交点群決定部24は、変換パラメタ平面を拡縮率及び平行移動量の座標軸方向に沿ってそれぞれ所定の長さごとに分割することで、所定の大きさの矩形領域からなる単位領域に変換パラメタ平面を分割する。図3は、このような単位領域に分割された変換パラメタ平面の例を示す説明図である。図3の例においては、平面上の実線で表された直線は直線式決定部23が決定した直線式により表される直線の例を示しており、図中の二点鎖線が各単位領域の境界線を表している。   Further, the intersection group determination unit 24 may determine a candidate region from among the plurality of unit regions by dividing the transformation parameter plane into a plurality of unit regions (cells) and quantizing them. In this case, for example, the intersection group determination unit 24 divides the conversion parameter plane into predetermined unit lengths along the coordinate axis direction of the enlargement / reduction ratio and the parallel movement amount, so that a unit region composed of a rectangular region having a predetermined size is obtained. Divide the transformation parameter plane into. FIG. 3 is an explanatory diagram showing an example of the conversion parameter plane divided into such unit areas. In the example of FIG. 3, a straight line represented by a solid line on the plane indicates an example of a straight line represented by the linear formula determined by the linear formula determining unit 23, and a two-dot chain line in the diagram represents each unit region. Represents a boundary line.

そして、交点群決定部24は、複数の単位領域のうち、当該単位領域を通過する直線に基づいて選択した少なくとも一つの単位領域を、候補領域(候補単位領域)として選択する。例えば交点群決定部24は、通過する直線の数が最も多い単位領域を候補単位領域として選択する。あるいは、直線の数が多い順に所定の数の単位領域を候補単位領域として選択してもよい。一例として、図3の例においては、最も多くの直線が通過する単位領域である、図中において斜線で表される単位領域を、候補単位領域として選択する。   Then, the intersection group determination unit 24 selects, as a candidate area (candidate unit area), at least one unit area selected based on a straight line passing through the unit area among the plurality of unit areas. For example, the intersection group determination unit 24 selects a unit region having the largest number of straight lines passing as a candidate unit region. Alternatively, a predetermined number of unit areas may be selected as candidate unit areas in order of increasing number of straight lines. As an example, in the example of FIG. 3, a unit region that is the unit region through which the most straight lines pass and is represented by hatching in the drawing is selected as a candidate unit region.

次に、交点群決定部24は、直線式決定部23が決定した複数の直線式から得られる全ての交点、又は上述した候補領域に含まれる交点に対して、当該各交点を分類するクラスタリング処理を実行する。ここで、クラスタリング処理の方法としては、例えば階層的クラスタリングや、K平均法などの公知の方法を用いることができる。   Next, the intersection group determination unit 24 classifies the intersections for all the intersections obtained from the plurality of linear equations determined by the linear equation determination unit 23 or the intersections included in the candidate area described above. Execute. Here, as a clustering processing method, for example, a known method such as hierarchical clustering or a K-average method can be used.

図4は、変換パラメタ平面上の候補単位領域において、クラスタリング処理によって交点を分類した結果得られる交点群(クラスタ)の一例を表す説明図である。この例においては、候補単位領域内に6つの交点がある。そして、この6つの交点は、クラスタリング処理によって、相対的に距離の近い交点ごとに3つの交点群に分類される。図中の二点差線は、クラスタリング処理によって得られる3つの交点群G1,G2及びG3を表している。   FIG. 4 is an explanatory diagram illustrating an example of an intersection group (cluster) obtained as a result of classifying intersections by clustering processing in the candidate unit region on the conversion parameter plane. In this example, there are six intersections in the candidate unit area. Then, these six intersections are classified into three intersection groups for each intersection having a relatively close distance by the clustering process. A two-point difference line in the figure represents three intersection groups G1, G2, and G3 obtained by the clustering process.

さらに交点群決定部24は、分類した結果得られる交点群の中から、求めるべき変換パラメタの位置座標に対応すると考えられる少なくとも一つの交点群を候補交点群として決定する。一例として、交点群決定部24は、最も多数の交点を含む交点群を候補交点群に決定する。例えば図4の例においては、最も多数の交点を含む交点群である交点群G1を候補交点群に決定する。あるいは、交点群決定部24は、交点の数の多い順に所定の数の交点群を候補交点群に決定してもよい。さらに、変換パラメタ平面上において交点群が占める範囲が所定の大きさ以上の場合には、候補交点群から除外することとしてもよい。例えば、交点群に含まれる各交点間の距離の最大値が所定の値を超える場合には、候補交点群として選択しないこととする。   Further, the intersection group determination unit 24 determines, as candidate intersection groups, at least one intersection group considered to correspond to the position coordinates of the conversion parameter to be obtained from the intersection groups obtained as a result of the classification. As an example, the intersection group determination unit 24 determines an intersection group including the largest number of intersections as a candidate intersection group. For example, in the example of FIG. 4, an intersection group G1, which is an intersection group including the largest number of intersections, is determined as a candidate intersection group. Alternatively, the intersection group determination unit 24 may determine a predetermined number of intersection groups as candidate intersection groups in descending order of the number of intersections. Furthermore, when the range occupied by the intersection group on the conversion parameter plane is a predetermined size or more, it may be excluded from the candidate intersection group. For example, when the maximum value of the distance between the intersections included in the intersection group exceeds a predetermined value, the candidate intersection group is not selected.

なお、複数の候補単位領域に含まれる交点に対してクラスタリング処理を実行する場合、交点群決定部24は、各候補単位領域に含まれる交点に対してそれぞれ別々にクラスタリング処理を実行し、複数の交点群を決定してもよい。あるいは、複数の候補単位領域のうち、隣接する候補単位領域については、当該隣接する候補単位領域に含まれる全ての交点に対してクラスタリング処理を実行してもよい。   When performing clustering processing on intersections included in a plurality of candidate unit regions, the intersection group determination unit 24 separately performs clustering processing on intersections included in each candidate unit region, An intersection group may be determined. Alternatively, the clustering process may be performed on all the intersection points included in the adjacent candidate unit regions for the adjacent candidate unit regions among the plurality of candidate unit regions.

一例として、図5に示す二つの隣接する候補単位領域A1及びA2の例について説明する。ここで、候補単位領域A1及びA2のそれぞれに含まれる交点について、別々にクラスタリング処理を実行した場合に、例えば候補単位領域A1に含まれる各交点に基づいて、交点群G4及びG5が得られたとする。また、候補単位領域A2に含まれる各交点に基づいて、交点群G6,G7及びG8が得られたとする。ここで、各交点群の重心位置を算出し、当該算出した重心位置間の距離をそれぞれ算出する。そして、重心位置間の距離が所定の値以下になる交点群については、一つの交点群であるものとみなす。図5の例においては、例えばG5とG6を一つの交点群G9として統合する。これにより、単位領域により分割されてしまった交点群についても、一つの交点群とすることができる。一方、隣接する候補単位領域に含まれる全ての交点に対してクラスタリング処理を実行する場合、クラスタリング処理により、例えば交点群G4,G7,G8及びG9が得られたとする。この場合には、得られた交点群をそのまま用いて、候補交点群を決定すればよい。   As an example, an example of two adjacent candidate unit areas A1 and A2 shown in FIG. 5 will be described. Here, when the clustering process is separately performed for the intersections included in each of the candidate unit areas A1 and A2, for example, the intersection groups G4 and G5 are obtained based on the respective intersections included in the candidate unit area A1. To do. Further, it is assumed that intersection groups G6, G7, and G8 are obtained based on each intersection included in the candidate unit region A2. Here, the barycentric position of each intersection group is calculated, and the distance between the calculated barycentric positions is calculated. An intersection group in which the distance between the center of gravity positions is equal to or less than a predetermined value is regarded as one intersection group. In the example of FIG. 5, for example, G5 and G6 are integrated as one intersection group G9. Thereby, the intersection group which has been divided by the unit area can also be made into one intersection group. On the other hand, when the clustering process is executed for all the intersections included in the adjacent candidate unit areas, for example, the intersection groups G4, G7, G8, and G9 are obtained by the clustering process. In this case, the candidate intersection group may be determined using the obtained intersection group as it is.

変換パラメタ算出部25は、交点群決定部24が決定した候補交点群に属する各交点の位置に基づいて、キー画像データと、蓄積画像データとの一致度が高くなる変換パラメタの値(拡縮率k及び平行移動量sの値)を算出する。具体的には、例えば候補交点群に属する各交点の重心位置を算出することにより、変換パラメタの値を決定する。なお、交点群決定部24が複数の交点群を候補交点群として決定した場合には、それぞれの候補交点群に基づいて、複数の変換パラメタの値を算出する。   Based on the position of each intersection belonging to the candidate intersection group determined by the intersection group determination unit 24, the conversion parameter calculation unit 25 converts the conversion parameter value (scaling rate) that increases the degree of coincidence between the key image data and the accumulated image data. k and the value of the translation amount s). Specifically, for example, the value of the conversion parameter is determined by calculating the gravity center position of each intersection belonging to the candidate intersection group. In addition, when the intersection group determination part 24 determines a some intersection group as a candidate intersection group, the value of a some conversion parameter is calculated based on each candidate intersection group.

画像照合部26は、変換パラメタ算出部25が算出した変換パラメタを用いて、キー画像データと蓄積画像データとの間の画像照合処理を行う。例えば画像照合部26は、変換パラメタ算出部25が算出した変換パラメタが複数ある場合、それぞれの変換パラメタに基づいてキー画像データの画素値投影波形に対してアフィン変換処理を行う。次いで、アフィン変換されたキー画像データの画素値投影波形と、蓄積画像データの画素値投影波形と、の相関値を、照合対象画像データの一致度を表すパラメタとして算出する。そして、画像照合部26は、当該算出した一致度が最も高くなる変換パラメタを、求めるべき変換パラメタとして決定する。   The image matching unit 26 uses the conversion parameter calculated by the conversion parameter calculation unit 25 to perform image matching processing between the key image data and the stored image data. For example, when there are a plurality of conversion parameters calculated by the conversion parameter calculation unit 25, the image collation unit 26 performs an affine conversion process on the pixel value projection waveform of the key image data based on each conversion parameter. Next, a correlation value between the pixel value projection waveform of the key image data subjected to the affine transformation and the pixel value projection waveform of the accumulated image data is calculated as a parameter representing the degree of matching of the collation target image data. Then, the image collation unit 26 determines the conversion parameter with the highest degree of coincidence calculated as the conversion parameter to be obtained.

さらに、決定した変換パラメタによりキー画像データそのものに対するアフィン変換を行い、アフィン変換されたキー画像データと、蓄積画像データと、が類似するか否かをより詳細に判定することとしてもよい。ここで、画像照合部26は、各照合対象画像データの垂直方向及び水平方向それぞれの画素値投影波形を比較して得られたそれぞれの方向についての変換パラメタを用いて、アフィン変換を実行することとしてもよい。あるいは、画像照合部26は、アフィン変換されたキー画像データの画素値投影波形と、蓄積画像データの画素値投影波形と、の間の相関値が所定の条件を満たすか否かによって、直ちに2つの画像データが類似するか否かを判定してもよい。画像照合部26が行う画像照合処理は、具体的には、例えば特許文献1に記載された方法により実現できる。   Furthermore, affine transformation may be performed on the key image data itself using the determined transformation parameter, and it may be determined in more detail whether or not the affine-transformed key image data and the stored image data are similar. Here, the image matching unit 26 performs affine transformation using the transformation parameters for the respective directions obtained by comparing the pixel value projection waveforms in the vertical direction and the horizontal direction of the respective pieces of matching target image data. It is good. Alternatively, the image collating unit 26 immediately determines whether the correlation value between the pixel value projection waveform of the key image data subjected to affine transformation and the pixel value projection waveform of the accumulated image data satisfies a predetermined condition or not. It may be determined whether two pieces of image data are similar. Specifically, the image matching process performed by the image matching unit 26 can be realized by a method described in Patent Document 1, for example.

ここで、本実施形態に係る画像照合装置が実行する処理の例について、図6のフロー図に基づいて説明する。なお、このフローの例においては、蓄積画像データの水平方向及び垂直方向の画素値投影波形が、それぞれ予め記憶部12に記憶されているものとする。   Here, an example of processing executed by the image collating apparatus according to the present embodiment will be described based on the flowchart of FIG. In this flow example, it is assumed that pixel value projection waveforms in the horizontal direction and vertical direction of accumulated image data are stored in the storage unit 12 in advance.

まず投影波形取得部21が、画像読み取り部13が読み取った画像の画像データをキー画像データとして取得する(S1)。そして、S1で取得したキー画像データに基づいて、水平方向及び垂直方向のいずれかを画素値投影波形を生成する際に投影を行う所定方向として決定する(S2)。さらに投影波形取得部21は、S2で決定した方向について、キー画像データの画素値投影波形を生成することで、取得する(S3)。   First, the projection waveform acquisition unit 21 acquires image data of an image read by the image reading unit 13 as key image data (S1). Then, based on the key image data acquired in S1, either the horizontal direction or the vertical direction is determined as a predetermined direction for projection when generating a pixel value projection waveform (S2). Furthermore, the projection waveform acquisition unit 21 acquires the pixel value projection waveform of the key image data for the direction determined in S2 (S3).

次に、位置情報取得部22が、記憶部12に記憶された照合対象となる蓄積画像データの画素値投影波形と、S3で取得したキー画像データの画素値投影波形と、に基づいて、それぞれのピーク位置を表す位置情報を算出し、取得する(S4)。次に、直線式決定部23が、S4で取得した位置情報に基づいて複数の位置情報ペアを生成することで、直線式を決定する(S5)。   Next, the position information acquisition unit 22 is based on the pixel value projection waveform of the accumulated image data to be collated stored in the storage unit 12 and the pixel value projection waveform of the key image data acquired in S3, respectively. The position information representing the peak position is calculated and acquired (S4). Next, the linear equation determination unit 23 determines a linear equation by generating a plurality of position information pairs based on the position information acquired in S4 (S5).

続いて、交点群決定部24が、S5で決定した各直線式に基づいて、当該直線式によって表される各直線の交点の位置座標を算出する(S6)。さらに、所定の条件に基づいて変換パラメタ平面上の候補領域を決定し、当該決定した候補領域に含まれる交点の位置座標を、S6で算出した位置座標の中から選択する(S7)。そして、S7で選択した交点をクラスタリング処理により分類し、分類して得られる交点群の中から候補交点群を決定する(S8)。   Subsequently, the intersection group determination unit 24 calculates the position coordinates of the intersection of each straight line represented by the straight line expression based on each straight line expression determined in S5 (S6). Further, a candidate area on the conversion parameter plane is determined based on a predetermined condition, and the position coordinates of the intersection included in the determined candidate area are selected from the position coordinates calculated in S6 (S7). Then, the intersections selected in S7 are classified by clustering processing, and candidate intersection groups are determined from the intersection groups obtained by classification (S8).

次に、変換パラメタ算出部25が、S8で決定した候補交点群に基づいて、変換パラメタを算出する(S9)。さらに、画像照合部26が、S9で算出した変換パラメタに基づいて変換処理を実行したキー画像データと、蓄積画像データとの間の一致度を算出する(S10)。このS9及びS10の処理は、S8で決定した候補交点群が複数ある場合には、全ての候補交点群について繰り返される。   Next, the conversion parameter calculation unit 25 calculates a conversion parameter based on the candidate intersection group determined in S8 (S9). Further, the image collation unit 26 calculates the degree of coincidence between the key image data that has been subjected to the conversion process based on the conversion parameter calculated in S9 and the stored image data (S10). The processes of S9 and S10 are repeated for all candidate intersection groups when there are a plurality of candidate intersection groups determined in S8.

そして、画像照合部26は、S8で決定した全ての候補交点群についてS10で算出された一致度を比較して最も高い一致度を選択し、この一致度に基づいて画像が類似するか否かの判定を行い、結果を出力する(S11)。例えば、一致度が所定の値以下の場合、画像データは類似しないと判定し、キー画像データと蓄積画像データとの間の照合処理を終了する。一方、類似すると判定した場合には、照合対象として蓄積画像データを検索結果候補に含めて、照合処理を終了する。この処理を記憶部12に記憶された全ての画像データについて行うことで、本実施形態に係る画像照合装置はキー画像データに類似する画像データを検索結果候補として抽出し、表示部14に表示させるなどの方法で検索結果としてユーザに提示できる。   Then, the image matching unit 26 selects the highest matching score by comparing the matching scores calculated in S10 for all candidate intersection groups determined in S8, and determines whether the images are similar based on the matching score. And the result is output (S11). For example, if the degree of coincidence is equal to or less than a predetermined value, it is determined that the image data is not similar, and the matching process between the key image data and the stored image data is terminated. On the other hand, if it is determined that they are similar, the stored image data is included as a collation target in the search result candidate, and the collation process is terminated. By performing this processing for all the image data stored in the storage unit 12, the image collation apparatus according to the present embodiment extracts image data similar to the key image data as search result candidates and causes the display unit 14 to display the extracted image data. Etc., and can be presented to the user as a search result.

以上説明した本実施の形態によれば、変換パラメタ平面上において変換パラメタが採りうる値の関係を表す複数の直線式を決定し、当該直線式の交点を分類するクラスタリング処理を実行してノイズとして生じてしまった交点を除外することで、照合対象となる2つの画像データの一致度が高くなるような変換パラメタを精度よく求めることができる。これにより、本実施形態に係る画像照合装置は、画像照合の精度を向上できる。   According to the present embodiment described above, a plurality of linear expressions representing the relationship between values that can be taken by the conversion parameter on the conversion parameter plane are determined, and the clustering process for classifying the intersections of the linear expressions is performed as noise. By excluding intersections that have occurred, it is possible to accurately obtain a conversion parameter that increases the degree of coincidence between two image data to be collated. Thereby, the image collation apparatus according to the present embodiment can improve the accuracy of image collation.

なお、本発明は上記実施形態に限定されるものではない。例えば本発明の実施の形態に係る画像照合装置は、照合対象となる画像データとして、記憶部12に予め蓄積された画像データや画像読み取り部13によって読み取られた画像データだけでなく、例えば通信ネットワーク経由で取得した画像データなど、種々の画像データを用いることができる。   The present invention is not limited to the above embodiment. For example, the image collation apparatus according to the embodiment of the present invention includes not only image data stored in advance in the storage unit 12 or image data read by the image reading unit 13 as image data to be collated, but also a communication network, for example. Various image data such as image data acquired via the network can be used.

また、上記説明においては画像特徴情報として画素値投影波形に基づいて得られる位置情報を用いる場合の例について説明したが、本発明の実施の形態において用いることのできる画像特徴情報はこれに限られない。例えば、画像データ上から所定の条件に基づいて選択された特徴点の位置座標など、照合対象画像データ間で対応付けができる位置に関する情報を用いることができる。   In the above description, an example in which position information obtained based on a pixel value projection waveform is used as image feature information has been described. However, image feature information that can be used in the embodiment of the present invention is limited to this. Absent. For example, it is possible to use information relating to positions that can be matched between matching target image data, such as position coordinates of feature points selected based on predetermined conditions from image data.

本発明の実施の形態に係る画像照合装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the image collation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像照合装置の機能を表す機能ブロック図である。It is a functional block diagram showing the function of the image collation device concerning an embodiment of the invention. 単位領域に分割された変換パラメタ平面の例を表す説明図である。It is explanatory drawing showing the example of the conversion parameter plane divided | segmented into the unit area. 変換パラメタ平面上において、交点群に分類された交点の一例を表す説明図である。It is explanatory drawing showing an example of the intersection classified into the intersection group on the conversion parameter plane. 変換パラメタ平面上の二つの隣接する候補単位領域において、交点群に分類された交点の一例を表す説明図である。It is explanatory drawing showing an example of the intersection classified into the intersection group in two adjacent candidate unit area | regions on a conversion parameter plane. 本発明の実施の形態に係る画像照合装置によって実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed by the image collation apparatus which concerns on embodiment of this invention. 画像データから累算値を算出する際の所定方向の一例を表す説明図である。It is explanatory drawing showing an example of the predetermined direction at the time of calculating an accumulated value from image data. 画像データから生成される画素値投影波形の一例を表す説明図である。It is explanatory drawing showing an example of the pixel value projection waveform produced | generated from image data.

符号の説明Explanation of symbols

11 制御部、12 記憶部、13 画像読み取り部、14 表示部、21 投影波形取得部、22 位置情報取得部、23 直線式決定部、24 交点群決定部、25 変換パラメタ算出部、26 画像照合部。   DESCRIPTION OF SYMBOLS 11 Control part, 12 Memory | storage part, 13 Image reading part, 14 Display part, 21 Projection waveform acquisition part, 22 Position information acquisition part, 23 Linear formula determination part, 24 Intersection group determination part, 25 Conversion parameter calculation part, 26 Image collation Department.

Claims (4)

第1画像データと第2画像データとの照合を行う画像照合装置であって、
前記第1及び第2画像データのそれぞれに対し、当該画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形の変化が特徴的となる位置を表す位置情報を取得する取得手段と、
前記第1画像データから得られた複数の位置情報のそれぞれを前記第2画像データから得られた複数の位置情報のそれぞれに一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す複数の直線式を決定する直線式決定手段と、
前記決定した複数の直線式により表される直線のうち、前記2次元空間を分割して得られる複数の単位領域のそれぞれを通過する直線の本数に基づいて、前記複数の単位領域から少なくとも一つの候補単位領域を選択する候補単位領域選択手段と、
前記決定した複数の直線式の交点のうち、前記選択された候補単位領域に含まれる複数の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定する手段であって、前記候補単位領域選択手段が互いに隣接する複数の候補単位領域を選択した場合には、当該隣接する複数の候補単位領域に含まれる全ての交点を対象としてクラスタリング処理を実行する交点群決定手段と、
前記決定した候補交点群に属する複数の交点の重心位置の前記2次元空間内における座標値を、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値として算出する変換パラメタ算出手段と、
を含み、
前記算出した拡縮率及び平行移動量を用いてアフィン変換された前記第1画像データと前記第2画像データとの照合処理を行うことを特徴とする画像照合装置。
An image collation device that collates first image data and second image data,
Position information representing the position at which the change in the pixel value projection waveform obtained by accumulating the pixel value of each pixel included in the image data in a predetermined direction is characteristic for each of the first and second image data Obtaining means for obtaining
A scaling factor and a translation amount, which are transformation parameters of affine transformation that match each of a plurality of position information obtained from the first image data with each of a plurality of position information obtained from the second image data. a linear equation determining means that determine a plurality of linear equation expressed as a straight line on the two-dimensional space having the coordinate axes is the relationship between possible values, corresponding respectively to the scaling factor and the amount of parallel movement,
Based on the number of straight lines passing through each of the plurality of unit regions obtained by dividing the two-dimensional space among the plurality of straight lines represented by the determined plurality of linear equations, at least one from the plurality of unit regions. Candidate unit region selection means for selecting a candidate unit region;
A clustering process for classifying each intersection is performed on a plurality of intersections included in the selected candidate unit region among the plurality of determined intersections of the linear expressions, and at least one including a plurality of intersections Means for determining an intersection group as a candidate intersection group, and when the candidate unit region selection unit selects a plurality of adjacent candidate unit regions, all the intersection points included in the plurality of adjacent candidate unit regions Intersection point group determining means for performing clustering processing for
The coordinate values in the two-dimensional space of the center- of- gravity positions of a plurality of intersections belonging to the determined candidate intersection group are used as the enlargement / reduction ratio and translation that increase the degree of coincidence between the first image data and the second image data. Conversion parameter calculation means for calculating the value of the quantity;
Including
An image collation apparatus that performs collation processing between the first image data and the second image data that have been affine transformed using the calculated scaling ratio and parallel movement amount.
請求項に記載の画像照合装置において、
前記波形の変化が特徴的となる位置は、前記画素値投影波形内での波形のピークを表す位置であることを特徴とする画像照合装置。
The image collation apparatus according to claim 1 ,
The position where the change of the waveform is characteristic is a position representing the peak of the waveform in the pixel value projection waveform.
コンピュータを用いて、第1画像データと第2画像データとの照合を行う画像照合方法であって、
前記第1及び第2画像データのそれぞれに対し、当該画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形の変化が特徴的となる位置を表す位置情報を取得する取得ステップと、
前記第1画像データから得られた複数の位置情報のそれぞれを前記第2画像データから得られた複数の位置情報のそれぞれに一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す複数の直線式を決定するステップと、
前記決定した複数の直線式により表される直線のうち、前記2次元空間を分割して得られる複数の単位領域のそれぞれを通過する直線の本数に基づいて、前記複数の単位領域から少なくとも一つの候補単位領域を選択する候補単位領域選択ステップと、
前記決定した複数の直線式の交点のうち、前記選択された候補単位領域に含まれる複数の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定するステップであって、前記候補単位領域選択ステップで互いに隣接する複数の候補単位領域が選択された場合には、当該隣接する複数の候補単位領域に含まれる全ての交点を対象としてクラスタリング処理を実行するステップと、
前記決定した候補交点群に属する複数の交点の重心位置の前記2次元空間内における座標値を、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値として算出するステップと、
を含み、
前記算出した拡縮率及び平行移動量を用いてアフィン変換された前記第1画像データと前記第2画像データとの照合処理を行うことを特徴とする画像照合方法。
An image collation method for collating first image data and second image data using a computer,
Position information representing the position at which the change in the pixel value projection waveform obtained by accumulating the pixel value of each pixel included in the image data in a predetermined direction is characteristic for each of the first and second image data An acquisition step to acquire,
A scaling factor and a translation amount, which are transformation parameters of affine transformation that match each of a plurality of position information obtained from the first image data with each of a plurality of position information obtained from the second image data. a step of determine a plurality of linear equation expressed as a straight line on the two-dimensional space having the coordinate axes is the relationship between possible values, corresponding respectively to the scaling factor and the amount of parallel movement,
Based on the number of straight lines passing through each of the plurality of unit regions obtained by dividing the two-dimensional space among the plurality of straight lines represented by the determined plurality of linear equations, at least one from the plurality of unit regions. A candidate unit region selection step for selecting a candidate unit region;
A clustering process for classifying each intersection is performed on a plurality of intersections included in the selected candidate unit region among the plurality of determined intersections of the linear expressions, and at least one including a plurality of intersections A step of determining an intersection group as a candidate intersection group, and when a plurality of candidate unit regions adjacent to each other are selected in the candidate unit region selection step, all of the candidate unit regions included in the adjacent plurality of candidate unit regions are selected. Performing a clustering process on the intersection ;
The coordinate values in the two-dimensional space of the center- of- gravity positions of a plurality of intersections belonging to the determined candidate intersection group are used as the enlargement / reduction ratio and translation that increase the degree of coincidence between the first image data and the second image data. Calculating as a quantity value;
Including
Image matching method and performing matching processing between the affine converted first image data and the second image data by using the scaling ratio and amount of translation and the calculated.
第1及び第2画像データのそれぞれに対し、当該画像データに含まれる各画素の画素値を所定方向に累算して得られる画素値投影波形の変化が特徴的となる位置を表す位置情報を取得する取得手段、
前記第1画像データから得られた複数の位置情報のそれぞれを前記第2画像データから得られた複数の位置情報のそれぞれに一致させるようなアフィン変換の変換パラメタである、拡縮率及び平行移動量が採りうる値の関係を、当該拡縮率及び平行移動量にそれぞれ対応する座標軸を有する2次元空間上における直線として表す複数の直線式を決定する直線式決定手段、
前記決定した複数の直線式により表される直線のうち、前記2次元空間を分割して得られる複数の単位領域のそれぞれを通過する直線の本数に基づいて、前記複数の単位領域から少なくとも一つの候補単位領域を選択する候補単位領域選択手段、
前記決定した複数の直線式の交点のうち、前記選択された候補単位領域に含まれる複数の交点に対して、当該各交点を分類するクラスタリング処理を実行して、複数の交点を含む少なくとも一つの交点群を候補交点群として決定する手段であって、前記候補単位領域選択手段が互いに隣接する複数の候補単位領域を選択した場合には、当該隣接する複数の候補単位領域に含まれる全ての交点を対象としてクラスタリング処理を実行する交点群決定手段
記決定した候補交点群に属する複数の交点の重心位置の前記2次元空間内における座標値を、前記第1画像データと、前記第2画像データとの一致度が高くなる前記拡縮率及び平行移動量の値として算出する変換パラメタ算出手段、及び
前記算出した拡縮率及び平行移動量を用いてアフィン変換された前記第1画像データと前記第2画像データとの照合処理を行う手段、
としてコンピュータを機能させることを特徴とするプログラム。
For each of the first and second image data, position information representing a position where a change in the pixel value projection waveform obtained by accumulating the pixel value of each pixel included in the image data in a predetermined direction is characteristic. Acquisition means to acquire,
A scaling factor and a translation amount, which are transformation parameters of affine transformation that match each of a plurality of position information obtained from the first image data with each of a plurality of position information obtained from the second image data. linear equation determining means that determine a plurality of linear equation expressed as a straight line on the two-dimensional space having the respective axes of the relationship between the value which can take, in the scaling factor and the amount of parallel movement,
Based on the number of straight lines passing through each of the plurality of unit regions obtained by dividing the two-dimensional space among the plurality of straight lines represented by the determined plurality of linear equations, at least one from the plurality of unit regions. Candidate unit region selection means for selecting a candidate unit region;
A clustering process for classifying each intersection is performed on a plurality of intersections included in the selected candidate unit region among the plurality of determined intersections of the linear expressions, and at least one including a plurality of intersections Means for determining an intersection group as a candidate intersection group, and when the candidate unit region selection unit selects a plurality of adjacent candidate unit regions, all the intersection points included in the plurality of adjacent candidate unit regions intersection points determining means for performing a clustering process as target,
The coordinate values in the two-dimensional space of the center of gravity of the plurality of intersections pertaining to the candidate intersection points from pre Symbol determined, and the first image data, the scaling factor and the parallel degree of coincidence between the second image data is high Conversion parameter calculation means for calculating as a value of movement amount, and means for performing collation processing between the first image data and the second image data that have been affine transformed using the calculated scaling ratio and parallel movement amount ;
A program characterized by causing a computer to function.
JP2006133149A 2006-05-11 2006-05-11 Image collation device, image collation method and program Expired - Fee Related JP4692377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006133149A JP4692377B2 (en) 2006-05-11 2006-05-11 Image collation device, image collation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006133149A JP4692377B2 (en) 2006-05-11 2006-05-11 Image collation device, image collation method and program

Publications (2)

Publication Number Publication Date
JP2007304892A JP2007304892A (en) 2007-11-22
JP4692377B2 true JP4692377B2 (en) 2011-06-01

Family

ID=38838760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006133149A Expired - Fee Related JP4692377B2 (en) 2006-05-11 2006-05-11 Image collation device, image collation method and program

Country Status (1)

Country Link
JP (1) JP4692377B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101284A (en) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> Highly-accurate hough transformation device
JP4140221B2 (en) * 2001-09-18 2008-08-27 富士ゼロックス株式会社 Image collation device and image collation program
JP2003109007A (en) * 2001-09-28 2003-04-11 Fuji Xerox Co Ltd Device, method and program for classifying slip form and image collating device
JP4254204B2 (en) * 2001-12-19 2009-04-15 富士ゼロックス株式会社 Image collation apparatus, image forming apparatus, and image collation program

Also Published As

Publication number Publication date
JP2007304892A (en) 2007-11-22

Similar Documents

Publication Publication Date Title
CN109657629B (en) Text line extraction method and device
JP4928310B2 (en) License plate recognition device, control method thereof, computer program
JP4924165B2 (en) Shape comparison device and shape comparison method
JP5653141B2 (en) Image processing method, image processing apparatus, and program
US9390310B2 (en) Striped pattern image examination support device, striped pattern image examination support method and program
JP4395188B2 (en) Document image recognition apparatus and storage medium for document image recognition program
CN102870399A (en) Segmentation of a word bitmap into individual characters or glyphs during an OCR process
JP6754120B2 (en) Programs, information storage media and character dividers
JP4140221B2 (en) Image collation device and image collation program
JP2011210160A (en) Image processing method, image processor, program and program storage medium
JP4692377B2 (en) Image collation device, image collation method and program
JP4687558B2 (en) Image collation device, image collation method and program
JP7301671B2 (en) Image processing device, information processing method and program
CN113989823A (en) Image table restoration method and system based on OCR coordinates
JP4687557B2 (en) Image collation device and program
JP4867620B2 (en) Image processing apparatus and image processing program
JP4541995B2 (en) Figure recognition method
JP4732392B2 (en) 3D shape data generation method
JP5277498B2 (en) Similar information classification reference device and similar information classification reference method
JP3661774B2 (en) Character string recognition method, character recognition device and program
CN119832576B (en) Picture identification method and system for scanning pen
CN114743013B (en) Local descriptor generation method, device, electronic device and computer program product
CN110674863B (en) Hamming code identification method, device and electronic device
TWI494900B (en) Method of real time image tracking
CN117649675A (en) Table generation method, apparatus, device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees