[go: up one dir, main page]

JP2008005177A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2008005177A
JP2008005177A JP2006172007A JP2006172007A JP2008005177A JP 2008005177 A JP2008005177 A JP 2008005177A JP 2006172007 A JP2006172007 A JP 2006172007A JP 2006172007 A JP2006172007 A JP 2006172007A JP 2008005177 A JP2008005177 A JP 2008005177A
Authority
JP
Japan
Prior art keywords
character
color
image
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006172007A
Other languages
Japanese (ja)
Inventor
Takero Hama
健朗 濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2006172007A priority Critical patent/JP2008005177A/en
Publication of JP2008005177A publication Critical patent/JP2008005177A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor etc., capable of improving recognition precision of a specific pattern by excluding characters from objects to be recognized without adding one-bit information indicating a character. <P>SOLUTION: The image processor includes a character area decision means of deciding a character area from input image data, a pattern recognizing means 204 of recognizing the specific pattern from the input image data, and a control means 203 of performing processing for excluding an area decided as the character area from based upon a character area decision result from objects of specific pattern recognition. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、紙幣、有価証券、機密性書類などの複写が禁止されている原稿の読み取りを防止するのに適したスキャナ、あるいはスキャナで読み取られた画像データをプリントするプリンタ、または、電子写真方式のカラー複写機やMFP(Multi Function peripherals)などの画像形成装置等に適用される画像処理装置に関する。   The present invention relates to a scanner suitable for preventing reading of a manuscript from which copying of banknotes, securities, confidential documents, etc. is prohibited, a printer for printing image data read by the scanner, or an electrophotographic system The present invention relates to an image processing apparatus applied to an image forming apparatus such as a color copying machine or an MFP (Multi Function peripherals).

近年、カラー複写機などの性能が目ざましく進歩し、複写画像の画質が肉眼では見分けがつかないレベルまで向上しているが、一方で、カラー複写機などの悪用、例えば複写機やスキャナなどを使って紙幣や機密書類などが偽造されることが増えつつある。   In recent years, the performance of color copiers has improved remarkably, and the image quality of copied images has improved to a level that cannot be discerned with the naked eye. On the other hand, abuse of color copiers, such as copiers and scanners, has been improved. Banknotes and confidential documents are being forged using them.

このような偽造を防止するために、従来より、スキャナで読み取った原稿画像から特定パターンを抽出することにより、偽造かどうかを判断することが行われているが、特定パターンの抽出に際しては、まず、ある色範囲の画像のみを抽出して二値化処理する技術が知られている。   In order to prevent such forgery, it has heretofore been determined whether a counterfeit is extracted by extracting a specific pattern from an original image read by a scanner. A technique for extracting only an image in a certain color range and performing binarization processing is known.

具体的には、入力されたR,G,B色信号のうちの一色を二値化処理して二値化画像を生成し、その二値化画像を原稿中のマークを構成する形状とのマッチングをとってマーク(特定パターン)の位置情報を抽出し、そのマークが所定の配置になっているかの適合度を判別するようにした技術が開示されている(例えば、特許文献1参照)。
特開平11−234515号公報
Specifically, one of the input R, G, B color signals is binarized to generate a binarized image, and the binarized image has a shape constituting a mark in the document. A technique is disclosed in which the position information of a mark (specific pattern) is extracted by matching and the degree of conformity of whether the mark is in a predetermined arrangement is determined (for example, see Patent Document 1).
Japanese Patent Laid-Open No. 11-234515

しかし、スキャナで読み取った画像から特定のパターンを抽出する場合、画像に文字が含まれていると、この文字をマークと誤認識するおそれがある。   However, when a specific pattern is extracted from an image read by a scanner, if the image includes a character, the character may be erroneously recognized as a mark.

一方、コンパクトPDF(C−PDF)の領域判別機能を利用することで、文字を判別することが可能である。   On the other hand, characters can be discriminated by using the area discrimination function of the compact PDF (C-PDF).

しかし、特定パターンの認識を行うパターン認識部はそのままでは文字であることを認識できないことから、文字と認識させるためには、R,G,B(8ビット×3=24ビット)データとは別に、文字であることを示すための1ビットの情報を付加する必要がある。これでは、情報量が増えて処理時間が長くなるうえ、文字であることを示す情報を認識するための新たな処理も必要となる、といった問題があった。   However, since the pattern recognition unit for recognizing a specific pattern cannot recognize that it is a character as it is, in order to recognize it as a character, separately from R, G, B (8 bits × 3 = 24 bits) data. Therefore, it is necessary to add 1-bit information for indicating a character. This increases the amount of information and increases the processing time, and also requires a new process for recognizing information indicating that it is a character.

この発明は、このような実情に鑑みてなされたものであり、文字であることを示す1ビットの情報を付加しなくても、文字を認識対象から除外して特定パターンの認識精度の向上を図ることができる画像処理装置及び画像処理方法を提供し、さらには画像処理をコンピュータに実行させるための画像処理プログラムを提供することを課題としている。   The present invention has been made in view of such circumstances, and without adding 1-bit information indicating the character, the character is excluded from the recognition target and the recognition accuracy of the specific pattern is improved. It is an object of the present invention to provide an image processing apparatus and an image processing method that can be achieved, and to provide an image processing program for causing a computer to execute image processing.

上記課題は、以下の手段によって解決される。
(1)入力された画像データから文字領域を判別する文字領域判別手段と、入力された画像データから特定パターンを認識するパターン認識手段と、前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行う制御手段と、を備えていることを特徴とする画像処理装置。
(2)前記制御手段は、前記特定パターン認識を行うための色しきい値を抽出し、前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する前項1に記載の画像処理装置。
(3)前記文字領域と判別された領域の文字サイズを識別する文字サイズ識別手段を備え、前記制御手段は、前記文字サイズ識別手段により識別された文字サイズが所定サイズ以下の場合に前記除外処理を行う前項1または2に記載の画像処理装置。
(4)前記パターン認識手段は、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行うものとなされ、前記制御手段は、各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行う前項1〜3のいずれかに記載の画像処理装置。
(5)入力された画像データから文字領域を判別するステップと、入力された画像データから特定パターンを認識するステップと、前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行うステップと、を備えていることを特徴とする画像処理方法。
(6)前記特定パターン認識を行うための色しきい値を抽出するステップを備え、前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する前項5に記載の画像処理方法。
(7)前記文字領域と判別された領域の文字サイズを識別するステップを備え、識別された文字サイズが所定サイズ以下の場合に前記除外処理を行う前項5または6に記載の画像処理方法。
(8)前記パターン認識ステップでは、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行い、各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行う前項5〜7のいずれかに記載の画像処理方法。
(9)入力された画像データから文字領域を判別するステップと、入力された画像データから特定パターンを認識するステップと、前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行うステップと、をコンピュータに実行させるための画像処理プログラム。
(10)前記特定パターン認識を行うための色しきい値を抽出するステップをさらにコンピュータに実行させ、前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する処理をコンピュータに実行させる前項9に記載の画像処理プログラム。
(11)前記文字領域と判別された領域の文字サイズを識別するステップをさらにコンピュータに実行させ、識別された文字サイズが所定サイズ以下の場合に前記除外処理を実行させる前項9または10に記載の画像処理プログラム。
(12)前記パターン認識ステップでは、前記パターン認識ステップでは、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行わせ、各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行わせる前項9〜11のいずれかに記載の画像処理プログラム。
The above problem is solved by the following means.
(1) A character area discriminating unit that discriminates a character area from input image data, a pattern recognition unit that recognizes a specific pattern from input image data, and an area that is discriminated as a character area by the character area discrimination result is: And an image processing apparatus comprising: control means for performing processing for excluding the specific pattern recognition target.
(2) The control means extracts a color threshold for performing the specific pattern recognition, and sets the color data of a pixel determined to be a character area to a value outside the threshold range as the exclusion process. 2. The image processing apparatus according to item 1 above.
(3) Character size identification means for identifying the character size of the area determined to be the character area is provided, and the control means performs the exclusion process when the character size identified by the character size identification means is a predetermined size or less. 3. The image processing apparatus according to 1 or 2 above.
(4) The pattern recognition means compares the data of each color with a threshold range determined for each color, and recognizes a specific pattern when all the data of each color is within the threshold range. The control means performs the exclusion process by setting the data for a color with the narrowest threshold range among the threshold values of each color to a value outside the threshold range. An image processing apparatus according to 1.
(5) a step of discriminating a character region from the input image data; a step of recognizing a specific pattern from the input image data; An image processing method comprising: a step of performing a process of excluding the target to be performed.
(6) A step of extracting a color threshold value for performing the specific pattern recognition, and the color data of a pixel determined to be a character area is set to a value outside the threshold range as the exclusion process. 6. The image processing method according to 5.
(7) The image processing method according to (5) or (6), further including a step of identifying a character size of an area determined as the character area, wherein the exclusion process is performed when the identified character size is a predetermined size or less.
(8) In the pattern recognition step, each color data is compared with a threshold range determined for each color, and when each color data is all within the threshold range, a specific pattern is recognized. 8. The image processing method according to any one of the preceding items 5 to 7, wherein the exclusion process is performed by setting data for a color having the narrowest threshold range among the threshold values to a value outside the threshold range.
(9) a step of determining a character region from the input image data, a step of recognizing a specific pattern from the input image data, and a region determined to be a character region by the character region determination result is the specific pattern recognition An image processing program for causing a computer to execute a step of performing a process of excluding the target to be performed.
(10) Further causing the computer to execute a step of extracting a color threshold value for performing the specific pattern recognition, and as the exclusion process, the color data of the pixel determined to be a character area is a value outside the threshold value range. Item 10. The image processing program according to Item 9, which causes a computer to execute processing to be set in the item.
(11) The method according to (9) or (10), further causing the computer to execute a step of identifying a character size of the area determined to be the character area, and causing the exclusion process to be executed when the identified character size is a predetermined size or less. Image processing program.
(12) In the pattern recognition step, the pattern recognition step compares the data of each color with a threshold range determined for each color, and if the data of each color is all within the threshold range, Any one of the preceding items 9 to 11 in which the recognition processing is performed and the exclusion processing is performed by setting the data of the color with the narrowest threshold range among the threshold values of each color to a value outside the threshold range. The image processing program described in 1.

前項(1)に記載の発明によれば、入力された画像データから文字領域が判別されると、その文字領域が画像データの特定パターン認識対象から除外されるから、特定パターン認識が文字で影響されるようなことがなくなり、高精度に認識できるうえ、文字であることを示す情報を付加する必要もなく、パターン認識処理の時間が長くなることもない。   According to the invention described in item (1) above, when a character area is determined from the input image data, the character area is excluded from the specific pattern recognition target of the image data. Thus, it is possible to recognize with high accuracy, and it is not necessary to add information indicating that it is a character, and the time for pattern recognition processing does not increase.

前項(2)に記載の発明によれば、例えばR,G,Bの色の各しきい値を抽出し、文字領域と判別された色データが抽出されたしきい値の範囲外に設定されるから、比較的簡単な構成で、特定パターン認識のための二値化処理対象から除外することができる。   According to the invention described in (2) above, for example, each threshold value of R, G, and B colors is extracted, and color data determined to be a character area is set outside the extracted threshold value range. Therefore, it can be excluded from binarization processing targets for specific pattern recognition with a relatively simple configuration.

前項(3)に記載の発明によれば、文字領域と判別された領域の文字サイズが所定サイズ以下の場合に、文字領域が除外処理されるから、必要最小限の範囲で除外処理を行いながら、文字が含まれることによる特定パターンの誤認識を確実に排除することができる。   According to the invention described in the above item (3), when the character size of the area determined as the character area is equal to or smaller than the predetermined size, the character area is excluded, so that the exclusion process is performed within the minimum necessary range. Thus, erroneous recognition of a specific pattern due to the inclusion of characters can be reliably eliminated.

前項(4)に記載の発明によれば、パターン認識手段は、各色の色データと各色毎に定められたしきい値範囲と比較し、各色の色データが全てしきい値範囲内である場合に特定パターンの認識を行うものとなされ、各色のしきい値のうち最もしきい値範囲の狭い色について、その色データをしきい値範囲外の値に設定することにより前記除外処理が行われるから、データ値をしきい値範囲外へ設定するのに必要となるデータ変換量が少なくて済むとともに、1つの色についてのみデータ値をしきい値外へ設定すればよく、このため文字領域の除外処理が容易となる。   According to the invention described in item (4) above, the pattern recognition means compares the color data of each color with the threshold range defined for each color, and the color data of each color is all within the threshold range. Specific patterns are recognized, and the exclusion process is performed by setting the color data of the color with the narrowest threshold range among the threshold values of each color to a value outside the threshold range. Therefore, the amount of data conversion required to set the data value outside the threshold range can be reduced, and the data value only needs to be set outside the threshold value for one color. Exclusion processing becomes easy.

前項(5)に記載の発明によれば、特定パターン認識が文字で影響されるようなことがなくなり、高精度に認識できるうえ、文字であることを示す情報を付加する必要もなく、パターン認識処理の時間が長くなることもない。   According to the invention described in item (5) above, the specific pattern recognition is not affected by characters, and can be recognized with high accuracy, and it is not necessary to add information indicating the characters, and pattern recognition is possible. Processing time does not increase.

前項(6)に記載の発明によれば、比較的簡単な構成で、特定パターン認識のための二値化処理対象から除外することができる。   According to the invention described in the preceding item (6), it is possible to exclude from binarization processing targets for specific pattern recognition with a relatively simple configuration.

前項(7)に記載の発明によれば、必要最小限の範囲で除外処理を行いながら、文字が含まれることによる特定パターンの誤認識を確実に排除することができる。   According to the invention described in item (7), it is possible to reliably eliminate erroneous recognition of a specific pattern due to the inclusion of characters while performing exclusion processing within a necessary minimum range.

前項(8)に記載の発明によれば、文字領域の除外処理が容易となる。   According to the invention described in item (8) above, the character region exclusion process is facilitated.

前項(9)に記載の発明によれば、文字領域の除外処理をコンピュータに実行させることができる。   According to the invention described in item (9) above, it is possible to cause the computer to execute the character area exclusion processing.

前項(10)に記載の発明によれば、比較的簡単な構成で、文字領域の除外処理をコンピュータに実行させることができる。   According to the invention described in item (10) above, it is possible to cause a computer to execute the character region exclusion process with a relatively simple configuration.

前項(11)に記載の発明によれば、必要最小限の範囲での除外処理をコンピュータに実行させることができる。   According to the invention described in the preceding item (11), it is possible to cause the computer to execute the exclusion process within a necessary minimum range.

前項(12)に記載の発明によれば、文字領域の除外処理が容易となる。   According to the invention described in item (12) above, the character area exclusion process is facilitated.

以下、この発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、この発明の一実施形態に係る画像処理装置が用いられた画像処理システムを示す構成図である。   FIG. 1 is a block diagram showing an image processing system using an image processing apparatus according to an embodiment of the present invention.

図1において、この画像処理システムは、画像処理装置としての画像読取装置100と、画像出力装置101と、パーソナルコンピュータ(以下、PCという)102とを備えており、これら画像読取装置100および画像出力装置101は、それぞれ通信ライン103,104を介してPC102に接続されている。   1, the image processing system includes an image reading apparatus 100 as an image processing apparatus, an image output apparatus 101, and a personal computer (hereinafter referred to as a PC) 102. These image reading apparatus 100 and image output apparatus The apparatus 101 is connected to the PC 102 via communication lines 103 and 104, respectively.

前記画像読取装置100は、原稿の画像を読み取る機能を有し、この実施形態ではスキャナが使用されている。   The image reading apparatus 100 has a function of reading an image of a document. In this embodiment, a scanner is used.

前記画像出力装置101は、画像読取装置100で読み取られて画像処理された画像データを出力するもので、この実施形態ではプリンタが用いられている。   The image output device 101 outputs image data read and image processed by the image reading device 100, and a printer is used in this embodiment.

図2は、前記画像読取装置100、画像出力装置101およびPC102の電気的な概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic electrical configuration of the image reading apparatus 100, the image output apparatus 101, and the PC 102.

図2おいて、前記画像読取装置100は、原稿画像読取部201と、画像処理制御部200と、メモリ205と、画像データ転送部206とを備えている。   In FIG. 2, the image reading apparatus 100 includes a document image reading unit 201, an image processing control unit 200, a memory 205, and an image data transfer unit 206.

前記原稿画像読取部201は、原稿の画像を読み取るものであり、例えばCCDからなる。   The document image reading unit 201 reads an image of a document, and is composed of, for example, a CCD.

前記画像処理制御部200は、CCD201からの画像データに対してシェーディング補正やライン間補正などの画像処理を行う画像処理部202と、CPU203と、特定画像(パターン)を認識する画像認識部204とを有している。   The image processing control unit 200 includes an image processing unit 202 that performs image processing such as shading correction and interline correction on image data from the CCD 201, a CPU 203, and an image recognition unit 204 that recognizes a specific image (pattern). have.

前記画像出力装置101は、画像読取装置100から画像データを受信する画像データ受信部209と、受信した画像データを用紙にプリントする画像データ出力部210とを備えている。   The image output apparatus 101 includes an image data receiving unit 209 that receives image data from the image reading apparatus 100 and an image data output unit 210 that prints the received image data on paper.

前記PC102は、画像読取装置100から画像データを受信する画像データ受信部208と、画像データに対してユーザによって指示された処理や加工等を実行する画像処理部207とを備えている。   The PC 102 includes an image data receiving unit 208 that receives image data from the image reading apparatus 100, and an image processing unit 207 that executes processing or processing instructed by the user on the image data.

上記画像読取装置100の概略動作を説明すると、CCD201により原稿画像が読み取られると、読み取られた画像データは、画像処理部202においてシェーディング補正やライン間補正がなされた後、画像認識部204に転送される。画像認識部204では、入力された画像が特定画像であれば、CPU203に特定画像であることを報告し、CPU203は、入力画像が特定画像であれば、PC102や画像出力装置101へのデータ転送を中止して、違法コピーを防止する。   The schematic operation of the image reading apparatus 100 will be described. When an original image is read by the CCD 201, the read image data is subjected to shading correction and interline correction in the image processing unit 202 and then transferred to the image recognition unit 204. Is done. If the input image is a specific image, the image recognition unit 204 reports to the CPU 203 that the input image is a specific image. If the input image is a specific image, the CPU 203 transfers data to the PC 102 or the image output apparatus 101. To prevent illegal copying.

図3は、前記画像読取装置100における画像処理制御部200の具体的構成を示すブロック図である。   FIG. 3 is a block diagram showing a specific configuration of the image processing control unit 200 in the image reading apparatus 100.

図3に示すように、画像処理制御部200は、主な構成要素として画像前処理部52、領域判別部53、属性判別部54、圧縮部55、PDFファイル作成部56、画像認識部204、CPU203、RAM60およびROM61を備えており、それぞれがバス51を介して接続されデータの授受が行える。   As shown in FIG. 3, the image processing control unit 200 includes an image preprocessing unit 52, an area determination unit 53, an attribute determination unit 54, a compression unit 55, a PDF file creation unit 56, an image recognition unit 204, as main components. A CPU 203, a RAM 60, and a ROM 61 are provided, which are connected via the bus 51 and can exchange data.

前記画像前処理部52は、CCD201からの画像データに前処理を施し、前処理されたデータを領域判別部53に送る。   The image preprocessing unit 52 performs preprocessing on the image data from the CCD 201, and sends the preprocessed data to the region determination unit 53.

前記領域判別部53は、画像前処理部52からの画像データに基づいて文字領域と写真領域を判別する領域判別処理を実行するものものであり、この実施形態ではコンパクトPDF(C−PDF)機能が採用されている。   The area discriminating section 53 executes an area discriminating process for discriminating a character area and a photograph area based on image data from the image preprocessing section 52. In this embodiment, a compact PDF (C-PDF) function is used. Is adopted.

前記属性判別部54は、判別された領域について、当該領域の特性(使用されている色の数、文字サイズ、罫線や網点の割合など)を抽出する特徴量抽出処理と、抽出された特性に基づいて当該入力画像の属性情報(当該入力画像が文書、表、カタログなどの画像種類の内のどの種類に属する蓋然性が高いのかを示す適合度)を作成する属性情報作成処理を実行する。   The attribute discriminating unit 54 extracts, for the discriminated area, a characteristic amount extraction process for extracting the characteristics of the area (number of colors used, character size, ruled line, halftone dot ratio, etc.), and the extracted characteristics The attribute information creation process for creating the attribute information of the input image (the degree of fit indicating the probability that the input image belongs to which kind of image type such as document, table, catalog, etc.) is executed.

前記圧縮部55は、領域判別部53により判別された文字領域内の文字画像や、文字画像以外の背景画像等をJPEGを用いて圧縮する。   The compression unit 55 compresses a character image in the character region determined by the region determination unit 53, a background image other than the character image, and the like using JPEG.

前記PDFファイル作成部56は、圧縮されたデータを公知のPDFフォーマットに変換し、変換したファイルに上記属性情報を付加する。   The PDF file creation unit 56 converts the compressed data into a known PDF format, and adds the attribute information to the converted file.

前記画像認識部204は、入力された画像データから特定パターンを認識するパターンマッチング機能をもっている。   The image recognition unit 204 has a pattern matching function for recognizing a specific pattern from input image data.

前記CPU203は、ROM61に格納されているプログラムに従って動作することにより、画像読取装置100の全体の動作を統一的に制御したり、画像前処理部52、領域判別部53などに指示して、CCD201からの入力画像をPDF変換して前記メモリ205に出力するまでの一連の処理(PDF変換処理)を実行する。   The CPU 203 operates in accordance with a program stored in the ROM 61 to uniformly control the entire operation of the image reading apparatus 100 or instructs the image preprocessing unit 52, the area determination unit 53, etc. A series of processing (PDF conversion processing) from PDF conversion of the input image from the image to output to the memory 205 is executed.

このCPU203は、文字領域判別結果により文字領域と判別された領域については、前記特定パターン認識を行う対象から除外する処理を行うものである。具体的には、前記画像認識部204が特定パターン認識を行うための色しきい値を抽出し、前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する。その場合、色データとしてのR(赤),G(緑),B(青)3色のうちでしきい値範囲の最も狭い色(例えばB色)を強制的に除外させるのが好ましい。   The CPU 203 performs processing for excluding the area determined as the character area from the result of the character area determination from the target for the specific pattern recognition. Specifically, the image recognition unit 204 extracts a color threshold value for performing specific pattern recognition, and as the exclusion process, the color data of a pixel determined as a character area is a value outside the threshold value range. Set to. In that case, it is preferable to forcibly exclude the color (for example, B color) having the narrowest threshold range among the three colors R (red), G (green), and B (blue) as color data.

前記ROM61には、PDF変換処理などを実行するためのプログラムが格納されている。また、文書、表、カタログ等の各種画像についての特徴量の大小関係を示した基本特徴量テーブルも格納されている。   The ROM 61 stores a program for executing PDF conversion processing and the like. In addition, a basic feature value table showing the magnitude relationship of feature values for various images such as documents, tables, and catalogs is also stored.

前記RAM60は、CPU203が各種プログラムを実行する際のワークエリアとなる。   The RAM 60 serves as a work area when the CPU 203 executes various programs.

図4は、PDFファイルがメモリ205に格納されるまでの処理フローの概要を示す図である。   FIG. 4 is a diagram showing an outline of a processing flow until the PDF file is stored in the memory 205.

図4において、ステップS1では、CCD201で読み取られた画像データの画像処理部201への転送が行われる。   In FIG. 4, in step S <b> 1, image data read by the CCD 201 is transferred to the image processing unit 201.

ステップS2では、読み取られた画像データについて、領域判別の前処理が施される。この前処理は、入力画像の領域判別をより精度よく行うための処理であり、具体的には解像度変換(高から低へ)、下地除去等の公知の処理である。   In step S2, preprocessing for region determination is performed on the read image data. This pre-process is a process for determining the area of the input image with higher accuracy, and is specifically a known process such as resolution conversion (from high to low) and background removal.

ステップS3では、文字と写真等の画像の領域判別が行われる。そして、判別された領域の特徴量が抽出され、抽出された特徴量に基づいて属性情報が作成される。作成された属性情報は画像認識部204へも送られる。   In step S3, the region of the image such as a character and a photograph is determined. Then, the feature amount of the discriminated area is extracted, and attribute information is created based on the extracted feature amount. The created attribute information is also sent to the image recognition unit 204.

ステップS4では、判別結果に基づいて入力画像から文字画像が抽出され、抽出された文字画像がMMRにより圧縮される。   In step S4, a character image is extracted from the input image based on the determination result, and the extracted character image is compressed by MMR.

ステップS5では、判別結果に基づいて入力画像から背景画像が抽出され、抽出された背景画像がJPEGにより圧縮される。   In step S5, a background image is extracted from the input image based on the determination result, and the extracted background image is compressed by JPEG.

ステップS6では、圧縮された文字画像と背景画像とがPDF化されて合成される。その際、ステップS3で作成された属性情報が付加され、PDFファイルとして出力される。   In step S6, the compressed character image and the background image are converted into PDF and combined. At that time, the attribute information created in step S3 is added and output as a PDF file.

ステップS7では、出力されるPDFファイルが前記メモリ205に格納される。   In step S 7, the output PDF file is stored in the memory 205.

図5は、PDF変換処理を示すフローチャートである。   FIG. 5 is a flowchart showing the PDF conversion process.

図5において、CPU203がユーザからのPDF変換指示を受け付けると、CPU203はステップS10で、CCD201を介してスキャン画像の取得処理を実行する。   In FIG. 5, when the CPU 203 receives a PDF conversion instruction from the user, the CPU 203 executes a scan image acquisition process via the CCD 201 in step S10.

なお、取得された画像データは、そのまま入力画像としてRAM60内の所定の格納領域に格納される。以下、各処理において、画像のR(赤)、G(緑)、B(青)色の画素データを用いる場合は、このRAM60内に格納されたデータが読み出されるものとする。   The acquired image data is stored in a predetermined storage area in the RAM 60 as an input image as it is. Hereinafter, in each process, when using R (red), G (green), and B (blue) pixel data of an image, the data stored in the RAM 60 is read out.

ついで、ステップS20で領域判別処理を実行する。具体的には、CPU203はまず画像前処理部52を介して、取得された画像データに対して上記所定の前処理を実施した後、領域判別部53を介して、前処理された入力画像に基づく領域判別処理を実行する。   Next, an area determination process is executed in step S20. Specifically, the CPU 203 first performs the predetermined preprocessing on the acquired image data via the image preprocessing unit 52, and then converts the preprocessed input image to the preprocessed input image via the region determination unit 53. Based on the area discrimination processing.

ステップS30では、属性判別部104を介して、特徴量抽出処理を実行する。   In step S <b> 30, feature amount extraction processing is executed via the attribute determination unit 104.

ステップS40では、属性情報作成処理を実行し、ステップS50では、画像圧縮処理を実行し、ステップS60ではPDFファイル作成を実行する。   In step S40, attribute information creation processing is executed. In step S50, image compression processing is executed. In step S60, PDF file creation is executed.

図6は、領域判別処理(ステップS20)のサブルーチンを示すフローチャートである。   FIG. 6 is a flowchart showing a subroutine of region discrimination processing (step S20).

写真領域判別としてのステップS201〜ステップS204と、文字領域判別としてのステップS205〜ステップS213の処理が実行される。   Steps S201 to S204 as photo region discrimination and steps S205 to S213 as character region discrimination are executed.

図6において、ステップS201では、写真領域判別では、まず明度算出処理を行う。具体的には、例えば入力画像をカラー画像データとすると、原稿1頁分の画像の画素について、そのR,G,B色の画素データ(255階調)を公知の変換式を用いて明度データに変換する。   In FIG. 6, in step S <b> 201, brightness calculation processing is first performed in the photographic area determination. Specifically, for example, if the input image is color image data, the pixel data of R, G, B color (255 gradations) for the pixels of the image for one page of the document is converted to brightness data using a known conversion formula. Convert to

ついで、ステップS202では、生成された明度データに公知のスムージングフィルタをかけて、入力画像に含まれているノイズを除去するスムージング処理を実行する。そして、ステップS203では、スムージング処理が施されたデータに基づいて写真ブロックの検出を行う。ここでは、ノイズ除去されたデータについて所定のしきい値を用いて二値化を行う。   In step S202, a smoothing process is performed to remove noise included in the input image by applying a known smoothing filter to the generated brightness data. In step S203, a photographic block is detected based on the data subjected to the smoothing process. Here, binarization is performed on the noise-removed data using a predetermined threshold value.

そして、二値化画像に対し画素を連結させてラベリングを行い、ラベリングされた画像それぞれについて、写真領域であるか否かを判別する。例えば、ブロックの大きさが所定の大きさ(文字相当程度の大きさ)よりも大きく、そのブロック内の各画像の明度、彩度、色相などの特徴、例えば中間調の画素が所定の割合以上含まれている場合等の所定の条件を示す場合に写真領域と判別される。当該所定の条件を満たしていないブロックについては、写真領域とみなされない。   Then, labeling is performed by connecting pixels to the binarized image, and it is determined whether each labeled image is a photographic region. For example, the size of a block is larger than a predetermined size (a size corresponding to a character), and characteristics such as brightness, saturation, hue, etc. of each image in the block, for example, halftone pixels are a predetermined ratio or more A photo area is identified when a predetermined condition is indicated, such as when it is included. A block that does not satisfy the predetermined condition is not regarded as a photo area.

なお、ここで写真領域として判別される領域には、写真の他、絵画、図表など階調性を有する画像の領域が含まれる。また、各画素の彩度、色相等については、RAM60に格納されている入力画像のデータが参照される。   In addition, the area | region discriminate | determined as a photograph area | region here contains the area | region of the image which has gradation property, such as a picture and a chart, besides a photograph. Further, the input image data stored in the RAM 60 is referred to for the saturation and hue of each pixel.

そして、ステップS204では、写真領域であると判別された各ブロックについて、そのブロック(写真領域)を取り込む矩形領域の座標データをRAM60に格納させる。   In step S204, for each block determined to be a photo area, coordinate data of a rectangular area into which the block (photo area) is taken is stored in the RAM 60.

一方、文字領域判別では、ステップS205で、まず入力画像を明度データに変換する明度算出処理を行う。この処理は、基本的にステップS201の処理と同じであるが、明度データの変換式では文字判別のためのパラメータが用いられる点が異なっている。   On the other hand, in character region discrimination, in step S205, first, brightness calculation processing for converting the input image into brightness data is performed. This process is basically the same as the process of step S201, except that a parameter for character discrimination is used in the lightness data conversion formula.

ついで、ステップS206では、明度データにスムージングフィルタをかけてノイズを除去するスムージング処理を行う。このスムージングも基本的にステップS202の処理と同じであるが、文字判別に適したフィルタが用いられる点が異なっている。   In step S206, smoothing processing is performed to remove noise by applying a smoothing filter to the brightness data. This smoothing is basically the same as the processing in step S202, except that a filter suitable for character discrimination is used.

そして、ステップS207では、スムージング処理が施されたデータに公知のエッジフィルタをかけ二値のエッジ画像を生成する二値化処理を行う。   In step S207, a binarization process for generating a binary edge image by applying a known edge filter to the data subjected to the smoothing process is performed.

ステップS208では、生成された二値のエッジ画像に含まれる罫線を検出する処理を行う。具体的には罫線検出のための公知のフィルタをかけて当該エッジ画像内に含まれる罫線を検出する。そして、ステップS209では、検出された罫線の量(ここでは、前処理された入力画像の全画素数をA、罫線画像の画素数をBとして、B/A)を算出し、ステップS210では、算出されたデータをRAM60に格納して、検出された罫線を削除する。この罫線削除は、文字判別精度を高めるためである。   In step S208, processing for detecting a ruled line included in the generated binary edge image is performed. Specifically, a ruled line included in the edge image is detected by applying a known filter for ruled line detection. In step S209, the amount of the ruled line detected (here, B / A, where A is the total number of pixels of the preprocessed input image and B is the number of pixels of the ruled line image), and in step S210, The calculated data is stored in the RAM 60, and the detected ruled line is deleted. This ruled line deletion is for improving the character discrimination accuracy.

ステップS211では、罫線削除された二値のエッジ画像について、主走査方向、複走査方向に所定の範囲内にあるものを連結し、連結されたブロックを取り囲んだ矩形領域を設定する文字ブロック検出処理を行う。   In step S211, character block detection processing is performed in which binary edge images from which ruled lines have been deleted are connected within a predetermined range in the main scanning direction and the multi-scanning direction, and a rectangular area surrounding the connected blocks is set. I do.

そして、ステップS212では、設定された文字ブロックの画像が文字であるか否かを判別する文字判別処理を行う。例えば、文字ブロック内の画像について、その局所的な形状を特徴量として抽出し、抽出した特徴量からその画像が文字によるものであるか否かを判別する。より具体的には、画像の局所的な形状として、カーブ量や傾斜方向、閉ループ数、十字交差数、T字交差数などを抽出し、抽出された特徴点が、予め保持している文字判別のためのパターンの特徴点と一致している数が所定値(しきい値)以上であれば、文字として判別し、所定値よりも少なければ文字ではないと判別するものである。   In step S212, character determination processing is performed to determine whether or not the set character block image is a character. For example, the local shape of an image in a character block is extracted as a feature value, and whether or not the image is attributed to a character is determined from the extracted feature value. More specifically, as the local shape of the image, the curve amount, the inclination direction, the number of closed loops, the number of crosses, the number of T-shaped intersections, and the like are extracted, and the extracted feature points hold the character discrimination previously held. If the number matching with the feature points of the pattern for the above is greater than or equal to a predetermined value (threshold), it is determined as a character, and if it is less than the predetermined value, it is determined that the character is not a character.

なお、文字判別には、他にも文字判別用の辞書に基づいてパターン認識を行う方法などを用いることができる。   For character discrimination, other methods such as pattern recognition based on a dictionary for character discrimination can be used.

ステップS213では、文字と判別されたブロック(文字領域)の座標データをRAM60に格納させる。   In step S213, the coordinate data of the block (character area) determined to be a character is stored in the RAM 60.

ついで、ステップS214では、文字領域内に含まれる網点領域を検出する処理を実行する。この網点検出は、例えば文字領域内の画素に公知の網点検出用フィルタをかけ、所定範囲内の孤立点数が所定数を上回った場合に、その範囲を網点領域とすることにより行われる。   In step S214, a process for detecting a halftone dot area included in the character area is executed. This halftone dot detection is performed, for example, by applying a known halftone dot detection filter to pixels in a character area, and when the number of isolated points in a predetermined range exceeds a predetermined number, the range is set as a halftone dot area. .

ステップS215では、検出された網点領域から、当該網点の量(ここでは、文字領域内の全画素数をC、網点領域の画素数をDとして、D/C)を算出し、ステップS216では、算出されたデータをRAM60に格納した後、網点領域内に散在している点画像を除去する。   In step S215, the amount of the halftone dot (here, D / C, where C is the total number of pixels in the character area and D is the number of pixels in the halftone area) is calculated from the detected halftone area. In S216, after the calculated data is stored in the RAM 60, the point images scattered in the halftone dot region are removed.

続いて、ステップS217では、網点除去された文字領域内の各画素を所定のしきい値を用いて二値化して文字領域内の文字画像と文字以外の部分(下地)を分離する処理を行う。   Subsequently, in step S217, a process of binarizing each pixel in the character area from which halftone dots have been removed using a predetermined threshold to separate a character image in the character area from a portion other than the character (background). Do.

そして、ステップS218では、二値化により分離された文字画像を構成する各画素の座標(以下、「文字マップ」という。)のデータと、下地部分の座標のデータをRAM60に格納させる。ステップS219では、文字色数の算出処理を行い、その後メインルーチンにリターンする。   In step S218, the data of the coordinates of each pixel constituting the character image separated by binarization (hereinafter referred to as “character map”) and the data of the coordinates of the background portion are stored in the RAM 60. In step S219, the number of character colors is calculated, and then the process returns to the main routine.

この文字色数の算出としては、例えば文字マップから文字を構成する画素を特定し、特定された各画素について、R,G,B色の画素データを色相を表すデータに変換し、所定のしきい値との比較により、予め決められた複数色(黒、青、赤、黄、白色など)のうちのどの色に属するかを求め、その数(黒色の画素数、青色の画素数など)を係数することで行われる。なお、算出されたデータは、RAM60に格納される。   In calculating the number of character colors, for example, pixels constituting a character are specified from a character map, and R, G, B color pixel data is converted into data representing hue for each specified pixel, By comparing with the threshold value, find out which color among the predetermined colors (black, blue, red, yellow, white, etc.) belongs to that number (number of black pixels, blue pixels, etc.) This is done by factoring The calculated data is stored in the RAM 60.

なお、上記文字等の領域判別方法については、上記のものに限られることはなく、他の公知の方法を用いることができる。   Note that the method for discriminating the area of the character or the like is not limited to the above, and other known methods can be used.

図7は、図5の特徴量抽出処理(ステップS30)のサブルーチンの内容を示すフローチャートである。   FIG. 7 is a flowchart showing the contents of a subroutine of the feature amount extraction process (step S30) of FIG.

図7において、ステップS31では、文字サイズの算出処理を行う。文字サイズの算出としては、例えば文字マップを参照し、文字画像それぞれについて、当該文字の高さ方向に相当する方向に並ぶ画素数を計数し、その画素数から当該文字の大きさ(ポイント)を検出することで行われる。ここでは、文字の中で最も大きなポイント数を示すデータがRAM60に格納される。   In FIG. 7, in step S31, a character size calculation process is performed. For calculating the character size, for example, referring to a character map, for each character image, the number of pixels arranged in the direction corresponding to the height direction of the character is counted, and the size (point) of the character is calculated from the number of pixels. This is done by detecting. Here, data indicating the largest number of points among characters is stored in the RAM 60.

つぎに、ステップS32では、下地領域の量の算出処理を行う。ここで、下地領域とは、文字領域内における下地であって、下地が白色以外のもの(例えば新聞の文字領域内の背景に相当)をいう。   Next, in step S32, a background area amount calculation process is performed. Here, the background area is a background in the character area, and the background is other than white (for example, corresponds to the background in the character area of a newspaper).

下地領域の量の算出方法としては、例えば図6のステップS218において格納された下地の座標のデータを参照し、入力画像のR、G、B色の画素データから、当該下地であって、白色以外の画素を抽出し、抽出された画素数をEとし、さらにE/Cの値を算出し、この値を下地領域の量とすることにより行われる。算出されたデータは、RAM60に格納される。   As a method for calculating the amount of the background area, for example, the background coordinate data stored in step S218 in FIG. 6 is referred to, and the background color is determined based on the R, G, B color pixel data of the input image. This is done by extracting the other pixels, setting the number of extracted pixels as E, calculating the value of E / C, and setting this value as the amount of the background area. The calculated data is stored in the RAM 60.

そして、ステップS33では、画像の色数の算出処理を行う。この処理は、図6のステップS219の文字色数の算出処理と同様の処理であり、ここでは写真領域と判別された画像の画素を特定し、特定された各画素のR、G、B色の画素データから、画素毎に上記複数色のうちのどの色に属するかを求め、その数を計数する処理である。なお、算出されたデータは、RAM60に格納される。   In step S33, the number of colors of the image is calculated. This process is the same as the process for calculating the number of character colors in step S219 in FIG. 6. Here, the pixels of the image determined to be a photographic region are specified, and the R, G, B colors of each specified pixel are specified. This is a process of determining which color of the plurality of colors belongs to each pixel from the pixel data and counting the number. The calculated data is stored in the RAM 60.

ステップS34で位置関係検出処理を行ってから、リターンする。この位置関係検出処理は、入力画像における文字領域の配置位置と写真領域の配置位置の関係から入力画像の特性を検出するものである。   After performing the positional relationship detection process in step S34, the process returns. This positional relationship detection process detects the characteristics of the input image from the relationship between the arrangement position of the character area and the arrangement position of the photo area in the input image.

つぎに、画像読取装置100における画像処理制御部200の画像認識部204で行われる特定画像のパターン認識処理について説明する。   Next, a specific image pattern recognition process performed by the image recognition unit 204 of the image processing control unit 200 in the image reading apparatus 100 will be described.

この画像認識部204においては、基本的には、R,G,B色の画像データが入力されると、その画像データに対して二値化処理を行い、その後、入力画像から特定のパターンを認識して、所定のパターンと比較するパターンマッチング処理を行い、最後に適合度処理により、例えば、適合度70%以上の認識であれば、「似ている」と判定するようになっている。   In the image recognition unit 204, basically, when R, G, B color image data is input, the image data is binarized, and then a specific pattern is generated from the input image. Recognizing and performing pattern matching processing for comparison with a predetermined pattern, and finally, by relevance processing, for example, if the recognition has a relevance of 70% or more, it is determined as “similar”.

ところで、この実施形態では、前記画像認識部204による二値化処理においては、一つの画素についてR、G、B色の各明るさ(0〜255階調)のいずれもが、所定のしきい値範囲内(上限しきい値と下限しきい値の間)にあれば、二値化処理対象として二値化処理が実行されるものとなされており、R、G、B色の明るさのうちのいずれかがしきい値範囲を外れている場合には、二値化処理対象から外れるものとなされている。例えば、R=100、G=100、B=100の場合、それらのいずれもがしきい値範囲内であれば二値化処理されるが、R=100、G=100、B=10の場合、Bの値がしきい値範囲外であれば、全ての色がしきい値範囲内にあるという条件(AND条件)を満たさないから、その画素については、二値化処理の対象から外れることになる。   By the way, in this embodiment, in the binarization process by the image recognizing unit 204, each of the brightness of R, G, and B colors (0 to 255 gradations) for one pixel has a predetermined threshold. If it is within the value range (between the upper limit threshold and the lower limit threshold), the binarization process is executed as the binarization process target, and the brightness of the R, G, and B colors is set. If any of them is out of the threshold range, it is out of the binarization process target. For example, when R = 100, G = 100, and B = 100, binarization processing is performed if any of them is within the threshold range, but when R = 100, G = 100, and B = 10 If the value of B is outside the threshold range, the condition that all the colors are within the threshold range (AND condition) is not satisfied, so that the pixel is excluded from the binarization processing target. become.

ここで、CCD201により読み取られた画像に文字が含まれていれば、前記C−PDFの領域判別機能により、文字と判別することが可能であるが、この場合、文字領域と判別された領域については、この実施形態ではCPU203は以下のような操作を行って、画像認識部204による二値化処理が行われないようにしてある。   Here, if the image read by the CCD 201 includes a character, it can be determined as a character by the C-PDF region determination function. In this case, the region determined as a character region is used. In this embodiment, the CPU 203 performs the following operation so that the binarization processing by the image recognition unit 204 is not performed.

即ち、文字と判別された場合に、文字を構成するR,G,Bの各色うちのいずれか、例えばBの明るさの値がしきい値範囲から外れる場合には、もともと二値化処理は実施されないから、そのままの状態とする。Bの値がしきい値範囲内の場合には、R,Gの値の確認を行う。R,Gの少なくとも一方がそれぞれのしきい値から外れる場合には、やはりそのままの状態とする。R,Gのいずれもが、それぞれのしきい値範囲内であれば、Bの値を以下の式で変換する。   That is, if it is determined that the character is one of the R, G, and B colors constituting the character, for example, if the brightness value of B is out of the threshold range, the binarization process is originally performed. Since it is not implemented, it is left as it is. When the value of B is within the threshold range, the values of R and G are confirmed. When at least one of R and G deviates from the respective threshold values, the state remains as it is. If both R and G are within the respective threshold ranges, the value of B is converted by the following equation.

Bのしきい値(上限しきい値)−読み取ったB値+1=B1
読み取ったB値+B1=B2(変換後のB値)
このように、Bのしきい値(上限しきい値)と読み取ったBの値の差に「1」を加算した値に変換することで、変換後のB値は、Bのしきい値(上限しきい値)を1だけ上回ることになり、しきい値範囲から外れることになる。その結果、画像データが画像認識部204へ送られても、画像認識部204による特定画像認識のための二値化処理対象から自動的に外れることになる。
B threshold (upper limit threshold) -read B value + 1 = B1
Read B value + B1 = B2 (B value after conversion)
Thus, by converting the difference between the B threshold value (upper limit threshold value) and the read B value to a value obtained by adding “1”, the converted B value is the B threshold value ( The upper limit threshold) is exceeded by 1, and it is out of the threshold range. As a result, even if the image data is sent to the image recognition unit 204, it is automatically excluded from the binarization processing target for the specific image recognition by the image recognition unit 204.

また、上記の変換式によることなく、一律に、Bの値を「255」に変換しても良い。   Further, the value of B may be uniformly converted to “255” without using the above conversion formula.

いずれの場合でも、R,G,Bのうちの一つがしきい値範囲外にあれば、二値化処理の対象画像から外せることができるため、Bを変化させた場合、同じビットのR,Gについて色の変換を行わなくてよい。   In any case, if one of R, G, and B is outside the threshold range, it can be excluded from the target image for binarization processing. Therefore, when B is changed, R, It is not necessary to perform color conversion for G.

同様にRを変化させた場合は、G,Bについて色の変換を行わなくてよく、また、Gを変化させた場合は、R,Bについて色の変換を行わなくてよい。   Similarly, when R is changed, it is not necessary to perform color conversion for G and B, and when G is changed, it is not necessary to perform color conversion for R and B.

このように、入力された画像データから文字領域が判別されると、その文字領域が画像データの特定パターン認識対象から除外されるから、特定パターン認識処理が文字で影響されるようなことがなくなり、高精度な特定画像のパターン認識処理を行うことができ、また文字領域を除いて認識処理が行われるため、パターン認識処理の時間も短くなる。   As described above, when the character area is determined from the input image data, the character area is excluded from the specific pattern recognition target of the image data, so that the specific pattern recognition process is not affected by the character. The pattern recognition process for the specific image can be performed with high accuracy, and the recognition process is performed except for the character area, so that the time for the pattern recognition process is shortened.

しかも、文字であることを示すために1ビットの情報を追加し、画像認識部204がこの追加された情報に基づいて2値化処理対象から外す操作を行う場合に較べて、画像認識部204に特別な機能を設ける必要はないし、従来から存在する画像認識部204をそのまま用いることができ、極めて便利である。   Moreover, the image recognition unit 204 is compared with a case where 1-bit information is added to indicate that the character is a character, and the image recognition unit 204 performs an operation of removing from the binarization processing target based on the added information. It is not necessary to provide a special function, and the existing image recognition unit 204 can be used as it is, which is very convenient.

なお、R,G,Bのうちのいずれか一つの値をしきい値範囲外に設定すれば足り、R,G,Bのいずれの値を設定しても良いが、好ましくは、しきい値範囲が最も狭い色(一般的にはB)について、その値をしきい値範囲外の値に設定するのが良い。これは、しきい値範囲外へ設定するのに必要となるデータ変換量が少なくて済み、処理がし易いからである。   It is sufficient to set any one value of R, G, and B outside the threshold range, and any value of R, G, and B may be set. For the color with the narrowest range (generally B), the value should be set to a value outside the threshold range. This is because the amount of data conversion required to set the threshold value outside is small and processing is easy.

図8は、文字領域を二値化処理の対象から除外する処理を示すフローチャートである。この処理も、CPU203がTOM61に記憶されたプログラムに従って動作することにより実行される。   FIG. 8 is a flowchart showing processing for excluding a character region from binarization processing. This process is also executed by the CPU 203 operating in accordance with a program stored in the TOM 61.

図8において、ステップS60では、R,G,Bの各色からなる画像データを取得し、ステップS61では、全画素について文字かどうかの判断処理及び文字である場合のの除外処理が完了したか否かを判断し、全画素について完了していなければ(ステップS61でNO)、ステップS62では、R,G,Bの各色について、1画素毎に文字の判別行い、ステップS63に進む。   In FIG. 8, in step S60, image data composed of each color of R, G, and B is acquired. In step S61, whether or not all the pixels are character determination processing and whether or not exclusion processing for characters is complete. If all the pixels are not completed (NO in step S61), in step S62, characters are determined for each pixel for each of R, G, and B, and the process proceeds to step S63.

ステップS63では、その画素が文字であるか否かを判断し、文字でなければ(ステップS63でNO)、二値化対象であるのでステップS61に戻る。文字であれば(ステップS63でYES)、二値化対象外であるから、ステップS64では、Bの値がしきい値範囲内かどうかの確認を行い、ステップS65に進む。   In step S63, it is determined whether or not the pixel is a character. If it is not a character (NO in step S63), the process returns to step S61 because it is a binarization target. If it is a character (YES in step S63), it is not subject to binarization, so in step S64 it is confirmed whether the value of B is within the threshold range, and the process proceeds to step S65.

ステップS65では、Bの値がしきい値範囲内にあり二値化条件を満たしているか否かを判断し、しきい値範囲外のため二値化条件を満たしていなければ(ステップS65でNO)、もともと二値化対象外となっているから、次の画素について処理を行うため、ステップS61に戻る。Bの値がしきい値範囲内にあり二値化条件を満たしていれば(ステップS65でYES)、ステップS66では、R,Gについての確認を順に行ってから、ステップS67に進む。   In step S65, it is determined whether or not the value of B is within the threshold range and satisfies the binarization condition. If it is out of the threshold range and the binarization condition is not satisfied (NO in step S65). ) Since it is originally out of the binarization target, the process returns to step S61 in order to process the next pixel. If the value of B is within the threshold range and satisfies the binarization condition (YES in step S65), in step S66, R and G are checked in order, and then the process proceeds to step S67.

ステップS67では、R,Gの値がいずれもしきい値範囲内で二値化条件を満たしているか否かを判断する。R,Gの少なくとも一方がしきい値範囲外のため二値化条件を満たしていなければ(ステップS67でNO)、次の画素について処理を行うため、ステップS61に戻り、R,Gの値がいずれもしきい値範囲内で二値化条件を満たしていれば(ステップS67でYES)、ステップS68に進む。   In step S67, it is determined whether or not the values of R and G satisfy the binarization condition within the threshold range. If at least one of R and G is outside the threshold range and does not satisfy the binarization condition (NO in step S67), the process returns to step S61 to process the next pixel, and the values of R and G are If both satisfy the binarization condition within the threshold range (YES in step S67), the process proceeds to step S68.

ステップS68では、この画素が画像認識部204に送られると2値化処理されてしまうため、Bの値を変更する。Bの値の変更は次のようにして行われる。 即ち、例えば、Bの上限のしきい値=120、読み取ったB=100とすると、B1=120−100を演算し、B=100+B1(20)+1=121に変更する。   In step S68, when this pixel is sent to the image recognition unit 204, the binarization process is performed, so the value of B is changed. The value of B is changed as follows. That is, for example, assuming that the upper limit threshold value of B = 120 and the read B = 100, B1 = 120−100 is calculated, and B = 100 + B1 (20) + 1 = 121.

このようにBの値を強制的に121というしきい値範囲外に設定することにより、文字を二値化処理の対象から外す。そして、次の画素について処理を行うため、ステップS61に戻る。   Thus, by forcibly setting the value of B outside the threshold value range of 121, the character is excluded from the binarization target. Then, in order to perform processing for the next pixel, the process returns to step S61.

全画素について処理が完了すれば(ステップS61でYES)、ステップS69では、画像認識部204により特定画像のパターン認識のための二値化処理を行う。   If the processing is completed for all pixels (YES in step S61), in step S69, the image recognition unit 204 performs binarization processing for pattern recognition of the specific image.

ところで、図7のステップS31で説明したように、この実施形態では、文字領域と判別された場合に文字サイズを識別するものとしたが、識別された文字サイズを利用し、識別された文字のフォントサイズが所定サイズ、例えば20ポント以下の場合には、前記除外処理を行う構成としても良い。   By the way, as described in step S31 of FIG. 7, in this embodiment, the character size is identified when it is determined to be a character area. However, by using the identified character size, When the font size is a predetermined size, for example, 20 points or less, the exclusion process may be performed.

つまり、画像認識部204による特定画像の認識処理は、一般には、基本パターンとのパターンマッチングと配置の関係を判断することにより行われるが、フォントサイズが例えば20ポイントを超えると、パターンマッチングで特定画像と認識されても、配置の関係で特定画像ではないと判断される傾向にある。このため、20ポイントを超えたサイズの文字は、そのまま二値化されても誤認識はあまり生じることが無い。   In other words, the specific image recognition processing by the image recognition unit 204 is generally performed by determining the relationship between the pattern matching with the basic pattern and the arrangement, but if the font size exceeds, for example, 20 points, it is specified by pattern matching. Even if it is recognized as an image, it tends to be determined that it is not a specific image due to the arrangement. For this reason, characters with a size exceeding 20 points are not erroneously recognized even if they are binarized as they are.

これに対して例えば20ポイント以下では、パターンマッチングはもとより配置の関係についてもご認識が生じやすいことから、これを除外処理して誤認識を少なくさせる。このように、一定のサイズ以下の場合に限って除外処理を実施することにより、除外処理数が減少するから必要最小限の処理で済み、処理が楽になる。   On the other hand, for example, when the number of points is 20 points or less, it is easy to recognize not only the pattern matching but also the arrangement relationship. In this way, by performing the exclusion process only when the size is equal to or smaller than a certain size, the number of exclusion processes is reduced, so that the necessary minimum process is required and the process becomes easy.

図9は、このような文字のフォントサイズを考慮して、文字領域を二値化処理の対象から除外する処理を示すフローチャートである。この処理も、CPU203がTOM61に記憶されたプログラムに従って動作することにより実行される。   FIG. 9 is a flowchart showing processing for excluding a character region from binarization processing in consideration of such character font size. This process is also executed by the CPU 203 operating in accordance with a program stored in the TOM 61.

なお、図8と同一ステップには、同一ステップ番号を付して説明を省略する。   The same steps as those in FIG. 8 are denoted by the same step numbers and the description thereof is omitted.

図9においては、ステップS63の文字が存在するか否かの判断処理の後に、ステップS631の文字のフォントサイズを判断する処理が追加されている。   In FIG. 9, processing for determining the font size of the character in step S631 is added after the processing for determining whether or not the character exists in step S63.

即ち、ステップS63において、画素が文字であれば(ステップS63でYES)、ステップS631で、文字のフォントサイズが所定ポイント以下、例えば20ポイント以下か否かを判断し、文字のフォントが20ポイントを超えていれば(ステップS631でNO)、二値化されても問題ないため、ステップS61に戻る。文字のフォントサイズが20ポイント以下であれば(ステップS631でYES)、誤認識を生じることからこれを二値化対象から除外する必要があるため、ステップS64に進む。以下は、図8と同じ処理手順となる。   That is, if the pixel is a character in step S63 (YES in step S63), it is determined in step S631 whether or not the font size of the character is less than a predetermined point, for example, 20 points or less. If it exceeds (NO in step S631), there is no problem even if binarization is performed, and the process returns to step S61. If the font size of the character is 20 points or less (YES in step S631), since erroneous recognition occurs, it is necessary to exclude this from the binarization target, and the process proceeds to step S64. The following processing procedure is the same as that in FIG.

なお、以上説明した実施形態では、画像処理装置100としてスキャナを例に説明したが、画像処理装置として、カラー複写機等の画像形成装置、あるいはパーソナルコンピュータ等が用いられても良い。   In the embodiment described above, a scanner has been described as an example of the image processing apparatus 100. However, an image forming apparatus such as a color copying machine, a personal computer, or the like may be used as the image processing apparatus.

この発明の一実施形態に係る画像処理装置が用いられた画像処理システムを示す構成図である。1 is a configuration diagram illustrating an image processing system in which an image processing apparatus according to an embodiment of the present invention is used. 同じく画像処理システムの電気的構成を示す概略ブロック図である。It is a schematic block diagram which similarly shows the electric constitution of an image processing system. 画像処理システムにおけるスキャナの具体的構成を示すブロック図である。It is a block diagram which shows the specific structure of the scanner in an image processing system. PDFファイルが格納されるまでの処理を示すシーケンスである。It is a sequence which shows a process until a PDF file is stored. PDF変換処理を示すフローチャートである。It is a flowchart which shows a PDF conversion process. 図5の領域判別処理(ステップS20)のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the area | region discrimination | determination process (step S20) of FIG. 図5の特徴量抽出処理(ステップS30)のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the feature-value extraction process (step S30) of FIG. 文字領域を二値化処理の対象から除外する処理を示すフローチャートである。It is a flowchart which shows the process which excludes a character area from the object of a binarization process. 文字のフォントサイズを考慮して、文字領域を二値化処理の対象から除外する処理を示すフローチャートである。It is a flowchart which shows the process which excludes a character area from the object of a binarization process in consideration of the font size of a character.

符号の説明Explanation of symbols

53 領域判別部
54 属性判別部
100 画像読取装置(画像処理装置)
200 画像処理制御部
201 原稿読取部
202 画像処理部
203 CPU
204 画像認識部(パターン認識手段)
53 Region discriminating unit 54 Attribute discriminating unit 100 Image reading device (image processing device)
200 Image Processing Control Unit 201 Document Reading Unit 202 Image Processing Unit 203 CPU
204 Image recognition unit (pattern recognition means)

Claims (12)

入力された画像データから文字領域を判別する文字領域判別手段と、
入力された画像データから特定パターンを認識するパターン認識手段と、
前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行う制御手段と、
を備えていることを特徴とする画像処理装置。
Character area discrimination means for discriminating a character area from input image data;
Pattern recognition means for recognizing a specific pattern from input image data;
Control means for performing processing for excluding the area determined as the character area from the character area determination result from the target for performing the specific pattern recognition;
An image processing apparatus comprising:
前記制御手段は、前記特定パターン認識を行うための色しきい値を抽出し、前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する請求項1に記載の画像処理装置。   The control means extracts a color threshold value for performing the specific pattern recognition, and sets the color data of a pixel determined as a character area to a value outside the threshold value range as the exclusion process. The image processing apparatus according to 1. 前記文字領域と判別された領域の文字サイズを識別する文字サイズ識別手段を備え、
前記制御手段は、前記文字サイズ識別手段により識別された文字サイズが所定サイズ以下の場合に前記除外処理を行う請求項1または2に記載の画像処理装置。
Character size identifying means for identifying the character size of the area determined as the character area,
The image processing apparatus according to claim 1, wherein the control unit performs the exclusion process when the character size identified by the character size identification unit is a predetermined size or less.
前記パターン認識手段は、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行うものとなされ、
前記制御手段は、各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行う請求項1〜3のいずれかに記載の画像処理装置。
The pattern recognition means compares the data of each color with a threshold range determined for each color, and recognizes a specific pattern when the data of each color is all within the threshold range,
The said control means performs the said exclusion process by setting the data to the value outside a threshold value range about the color with the narrowest threshold value range among the threshold values of each color. An image processing apparatus according to 1.
入力された画像データから文字領域を判別するステップと、
入力された画像データから特定パターンを認識するステップと、
前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行うステップと、
を備えていることを特徴とする画像処理方法。
Determining the character area from the input image data;
Recognizing a specific pattern from the input image data;
Performing a process of excluding the area determined as the character area from the character area determination result from the target for performing the specific pattern recognition; and
An image processing method comprising:
前記特定パターン認識を行うための色しきい値を抽出するステップを備え、
前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する請求項5に記載の画像処理方法。
Extracting a color threshold for performing the specific pattern recognition,
The image processing method according to claim 5, wherein as the exclusion process, color data of a pixel determined to be a character area is set to a value outside the threshold range.
前記文字領域と判別された領域の文字サイズを識別するステップを備え、
識別された文字サイズが所定サイズ以下の場合に前記除外処理を行う請求項5または6に記載の画像処理方法。
Identifying the character size of the area determined to be the character area,
The image processing method according to claim 5, wherein the exclusion process is performed when the identified character size is equal to or smaller than a predetermined size.
前記パターン認識ステップでは、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行い、
各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行う請求項5〜7のいずれかに記載の画像処理方法。
In the pattern recognition step, each color data is compared with a threshold range determined for each color, and when each color data is all within the threshold range, a specific pattern is recognized,
The image processing according to any one of claims 5 to 7, wherein the exclusion processing is performed by setting data of a color having a narrowest threshold range among the threshold values of each color to a value outside the threshold range. Method.
入力された画像データから文字領域を判別するステップと、
入力された画像データから特定パターンを認識するステップと、
前記文字領域判別結果により文字領域と判別された領域は、前記特定パターン認識を行う対象から除外する処理を行うステップと、
をコンピュータに実行させるための画像処理プログラム。
Determining the character area from the input image data;
Recognizing a specific pattern from the input image data;
Performing a process of excluding the area determined as the character area from the character area determination result from the target for performing the specific pattern recognition; and
An image processing program for causing a computer to execute.
前記特定パターン認識を行うための色しきい値を抽出するステップをさらにコンピュータに実行させ、
前記除外処理として、文字領域と判別された画素の色データを該しきい値範囲外の値に設定する処理をコンピュータに実行させる請求項9に記載の画像処理プログラム。
Further causing the computer to execute a step of extracting a color threshold for performing the specific pattern recognition,
10. The image processing program according to claim 9, wherein the image processing program causes the computer to execute a process of setting color data of a pixel determined to be a character area to a value outside the threshold range as the exclusion process.
前記文字領域と判別された領域の文字サイズを識別するステップをさらにコンピュータに実行させ、
識別された文字サイズが所定サイズ以下の場合に前記除外処理を実行させる請求項9または10に記載の画像処理プログラム。
Further causing the computer to execute a step of identifying a character size of the area determined to be the character area;
The image processing program according to claim 9 or 10, wherein the exclusion process is executed when the identified character size is equal to or smaller than a predetermined size.
前記パターン認識ステップでは、前記パターン認識ステップでは、各色のデータと各色毎に定められたしきい値範囲と比較し、各色のデータが全てしきい値範囲内である場合に特定パターンの認識を行わせ、
各色のしきい値のうち最もしきい値範囲の狭い色について、そのデータをしきい値範囲外の値に設定することにより前記除外処理を行わせる請求項9〜11のいずれかに記載の画像処理プログラム。
In the pattern recognition step, the pattern recognition step compares each color data with a threshold range determined for each color, and recognizes a specific pattern when all the color data is within the threshold range. Let
The image according to any one of claims 9 to 11, wherein the exclusion process is performed by setting the data of a color having the narrowest threshold range among the threshold values of each color to a value outside the threshold range. Processing program.
JP2006172007A 2006-06-21 2006-06-21 Image processor, image processing method, and image processing program Pending JP2008005177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006172007A JP2008005177A (en) 2006-06-21 2006-06-21 Image processor, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006172007A JP2008005177A (en) 2006-06-21 2006-06-21 Image processor, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2008005177A true JP2008005177A (en) 2008-01-10

Family

ID=39009206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006172007A Pending JP2008005177A (en) 2006-06-21 2006-06-21 Image processor, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2008005177A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12205352B2 (en) 2021-02-24 2025-01-21 Panasonic Intellectual Property Management Co., Ltd. Image identifying apparatus, video reproducing apparatus, image identifying method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12205352B2 (en) 2021-02-24 2025-01-21 Panasonic Intellectual Property Management Co., Ltd. Image identifying apparatus, video reproducing apparatus, image identifying method, and recording medium

Similar Documents

Publication Publication Date Title
US7623712B2 (en) Image processing method and apparatus
US7903307B2 (en) Image processing method and image processing apparatus
JP4960897B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4631133B2 (en) Apparatus, method and recording medium for character recognition processing
KR100339691B1 (en) Apparatus for recognizing code and method therefor
US8126270B2 (en) Image processing apparatus and image processing method for performing region segmentation processing
US20060008114A1 (en) Image processing system and image processing method
US7421124B2 (en) Image processing system and image processing method
US7133559B2 (en) Image processing device, image processing method, image processing program, and computer readable recording medium on which image processing program is recorded
US20060010115A1 (en) Image processing system and image processing method
JP2011008549A (en) Image processor, image reader, multifunctional machine, image processing method, program, and recording medium
JP4732315B2 (en) Image processing apparatus and method
JP4442701B2 (en) Area discriminating method, image compressing method, image compressing apparatus, and computer program
JP3899872B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP2012205133A (en) Image processor and control method therefor
JP4396710B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP2010287178A (en) Image processing apparatus, image reading apparatus, multifunction machine, image processing method, program, and recording medium
JP4569162B2 (en) Image processing method, image processing program, and image processing apparatus
JP2008005177A (en) Image processor, image processing method, and image processing program
US11288536B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP4055525B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010068198A (en) Image forming apparatus
JP4710672B2 (en) Character color discrimination device, character color discrimination method, and computer program
JPH11136505A (en) Image processing apparatus and method
KR20110083453A (en) Image forming apparatus, image forming method and document authentication method