[go: up one dir, main page]

JP2017175600A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2017175600A
JP2017175600A JP2016255941A JP2016255941A JP2017175600A JP 2017175600 A JP2017175600 A JP 2017175600A JP 2016255941 A JP2016255941 A JP 2016255941A JP 2016255941 A JP2016255941 A JP 2016255941A JP 2017175600 A JP2017175600 A JP 2017175600A
Authority
JP
Japan
Prior art keywords
image data
image processing
character
ruled line
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016255941A
Other languages
Japanese (ja)
Other versions
JP6798309B2 (en
Inventor
孝子 四條
Takako Shijo
孝子 四條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/439,197 priority Critical patent/US10084939B2/en
Publication of JP2017175600A publication Critical patent/JP2017175600A/en
Application granted granted Critical
Publication of JP6798309B2 publication Critical patent/JP6798309B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Input (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 像域分離を精度よく行えるようにする。【解決手段】 入力した画像データから、罫線や地肌罫線のような所定の特徴要素を抽出し(S22,S32)、上記所定の特徴要素について、その特徴要素が満たすべき条件と、画像データ中でその条件を満たす特徴要素を基準として定められる領域の属性とを予め定めた判定条件を参照して、上記特徴要素と上記判定条件とに基づき、上記入力した画像データ中の上記判定条件により規定された領域に、上記判定条件により規定された属性を設定するようにした(S24,S34)。【選択図】 図6PROBLEM TO BE SOLVED: To perform image area separation with high accuracy. A predetermined feature element such as a ruled line or a background ruled line is extracted from input image data (S22, S32), and the condition that the feature element should satisfy for the predetermined feature element and in the image data With reference to the predetermined determination condition, the attribute of the region defined based on the characteristic element satisfying the condition is defined by the determination condition in the input image data based on the characteristic element and the determination condition. The attribute defined by the determination condition is set in the area (S24, S34). [Selection] Figure 6

Description

この発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来から、画像に対して圧縮等の処理を行う場合において、文字領域を的確に判定して、文字のみの原稿に対して圧縮率を上げることにより、ファイルサイズを小さくする技術が知られている。このような技術は例えば特許文献1に記載されている。
さらに、帳票上から縦及び横の罫線を抽出し、抽出した罫線をもとにセルを抽出し、セル毎に文字認識を行う技術が知られている。このような技術は例えば特許文献2に記載されている。
2. Description of the Related Art Conventionally, when processing such as compression is performed on an image, a technique for accurately reducing a file size by accurately determining a character area and increasing a compression rate for a document containing only characters is known. . Such a technique is described in Patent Document 1, for example.
Furthermore, a technique is known in which vertical and horizontal ruled lines are extracted from a form, cells are extracted based on the extracted ruled lines, and character recognition is performed for each cell. Such a technique is described in Patent Document 2, for example.

また、特許文献3には、原稿をデジタル的に走査して得られる画像の地肌レベルを検出後、複数のパラメータを用いて画像の文字エッジを検出し、地肌レベルに応じて複数のパラメータを変更する構成が開示されている。   In Patent Document 3, after detecting the background level of an image obtained by digitally scanning a document, a character edge of the image is detected using a plurality of parameters, and the plurality of parameters are changed according to the background level. The structure to perform is disclosed.

しかし、上述した従来の方式で、文字領域を他と区別するなどの像域分離を行おうとした場合、例えば新聞のような地肌レベルの高い紙の原稿からスキャンした画像に対して適用すると、文字領域を絵柄領域と誤検知してしまうという問題があった。文字領域の誤検知に関する問題は、特許文献3の技術を用いても十分に解決できていない。   However, when image area separation such as distinguishing a character area from others is performed by the conventional method described above, when applied to an image scanned from a paper document having a high background level such as a newspaper, the character area There is a problem that the area is erroneously detected as a picture area. The problem relating to the erroneous detection of the character area cannot be sufficiently solved even by using the technique of Patent Document 3.

この発明は、このような問題を解決し、像域分離を精度よく行えるようにすることを目的とする。なお、画像中で検出すべき領域は、文字領域には限らない。   An object of the present invention is to solve such problems and to perform image area separation with high accuracy. The area to be detected in the image is not limited to the character area.

この発明の画像処理装置は、上記の目的を達成するため、画像処理装置において、画像データを入力する入力手段と、上記入力手段が入力した画像データから、所定の特徴要素を抽出する抽出手段と、上記所定の特徴要素について、その特徴要素が満たすべき条件と、画像データ中でその条件を満たす特徴要素を基準として定められる領域の属性とを予め定めた判定条件を参照して、上記抽出手段が抽出した特徴要素と、上記判定条件とに基づき、上記入力した画像データ中の、上記判定条件により規定された領域に、上記判定条件により既定された属性を設定する属性設定手段とを設けた。   In order to achieve the above object, an image processing apparatus according to the present invention includes an input unit for inputting image data, and an extraction unit for extracting predetermined feature elements from the image data input by the input unit. The extraction means with reference to a predetermined determination condition for the predetermined feature element, a condition to be satisfied by the feature element, and an attribute of a region defined on the basis of the feature element satisfying the condition in the image data Is provided with attribute setting means for setting an attribute defined by the determination condition in an area defined by the determination condition in the input image data based on the feature element extracted by .

上記構成によれば、像域分離を精度よく行うことができる。   According to the above configuration, image area separation can be performed with high accuracy.

この発明による画像処理装置の一実施形態であるMFPのハードウェア構成を示す図である。1 is a diagram showing a hardware configuration of an MFP which is an embodiment of an image processing apparatus according to the present invention. FIG. 図1に示したMFPが備える画像処理部200の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of an image processing unit 200 included in the MFP illustrated in FIG. 1. 図2に示したスキャナ補正部210の機能構成を示す図である。FIG. 3 is a diagram illustrating a functional configuration of a scanner correction unit 210 illustrated in FIG. 2. 図3に示した文字領域判定部212の機能構成を詳細に示す図である。It is a figure which shows the function structure of the character area determination part 212 shown in FIG. 3 in detail. 図2に示した画像処理部200による画像処理の基本フローチャートである。3 is a basic flowchart of image processing by the image processing unit 200 shown in FIG. 2. 図5に示した文字領域判定(S11)のより詳細な処理手順のフローチャートである。It is a flowchart of the more detailed process sequence of character area determination (S11) shown in FIG. 図6の続きのフローチャートである。FIG. 7 is a flowchart continued from FIG. 6. 紙面を読み取った画像データに対し、罫線の領域設定の処理を適用する例について説明するための図である。FIG. 10 is a diagram for describing an example in which ruled line region setting processing is applied to image data obtained by reading a paper surface. その別の図である。It is another figure. そのさらに別の図である。It is another figure. 図8Aと同じ画像データに対し、地肌罫線についての領域設定の処理を適用する例について説明するための図である。It is a figure for demonstrating the example which applies the process of the area | region setting about a background ruled line with respect to the same image data as FIG. 8A. その別の図である。It is another figure. 特定文字についての領域設定の処理について説明するための図である。It is a figure for demonstrating the process of the area | region setting about a specific character. 罫線による判定条件を使って地肌罫線の抽出を行う方法の説明のための図である。It is a figure for demonstrating the method of extracting a background ruled line using the determination conditions by a ruled line. その別の図である。It is another figure. 地肌抽出の結果から地肌罫線の候補を抽出する方法の説明のための図である。It is a figure for demonstrating the method of extracting the candidate of a background ruled line from the result of a background extraction. その別の図である。It is another figure. 複数の特徴要素に基づく領域の設定結果を集計して最終的に文字領域を確定させる方法について説明するための図である。It is a figure for demonstrating the method of totaling the setting result of the area | region based on a some feature element, and finally determining a character area.

以下、この発明の実施形態について、図面を参照しつつ説明する。
図1に、この発明による画像処理装置の一実施形態であるMFP(デジタル複合機)のハードウェア構成を示す。
図1に示すMFP100は、スキャン、プリント、コピー、ファクシミリ通信、および文書蓄積等の機能を備えた画像処理装置である。
図1に示すように、MFP100は、CPU101、ROM102、RAM103、HDD(ハードディスクドライブ)104、通信I/F(インタフェース)105、操作部106、表示部107、およびエンジンI/F108を備えている。そして、これらをシステムバス109により接続してMFP100を構成している。また、エンジンI/F108には、スキャナ120、プロッタ130及び画像処理部200が接続される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows a hardware configuration of an MFP (digital multifunction peripheral) which is an embodiment of an image processing apparatus according to the present invention.
An MFP 100 shown in FIG. 1 is an image processing apparatus having functions such as scanning, printing, copying, facsimile communication, and document storage.
As illustrated in FIG. 1, the MFP 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD (hard disk drive) 104, a communication I / F (interface) 105, an operation unit 106, a display unit 107, and an engine I / F 108. These are connected via the system bus 109 to constitute the MFP 100. In addition, a scanner 120, a plotter 130, and an image processing unit 200 are connected to the engine I / F 108.

そして、CPU101が、RAM103をワークエリアとしてROM102あるいはHDD104に記憶された所要のプログラムを実行することにより、MFP100全体を制御し、種々の機能を実現する。
ROM102及びHDD104は、不揮発性記憶媒体(記憶手段)であり、CPU101が実行する各種プログラムや後述する各種データを格納している。
通信I/F105は、外部の装置と通信するためのインタフェースである。使用する通信路の規格に応じた物を設ければよい。
Then, the CPU 101 controls the entire MFP 100 and implements various functions by executing necessary programs stored in the ROM 102 or the HDD 104 using the RAM 103 as a work area.
The ROM 102 and the HDD 104 are non-volatile storage media (storage means) and store various programs executed by the CPU 101 and various data described later.
The communication I / F 105 is an interface for communicating with an external device. What is necessary is just to provide the thing according to the standard of the communication channel to be used.

操作部106は、ユーザからの操作を受け付けるための操作手段であり、各種のキー、ボタン、タッチパネル等により構成される。
表示部107は、MFP100の動作状態や設定内容、メッセージ等をユーザに提示するための提示手段であり、液晶ディスプレイやランプ等を備えている。
The operation unit 106 is an operation means for accepting an operation from a user, and includes various keys, buttons, a touch panel, and the like.
Display unit 107 is a presentation unit for presenting the operating state of MFP 100, setting contents, a message, and the like to the user, and includes a liquid crystal display, a lamp, and the like.

なお、操作部106及び表示部107は外付けであってもよい。また、MFP100が必ずしもユーザからの操作を直接受ける必要はない。MFP100は、通信I/F105を介して接続された外部装置による操作を受け付けたり、その外部装置に対して情報の提示を行ったりしてもよい。その場合には、操作部106や表示部107を設けなくてもよい。   Note that the operation unit 106 and the display unit 107 may be externally attached. Further, it is not always necessary for MFP 100 to directly receive an operation from the user. The MFP 100 may accept an operation by an external device connected via the communication I / F 105 or may present information to the external device. In that case, the operation unit 106 and the display unit 107 may not be provided.

エンジンI/F108は、スキャナ120、プロッタ130及び画像処理部200をシステムバス109に接続してCPU101から制御できるようにするためのインタフェースである。
スキャナ120は、原稿の画像を読み取ってその画像データを出力する画像読取装置であり、読み取った画像データを画像処理部200へ送る。
画像処理部200は、画像処理手段であり、スキャナ120で読み取った原稿の原稿種別を判定し、原稿種別に応じて原稿に適した画像解像度の圧縮率を選択し、その圧縮率に従って画像データを圧縮して圧縮画像データを出力する。
プロッタ130は、画像データに従って用紙に画像を形成する画像形成手段であり、画像処理部200が出力した圧縮画像データに基づき画像を形成することができる。
The engine I / F 108 is an interface for connecting the scanner 120, the plotter 130, and the image processing unit 200 to the system bus 109 so that the CPU 101 can control them.
The scanner 120 is an image reading device that reads an image of a document and outputs the image data, and sends the read image data to the image processing unit 200.
The image processing unit 200 is an image processing unit that determines a document type of a document read by the scanner 120, selects an image resolution compression rate suitable for the document according to the document type, and converts image data according to the compression rate. Compress and output compressed image data.
The plotter 130 is an image forming unit that forms an image on a sheet according to the image data, and can form an image based on the compressed image data output from the image processing unit 200.

図2に、画像処理部200の機能構成を示す。図2に示す各部の機能は、専用のハードウェアで実現しても、プロセッサにソフトウェアを実行させることによって実現しても、その組み合わせでもよい。一部の機能をCPU101が担うことも考えられる。
この画像処理部200は図2に示すように、スキャナ補正部210、圧縮処理部220、データインタフェース部230、伸張処理部240、およびプリンタ補正部250を備える。
FIG. 2 shows a functional configuration of the image processing unit 200. The functions of the units shown in FIG. 2 may be realized by dedicated hardware, realized by causing a processor to execute software, or a combination thereof. It is also conceivable that the CPU 101 assumes some functions.
As shown in FIG. 2, the image processing unit 200 includes a scanner correction unit 210, a compression processing unit 220, a data interface unit 230, an expansion processing unit 240, and a printer correction unit 250.

これらのうち、スキャナ補正部210は、スキャナ120が読み取った画像データを分類し画像処理を施す機能を備える。その機能の詳細は図3によって後述する。
圧縮処理部220は、スキャナ補正部210で補正した後の画像データを内部処理用に圧縮する機能を備える。
データインタフェース部230は、圧縮処理部220で圧縮した画像データをHDD104へ一時保存する際のHDD管理インタフェースである。
Among these, the scanner correction unit 210 has a function of classifying image data read by the scanner 120 and performing image processing. Details of the function will be described later with reference to FIG.
The compression processing unit 220 has a function of compressing the image data corrected by the scanner correction unit 210 for internal processing.
The data interface unit 230 is an HDD management interface used when the image data compressed by the compression processing unit 220 is temporarily stored in the HDD 104.

伸張処理部240は、内部処理用の圧縮画像データをプロッタ130での画像形成に用いるために伸張する機能を備える。
プリンタ補正部250は、伸張処理部240で伸張した画像データを、必要に応じて補正を加えた上でプロッタ130へ送出する機能を備える。
The decompression processing unit 240 has a function of decompressing the compressed image data for internal processing for use in image formation by the plotter 130.
The printer correction unit 250 has a function of sending the image data expanded by the expansion processing unit 240 to the plotter 130 after correcting it as necessary.

次に、図3に、図2に示したスキャナ補正部210の機能構成を示す。
このスキャナ補正部210は図3に示すように、原稿種判定部211、文字領域判定部212、像域分離部213、スキャナγ部214、フィルタ処理部215、色補正処理部216、および文字γ部217を備えている。
これらのうち原稿種判定部211は、文字が存在する原稿の特徴と有彩原稿の特徴と印画紙写真の特徴と印刷写真の特徴とから、処理対象の画像データが文字のみの原稿の画像データかカラー原稿の画像データかを判定する機能を備える。
Next, FIG. 3 shows a functional configuration of the scanner correction unit 210 shown in FIG.
As shown in FIG. 3, the scanner correction unit 210 includes a document type determination unit 211, a character region determination unit 212, an image region separation unit 213, a scanner γ unit 214, a filter processing unit 215, a color correction processing unit 216, and a character γ. A portion 217 is provided.
Among these, the document type determination unit 211 determines the image data of a document with only image data to be processed from the characteristics of a document having characters, the characteristics of a chromatic document, the characteristics of a photographic paper photograph, and the characteristics of a printed photograph. Or a color original image data.

文字領域判定部212は、画像の特徴から画像データが示す画像中の文字領域を判定する機能を備え、原稿種判定部211で判定しきれない画像データについて判定を行ったり、誤判定を防ぐために再判定を行ったりする役割を担う。
像域分離部213は、文字領域判定部212による文字領域の判定結果を参照しつつ、処理対象の画像データを黒文字エッジ領域と色文字エッジ領域とその他の3つの領域に分離する機能を備えている。
The character area determination unit 212 has a function of determining the character area in the image indicated by the image data from the features of the image, in order to determine image data that cannot be determined by the document type determination unit 211, or to prevent erroneous determination. Plays the role of re-determination.
The image area separation unit 213 has a function of separating the image data to be processed into a black character edge area, a color character edge area, and other three areas while referring to the determination result of the character area by the character area determination unit 212. Yes.

スキャナγ部214は、画像データを反射率リニアから濃度リニアのデータに変換する機能を備える。
フィルタ処理部215は、複数のフィルタを切り替えつつ、処理対象の画像データのうち像域分離部213により分離された3つの領域に対し、それぞれ異なるフィルタ処理を行う機能を備えている。
The scanner γ unit 214 has a function of converting image data from reflectance linear to density linear data.
The filter processing unit 215 has a function of performing different filter processing on three regions separated by the image region separation unit 213 in the image data to be processed while switching a plurality of filters.

色補正処理部216は、黒文字エッジ領域以外でRGBの画像データをCMYKの画像データに変換する手段である。
文字γ部217は、文字領域にある色文字と黒文字に対してγを立たせ、文字を強調する機能を備える。文字γ部217による処理後の画像データは圧縮処理部220に供給される。
The color correction processing unit 216 is means for converting RGB image data into CMYK image data outside the black character edge region.
The character γ part 217 has a function of emphasizing a character by raising γ with respect to a color character and a black character in the character area. The image data processed by the character γ unit 217 is supplied to the compression processing unit 220.

次に、図4に、図3に示した文字領域判定部212の機能構成をさらに詳細に示す。
文字領域判定部212は、罫線領域判定部261、地肌罫線領域判定部262、特定文字領域判定部263、判定条件取得部264、判定条件265、範囲抽出部266、および判定結果設定部267で構成される。
罫線領域判定部261は、判定条件取得部264が取得した判定条件に罫線に関する項目が存在する場合に、罫線に基づき画像データへの領域及び属性の設定を行う機能を備える。
Next, FIG. 4 shows the functional configuration of the character area determination unit 212 shown in FIG. 3 in more detail.
The character region determination unit 212 includes a ruled line region determination unit 261, a background ruled line region determination unit 262, a specific character region determination unit 263, a determination condition acquisition unit 264, a determination condition 265, a range extraction unit 266, and a determination result setting unit 267. Is done.
The ruled line area determination unit 261 has a function of setting an area and an attribute for image data based on a ruled line when an item related to a ruled line exists in the determination condition acquired by the determination condition acquiring unit 264.

この罫線領域判定部261は、例えば、帳票データあるいは紙に印刷された帳票から読み取った画像データから縦罫線及び横罫線を抽出し、抽出した各罫線について、判定条件と比較するためのパラメータを算出する。そして、抽出した各罫線のパラメータと判定条件とを照合し、一致した各罫線について、判定条件に沿って領域の設定及び属性を設定する。各領域に設定する属性は、文字領域、絵柄領域等が考えられる。   The ruled line area determination unit 261 extracts, for example, vertical ruled lines and horizontal ruled lines from image data read from form data or a form printed on paper, and calculates parameters for comparing each extracted ruled line with a determination condition. To do. Then, the parameter of each ruled line extracted is compared with the determination condition, and the setting of the region and the attribute are set according to the determination condition for each matched ruled line. As the attributes set in each area, a character area, a picture area, or the like can be considered.

地肌罫線領域判定部262は、判定条件取得部264が取得した判定条件に地肌罫線に関する項目が存在する場合に、地肌罫線に基づき画像データへの領域及び属性の設定を行う機能を備える。なお、地肌罫線とは、線の代わりに地肌の空間を使って罫線を構成したものである。   The background ruled line region determination unit 262 has a function of setting an area and an attribute for image data based on the background ruled line when an item related to the background ruled line exists in the determination condition acquired by the determination condition acquisition unit 264. The background ruled line is a ruled line that uses a background space instead of a line.

地肌罫線領域判定部262は、例えば、帳票データあるいは紙に印刷された帳票から読み取った画像データから地肌領域を抽出し、抽出した地肌領域について、判定条件と比較するためのパラメータを算出する。はじめから、地肌罫線候補となるような細長い領域だけ抽出するようにしてもよい。そして、抽出した各地肌領域のパラメータと判定条件とを照合し、一致した地肌領域を地肌罫線として、各地肌罫線について判定条件に沿って領域の設定及び属性を設定する。地肌領域の抽出方法については、図12A及び図12Bを用いて後述する。   The background ruled line area determination unit 262 extracts a background area from image data read from, for example, form data or a form printed on paper, and calculates a parameter for comparing the extracted background area with a determination condition. From the beginning, only a long and narrow area that can be a background ruled line candidate may be extracted. Then, the parameters of the extracted skin regions are compared with the determination conditions, and the matching background regions are set as the background ruled lines, and the settings and attributes of the regions are set according to the determination conditions for the local skin ruled lines. A method for extracting the background area will be described later with reference to FIGS. 12A and 12B.

特定文字領域判定部263は、判定条件取得部264が取得した判定条件に特定文字に関する項目が存在する場合に、特定の文字に基づき画像データへの領域及び属性の設定を行う機能を備える。
特定文字領域判定部263は、例えば、帳票データあるいは紙に印刷された帳票から読み取った画像データ内に判定条件と一致する特定の文字が存在するか検索する。そして、抽出した各特定の文字について、判定条件に沿って領域の設定及び属性を設定する。
The specific character area determination unit 263 has a function of setting an area and an attribute for image data based on a specific character when an item related to the specific character exists in the determination condition acquired by the determination condition acquisition unit 264.
The specific character area determination unit 263 searches for, for example, whether there is a specific character that matches the determination condition in the image data read from the form data or the form printed on paper. Then, for each extracted specific character, the setting of the region and the attribute are set according to the determination condition.

判定条件取得部264は、判定条件265として登録されている情報を読み出して取得する機能を備える。
判定条件265は、誤検知しやすい原稿(の画像データ)が持つ特徴から文字領域をはじめとする種々の領域を判定するための種々の条件を規定したものである。
その判定は、文字領域、絵柄領域、などの領域の位置の基準とする罫線、地肌罫線、および特定文字などの特徴要素に基づいて行われる。具体例は後述するが、判定条件265は、特徴要素が満たすべき条件と、画像データ中でその条件を満たす特徴要素を基準として、どの位置にどの属性の領域を設定するかを規定するデータである。
The determination condition acquisition unit 264 has a function of reading and acquiring information registered as the determination condition 265.
The determination condition 265 defines various conditions for determining various regions including a character region based on the characteristics of the document (image data) that is likely to be erroneously detected.
The determination is made based on feature elements such as a ruled line, a background ruled line, and a specific character that serve as a reference for the positions of areas such as a character area and a picture area. Although a specific example will be described later, the determination condition 265 is data that defines which attribute region is set at which position based on the condition that the feature element should satisfy and the feature element that satisfies the condition in the image data. is there.

範囲抽出部266は、罫線領域判定部261、地肌罫線領域判定部262、および特定文字領域判定部263が設定した結果から、画像データ中の、文字領域、絵柄領域などの各種属性の領域の範囲を確定する。
判定結果設定部267は、画像データ中の、文字領域と確定された範囲に対し、それ以外の部分と異なる圧縮率を設定する手段である。
なお、罫線領域判定部261、地肌罫線領域判定部262、および特定文字領域判定部263が実際に判定を行うか否かは、判定条件265としてどの特徴要素に関する条件が保持されているかに依存する。
Based on the results set by the ruled line region determining unit 261, the background ruled line region determining unit 262, and the specific character region determining unit 263, the range extracting unit 266 determines the range of various attribute regions such as character regions and design regions in the image data. Confirm.
The determination result setting unit 267 is a means for setting a compression rate different from that of the other portions for the range determined as the character area in the image data.
Note that whether or not the ruled line region determination unit 261, the background ruled line region determination unit 262, and the specific character region determination unit 263 actually perform the determination depends on which characteristic element is held as the determination condition 265. .

次に、表1〜表4に、判定条件265のいくつかの具体例を示す。
判定条件265は、表1に示す特徴要素のカテゴリ一覧と、表2〜表4に示す各カテゴリの詳細テーブルを含む。
Next, Tables 1 to 4 show some specific examples of the determination condition 265.
The determination condition 265 includes a feature element category list shown in Table 1 and a detailed table of each category shown in Tables 2 to 4.

表1〜表4の各テーブルには、テーブル内の項目同士の優先順位を付けられるようにする。例としては、罫線に関する判定より地肌罫線に関する判定を先に行いたい場合に、表1のテーブル中の特徴要素を希望する実行順に並べ変えることにより、各特徴要素に関する判定をその実行順で行えるようにすることが考えられる。表2〜表4の各判定条件についても同様である。表1〜表4では、IDを優先度を含めたシーケンシャル番号としている。   Each table in Tables 1 to 4 can be prioritized among items in the table. As an example, when it is desired to perform the determination regarding the background ruled line before the determination regarding the ruled line, the characteristic elements in the table of Table 1 are rearranged in the desired execution order so that the determination regarding each characteristic element can be performed in the execution order. Can be considered. The same applies to the determination conditions in Tables 2 to 4. In Tables 1 to 4, ID is a sequential number including priority.

表1は、特徴要素のカテゴリのIDと、そのカテゴリを構成する特徴要素の種類の情報で構成されているテーブルである。表1にある罫線、特定文字、地肌罫線以外の種類を用いることも考えられる。その場合、文字領域判定部212に、特徴要素の種類と対応する判定部を設ける。   Table 1 is a table composed of feature element category IDs and information on types of feature elements constituting the category. It is also conceivable to use types other than the ruled lines, specific characters, and background ruled lines in Table 1. In this case, the character region determination unit 212 is provided with a determination unit corresponding to the type of feature element.

表2〜表4は、表1で定義された各カテゴリの特徴要素に関する判定条件の詳細を登録したテーブルである。表1で定義されたカテゴリの数の分だけ詳細テーブルを作ることとし、ここでは表1で定義した3つのカテゴリに対応して表2〜表4を設けている。
表2〜表4の詳細テーブルでは、1行のデータが1つの判定条件の内容を示す。そして、各判定条件は、「ID」、「要素条件」、「範囲」、および「判定結果」の情報を含む。
Tables 2 to 4 are tables in which details of determination conditions regarding the feature elements of each category defined in Table 1 are registered. As many detailed tables as the number of categories defined in Table 1 are created. Here, Tables 2 to 4 are provided corresponding to the three categories defined in Table 1.
In the detailed tables in Tables 2 to 4, one line of data indicates the contents of one determination condition. Each determination condition includes information of “ID”, “element condition”, “range”, and “determination result”.

これらのうち、「要素条件」は、特徴要素、あるいは特徴要素と他の要素との関係が満たすべき条件を既定したものであり、特徴要素のカテゴリにより、数も内容も異なる。
「範囲」は、特徴要素を基準に領域をどの位置に設定するかを示す。「判定結果」は、その設定した領域に設定する属性を示す。表2〜表4の例では判定結果は文字(文字領域)ばかりであるが、その他の属性を設定してもよいことは勿論である。
Among these, the “element condition” is a condition in which a characteristic element or a condition to be satisfied by a relationship between the characteristic element and another element is defined, and the number and contents differ depending on the category of the characteristic element.
“Range” indicates a position where an area is set based on a feature element. “Determination result” indicates an attribute to be set in the set area. In the examples of Tables 2 to 4, the determination result is only a character (character area), but it is needless to say that other attributes may be set.

表2のテーブルは、表1のテーブルでID=Aの罫線に関する判定条件のテーブルである。罫線については、要素条件として、向き、線色、太さ、範囲色、間隔を設けている。
このうち「向き」は、罫線の向きの条件のことで、縦線、横線、Don’t care(任意)のいずれかが入るものとする。「線色」は罫線の色の条件のことで、表2では黒と示しているが、RGBの比率または量などの色情報でもよい。「太さ」は罫線の太さの条件のことで、図ではミリメートル(mm)単位で示しているが、インチ(inch)や画素など単位は適当なものを使用することができる。丁度の太さでなくても、所定誤差範囲であればよいものとする。
The table in Table 2 is a table of determination conditions related to the ruled line with ID = A in the table in Table 1. For ruled lines, orientation, line color, thickness, range color, and interval are provided as element conditions.
Among these, “direction” is a condition of the direction of the ruled line, and any one of a vertical line, a horizontal line, and Don't care (arbitrary) is entered. “Line color” is a ruled line color condition and is shown as black in Table 2, but may be color information such as RGB ratio or amount. “Thickness” is a condition of the thickness of the ruled line, and is shown in millimeters (mm) in the figure, but an appropriate unit such as inch or pixel can be used. Even if it is not just the thickness, it may be within a predetermined error range.

「範囲色」は、該当の特徴要素を基準に「範囲」の条件に従い設定される領域内が白黒の場合のみ、該当の特徴要素が要素条件を満たすとするか、カラーを含んでもよいとするかの指定である。「間隔」は、罫線の間隔のことで、抽出された隣の罫線との間の間隔の条件である。この「範囲色」及び「間隔」は、特徴要素そのものの特性に関する条件ではない。   The “range color” is assumed that the corresponding feature element satisfies the element condition or may include color only when the area set in accordance with the “range” condition based on the corresponding feature element is monochrome. Is specified. The “interval” is an interval between ruled lines, and is a condition for an interval between the extracted adjacent ruled lines. The “range color” and “interval” are not conditions related to the characteristics of the feature elements themselves.

例えば、ID=A_001の判定条件では、ある罫線が、縦向きの黒い罫線であって太さが0.1mm、隣の罫線との間に挟まれた部分(「範囲」の条件に基づく)が白黒であれば、隣の罫線との間の間隔によらず、要素条件を満たすことになる。そしてこの場合、要素条件を満たした罫線と、隣の罫線(こちらも同じIDの要素条件を満たす必要がある)との間にはさまれた部分に領域を設定し、その領域の属性を「文字」に設定すべきことが規定されている。   For example, in the determination condition of ID = A_001, a certain ruled line is a vertical black ruled line having a thickness of 0.1 mm and sandwiched between adjacent ruled lines (based on the “range” condition). In the case of black and white, the element condition is satisfied regardless of the interval between adjacent ruled lines. In this case, an area is set between the ruled line that satisfies the element condition and the adjacent ruled line (which also needs to satisfy the element condition of the same ID), and the attribute of the area is set to “ It is specified that it should be set to "character".

次に、表3のテーブルは、表1のテーブルでID=Bの特定文字に関する判定条件のテーブルである。特定文字については、要素条件として、記号、範囲色、組合せ、記号含むか、向き、を設けている。
「記号」は判定で使用する特定の文字(文字列でもよい)を示しており、画像データや文字コード、フォント、大きさ(幅と高さ)などで示す。「範囲色」は表2の場合と同じである。「組合せ」は、「範囲」を他のIDの要素条件を満たす特徴要素を用いて定めたい場合に、そのIDを指定する項目である。複数のIDを指定してもよい。
「記号含むか」は、「範囲」を特定の文字そのものを含むように設定するか否かを示す。「向き」は、判定で使用する文字列の向きを示し、横と縦のいずれかを指定する。
これらのうち「記号」及び「向き」以外は、特徴要素そのものの特性に関する条件ではない。
Next, the table of Table 3 is a table of determination conditions regarding the specific character of ID = B in the table of Table 1. For specific characters, element conditions include symbols, range colors, combinations, symbols included, or orientations.
“Symbol” indicates a specific character (may be a character string) used in the determination, and is indicated by image data, character code, font, size (width and height), and the like. The “range color” is the same as in Table 2. “Combination” is an item for specifying an ID when it is desired to define “range” using a feature element that satisfies an element condition of another ID. A plurality of IDs may be specified.
“Is symbol included” indicates whether or not “range” is set to include a specific character itself. “Direction” indicates the direction of the character string used in the determination, and designates either horizontal or vertical.
Of these, conditions other than “symbol” and “orientation” are not conditions relating to the characteristics of the characteristic elements themselves.

例えば、ID=B_001の判定条件では、ある特定の文字「Å」が、横向きに配列され、当該「Å」の文字を含み、その文字から、文字列の配列方向に向かって次のID=A_001の罫線までの領域(「範囲」の条件に基づく)が白黒であれば、その文字「Å」が要素条件を満たすことになる。そして、この場合に、上記「範囲」の条件に基づく領域を設定し、その領域の属性を「文字」に設定すべきことが規定されている。   For example, under the determination condition of ID = B_001, a specific character “Å” is arranged horizontally, includes the character “Å”, and from that character toward the arrangement direction of the character string, the next ID = A_001 If the area up to the ruled line (based on the “range” condition) is black and white, the character “Å” satisfies the element condition. In this case, it is stipulated that an area based on the above "range" condition should be set and the attribute of the area should be set to "character".

次に、表4のテーブルは、表1のテーブルでID=Cの地肌罫線に関する判定条件のテーブルである。地肌罫線については、要素条件として、向き、太さ、範囲色、間隔、が規定されている。この地肌罫線に関する判定条件は、要素条件に「色」を含まない点以外は表2の罫線に関する判定条件と同じである。   Next, the table of Table 4 is a table of determination conditions regarding the background ruled line of ID = C in the table of Table 1. For the background ruled line, orientation, thickness, range color, and interval are defined as element conditions. The determination conditions related to the background ruled lines are the same as the determination conditions related to the ruled lines in Table 2 except that the element condition does not include “color”.

次に、画像処理部200による、以上説明してきた判定条件に従った領域及び属性の設定を含む画像処理の手順について、フローチャートを用いて説明する。
図5に、その画像処理の基本フローを示す。
画像処理部200は、スキャナ120から画像データを取得すると、図5のフローチャートに示す処理を開始する。この画像データの取得に係る処理が、入力手順の処理である。また、入力手段の機能と対応する。
Next, a procedure of image processing including setting of areas and attributes according to the determination conditions described above by the image processing unit 200 will be described using a flowchart.
FIG. 5 shows a basic flow of the image processing.
When the image processing unit 200 acquires image data from the scanner 120, the image processing unit 200 starts processing shown in the flowchart of FIG. The process related to the acquisition of the image data is an input procedure process. This also corresponds to the function of the input means.

そしてまず、スキャナ補正部210の文字領域判定部212が画像データ中の文字領域と、それ以外の領域とを判定する(S11)。このステップS11の文字領域判定の詳細については、図6及び図7を用いて後述する。次に、スキャナ補正部210の像域分離部213から文字γ部217までの各部が順次、スキャナ120から取得した画像データに対し、スキャナ画像用の画像処理を行う(S12)。   First, the character area determination unit 212 of the scanner correction unit 210 determines a character area in the image data and other areas (S11). Details of the character region determination in step S11 will be described later with reference to FIGS. Next, each unit from the image area separation unit 213 to the character γ unit 217 of the scanner correction unit 210 sequentially performs image processing for the scanner image on the image data acquired from the scanner 120 (S12).

次に、圧縮処理部220が、文字領域判定部212の判定に従い、スキャナ120から取得した画像データに対し、文字領域とその他の領域(例えば絵柄領域)にそれぞれ適当な方法による圧縮処理を実施する(S13)。その後、画像処理部200は、データインタフェース部230を通じてHDD104へ圧縮後の画像データを保存する(S14)。   Next, in accordance with the determination by the character area determination unit 212, the compression processing unit 220 performs compression processing on the image data acquired from the scanner 120 by an appropriate method for each of the character area and other areas (for example, the pattern area). (S13). Thereafter, the image processing unit 200 stores the compressed image data in the HDD 104 through the data interface unit 230 (S14).

その後、プロッタ130にて印刷出力する際に、伸張処理部240が、ステップS14で保存した画像を伸張処理する(S15)。次に、プリンタ補正部250が、伸張後の画像データに対しプロッタ130の特性に合わせた画像処理を実施するとともに、ステップS11の判定結果に沿って文字領域の文字を強調する画像処理を行って、処理後の画像データを出力する(S16)。
以上で図5の処理は終了する。ステップS16で文字に対して特別な画像処理を行う理由は、ステップS12〜S15の処理を実施することにより文字の端部が薄くなることや、地肌レベルが高い原稿で裏移りが発生することによる、文字の読みにくさを改善するためである。
Thereafter, when the plotter 130 prints out, the decompression processing unit 240 decompresses the image stored in step S14 (S15). Next, the printer correction unit 250 performs image processing according to the characteristics of the plotter 130 on the decompressed image data, and performs image processing that emphasizes characters in the character area according to the determination result of step S11. Then, the processed image data is output (S16).
Thus, the process of FIG. 5 ends. The reason why special image processing is performed on the character in step S16 is that the end of the character is thinned by performing the processing in steps S12 to S15, or the back-off occurs in a document having a high background level. This is to improve the difficulty in reading characters.

次に、図6に、図5のステップS11の文字領域判定のより詳細な処理手順のフローチャートを示す。このフローチャートに示す処理は、図4に示した文字領域判定部212の機能と対応するものである。
図6の処理においてはまず、文字領域判定部212は、判定条件取得部264が取得した判定条件265のカテゴリ一覧(表1)を参照し、判定条件265に、罫線に関する条件があるか否か判断する(S21)。ここで、あれば、罫線についての領域の設定について検討すべく、罫線領域判定部261が、画像データから罫線を全て抽出すると共に(S22)、罫線に関する各判定条件(表2参照)を順次処理対象としつつ、ステップS23〜S25の処理を繰り返す。
Next, FIG. 6 shows a flowchart of a more detailed processing procedure for character region determination in step S11 of FIG. The processing shown in this flowchart corresponds to the function of the character area determination unit 212 shown in FIG.
In the process of FIG. 6, first, the character region determination unit 212 refers to the category list (Table 1) of the determination condition 265 acquired by the determination condition acquisition unit 264, and whether or not the determination condition 265 has a rule line condition. Judgment is made (S21). Here, if there is any ruled line area, the ruled line area determination unit 261 extracts all the ruled lines from the image data (S22) and sequentially processes the determination conditions regarding the ruled lines (see Table 2). The process of steps S23 to S25 is repeated while targeting.

すなわち、罫線領域判定部261はまず、ステップS22で抽出した罫線のうち、処理対象の判定条件中の要素条件に合うものを取得する(S23)。このとき、罫線領域判定部261は取得しなかった罫線の情報も保持しておく。
そして、罫線領域判定部261は、ステップS23で取得した罫線と処理対象の判定条件とに従い、画像データ中に罫線を基準とした領域及びその属性を設定する(S24)。例えば、ID=A_001の判定条件を用いた場合、要素条件を満たす罫線に挟まれた部分に領域を設定し、その領域の属性を「文字」に設定する。最後に、処理対象の判定条件と対応付けて、要素条件に合う罫線を保存する(S25)。この保存は、別の特徴要素に関する処理で参照するために行うものである。
That is, the ruled line region determination unit 261 first acquires a ruled line extracted in step S22 that meets the element condition in the determination condition to be processed (S23). At this time, the ruled line region determination unit 261 also holds information on ruled lines that have not been acquired.
Then, the ruled line area determination unit 261 sets an area based on the ruled line and its attribute in the image data according to the ruled line acquired in step S23 and the determination condition of the processing target (S24). For example, when the determination condition of ID = A_001 is used, an area is set in a portion sandwiched between ruled lines that satisfy the element condition, and the attribute of the area is set to “character”. Finally, a ruled line that matches the element condition is stored in association with the determination condition to be processed (S25). This storage is performed for reference in processing related to another feature element.

また、ステップS22〜S25のループの終了後、あるいはステップS21でNOの場合、処理はステップS31に進む。ここでは、文字領域判定部212は、判定条件取得部264が取得した判定条件265に、地肌罫線に関する条件があるか否か判断する(S31)。なお、図6の例では、表1のデータと異なり、地肌罫線に関する判定を2番目に行うようにしている。   Further, after the end of the loop of steps S22 to S25, or if NO in step S21, the process proceeds to step S31. Here, the character region determination unit 212 determines whether or not the determination condition 265 acquired by the determination condition acquisition unit 264 includes a condition related to the background ruled line (S31). In the example of FIG. 6, unlike the data in Table 1, the determination regarding the background ruled line is performed second.

ステップS31でYesであれば、地肌罫線についての領域の設定について検討すべく、地肌罫線領域判定部262が、画像データから地肌罫線を全て抽出すると共に(S32)、地肌罫線に関する各判定条件(表4参照)を順次処理対象としつつ、ステップS33〜S35の処理を繰り返す。   If Yes in step S31, the background ruled line region determining unit 262 extracts all the background ruled lines from the image data in order to examine the setting of the area for the background ruled lines (S32), and each determination condition (table 4) is sequentially processed, and the processes in steps S33 to S35 are repeated.

すなわち、地肌罫線領域判定部262はまず、ステップS32で抽出した地肌罫線のうち、処理対象の判定条件中の要素条件に合うものを取得する(S33)。このとき、地肌罫線領域判定部262は取得しなかった地肌罫線の情報も保持しておく。
そして、地肌罫線領域判定部262は、ステップS33で取得した地肌罫線と処理対象の判定条件とに従い、画像データ中に地肌罫線を基準とした領域及びその属性を設定する(S34)。例えば、ID=C_001の判定条件を用いた場合、要素条件を満たす地肌罫線に挟まれた部分に領域を設定し、その領域の属性を「文字」に設定する。最後に、処理対象の判定条件と対応付けて、要素条件に合う地肌罫線を保存する(S35)。この保存は、別の特徴要素に関する処理で参照するために行うものである。
That is, the background ruled line region determination unit 262 first acquires a ruled line extracted in step S32 that meets the element condition in the determination condition to be processed (S33). At this time, the background ruled line region determination unit 262 also holds information on the background ruled lines that have not been acquired.
Then, the background ruled line region determination unit 262 sets a region based on the background ruled line and its attribute in the image data according to the background ruled line acquired in step S33 and the determination condition of the processing target (S34). For example, when the determination condition of ID = C_001 is used, an area is set in a portion sandwiched between background ruled lines that satisfy the element condition, and the attribute of the area is set to “character”. Finally, a background ruled line that matches the element condition is stored in association with the determination condition to be processed (S35). This storage is performed for reference in processing related to another feature element.

また、ステップS32〜S35のループの終了後、あるいはステップS31でNOの場合、処理は図7のステップS41に進む。ここでは、文字領域判定部212は、判定条件取得部264が取得した判定条件265に、特定文字に関する条件があるか否か判断する(S41)。
ステップS41でYesであれば、特定文字についての領域の設定について検討すべく、特定文字領域判定部263が特定文字に関する各判定条件(表3参照)を順次処理対象としつつ、ステップS42〜S46の処理を繰り返す。特定文字の場合、判定条件内に特定文字を抽出するための条件が含まれているため、罫線や地肌罫線の場合と異なり、ループの中で特定文字の抽出を行う。
Further, after the end of the loop of steps S32 to S35, or if NO in step S31, the process proceeds to step S41 of FIG. Here, the character region determination unit 212 determines whether or not the determination condition 265 acquired by the determination condition acquisition unit 264 includes a condition related to a specific character (S41).
If Yes in step S41, the specific character area determination unit 263 sequentially sets each determination condition (see Table 3) regarding the specific character as a processing target in order to examine setting of the area for the specific character. Repeat the process. In the case of a specific character, since the condition for extracting the specific character is included in the determination condition, the specific character is extracted in the loop unlike the case of the ruled line or the background ruled line.

ループの処理において、特定文字領域判定部263はまず、処理対象の判定条件から、「記号」及び「向き」の指定に従い、検索用の、特定文字のデータを生成する(S42)。次に、特定文字領域判定部263は、その生成した特定文字のデータに従い、処理対象の画像データから、特定文字を全て抽出する(S43)。
そして、抽出した特定文字のうち、処理対象の判定条件中の要素条件に合うものを取得する(S44)。このとき、特定文字領域判定部263は取得しなかった特定文字の情報も保持しておく。また、特定文字領域判定部263は、処理対象の判定条件において「組合せ」として指定された判定条件と対応付けて保存された特徴要素(ここでは、ステップS25で保存された罫線又はステップS35で保存された地肌罫線)を取得する(S45)。
In the loop processing, the specific character area determination unit 263 first generates specific character data for search according to the designation of “symbol” and “direction” from the determination condition to be processed (S42). Next, the specific character area determination unit 263 extracts all specific characters from the image data to be processed in accordance with the generated specific character data (S43).
Then, among the extracted specific characters, a character that matches the element condition in the determination condition to be processed is acquired (S44). At this time, the specific character area determination unit 263 also holds information on specific characters that have not been acquired. In addition, the specific character area determination unit 263 stores the feature elements stored in association with the determination condition specified as “combination” in the determination condition to be processed (here, the ruled line stored in step S25 or the step S35). The obtained background ruled line) is acquired (S45).

次に、特定文字領域判定部263は、ステップS44で取得した特定文字と、ステップS45で取得した特徴要素と、処理対象の判定条件とに従い、画像データ中に、特定文字を基準とした領域及びその属性を設定する(S46)。例えば、ID=B_001の判定条件を用いた場合、要素条件を満たす特定文字から、文字の配列方向で次のID=A_001の罫線までの範囲に領域を設定し、その領域の属性を「文字」に設定する。   Next, the specific character area determination unit 263 includes, in the image data, the area based on the specific character and the specific character acquired in step S44, the feature element acquired in step S45, and the determination target condition. The attribute is set (S46). For example, when the determination condition of ID = B_001 is used, an area is set in a range from a specific character that satisfies the element condition to the next ruled line of ID = A_001 in the character arrangement direction, and the attribute of the area is set to “character”. Set to.

ステップS42〜S46のループの終了後、あるいはステップS41でNOの場合、範囲抽出部266は、罫線、地肌罫線、および特定文字のそれぞれを基準に設定した領域を総合して、画像データ中の文字属性の領域を確定させる(S47)。ここでは文字属性としたが、他の属性でもよい。
以上で図7の処理を終了する。なお、ステップS47の処理の詳細は、図13を用いて後述する。
After the end of the loop of steps S42 to S46, or when NO in step S41, the range extraction unit 266 combines the areas set based on the ruled lines, the background ruled lines, and the specific characters, and the characters in the image data. The attribute area is determined (S47). Although the character attribute is used here, other attributes may be used.
The process in FIG. 7 is thus completed. Details of the process in step S47 will be described later with reference to FIG.

以上の図6及び図7の処理において、ステップS22、S32及びS43の処理が、抽出手順の処理であり、抽出手段の機能と対応する。ステップS24、S34、S46及びS47の処理が、属性設定手順の処理であり、属性設定手段の機能と対応する。
なお、この実施形態における文字領域判定部212は、上記抽出手段による複数の特徴要素についての特徴要素の抽出と、上記属性設定手段による記属性の設定とを、上述のように考慮する特徴要素を所定の順序で選択しつつ行う。
In the processing of FIGS. 6 and 7 described above, the processing of steps S22, S32, and S43 is the processing of the extraction procedure, and corresponds to the function of the extraction means. The processing of steps S24, S34, S46, and S47 is processing of the attribute setting procedure, and corresponds to the function of the attribute setting means.
Note that the character area determination unit 212 in this embodiment is a feature element that considers the extraction of feature elements for a plurality of feature elements by the extraction unit and the description attribute setting by the attribute setting unit as described above. It is performed while selecting in a predetermined order.

次に、図6及び図7の処理を具体的な画像データに適用する例について説明する。
まず図8A〜図8Cに、紙面を読み取った画像データに対し、ステップS22〜S25の、罫線についての領域の設定の処理を適用する例を示す。
図8Aは、初期状態の画像データを簡略的に表わしたものである。図中の太線601〜605は罫線を示しており、図中の細線610は文字を簡略的に表わしたものである。
図8Bは、太線601〜605の内、要素条件を満たす罫線を抽出した状態を示す。1段の間隔が30mmであり、各罫線の太さが0.1mmであるとすると、ID=A_002を処理対象とした図6のステップS22及びS23の処理により、要素条件を満たす罫線として、罫線701〜704が抽出される。
Next, an example in which the processing of FIGS. 6 and 7 is applied to specific image data will be described.
First, FIGS. 8A to 8C show an example in which the region setting processing for the ruled lines in steps S22 to S25 is applied to image data obtained by reading a paper surface.
FIG. 8A is a simplified representation of image data in the initial state. Thick lines 601 to 605 in the figure indicate ruled lines, and thin lines 610 in the figure simply represent characters.
FIG. 8B shows a state in which ruled lines that satisfy the element conditions are extracted from the thick lines 601 to 605. Assuming that the interval of one stage is 30 mm and the thickness of each ruled line is 0.1 mm, the ruled line is satisfied as a ruled line that satisfies the element condition by the processing in steps S22 and S23 of FIG. 701 to 704 are extracted.

図8Cは、それらの罫線に従って設定される領域を示す。図6のステップS24の処理では、抽出された罫線に挟まれた部分に領域が設定されるため、領域706〜708が設定される。
なお、図8Bでは、表2のID=A_001を処理対象としたときに抽出される罫線705も示している。しかし、この条件で抽出される罫線は罫線705のみであり、複数の罫線に挟まれる部分はないため、領域の設定はなされない。
FIG. 8C shows regions set according to the ruled lines. In the process of step S24 in FIG. 6, since areas are set in the portion sandwiched between the extracted ruled lines, areas 706 to 708 are set.
FIG. 8B also shows a ruled line 705 extracted when ID = A_001 in Table 2 is a processing target. However, the ruled line extracted under this condition is only the ruled line 705, and there is no portion between the plurality of ruled lines, so no area is set.

次に、図9A及び図9Bに、図8Aと同じ画像データに対し、図6のステップS32〜S35の、地肌罫線についての領域の設定の処理を適用する例を示す。
図9Aは、そこから要素条件を満たす地肌を抽出した状態を示す。図9Aに示すように、画像データ中の地肌領域としては、例えば符号801〜804に示す領域を抽出できる。しかし、この中で例えば表4のID=C_002の要素条件を満たす地肌領域は、地肌罫線801,802のみであり、これらが地肌罫線として抽出される。
Next, FIG. 9A and FIG. 9B show an example in which the region setting processing for the background ruled lines in steps S32 to S35 of FIG. 6 is applied to the same image data as FIG. 8A.
FIG. 9A shows a state in which the background satisfying the element condition is extracted therefrom. As shown in FIG. 9A, as the background area in the image data, for example, areas indicated by reference numerals 801 to 804 can be extracted. However, for example, the background areas satisfying the element ID = C — 002 in Table 4 are only the background ruled lines 801 and 802, and these are extracted as the background ruled lines.

図9Bは、それらの罫線に従って設定される領域を示す。ステップS34の処理では、抽出された地肌罫線に挟まれた部分に領域が設定されるため、領域811が設定される。なお、領域812は、図9Aの地肌罫線には挟まれていない。しかし、要素条件に「組合せ」としてA_002を規定することで、罫線703と地肌罫線802で挟まれる部分にも領域を設定できるようにすれば、領域812も設定することができる。「範囲」を「地肌罫線に接する部分」としても同様である。   FIG. 9B shows areas set according to the ruled lines. In the process of step S34, an area 811 is set because an area is set in a portion sandwiched between the extracted background ruled lines. Note that the region 812 is not sandwiched between the background ruled lines in FIG. 9A. However, if A_002 is defined as “combination” in the element condition so that an area can be set even in a portion sandwiched between the ruled line 703 and the background ruled line 802, the area 812 can also be set. The same applies to the “range” as “the part in contact with the background ruled line”.

次に、図10に、図7におけるステップS42〜S46の、特定文字についての領域の設定の処理を適用した例を示す。ここでは、表3のID=B_001の判定条件について説明する。
この判定条件では、「組合せ」としてA_001の罫線が指定されていることから、A_001の要素条件を満たす罫線901,902を用いて領域を設定する。
図4の特定文字領域判定部263は、要素条件中の「記号」の「Å」及び「向き」の「横」から特定文字の画像データを生成し、画像データの中に生成した画像データとマッチする箇所が存在するかを検索する。その結果、符号95で示す文字「Å」を見つける。そして、文字「Å」の位置と、次の罫線902とに挟まれた範囲を、領域903として設定する。
ここで、画像データの中から一致する文字データを検索するには時間がかかってしまうので、「組合せ」で定義している罫線に対する特定文字の位置などを定義しておき、定義した位置のみに対して特定文字の検索を行うのがよい。
Next, FIG. 10 shows an example in which the region setting process for specific characters in steps S42 to S46 in FIG. 7 is applied. Here, the determination condition of ID = B_001 in Table 3 will be described.
In this determination condition, since the ruled line A_001 is designated as “combination”, an area is set using the ruled lines 901 and 902 that satisfy the element condition A_001.
The specific character area determination unit 263 in FIG. 4 generates image data of specific characters from “横” of “symbol” and “horizontal” of “direction” in the element condition, and the image data generated in the image data Search for a match. As a result, the character “Å” indicated by reference numeral 95 is found. Then, a region sandwiched between the position of the character “と” and the next ruled line 902 is set as a region 903.
Here, since it takes time to search for matching character data from the image data, the position of the specific character with respect to the ruled line defined in “Combination” is defined, and only at the defined position. It is better to search for specific characters.

次に、図11A及び図11Bを用いて、原稿が地肌罫線を含む場合で、かつ地肌罫線の判定条件が無い場合に、罫線による判定条件を使って地肌罫線の抽出を行う方法について説明する。この処理は、図6及び図7の処理における地肌抽出の変形例に該当する。   Next, with reference to FIGS. 11A and 11B, a method for extracting the background ruled line using the determination condition based on the ruled line when the document includes the background ruled line and there is no condition for determining the background ruled line will be described. This process corresponds to a modified example of the background extraction in the processes of FIGS.

図11Aにおいて、罫線701〜704は、図8Bで抽出されたものと同じである。この場合、罫線701及び702のように、罫線が画像の途中で切れている箇所には、しばしばその延長線上に地肌罫線がある。そこで、延長線1001,1002上で地肌検出を行い、ここで検出された地肌領域に対して罫線に関する判定条件を適用すると、領域設定の基礎とする地肌罫線の領域を抽出可能である。
ここでは、延長線1001,1002上に、図11Bに示すように罫線1003,1004が抽出されるとし、罫線に関する判定条件に従い、罫線に挟まれる領域1006,1007が設定される。
In FIG. 11A, ruled lines 701 to 704 are the same as those extracted in FIG. 8B. In this case, there are often ground ruled lines on the extended lines where the ruled lines are cut off in the middle of the image, such as the ruled lines 701 and 702. Therefore, by performing background detection on the extension lines 1001 and 1002 and applying a determination condition related to ruled lines to the detected background area, it is possible to extract a background ruled line area as a basis for setting the area.
Here, it is assumed that ruled lines 1003 and 1004 are extracted on the extended lines 1001 and 1002 as shown in FIG. 11B, and areas 1006 and 1007 sandwiched between the ruled lines are set according to the determination conditions regarding the ruled lines.

次に、図12A及び図12Bを用いて、地肌抽出の結果から地肌罫線の候補を抽出する方法について説明する。
なお、適宜公知の技術を適用して、画像データ中で文字が縦書きか横書きかは特定できる。この特定した状態で、図12Aに示すように、原稿の画像データ1101の縦方向と横方向の黒色部のヒストグラム1102,1103を取得する。画像データ1101は縦書きなので、ヒストグラム1103の行間を取得する。ただし、行間は地肌罫線の候補としない。行間以上の幅でヒストグラム値が低い部分1131と1132と対応する箇所の、画像データ1101における地肌を抽出し、図12Bに示すように、地肌が連続する領域1133,1134を地肌罫線の候補として抽出できる。
Next, a method for extracting background ruled line candidates from the background extraction result will be described with reference to FIGS. 12A and 12B.
In addition, it is possible to specify whether a character is written vertically or horizontally in image data by appropriately applying a known technique. In this specified state, as shown in FIG. 12A, histograms 1102 and 1103 of black portions in the vertical direction and horizontal direction of the image data 1101 of the original are acquired. Since the image data 1101 is written vertically, the line spacing of the histogram 1103 is acquired. However, the line spacing is not a candidate for the background ruled line. The background in the image data 1101 is extracted from the portions corresponding to the portions 1131 and 1132 having a width equal to or greater than the line spacing and the low histogram value, and as shown in FIG. 12B, regions 1133 and 1134 where the background is continuous are extracted as candidates for the background ruled line. it can.

また、ヒストグラム1102から、値が低い部分1121,1122,1123の画像データ1101における地肌を抽出し、地肌が連続する領域1124,1125,1126を、地肌罫線の候補として抽出できる。
ここで、ヒストグラムの値が低いか否かを決める基準1104,1105は、あらかじめシステム内に固定で設定しておく。
Further, the background in the image data 1101 of the low values 1121, 1122, and 1123 can be extracted from the histogram 1102, and the regions 1124, 1125, and 1126 in which the background is continuous can be extracted as candidates for the background ruled line.
Here, the criteria 1104 and 1105 for determining whether or not the value of the histogram is low are set in advance in the system.

次に、図13を用いて、複数の特徴要素に基づく領域の設定結果を集計して最終的に文字領域を確定させる方法について説明する。
罫線に基づく文字領域の設定結果を1201、地肌罫線に基づく文字領域の設定結果を1202、特定文字に基づく文字領域の設定結果を1203のそれぞれのハッチング部とする。
1201と1202を合わせた状態を1204とし、さらに1204に1203を合わせた状態を1205とする。1205において重なっている部分を説明するために、一行分をピックアップし、それぞれの特徴要素に基づき文字属性の領域を設定した部分を枠囲い及び「1」で示す(1211〜1213)。また、一行分のサイズ目安として、1214として全て「0」としたデータを示す。
Next, with reference to FIG. 13, a method of finally summing up the area setting results based on a plurality of feature elements and finalizing the character area will be described.
Assume that the setting result of the character region based on the ruled line is 1201, the setting result of the character region based on the background ruled line is 1202, and the setting result of the character region based on the specific character is 1203.
The state where 1201 and 1202 are combined is 1204, and the state where 1203 is combined with 1204 is 1205. In order to explain the overlapping portion in 1205, one line is picked up, and the portion where the character attribute area is set based on each feature element is indicated by a frame and “1” (1211-1213). In addition, as a size standard for one line, 1214 indicates data that is all set to “0”.

1211〜1213の結果を座標ごとに足し(1215、1216)、その加算結果を最終的な文字領域の確定に使用することができる。
1215は、閾値として2を用い、加算結果が2以上の領域を文字領域とする例である。この場合、枠囲いされた範囲が文字領域として確定される。
1216は、罫線に基づく文字領域の設定結果の優先度を高くした場合である。ここでは、加算結果が2以上の領域でかつ1213の判定結果で「1」となっている、枠囲いの部分が文字領域として確定される。
The results 1211 to 1213 are added for each coordinate (1215 and 1216), and the addition result can be used for final character region determination.
1215 is an example in which 2 is used as the threshold value, and an area having an addition result of 2 or more is a character area. In this case, the framed range is determined as the character area.
Reference numeral 1216 denotes a case where the priority of the setting result of the character area based on the ruled line is increased. Here, the frame-enclosed portion in which the addition result is an area of 2 or more and the determination result of 1213 is “1” is determined as the character area.

このように、この実施形態の文字領域判定部212は、抽出手段による特徴要素の抽出と、属性設定手段による判定条件を参照した入力した画像データに対する属性の設定とを、複数の特徴要素についてそれぞれ行う。そして、属性設定手段は、複数の特徴要素に従ってそれぞれ設定した属性を、その複数の特徴要素分集計して、上記入力した画像データ中における各部分の属性を設定する。
さらに、判定方法が多い場合には、優先度の高い方法の判定結果へ優先度相当の大きな数字を掛け、その掛けた値同士を足したときの値が、1215のときの2のような基準値以上であるか否かにより、文字領域を決定することができる。いずれにせよ、閾値や優先度は、予め設定しておく。
As described above, the character area determination unit 212 according to this embodiment performs the feature element extraction by the extraction unit and the attribute setting for the input image data with reference to the determination condition by the attribute setting unit for each of the plurality of feature elements. Do. The attribute setting means aggregates the attributes set according to the plurality of feature elements for the plurality of feature elements, and sets the attributes of each part in the input image data.
Furthermore, when there are many determination methods, the determination result of the method with high priority is multiplied by a large number corresponding to the priority, and the sum of the multiplied values is a reference such as 2 when 1215 The character area can be determined depending on whether or not the value is greater than or equal to the value. In any case, the threshold and priority are set in advance.

以上で実施形態の説明を終了するが、この発明において、装置の具体的な構成、具体的な処理の手順、データの形式、具体的なデータの内容、判定条件の内容や数、項目等は、実施形態で説明したものに限るものではない。
例えば、文字領域に関する特徴を複数の特徴要素抽出から取得して扱う場合、複数種の結果から特徴の優先度の考慮や文字領域とするための条件付けにより、最終的な文字領域を確定させるようにすることが考えられる。このことにより、文字領域判定を上述した実施形態以外の処理工程で実施している場合にも拡張性が上がる。また、条件付けをユーザが出来るようにUIを設ければ、利便性を向上できるという効果がある。
This is the end of the description of the embodiment. In this invention, the specific configuration of the apparatus, the specific processing procedure, the data format, the specific data content, the content and number of determination conditions, items, etc. The invention is not limited to that described in the embodiment.
For example, when a feature related to a character region is acquired from a plurality of feature element extractions and handled, the final character region is determined by considering the priority of the feature and conditioning the character region based on multiple types of results. It is possible to do. This enhances extensibility even when the character region determination is performed in a processing step other than the above-described embodiment. Further, if a UI is provided so that the user can perform conditioning, there is an effect that convenience can be improved.

また、文字領域に関する特徴を罫線抽出から取得した場合に、判定対象の罫線が、例えば新聞の罫線であることを判断するとよい。このことにより、属性情報の判別属性に条件をつけ、罫線抽出で抽出する罫線の特徴を特定でき、精度を高めることができる。
また、文字領域に関する特徴を地肌罫線抽出から取得した場合に、罫線抽出の延長線を仮定し、延長線上の画像データから文字範囲を判断できる対象であるか否かを判定するとよい。このようにすれば、罫線が存在しない場所でも文字領域判定の精度を保つことができる。
In addition, when the characteristics related to the character region are acquired from the ruled line extraction, it may be determined that the ruled line to be determined is, for example, a newspaper ruled line. This makes it possible to place a condition on the discrimination attribute of the attribute information, specify the characteristics of the ruled line extracted by ruled line extraction, and improve the accuracy.
In addition, when a feature related to a character region is acquired from background ruled line extraction, an extension line of ruled line extraction is assumed, and it is preferable to determine whether or not the character range can be determined from image data on the extension line. In this way, the accuracy of character area determination can be maintained even in places where there are no ruled lines.

また、文字領域に関する特徴を特定文字抽出から取得した場合に、フォントデータを基に文字領域を判定するとよい。このようにすれば、行抽出で誤判定しやすかった特殊文字も文字領域として判定できるため、精度を高めることができる。
また、複数の特徴要素に基づく抽出を行う場合に、どの抽出を先に行うかの優先度をユーザが決められるようにするとよい。抽出順を定めることにより、ユーザが意図した文字領域や絵柄領域の判定をすることができる。
In addition, when a feature related to a character area is acquired from specific character extraction, the character area may be determined based on font data. In this way, it is possible to determine a special character that was easily erroneously determined by line extraction as a character area, and thus it is possible to improve accuracy.
In addition, when performing extraction based on a plurality of feature elements, the user may be able to determine the priority of which extraction is to be performed first. By determining the extraction order, it is possible to determine the character area and the pattern area intended by the user.

また、判定条件を抽出範囲と判定結果も含んだ情報として保持する場合に、判定条件とともに抽出範囲と判定結果を取得し、その取得情報を基に抽出範囲や判定結果を決定するようにするとよい。このことにより、抽出基準の項目数に応じた抽出範囲の確定や判定結果を保持することが出来る。
また、判定条件を画像処理の制御方法も含んだ情報として保持する場合に、判定条件とともに制御方法も取得し、その取得情報を基に制御するようにするとよい。このことにより、抽出基準の項目数に応じた制御を変えることができる。
In addition, when the determination condition is held as information including the extraction range and the determination result, the extraction range and the determination result are acquired together with the determination condition, and the extraction range and the determination result are determined based on the acquired information. . As a result, it is possible to determine the extraction range according to the number of items of extraction criteria and hold the determination result.
In addition, when the determination condition is held as information including the image processing control method, the control method may be acquired together with the determination condition, and control may be performed based on the acquired information. This makes it possible to change the control according to the number of extraction criteria items.

また、原稿の種類を抽出するための抽出基準を保持し、原稿の特徴として文字原稿や写真原稿などの原稿の種類を判断するようにするとよい。原稿の種類を判別できれば、文字の割合が多い原稿に対する圧縮処理の時間短縮や原稿種に応じた画像処理を施すことができる。
また、画像の特性として文字や絵柄の特性を区別するようにした場合に、文字部と絵柄部の画像処理を切り替えるとよい。このことにより、文字の端部が薄くなり読みにくくなってしまう画像データに対して、文字の部分だけ端部を濃くしたり文字自体を濃くしたりすることにより文字を読みやすくすることができる。
Further, it is preferable to hold an extraction standard for extracting the type of document and to determine the type of document such as a character document or a photo document as a feature of the document. If the type of the original can be discriminated, it is possible to shorten the compression processing time for the original having a high character ratio and to perform image processing according to the original type.
In addition, when the characteristics of characters and patterns are distinguished from each other as image characteristics, it is preferable to switch the image processing between the character part and the picture part. This makes it easy to read the character by making the end of the character portion darker or the character itself darker for the image data where the end portion of the character becomes thin and difficult to read.

また、画像の特性を原稿の特性とした場合に、原稿の特性で画像処理を切り替えるとよい。このことにより、地肌濃度が高く紙が薄い原稿に、例えば新聞や広告があるが、地肌が濃すぎたり両面印刷されているときには裏移りしたりして、文字が読みにくくなってしまう。そのような特徴の原稿を読み取った画像データに対して、地肌補正を強めにしたり、裏移り除去したりすることにより、文字を読みやすくすることができる。   Further, when the image characteristics are the original characteristics, the image processing may be switched according to the original characteristics. As a result, a manuscript with a high background density and a thin paper, such as a newspaper or an advertisement, is used, but when the background is too dark or double-sided printing is carried out, characters are difficult to read. For image data obtained by reading a document having such characteristics, it is possible to make the text easier to read by increasing the background correction or removing the set-off.

また、この発明のプログラムの実施形態は、コンピュータに所要のハードウェアを制御させて上述した実施形態におけるMFP100の機能の全部又は一部を実現させるためのプログラムである。
このようなプログラムは、はじめからコンピュータに備えるROMや他の不揮発性記憶媒体(フラッシュメモリ,EEPROM等)などに格納しておいてもよい。しかし、メモリカード、CD、DVD、ブルーレイディスク等の任意の不揮発性記録媒体に記録して提供することもできる。それらの記録媒体に記録されたプログラムをコンピュータにインストールして実行させることにより、上述した各手順を実行させることができる。
さらに、ネットワークに接続され、プログラムを記録した記録媒体を備える外部装置あるいはプログラムを記憶手段に記憶した外部装置からダウンロードし、コンピュータにインストールして実行させることも可能である。
The embodiment of the program of the present invention is a program for causing a computer to control required hardware to realize all or part of the functions of MFP 100 in the above-described embodiment.
Such a program may be stored in a ROM or other nonvolatile storage medium (flash memory, EEPROM, etc.) provided in the computer from the beginning. However, it can also be provided by being recorded on an arbitrary nonvolatile recording medium such as a memory card, CD, DVD, or Blu-ray disc. Each procedure described above can be executed by installing the program recorded in the recording medium in a computer and executing the program.
Furthermore, it is also possible to download from an external device that is connected to a network and includes a recording medium that records the program, or an external device that stores the program in a storage unit, and install and execute the program on a computer.

また、以上説明してきた実施形態及び変形例の構成が、相互に矛盾しない限り任意に組み合わせて実施可能であり、また、一部のみを取り出して実施することができることは、勿論である。   In addition, the configurations of the embodiments and the modified examples described above can be implemented in any combination as long as they do not contradict each other, and it is needless to say that only a part can be taken out.

100:MFP、101:CPU、102:ROM、103:RAM、104:HDD、105:通信I/F、106:操作部、107:表示部、108:エンジンI/F、120:スキャナ、130:プロッタ、200:画像処理部、210:スキャナ補正部、220:圧縮処理部、230:データインタフェース部、240:伸張処理部、250:プリンタ補正部、261:罫線領域判定部、262:地肌罫線領域判定部、263:特定文字領域判定部、264:判定条件取得部、265:判定条件、266:範囲抽出部、267:判定結果設定部 100: MFP, 101: CPU, 102: ROM, 103: RAM, 104: HDD, 105: Communication I / F, 106: Operation unit, 107: Display unit, 108: Engine I / F, 120: Scanner, 130: Plotter, 200: Image processing unit, 210: Scanner correction unit, 220: Compression processing unit, 230: Data interface unit, 240: Decompression processing unit, 250: Printer correction unit, 261: Ruled line area determination unit, 262: Background ruled line area Determination unit, 263: specific character region determination unit, 264: determination condition acquisition unit, 265: determination condition, 266: range extraction unit, 267: determination result setting unit

特開2007−189275号公報JP 2007-189275 A 特許第3898645号公報Japanese Patent No. 3898645 特許第3251119号公報Japanese Patent No. 3251119

Claims (10)

画像データを入力する入力手段と、
前記入力手段が入力した画像データから、所定の特徴要素を抽出する抽出手段と、
前記所定の特徴要素について、該特徴要素が満たすべき条件と、画像データ中で該条件を満たす特徴要素を基準として定められる領域の属性とを予め定めた判定条件を参照して、前記抽出手段が抽出した特徴要素と、前記判定条件とに基づき、前記入力した画像データ中の、前記判定条件により規定された領域に、前記判定条件により規定された属性を設定する属性設定手段とを備える画像処理装置。
Input means for inputting image data;
Extraction means for extracting predetermined feature elements from the image data input by the input means;
With respect to the predetermined feature element, the extraction means refers to a determination condition that predetermines a condition that the feature element should satisfy and an attribute of a region that is defined based on the feature element that satisfies the condition in the image data. Image processing comprising: attribute setting means for setting an attribute defined by the determination condition in an area defined by the determination condition in the input image data based on the extracted feature element and the determination condition apparatus.
請求項1に記載の画像処理装置であって、
前記抽出手段による特徴要素の抽出と、前記属性設定手段による、前記判定条件を参照した、前記入力した画像データに対する属性の設定とを、複数の特徴要素についてそれぞれ行い、
前記属性設定手段は、前記複数の特徴要素に従ってそれぞれ設定した属性を、前記複数の特徴要素分集計して、前記入力した画像データ中における各部分の属性を設定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The extraction of feature elements by the extraction unit and the setting of attributes for the input image data with reference to the determination condition by the attribute setting unit are performed for a plurality of feature elements, respectively.
The attribute setting means sets the attribute of each part in the input image data by aggregating the attributes set according to the plurality of feature elements for the plurality of feature elements. .
請求項2に記載の画像処理装置であって、
前記抽出手段による前記複数の特徴要素についての前記特徴要素の抽出と、前記属性設定手段による前記属性の設定とを、考慮する特徴要素を所定の順序で選択しつつ行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
Image processing characterized in that the extraction of the feature elements for the plurality of feature elements by the extraction means and the setting of the attributes by the attribute setting means are performed while selecting the feature elements to be considered in a predetermined order apparatus.
請求項1乃至3のいずれか一項に記載の画像処理装置であって、
前記所定の特徴要素の一つは、罫線であることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3,
One of the predetermined characteristic elements is a ruled line.
請求項1乃至3のいずれか一項に記載の画像処理装置であって、
前記所定の特徴要素の一つは、特定の文字であり、前記抽出手段が前記入力した画像データ中で前記特定の文字を検索する範囲を、既に抽出された他の特徴要素の位置に基づき前記判定条件に従って定めることを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 3,
One of the predetermined feature elements is a specific character, and a range in which the extraction unit searches for the specific character in the input image data is determined based on a position of another extracted feature element. An image processing apparatus characterized by being determined according to a determination condition.
請求項2又は3に記載の画像処理装置であって、
前記所定の特徴要素は、罫線及び地肌罫線を含み、前記抽出手段は、前記入力した画像データから罫線を抽出した場合、抽出した罫線の延長上の領域に対して、地肌罫線の抽出を試みることを特徴とする画像処理装置。
The image processing apparatus according to claim 2 or 3,
The predetermined characteristic element includes a ruled line and a background ruled line, and when the extracting unit extracts a ruled line from the input image data, the extraction unit tries to extract a background ruled line for an area on the extension of the extracted ruled line. An image processing apparatus.
請求項1乃至6のいずれか一項に記載の画像処理装置であって、
前記入力した画像データの各部分を、前記属性設定手段が該部分に設定した属性に従った処理方法で処理する画像処理手段を備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
An image processing apparatus comprising image processing means for processing each part of the input image data by a processing method according to the attribute set by the attribute setting means for the part.
請求項7に記載の画像処理装置であって、
前記画像処理手段が行う前記画像データに対する処理には、文字領域の属性が設定された部分に対する、文字を強調する処理を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 7,
The processing for the image data performed by the image processing means includes processing for emphasizing a character for a portion in which a character region attribute is set.
画像データを入力する入力手順と、
前記入力手順で入力した画像データから、所定の特徴要素を抽出する抽出手順と、
前記所定の特徴要素について、該特徴要素が満たすべき条件と、画像データ中で該条件を満たす特徴要素を基準として定められる領域の属性とを予め定めた判定条件を参照して、前記抽出手順で抽出した特徴要素と、前記判定条件とに基づき、前記入力した画像データ中の、前記判定条件により規定された領域に、前記判定条件により規定された属性を設定する属性設定手順とを備える画像処理方法。
Input procedure to input image data,
An extraction procedure for extracting predetermined feature elements from the image data input in the input procedure;
With respect to the predetermined feature element, with reference to a predetermined determination condition, a condition to be satisfied by the feature element and an attribute of a region defined on the basis of the feature element satisfying the condition in the image data are determined in the extraction procedure. Image processing comprising: an attribute setting procedure for setting an attribute defined by the determination condition in an area defined by the determination condition in the input image data based on the extracted feature element and the determination condition Method.
コンピュータを請求項1乃至8のいずれか一項に記載の画像処理装置として機能させるためのプログラム。   The program for functioning a computer as an image processing apparatus as described in any one of Claims 1 thru | or 8.
JP2016255941A 2016-03-18 2016-12-28 Image processing equipment, image processing methods and programs Expired - Fee Related JP6798309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/439,197 US10084939B2 (en) 2016-03-18 2017-02-22 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016056331 2016-03-18
JP2016056331 2016-03-18

Publications (2)

Publication Number Publication Date
JP2017175600A true JP2017175600A (en) 2017-09-28
JP6798309B2 JP6798309B2 (en) 2020-12-09

Family

ID=59972301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016255941A Expired - Fee Related JP6798309B2 (en) 2016-03-18 2016-12-28 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6798309B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944594A (en) * 1995-07-31 1997-02-14 Ricoh Co Ltd Dividing method for area of document image and discriminating method for kind of multiple column
JPH0991450A (en) * 1995-07-17 1997-04-04 Toshiba Corp Document processing apparatus and document processing method
JP2001109889A (en) * 1999-10-14 2001-04-20 Sharp Corp Image processing device
JP2005286648A (en) * 2004-03-29 2005-10-13 Ricoh Co Ltd Image processing device
JP2015179552A (en) * 2015-07-07 2015-10-08 ブラザー工業株式会社 Image processing device, image processing program
JP2016021086A (en) * 2014-07-11 2016-02-04 コニカミノルタ株式会社 Electronic document generation system, electronic document generation apparatus and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991450A (en) * 1995-07-17 1997-04-04 Toshiba Corp Document processing apparatus and document processing method
JPH0944594A (en) * 1995-07-31 1997-02-14 Ricoh Co Ltd Dividing method for area of document image and discriminating method for kind of multiple column
JP2001109889A (en) * 1999-10-14 2001-04-20 Sharp Corp Image processing device
JP2005286648A (en) * 2004-03-29 2005-10-13 Ricoh Co Ltd Image processing device
JP2016021086A (en) * 2014-07-11 2016-02-04 コニカミノルタ株式会社 Electronic document generation system, electronic document generation apparatus and program
JP2015179552A (en) * 2015-07-07 2015-10-08 ブラザー工業株式会社 Image processing device, image processing program

Also Published As

Publication number Publication date
JP6798309B2 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
CN110557515B (en) Image processing apparatus, image processing method, and storage medium
JP5972578B2 (en) Image processing apparatus, image forming apparatus, program, and recording medium
KR102090973B1 (en) Information processing apparatus, information processing method, and storage medium
US8538154B2 (en) Image processing method and image processing apparatus for extracting heading region from image of document
CN110278343A (en) Image processing apparatus and image processing method
JP2009206658A (en) Image processing method, image processor, image forming apparatus, program, and storage medium
US11436733B2 (en) Image processing apparatus, image processing method and storage medium
US12423350B2 (en) Image processing apparatus deriving condition for estimating text block, image processing method, and storage medium
JP4544315B2 (en) Paper document processing apparatus and program
JP4692614B2 (en) Printing apparatus and program
US20170064141A1 (en) Image processing apparatus, electronic file generating method, and recording medium
US20150156371A1 (en) Image processing apparatus and method
US10887491B2 (en) Image processing apparatus for processing of highlighted regions
JP4135656B2 (en) Image region determination method, image processing apparatus, and program
JP6798309B2 (en) Image processing equipment, image processing methods and programs
US10084939B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2010004481A (en) Image processing apparatus and image processing method
JP4569162B2 (en) Image processing method, image processing program, and image processing apparatus
US11288536B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5464157B2 (en) Image processing apparatus and image processing program
JP5549836B2 (en) Image processing apparatus and image processing method
JP4710672B2 (en) Character color discrimination device, character color discrimination method, and computer program
JP4571066B2 (en) Image processing apparatus and image reading apparatus
JP2010286917A (en) Image processing apparatus, image reading apparatus, multifunction machine, image processing method, program, and recording medium
JP4957570B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200630

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R151 Written notification of patent or utility model registration

Ref document number: 6798309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees