JPH02288991A - document processing device - Google Patents
document processing deviceInfo
- Publication number
- JPH02288991A JPH02288991A JP1036212A JP3621289A JPH02288991A JP H02288991 A JPH02288991 A JP H02288991A JP 1036212 A JP1036212 A JP 1036212A JP 3621289 A JP3621289 A JP 3621289A JP H02288991 A JPH02288991 A JP H02288991A
- Authority
- JP
- Japan
- Prior art keywords
- area
- document
- image data
- blank
- lines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Character Input (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、文書中の表を認識することが可能な文書処理
装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a document processing device capable of recognizing tables in a document.
従来、この種の表認識技術として罫線を抽出し、罫線に
よって囲まれた領域について文字を認識する方式や、フ
ォーマット(表の構造や文字領域等)を予め指定してお
き、そのフォーマットに合わせて認識する方式などがあ
る。Conventionally, this type of table recognition technology involves extracting ruled lines, recognizing characters in the area surrounded by the ruled lines, and specifying the format (table structure, character area, etc.) in advance, and then There are methods of recognition.
前者の方式では、罫線の抽出手法として投影法や追跡法
など様々であるが、いづれの方法にしても、罫線によっ
て表の要素(文字等)が囲まれていることが必要である
。なお、この方式では、枚ごとに異った表でも認識でき
、フォーマットを指定しておくことも可能である。In the former method, there are various methods for extracting ruled lines, such as a projection method and a tracing method, but whichever method is used, it is necessary that table elements (characters, etc.) are surrounded by ruled lines. Note that with this method, it is possible to recognize different tables for each sheet, and it is also possible to specify the format.
一方、後者の方式では、罫線の有無にかかわらずフォー
マットを指定しておくことによって、同一構造の表の連
続認識が可能であるが、構造が異なる表ごとにフォーマ
ットを指定する必要がある。On the other hand, in the latter method, by specifying the format regardless of the presence or absence of ruled lines, it is possible to successively recognize tables with the same structure, but it is necessary to specify the format for each table with a different structure.
第10A図は氏名と住所を記述した例を示し、このよう
な場合は、罫線による構造を利用する前者の方式からで
は第10B図のよう表領域R1〜R4Lか理解できず、
氏名21と住所22の対応関係が不明になるという問題
がある。Figure 10A shows an example of writing a name and address; in such a case, the former method, which uses the ruled line structure, would not be able to understand table areas R1 to R4L as shown in Figure 10B.
There is a problem that the correspondence between the name 21 and the address 22 becomes unclear.
一方、フォーマットを第10C図のように指定する後者
の方式では、第10A図には対応できるが、第10D図
の表になると対応できなくなシ、新たにフォーマットを
作る必要が生ずると云う問題がある。On the other hand, the latter method of specifying the format as shown in Figure 10C is compatible with Figure 10A, but cannot support the table shown in Figure 10D, and a new format must be created. There is.
文書を読み取る画像入力部と、読み取られた画像データ
を記憶する第1の記憶部と、この第1記憶部の画像デー
タを処理して文字を認識する文字認識部と、前記画像デ
ータを圧縮する圧縮部と、この圧縮された画像データを
記憶する第2の記憶部と、この第2記憶部の内容にもと
づき少なくとも表の予め指定された領域内の罫線と空白
行とを抽出して表を認識する表認識部とを設け、との外
線と空白行とで形成される領域内の文字を前記文字認識
部により認識できるようにする。an image input section that reads a document; a first storage section that stores the read image data; a character recognition section that processes the image data in the first storage section and recognizes characters; and a character recognition section that compresses the image data. a compression unit, a second storage unit that stores the compressed image data, and a table that extracts at least ruled lines and blank lines within a prespecified area of the table based on the contents of the second storage unit. A table recognition section is provided to allow the character recognition section to recognize characters within the area formed by the outside line and the blank line.
例えば、第10A図と第10D図のように、罫線の構成
は同じであるが罫線のない部分が異なる表!b認識でき
るよう、第10E図のように表領域を固定領域23と可
変領域24とに分け、可変領域24から罫線と同等の意
味をもつ空白行を第10F図に符号25で示す如く抽出
することにより、氏名と住所の如き各要素間の対応付け
を誤シなく行い、フォーマットの異なる文書にも柔軟に
対応できるようにする。このとき、可変領域を項目デー
タ別に24A(第9A図論照)と24B(第9B図参照
)に分けるべく、第9A図、第9B図のように罫線を抽
出する。領域24Bと領域24Aから求まる空白行は必
ずしも一致しないが、互いに一致する空白行のみを抽出
することで、罫線と同等の意味をもつ、第10F図に符
号25で示すような空白行を得ることができる。以後、
連続処理をするときは、少なくとも可変領域および罫線
の構造データを不揮発性メモリ等に格納しておき、これ
を再利用できるようにしておく。For example, tables like Figures 10A and 10D have the same ruled line structure but different parts without ruled lines! b In order to be recognized, the table area is divided into a fixed area 23 and a variable area 24 as shown in Fig. 10E, and a blank line having the same meaning as a ruled line is extracted from the variable area 24 as shown by reference numeral 25 in Fig. 10F. By doing so, correspondence between each element such as name and address can be made without errors, and it is possible to flexibly handle documents with different formats. At this time, ruled lines are extracted as shown in FIGS. 9A and 9B in order to divide the variable area into 24A (see FIG. 9A) and 24B (see FIG. 9B) according to item data. Although the blank lines found from the area 24B and the area 24A do not necessarily match, by extracting only the blank lines that match each other, a blank line such as the one shown at 25 in FIG. 10F, which has the same meaning as a ruled line, can be obtained. I can do it. From then on,
When performing continuous processing, at least the structural data of the variable area and ruled lines are stored in a nonvolatile memory or the like so that they can be reused.
なお、罫線が全くない表については表認識領域全体を可
変領域とし、垂直罫線の位置を別途指定することによシ
可能となる。Note that for a table without any ruled lines, this can be achieved by making the entire table recognition area a variable area and separately specifying the position of the vertical ruled lines.
第1図は本発明の実施例を示す構成図で、1は文書、2
は画像入力部、3左〒11は画像圧縮部、4A、4Bは
画像メモリ、5は文字認識部、6は表認識部、7はホス
トCPU、8はCRT、9は:キー・ボ・−ドである。FIG. 1 is a configuration diagram showing an embodiment of the present invention, where 1 is a document, 2
is an image input section, 3 to the left 11 is an image compression section, 4A, 4B are image memories, 5 is a character recognition section, 6 is a table recognition section, 7 is a host CPU, 8 is a CRT, 9 is: Keyboard - It is de.
また、第2A、2B、3,4゜5A、5B、 6A、6
B、7A、7Bおよび8図は本発明を具体的に説明する
ための説明図である。Also, 2nd A, 2B, 3, 4° 5A, 5B, 6A, 6
Figures B, 7A, 7B and 8 are explanatory diagrams for specifically explaining the present invention.
文書1は画像入力部2から入力され、一方はそのまま画
像メモ’J4Aに格納され、もう一方は画像圧縮部3を
通シ、圧縮された画像が画像メモリ4Bに格納される。Document 1 is input from image input section 2, one is stored as is in image memo 'J4A, and the other is passed through image compression section 3, and the compressed image is stored in image memory 4B.
圧縮比はホストCPU7によヤ、例えば−(n=0.1
+ 2+ ’)の比から選n
択する。表認識部6ではメモリ4Bに格納するデータ量
を減らし処理時間を上げるために、この圧縮画像を用い
る。The compression ratio is determined by the host CPU 7, for example -(n=0.1
Select from the ratio of +2+'). The table recognition unit 6 uses this compressed image in order to reduce the amount of data stored in the memory 4B and increase processing time.
格納後、画像データはCRT8に表示されるので、まず
第2A図に符号10で示す如き表認識領域を指定する。After storage, the image data will be displayed on the CRT 8, so first a table recognition area as shown at 10 in FIG. 2A is designated.
表認識部6では、垂直罫線抽出の場合、第2B図のよう
に領域10を横長の帯状に分割し7、帯1iA−11D
ごとに投影を取る。例えば11Bの帝では、投影データ
は第6図(イ)のようになるので、閾値レベルT□によ
りて第5図(0)の如く2直化する。その後、文字と罫
線とを幅の閾[TWで分離17、第6図(ハ)を得る。In the case of vertical ruled line extraction, the table recognition unit 6 divides the area 10 into horizontal strips 7 and 1iA-11D as shown in FIG. 2B.
Take a projection for each. For example, in the case of 11B, the projection data is as shown in FIG. 6(a), so it is converted into two straight lines as shown in FIG. 5(0) by the threshold level T□. Thereafter, the characters and ruled lines are separated by a width threshold [TW 17, to obtain Fig. 6(c).
第2B図の弗“から抽出された結果を示すと、第4図の
ようになる。以後、水平外線も同様に処理すると、罫線
の抽出を終了する。The results extracted from the cross section of FIG. 2B are shown in FIG. 4. Thereafter, the horizontal outside lines are also processed in the same way, and the extraction of the ruled lines is completed.
次に、空白行を決定するために罫線26を抽出した後、
その領域を罫線抽出の際の投影法と同様の処理を行う。Next, after extracting ruled lines 26 to determine blank lines,
The region is subjected to processing similar to the projection method used when extracting ruled lines.
りまシ、第5A図の如く領域を縦方向に複数の帯領域に
分割し、その各々で投影敏を求める。ただし、この際に
抽出するデータは、罫線の場合とは逆に”0″の区間1
2(空白行候補)を抽出し、この空白行候補12のデー
タ群の連結関係から空白行25を第5B図の如く求める
。Then, as shown in FIG. 5A, the area is vertically divided into a plurality of band areas, and the projection sensitivity is determined for each band area. However, the data to be extracted at this time is the interval 1 of "0", contrary to the case of ruled lines.
2 (blank line candidate) is extracted, and a blank line 25 is determined from the connection relationship of the data group of this blank line candidate 12 as shown in FIG. 5B.
また、項目データ領域についても第6A図の如く罫線2
6を指示し、同様に空白行候補12を求め、文字列と文
字列の間のデータについて空白行候補12の下側からD
だけ上側で幅Wの領域群13を第6B図の如く求める。Also, regarding the item data area, as shown in Figure 6A, the ruled line 2
6, find the blank line candidates 12 in the same way, and D from the bottom of the blank line candidates 12 for the data between the character strings.
A region group 13 having a width W on the upper side is obtained as shown in FIG. 6B.
その結果を第7A図に示す。次に、得られ九空白行25
と13とが一致する空白行25のみを第7B図の如く残
す。したがって第7A図の25Aは消去される。罫線と
空白行によって区切られた長方形の文字領域14を第8
図の如く求め、その座標を文字認識部5へ送り、文字認
識を行う。その後、各認識部15.16から各々の認識
結果をホス)CPU7へ送シ、表示。The results are shown in FIG. 7A. Then you get 9 blank lines 25
Only the blank line 25 where and 13 match is left as shown in FIG. 7B. Therefore, 25A in FIG. 7A is deleted. The rectangular character area 14 separated by ruled lines and blank lines is
The coordinates are determined as shown in the figure and sent to the character recognition section 5 for character recognition. Thereafter, each recognition result is sent from each recognition unit 15, 16 to the CPU 7 and displayed.
ファイリング、伝送等を行う。Perform filing, transmission, etc.
次に、同様の表が来た場合、罫線抽出後、例えばこの例
では、可変領域は、水平罫線の上から2本目ど3本目、
垂直罫線の左から1本目と5本目の間の領域、とbうよ
うに前回の指定および処理結果を用いることで、自動的
に連続して認識することが可能となる。このためには、
少なくとも処理領域(可変領域)と罫線の構造データを
不揮発性メモリ等に格納しておくことが必要なのは云う
迄もない。Next, when a similar table comes, after extracting the ruled lines, for example, in this example, the variable area is the second or third horizontal ruled line from the top,
By using the previous designation and processing results for the area between the first and fifth vertical ruled lines from the left, it is possible to automatically and continuously recognize the area. For this purpose,
Needless to say, it is necessary to store at least the structural data of the processing area (variable area) and ruled lines in a non-volatile memory or the like.
本発明によれば、罫線が無い部分の認識が可能となり、
罫線の無い部分が可変である表も連続的に認識すること
が可能となる。これにより、従来では一枚毎にフォーマ
ットを指定する必要があったが、本発明では一度設定す
ると以降は自動的に対応し得るため、処理時間の短縮や
オペレータの負担を大幅に軽減することができる。According to the present invention, it is possible to recognize areas without ruled lines,
It is also possible to continuously recognize a table in which the part without ruled lines is variable. As a result, in the past, it was necessary to specify the format for each sheet, but with the present invention, once the format is set, it can be handled automatically from then on, reducing processing time and greatly reducing the burden on the operator. can.
第1図は本発明の実施例を示すブロック図、第2A図は
表認識領域を説明するための説明図、第2B図は垂直罫
線抽出用帯領域を説明するための説明図、第5図は投影
データとその処理方法を説明するための説明図、第4図
は第2A図から抽出された垂直罫線を説明するための説
明図、第5A図は空白行抽出用帯領域を説明するための
説明図、第5B図は第2A図から抽出された全空白行を
説明するための説明図、第6A図は項目データ領域の空
白行領域を説明するための説明図、第6B図は項目デー
タ領域における空白行の抽出方法を説明するための説明
図、第7人図は第6人図の項目データ領域から抽出され
た空白行領域を説明するための説明図、第7B図は第2
A図から最終的に抽出された空白行を説明するための説
明図、第8図は文字枠を説明するための説明図、第9A
図および第9B図は項目データ領域を説明するための説
明図、第1 OA、10B、I DC,10D、10E
および10E図はいずれも従来方式の問題点を説明する
ための説明図である。
符号説明
1・・−・・・文書、2・・・・・・画像入力部、5・
・・・・・画像圧縮部、4A、4B・・・・・・画像メ
モリ、5・・・・・・文字認識部、6・・・・・・表認
識部、7・・・・・・ホス)CPU、8・・・・−・C
RT、?・・・・・・キーボード、10・・・・−・表
認識領域、11A〜11D・・・・・・帯、12・・・
・・・空白行候補、16・・・・・・空白行領域、14
・・・・・・文字枠、21・・・・・・氏名データ、2
2・・・・・・住所データ、23・・・・・・固定領域
、24・・・・・・可変領域、24A、24B・・・・
・・項目別データ領域、25・・・・・・空白行、26
・・・・・・罫線、T□pTw・・・・・・しきい直、
D・・・・・・距離、W・・・・・・領域幅。FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2A is an explanatory diagram for explaining the table recognition area, FIG. 2B is an explanatory diagram for explaining the vertical ruled line extraction band area, and FIG. 4 is an explanatory diagram for explaining the projection data and its processing method, FIG. 4 is an explanatory diagram for explaining the vertical ruled lines extracted from FIG. 2A, and FIG. 5A is an explanatory diagram for explaining the blank line extraction band area. , FIG. 5B is an explanatory diagram for explaining all blank lines extracted from FIG. 2A, FIG. 6A is an explanatory diagram for explaining the blank line area of the item data area, and FIG. 6B is an explanatory diagram for explaining the blank line area of the item data area. An explanatory diagram for explaining the method for extracting blank lines in the data area. Figure 7 is an explanatory diagram for explaining the blank line area extracted from the item data area of Figure 6. Figure 7B is an explanatory diagram for explaining the method for extracting blank lines in the data area.
An explanatory diagram for explaining the blank line finally extracted from Figure A, Figure 8 is an explanatory diagram for explaining the character frame, and Figure 9A is an explanatory diagram for explaining the character frame.
Figures 1 and 9B are explanatory diagrams for explaining the item data area.
10E are explanatory diagrams for explaining the problems of the conventional method. Code explanation 1... Document, 2... Image input section, 5.
...Image compression unit, 4A, 4B...Image memory, 5...Character recognition unit, 6...Table recognition unit, 7... host) CPU, 8...--C
RT,? ...Keyboard, 10...Table recognition area, 11A to 11D... Band, 12...
...Blank line candidate, 16...Blank line area, 14
......Character frame, 21...Name data, 2
2...Address data, 23...Fixed area, 24...Variable area, 24A, 24B...
...Data area for each item, 25...Blank line, 26
・・・・・・Ruled line, T□pTw・・・・Threshold straight,
D: Distance, W: Area width.
Claims (1)
文字認識部と、 前記画像データを圧縮する圧縮部と、 この圧縮された画像データを記憶する第2の記憶部と、 この第2記憶部の内容にもとづき少なくとも表の予め指
定された領域内の罫線と空白行とを抽出して表を認識す
る表認識部と、 を備え、この罫線と空白行とで形成される領域内の文字
を前記文字認識部にて認識可能にしてなることを特徴と
する文書処理装置。 2)請求項1)に記載の文書処理装置において、前記空
白行は文書が横書の場合は横方向の投影値から抽出し、
文書が縦書の場合は縦方向の投影値から抽出することを
特徴とする文書処理装置。 5)請求項1)に記載の文書処理装置において、処理領
域を指定して罫線および空白行を抽出した後は、処理領
域および罫線の構造が変わらない限り、先に指定および
抽出された情報にもとづき連続処理を可能にしてなるこ
とを特徴とする文書処理装置。[Claims] 1) An image input section that reads a document, a first storage section that stores the read image data, and a character recognition section that processes the image data in the first storage section and recognizes the document. a compression unit that compresses the image data; a second storage unit that stores the compressed image data; and based on the contents of the second storage unit, at least the ruled lines and blank spaces in a prespecified area of the table. a table recognition unit that recognizes tables by extracting rows and rows; and a document, characterized in that the character recognition unit is capable of recognizing characters within an area formed by the ruled lines and blank lines. Processing equipment. 2) In the document processing device according to claim 1, when the document is written horizontally, the blank line is extracted from a horizontal projection value;
A document processing device characterized in that when a document is written vertically, extraction is performed from a vertical projection value. 5) In the document processing device according to claim 1), after specifying a processing area and extracting ruled lines and blank lines, as long as the structure of the processing area and ruled lines remains unchanged, the information previously specified and extracted is A document processing device characterized in that it is capable of continuous processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1036212A JP2618468B2 (en) | 1989-02-17 | 1989-02-17 | Document processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1036212A JP2618468B2 (en) | 1989-02-17 | 1989-02-17 | Document processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02288991A true JPH02288991A (en) | 1990-11-28 |
JP2618468B2 JP2618468B2 (en) | 1997-06-11 |
Family
ID=12463447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1036212A Expired - Lifetime JP2618468B2 (en) | 1989-02-17 | 1989-02-17 | Document processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2618468B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032770A (en) * | 2000-06-23 | 2002-01-31 | Internatl Business Mach Corp <Ibm> | Method and system for processing document and medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61296481A (en) * | 1985-06-24 | 1986-12-27 | Mitsubishi Electric Corp | document reading device |
-
1989
- 1989-02-17 JP JP1036212A patent/JP2618468B2/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61296481A (en) * | 1985-06-24 | 1986-12-27 | Mitsubishi Electric Corp | document reading device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032770A (en) * | 2000-06-23 | 2002-01-31 | Internatl Business Mach Corp <Ibm> | Method and system for processing document and medium |
US7046847B2 (en) | 2000-06-23 | 2006-05-16 | International Business Machines Corporation | Document processing method, system and medium |
Also Published As
Publication number | Publication date |
---|---|
JP2618468B2 (en) | 1997-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3088019B2 (en) | Medium processing apparatus and medium processing method | |
US8952985B2 (en) | Digital comic editor, method and non-transitory computer-readable medium | |
JPH07107694B2 (en) | Document processor | |
CN110688825A (en) | Method for extracting information of table containing lines in layout document | |
CN109726369A (en) | A kind of intelligent template questions record Implementation Technology based on normative document | |
CN119720992A (en) | A PDF document difference comparison method and related device | |
JP2740335B2 (en) | Table reader with automatic cell attribute determination function | |
JP2000322417A (en) | Image filing apparatus and method, and storage medium | |
JPH02288991A (en) | document processing device | |
JPH08180068A (en) | Electronic filing equipment | |
JP2585606B2 (en) | Image pattern search method | |
JPH06131497A (en) | Table recognition system | |
JP2682873B2 (en) | Recognition device for tabular documents | |
JP2803736B2 (en) | Character recognition method | |
JPH01147786A (en) | Reading device for documents containing tables | |
JPH10116314A (en) | Table processing method and its device | |
JPH0743718B2 (en) | Multimedia document structuring method | |
JPS63293674A (en) | How to search and display texts | |
JPH07104940B2 (en) | Figure recognition device | |
CN120561268A (en) | A multi-text field voice interaction method based on OCR and dynamic mask annotation | |
JPH08202859A (en) | Electronic filing apparatus and method thereof | |
JPH0477887A (en) | Character recognizing device | |
CN119578373A (en) | A file conversion method retaining PDF file format | |
JPH0831092B2 (en) | Document processing device | |
JP2000029986A (en) | Form data reading method, recording medium, and form data reading device |