[go: up one dir, main page]

WO2006070476A1 - 画像内の処理対象の位置を特定する画像処理装置 - Google Patents

画像内の処理対象の位置を特定する画像処理装置 Download PDF

Info

Publication number
WO2006070476A1
WO2006070476A1 PCT/JP2004/019648 JP2004019648W WO2006070476A1 WO 2006070476 A1 WO2006070476 A1 WO 2006070476A1 JP 2004019648 W JP2004019648 W JP 2004019648W WO 2006070476 A1 WO2006070476 A1 WO 2006070476A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
processing
relative position
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/019648
Other languages
English (en)
French (fr)
Inventor
Hirotaka Chiba
Tsugio Noda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to PCT/JP2004/019648 priority Critical patent/WO2006070476A1/ja
Priority to JP2006550542A priority patent/JP4398474B2/ja
Priority to EP04808003A priority patent/EP1833022A4/en
Publication of WO2006070476A1 publication Critical patent/WO2006070476A1/ja
Priority to US11/769,922 priority patent/US20070242882A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1448Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on markings or identifiers characterising the document or the area
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30144Printing quality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • Image processing apparatus for specifying position of processing target in image
  • the present invention relates to an image processing apparatus for specifying a processing target position included in image data from image data input by an image input apparatus such as a scanner or a digital camera.
  • an image input apparatus such as a scanner or a digital camera.
  • FIG. 21 shows an example of input and recognition in conventional character recognition processing.
  • image processing has been performed according to the following procedure.
  • the entire original is read by an image input device such as a flatbed scanner having a reading area larger than the original size, and a read image 11 is generated.
  • an image input device such as a flatbed scanner having a reading area larger than the original size
  • the prepared document layout information 12 is designated as the character recognition template and the character recognition process 13 is performed.
  • a template for specifying layout information and a processing method according to the size of the image input device is created, and the user selects a template to be used for each area. For example, in the example shown in FIG. 22, layout information 16 and 17 are selected for two read images 14 and 15, respectively, and a character recognition process 18 is performed.
  • Patent Document 3 relates to a print information processing system that generates a print image by combining image data and a code
  • Patent Document 4 relates to a method for detecting a scene change of a moving image.
  • Patent Document 1 Japanese Patent Application Publication JP 2000-278514 A
  • Patent Document 2 Japanese Patent Application Publication No. 2003-271942
  • Patent Document 3 Japanese Patent Application Publication JP 2000-348127 A
  • Patent Document 4 Japanese Patent Application Publication No. 06-133305
  • An object of the present invention is to automatically specify the position of a processing target included in image data input by an image input device that cannot read the entire document at once.
  • the image processing apparatus of the present invention includes a storage unit, a recognition unit, and an extraction unit.
  • the storage unit stores image data of partial images of a document including a plurality of processing targets and a plurality of codes.
  • Recognition The knowledge unit recognizes a code included in the partial image among the codes, and acquires relative position information indicating a relative position of the processing target area with respect to the code.
  • the extraction unit specifies the position of the processing target region in the partial image using the relative position information, and extracts the processing target image data from the specified processing target region.
  • a plurality of codes necessary for obtaining the relative position information are arranged in advance. For example, when an original is divided and read by the image input device, an image of a part of the original is stored as a partial image in the storage unit.
  • the recognition unit performs recognition processing of the code included in the partial image, and acquires relative position information based on the recognition result.
  • the extraction unit specifies the position of the processing target area corresponding to the code using the obtained relative position information, and extracts the processing target image data.
  • an image processing device it is possible to automatically extract image data to be processed from image data of a partial image input by an image input device such as a hand held image scanner or a digital camera. it can.
  • the storage unit corresponds to, for example, a RAM (random access memory) 1902 in FIG. 19 described later, and the recognition unit and the extraction unit correspond to, for example, a CPU (Central Processing Unit) 1904 in FIG.
  • a RAM random access memory
  • CPU Central Processing Unit
  • FIG. 1 is a diagram showing an image read in a divided manner.
  • FIG. 2 is a diagram showing a two-dimensional code and item areas.
  • FIG. 3 is a diagram showing area information.
  • FIG. 4 is a flowchart of first image data extraction processing.
  • FIG. 5 is a diagram showing a first image reconstruction process.
  • FIG. 6 is a diagram showing document attribute information.
  • FIG. 7 is a flowchart of a first image reconstruction process.
  • FIG. 8 is a diagram showing processing information.
  • FIG. 9 is a flowchart of automatic image processing.
  • FIG. 10 is a diagram showing a second image reconstruction process.
  • FIG. 11 is a flowchart of second image reconstruction processing.
  • FIG. 12 is a diagram showing superimposed printing of a two-dimensional code and characters.
  • FIG. 13 is a diagram showing server storage numbers.
  • FIG. 14 is a flowchart of second image data extraction processing.
  • FIG. 15 is a configuration diagram of an image processing apparatus that inputs a moving image and performs code recognition.
  • FIG. 16 is a diagram showing a moving image input method.
  • FIG. 17 is a diagram illustrating a change in code amount in a moving image.
  • FIG. 18 is a flowchart of processing for inputting a moving image and performing code recognition.
  • FIG. 19 is a block diagram of an image processing apparatus.
  • FIG. 20 is a diagram showing a program and data providing method.
  • FIG. 21 is a diagram showing a first conventional character recognition process.
  • FIG. 22 is a diagram showing a second conventional character recognition process.
  • FIG. 23 is a diagram showing a conventional recognition target specifying method.
  • a code and an item in which one or more items of layout information are recorded are arranged in the original. Then, the image processing apparatus first recognizes the layout information recorded in the code from the image data input by the image input apparatus, and then extracts the image data of the item that is the information power processing target. .
  • FIG. 1 shows an example of an image read from a document in such code image processing.
  • two-dimensional codes 111-1-111 4, 112-1, 112-2, 113-1, and 113-4 are arranged to correspond to each item in the document, and the document has three images 101— 10 Divided into 3 and read.
  • each two-dimensional code information on the relative position of the item area with respect to the two-dimensional code and information on the absolute position of the item area in the document are recorded.
  • information on the relative position and the absolute position of the item area 201 is recorded as shown in FIG.
  • the relative position is in a relative coordinate system with the origin at position 202 of the two-dimensional code 111-1. It is represented by the coordinate value of the item area 201.
  • the absolute position is represented by the coordinate value of the item area 201 in the absolute coordinate system with the reference point 203 in the original as determined as the origin.
  • FIG. 3 shows an example of area information recorded in the two-dimensional code 111-1. (20, ⁇ 10) and (1000, 40) are the relative position information of the item area 201, and (40, 100) is the absolute position information of the item area 201. In this example, one 2D code is provided for each item. When one 2D code is provided for multiple items, area information is recorded for each item.
  • the image processing apparatus recognizes the two-dimensional code, extracts the area information, specifies the item area using the relative position information, and cuts out image data of the area. Furthermore, using the absolute position information, the layout information of the target item is extracted from the layout information for character recognition of the entire document, and the layout information of the target item is applied to the image data in the item area, so that only the target item is recognized. Process.
  • FIG. 4 is a flowchart of such image data extraction processing.
  • the image processing apparatus reads an image from a document (step 401), and recognizes a two-dimensional code included in the read image (step 402). Then, based on the region information included in the recognition result, the image data of the corresponding item region is extracted (step 403).
  • FIG. 5 shows such an image reconstruction process.
  • a document image 501 is generated from the three scanned images 101-103 shown in FIG.
  • the two-dimensional code 111-1—111-4, 112—1, 112—2, 113—1, and 113—2 [Fig. 6]
  • document attribute information such as document identification information is recorded.
  • the image processing apparatus after reading the partial document in a plurality of times, recognizes each two-dimensional code and cuts out based on the region information of the two-dimensional code having the same document attribute information.
  • the original image 501 is reconstructed using the obtained image data.
  • the 2D code image data may be reconstructed including the 2D code image data.
  • the 2D code image data may be deleted and reconstructed.
  • FIG. 7 is a flowchart of such an image reconstruction process.
  • the image processing apparatus first reads an image with document strength (step 701) and recognizes a two-dimensional code included in the read image (step 702). At this time, it is checked whether or not the read image includes a two-dimensional code (step 703) . If the two-dimensional code is included, the item area is checked in the same manner as in step 4003 in FIG. Image data is extracted (step 705). Then, the processing after step 701 is repeated.
  • step 703 If the image does not contain a two-dimensional code in step 703, the original image is reconstructed using the image data extracted so far that corresponds to the same original attribute information (step 704). ).
  • the processing information is recorded in the two-dimensional code, and the image processing apparatus automatically executes the processing specified by the processing information on the image data extracted from each read image.
  • an action representing a process applied to the item area is recorded.
  • the image processing apparatus performs character recognition processing of the image data of the corresponding item area based on the information, and the processing result data is stored in the server. save.
  • As an action it is also possible to record a process for saving image data as it is in a file.
  • FIG. 9 is a flowchart of such automatic image processing.
  • the processing in steps 901 to 903 in FIG. 9 is the same as the processing in steps 401 to 403 in FIG.
  • the image processing apparatus automatically executes the designated processing based on the processing information recorded in the corresponding two-dimensional code (step 904).
  • FIG. 10 shows an example of such a two-dimensional code arrangement.
  • the image processing apparatus uses the relative position information recorded in the two-dimensional codes 1012-i and 1012-i V, and Image data corresponding to one item is cut out from two scanned images 1002 and 1003, respectively. Then, using the absolute position information recorded in the two-dimensional codes 1012-i and 1012-i, the entire image 1004 is reconstructed.
  • image data corresponding to the item can be reconstructed and extracted.
  • FIG. 11 is a flowchart of such an image reconstruction process.
  • the processing in steps 1101 to 1103 and 1105 in FIG. 11 is the same as the processing in steps 701 to 703 and 705 in FIG.
  • step 1103 If the image does not contain a two-dimensional code in step 1103, the image processing apparatus next checks whether image data of the item area has been extracted (step 1104). ) o If there is extracted image data, select one of the image data (step 1 106), and check whether the image data corresponds to the divided part of one item area (step 1107). ).
  • step 1108 If the image data corresponds to a divided portion, the image data of the entire item area is reconstructed using the image data of another divided portion corresponding to the same item area (step 1108). Then, the processing after step 1104 is repeated for the next image data. If the image data corresponds to the whole of one item area in step 1107, the processing from step 1104 is repeated as it is.
  • the 2D code is printed in a color different from the print color of the item, overlapping the item. For example, if the content of an item is printed in black, the 2D code is printed in a color other than black.
  • the use area of the manuscript is not limited due to the addition of the two-dimensional code.
  • FIG. 12 shows an example of such a document layout.
  • the image processing apparatus separates and recognizes only the two-dimensional code from the read image of the original, and cuts out the image data of the item area.
  • the method described in Patent Document 3 described above is used for two-dimensional code and character superimposition printing and recognition using different colors.
  • a two-dimensional code requires a certain printing area depending on the amount of information to be recorded. Therefore, in order to make the area of the two-dimensional code as small as possible, the area information, document attribute information, and processing information described above are recorded in the server, and the information in the server is stored in the two-dimensional code as shown in FIG. Record only the identification information such as the storage number to be identified.
  • the image processing apparatus refers to the server using the identification information recorded in the two-dimensional code, and acquires information on the corresponding item. Then, using the acquired information as the recognition result of the two-dimensional code, the image data of the item area is cut out and necessary processing such as character recognition is performed.
  • FIG. 14 is a flowchart of such image data extraction processing.
  • the processing in steps 1 401, 1402, and 1404 in FIG. 14 is the same as the processing in steps 401-403 in FIG.
  • the image processing apparatus refers to the data management server using the identification information of the recognition result and acquires the corresponding stored information (step 1403). Then, the recognition result is replaced with the acquired information, and the image data of the item area is extracted.
  • FIG. 15 is a configuration diagram of such an image processing apparatus.
  • the image processing apparatus in FIG. 15 includes a moving image input device 1501, a motion detection unit 1502, and a code recognition unit 1503.
  • the moving image input device 1501 is, for example, a moving image input camera 1601 as shown in FIG. 16, and inputs a moving image of a document 1602 moving below the moving image input camera 1601.
  • the motion detection unit 1502 performs scene detection processing to detect the motion of the recognition target included in the moving image.
  • scene detection process for example, the method described in Patent Document 4 described above is used, and a moving image is encoded and the change amount of the code amount is detected.
  • the code recognition unit 1503 performs a two-dimensional code recognition process and cuts out the corresponding item region image data 1504.
  • the code recognition unit 1503 waits until the document is stabilized, and starts the recognition process at time T3.
  • the present invention can be applied to an image input by a moving image input camera.
  • FIG. 18 is a flowchart of such code recognition processing.
  • the image processing apparatus first inputs a moving image of a document (step 1801), performs a scene detection process (step 1802), and checks whether or not the recognition target is stationary (step 1803). If the recognition target is not stationary, the processing from step 1801 is repeated, and if the recognition target is stationary, recognition processing of the two-dimensional code included in the image is performed (step 1804).
  • FIG. 19 is a configuration diagram when the above-described image processing apparatus is configured using an information processing apparatus (computer).
  • 19 includes a communication device 1901, RAM (random access memory) 1902, ROM, read only memory; 1903, CPU (Central Processing Unit) 1904, medium drive device 1905, external storage device 1906, image input device 1907, A display device 1908 and an input device 1909 are provided and are connected to each other by a bus 1910.
  • RAM random access memory
  • ROM read only memory
  • CPU Central Processing Unit
  • the RAM 1902 stores input image data
  • the ROM 1903 stores programs used for processing.
  • the CPU 1904 performs necessary processing by executing a program using the RAM 1902.
  • the motion detection unit 1502 and the code recognition unit 1503 in FIG. 15 correspond to programs stored in the RAM 1902 or the ROM 1903.
  • the input device 1909 is, for example, a keyboard, a pointing device, a touch panel, and the like, and is used for inputting instructions and information from the user.
  • the image input device 1907 is, for example, a hand-held image scanner, a digital camera, a moving image input camera, or the like, and is used for inputting a document image.
  • the display device 1908 is used to output inquiries to the user, processing results, and the like.
  • the external storage device 1906 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like.
  • the image processing apparatus stores programs and data in the external storage device 1906, and loads them into the RAM 1902 as necessary. use.
  • the medium driving device 1905 drives the portable recording medium 1911 and accesses the recorded contents.
  • the portable recording medium 1911 is an arbitrary computer-readable recording medium such as a memory card, a flexible disk, an optical disk, and a magneto-optical disk.
  • the user stores programs and data in the portable recording medium 1911 and loads them into the RAM 1902 and uses them as necessary.
  • the communication device 1901 is connected to an arbitrary communication network such as a LAN (Local Area Network) and performs data conversion accompanying communication.
  • the image processing apparatus receives programs and data from an external apparatus via the communication apparatus 1901 as necessary, and loads them into the RAM 1902 for use.
  • the communication device 1901 is also used when accessing the data management server in Step 1403 of FIG.
  • FIG. 20 shows a method for providing a program and data to the image processing apparatus of FIG.
  • the programs and data stored in the portable recording medium 1911 and the database 2011 of the server 2001 are loaded into the RAM 1902 of the image processing apparatus 2002.
  • the server 2001 generates a carrier signal for carrying the program and data, and transmits it to the image processing apparatus 2002 via an arbitrary transmission medium on the network.
  • the CPU 1904 executes the program using the data and performs necessary processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

明 細 書
画像内の処理対象の位置を特定する画像処理装置
技術分野
[0001] 本発明は、スキャナやデジタルカメラ等の画像入力装置で入力された画像データ から、画像データに含まれる処理対象の位置を特定する画像処理装置に関する。 背景技術
[0002] 図 21は、従来の文字認識処理の入力と認識の例を示している。従来、手書き文字 や活字文字を含む帳票等の原稿の文字認識処理を行う場合、以下の手順で画像処 理を行っていた。
1.原稿サイズ以上の読み取り領域を有するフラットベットスキャナ等の画像入力装置 で原稿全体を読み込んで、読み取り画像 11を生成する。
2.認識処理時に、あら力じめ準備した原稿のレイアウト情報 12を文字認識のテンプ レートとして指定して、文字認識処理 13を行う。
[0003] ここで、原稿全体を一度に読み取ることのできないハンドへルドイメージスキャナや デジタルカメラ等の画像入力装置を用いた場合には、以下の 、ずれかの方法で文字 認識処理を行う必要が生じる。
(1)原稿内の複数の領域のそれぞれについて、画像入力装置の大きさに合わせたレ ィアウト情報と処理方法を指定するテンプレートを作成しておき、ユーザが領域毎に 使用するテンプレートを選択する。例えば、図 22に示す例では、 2つの読み取り画像 14および 15について、レイアウト情報 16および 17がそれぞれ選択され、文字認識 処理 18が行われる。
(2)読み取った画像データから元の原稿を再構成し、原稿全体をカバーする画像入 力装置と同等な入力画像を準備する。
[0004] このうち、 (2)については、原稿サイズよりも小さな画像入力装置で入力した画像を 結合し、原画像を生成する方法が知られている (例えば、特許文献 1参照)。この方 法では、分割して読み取られた 2つの文書画像の文字領域が検出され、文字認識部 は、文字領域内の活字文字を認識して文字コードを取得する。重なり位置検出部は 、 2つの文書画像の文字領域間で、文字領域の位置および大きさと文字コードを比 較し、一致度が高い行画像の位置を重なり位置として画像結合部に出力する。画像 結合部は、その重なり位置で 2つの文書画像を結合する。
[0005] し力しながら、この方法では、結合面に手書き文字がある場合には正しく文字認識 することができず、正確な結合画像が生成されない。
また、文字認識処理では、あら力じめ準備したテンプレートを原稿に応じてユーザ が選択するか、読み取り画像とすべてのテンプレートのマッチング処理を行う必要が ある。
[0006] このとき、認識対象の領域を自動的に特定する方法として、図 23に示すように、原 稿 21にバーコード(1次元コード) 22と位置補正用の印 23— 26を記録する方法が知 られている(例えば、特許文献 2参照)。バーコード 22には、認識対象画像データとし て抽出すべき領域 27— 29および領域 27— 29に対する画像処理内容が記録され、 原稿 21には、バーコード 22に加えて、領域 27— 29の位置補正用の印 23— 26が記 録される。
[0007] しかしながら、この方法では、バーコード 22と位置補正用の印 23— 26を記録する 必要があり、かつ、印 23— 26がすべて読めないような分割読み取りに対応すること は不可能である。
[0008] 特許文献 3は、画像データとコードを組み合わせて印刷画像を生成する印刷情報 処理システムに関し、特許文献 4は、動画像のシーン変化を検出する方法に関する。 特許文献 1 :日本特許出願公開 特開 2000-278514号公報
特許文献 2 :日本特許出願公開 特開 2003— 271942号公報
特許文献 3 :日本特許出願公開 特開 2000-348127号公報
特許文献 4:日本特許出願公開 特開平 06— 133305号公報
発明の開示
[0009] 本発明の課題は、原稿全体を一度に読み取ることのできない画像入力装置で入力 された画像データに含まれる処理対象の位置を自動的に特定することである。
本発明の画像処理装置は、格納部、認識部、および抽出部を備える。格納部は、 複数の処理対象と複数のコードを含む原稿の部分画像の画像データを格納する。認 識部は、それらのコードのうち部分画像に含まれるコードを認識して、そのコードに対 する処理対象領域の相対的な位置を表す相対位置情報を取得する。抽出部は、相 対位置情報を用いて部分画像内における処理対象領域の位置を特定し、特定され た処理対象領域から処理対象の画像データを抽出する。
[0010] 原稿内には、相対位置情報を取得するために必要なコードがあらかじめ複数個配 置されている。例えば、画像入力装置により原稿が分割して読み取られた場合、原稿 の一部分の画像が部分画像として格納部に格納される。認識部は、その部分画像に 含まれるコードの認識処理を行!ヽ、認識結果に基づ!/、て相対位置情報を取得する。 抽出部は、得られた相対位置情報を用いて、コードに対応する処理対象領域の位置 を特定し、処理対象の画像データを抽出する。
[0011] このような画像処理装置によれば、ハンドへルドイメージスキャナやデジタルカメラ 等の画像入力装置により入力された部分画像の画像データから、処理対象の画像 データを自動的に抽出することができる。
[0012] 格納部は、例えば、後述する図 19の RAM (random access memory) 1902に対応 し、認識部および抽出部は、例えば、図 19の CPU (CentralProcessing Unit ) 1904 に対応する。
図面の簡単な説明
[0013] [図 1]分割して読み取られた画像を示す図である。
[図 2]2次元コードと項目領域を示す図である。
[図 3]領域情報を示す図である。
[図 4]第 1の画像データ抽出処理のフローチャートである。
[図 5]第 1の画像再構成処理を示す図である。
[図 6]原稿属性情報を示す図である。
[図 7]第 1の画像再構成処理のフローチャートである。
[図 8]処理情報を示す図である。
[図 9]自動画像処理のフローチャートである。
[図 10]第 2の画像再構成処理を示す図である。
[図 11]第 2の画像再構成処理のフローチャートである。 [図 12]2次元コードと文字の重畳印刷を示す図である。
[図 13]サーバ内保管番号を示す図である。
[図 14]第 2の画像データ抽出処理のフローチャートである。
[図 15]動画像を入力してコード認識を行う画像処理装置の構成図である。
[図 16]動画像の入力方法を示す図である。
[図 17]動画像における符号量の変化を示す図である。
[図 18]動画像を入力してコード認識を行う処理のフローチャートである。
[図 19]画像処理装置の構成図である。
[図 20]プログラムおよびデータの提供方法を示す図である。
[図 21]従来の第 1の文字認識処理を示す図である。
[図 22]従来の第 2の文字認識処理を示す図である。
[図 23]従来の認識対象特定方法を示す図である。
発明を実施するための最良の形態
[0014] 以下、図面を参照しながら、本発明を実施するための最良の形態を詳細に説明す る。
本実施形態では、原稿サイズに依存しな!ヽ画像入力装置を使用して原稿を読み取 るために、 1項目以上のレイアウト情報を記録したコードと項目を原稿内に配置する。 そして、画像処理装置は、画像入力装置により入力された画像データから、まず、コ ードに記録されたレイアウト情報を認識し、次に、その情報力 処理対象の項目の画 像データを抽出する。
[0015] 図 1は、このようなコード画像処理において、原稿から読み取られた画像の例を示し て 、る。この場合、原稿内の各項目に対応するように 2次元コード 111-1-111 4、 112— 1、 112— 2、 113— 1、および 113— 4が配置され、原稿は 3つの画像 101— 10 3に分割されて読み取られる。
[0016] 各 2次元コードには、 2次元コードに対する項目領域の相対位置の情報と、原稿内 における項目領域の絶対位置の情報を記録しておく。例えば、 2次元コード 111 1 には、図 2に示すように、項目領域 201の相対位置および絶対位置の情報が記録さ れる。相対位置は、 2次元コード 111—1の位置 202を原点とする相対座標系におけ る項目領域 201の座標値で表される。また、絶対位置は、あら力じめ決められた原稿 内の基準点 203を原点とする絶対座標系における項目領域 201の座標値で表され る。
[0017] 図 3は、 2次元コード 111—1に記録された領域情報の例を示している。 (20,—10) および(1000, 40)は項目領域 201の相対位置情報であり、 (40, 100)は項目領域 201の絶対位置情報である。この例では、各項目に対して 1つの 2次元コードが設け られている力 複数の項目に対して 1つの 2次元コードが設けられる場合は、項目毎 に領域情報が記録される。
[0018] 原稿の読み取り後、画像処理装置は、 2次元コードを認識してこの領域情報を取り 出し、相対位置情報を用いて項目領域を特定し、その領域の画像データを切り出す 。さらに、絶対位置情報を用いて、原稿全体の文字認識用のレイアウト情報から対象 項目のレイアウト情報を切り出し、項目領域の画像データに対象項目のレイアウト情 報を適用して、対象項目のみの文字認識処理を行う。
[0019] このような 2次元コードを用いれば、原稿内の項目の画像データを切り出すとともに 、原稿全体のレイアウト情報のうち項目に対応するレイアウト情報を切り出すことが可 能になる。したがって、読み取り画像内に項目領域の位置補正用の印が含まれてい なくても、文字認識処理を実行することができる。
[0020] 図 4は、このような画像データ抽出処理のフローチャートである。画像処理装置は、 まず、原稿から画像を読み取り(ステップ 401)、読み取った画像に含まれる 2次元コ ードを認識する (ステップ 402)。そして、認識結果に含まれる領域情報に基づいて、 対応する項目領域の画像データを抽出する (ステップ 403)。
[0021] 次に、分割して読み取られた画像から原稿全体の画像を再構成する方法について 説明する。この場合、 2次元コードに原稿属性情報を記録しておき、画像処理装置は 、原稿属性情報を用いて、各読み取り画像から抽出された画像データを再配置する ことにより、原稿画像を再構成する。
[0022] 図 5は、このような画像再構成処理を示している。この例では、図 1に示した 3つの 読み取り画像 101— 103から原稿画像 501が生成される。例えば、 2次元コード 111 -1—111-4, 112—1、 112— 2、 113—1、および 113— 2【こ ίま、図 6【こ示すよう【こ、領 域情報に加えて、原稿識別情報等の原稿属性情報が記録される。
[0023] 画像処理装置は、複数回に分けて部分原稿の読み取りを行った後、各 2次元コー ドを認識し、同じ原稿属性情報を有する 2次元コードの領域情報に基づ 、て切り出さ れた画像データを使用して、原稿画像 501を再構成する。このとき、 2次元コードの 画像データを含めて再構成してもよぐ 2次元コードの画像データを削除して再構成 してちよい。
[0024] このように、 2次元コードに記録した原稿属性情報とレイアウト情報を使用することで 、原稿を複数回に分けて読み取った場合でも、容易に元の原稿の画像を復元するこ とがでさる。
[0025] 図 7は、このような画像再構成処理のフローチャートである。画像処理装置は、まず 、原稿力も画像を読み取り(ステップ 701)、読み取った画像に含まれる 2次元コード を認識する(ステップ 702)。このとき、読み取った画像に 2次元コードが含まれている か否かをチェックし (ステップ 703)、 2次元コードが含まれていれば、図 4のステップ 4 03と同様にして、項目領域の画像データを抽出する (ステップ 705)。そして、ステツ プ 701以降の処理を繰り返す。
[0026] ステップ 703において画像に 2次元コードが含まれていなければ、それまでに抽出 された画像データのうち同じ原稿属性情報に対応するものを使用して、原稿画像を 再構成する (ステップ 704)。
[0027] 次に、抽出された画像データに対して文字認識等の処理を自動的に適用する方法 について説明する。この場合、 2次元コードに処理情報を記録しておき、画像処理装 置は、各読み取り画像から抽出された画像データに対して、処理情報により指定され た処理を自動的に実行する。
[0028] 2次元コードには、図 8に示すように、領域情報および原稿属性情報に加えて、そ の項目領域に適用される処理を表すアクションが記録される。例えば、アクションとし て文字認識およびサーバ保存が記録されていた場合、画像処理装置は、その情報 に基づき、対応する項目領域の画像データの文字認識処理を行い、処理結果のデ ータをサーバに保存する。アクションとして、画像データをそのままファイルに保存す る処理を記録しておくことも可能である。 [0029] このように、 2次元コードに画像データの処理情報を記録しておくことで、文字認識 や画像データのままの保存等、画像読み取り後の後処理を自動化することができる。 したがって、項目毎に異なる処理を行う場合でも、ユーザは、画像データを手作業で 分別して処理を実施する必要がな ヽ。
[0030] 図 9は、このような自動画像処理のフローチャートである。図 9のステップ 901— 903 の処理は、図 4のステップ 401— 403の処理と同様である。画像データが抽出される と、画像処理装置は、対応する 2次元コードに記録された処理情報に基づいて、指 定された処理を自動的に実行する (ステップ 904)。
[0031] 次に、原稿幅よりも読み取り幅が小さな画像入力装置を使用した場合に、読み取り 幅より大きな項目領域を分割して読み取る方法について説明する。例えば、デジタル カメラの接写撮影機能を使用した場合がこれに相当する。この場合、 1つの項目領域 に対して、 2次元コードを同一原稿内の異なる場所に、例えば、項目領域を挟むよう にして 2個以上配置しておく。
[0032] 図 10は、このような 2次元コードの配置例を示している。この例では、原稿 1001の 各項目を左右力 挟むようにして、 2次元コード 1011-iと 1012-i(i= l, 2, 3, 4)が 配置されている。
[0033] この原稿 1001が画像 1002と画像 1003に分割されて読み取られた場合、画像処 理装置は、 2次元コード 1012-iおよび 1012-iに記録された相対位置情報を用 V、て 、 1つの項目に対応する画像データを 2つの読み取り画像 1002および 1003からそ れぞれ切り出す。そして、 2次元コード 1012— iおよび 1012— iに記録された絶対位置 情報を用いて、原稿全体の画像 1004を再構成する。
[0034] これ〖こより、 1つの項目領域が 2回に分けて読み取られた場合でも、その項目に対 応する画像データを再構成して抽出することができる。
図 11は、このような画像再構成処理のフローチャートである。図 11のステップ 1101 一 1103および 1105の処理は、図 7のステップ 701— 703および 705の処理と同様 である。
[0035] ステップ 1103において画像に 2次元コードが含まれていなければ、画像処理装置 は、次に、項目領域の画像データが抽出されたか否かをチェックする (ステップ 1104 ) o抽出された画像データがあれば、そのうちの 1つの画像データを選択し (ステップ 1 106)、その画像データが 1つの項目領域の分割部分に相当する力否かをチェックす る(ステップ 1107)。
[0036] 画像データが分割部分に相当する場合、同じ項目領域に対応する他の分割部分 の画像データを用いて、その項目領域全体の画像データを再構成する (ステップ 11 08)。そして、次の画像データについてステップ 1104以降の処理を繰り返す。ステツ プ 1107において画像データが 1つの項目領域の全体に相当する場合は、そのまま ステップ 1104以降の処理を繰り返す。
[0037] 次に、原稿の使用可能領域を狭めることなぐ 2次元コードを配置する方法につい て説明する。この場合、 2次元コードを項目の印刷色とは異なる色で、項目と重ねて 印刷する。例えば、項目の内容が黒で印刷されている場合、 2次元コードは黒以外の 色で印刷される。これにより、 2次元コードの追加のために原稿の使用面積が制限さ れることがなくなる。
[0038] 図 12は、このような原稿のレイアウト例を示している。この例では、各項目の印刷文 字の上に、 2次元コード 1201— i (i= l, 2, 3, 4)が異なる色で重ねて印刷されている 。画像処理装置は、この原稿の読み取り画像から 2次元コードのみを分離して認識し 、項目領域の画像データを切り出す。異なる色を用いた 2次元コードと文字の重畳印 刷と認識には、例えば、前述した特許文献 3に記載された方法が用いられる。
[0039] 次に、領域情報等を 2次元コードの代わりにデータ管理サーバに記録しておき、読 み取り時に利用する方法について説明する。 2次元コードは、記録される情報の量に よって、ある程度の印刷面積を必要とする。そこで、 2次元コードの面積をできるだけ 小さくするために、上述した領域情報、原稿属性情報、および処理情報をサーバに 記録し、 2次元コードには、図 13に示すように、サーバ内の情報を特定する保管番号 等の識別情報のみを記録しておく。
[0040] 画像処理装置は、 2次元コードに記録された識別情報を用いてサーバを参照し、対 応する項目の情報を取得する。そして、取得した情報を 2次元コードの認識結果とし て用いて、項目領域の画像データを切り出し、文字認識等の必要な処理を行う。
[0041] このように、 2次元コードに本来記録するべき内容をサーバに保存することで、 2次 元コードの印刷面積を小さくすることができる。
図 14は、このような画像データ抽出処理のフローチャートである。図 14のステップ 1 401、 1402、および 1404の処理は、図 4のステップ 401— 403の処理と同様である 。ステップ 1402において 2次元コードが認識されると、画像処理装置は、認識結果の 識別情報を用いてデータ管理サーバを参照し、対応する保存情報を取得する (ステ ップ 1403)。そして、認識結果を取得情報と置き換えて、項目領域の画像データを 抽出する。
[0042] ところで、ハンドへルドイメージスキャナやデジタルカメラの他に、動画像撮影が可 能な動画像入力カメラもある。このような入力装置を用いた場合、従来のコード認識 では、入力動画像を順次認識しながらコード認識を行っていた。しかし、本実施形態 では、原稿に含まれる 2次元コードと項目領域の両方の画像が同時に必要であり、 2 次元コードと項目領域が入力対象として確定したところで、画像認識を行う必要があ る。従来のコード認識はコードのみに着目していたので、本実施形態の認識処理に は適用できない。
[0043] そこで、本実施形態では、原稿を移動させて静止したところを入力対象とする原稿 の移動動作に着目し、原稿の動画像を入力しながらシーン検出処理を行って、動画 像力 原稿の動きを検出し、原稿が静止したときに認識処理を行うように、画像処理 装置を制御する。
[0044] 図 15は、このような画像処理装置の構成図である。図 15の画像処理装置は、動画 像入力装置 1501、動き検出部 1502、およびコード認識部 1503を備える。動画像 入力装置 1501は、例えば、図 16に示すような動画像入力カメラ 1601であり、その 下を移動する原稿 1602の動画像を入力する。
[0045] 動き検出部 1502は、シーン検出処理を行って、動画像に含まれる認識対象の動き を検出する。このシーン検出処理では、例えば、前述した特許文献 4に記載された方 法が用いられ、動画像を符号ィ匕してその符号量の変化力 シーン変化を検出する。 コード認識部 1503は、認識対象が静止したことが検出されたときに、 2次元コードの 認識処理を行って、対応する項目領域の画像データ 1504を切り出す。
[0046] 例えば、動画像の符号量が図 17に示すように変化した場合、時刻 T1から T2まで の間は原稿が移動しているとみなされ、時刻 T2以降は静止しているとみなされる。そ こで、コード認識部 1503は、原稿が安定するまで待って、時刻 T3に認識処理を開 始する。
[0047] シーン検出の結果により認識処理を制御することで、動画像入力カメラにより入力さ れた画像に対しても、本発明を適用することが可能になる。
図 18は、このようなコード認識処理のフローチャートである。画像処理装置は、まず 、原稿の動画像を入力し (ステップ 1801)、シーン検出処理を行って (ステップ 1802 )、認識対象が静止したか否かをチェックする (ステップ 1803)。認識対象が静止して いなければ、ステップ 1801以降の処理を繰り返し、認識対象が静止すれば、その画 像に含まれる 2次元コードの認識処理を行う(ステップ 1804)。
[0048] 図 19は、上述した画像処理装置を情報処理装置 (コンピュータ)を用いて構成した 場合の構成図である。図 19の画像処理装置は、通信装置 1901、 RAM (random access memory) 1902、 ROM、read only memory; 1903、 CPU (CentralProcessing Unit ) 1904、媒体駆動装置 1905、外部記憶装置 1906、画像入力装置 1907、表 示装置 1908、および入力装置 1909を備え、それらはバス 1910により互いに接続さ れている。
[0049] RAM1902は、入力された画像データを格納し、 ROM1903は、処理に用いられ るプログラム等を格納する。 CPU1904は、 RAM 1902を利用してプログラムを実行 することにより、必要な処理を行う。図 15の動き検出部 1502およびコード認識部 150 3は、 RAM1902または ROM1903に格納されたプログラムに対応する。
[0050] 入力装置 1909は、例えば、キーボード、ポインティングデバイス、タツチパネル等で あり、ユーザ力もの指示や情報の入力に用いられる。画像入力装置 1907は、例えば 、ハンドへルドイメージスキャナ、デジタルカメラ、動画像入力カメラ等であり、原稿画 像の入力に用いられる。また、表示装置 1908は、ユーザへの問い合わせや処理結 果等の出力に用いられる。
[0051] 外部記憶装置 1906は、例えば、磁気ディスク装置、光ディスク装置、光磁気デイス ク装置、テープ装置等である。画像処理装置は、この外部記憶装置 1906に、プログ ラムおよびデータを格納しておき、必要に応じて、それらを RAM1902にロードして 使用する。
[0052] 媒体駆動装置 1905は、可搬記録媒体 1911を駆動し、その記録内容にアクセスす る。可搬記録媒体 1911は、メモリカード、フレキシブルディスク、光ディスク、光磁気 ディスク等の任意のコンピュータ読み取り可能な記録媒体である。ユーザは、この可 搬記録媒体 1911にプログラムおよびデータを格納しておき、必要に応じて、それら を RAM1902にロードして使用する。
[0053] 通信装置 1901は、 LAN (LocalArea Network)等の任意の通信ネットワークに接続 され、通信に伴うデータ変換を行う。画像処理装置は、必要に応じて、プログラムおよ びデータを外部の装置から通信装置 1901を介して受け取り、それらを RAM1902 にロードして使用する。通信装置 1901は、図 14のステップ 1403においてデータ管 理サーバにアクセスする際にも用いられる。
[0054] 図 20は、図 19の画像処理装置にプログラムおよびデータを提供する方法を示して V、る。可搬記録媒体 1911やサーバ 2001のデータベース 2011に格納されたプログ ラムおよびデータは、画像処理装置 2002の RAM1902にロードされる。サーバ 200 1は、そのプログラムおよびデータを搬送する搬送信号を生成し、ネットワーク上の任 意の伝送媒体を介して画像処理装置 2002に送信する。 CPU1904は、そのデータ を用いてそのプログラムを実行し、必要な処理を行う。

Claims

請求の範囲
[1] 複数の処理対象と複数のコードを含む原稿の部分画像の画像データを格納する格 納部と、
前記複数のコードのうち前記部分画像に含まれるコードを認識して、該コードに対 する処理対象領域の相対的な位置を表す相対位置情報を取得する認識部と、 前記相対位置情報を用いて前記部分画像内における前記処理対象領域の位置を 特定し、特定された処理対象領域から処理対象の画像データを抽出する抽出部と を備えることを特徴とする画像処理装置。
[2] 複数の処理対象と複数のコードを含む原稿の部分画像の画像データを入力して格 納部に格納し、
前記複数のコードのうち前記部分画像に含まれるコードを認識して、該コードに対 する処理対象領域の相対位置を表す相対位置情報を取得し、
前記相対位置情報を用いて前記部分画像内における前記処理対象領域の位置を 特定し、
特定された処理対象領域から処理対象の画像データを抽出する
処理をコンピュータに実行させることを特徴とするプログラム。
[3] 前記部分画像に含まれるコードから、前記原稿内における前記処理対象領域の絶 対位置を表す絶対位置情報を取得し、該絶対位置情報を用いて原稿全体のレイァ ゥト情報から該処理対象領域のレイアウト情報を抽出し、前記処理対象の画像デー タに該処理対象領域のレイアウト情報を適用して、該処理対象の画像データの文字 認識を行う処理を、前記コンピュータに実行させることを特徴とする請求項 2記載のプ ログラム。
[4] 前記原稿が複数部分に分割して読み取られたとき、各部分の部分画像の画像デー タを入力して前記格納部に格納し、各部分画像に含まれるコードを認識して相対位 置情報および原稿属性情報を取得し、該相対位置情報を用いて各部分画像から処 理対象の画像データを抽出し、抽出された画像データから該原稿属性情報に従って 原稿全体の画像データを構成する処理を、前記コンピュータに実行させることを特徴 とする請求項 2記載のプログラム。
[5] 前記部分画像に含まれるコードから、前記処理対象の画像データに対して実行す べき処理を表す処理情報を取得し、該処理情報により指定された処理を、前記コン ピュータに実行させることを特徴とする請求項 2記載のプログラム。
[6] 前記複数の処理対象のうち少なくとも 1つの処理対象に対応して、前記原稿内の異 なる場所に 2個以上のコードが配置されており、該処理対象の処理対象領域が複数 部分に分割して読み取られたとき、各部分を含む部分画像の画像データを入力して 前記格納部に格納し、各部分画像に含まれるコードを認識して相対位置情報を取得 し、該相対位置情報を用いて各部分画像カゝら処理対象の一部の画像データを抽出 し、抽出された画像データから該処理対象全体の画像データを構成する処理を、前 記コンピュータに実行させることを特徴とする請求項 2記載のプログラム。
[7] 前記原稿内において前記処理対象とコードが異なる色で重ねて印刷されていると き、前記部分画像から該コードを分離して認識する処理を、前記コンピュータに実行 させることを特徴とする請求項 2記載のプログラム。
[8] 前記相対位置情報がサーバに保存されているとき、前記部分画像に含まれるコー ドから、該サーバ内の相対位置情報を特定する識別情報を取得し、該識別情報を用 いて該サーノから該相対位置情報を取得する処理を、前記コンピュータに実行させ ることを特徴とする請求項 2記載のプログラム。
[9] 前記原稿の動画像を入力しながら該原稿が移動しているか否かを検出し、該原稿 が静止したときに入力された部分画像を用いて、該部分画像に含まれるコードを認 識する処理を、前記コンピュータに実行させることを特徴とする請求項 2記載のプログ ラム。
[10] 格納部が、複数の処理対象と複数のコードを含む原稿の部分画像の画像データを 格納し、
認識部が、前記複数のコードのうち前記部分画像に含まれるコードを認識して、該 コードに対する処理対象領域の相対位置を表す相対位置情報を取得し、
抽出部が、前記相対位置情報を用いて前記部分画像内における前記処理対象領 域の位置を特定し、特定された処理対象領域から処理対象の画像データを抽出す る ことを特徴とする画像処理方法。
PCT/JP2004/019648 2004-12-28 2004-12-28 画像内の処理対象の位置を特定する画像処理装置 Ceased WO2006070476A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2004/019648 WO2006070476A1 (ja) 2004-12-28 2004-12-28 画像内の処理対象の位置を特定する画像処理装置
JP2006550542A JP4398474B2 (ja) 2004-12-28 2004-12-28 画像内の処理対象の位置を特定する画像処理装置
EP04808003A EP1833022A4 (en) 2004-12-28 2004-12-28 Image processing device for detecting the position of a processing object in a picture
US11/769,922 US20070242882A1 (en) 2004-12-28 2007-06-28 Image processing apparatus for identifying the position of a process target within an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/019648 WO2006070476A1 (ja) 2004-12-28 2004-12-28 画像内の処理対象の位置を特定する画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/769,922 Continuation US20070242882A1 (en) 2004-12-28 2007-06-28 Image processing apparatus for identifying the position of a process target within an image

Publications (1)

Publication Number Publication Date
WO2006070476A1 true WO2006070476A1 (ja) 2006-07-06

Family

ID=36614603

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/019648 Ceased WO2006070476A1 (ja) 2004-12-28 2004-12-28 画像内の処理対象の位置を特定する画像処理装置

Country Status (4)

Country Link
US (1) US20070242882A1 (ja)
EP (1) EP1833022A4 (ja)
JP (1) JP4398474B2 (ja)
WO (1) WO2006070476A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193580A (ja) * 2007-02-07 2008-08-21 Ricoh Co Ltd 情報処理装置
JP2010518473A (ja) * 2007-02-02 2010-05-27 フラクチャー コード コーポレーション エーピーエス 仮想コード窓
JP2010160636A (ja) * 2009-01-07 2010-07-22 Koncheruto:Kk 不動産登記関係書類の作成支援装置
WO2011129113A1 (ja) * 2010-04-15 2011-10-20 パナソニック株式会社 帳票処理装置及び帳票処理方法及び記録媒体
JP2015049833A (ja) * 2013-09-04 2015-03-16 トッパン・フォームズ株式会社 帳票情報入力システム
JPWO2014192612A1 (ja) * 2013-05-31 2017-02-23 日本電気株式会社 画像認識装置、その処理方法、およびプログラム
JP2023046978A (ja) * 2021-09-24 2023-04-05 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574063B2 (en) * 2003-07-23 2009-08-11 Canon Kabushiki Kaisha Image coding method and apparatus
FR2946773A1 (fr) * 2009-06-12 2010-12-17 Bertrand Labaye Procede et dispositif de reconnaissance d'informations au moyen d'une balise graphique.
GB2473228A (en) * 2009-09-03 2011-03-09 Drs Data Services Ltd Segmenting Document Images
JP5479083B2 (ja) * 2009-12-25 2014-04-23 キヤノン株式会社 画像処理装置及びその制御方法並びにプログラム
EP2362327A1 (en) 2010-02-19 2011-08-31 Research In Motion Limited Method, device and system for image capture, processing and storage
FR2993082B1 (fr) * 2012-07-05 2014-06-27 Holdham Surface imprimee et dispositif et procede de traitement d'images d'une telle surface imprimee
US9298997B1 (en) * 2014-03-19 2016-03-29 Amazon Technologies, Inc. Signature-guided character recognition
FR3028644B1 (fr) * 2014-11-13 2018-02-02 Advanced Track & Trace Formulaires, dispositifs mettant en œuvre ce formulaire et procedes mettant en œuvre ce formulaire
US10395081B2 (en) * 2016-12-09 2019-08-27 Hand Held Products, Inc. Encoding document capture bounds with barcodes
JP6954229B2 (ja) * 2018-05-25 2021-10-27 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像形成装置
WO2020075483A1 (ja) 2018-10-09 2020-04-16 インターマン株式会社 携帯型カレンダーおよびノート
US20220024241A1 (en) * 2018-10-09 2022-01-27 Interman Corporation Portable type calendar and notebook
CN113947772A (zh) * 2021-10-18 2022-01-18 北京三快在线科技有限公司 对图像进行信息识别的方法、装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09285763A (ja) * 1996-04-22 1997-11-04 Ricoh Co Ltd 画像読取印刷装置
JPH1125209A (ja) * 1997-07-04 1999-01-29 Toshiba Corp 情報入力装置、情報入力方法、記憶媒体、及び二次元バーコード印刷装置
JPH1185895A (ja) * 1997-09-03 1999-03-30 Olympus Optical Co Ltd コードパターン読取装置
JP2002052366A (ja) * 2000-08-10 2002-02-19 Toshiba Corp 区分装置と区分情報の認識方法
JP2003216893A (ja) * 2002-01-23 2003-07-31 Sharp Corp カメラ付携帯情報端末

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103266A (ja) * 1981-12-15 1983-06-20 Toshiba Corp 文字画像処理装置
JPH0359778A (ja) * 1989-07-28 1991-03-14 Toshiba Corp 画像処理装置
DE69018800T2 (de) * 1989-12-13 1995-11-30 Mita Industrial Co Ltd Bilderzeugungsgerät.
JP3183691B2 (ja) * 1991-11-19 2001-07-09 株式会社リコー 画像合成装置
US5307423A (en) * 1992-06-04 1994-04-26 Digicomp Research Corporation Machine recognition of handwritten character strings such as postal zip codes or dollar amount on bank checks
JP3193928B2 (ja) * 1992-06-29 2001-07-30 株式会社東芝 画像形成装置
JP3315766B2 (ja) * 1992-09-07 2002-08-19 富士通株式会社 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
US5452105A (en) * 1992-11-19 1995-09-19 Sharp Kabushiki Kaisha Joint-portion processing device for image data for use in an image processing apparatus
EP0873003B1 (en) * 1997-04-14 2007-03-21 Hewlett-Packard Company, A Delaware Corporation Image scanning device and method
JPH1186014A (ja) * 1997-09-08 1999-03-30 Fujitsu Ltd 文書画像表示方法および表示装置
JP3432736B2 (ja) * 1997-10-29 2003-08-04 シャープ株式会社 画像処理装置
JP3821267B2 (ja) * 1999-01-18 2006-09-13 富士通株式会社 文書画像結合装置、文書画像結合方法及び文書画像結合プログラムを記録した記録媒体
US6594403B1 (en) * 1999-01-29 2003-07-15 Xerox Corporation Systems and methods for registering scanned documents
JP4148597B2 (ja) * 1999-06-03 2008-09-10 富士通株式会社 印刷情報処理システム、印刷装置および記録媒体
US20030142358A1 (en) * 2002-01-29 2003-07-31 Bean Heather N. Method and apparatus for automatic image capture device control
JP4019063B2 (ja) * 2003-04-18 2007-12-05 光雄 中山 光学端末装置、画像処理方法およびシステム
JP4277800B2 (ja) * 2003-04-25 2009-06-10 沖電気工業株式会社 透かし情報検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09285763A (ja) * 1996-04-22 1997-11-04 Ricoh Co Ltd 画像読取印刷装置
JPH1125209A (ja) * 1997-07-04 1999-01-29 Toshiba Corp 情報入力装置、情報入力方法、記憶媒体、及び二次元バーコード印刷装置
JPH1185895A (ja) * 1997-09-03 1999-03-30 Olympus Optical Co Ltd コードパターン読取装置
JP2002052366A (ja) * 2000-08-10 2002-02-19 Toshiba Corp 区分装置と区分情報の認識方法
JP2003216893A (ja) * 2002-01-23 2003-07-31 Sharp Corp カメラ付携帯情報端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1833022A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010518473A (ja) * 2007-02-02 2010-05-27 フラクチャー コード コーポレーション エーピーエス 仮想コード窓
JP2008193580A (ja) * 2007-02-07 2008-08-21 Ricoh Co Ltd 情報処理装置
JP2010160636A (ja) * 2009-01-07 2010-07-22 Koncheruto:Kk 不動産登記関係書類の作成支援装置
WO2011129113A1 (ja) * 2010-04-15 2011-10-20 パナソニック株式会社 帳票処理装置及び帳票処理方法及び記録媒体
JP2011227543A (ja) * 2010-04-15 2011-11-10 Panasonic Corp 帳票処理装置及び帳票処理方法及び記録媒体
JPWO2014192612A1 (ja) * 2013-05-31 2017-02-23 日本電気株式会社 画像認識装置、その処理方法、およびプログラム
US10650264B2 (en) 2013-05-31 2020-05-12 Nec Corporation Image recognition apparatus, processing method thereof, and program
JP2015049833A (ja) * 2013-09-04 2015-03-16 トッパン・フォームズ株式会社 帳票情報入力システム
JP2023046978A (ja) * 2021-09-24 2023-04-05 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム
US12424003B2 (en) 2021-09-24 2025-09-23 Fujifilm Business Innovation Corp. Collation device, non-transitory computer readable medium storing program, and collation method
JP7767798B2 (ja) 2021-09-24 2025-11-12 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム

Also Published As

Publication number Publication date
JP4398474B2 (ja) 2010-01-13
EP1833022A1 (en) 2007-09-12
US20070242882A1 (en) 2007-10-18
JPWO2006070476A1 (ja) 2008-06-12
EP1833022A4 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
JP4398474B2 (ja) 画像内の処理対象の位置を特定する画像処理装置
US8107727B2 (en) Document processing apparatus, document processing method, and computer program product
US7272269B2 (en) Image processing apparatus and method therefor
JP4405831B2 (ja) 画像処理装置及びその制御方法、プログラム
US20120236368A1 (en) Image processing apparatus, document management server, and method of image processing
US8078005B2 (en) Method for controlling the combining of original image data and coded image data
US10671662B2 (en) Method and system for analyzing an image generated by at least one camera
EP2608104B1 (en) Image processing device, image processing method, and image processing program
US8355583B2 (en) Image processing apparatus and apparatus for searching operator
US20070091373A1 (en) Medium processing method, copying apparatus, and data filing apparatus
JP4859054B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP5094682B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11155102B2 (en) Image to script converter
EP1202213A2 (en) Document format identification apparatus and method
JP7452060B2 (ja) 情報処理装置及びプログラム
JP5147640B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7318289B2 (ja) 情報処理装置およびプログラム
JP6639257B2 (ja) 情報処理装置及びその制御方法
JP6303742B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US7844138B2 (en) History control apparatus
JP6907565B2 (ja) 画像処理装置および画像処理プログラム
US20110157658A1 (en) Imaging processing apparatus, method for controlling the same, and program
JP2008092451A (ja) スキャナシステム
US8004712B2 (en) Image processing apparatus and method
US8395819B2 (en) Image processing device, image processing method and computer readable medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006550542

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2004808003

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11769922

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2004808003

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11769922

Country of ref document: US