JP2011120174A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2011120174A JP2011120174A JP2009278006A JP2009278006A JP2011120174A JP 2011120174 A JP2011120174 A JP 2011120174A JP 2009278006 A JP2009278006 A JP 2009278006A JP 2009278006 A JP2009278006 A JP 2009278006A JP 2011120174 A JP2011120174 A JP 2011120174A
- Authority
- JP
- Japan
- Prior art keywords
- area
- processing
- cell
- image data
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【課題】 連続する複数のセルそれぞれに対して、一度の操作で処理対象セルを認識することができなかった。
【解決手段】 複数のセルからなる表の領域を指示した場合、表領域に含まれ、かつ、指示領域に含まれるセルを処理対象セルとして認識する。
【選択図】 図15PROBLEM TO BE SOLVED: To recognize a processing target cell by one operation for each of a plurality of continuous cells.
When an area of a table composed of a plurality of cells is designated, a cell contained in the table area and contained in the designated area is recognized as a processing target cell.
[Selection] FIG.
Description
本発明は、記録媒体上に書き込まれた処理指示を認識するための画像処理装置及び画像処理方法並びにプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for recognizing a processing instruction written on a recording medium.
従来から、コンピュータを用いてスキャナによる用紙の読取画像を解析し、紙面上に記載された文字等を認識する技術がある。この技術を利用すれば、例えば多数の帳票に対して記載された金額や日付等を容易に抽出することができ、また抽出したデータを集計等の処理に入力させることができる。ただし、以上の処理を自動化するためには、紙面上のどの位置にどのような種類のデータがあるのかをコンピュータに指示する必要がある。 2. Description of the Related Art Conventionally, there has been a technique for recognizing characters or the like written on a paper by analyzing a read image of a paper by a scanner using a computer. If this technology is used, for example, amounts and dates described for a large number of forms can be easily extracted, and the extracted data can be input to processing such as tabulation. However, in order to automate the above processing, it is necessary to instruct the computer which kind of data is present at which position on the paper.
従来においては、例えば、処理対象の答案用紙と、答案用紙フォームに処理すべき記入欄と記入欄への書込内容に対する処理を指示する処理指示情報が記入された処理指示書とを一連の読取処理により読み取る。処理指示書の読取データから処理指示情報を検出し解析することによって、紙面上における処理対象とする書込領域と、各書込領域に対する処理内容を認識する技術があった(例えば、特許文献1)。 Conventionally, for example, a series of reading of an answer sheet to be processed, a processing instruction sheet in which processing instruction information for instructing processing on an entry field to be processed on the answer sheet form and contents to be written in the entry field is entered. Read by processing. There has been a technique for recognizing a writing area to be processed on a paper surface and processing contents for each writing area by detecting and analyzing the processing instruction information from the read data of the processing instruction sheet (for example, Patent Document 1). ).
しかしながら、前述の方法では、ユーザが処理指示書に記入した処理対象となる領域に対して処理を行うため、別の領域に対して同じ処理内容を適用する場合にも各領域に対してユーザが処理対象領域および処理内容を記入する必要がある。そのため、連続する複数の領域に対して一括して処理対象領域および処理内容の指示を行うことができなかった。特に、表においては縦方向もしくは横方向に同じ項目が連続するが、連続して並ぶセルに対しても一括して処理対象領域および処理内容の指示を行うことができなかったため、処理指示書を作成するユーザの利便性を著しく損ねていた。 However, in the above-described method, since the process is performed on the processing target area entered by the user in the processing instruction sheet, even when the same processing content is applied to another area, the user must It is necessary to fill in the processing target area and processing contents. For this reason, it has been impossible to instruct the processing target area and the processing content collectively for a plurality of continuous areas. In particular, in the table, the same items continue in the vertical direction or the horizontal direction, but because it was not possible to instruct the processing target area and the processing contents for the cells arranged continuously, the processing instruction sheet Convenience for the user to create was significantly impaired.
本発明は、上記問題点に鑑みなされたものであり、複数のセルからなる表の領域を指示した場合、指示した領域に含まれる各セルを処理対象セルとして認識させることが可能な画像処理装置及び画像処理方法並びにプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and when an area of a table made up of a plurality of cells is designated, an image processing apparatus capable of recognizing each cell included in the designated area as a processing target cell And an image processing method and a program.
上記目的を達成するため、本発明は、画像データに含まれる複数のそれぞれのセルを処理対象セルとして認識し、前記認識された処理対象セルに対して処理を行うための処理指示書を作成する画像処理装置において、読取手段により原稿上の画像を読み取って得た画像データにおいて、手書きで囲まれた領域を認識する領域認識手段と、前記画像データにおいて複数のセルからなる表領域が存在するかを判別する判別手段と、前記判別手段により前記画像データ内に表領域が存在すると判別され、前記判別された表領域のセル内に前記領域認識手段により認識された手書きで囲まれた領域が含まれる場合、前記手書きで囲まれた領域が含まれる複数のセルのそれぞれを処理対象セルとして認識する認識手段とを有することを特徴とする。 To achieve the above object, the present invention recognizes each of a plurality of cells included in image data as a processing target cell, and creates a processing instruction sheet for performing processing on the recognized processing target cell. In the image processing apparatus, in the image data obtained by reading the image on the document by the reading unit, there is a region recognition unit for recognizing a region surrounded by handwriting, and whether a table region including a plurality of cells exists in the image data. A determination unit for determining the presence of a table region in the image data by the determination unit, and a region surrounded by handwriting recognized by the region recognition unit is included in a cell of the determined table region A recognition means for recognizing each of a plurality of cells including a region surrounded by the handwriting as a processing target cell.
本発明によれば、複数のセルからなる表の領域を指示した場合、指示した領域に含まれる各セルを処理対象セルとして認識することが可能となる。 According to the present invention, when an area of a table including a plurality of cells is designated, each cell included in the designated area can be recognized as a processing target cell.
以下、本発明を実施するための最良の形態について図面を用いて説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明の実施形態の一例である画像処理装置の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an image processing apparatus which is an example of an embodiment of the present invention.
本実施形態における画像処理装置100は、コピー機能、スキャナ機能等各種機能を搭載した複合機を例に示すが、これらの機能を複数の装置を連携させて実現するようにしてもよい。
The
CPU11は、ROM19に格納されたプログラムを、RAM18にロードすることによって画像処理装置100全体の動作を制御する。また、CPU11は、バス12を介して画像処理装置100内の各構成と通信を行う。操作部16は、ユーザが指示を行うためのタッチパネル等の複数のキー、ユーザに通知すべき各種情報を表示する表示部を含む。スキャナ15は、ユーザが原稿台にセットした原稿上の画像をカラー画像として読み取り、これによって得た電子データ(画像データ)をHDD13、RAM18等に蓄積する。HDD13は、ハードディスクを含むハードディスクドライブであり、入力された各種情報を格納する。また、スキャナ15は、原稿給送装置を含み、原稿給送装置にセットされた複数枚の原稿を順次原稿台上に給送し、読み取ることも可能である。プリンタ14は、入力された画像データに基づく画像を、記録紙(シート)上に印刷する。ネットワークI/F17は、画像処理装置100をネットワーク20に接続し、ネットワーク上の外部装置からのデータの受信、ネットワーク上の外部装置へのデータの送信を制御する。
The CPU 11 controls the overall operation of the
なお、本実施形態では、後述する処理に用いる画像データを、スキャナ15を介して入力するものを例に説明するが、例えば外部機器から送られてくる原稿の画像データを、ネットワークI/F17を介して入力しても同様に処理可能である。また、スキャナやプリンタが接続されたパーソナルコンピュータ(PC)等においても同じように処理することが可能である。この場合、本実施形態で用いるプログラムの全部または一部を、ネットワーク等を介してPCに提供したり、CD−ROM等の記憶媒体に格納してPCに提供したりすることが可能である。 In this embodiment, image data used for processing to be described later will be described as an example. However, for example, image data of a document sent from an external device is transferred to the network I / F 17. It is possible to process in the same manner even if it is input via the interface. The same processing can be performed in a personal computer (PC) or the like to which a scanner or printer is connected. In this case, all or part of the program used in this embodiment can be provided to the PC via a network or the like, or stored in a storage medium such as a CD-ROM and provided to the PC.
次に、本実施形態において用いる原稿の例について説明する。 Next, an example of a document used in this embodiment will be described.
図2(a)は、本実施形態において用いる原稿のフォームの例を示した図である。本原稿は、ユーザが何も記入していない(後述する処理指示書が付加される前の)状態の請求書である。この請求書には、相手先の会社名、相手先の担当者、件名、合計金額、品名、数量、単位、単価、金額、振込先銀行情報、小計、消費税などの税金、備考欄、発行者の印を押す領域などが設けられている。この請求書を正式に発行する時にユーザが情報を追加する欄としては、件名、品名や数量、単位、単価、金額、また作成者の印等がある。 FIG. 2A is a view showing an example of a document form used in the present embodiment. This manuscript is a bill in a state where the user has not entered anything (before a processing instruction sheet to be described later is added). This invoice includes the company name of the recipient, the person in charge of the recipient, subject, total amount, product name, quantity, unit, unit price, amount, bank information, subtotal, consumption tax, etc., remarks column, issue An area for pressing the person's mark is provided. The fields to which the user adds information when the invoice is officially issued include subject name, product name and quantity, unit, unit price, amount of money, creator's mark, and the like.
本実施形態では、この請求書の各欄のうち、ユーザによって指定されたある欄には情報が追加されているかをチェックするものとする。 In the present embodiment, it is assumed that it is checked whether information is added to a certain column designated by the user among the respective columns of the invoice.
図2(b)は、図2(a)の原稿に含まれる各項目のうち、チェックを行わせるための任意の領域をユーザが色ペンを用いて付加した例を示す図である。図2(b)に示した原稿が処理指示書となる。 FIG. 2B is a diagram showing an example in which a user adds an arbitrary area for checking among the items included in the document of FIG. 2A using a color pen. The document shown in FIG. 2B becomes a processing instruction sheet.
処理指示書は、作成した請求書をチェックするユーザが、チェック対象の請求書と同一形式の用紙に後述する処理指示情報を書き込むことで作成される。つまり、図2(a)に示した請求書に処理指示情報が書き込まれたものが、処理指示書となる。本実施形態では、処理対象とする領域を指定するために、ユーザが手書きで色ペン等で該当領域を矩形等の閉領域として囲む。 The processing instruction is created by a user who checks the created invoice writing processing instruction information to be described later on a sheet of the same format as the invoice to be checked. That is, the processing instruction sheet is the one in which the processing instruction information is written in the invoice shown in FIG. In the present embodiment, in order to designate a region to be processed, the user surrounds the corresponding region as a closed region such as a rectangle by handwriting with a color pen or the like.
ここで、請求書(原稿)に書き込む処理指示情報(付加情報)について説明する。図2(b)において、例えば、領域31は青い色のペンを用いて手書きで書き込んだ領域で、領域32および領域33は赤色のペンを用いて手書きで書き込んだ領域とする。なお、ここに示した色以外の色を使うことも可能であり、また、2色に限らず、チェック内容に応じて色の種類を減らしたり、増やしたりしてもよい。また、ここではペンを用いているが色を付けられるものであればペンに限ることはない。
Here, processing instruction information (additional information) to be written on a bill (original) will be described. In FIG. 2B, for example, an
そして、ユーザは事前に使用すべき処理指示情報の色の情報と処理内容とを、それぞれ対応付けて操作部16を用いてRAM18に登録する。即ち、青色に対しては情報の記載があることをチェックすることを、赤色に対して数値による情報の記載があることをチェックすることをそれぞれRAM18に登録する。CPU11は、ここで登録された各色の色成分(例えば、色相等)を判定し、その内容をRAM18に記憶させる。なお、色の登録は、操作部16を用いて行うのに代えて、用紙に書き込んだものをスキャナ15によって読み取らせて登録するものであってもよい。また、ユーザが登録するのに代えて、画像処理装置100に予め登録されているものとしてもよい。予め登録された内容に従う場合、ユーザは登録されている色と処理内容とに従って原稿に処理指示情報を付加する。
Then, the user registers the color information of the processing instruction information to be used in advance and the processing contents in the RAM 18 by using the
このように、使用すべき処理指示情報の色成分とそれに対応した処理内容を登録しておき、これに従った処理指示書を作成する。これを用いて、処理指示情報を抽出し、この抽出結果に応じて処理内容を認識することによって、画像処理装置100はチェック対象の原稿について、原稿の特定の領域に情報があるかどうかをチェックする。
In this way, the color components of the processing instruction information to be used and the processing contents corresponding to the color components are registered, and a processing instruction document according to the color components is created. Using this, processing instruction information is extracted, and the processing content is recognized according to the extraction result, whereby the
図2(c)は、本実施形態において用いるチェック対象の原稿の例を示した図である。チェック対象の原稿は、図2(a)、(b)と同一の形式の原稿に基づくものであることを前提とする。本実施形態では、図2(b)のように付加された処理指示情報を抽出し、抽出結果に従い、領域41に文字の記載があること、領域42に数値の記載があること、領域43の表中の各セルに数値の記載があることをもって正常であると判定する。図2(c)は、正常と判定するための条件を全て満たした例なので、当該原稿のチェック結果は正常となる。そして、1箇所でも正常と判定する条件を満たさない原稿のチェック結果はNGとなる。なお、チェックの内容や領域は、これに限られるものではなく、他のチェック内容の指示や他の領域に対しての指示も可能である。 FIG. 2C is a diagram showing an example of a document to be checked used in the present embodiment. It is assumed that the document to be checked is based on a document having the same format as that shown in FIGS. In the present embodiment, processing instruction information added as shown in FIG. 2B is extracted, and according to the extraction result, there are descriptions of characters in the region 41, numerical values in the region 42, It is determined to be normal when each cell in the table has a numerical value. FIG. 2C is an example in which all the conditions for determining normality are satisfied, so the check result of the document is normal. The check result of a document that does not satisfy the condition for determining that it is normal at one place is NG. Note that the content and area of the check are not limited to this, and other check contents and other areas can be instructed.
次に、図2(b)に示したような処理指示書に基づき、原稿の記載内容のチェックを実行させるためのスキャンチケットを作成する処理について説明する。ここで、スキャンチケットとは、図2(b)の指示内容を認識し、図2(c)等のようなチェック対象の原稿のチェック方法を画像処理装置100が認識可能な形式(例えば、QRコード)としたチケットである。スキャンチケットには、図2(b)の原稿から認識した指示内容、この指示内容を適用する領域の位置情報などが含まれる。チェック対象の原稿のチェックを行う際は、スキャナ15によりスキャンチケットを読み取って処理内容をCPU11により認識させたうえで、チェック対象の原稿をチェックさせる。
Next, a process for creating a scan ticket for executing a check of the description content of a document based on a processing instruction sheet as shown in FIG. Here, the scan ticket recognizes the instruction content in FIG. 2B, and has a format (for example, QR) that allows the
本実施例における前記スキャンチケット作成処理を詳細に説明する。図3は、本実施例におけるスキャンチケット作成処理のフローチャートである。また、図4(a)は、処理指示領域31を拡大したもの、図4(b)は処理領域33を拡大したもの、図11は、処理指示情報をエンコードしたQRコードの一例である。
The scan ticket creation process in the present embodiment will be described in detail. FIG. 3 is a flowchart of the scan ticket creation process in the present embodiment. 4A is an enlarged view of the
図3は、本実施形態におけるスキャンチケットを作成する際の処理の流れを示すフローチャートである。ROM19に格納された図3のフローチャートの各処理を実行するためのプログラムをRAM18にロードしてCPU11が実行することで、図3のフローチャートが実行される。 FIG. 3 is a flowchart showing the flow of processing when creating a scan ticket in this embodiment. A program for executing each process of the flowchart of FIG. 3 stored in the ROM 19 is loaded into the RAM 18 and executed by the CPU 11, whereby the flowchart of FIG. 3 is executed.
ユーザにより操作部16を介してスキャンチケット作成の指示がなされると本フローが開始される。本フローが開始されると、CPU11は操作部16に、RAM18に登録されている処理指示情報の指示色(以下、単に指示色という)と処理内容の組合せを表示させる(ステップ501)。例えば、「赤色で囲まれた領域内に数値があればOKとします」、「青色で囲まれた領域内に記載があればOKとします」などを表示する。さらに、CPU11は、操作部16に、ステップ501で表示した指示色と処理内容で良いかどうかをユーザに問合せる表示を行わせる(ステップ502)。
When the user gives an instruction to create a scan ticket via the
ステップ502の問合せに対し、ユーザから操作部16を介して否定する旨の指示がなされたと判定すると、CPU11は、指示色と処理内容の組合せの変更を行う旨の表示を操作部16に行わせる(ステップ505)。ここでは、いずれの色を変更するかを問合せる表示を行い、指示された色に代えて新たな色を提示するものでもいいし、ユーザが操作部16によって任意の色を指定するようにしてもよい。また、新たな色とするのではなく、単に色と処理内容の組合せを変更するだけでもよい。このときにCPU11は、同じ色で異なる処理内容の指示を行うことはできないので、1つの色に対して1つの処理内容となるように制御を行う。ステップ505で指示色あるいは処理内容、また、指示色と処理内容の両方の変更処理が行われると、CPU11は操作部16に対してステップ501の表示を行わせる。ここでは、ステップ505で変更処理を行ったことをユーザが確認できるように表示するものである。ステップ502の問合せに対し、ユーザから操作部16を介して肯定する旨の指示がなされたと判定すると、CPU11は、使用すべき処理指示情報の指示色と、それに対応する処理内容とを決定し、RAM18に登録する。
If it is determined that the user has instructed the user to negate the inquiry in step 502 via the
なお、ステップ502の判定は、ユーザに目視で原稿の内容(原稿に含まれている色)を確認させ、指示色の色成分と原稿に含まれる色成分とが類似していると判断される場合に、互いに異なるものとし、処理指示情報の抽出エラーを防止するものである。 In step 502, the user visually confirms the contents of the document (colors included in the document), and it is determined that the color component of the instruction color is similar to the color component included in the document. In this case, they are different from each other, and an error in extracting processing instruction information is prevented.
また、ステップ502の確認の結果、原稿に含まれる色成分と指示色の色成分とが類似していると判定された場合、後述のように、原稿のモノクロコピーを行うようにしてもよい。この場合、CPU11は、原稿をセットするよう促す表示を操作部16に行わせ、これに対しユーザにより原稿がセットされたと判断するとモノクロコピーを実行する。これによっても、有彩色の色ペンで処理指示情報を付加した場合の処理指示情報の抽出エラーを防止することができる。そして、このようにユーザへの確認結果に応じて判定することにより、原稿をスキャナで読み取らせる回数を減らすことができる。
If it is determined in step 502 that the color component included in the document and the color component of the instruction color are similar, a monochrome copy of the document may be performed as described later. In this case, the CPU 11 causes the
CPU11は、ステップ502において、指示色と処理内容がOKであったと判断したときには、ここで処理指示情報に用いる色成分を特定してRAM18に記憶する。続いて、CPU11は、ユーザの手許にはチェック対象原稿(図2(c))のみ存在しているかを問合せる表示を操作部16に行わせる(ステップ503)。これは、処理指示書を作るときにテンプレートとなる原稿(図2(a)または(b))が存在しているかを確認するものである。つまり、チェック対象原稿しかユーザの手許にないときに後述のようにチェック対象原稿から処理指示情報を書き込むための原稿を作成することができるようにするものである。ここでいうテンプレートとは正式なチェック対象原稿ではなく、ユーザが処理指示情報を書き加えることができるものを指す。CPU11は、ステップ503で操作部16を介して、チェック対象原稿のみ存在している(テンプレートとなる原稿が存在しない)との応答を受けるとステップ504でスキャナ15にチェック対象原稿をセットすることを促す表示を操作部16に行わせる。ここでは、例えば「チェック対象原稿の1枚をスキャナにセットしてください。セットしたらOKボタンを押してください」という案内表示と、原稿がセットされたことを認識するためにOKボタンの表示を行う。ここでは、OKボタンが押されたことで原稿が置かれたことをCPU11が認識するものとするが、原稿台の下部に設けたフォトインタラプタや、原稿給送装置の原稿センサ等を用いてスキャナ15に原稿がセットされたことを自動で認識するようにしてもよい。
When the CPU 11 determines in step 502 that the instruction color and the processing content are OK, the CPU 11 specifies the color component used for the processing instruction information and stores it in the RAM 18. Subsequently, the CPU 11 causes the
CPU11は、ステップ504でOKボタンが押されと判断すると、ステップ506で、スキャナ15によってチェック対象の原稿上の画像を読み取らせる。引き続き、CPU11は、スキャナ15から入力された画像データを、モノクロ画像データに変換し、それをプリンタ14に出力して記録紙へのモノクロコピー出力を行わせる。なお、ステップ506では、原稿をモノクロ化してプリンタ14で印刷するものとしたがこれに限ることはない。読み取った原稿の画像の色を、指示色が含まれない他の色に変換してプリント14することも可能である。例えば、読み取った原稿中の赤い文字を青い文字に変えて出力するなど色を変換して出力する。このほか、RAM18に予め色変換をすべき色を登録しておき、その登録色と同じ色が読み取った原稿にあった場合に変換するようにしてもよい。
If the CPU 11 determines in step 504 that the OK button has been pressed, the
ステップ507では、CPU11は、ステップ506でプリンタ14によって出力された記録紙に、図2(b)のような処理指示情報を書き込むことを促す表示を操作部16に行わせる。ステップ503で、テンプレート原稿が存在する旨の応答があると、ステップ508で操作部16にテンプレートに処理指示情報が既に記載されている(図2(b))かどうかを問合せる表示を行う。この表示に対し、テンプレートに指示情報が記載されていないことを示すユーザからの応答を、操作部16を介して受けるとCPU11はステップ509でスキャナ15にテンプレートをセットすることを促す表示を操作部16に行わせる。ここでは、例えば「テンプレートをスキャナにセットしてください。セットしたらOKボタンを押してください」という案内表示と、OKボタンの表示を行う。ここでは、OKボタンが押されたことで原稿が置かれたことをCPU11が認識するものとするが、原稿台の下部に設けたフォトインタラプタや、原稿給送装置の原稿センサ等を用いてスキャナ15に原稿が置かれたことを自動で認識するようにしてもよい。
In step 507, the CPU 11 causes the
ステップ509でOKボタンが押されると、ステップ510に進み、CPU11は、テンプレートの原稿上の画像をスキャナ15で読み取らせる。これによって得た画像データに対してステップ511において、指示色と同じ色成分の色が含まれているか判定するための解析・認識処理を行う。色成分の解析・認識処理は、例えば赤色が含まれるかを解析・認識する場合、赤の色相抽出を行って解析・認識する。この色成分の解析・認識は公知の種々の方法を採用することが可能である。また、色相以外のパラメータを用いてもよいし、他のパラメータを組合せてもよい。
When the OK button is pressed in step 509, the process proceeds to step 510, where the CPU 11 causes the
CPU11は、ステップ512にて、ステップ511で解析・認識した色にRAM18に登録された指示色と同じものが含まれているか判断をする。指示色とステップ511で解析・認識した色が同じであるかの判断は、完全一致のみでなく、ある範囲をもたせて同じと判断することも可能である。例えば、RGB値が256段階で表されている場合、指示色のRGB値と比較し、プラスマイナス20以内であれば同じと判断するようにしてもよい。なお、ここに示した以外の方法で同じ色と判断する方法を適用することも可能である。 In step 512, the CPU 11 determines whether the color analyzed and recognized in step 511 includes the same color as the instruction color registered in the RAM 18. The determination as to whether the indicated color is the same as the color analyzed / recognized in step 511 can be determined not only as a perfect match but also as a certain range. For example, when the RGB value is expressed in 256 levels, it may be determined that the RGB value is compared with the RGB value of the indication color and within the range of plus or minus 20, the same. It is also possible to apply a method for determining the same color by a method other than that shown here.
ステップ512でRAM18に登録された指示色と同じ色がテンプレートの画像に含まれていると判断されると、CPU11は、スキャナ15にテンプレートをセットすることを促す表示を操作部16に行わせる。ここでは、例えば「テンプレートをスキャナにセットしてください。セットしたらOKボタンを押してください」という案内表示と、OKボタンの表示を行う。ここでは、CPU11は、OKボタンが押されたことで原稿が置かれたことを認識するものとするが、原稿台の下部に設けたフォトインタラプタや、原稿給送装置の原稿センサ等を用いてスキャナ15に原稿が置かれたことを自動で認識するようにしてもよい。
When it is determined in step 512 that the same color as the instruction color registered in the RAM 18 is included in the template image, the CPU 11 causes the
ステップ513でOKボタンが押されると、ステップ514に進み、CPU11は、スキャナ15によってチェック対象の原稿上の画像を読み取らせる。CPU11は、スキャナ15から入力された画像データを、モノクロ画像データに変換し、それをプリンタ14に出力して記録紙へのモノクロコピー出力を行わせる。なお、ステップS514では、原稿をモノクロ化してプリンタ14で印刷するものとしたがこれに限ることはない。これに代わる処理は上述(ステップ506)のように種々の方法を採用することができる。
When the OK button is pressed in step 513, the process proceeds to step 514, and the CPU 11 causes the
ステップ515では、CPU11は、ステップ514でプリンタ14によって出力された記録紙に、図2(b)のような処理指示情報を書き込むことを促す表示を操作部16に行わせる。
In step 515, the CPU 11 causes the
ステップ512でRAM18に登録されている指示色と同じ色がテンプレートの画像に含まれていないと判断すると、ステップ516で、CPU11は、テンプレート原稿に、図2(b)のような処理指示情報を書き込むことを促す表示を操作部16に行わせる。
If it is determined in step 512 that the same color as the instruction color registered in the RAM 18 is not included in the template image, in step 516, the CPU 11 adds processing instruction information as shown in FIG. The
ステップ508では、CPU11は、操作部16にテンプレートには既に処理指示情報が記載済みかどうかを確認する表示を行わせる。これに対し、テンプレートに指示情報が記載済であることを示す応答を、操作部16を介して受けたと判断されると、ステップ517に進み、指示記載済テンプレートの原稿の画像をスキャナ15(読取手段)で読み取らせる。ここでは、上述のモノクロコピー出力と同様の手順で原稿を読み取らせる。即ち、操作部16に指示情報記載済みの原稿のセットを促す表示を操作部16に行い、これに対し、ユーザが原稿をセットした後にOKボタンが押されるとスキャナ15による原稿の読み取りを行わせる。ただし、ここではスキャナ15で読み取って得た画像データのモノクロ画像データへの変換は行わない。ここで得た画像データは、RAM18に記憶しておく。
In step 508, the CPU 11 causes the
次に、ステップ518で、スキャナ15から入力された画像データから処理指示情報の解析・認識処理を行う。すなわち、ステップ518では、スキャナ15から入力された画像データにおいて、手書きで囲まれた領域を認識する領域認識を行う。ここでは、まず、ステップ502で決定された指示色が原稿のどこにあるかを解析して、その部分の色を認識することで、色毎に対象領域の位置を特定する。ここで特定される位置は、原稿上のどの位置にどの大きさの処理対象の領域が存在するかを判別可能なものである。例えば、位置は座標によって特定する。
Next, in step 518, processing instruction information is analyzed and recognized from the image data input from the
図4(a)に、図2(b)の処理指示領域31である、チェック者が青い色のペンで書き込んだ領域を示す。処理指示領域31は、ステップ518で閉領域として認識され、左上端の開始座標401と、幅402、高さ403がチェック領域情報として抽出される。X−Y座標の位置が(X,Y)と表されるとき、開始座標401は(840,2010)という座標に、幅402は660、高さ403は100という値になる。
FIG. 4A shows an area written by the checker with a blue pen, which is the
また、図4(b)に、図2(b)の処理指示領域33である、チェック者が赤い色のペンで書いた領域を示す。処理指示領域33は、ステップ518で閉領域として認識され、左上端の開始座標411と、幅412、高さ413がチェック領域情報として抽出される。X−Y座標の位置が(X,Y)と表されるとき、開始座標411は(1585,845)という座標に、幅412は260、高さ413は120という値になる。
FIG. 4B shows an area written by the checker with a red pen, which is the
また同様に、チェック者が赤色のペンで書き込んだ処理指示領域32は、開始点(840,1910)、幅は560、高さは100となる。さらに、これら処理指示領域31、32、33からは、指示色の判定が行われ、処理コードが抽出される。処理指示領域31は青い色のペンで書き込まれた領域であるから、処理コードは1となる。同様にして、処理指示領域32は赤色のペンで書き込まれた領域であるから処理コードは0、処理指示領域33は青色のペンで書き込まれた領域であるから処理コードは1となる。
Similarly, the
そして、ここで特定された位置と、ステップ502で決定した処理内容とを対応付けてRAM18に記憶する。 The position specified here is stored in the RAM 18 in association with the processing content determined in step 502.
続いて、ステップ519で、CPU11は、ステップ517においてスキャナ15から入力された画像データに対して、ステップ518で解析・認識した指示処理情報の位置に対して、指示色と同じ色成分の減色処理を行う。図5は、ステップ519で、指示色の減色処理を行った後の画像データである。ステップ519での減色処理により、ユーザが書き込んだ領域を削除した画像データ、つまり原稿のフォームと同様の画像データを作成する。ここで得た画像データは、RAM18に記憶しておく。なお、原稿のフォームと同様の画像データを入手する方法は、これに限られるものではなく、例えば原稿のフォームの再読み取りでも可能である。
Subsequently, in step 519, the CPU 11 performs color reduction processing of the same color component as the instruction color on the position of the instruction processing information analyzed and recognized in step 518 for the image data input from the
ステップ520では、ステップ519で得た画像データに対して表解析を行う。ここでは、まず、ステップ519で得た画像データに対して、全ての罫線を抽出し、罫線の集合で構成されたオブジェクトを表として認識する。図6に、ステップ520で表解析を行った後の画像データを示す。ここでは、表601、表602、表603の3つの表が存在する。また、表の位置および表中の各セルの位置を特定する。例えば、位置は座標によって特定する。図7に、表602の位置情報を示す。表602は、左上端の開始座標701と、幅702、高さ703が表の領域として抽出される。X−Y座標の位置が(X,Y)と表されるとき、開始座標701は(230,1520)という座標に、幅702は1620、高さ703は970という値になる。また、開始座標701、幅702、高さ703から、表右上端704の座標は(1850,1520)、表右下端705の座標は(1850,550)、表左下端706の座標は(230,550)と算出できる。また、表602の各セルに対しても、左上端の開始座標、幅、高さが抽出される。例えば、表602内のセル710は、左上端の開始座標711は(1580,850)、幅712は265、高さ713は60という値になり、セル720は、左上端の開始座標721は(1580,790)、幅722は265、高さ723は60という値になる。また、セル730は、左上端の開始座標731は(1580,730)、幅732は265、高さ733は60という値になる。
In step 520, table analysis is performed on the image data obtained in step 519. Here, first, all ruled lines are extracted from the image data obtained in step 519, and an object constituted by a set of ruled lines is recognized as a table. FIG. 6 shows the image data after performing the table analysis in step 520. Here, there are three tables, a table 601, a table 602, and a table 603. Further, the position of the table and the position of each cell in the table are specified. For example, the position is specified by coordinates. FIG. 7 shows the position information of the table 602. In the table 602, a start coordinate 701 at the upper left corner, a width 702, and a
そして、ステップ521で、CPU11は、ステップ520で解析した表解析の結果を判定し、画像データに表が存在しない場合にはステップ528に進み、表が存在する場合にはステップ522へ進む。 In step 521, the CPU 11 determines the result of the table analysis analyzed in step 520. If the table does not exist in the image data, the process proceeds to step 528. If the table exists, the process proceeds to step 522.
ステップ522では、処理対象の領域が表領域内かどうかの判定処理を行う。ここでは、ステップ518で得られた処理指示領域の座標とステップ520で得られた表の座標から処理指示領域が表の領域内に存在するかの判別を行う。図8に、スキャナ15で読み取った画像データ内の表602と処理指示領域33を示す。処理指示領域33の左上端の開始座標411は(1585,845)であり、幅412は260、高さ413は160である。よって、処理指示領域33の右上端座標、右下端座標、左下端座標はそれぞれ(1845,845)、(1845,725)、(1585,725)と算出できる。これらの座標は表602の左上端座標701、右上端座標704、右下端座標705、左下端座標706で囲まれる領域内に全て含まれることから、処理指示領域33は表602の領域内に存在することが判別できる。ステップ522で、表領域内に処理指示領域が存在すると判定された場合はステップ523に進み、処理指示領域が表領域内に存在しないと判定された場合は、ステップ528に進む。
In step 522, it is determined whether or not the processing target area is in the table area. Here, it is determined from the coordinates of the processing instruction area obtained in step 518 and the coordinates of the table obtained in step 520 whether the processing instruction area exists in the area of the table. FIG. 8 shows a table 602 and a
ステップ523で、ステップ522で表領域内に存在すると判定された処理指示領域に対して、指示された領域内を処理指示領域とする矩形指定モードか、処理指示領域に含まれる各セルを処理指示領域とするセル指定モードかを確認する表示を操作部16に行う。図9に、表領域上に存在する処理指示領域に対する領域指定モードの選択画面を、操作部16に表示した例を示す。CPU11は、領域指定モード選択画面でユーザにより選択されたモードが矩形指定モードであった場合はステップ528へ進むよう処理し、セル指定モードであった場合はステップ524へ進むよう処理する。
In step 523, for the processing instruction area determined to be present in the table area in step 522, the processing is performed in the rectangular designation mode in which the designated area is the processing instruction area, or each cell included in the processing instruction area is instructed to be processed. A display for confirming the cell designation mode as the area is displayed on the
ステップ524では、ユーザ指定領域の一部もしくは全部を含むセルに対して、ユーザ指定領域とするかどうかについて判定する。ステップ524では、表領域のセル内にユーザ指定領域が含まれるか判定する。ここでは、セルの中心点がユーザ指定領域に含まれるかどうかでユーザ指定領域とするかの判別を行うものとする。図10は、処理領域33を含むセル710、セル720、およびセル730を拡大したものである。図10の点101、点102、点103はそれぞれセル710、セル720、セル730の中心点である。CPU11は、まずセル710の中心である点101が処理領域33に含まれるかどうか判定し、セルの中心点が処理領域に含まれる場合にはステップ525へ進み、セルの中心点が処理領域33に含まれない場合にはステップ526へ進む。
In step 524, it is determined whether or not a cell including a part or all of the user specified area is set as the user specified area. In step 524, it is determined whether the user specified area is included in the table area cell. Here, it is assumed that whether or not the user specified area is used is determined based on whether or not the center point of the cell is included in the user specified area. FIG. 10 is an enlarged view of the
ステップ525では、CPU11はセル710をユーザ指定の処理領域として認識する。ステップ526では、セルをユーザ非指定の領域として認識する。ステップ527では、CPU11は処理領域33を含む全てのセルに対してステップ524の処理が行われたかどうが判別し、全てのセルの処理が終了した場合にはステップ528へ進み、未処理のセルが存在する場合にはステップ524へ進む。
In step 525, the CPU 11 recognizes the
ここでは、セル720、セル730の処理が終了していないため、CPU11はステップ524に進みセル720、セル730に対してセル710と同様の処理を行う。セル720の点102は処理領域33に含まれ、セル730の点103は処理領域33に含まれないため、CPU11はセル710とセル720を処理対象セルとして認識する。
Here, since the processing of the
ここでは、セルの中心点が処理領域に含まれるかどうかでセルに対して指定処理を適用するか否かを判断したが、例えばセルの枠線と処理領域の枠線との距離で判断する等、この方法に限ることはない。 Here, whether or not the specified process is applied to the cell is determined based on whether or not the center point of the cell is included in the processing area. For example, the determination is made based on the distance between the cell border and the processing area border. It is not limited to this method.
このように、本実施例では、ユーザが複数のセルにまたがる処理領域33を選択することで、セル710とセル720を選択することができる。従来技術であれば、セル710とセル720を選択するためには、それぞれのセルを処理領域として囲む必要があった。しかし、本実施例では、セル指定モードを選択した場合、一つの処理領域の指定により、複数のセルを選択することができ、ユーザの選択の負荷が軽減される。
As described above, in this embodiment, the user can select the
続いて、ステップ528で、CPU11は、ステップ518で解析・認識した結果とステップ519からステップ527で認識した処理対象領域を操作部16に表示させる。例えば、特定した処理指示情報に対応する領域の座標やその領域に対する処理内容を表示する。また、読み取った原稿のサムネイル画像を表示し、その画像と対応させてどの位置に処理指示情報があり、その処理内容がどういったものかを識別可能に表示するようにしてもよい。そしてステップ529で、CPU11は、ステップ528で表示した内容で正しいかどうかをユーザに確認する表示を操作部16に行わせる。この確認に対し、ユーザから否定する応答を、操作部16を介して受けると、ステップ534に進み、CPU11は、ステップ517でスキャナ15により読み取ったテンプレート画像をプリンタ14でモノクロ出力するか確認する表示を操作部16に行わせる。
Subsequently, in step 528, the CPU 11 displays the result of analysis / recognition in step 518 and the processing target area recognized in steps 519 to 527 on the
そして、これに肯定する応答を、操作部16を介して受け取ると、ステップ535に進み、ステップ517でスキャナ15により読み取った原稿の画像をモノクロ画像データに変換し、プリンタ14でモノクロコピー出力を行わせる。
If an affirmative response is received via the
即ち、正しく処理指示情報が抽出できなかった場合に、処理指示情報が付加された処理指示書をモノクロコピーする。これを用いて再び処理指示情報を付加させる。なお、ステップ535では、原稿をモノクロ化してプリンタ14で印刷するものとしたがこれに限ることはない。これに代わる処理は上述(ステップ506)のように種々の方法を採用することができる。 That is, when the processing instruction information cannot be correctly extracted, the processing instruction document with the processing instruction information added is monochrome copied. Using this, processing instruction information is added again. In step 535, the document is converted to monochrome and printed by the printer 14, but the present invention is not limited to this. As an alternative process, various methods can be adopted as described above (step 506).
ステップ536では、CPU11は、ステップ535でプリンタ14によって出力された記録紙に、処理指示情報を書き込むことを促す表示を操作部16に行わせる。
In step 536, the CPU 11 causes the
ステップ537では、ステップ534でユーザからモノクロコピー出力を行わないことを示す指示を、操作部16を介して受けると、CPU11は、処理指示書を新たに作成するかを確認する表示を操作部16に行わせる。この確認に対し、CPU11は、新たに処理指示書を作成することを示す指示を、操作部16を介して受けると、ステップ538に進み、CPU11は、新たに作成した処理指示書をスキャナにセットするように促す表示を操作部16に行わせる。一方、ステップ537の確認に対し、CPU11は、新たに処理指示書を作成しないことを示す指示を、操作部16を介して受けると本処理を終了させる。
In step 537, when an instruction indicating that monochrome copy output is not performed is received from the user in step 534 via the
ステップ536、ステップ538の表示に引き続き、ユーザが原稿をセットし、操作部16を介してOKボタンを押すなど、読み取りの指示が行われると、先に説明したステップ517の処理を再び実行する。
Subsequent to the display of step 536 and step 538, when a reading instruction such as the user setting a document and pressing the OK button via the
そして、ステップ529で解析結果が正しかったことを示す応答を、操作部16を介して受け取ると、当該解析内容を処理指示情報の抽出結果としてRAM18に記憶する。続いて、ステップ530に進み、CPU11は、スキャンチケットを作成するか否か問合せる表示を、操作部16に行わせる。この表示に対し、肯定する応答を、操作部16を介して受けると、ステップ531に進み、CPU11は解析内容のコード化を行う。解析内容のコード化とは、ステップ528で表示した解析結果を、例えば2次元コード(例えばQRコード等)を使ってコード化することを指す。コード化される内容は、処理指示された領域とその領域に対する処理内容である。
When a response indicating that the analysis result is correct in step 529 is received via the
例えば、図2(c)の処理指示書の場合、処理指示領域31〜33の処理指示情報を、開始点のX座標、Y座標、幅、高さ、処理コードの順にカンマ区切りで並べた文字列は次のようになり、その文字列をQRコードにエンコードしたものが図11である。
「840,2010,660,100,1,840,1910,560,100,0,1580,850,265,60,1,1580,790,265,60,1」
また、ここでは2次元コードを例に説明するがこれ以外の方法でコード化したものとしてもよく、画像処理装置100が解析・認識可能なものであればこれに限ることはない。ステップ532では、CPU11はステップ531で作成したコード化したものを画像としてプリンタ14で記録紙に出力させ印刷する。
For example, in the case of the processing instruction sheet shown in FIG. 2C, characters in which the processing instruction information in the
"840, 2010, 660, 100, 1, 840, 1910, 560, 100, 0, 1580, 850, 265, 60, 1, 1580, 790, 265, 60, 1"
Although a two-dimensional code is described here as an example, it may be coded by other methods, and is not limited to this as long as the
ここで印刷されたスキャンチケットを用いて、チェック対象の原稿のチェックを実行することが可能である。ただし、ステップ529で解析結果が正しいと判断された場合は、ステップ517でスキャナ15により読み取らせた処理指示書は正しく認識されたことを示すので、ステップ530〜532の処理を行わず、この処理指示書をスキャンチケットとしてもよい。この場合、チェック時に処理指示書から処理内容等を認識するものとする。
It is possible to check the document to be checked using the printed scan ticket. However, if it is determined in step 529 that the analysis result is correct, this indicates that the processing instruction read by the
また、ステップ530の問合せに対し、否定する応答を、操作部16を介して受けると、CPU11は、ステップ529で登録した解析内容を特定するためのIDを操作部16に表示させる。これはチェック原稿のチェックを行わせる際に、この解析内容を特定し、RAM18から読み出して利用するためである。このIDはCPU11が提示する以外、ユーザが所望のIDを操作部16から指定するものであってもよい。ここで決定したIDと解析内容とは対応付けられてRAM18に記憶される。その後、ステップ533に進む。
In addition, when a negative response is received via the
ステップ533では、以上のように認識した処理指示情報とそれに対応する処理内容に従ってチェック対象の原稿のチェックを行う。 In step 533, the document to be checked is checked according to the processing instruction information recognized as described above and the corresponding processing content.
以上の処理により、表中の隣接した複数のセルに対して一括して同じ処理内容を適用することが可能となる。なお、以上説明したフローチャートに示した処理は全てを実行する必要はなく、一部の処理のみ実行するようにしてもよい。 With the above processing, it is possible to apply the same processing content to a plurality of adjacent cells in the table at once. Note that it is not necessary to execute all the processes shown in the flowchart described above, and only a part of the processes may be executed.
次に、以上の様に作成したスキャンチケットを用いて、抽出した処理指示情報に応じた原稿のチェックを行う手順(ステップ533)について図12にて説明する。 Next, a procedure (step 533) for checking a document according to the extracted processing instruction information using the scan ticket created as described above will be described with reference to FIG.
図12は、本実施例における画像処理装置の処理全体の流れを示したフローチャートであり、以下、本実施例におけるチェック処理の動作についてフローチャートを用いて説明する。ROM19に格納された図12のフローチャートの各処理を実行するためのプログラムをRAM18にロードしてCPU11が実行することで、図12のフローチャートが実行される。 FIG. 12 is a flowchart showing the overall processing flow of the image processing apparatus according to the present embodiment. Hereinafter, the check processing operation according to the present embodiment will be described with reference to the flowchart. A program for executing each process of the flowchart of FIG. 12 stored in the ROM 19 is loaded into the RAM 18 and executed by the CPU 11, whereby the flowchart of FIG. 12 is executed.
まず、ステップ2501において、CPU11は、操作部16に後述するスキャンチケットを作成するか否かを表示する。
First, in step 2501, the CPU 11 displays on the
次に、ステップ2502において、操作部16からスキャンチケットを作成する旨の指示を受け取ったCPU11は、ステップ2503に進む。また、チェック者が既にスキャンチケットを所持しているなどの理由から、CPU11が、操作部16からスキャンチケットを作成しない旨の指示を受け取った場合には、スキャンチケット作成処理を行わずにステップ2504に進む。
Next, in step 2502, the CPU 11 that has received an instruction to create a scan ticket from the
ステップ2503では、CPU11が、前述の処理指示書からスキャンチケットを作成するスキャンチケット作成処理を行い、ステップ2504に進む。なお、スキャンチケットおよびスキャンチケット作成処理の詳細については上述した通りである。 In step 2503, the CPU 11 performs a scan ticket creation process for creating a scan ticket from the processing instruction sheet described above, and proceeds to step 2504. The details of the scan ticket and the scan ticket creation process are as described above.
次に、ステップ2504において、CPU11は、前記スキャンチケットを一枚目に、二枚目以降にチェック対象の原稿をスキャンすることを、操作部16へ表示させ、ユーザに原稿のセットを促す。
Next, in step 2504, the CPU 11 displays on the
次に、ステップ2505において、CPU11は、原稿がセットされたことを不図示のセンサにより検知するとスキャナ15にスキャンチケットおよびスキャン対象の原稿を読み込み、HDD13に画像データを格納するよう指示を送る。なお、本実施例では、説明を簡単にするためにチェック対象の原稿が図2(c)のみの場合を説明するが、チェック対象の原稿が複数あっても良い。
In step 2505, when the CPU 11 detects that a document is set by a sensor (not shown), the CPU 11 sends a scan ticket and a document to be scanned to the
次に、ステップ2506において、CPU11は、HDD13に格納されたスキャンチケットの画像データを読み出し、スキャンチケットの解析を行う。スキャンチケットには複数の処理指示情報がQRコードにエンコードされて印字されている。なお、各処理指示情報は、どの領域をチェックするかというチェック領域情報と、そのチェック領域をどのような処理方法でチェックするかを示す処理コードで構成されている。CPU11は、スキャンチケットの画像データに含まれるQRコードの位置を検出し、QRコードをデコードして、前記複数の処理指示情報を取得する。本実施例における前記処理指示情報のチェック領域情報は、画像データ上の座標を表し、処理領域の開始点のX−Y座標と、開始点からの幅と高さで構成されている。また、前記処理コードとは、チェック領域をどのような処理方法でチェックするかを表しており、前記チェック領域に対する処理方法が対応付けられた番号である。 Next, in step 2506, the CPU 11 reads the scan ticket image data stored in the HDD 13 and analyzes the scan ticket. A plurality of processing instruction information is encoded in a QR code and printed on the scan ticket. Each processing instruction information includes check area information indicating which area is to be checked, and a processing code indicating which processing method is used to check the check area. The CPU 11 detects the position of the QR code included in the image data of the scan ticket, decodes the QR code, and acquires the plurality of processing instruction information. The check area information of the processing instruction information in this embodiment represents coordinates on the image data, and is composed of the XY coordinates of the start point of the process area, and the width and height from the start point. The processing code represents a processing method for checking the check area, and is a number associated with the processing method for the check area.
本実施例においては、チェック領域に数値の記載があること(処理コード:0)、また文字の記載があること(処理コード:1)をチェックする二種類の処理方法が処理コードに対応づけられている。なお、ステップ2505において、複数のチェック対象の原稿が読み取られた場合は、一枚目に置かれたスキャンチケットに記載の処理指示情報が、二枚目以降のチェック対象の原稿全てに対して適用される。前記処理指示情報は、本チェック処理が終えるまで有効となる。 In the present embodiment, two types of processing methods for checking that a numerical value is described in the check area (processing code: 0) and that a character is described (processing code: 1) are associated with the processing code. ing. If a plurality of documents to be checked are read in step 2505, the processing instruction information described in the scan ticket placed on the first sheet is applied to all the documents to be checked after the second sheet. Is done. The processing instruction information is valid until the check process is completed.
次に、ステップ2507において、CPU11は、HDD13に格納されたチェック対象の画像データを順次読み出す。
Next, in
次に、ステップ2508において、CPU11は、前記複数の処理指示情報から一つを選択する。そして、ステップ2507で読み出した画像データから、前記処理指示情報のチェック領域情報が示す開始点と幅、高さを用いて、チェック領域を順次取得する。
Next, in
次に、ステップ2509において、CPU11は、ステップ2508で用いた処理指示情報から、チェック領域に対する処理コードを確認する。
Next, in step 2509, the CPU 11 confirms the processing code for the check area from the processing instruction information used in
ステップ2510で、CPU11は、取得したチェック領域内に記載があるかをチェックする処理を行う。本実施例では、ステップ2508で取得したチェック領域内の画像データをHLS色空間へと変換し、輝度Lが所定の明るさよりも暗い画素のチェック領域内に占める割合によって、チェック領域に記載があるか否かを判断することができる。本実施例において、画像データから取得したチェック領域の画像データはRGB色空間である。よって、輝度Lの値が50%よりも小さい画素のチェック領域に占める割合を求め、その画素が占める割合が1割以上となったとき、チェック領域に記載があったと判断する。なお、前記判定の方法に限るものではく、記載があるかどうかが判定できれば良いので、例えば、主走査方向に前記暗い画素が連続する長さなどで、記載があるかどかを判定しても良い。また、ここで用いたRGB色空間からHLS色空間への変換は公知の技術であるため、ここでの詳細な説明は省く。
In
ステップ2511で、CPU11は、ステップ2510で求めた前記割合が一定値よりも小さいか否かを判定し、前記条件に一致する場合はステップ2512へと進む。また、前記条件に一致しない場合はステップ2516へと進む。
In step 2511, the CPU 11 determines whether or not the ratio obtained in
次に、ステップ2512において、ステップ2509で確認した処理コードが0であった場合はステップ2515に、処理コードが1であった場合にはステップ2513に進む。
In
ステップ2513で、CPU11は、取得したチェック領域内に数値があるかをチェックする処理を行う。本実施例では、ステップ2508で取得したチェック領域内にOCR処理を行い、領域内に記載されている情報が数値のみであるかどうかを確認する。また、ここで用いたOCR処理は公知の技術であるため、ここでの詳細な説明は省く。
In step 2513, the CPU 11 performs processing to check whether there is a numerical value in the acquired check area. In this embodiment, OCR processing is performed in the check area acquired in
ステップ2514で、CPU11は、ステップ2513での記載内容の判定の結果、数値のみが記載されていると判定された場合はステップ2515へ進む。また、記載されている情報が数値のみでないと判定された場合はステップ2516へ進む。 If it is determined in step 2514 that only the numerical value is described as a result of the determination of the description content in step 2513, the CPU 11 proceeds to step 2515. If it is determined that the described information is not only numeric values, the process proceeds to step 2516.
次に、ステップ2515において、CPU11は、ステップ2508で取得したチェック領域のチェック結果がOKであったことを、ワークメモリであるRAM18に記憶する。
Next, in step 2515, the CPU 11 stores in the RAM 18 which is a work memory that the check result of the check area acquired in
また、ステップ2516において、CPU11は、ステップ2508で取得したチェック領域のチェック結果がNGであったことをRAM18に記憶する。
In step 2516, the CPU 11 stores in the RAM 18 that the check result of the check area acquired in
次に、ステップ2517において、CPU11は、ステップ2507で読み出した画像データに対して、複数ある処理指示情報の全てをチェックし終えたかを判定し、終えた場合にはステップ2518に進む。また、終えていない場合にはステップ2508に進む。
Next, in step 2517, the CPU 11 determines whether or not all of a plurality of processing instruction information has been checked for the image data read in
次に、ステップ2518において、CPU11は、ステップ2505で読み込んだチェック対象の原稿の画像データ全てに処理を終えたか否かを判定し、終えた場合にはステップ2518へと進む。また、終えていない場合にはステップ2507に進む。
Next, in
次に、ステップ2519において、CPU11は、全てのチェック対象の原稿の画像データに対して全てのチェック領域への処理が終了すると、それらのチェック結果と、それを表示する旨を操作部16に送信し、チェック処理を終了する。ここで操作部16に表示するチェック結果は、ステップ2505で読み取ったチェック対象の原稿で、一つでもチェック領域がNGであった場合に、本実施例におけるチェック処理がNGであったことを通知する。なお、チェック結果の表示内容や方法はこれに限るものではなく、例えば、どの原稿のどのチェック領域がNGであったかなど、より詳細な情報を表示しても良い。また、チェック結果から画像データを生成し、プリンタエンジン14に送信することで、レポートなどを出力しても良いことは言うまでもない。
Next, in
次に、サムネイル画像生成処理を詳細に説明する。 Next, the thumbnail image generation process will be described in detail.
図13は、図3のステップ528による本実施例におけるサムネイル画像生成処理のフローチャートであり、図14は、本実施例におけるサムネイル画像の一例である。 FIG. 13 is a flowchart of the thumbnail image generation processing in the present embodiment in step 528 of FIG. 3, and FIG. 14 is an example of the thumbnail image in the present embodiment.
まず、ステップ1301において、CPU11は、処理指示書の画像データから、チェック者によって色ペンで描かれた処理指示の矩形を順次削除する。具体的には、ステップ518で取得した処理指示情報を用いて、前記描かれた処理指示の矩形に対応する画像データ上の領域を特定し、前記領域に含まれる指示色の画素を処理指示書の下地色で置き換えることで、画像データから処理指示の矩形を削除する。
First, in
次に、ステップ902において、CPU11は、ステップ518からステップ527で取得した処理指示情報を用いて、前記描かれた処理指示の矩形が削除された画像データの領域に、直線で構成される矩形を指示色で描く。前記矩形の描く位置は、処理指示情報のチェック領域情報に含まれる開始点、幅、高さの情報または表中の各セルの開始点、幅、高さの情報から得ることが出来る。本実施例において、指示色はある程度の範囲で色が設定されているため、ここで矩形を描くための色は、指示色の輝度Lが50%、彩度Sが100%、色相Hがその範囲の中心に位置する色を用いる。例えば、図2(b)の処理指示書の場合、処理指示領域31のチェック者によって描かれた矩形は削除され、前記処理指示情報に従って赤の色ペンの指示色で矩形1401が描かれる。また同様に、処理指示領域32のチェック者によって描かれた矩形も削除され、前記処理指示情報に従って、青の色ペンの指示色で矩形1402が描かれる。また、処理指示領域33のチェック者によって描かれた矩形は削除され、処理指示領域33はユーザによりセル指定モードが選択されているため、前記処理指示情報に従い、青の色ペンの指示色で矩形1403および矩形1404が描かれる。
Next, in step 902, the CPU 11 uses the processing instruction information acquired in steps 518 to 527 to create a rectangle composed of straight lines in the area of the image data from which the drawn processing instruction rectangle has been deleted. Draw in the indicated color. The drawing position of the rectangle can be obtained from the start point, width, and height information included in the check area information of the processing instruction information or the start point, width, and height information of each cell in the table. In this embodiment, since the instruction color is set in a certain range, the color for drawing a rectangle is 50% for the luminance L of the instruction color, 100% for saturation S, and for hue H. Use the color located in the center of the range. For example, in the case of the processing instruction sheet of FIG. 2B, the rectangle drawn by the checker in the
次に、ステップ1303において、CPU11は、ステップ518からステップ527で取得した全ての処理指示情報に対して上記処理を終えたかを判定し、終えている場合はステップ1304に進む。また、終えていない場合は、ステップ1301に進む。
Next, in
次に、ステップ1304において、CPU11は、ステップ1303までの処理で得られた画像データを縮小処理してサムネイル画像1400を生成する。まず、CPU11は、ステップ528で操作部16に表示させるための大きさへと縮小処理を行った、操作部表示用のサムネイル画像を生成する。さらに、ステップ1303までの処理で得られた処理指示の矩形が削除された画像データを、ステップ531でスキャンチケットを生成するための大きさへと縮小処理を行って、スキャンチケット生成用のサムネイル画像を生成する。本実施例において、縮小処理はバイキュービック法を用いるものとするが、これに限るものではなく、二アレストネイバー法やバイキュービック法などの手法を用いても良いことは言うまでもない。
Next, in
次に、図15を用いてステップ532の前記スキャンチケット生成処理で生成されるスキャンチケットについて詳細に説明する。 Next, the scan ticket generated by the scan ticket generation process in step 532 will be described in detail with reference to FIG.
図15は、本実施例における、図2(b)の処理指示書から生成したスキャンチケットの一例である。 FIG. 15 is an example of a scan ticket generated from the processing instruction sheet of FIG.
スキャンチケットは、処理指示情報がコード化された図11のQRコード111と、サムネイル画像1500、処理指示情報1501〜1504とで構成される。処理指示情報1501は、処理指示領域31から取得したチェック領域情報(チェック領域の開始点の座標、幅、高さ)と、処理コードに対応する処理方法と、指示処理領域が矩形指定モードかセル指定モードかを表す選択モードが文字で書かれたものである。また、処理指示情報1502には、処理指示領域32から取得したチェック領域情報と処理コードに対応する処理方法が、処理指示情報1503と1504には、処理指示領域33から取得したチェック領域情報と処理コードに対応する処理方法が文字で書かれている。サムネイル画像1500は、前述のサムネイル画像生成処理によって得られる図2(b)の処理指示書から生成されたサムネイル画像である。サムネイル画像1500は、前述の通り、チェック者が処理指示書に描いた処理指示の矩形を削除し、処理指示情報に従って指示色で矩形が描かれた画像データを、スキャンチケット用に縮小処理したものである。
The scan ticket includes the
以上説明したように、本実施例によれば、表中の連続したセルに対して、一括して同じ処理内容を適用することが可能となり、ユーザによる処理指示書の作成の利便性を向上させることが可能となる。 As described above, according to the present embodiment, it is possible to apply the same processing contents to the continuous cells in the table in a lump, improving the convenience of creating the processing instruction by the user. It becomes possible.
なお、本実施例において、スキャンチケット作成処理で処理指示情報をQRコードに変換しているが、処理指示情報をコード化する方法はこれに限るものではなく、例えばカラーバーコードなどを用いてエンコードしても良い。また、この場合には、図12のステップ2506において、QRコードのデコードを行うのではなく、前記コード化手法に対応したデコードを行うことで処理指示情報を得ることは言うまでもない。 In this embodiment, the process instruction information is converted into a QR code in the scan ticket creation process. However, the method for encoding the process instruction information is not limited to this. For example, the process instruction information is encoded using a color barcode or the like. You may do it. In this case, it is needless to say that the processing instruction information is obtained not by decoding the QR code in step 2506 in FIG. 12 but by performing decoding corresponding to the encoding method.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
読取手段により原稿上の画像を読み取って得た画像データにおいて、手書きで囲まれた領域を認識する領域認識手段と、
前記画像データにおいて複数のセルからなる表領域が存在するかを判別する判別手段と、
前記判別手段により前記画像データ内に表領域が存在すると判別され、前記判別された表領域のセル内に前記領域認識手段により認識された手書きで囲まれた領域が含まれる場合、前記手書きで囲まれた領域が含まれる複数のセルのそれぞれを処理対象セルとして認識する認識手段とを有することを特徴とする画像処理装置。 In an image processing apparatus that recognizes a plurality of cells included in image data as a processing target cell and creates a processing instruction for processing the recognized processing target cell.
Area recognition means for recognizing an area surrounded by handwriting in image data obtained by reading an image on a document by a reading means;
A discriminating means for discriminating whether or not a table region composed of a plurality of cells exists in the image data;
When it is determined by the determining means that a table area exists in the image data, and a cell surrounded by the handwriting recognized by the area recognition means is included in a cell of the determined table area, the table area is surrounded by the handwriting. An image processing apparatus comprising: recognition means for recognizing each of a plurality of cells including a specified area as a processing target cell.
読取手段により原稿上の画像を読み取って得た画像データにおいて、手書きで囲まれた領域を認識する領域認識ステップと、
前記画像データにおいて複数のセルからなる表領域が存在するかを判別する判別ステップと、
前記判別ステップにより前記画像データ内に表領域が存在すると判別され、前記判別された表領域のセル内に前記領域認識ステップにより認識された手書きで囲まれた領域が含まれる場合、前記手書きで囲まれた領域が含まれる複数のセルのそれぞれを処理対象セルとして認識する認識ステップとを有することを特徴とする画像処理方法。 In an image processing method for recognizing a plurality of cells included in image data as a processing target cell and creating a processing instruction for processing the recognized processing target cell,
An area recognition step for recognizing an area surrounded by handwriting in image data obtained by reading an image on a document by a reading means;
A determination step of determining whether or not a table region composed of a plurality of cells exists in the image data;
If it is determined by the determination step that a table area exists in the image data, and a region surrounded by handwriting recognized by the area recognition step is included in a cell of the determined table area, the table area is surrounded by the handwriting. A recognition step of recognizing each of a plurality of cells including the region as a processing target cell.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009278006A JP2011120174A (en) | 2009-12-07 | 2009-12-07 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009278006A JP2011120174A (en) | 2009-12-07 | 2009-12-07 | Image processing apparatus, image processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011120174A true JP2011120174A (en) | 2011-06-16 |
Family
ID=44284905
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009278006A Pending JP2011120174A (en) | 2009-12-07 | 2009-12-07 | Image processing apparatus, image processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011120174A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013179399A (en) * | 2012-02-28 | 2013-09-09 | Murata Mach Ltd | Image processing apparatus |
-
2009
- 2009-12-07 JP JP2009278006A patent/JP2011120174A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013179399A (en) * | 2012-02-28 | 2013-09-09 | Murata Mach Ltd | Image processing apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5414448B2 (en) | Image processing apparatus, control method therefor, and program | |
| US8737744B2 (en) | Image processing apparatus, image processing method, and program for displaying a preview of a document region and a recognized content processing | |
| JP5300534B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5699010B2 (en) | Image processing device | |
| US8570619B2 (en) | Control devices for scanning documents, systems including such control devices, and non-transitory, computer-readable media storing instructions for such control devices | |
| JP5143059B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP2012063993A (en) | Image processing system, control method thereof, and program | |
| US20110188745A1 (en) | Image processing apparatus and processing method of the image processing apparatus | |
| JP5479082B2 (en) | Information processing apparatus, control method therefor, and program | |
| JP4799632B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP2011120174A (en) | Image processing apparatus, image processing method, and program | |
| US20110134494A1 (en) | Image scanning apparatus, control method for image scanning apparatus, and storage medium | |
| JP5424858B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP2011123598A (en) | Image discriminating apparatus and method, and program | |
| JP2011141698A (en) | Image processing apparatus and method | |
| US8736913B2 (en) | Image processing apparatus, control method therefor and program for dividing instructions of a scan job into separate changeable and unchangeable scan job tickets | |
| JP2011193232A (en) | Image processor, method of controlling the same, and program | |
| JP2011193262A (en) | Image processor, method of controlling the same, and program | |
| JP2011119895A (en) | Information processing device, control method for the same, and program | |
| JP2021185653A (en) | Image processing device, image processing program and image processing method |