[go: up one dir, main page]

JP2015049795A - Image processor, image processing system, and program - Google Patents

Image processor, image processing system, and program Download PDF

Info

Publication number
JP2015049795A
JP2015049795A JP2013182300A JP2013182300A JP2015049795A JP 2015049795 A JP2015049795 A JP 2015049795A JP 2013182300 A JP2013182300 A JP 2013182300A JP 2013182300 A JP2013182300 A JP 2013182300A JP 2015049795 A JP2015049795 A JP 2015049795A
Authority
JP
Japan
Prior art keywords
character
image data
image
data
storage destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013182300A
Other languages
Japanese (ja)
Inventor
和英 澤田
Kazuhide Sawada
和英 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013182300A priority Critical patent/JP2015049795A/en
Publication of JP2015049795A publication Critical patent/JP2015049795A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

【課題】非文字画像を含む画像データの内容を認識できなくなることを防ぎつつ、データサイズを小さくする。【解決手段】画像読み取り装置によって生成された画像データであって対象画像を表す対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像である非文字画像を表す領域である非文字領域と、を検出する。対象画像データのうちの文字領域を表す部分を圧縮することによって、文字を表す圧縮済文字画像データを生成する。対象画像データを用いることによって、非文字領域の非文字画像を表す非文字画像データを取得し、取得した非文字画像データを記憶部に保存させる。圧縮済文字画像データと、非文字画像データの保存先を表す情報である保存先情報を表す保存先データと、を含み、非文字画像データを含まない、出力画像データを生成する。【選択図】 図2The data size is reduced while preventing the contents of image data including non-character images from being unrecognizable. By analyzing image data generated by an image reading apparatus and representing target image data, a character region that is a region representing characters and a non-character image that is an image other than characters are represented. A non-character area that is an area is detected. Compressed character image data representing characters is generated by compressing a portion representing the character region of the target image data. By using the target image data, non-character image data representing a non-character image in the non-character region is acquired, and the acquired non-character image data is stored in the storage unit. Output image data including compressed character image data and storage destination data representing storage destination information, which is information representing a storage destination of non-character image data, and not including non-character image data is generated. [Selection] Figure 2

Description

本発明は、画像読み取り装置によって生成された画像データの処理に関するものである。   The present invention relates to processing of image data generated by an image reading apparatus.

従来から、画像読み取り装置(例えば、スキャナ)によって生成された画像データが利用されている。例えば、スキャナで読み取った画像を表す画像データを、HTML(HyperText Markup Language)形式で保存する技術が提案されている。具体的には、読み取った画像を表す画像データにファイル名が設定され、そのファイル名で画像データが保存され、そのファイルの保存場所などの情報からHTML形式のデータが作成される。   Conventionally, image data generated by an image reading device (for example, a scanner) has been used. For example, a technique for storing image data representing an image read by a scanner in an HTML (HyperText Markup Language) format has been proposed. Specifically, a file name is set for the image data representing the read image, the image data is stored with the file name, and HTML format data is created from information such as the storage location of the file.

特開2004−171178号公報JP 2004-171178 A

読み取られた画像を表す画像データを含むデータを作成する技術も知られている。ところが、読み取られた画像を表す画像データのサイズが大きくなる場合があった。そこで、
読み取られた画像を圧縮して画像データのサイズを小さくすることが考えられる。しかしながら、非文字画像(例えば、写真や線画)の解像度を落として画像データのサイズを縮小すると、画像の内容を認識できなくなる可能性がある。
A technique for creating data including image data representing a read image is also known. However, the size of the image data representing the read image may increase. there,
It is conceivable to reduce the size of the image data by compressing the read image. However, if the size of image data is reduced by reducing the resolution of a non-character image (for example, a photograph or a line drawing), the contents of the image may not be recognized.

本発明の主な利点は、非文字画像を含む画像データの内容を認識できなくなることを防ぎつつ、データサイズを小さくすることである。   The main advantage of the present invention is to reduce the data size while preventing the contents of image data including non-character images from being unrecognizable.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following application examples.

[適用例1]
画像処理装置であって、
画像読み取り装置によって生成された画像データであって対象画像を表す対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像である非文字画像を表す領域である非文字領域と、を検出する検出部と、
前記対象画像データのうちの前記文字領域を表す部分を圧縮することによって、前記文字を表す圧縮済文字画像データを生成する文字圧縮部と、
前記対象画像データを用いることによって、前記非文字領域の前記非文字画像を表す非文字画像データを取得し、前記取得した非文字画像データを記憶部に保存させる保存部と、
前記圧縮済文字画像データと、前記非文字画像データの保存先を表す情報である保存先情報を表す保存先データと、を含み、前記非文字画像データを含まない、出力画像データを生成するデータ生成部と、
を備える、画像処理装置。
[Application Example 1]
An image processing apparatus,
By analyzing the target image data representing the target image, which is the image data generated by the image reading device, the character region that represents the character and the non-character image that is a non-character image that is a non-character image A detection unit for detecting a character area;
A character compression unit that generates compressed character image data representing the character by compressing a portion representing the character region of the target image data;
By using the target image data, a non-character image data representing the non-character image of the non-character region is acquired, and a storage unit that stores the acquired non-character image data in a storage unit;
Data that generates output image data that includes the compressed character image data and storage destination data that represents storage destination information that is information indicating the storage destination of the non-character image data, and does not include the non-character image data. A generator,
An image processing apparatus comprising:

この構成によれば、保存先情報を用いることによって非文字画像の利用を可能にし、出力画像データを用いることによって文字領域の文字を表現し、さらに、生成される出力画像データのサイズを、対象画像データと比べて、小さくすることができる。   According to this configuration, it is possible to use a non-character image by using the storage destination information, express characters in the character area by using the output image data, and the size of the output image data to be generated Compared with image data, it can be made smaller.

[適用例2]
適用例1に記載の画像処理装置であって、さらに、
前記対象画像データのうちの前記非文字領域を表す部分を圧縮することによって、前記非文字画像を表す圧縮済非文字画像データを生成する非文字圧縮部を有し、
前記データ生成部は、前記圧縮済非文字画像データを含む前記出力画像データを生成する、
画像処理装置。
[Application Example 2]
The image processing apparatus according to Application Example 1,
A non-character compression unit that generates compressed non-character image data representing the non-character image by compressing a portion representing the non-character area of the target image data;
The data generation unit generates the output image data including the compressed non-character image data;
Image processing device.

この構成によれば、非文字画像を表す出力画像データのサイズを、対象画像データと比べて、小さくすることができる。   According to this configuration, the size of the output image data representing the non-character image can be made smaller than the target image data.

[適用例3]
適用例2に記載の画像処理装置であって、
前記データ生成部は、
前記非文字画像の前記圧縮による画質低下の度合いを評価し、
前記評価の結果が許容範囲の内である場合には、前記圧縮済文字画像データと、前記圧縮済非文字画像データと、を含み、前記保存先データを含まない、前記出力画像データを生成し、
前記評価の結果が前記許容範囲の外である場合には、前記圧縮済文字画像データと、前記圧縮済非文字画像データと、前記保存先データと、を含む前記出力画像データを生成する、
画像処理装置。
[Application Example 3]
An image processing apparatus according to Application Example 2,
The data generator is
Evaluate the degree of image quality degradation due to the compression of the non-character image,
When the result of the evaluation is within an allowable range, the output image data including the compressed character image data and the compressed non-character image data and not including the storage destination data is generated. ,
When the result of the evaluation is outside the allowable range, the output image data including the compressed character image data, the compressed non-character image data, and the storage destination data is generated.
Image processing device.

この構成によれば、非文字画像の圧縮による画質低下の度合いの評価結果が許容範囲の内である場合には、圧縮済非文字画像データを用いることによって、非文字画像を利用可能にしつつ、出力画像データのデータサイズを小さくすることができる。評価結果が許容範囲の外である場合には、保存先情報によって特定される非文字画像データを用いることによって、非文字画像を利用可能にしつつ、圧縮済非文字画像データを用いることによって、出力画像データのデータサイズを小さくすることができる。   According to this configuration, when the evaluation result of the degree of image quality degradation due to the compression of the non-character image is within the allowable range, the non-character image can be used by using the compressed non-character image data, The data size of the output image data can be reduced. If the evaluation result is out of the allowable range, the non-character image data specified by the storage destination information is used, the non-character image can be used, and the compressed non-character image data is used for output. The data size of the image data can be reduced.

[適用例4]
適用例1から3のいずれか1項に記載の画像処理装置であって、
前記保存先情報は、符号化された前記保存先を表すシンボル画像である、画像処理装置。
[Application Example 4]
The image processing apparatus according to any one of Application Examples 1 to 3,
The image processing apparatus, wherein the storage destination information is a symbol image representing the encoded storage destination.

この構成によれば、保存先情報として使用される画像の画像サイズを小さくすることができる。   According to this configuration, the image size of the image used as the storage destination information can be reduced.

[適用例5]
適用例1から4のいずれか1項に記載の画像処理装置であって、
前記保存先情報は、前記保存先を表す画像であって、前記保存先情報の少なくとも一部が前記非文字領域に対応する領域と重なる位置に、配置されている、画像処理装置。
[Application Example 5]
The image processing apparatus according to any one of Application Examples 1 to 4,
The image processing apparatus, wherein the storage destination information is an image representing the storage destination, and is arranged at a position where at least a part of the storage destination information overlaps an area corresponding to the non-character area.

この構成によれば、非文字領域に対応する領域から離れた位置に保存先情報が配置されている場合と比べて、対象画像と、出力画像データによって表される画像との間の差を小さくすることができる。   According to this configuration, the difference between the target image and the image represented by the output image data is reduced as compared with the case where the storage destination information is arranged at a position away from the area corresponding to the non-character area. can do.

[適用例6]
前記対象画像データを生成する画像読み取り装置と、
適用例1から5のいずれか1項に記載の画像処理装置と、
を備える画像処理システム。
[Application Example 6]
An image reading device for generating the target image data;
The image processing device according to any one of Application Examples 1 to 5,
An image processing system comprising:

[適用例7]
コンピュータプログラムであって、
画像読み取り装置によって生成された画像データであって対象画像を表す対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像である非文字画像を表す領域である非文字領域と、を検出する検出機能と、
前記対象画像データのうちの前記文字領域を表す部分を圧縮することによって、前記文字を表す圧縮済文字画像データを生成する文字圧縮機能と、
前記対象画像データを用いることによって、前記非文字領域の前記非文字画像を表す非文字画像データを取得し、前記取得した非文字画像データを記憶部に保存させる保存機能と、
前記圧縮済文字画像データと、前記非文字画像データの保存先を表す情報である保存先情報を表す保存先データと、を含み、前記非文字画像データを含まない、出力画像データを生成するデータ生成機能と、
をコンピュータに実現させるプログラム。
[Application Example 7]
A computer program,
By analyzing the target image data representing the target image, which is the image data generated by the image reading device, the character region that represents the character and the non-character image that is a non-character image that is a non-character image A detection function for detecting a character area;
A character compression function for generating compressed character image data representing the character by compressing a portion representing the character region of the target image data;
By using the target image data, a non-character image data representing the non-character image of the non-character region is acquired, and a storage function for storing the acquired non-character image data in a storage unit;
Data that generates output image data that includes the compressed character image data and storage destination data that represents storage destination information that is information indicating the storage destination of the non-character image data, and does not include the non-character image data. Generation function,
A program that makes a computer realize.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image processing method and an image processing apparatus, a computer program for realizing the function of the method or apparatus, and a recording in which the computer program is recorded. It can be realized in the form of a medium (for example, a recording medium that is not temporary).

本発明の一実施例としてのネットワークシステムを示す説明図である。It is explanatory drawing which shows the network system as one Example of this invention. 画像処理のフローチャートである。It is a flowchart of an image process. 画像処理の概略図である。It is the schematic of image processing. 保存先データの生成処理のフローチャートである。It is a flowchart of the production | generation process of storage destination data. 画像処理の別の実施例を示すフローチャートである。It is a flowchart which shows another Example of an image process.

A.第1実施例:
図1は、本発明の一実施例としてのネットワークシステムを示す説明図である。このネットワークシステム1000は、ネットワーク900と、ネットワーク900に接続された画像処理システム800と、ネットワーク900に接続されたサーバ400と、を有している。画像処理システム800は、ネットワーク900に接続された画像処理装置100と、画像処理装置100に接続されたスキャナ300と、を有している。
A. First embodiment:
FIG. 1 is an explanatory diagram showing a network system as an embodiment of the present invention. The network system 1000 includes a network 900, an image processing system 800 connected to the network 900, and a server 400 connected to the network 900. The image processing system 800 includes an image processing apparatus 100 connected to a network 900 and a scanner 300 connected to the image processing apparatus 100.

画像処理装置100は、例えば、いわゆるパーソナルコンピュータである。画像処理装置100は、CPU110と、揮発性記憶装置120と、不揮発性記憶装置130と、表示部140と、操作部150と、装置インタフェース160と、通信インタフェース170と、を有している。   The image processing apparatus 100 is, for example, a so-called personal computer. The image processing apparatus 100 includes a CPU 110, a volatile storage device 120, a nonvolatile storage device 130, a display unit 140, an operation unit 150, a device interface 160, and a communication interface 170.

揮発性記憶装置120は、例えば、いわゆるDRAMであり、不揮発性記憶装置130は、例えば、いわゆるフラッシュメモリである。不揮発性記憶装置130は、CPU110によって実行されるプログラム132を、格納している。CPU110は、プログラム132を実行することによって、種々の機能を実現する。本実施例では、CPU110は、対象データ取得部210と、検出部220と、文字圧縮部230と、非文字圧縮部240と、非文字保存部250と、出力データ生成部260と、スキャナ制御部270と、のそれぞれの処理部の機能を実現する。各処理部の詳細については、後述する。また、CPU110は、プログラム(例えば、プログラム132)の実行に利用される種々の中間データを、記憶装置(例えば、揮発性記憶装置120、または、不揮発性記憶装置130)に、一時的に格納する。   The volatile storage device 120 is, for example, a so-called DRAM, and the nonvolatile storage device 130 is, for example, a so-called flash memory. The non-volatile storage device 130 stores a program 132 executed by the CPU 110. The CPU 110 implements various functions by executing the program 132. In the present embodiment, the CPU 110 includes a target data acquisition unit 210, a detection unit 220, a character compression unit 230, a non-character compression unit 240, a non-character storage unit 250, an output data generation unit 260, and a scanner control unit. 270 and the functions of the respective processing units. Details of each processing unit will be described later. In addition, the CPU 110 temporarily stores various intermediate data used for executing the program (for example, the program 132) in a storage device (for example, the volatile storage device 120 or the nonvolatile storage device 130). .

表示部140は、画像を表示する装置であり、例えば、液晶ディスプレイである。操作部150は、ユーザによる操作を受け入れる装置であり、例えば、表示部140上に重ねて配置されたタッチパネルである。ユーザは、操作部150を操作することによって、画像処理の指示等の種々の指示を入力可能である。装置インタフェース160は、画像処理装置100とは異なる他の装置と通信するためのインタフェースであり、例えば、USBインタフェースである。この装置インタフェース160には、スキャナ300が接続されている。通信インタフェース170は、ネットワークに接続するためのインタフェースであり、例えば、IEEE802.11a/b/g/nの規格に従った無線インタフェースである。通信インタフェース170は、ネットワーク900に接続されている。   The display unit 140 is a device that displays an image, and is, for example, a liquid crystal display. The operation unit 150 is a device that accepts an operation by a user, and is, for example, a touch panel arranged on the display unit 140. The user can input various instructions such as an image processing instruction by operating the operation unit 150. The device interface 160 is an interface for communicating with another device different from the image processing device 100, and is, for example, a USB interface. A scanner 300 is connected to the device interface 160. The communication interface 170 is an interface for connecting to a network, and is, for example, a wireless interface according to the IEEE802.11a / b / g / n standard. The communication interface 170 is connected to the network 900.

スキャナ300は、文書などの対象物を光学的に読み取ることによって対象物を表す画像データ(「スキャンデータ」とも呼ぶ)を生成する装置である。スキャナ300は、制御装置310と、対象物を光学的に読み取ってスキャンデータを生成する読取機構320と、を有している。制御装置310は、図示しないCPUと揮発性記憶装置と不揮発性記憶装置と装置インタフェースとを有するコンピュータである。制御装置310は、画像処理装置100の装置インタフェース160に接続されている。また、制御装置310は、揮発性記憶装置に格納されたプログラムを実行することによって、スキャナ300の動作を制御する。例えば、制御装置310は、画像処理装置100から指示を受信し、受信した指示に応じて読取機構320を制御してスキャンデータを生成し、生成したスキャンデータを画像処理装置100に供給する。   The scanner 300 is an apparatus that generates image data (also referred to as “scan data”) representing an object by optically reading the object such as a document. The scanner 300 includes a control device 310 and a reading mechanism 320 that optically reads an object and generates scan data. The control device 310 is a computer having a CPU, a volatile storage device, a nonvolatile storage device, and a device interface (not shown). The control device 310 is connected to the device interface 160 of the image processing device 100. The control device 310 controls the operation of the scanner 300 by executing a program stored in the volatile storage device. For example, the control device 310 receives an instruction from the image processing apparatus 100, controls the reading mechanism 320 according to the received instruction, generates scan data, and supplies the generated scan data to the image processing apparatus 100.

サーバ400は、制御装置410と、不揮発性記憶装置430と、通信インタフェース470と、を有している。不揮発性記憶装置430は、例えば、ハードディスクドライブである。通信インタフェース470は、ネットワークに接続するためのインタフェースであり、例えば、IEEE802.3の規格に従った有線インタフェースである。通信インタフェース470は、ネットワーク900に接続されている。制御装置410は、図示しないCPUと揮発性記憶装置と不揮発性記憶装置とを有するコンピュータである。制御装置410は、図示しない不揮発性記憶装置に格納されたプログラムを実行することによって、サーバ400の動作を制御する。例えば、制御装置410は、画像処理装置100から受信したデータを、不揮発性記憶装置430に格納する。そして、制御装置410は、ネットワーク900を介して受信した要求に応じて、不揮発性記憶装置430に格納されたデータを、要求元の装置に提供する。   The server 400 includes a control device 410, a nonvolatile storage device 430, and a communication interface 470. The nonvolatile storage device 430 is, for example, a hard disk drive. The communication interface 470 is an interface for connecting to a network, and is, for example, a wired interface conforming to the IEEE 802.3 standard. The communication interface 470 is connected to the network 900. The control device 410 is a computer having a CPU, a volatile storage device, and a nonvolatile storage device (not shown). The control device 410 controls the operation of the server 400 by executing a program stored in a non-volatile storage device (not shown). For example, the control device 410 stores data received from the image processing device 100 in the nonvolatile storage device 430. In response to a request received via the network 900, the control device 410 provides the data stored in the nonvolatile storage device 430 to the requesting device.

図2は、画像処理のフローチャートである。この画像処理では、スキャナ300によって生成されたスキャンデータを用いて、より小さいサイズの出力画像データが生成される。本実施例では、出力画像データとして、PDF(Portable Document Format)データが生成される。この画像処理は、例えば、ユーザが画像処理装置100に対して画像処理の開始を指示した場合に、画像処理装置100のCPU110によって開始される。本実施例では、ユーザは、操作部150を操作することによって、画像処理の開始指示を入力可能である。   FIG. 2 is a flowchart of image processing. In this image processing, output image data having a smaller size is generated using the scan data generated by the scanner 300. In this embodiment, PDF (Portable Document Format) data is generated as output image data. This image processing is started by the CPU 110 of the image processing apparatus 100 when, for example, the user instructs the image processing apparatus 100 to start image processing. In this embodiment, the user can input an image processing start instruction by operating the operation unit 150.

最初のステップS100では、スキャナ制御部270(図1)は、スキャナ300に、スキャン処理の実行指示を送信する。なお、ユーザは、予め、スキャナ300の図示しない原稿台(例えば、フラットベッド)に、スキャンの対象物をセットしていることとする。   In first step S <b> 100, the scanner control unit 270 (FIG. 1) transmits a scan processing execution instruction to the scanner 300. It is assumed that the user has set a scanning object on a document table (for example, a flat bed) (not shown) of the scanner 300 in advance.

スキャナ300の制御装置310は、指示に従って読取機構320を駆動させ、対象物を表すスキャンデータを生成する。生成されるスキャンデータは、例えば、RGBのビットマップデータである。制御装置310は、生成したスキャンデータを画像処理装置100に送信し、画像処理装置100のスキャナ制御部270は、スキャンデータを受信する。対象データ取得部210は、スキャナ制御部270を通じて、スキャンデータを、画像処理の対象画像データとして、取得する。以下、対象画像データ(すなわち、スキャンデータ)によって表される画像を「対象画像」とも呼ぶ。   The control device 310 of the scanner 300 drives the reading mechanism 320 in accordance with the instruction, and generates scan data representing the object. The generated scan data is, for example, RGB bitmap data. The control device 310 transmits the generated scan data to the image processing device 100, and the scanner control unit 270 of the image processing device 100 receives the scan data. The target data acquisition unit 210 acquires scan data as target image data for image processing through the scanner control unit 270. Hereinafter, an image represented by target image data (that is, scan data) is also referred to as a “target image”.

図3は、画像処理の概略図である。図中には、図2の手順に従って対象画像TI1から出力画像OI1が生成される処理の概略が示されている。図3の例では、対象画像TI1は、写真画像Op1と、4つの文字列画像Ot1〜Ot4と、を表している。なお、図3中では、図2に示す処理に対応する処理に、同じ符号が付されている。例えば、図3中の符号「S110」が付された処理は、図2のステップS110の処理に対応している。   FIG. 3 is a schematic diagram of image processing. In the figure, an outline of processing for generating an output image OI1 from the target image TI1 according to the procedure of FIG. 2 is shown. In the example of FIG. 3, the target image TI1 represents a photographic image Op1 and four character string images Ot1 to Ot4. In FIG. 3, processes corresponding to the processes shown in FIG. For example, the process denoted by “S110” in FIG. 3 corresponds to the process of step S110 in FIG.

図2の次のステップS110では、検出部220は、対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像(例えば、写真や線画)である非文字画像を表す領域である非文字領域と、を検出する。図3の例では、写真画像Op1を表す写真領域Op1aと、4つの文字列画像Ot1〜Ot4をそれぞれ表す4つの文字領域Ot1a〜Ot4aとが、検出される。   In the next step S110 of FIG. 2, the detection unit 220 analyzes the target image data to obtain a character region that is a region representing characters and a non-character image that is an image other than characters (for example, a photograph or a line drawing). A non-character region that is a region to represent is detected. In the example of FIG. 3, a photographic area Op1a representing the photographic image Op1 and four character areas Ot1a to Ot4a representing the four character string images Ot1 to Ot4, respectively, are detected.

対象画像から文字領域と非文字領域とを検出する方法としては、種々の公知の方法を採用可能である。例えば、対象画像を複数の処理領域(例えば、所定サイズの矩形領域)に分割し、処理領域毎に画素値(例えば、輝度値)の分散を算出し、分散が所定の閾値よりも小さい処理領域を文字処理領域に分類し、分散が閾値以上の処理領域を非文字処理領域に分類する。そして、同じ種類の処理領域が連続することによって構成される1つの連続な領域を、1つの領域(すなわち、文字領域、または、非文字領域)として抽出する。なお、領域の検出には、分散に限らず、他の種々の情報(例えば、各処理領域で用いられている色の数)を採用可能である。また、検出部220は、公知のOCR(Optical Character Recognition)技術で利用される文字認識処理を用いることによって、文字領域を検出してもよい。また、検出部220は、複数の情報を組み合わせることによって、文字領域と非文字領域とを検出してもよい。   As a method for detecting a character area and a non-character area from the target image, various known methods can be employed. For example, the target image is divided into a plurality of processing regions (for example, rectangular regions of a predetermined size), the variance of pixel values (for example, luminance values) is calculated for each processing region, and the processing region has a variance smaller than a predetermined threshold Are classified into character processing areas, and processing areas whose variance is greater than or equal to a threshold are classified as non-character processing areas. Then, one continuous area constituted by continuous processing areas of the same type is extracted as one area (that is, a character area or a non-character area). Note that the detection of the area is not limited to the dispersion, and various other information (for example, the number of colors used in each processing area) can be employed. Further, the detection unit 220 may detect a character region by using a character recognition process used in a known OCR (Optical Character Recognition) technique. The detection unit 220 may detect a character area and a non-character area by combining a plurality of pieces of information.

図2の次のステップS120では、出力データ生成部260は、ステップS110で検出された領域から、未処理の非文字領域を、対象領域として選択する。次のステップS130では、非文字保存部250は、対象画像データから対象領域(ここでは、非文字領域)を表す部分を抽出し、抽出された画像データを用いて、非文字領域を表す画像データファイルを生成する(以下「非文字画像ファイル」とも呼ぶ)。本実施例では、非文字保存部250は、抽出した画像データを圧縮(例えば、JPEG圧縮)することによって圧縮済の画像データを取得し、取得した圧縮済画像データを含む画像データファイルを生成する。この代わりに、非文字保存部250は、抽出した画像データをそのまま含む画像データファイルを生成してもよい。   In the next step S120 in FIG. 2, the output data generation unit 260 selects an unprocessed non-character area as a target area from the areas detected in step S110. In the next step S130, the non-character storage unit 250 extracts a portion representing the target area (here, the non-character area) from the target image data, and uses the extracted image data to represent the image data representing the non-character area. A file is generated (hereinafter also referred to as “non-character image file”). In the present embodiment, the non-character storage unit 250 acquires compressed image data by compressing the extracted image data (for example, JPEG compression), and generates an image data file including the acquired compressed image data. . Instead, the non-character storage unit 250 may generate an image data file that directly includes the extracted image data.

次のステップS140では、非文字保存部250は、生成した非文字画像ファイルを、サーバ400に送信し、サーバ400の不揮発性記憶装置430に格納させる。サーバ400の制御装置410は、受信した非文字画像ファイルを、不揮発性記憶装置430に格納する(図1:非文字画像ファイル434)。なお、非文字画像ファイルの保存先(例えば、URL)は、非文字保存部250によって決定される。サーバ400の制御装置410は、非文字保存部250によって指定された保存先に従って、非文字画像ファイルを不揮発性記憶装置430に格納する。この代わりに、サーバ400の制御装置410が、保存先を決定してもよい。   In the next step S <b> 140, the non-character storage unit 250 transmits the generated non-character image file to the server 400 and stores it in the nonvolatile storage device 430 of the server 400. The control device 410 of the server 400 stores the received non-character image file in the nonvolatile storage device 430 (FIG. 1: non-character image file 434). Note that the storage destination of the non-character image file (for example, URL) is determined by the non-character storage unit 250. The control device 410 of the server 400 stores the non-character image file in the nonvolatile storage device 430 according to the storage destination specified by the non-character storage unit 250. Instead, the control device 410 of the server 400 may determine the storage destination.

次のステップS150では、サーバ400の不揮発性記憶装置430に格納された非文字画像ファイル434の保存先を表す画像である保存先画像を表す保存先データが生成される。図4は、保存先データの生成処理のフローチャートである。最初のステップS300では、出力データ生成部260は、非文字画像ファイルの保存先を取得する。本実施例では、保存先として、URLが用いられる。出力データ生成部260は、非文字保存部250から、保存先を取得する。なお、サーバ400の制御装置410によって保存先が決定される場合には、出力データ生成部260は、制御装置410から、保存先を取得する。   In the next step S150, storage destination data representing a storage destination image that is an image representing the storage destination of the non-character image file 434 stored in the nonvolatile storage device 430 of the server 400 is generated. FIG. 4 is a flowchart of storage destination data generation processing. In the first step S300, the output data generation unit 260 acquires the storage destination of the non-character image file. In this embodiment, a URL is used as the storage destination. The output data generation unit 260 acquires the storage destination from the non-character storage unit 250. When the storage destination is determined by the control device 410 of the server 400, the output data generation unit 260 acquires the storage destination from the control device 410.

次のステップS310では、出力データ生成部260は、取得した保存先を表す保存先画像を表す保存先データを生成する。本実施例では、保存先データは、符号化された保存先を表すQRコード(「QRコード」は登録商標)を表している。保存先データの生成が完了したことに応じて、図4の処理は終了する。   In the next step S310, the output data generation unit 260 generates storage destination data that represents a storage destination image that represents the acquired storage destination. In the present embodiment, the storage destination data represents a QR code (“QR code” is a registered trademark) representing the encoded storage destination. When the generation of the storage destination data is completed, the process of FIG. 4 ends.

図2の次のステップS160では、出力データ生成部260は、生成した保存先データを、出力画像データに組み込む。図3には、出力画像データによって表される出力画像OI1の例が示されている。図示するように、出力画像OI1は、対象画像TI1と同サイズ、同形状の画像である。また、出力画像OI1は、対象画像TI1から検出された領域Op1a、Ot1a〜Ot4aにそれぞれ対応する領域Op1ax、Ot1ax〜Ot4axを有している。各領域Op1ax、Ot1ax〜Ot4axのサイズと位置と形状とは、元の領域Op1a、Ot1a〜Ot4aのものと同じである。出力画像OI1の各領域内の画像は、対象画像TI1の対応する領域内の画像から、修正され得る。例えば、出力画像OI1の写真領域Op1ax内には、保存先データによって表されるQRコードSi1が、配置されている。このQRコードSi1は、サーバ400に保存された非文字画像ファイル、すなわち、対象画像TI1中の対応する写真領域Op1aに配置されていた写真画像Op1を表す画像データにアクセスするためのURLを表している。   In the next step S160 of FIG. 2, the output data generation unit 260 incorporates the generated storage destination data into the output image data. FIG. 3 shows an example of the output image OI1 represented by the output image data. As illustrated, the output image OI1 is an image having the same size and shape as the target image TI1. The output image OI1 includes regions Op1ax and Ot1ax to Ot4ax corresponding to the regions Op1a and Ot1a to Ot4a detected from the target image TI1. The size, position, and shape of each region Op1ax, Ot1ax to Ot4ax are the same as those of the original region Op1a, Ot1a to Ot4a. The image in each area of the output image OI1 can be corrected from the image in the corresponding area of the target image TI1. For example, a QR code Si1 represented by storage destination data is arranged in the photographic area Op1ax of the output image OI1. This QR code Si1 represents a URL for accessing a non-character image file stored in the server 400, that is, image data representing the photo image Op1 arranged in the corresponding photo area Op1a in the target image TI1. Yes.

図2の次のステップS170では、非文字圧縮部240は、対象画像データから対象領域(ここでは、非文字領域)を表す部分を抽出し、抽出された画像データを圧縮することによって、圧縮済非文字画像データを生成する。本実施例では、図3に示すように、非文字圧縮部240は、JPEG圧縮を行い、さらに、Flate圧縮を行うことによって、圧縮済非文字画像データを生成する。   In the next step S170 in FIG. 2, the non-character compressing unit 240 extracts a portion representing the target area (here, the non-character area) from the target image data, and compresses the extracted image data to compress the extracted image data. Non-character image data is generated. In this embodiment, as shown in FIG. 3, the non-character compression unit 240 generates compressed non-character image data by performing JPEG compression and further performing Flate compression.

このステップS170では、ステップS130と比べて、高い圧縮率で画像データが圧縮される。従って、ステップS170で生成される圧縮済非文字画像データのデータサイズは、ステップS130で生成される画像データ(非文字画像ファイル)のデータサイズよりも、小さい。   In this step S170, the image data is compressed at a higher compression rate than in step S130. Therefore, the data size of the compressed non-character image data generated in step S170 is smaller than the data size of the image data (non-character image file) generated in step S130.

図2の次のステップS180では、出力データ生成部260は、ステップS170で生成された圧縮済非文字画像データを、出力画像データに組み込む。図3に示すように、出力画像OI1の写真領域Op1ax内には、圧縮済非文字画像データによって表される写真画像Op1xが、配置される。この写真画像Op1xは、元の写真画像Op1とおおよそ同じである(写真画像Op1xは、データ圧縮に起因するノイズを含み得る)。なお、QRコードSi1は、写真画像Op1x上に、配置されている。すなわち、写真画像Op1xの一部は、QRコードSi1に隠れている。   In the next step S180 of FIG. 2, the output data generation unit 260 incorporates the compressed non-character image data generated in step S170 into the output image data. As shown in FIG. 3, a photographic image Op1x represented by compressed non-character image data is arranged in the photographic area Op1ax of the output image OI1. This photographic image Op1x is approximately the same as the original photographic image Op1 (the photographic image Op1x may contain noise due to data compression). The QR code Si1 is disposed on the photographic image Op1x. That is, a part of the photographic image Op1x is hidden in the QR code Si1.

図2の次のステップS190では、出力データ生成部260は、全ての非文字領域の処理が完了したか否かを判定する。未処理の非文字領域が残っている場合(S190:No)、処理は、ステップS120に戻る。全ての非文字領域の処理が完了した場合(S190:Yes)、処理は、ステップS200に移行する。   In the next step S190 in FIG. 2, the output data generation unit 260 determines whether or not the processing for all the non-character areas has been completed. If an unprocessed non-character area remains (S190: No), the process returns to step S120. When the processing for all the non-character areas is completed (S190: Yes), the processing moves to step S200.

ステップS200では、文字圧縮部230は、対象画像データから文字領域を表す部分を抽出し、抽出された画像データを圧縮することによって、圧縮済文字画像データを生成する。本実施例では、図3に示すように、文字圧縮部230は、二値化処理を行い、さらに、二値圧縮(例えば、MMR(Modified Modified Read)方式の圧縮(FAXG4方式とも呼ばれる))を行うことによって、圧縮済文字画像データを生成する。二値化の方法としては、種々の公知の方法を採用可能である。例えば、対象画像データに含まれる画素値(RGB値)から輝度値を算出し、輝度値に対して所定の閾値を適用することによって、各画素を二値化してもよい。なお、圧縮済文字画像データの生成は、ステップS110で検出された全ての文字領域のそれぞれについて、行われる。   In step S200, the character compression unit 230 extracts a portion representing a character region from the target image data, and generates compressed character image data by compressing the extracted image data. In the present embodiment, as shown in FIG. 3, the character compression unit 230 performs binarization processing, and further performs binary compression (for example, MMR (Modified Modified Read) compression (also referred to as FAXG4 method)). By doing so, compressed character image data is generated. Various known methods can be adopted as the binarization method. For example, each pixel may be binarized by calculating a luminance value from a pixel value (RGB value) included in the target image data and applying a predetermined threshold to the luminance value. Note that the generation of compressed character image data is performed for each of all character regions detected in step S110.

次のステップS210では、出力データ生成部260は、生成した圧縮済文字画像データを、出力画像データに組み込む。図3に示すように、出力画像OI1の文字領域Ot1ax〜Ot4ax内には、圧縮済文字画像データによって表される文字列画像Ot1x〜Ot4xが配置される。文字列画像Ot1x〜Ot4xは、元の文字列画像Ot1〜Ot4と、それぞれ、おおよそ同じである(文字列画像Ot1x〜Ot4xは、データ圧縮に起因するノイズを含み得る)。   In the next step S210, the output data generation unit 260 incorporates the generated compressed character image data into the output image data. As shown in FIG. 3, character string images Ot1x to Ot4x represented by compressed character image data are arranged in the character areas Ot1ax to Ot4ax of the output image OI1. The character string images Ot1x to Ot4x are approximately the same as the original character string images Ot1 to Ot4, respectively (the character string images Ot1x to Ot4x may include noise due to data compression).

以上により、出力画像データの生成が完了する。次のステップS220では、出力データ生成部260は、生成した出力画像データを、不揮発性記憶装置130に格納する。以上により、画像処理が終了する。ユーザは、不揮発性記憶装置130に格納された出力画像データを、印刷や表示などの出力や、他の種々の用途に利用可能である。   Thus, the generation of output image data is completed. In the next step S <b> 220, the output data generation unit 260 stores the generated output image data in the nonvolatile storage device 130. Thus, the image processing ends. The user can use the output image data stored in the nonvolatile storage device 130 for output such as printing and display, and for various other purposes.

以上のように、本実施例では、非文字保存部250は、対象画像データを用いることによって、非文字領域の非文字画像を表す非文字画像データ(非文字画像ファイルの画像データ)を取得し(図2:S130)、取得した非文字画像データを、サーバ400の不揮発性記憶装置430に保存させる(図2:S140)。一方、出力データ生成部260は、文字圧縮部230によって生成された圧縮済文字画像データと(図2:S200、S210)、非文字画像データの保存先を表すQRコードを表す保存先データと(図2:160)、を含み、上記の非文字画像データ(非文字画像ファイルの画像データ)を含まない、出力画像データを生成する。従って、QRコードを用いることによって非文字画像(例えば、写真画像Op1)の利用(例えば、非文字画像の内容の認識)を可能にし、出力画像データを用いることによって文字領域の文字列を表現し、さらに、出力画像データのサイズを、対象画像データと比べて、小さくすることができる。例えば、ユーザは、QRコードを解析する機能を有する携帯電話を用いて出力画像OI1を撮影することによって、サーバ400の不揮発性記憶装置430に格納された非文字画像ファイル434を容易に利用することができる。   As described above, in this embodiment, the non-character storage unit 250 acquires non-character image data (non-character image file image data) representing a non-character image in a non-character area by using the target image data. (FIG. 2: S130), the acquired non-character image data is stored in the nonvolatile storage device 430 of the server 400 (FIG. 2: S140). On the other hand, the output data generation unit 260 includes the compressed character image data generated by the character compression unit 230 (FIG. 2: S200, S210), storage destination data representing a QR code representing the storage destination of non-character image data ( FIG. 2: 160), and output image data that does not include the non-character image data (image data of the non-character image file) is generated. Accordingly, it is possible to use a non-character image (for example, photographic image Op1) by using a QR code (for example, recognition of the contents of the non-character image), and to express a character string in a character region by using output image data. Furthermore, the size of the output image data can be reduced as compared with the target image data. For example, the user can easily use the non-character image file 434 stored in the nonvolatile storage device 430 of the server 400 by photographing the output image OI1 using a mobile phone having a function of analyzing a QR code. Can do.

さらに、非文字圧縮部240は、対象画像データのうちの非文字領域を表す部分を圧縮することによって圧縮済非文字画像データを生成し(図2:S170)、出力データ生成部260は、この圧縮済非文字画像データを含む出力画像データを生成する(図2:S180)。従って、非文字画像を表す出力画像データのデータサイズを、対象画像データと比べて、小さくすることができる。また、ユーザは、出力画像データによって表される出力画像を観察することによって、非文字画像を認識することができる。また、非文字画像の内容を十分視認できない場合は、QRコードを用いることにより、出力画像データによって表される非文字画像より画像の劣化が小さいサーバ400の不揮発性記憶装置430に格納された非文字画像ファイルを利用すればよい。   Further, the non-character compressing unit 240 generates compressed non-character image data by compressing a portion representing the non-character area in the target image data (FIG. 2: S170), and the output data generating unit 260 Output image data including compressed non-character image data is generated (FIG. 2: S180). Therefore, the data size of the output image data representing the non-character image can be made smaller than the target image data. Further, the user can recognize the non-character image by observing the output image represented by the output image data. Further, when the content of the non-character image cannot be sufficiently visually recognized, the non-character image stored in the non-volatile storage device 430 of the server 400 is less deteriorated than the non-character image represented by the output image data by using the QR code. A character image file may be used.

また、図4のステップS310では、符号化された保存先を表すQRコードが、保存先を表す画像として生成される。従って、保存先を文字列によって表現する場合と比べて、保存先画像の画像サイズを小さくできる。この結果、保存先画像(ここでは、QRコード)を、出力画像中の対応する非文字領域内に容易に配置できる。例えば、図3に示すように、保存先画像(QRコードSi1)を、写真領域Op1ax内に、配置できる。この結果、保存先画像が、対応する非文字領域の外に配置される場合と比べて、対象画像と出力画像との間の差を小さくできる。また、ユーザは、出力画像を観察することによって、保存先画像と非文字画像との対応関係を、容易に理解できる。出力画像を印刷により出力した場合であっても、保存先画像を用いて、容易にサーバ400の不揮発性記憶装置430に格納された非文字画像ファイルを利用することができる。   Further, in step S310 of FIG. 4, the encoded QR code representing the storage destination is generated as an image representing the storage destination. Therefore, the image size of the storage destination image can be reduced as compared with the case where the storage destination is expressed by a character string. As a result, the storage destination image (here, the QR code) can be easily arranged in the corresponding non-character region in the output image. For example, as shown in FIG. 3, the storage destination image (QR code Si1) can be arranged in the photographic area Op1ax. As a result, the difference between the target image and the output image can be reduced as compared with the case where the storage destination image is arranged outside the corresponding non-character region. Further, the user can easily understand the correspondence between the storage destination image and the non-character image by observing the output image. Even when the output image is output by printing, the non-character image file stored in the nonvolatile storage device 430 of the server 400 can be easily used by using the storage destination image.

B.第2実施例:
図5は、画像処理の別の実施例を示すフローチャートである。図5の処理は、図2の処理の代わりに利用される。第2実施例では、非文字画像を圧縮した場合の画質低下の度合の評価結果に応じて、非文字画像ファイルをサーバ400の不揮発性記憶装置430に保存するか否かが決定される。図5では、図2のステップと同じステップに、同じ符号を付して、その説明を省略する。また、画像処理の実行に利用されるネットワークシステムの構成は、図1に示すネットワークシステム1000の構成と同じである。
B. Second embodiment:
FIG. 5 is a flowchart showing another embodiment of image processing. The process of FIG. 5 is used instead of the process of FIG. In the second embodiment, whether to save the non-character image file in the nonvolatile storage device 430 of the server 400 is determined according to the evaluation result of the degree of image quality degradation when the non-character image is compressed. In FIG. 5, the same steps as those in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted. The configuration of the network system used for executing the image processing is the same as the configuration of the network system 1000 shown in FIG.

ステップS100〜S130は、図2のステップS100〜S130と、それぞれ同じである。次のステップS132では、出力データ生成部260(図1)は、非文字圧縮部240によるデータ圧縮による非文字画像の画質低下の度合いを評価する。本実施例では、出力データ生成部260は、非文字画像の各画素位置におけるエッジ量を算出し、得られたエッジ量の平均値を、画質低下の度合いを表す評価値として算出する。エッジ量は、対象画像データに含まれる画素値(RGB値)から輝度値を算出し、輝度値に対して公知のsobelフィルタを適用して得られる。なお、Sobelフィルタに限らず、Prewittフィルタ、Robertsフィルタなど種々のエッジ抽出フィルタを利用可能である。   Steps S100 to S130 are the same as steps S100 to S130 of FIG. In the next step S132, the output data generation unit 260 (FIG. 1) evaluates the degree of deterioration in image quality of the non-character image due to data compression by the non-character compression unit 240. In the present embodiment, the output data generation unit 260 calculates the edge amount at each pixel position of the non-character image, and calculates the average value of the obtained edge amounts as an evaluation value representing the degree of image quality degradation. The edge amount is obtained by calculating a luminance value from a pixel value (RGB value) included in the target image data and applying a known sobel filter to the luminance value. In addition, not only a Sobel filter but various edge extraction filters, such as a Prewitt filter and a Roberts filter, can be used.

平均エッジ量が小さいことは、非文字画像内の画素位置の変化に対する画素値の変化が小さいことを示している。画素値の変化が小さい場合には、データ圧縮によるノイズが小さい場合が多い。一方、平均エッジ量が大きいことは、非文字画像内の画素位置の変化に対する画素値の変化が大きいことを示している。画素値の変化が大きい場合には、データ圧縮によるノイズが大きい場合が多い。以上のように、平均エッジ量が小さいほど、画質低下の度合いが小さい。   A small average edge amount indicates that a change in pixel value with respect to a change in pixel position in the non-character image is small. When the change in pixel value is small, noise due to data compression is often small. On the other hand, a large average edge amount indicates a large change in pixel value with respect to a change in pixel position in the non-character image. When the change in the pixel value is large, noise due to data compression is often large. As described above, the smaller the average edge amount, the smaller the degree of image quality degradation.

図5の次のステップS134では、出力データ生成部260は、平均エッジ量が、所定の閾値よりも大きいか否かを判定する。本実施例では、所定の閾値以下の範囲が、許容範囲に対応する。平均エッジ量が許容範囲外である場合、すなわち、平均エッジ量が所定の閾値よりも大きい場合(S134:Yes)、ステップS140〜S160の処理が実行される。ステップS140〜S160は、図2のステップS140〜S160と、それぞれ同じである。具体的には、非文字画像ファイルがサーバ400の不揮発性記憶装置430に保存され、そして、出力画像データに、保存先データが組み込まれる。そして、処理は、ステップS170に移行する。一方、平均エッジ量が許容範囲内である場合(S134:No)、ステップS140〜S160の処理は、省略され、処理は、ステップS170に移行する。ステップS170以降の処理(S170〜S220)は、図2と同様に行われる。   In the next step S134 in FIG. 5, the output data generation unit 260 determines whether or not the average edge amount is larger than a predetermined threshold value. In the present embodiment, a range that is equal to or smaller than a predetermined threshold corresponds to an allowable range. When the average edge amount is outside the allowable range, that is, when the average edge amount is larger than the predetermined threshold (S134: Yes), the processes of steps S140 to S160 are executed. Steps S140 to S160 are the same as steps S140 to S160 in FIG. Specifically, the non-character image file is stored in the nonvolatile storage device 430 of the server 400, and the storage destination data is incorporated into the output image data. Then, the process proceeds to step S170. On the other hand, when the average edge amount is within the allowable range (S134: No), the processes in steps S140 to S160 are omitted, and the process proceeds to step S170. The processes after step S170 (S170 to S220) are performed in the same manner as in FIG.

以上のように、平均エッジ量が許容範囲内である場合には、出力データ生成部260は、圧縮済文字画像データ(S200、S210)と、圧縮済非文字画像データ(S170、S180)と、を含み、保存先データを含まない出力画像データを生成する。従って、圧縮済非文字画像データを用いることによって、非文字画像を利用可能にしつつ、出力画像データのデータサイズを小さくできる。また、サーバ400の不揮発性記憶装置430への非文字画像ファイルの保存が省略されるので、不揮発性記憶装置430の容量を節約できる。また、出力画像に保存先画像が含まれないため、非文字画像の領域が保存先画像で邪魔されない。一方、平均エッジ量が許容範囲外である場合には、出力データ生成部260は、出力データ生成部260は、圧縮済文字画像データ(S200、S210)と、圧縮済非文字画像データ(S170、S180)と、保存先データ(S150、S160)と、を含む出力画像データを生成する。従って、保存先画像によって特定される非文字画像データ(ここでは、QRコードによって特定される非文字画像ファイル)を用いることによって、画質の低下が抑制された非文字画像を利用可能にしつつ、圧縮済非文字画像データを用いることによって、出力画像データのデータサイズを小さくできる。また、出力画像に保存先画像が含まれるか否かにより、ユーザは、サーバ400の不揮発性記憶装置430に非文字画像ファイルが保存されているか否かが容易にわかる。   As described above, when the average edge amount is within the allowable range, the output data generation unit 260 includes the compressed character image data (S200, S210), the compressed non-character image data (S170, S180), And output image data including no storage destination data. Therefore, by using the compressed non-character image data, the data size of the output image data can be reduced while making the non-character image available. In addition, since the storage of the non-character image file in the nonvolatile storage device 430 of the server 400 is omitted, the capacity of the nonvolatile storage device 430 can be saved. Further, since the output image does not include the save destination image, the non-character image area is not disturbed by the save destination image. On the other hand, when the average edge amount is outside the allowable range, the output data generation unit 260 outputs the compressed character image data (S200, S210) and the compressed non-character image data (S170, S210). Output image data including S180) and storage destination data (S150, S160) is generated. Therefore, by using the non-character image data specified by the save destination image (here, the non-character image file specified by the QR code), it is possible to use the non-character image in which the deterioration of the image quality is suppressed, and the compression. By using the finished non-character image data, the data size of the output image data can be reduced. Further, the user can easily know whether or not the non-character image file is stored in the nonvolatile storage device 430 of the server 400 based on whether or not the output destination image includes the storage destination image.

C.変形例:
(1)文字圧縮部230による、文字を表す画像データの圧縮方法としては、二値化とMMRとに限らず、種々の方法を採用可能である。例えば、二値化とMMRとのうちの一方のみを採用してもよい。また、JPEG圧縮を採用してもよい。また、解像度(画素密度)を低くする処理を採用してもよい。一般に、画像データによって表現される文字が認識可能であるという条件下で、元の画像データよりもデータサイズを小さくする任意の処理を採用可能である。
C. Variation:
(1) The method of compressing image data representing characters by the character compression unit 230 is not limited to binarization and MMR, and various methods can be employed. For example, only one of binarization and MMR may be employed. Further, JPEG compression may be adopted. Further, a process for reducing the resolution (pixel density) may be employed. In general, any processing that reduces the data size of the original image data can be employed under the condition that the characters expressed by the image data can be recognized.

(2)非文字圧縮部240による、非文字画像を表す画像データの圧縮方法としては、JPEG圧縮とFlate圧縮とに限らず、種々の方法を採用可能である。例えば、JPEG圧縮とFlate圧縮とのうちの一方のみを採用してもよい。また、解像度(画素密度)を低くする処理を採用してもよい。一般に、画像データによって表現される非文字画像が認識可能であるという条件下で、元の画像データよりもデータサイズを小さくする任意の処理を採用可能である。 (2) The method of compressing image data representing a non-character image by the non-character compression unit 240 is not limited to JPEG compression and Flate compression, and various methods can be employed. For example, only one of JPEG compression and Flate compression may be employed. Further, a process for reducing the resolution (pixel density) may be employed. In general, any process for reducing the data size of the original image data can be employed under the condition that a non-character image represented by the image data can be recognized.

(3)符号化された保存先を表すシンボル画像としては、QRコードに限らず、種々の画像を採用可能である。例えば、1次元バーコードを採用可能である。また、保存先を表す保存先画像としては、符号化された保存先を表すシンボル画像に限らず、他の種々の形式の画像を採用可能である。例えば、保存先を表す文字列を採用可能である。また、圧縮済非文字画像にハイパーリンクを付加することで圧縮済非文字画像を保存先画像として扱ってもよい。この場合、保存先データと圧縮済非文字画像データは同一のデータであり、圧縮済非文字画像に保存先を示す情報としてハイパーリンクが埋め込まれたデータである。 (3) The symbol image representing the encoded storage destination is not limited to the QR code, and various images can be employed. For example, a one-dimensional barcode can be adopted. Further, the storage destination image representing the storage destination is not limited to the symbol image representing the encoded storage destination, and various other types of images can be employed. For example, a character string representing a storage destination can be adopted. Further, the compressed non-character image may be handled as the storage destination image by adding a hyperlink to the compressed non-character image. In this case, the storage destination data and the compressed non-character image data are the same data, and are data in which a hyperlink is embedded as information indicating the storage destination in the compressed non-character image.

また、出力画像において、保存先画像のうちの、対応する非文字領域と重なる部分は、保存先画像の一部であってもよい。一般には、保存先画像の少なくとも一部が、対応する非文字領域と重なっていれば、保存先画像が、対応する非文字領域から離れている場合と比べて、対象画像と出力画像との間の差を小さくできる。また、ユーザは、保存先画像と非文字画像との対応関係を、容易に理解できる。なお、保存先画像が、非文字領域から離れた位置に配置されてもよい。例えば、保存先画像は、出力画像中の所定の位置に配置されてもよい。   In the output image, the portion of the storage destination image that overlaps the corresponding non-character area may be a part of the storage destination image. In general, if at least a part of the save destination image overlaps with the corresponding non-character area, the save destination image is not between the target image and the output image as compared with the case where the save destination image is separated from the corresponding non-character area. The difference can be reduced. In addition, the user can easily understand the correspondence between the storage destination image and the non-character image. The storage destination image may be arranged at a position away from the non-character area. For example, the storage destination image may be arranged at a predetermined position in the output image.

いずれの場合も、出力データ生成部260は、保存先画像を表す保存先データとして、圧縮されたデータを生成してもよい(例えば、JPEGデータ)。圧縮方法としては、例えば、文字圧縮部230による画像データの圧縮方法と同じ方法を採用可能である。この代わりに、非圧縮のデータが、保存先データとして生成されてもよい(例えば、ビットマップデータ)。   In any case, the output data generation unit 260 may generate compressed data as storage destination data representing a storage destination image (for example, JPEG data). As the compression method, for example, the same method as the image data compression method by the character compression unit 230 can be employed. Instead, uncompressed data may be generated as storage destination data (for example, bitmap data).

(4)図5の実施例において、画質低下の度合いを評価する方法としては、画質低下の度合いの評価値としてエッジ量を用いて得られる値(例えば、平均エッジ量に限らず、合計エッジ量等のエッジ量を表す代表値)を算出し、算出された評価値が許容範囲内にあるか否かを判定する方法に限らず、種々の方法を採用可能である。例えば、出力データ生成部260は、圧縮済画像データと元の画像データとの間の同じ画素位置での画素値(例えば、輝度値)の差分を算出し、得られた差分の合計値を、所定の閾値と比較してもよい。この場合、合計差分が小さいほど、画質低下の度合いが小さい。このように、圧縮済画像データと元の画像データとの間の同じ画素位置での画素値の差分を用いて得られる評価値(例えば、合計差分や平均差分等の画素値の差分を表す代表値)を算出し、算出された評価値が許容範囲内にあるか否かを判定する方法を採用してもよい。いずれの場合も、評価結果の許容範囲としては、画質低下の度合いが所定の基準よりも小さいことを示す範囲を採用可能である。そのような許容範囲は、種々の対象画像を用いて実験的に決定可能である。 (4) In the embodiment of FIG. 5, as a method for evaluating the degree of image quality deterioration, a value obtained by using the edge amount as an evaluation value of the degree of image quality deterioration (for example, not only the average edge amount but the total edge amount) For example, it is possible to adopt various methods without being limited to the method of calculating whether or not the calculated evaluation value is within the allowable range. For example, the output data generation unit 260 calculates a difference between pixel values (for example, luminance values) at the same pixel position between the compressed image data and the original image data, and calculates the total value of the obtained differences. You may compare with a predetermined threshold value. In this case, the smaller the total difference, the smaller the degree of image quality degradation. Thus, an evaluation value obtained by using a difference in pixel values at the same pixel position between the compressed image data and the original image data (for example, a representative representing a difference in pixel values such as a total difference or an average difference). Value) and determining whether or not the calculated evaluation value is within an allowable range may be employed. In either case, as the allowable range of the evaluation result, a range indicating that the degree of image quality deterioration is smaller than a predetermined standard can be employed. Such an allowable range can be experimentally determined using various target images.

(5)画像処理の手順としては、図2、図5の手順に限らず、種々の手順を採用可能である。例えば、ステップS170、S180を省略してもよい。この場合、非文字領域には、保存先画像が配置され、非文字画像は省略される。例えば、図3の出力画像OI1の写真領域Op1axには、QRコードSi1が配置され、写真画像Op1xは省略される。また、ステップS120〜S190が、ステップS210よりも後に実行されてもよい。 (5) The procedure of image processing is not limited to the procedure shown in FIGS. 2 and 5, and various procedures can be adopted. For example, steps S170 and S180 may be omitted. In this case, the storage destination image is arranged in the non-character area, and the non-character image is omitted. For example, the QR code Si1 is arranged in the photographic region Op1ax of the output image OI1 in FIG. 3, and the photographic image Op1x is omitted. Steps S120 to S190 may be executed after step S210.

(6)出力画像データの形式としては、PDF形式に限らず、他の任意の形式を採用可能である。例えば、PostScript(登録商標)やPDF形式等のPDL(Page Description Language)形式を採用可能である。また、PDL形式に限らず、ビットマップ形式等の他の形式を採用してもよい。また、対象画像データの形式としては、スキャナ300によって生成され得る任意の形式を採用可能である。 (6) The format of the output image data is not limited to the PDF format, and any other format can be adopted. For example, a PDL (Page Description Language) format such as PostScript (registered trademark) or PDF format can be adopted. Further, not only the PDL format but also other formats such as a bitmap format may be adopted. Further, as the format of the target image data, any format that can be generated by the scanner 300 can be adopted.

(7)画像読み取り装置としては、スキャナ300に限らず、光学的に画像を読み取る種々の装置を採用可能である。例えば、デジタルカメラを画像読み取り装置として採用可能である。 (7) The image reading apparatus is not limited to the scanner 300, and various apparatuses that optically read an image can be used. For example, a digital camera can be employed as the image reading device.

(8)非文字保存部250による非文字画像データの保存先としては、ネットワーク900を通じて通信可能な記憶装置(例えば、サーバ400の不揮発性記憶装置430)に限らず、種々の記憶装置を採用可能である。例えば、画像処理装置100に接続されたリムーバブルメモリ(図示せず。例えば、USBフラッシュメモリ)を採用してもよい。この場合、保存先としては、非文字画像データの格納場所を表すパス名を採用可能である。 (8) The storage destination of the non-character image data by the non-character storage unit 250 is not limited to a storage device that can communicate through the network 900 (for example, the nonvolatile storage device 430 of the server 400), and various storage devices can be adopted. It is. For example, a removable memory (not shown, for example, a USB flash memory) connected to the image processing apparatus 100 may be employed. In this case, a path name representing the storage location of the non-character image data can be adopted as the storage destination.

(9)画像処理システムの構成としては、図1に示す構成に限らず、種々の構成を採用可能である。例えば、画像処理装置100とスキャナ300とが、1つの装置(例えば、複合機)に組み込まれてもよい。 (9) The configuration of the image processing system is not limited to the configuration shown in FIG. 1, and various configurations can be employed. For example, the image processing apparatus 100 and the scanner 300 may be incorporated into one apparatus (for example, a multifunction peripheral).

(10)画像処理のための機能(例えば、図1の処理部210〜270)は、パーソナルコンピュータとは異なる種類の装置(例えば、デジタルカメラ、スキャナ、携帯電話、複合機)によって実現されてもよい。また、スキャナと画像処理装置とはネットワークで接続されていてもよい。ネットワークは無線にかかわらず有線であってもよいし、ローカルエリアネットワークであってもワイドエリアネットワークであってもよい。また、ネットワークを介して互いに通信可能な複数の装置(例えば、コンピュータ)が、画像処理のための機能を一部ずつ分担して、全体として、画像処理のための機能を提供してもよい(これらの装置を備えるシステムが画像処理装置に対応する)。 (10) Functions for image processing (for example, the processing units 210 to 270 in FIG. 1) may be realized by a device of a different type from a personal computer (for example, a digital camera, a scanner, a mobile phone, or a multifunction device). Good. Further, the scanner and the image processing apparatus may be connected via a network. The network may be wired regardless of wireless, and may be a local area network or a wide area network. In addition, a plurality of devices (for example, computers) that can communicate with each other via a network may share a part of the function for image processing and provide the function for image processing as a whole ( A system including these devices corresponds to an image processing device).

上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図1の文字圧縮部230の機能を、論理回路を有する専用のハードウェア回路によって実現してもよい。   In each of the above embodiments, a part of the configuration realized by hardware may be replaced with software, and conversely, part or all of the configuration realized by software may be replaced with hardware. Also good. For example, the function of the character compression unit 230 in FIG. 1 may be realized by a dedicated hardware circuit having a logic circuit.

また、本発明の機能の一部または全部がコンピュータプログラムで実現される場合には、そのプログラムは、コンピュータ読み取り可能な記録媒体(例えば、一時的ではない記録媒体)に格納された形で提供することができる。プログラムは、提供時と同一または異なる記録媒体(コンピュータ読み取り可能な記録媒体)に格納された状態で、使用され得る。「コンピュータ読み取り可能な記録媒体」は、メモリーカードやCD−ROMのような携帯型の記録媒体に限らず、各種ROM等のコンピュータ内の内部記憶装置や、ハードディスクドライブ等のコンピュータに接続されている外部記憶装置も含んでいる。   When a part or all of the functions of the present invention are realized by a computer program, the program is provided in a form stored in a computer-readable recording medium (for example, a non-temporary recording medium). be able to. The program can be used in a state where it is stored in the same or different recording medium (computer-readable recording medium) as provided. The “computer-readable recording medium” is not limited to a portable recording medium such as a memory card or a CD-ROM, but is connected to an internal storage device in a computer such as various ROMs or a computer such as a hard disk drive. It also includes an external storage device.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。   As mentioned above, although this invention was demonstrated based on the Example and the modification, Embodiment mentioned above is for making an understanding of this invention easy, and does not limit this invention. The present invention can be changed and improved without departing from the spirit and scope of the claims, and equivalents thereof are included in the present invention.

100...画像処理装置、110...CPU、120...揮発性記憶装置、130...不揮発性記憶装置、132...プログラム、140...表示部、150...操作部、160...装置インタフェース、170...通信インタフェース、210...対象データ取得部、220...検出部、230...文字圧縮部、240...非文字圧縮部、250...非文字保存部、260...出力データ生成部、270...スキャナ制御部、300...スキャナ、310...制御装置、320...読取機構、400...サーバ、410...制御装置、430...不揮発性記憶装置、434...非文字画像ファイル、470...通信インタフェース、800...画像処理システム、900...ネットワーク、1000...ネットワークシステム DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 110 ... CPU, 120 ... Volatile storage device, 130 ... Nonvolatile storage device, 132 ... Program, 140 ... Display part, 150 ... Operation , 160 ... device interface, 170 ... communication interface, 210 ... target data acquisition unit, 220 ... detection unit, 230 ... character compression unit, 240 ... non-character compression unit, 250 ... non-character storage unit, 260 ... output data generation unit, 270 ... scanner control unit, 300 ... scanner, 310 ... control device, 320 ... reading mechanism, 400 ... server , 410 ... Control device, 430 ... Non-volatile storage device, 434 ... Non-character image file, 470 ... Communication interface, 800 ... Image processing system, 900 ... Network, 1000 .. Network system

Claims (7)

画像処理装置であって、
画像読み取り装置によって生成された画像データであって対象画像を表す対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像である非文字画像を表す領域である非文字領域と、を検出する検出部と、
前記対象画像データのうちの前記文字領域を表す部分を圧縮することによって、前記文字を表す圧縮済文字画像データを生成する文字圧縮部と、
前記対象画像データを用いることによって、前記非文字領域の前記非文字画像を表す非文字画像データを取得し、前記取得した非文字画像データを記憶部に保存させる保存部と、
前記圧縮済文字画像データと、前記非文字画像データの保存先を表す情報である保存先情報を表す保存先データと、を含み、前記非文字画像データを含まない、出力画像データを生成するデータ生成部と、
を備える、画像処理装置。
An image processing apparatus,
By analyzing the target image data representing the target image, which is the image data generated by the image reading device, the character region that represents the character and the non-character image that is a non-character image that is a non-character image A detection unit for detecting a character area;
A character compression unit that generates compressed character image data representing the character by compressing a portion representing the character region of the target image data;
By using the target image data, a non-character image data representing the non-character image of the non-character region is acquired, and a storage unit that stores the acquired non-character image data in a storage unit;
Data that generates output image data that includes the compressed character image data and storage destination data that represents storage destination information that is information indicating the storage destination of the non-character image data, and does not include the non-character image data. A generator,
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、さらに、
前記対象画像データのうちの前記非文字領域を表す部分を圧縮することによって、前記非文字画像を表す圧縮済非文字画像データを生成する非文字圧縮部を有し、
前記データ生成部は、前記圧縮済非文字画像データを含む前記出力画像データを生成する、
画像処理装置。
The image processing apparatus according to claim 1, further comprising:
A non-character compression unit that generates compressed non-character image data representing the non-character image by compressing a portion representing the non-character area of the target image data;
The data generation unit generates the output image data including the compressed non-character image data;
Image processing device.
請求項2に記載の画像処理装置であって、
前記データ生成部は、
前記非文字画像の前記圧縮による画質低下の度合いを評価し、
前記評価の結果が許容範囲の内である場合には、前記圧縮済文字画像データと、前記圧縮済非文字画像データと、を含み、前記保存先データを含まない、前記出力画像データを生成し、
前記評価の結果が前記許容範囲の外である場合には、前記圧縮済文字画像データと、前記圧縮済非文字画像データと、前記保存先データと、を含む前記出力画像データを生成する、
画像処理装置。
The image processing apparatus according to claim 2,
The data generator is
Evaluate the degree of image quality degradation due to the compression of the non-character image,
When the result of the evaluation is within an allowable range, the output image data including the compressed character image data and the compressed non-character image data and not including the storage destination data is generated. ,
When the result of the evaluation is outside the allowable range, the output image data including the compressed character image data, the compressed non-character image data, and the storage destination data is generated.
Image processing device.
請求項1から3のいずれか1項に記載の画像処理装置であって、
前記保存先情報は、符号化された前記保存先を表すシンボル画像である、画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image processing apparatus, wherein the storage destination information is a symbol image representing the encoded storage destination.
請求項1から4のいずれか1項に記載の画像処理装置であって、
前記保存先情報は、前記保存先を表す画像であって、前記保存先情報の少なくとも一部が前記非文字領域に対応する領域と重なる位置に、配置されている、画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The image processing apparatus, wherein the storage destination information is an image representing the storage destination, and is arranged at a position where at least a part of the storage destination information overlaps an area corresponding to the non-character area.
前記対象画像データを生成する画像読み取り装置と、
請求項1から5のいずれか1項に記載の画像処理装置と、
を備える画像処理システム。
An image reading device for generating the target image data;
An image processing apparatus according to any one of claims 1 to 5,
An image processing system comprising:
コンピュータプログラムであって、
画像読み取り装置によって生成された画像データであって対象画像を表す対象画像データを解析することによって、文字を表す領域である文字領域と、文字以外の画像である非文字画像を表す領域である非文字領域と、を検出する検出機能と、
前記対象画像データのうちの前記文字領域を表す部分を圧縮することによって、前記文字を表す圧縮済文字画像データを生成する文字圧縮機能と、
前記対象画像データを用いることによって、前記非文字領域の前記非文字画像を表す非文字画像データを取得し、前記取得した非文字画像データを記憶部に保存させる保存機能と、
前記圧縮済文字画像データと、前記非文字画像データの保存先を表す情報である保存先情報を表す保存先データと、を含み、前記非文字画像データを含まない、出力画像データを生成するデータ生成機能と、
をコンピュータに実現させるプログラム。
A computer program,
By analyzing the target image data representing the target image, which is the image data generated by the image reading device, the character region that represents the character and the non-character image that is a non-character image that is a non-character image A detection function for detecting a character area;
A character compression function for generating compressed character image data representing the character by compressing a portion representing the character region of the target image data;
By using the target image data, a non-character image data representing the non-character image of the non-character region is acquired, and a storage function for storing the acquired non-character image data in a storage unit;
Data that generates output image data that includes the compressed character image data and storage destination data that represents storage destination information that is information indicating the storage destination of the non-character image data, and does not include the non-character image data. Generation function,
A program that makes a computer realize.
JP2013182300A 2013-09-03 2013-09-03 Image processor, image processing system, and program Pending JP2015049795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013182300A JP2015049795A (en) 2013-09-03 2013-09-03 Image processor, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013182300A JP2015049795A (en) 2013-09-03 2013-09-03 Image processor, image processing system, and program

Publications (1)

Publication Number Publication Date
JP2015049795A true JP2015049795A (en) 2015-03-16

Family

ID=52699731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013182300A Pending JP2015049795A (en) 2013-09-03 2013-09-03 Image processor, image processing system, and program

Country Status (1)

Country Link
JP (1) JP2015049795A (en)

Similar Documents

Publication Publication Date Title
US10432820B2 (en) Image processing apparatus, image processing system, control method for image processing apparatus, and non-transitory computer readable medium
US9473669B2 (en) Electronic document generation system, electronic document generation apparatus, and recording medium
RU2640296C1 (en) Method and device for determining document suitability for optical character recognition (ocr) on server
US8538154B2 (en) Image processing method and image processing apparatus for extracting heading region from image of document
US20150146224A1 (en) Image processing apparatus and image processing method
US10044906B2 (en) Image processing apparatus, medium storing program executable by image processing apparatus, and system
US20140355060A1 (en) Image forming apparatus, method for controlling image forming apparatus, and storage medium for displaying image information on a preview screen
US8958108B2 (en) Apparatus and program product for processing page images with defined page order to increase editing flexibilty
US9826155B2 (en) Detecting a document
US20190058805A1 (en) Image processing apparatus, and method of controlling the same
JP2018018361A (en) Data processor and computer program
CN111753850A (en) Document processing method, apparatus, computer device, and computer-readable storage medium
JP4135656B2 (en) Image region determination method, image processing apparatus, and program
US10628713B2 (en) Mobile terminal, image processing method, and computer-readable recording medium
JP6019661B2 (en) Image reading apparatus, image processing method, and image processing program
US11405525B2 (en) Image processing apparatus, control method, and product capable of improving compression efficiency by converting close color to background color in a low light reading mode
US20150268913A1 (en) Image processing system, image processing device, and processing control device
US8380685B2 (en) Information processing apparatus, control method thereof, computer program, and storage medium
JP2015049795A (en) Image processor, image processing system, and program
US11288536B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2005316813A (en) Image processing method, image processing program, and image processor
US9560238B2 (en) Portable terminal capable of displaying image, control method therefor, and storage medium storing control program therefor
JP6474161B2 (en) Image processing apparatus, image processing method, and image processing program
JP2007006411A (en) Image processing equipment
JP6707903B2 (en) Output device and computer program