[go: up one dir, main page]

JP2018164173A - Image reading apparatus and program - Google Patents

Image reading apparatus and program Download PDF

Info

Publication number
JP2018164173A
JP2018164173A JP2017059720A JP2017059720A JP2018164173A JP 2018164173 A JP2018164173 A JP 2018164173A JP 2017059720 A JP2017059720 A JP 2017059720A JP 2017059720 A JP2017059720 A JP 2017059720A JP 2018164173 A JP2018164173 A JP 2018164173A
Authority
JP
Japan
Prior art keywords
image
data
unit
format
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017059720A
Other languages
Japanese (ja)
Inventor
治久 星野
Haruhisa Hoshino
治久 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017059720A priority Critical patent/JP2018164173A/en
Publication of JP2018164173A publication Critical patent/JP2018164173A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the performance of retrieving data having an object attached thereto.SOLUTION: An acquisition unit 111 acquires image data indicating a first image read by a reading unit 16. A reception unit 112 receives information on an object which is instructed to be attached to the first image by a user with the use of, for example, a touch panel 151. A determination unit 114 reads out a setting table 121 stored in a storage unit 12 so as to determine an output format. If the output format determined by the determination unit 114 is a first format which expresses a plurality of pieces of data as a collection of elements, then an output unit 115 outputs first data including the first image, the object, and positional information including a position of the object in the first image.SELECTED DRAWING: Figure 7

Description

本発明は、画像読取装置、及びプログラムに関する。   The present invention relates to an image reading apparatus and a program.

特許文献1には、原稿画像を読取った画像データを画像形成前にプレビュー表示する機能を備えた画像形成装置において、プレビュー表示されたプレビュー画像上でのタッチ位置の軌跡を検知し、検知した軌跡による線図形を原稿画像の画像データに追記して印刷することを特徴とする画像形成装置が開示されている。   In Patent Document 1, in an image forming apparatus having a function of previewing image data obtained by reading a document image before image formation, a locus of a touch position on the preview image displayed as a preview is detected, and the detected locus is detected. An image forming apparatus is disclosed in which a line figure according to is added to image data of a document image and printed.

特開2010−200225号公報JP 2010-200285 A

本発明は、オブジェクトを付加した画像データの検索性を向上させることを目的とする。   An object of the present invention is to improve the searchability of image data to which an object is added.

上述した課題を解決するため、本発明の請求項1に係る画像読取装置は、媒体に形成された第1画像を読取る読取部と、前記第1画像に付加するオブジェクトを利用者から受付ける受付部と、出力の形式が複数のデータを構成要素の集まりとして表現する第1形式である場合、前記第1画像、前記オブジェクト、及び該第1画像における該オブジェクトの位置を示す位置情報をそれぞれ包含する第1データを出力する出力部と、を有する。   In order to solve the above-described problem, an image reading apparatus according to a first aspect of the present invention includes a reading unit that reads a first image formed on a medium, and a reception unit that receives an object to be added to the first image from a user. When the output format is a first format that expresses a plurality of data as a collection of components, the first image, the object, and position information indicating the position of the object in the first image are included. An output unit for outputting first data.

本発明の請求項2に係る画像読取装置は、請求項1に記載の態様において、前記出力部は、前記出力の形式がラスタ形式の画像データのみで表現する第2形式である場合、前記第1画像における、前記位置情報が示す位置に前記オブジェクトを合成した第2画像を示す第2データを出力することを特徴とする。   An image reading apparatus according to a second aspect of the present invention is the image reading apparatus according to the first aspect, wherein the output unit has the second format in which the output format is a second format represented only by raster format image data. Second data indicating a second image obtained by synthesizing the object at a position indicated by the position information in one image is output.

本発明の請求項3に係る画像読取装置は、請求項2に記載の態様において、前記出力部は、前記第2データを出力する場合、該第2データに関連付けて前記第1画像を示す第3データを出力することを特徴とする。   An image reading apparatus according to a third aspect of the present invention is the image reading device according to the second aspect, wherein the output unit indicates the first image in association with the second data when outputting the second data. It outputs 3 data.

本発明の請求項4に係る画像読取装置は、請求項3に記載の態様において、前記出力部は、前記第2データにより示される前記第2画像、及び、前記第3データにより示される前記第1画像を、連続したページに出力することを特徴とする。   An image reading apparatus according to a fourth aspect of the present invention is the image reading apparatus according to the third aspect, wherein the output unit includes the second image indicated by the second data and the third data indicated by the third data. One image is output to continuous pages.

本発明の請求項5に係る画像読取装置は、請求項1から4のいずれか1項に記載の態様において、前記オブジェクトは文字の情報を含むことを特徴とする。   An image reading apparatus according to a fifth aspect of the present invention is the image reading apparatus according to any one of the first to fourth aspects, wherein the object includes character information.

本発明の請求項6に係る画像読取装置は、請求項1から5のいずれか1項に記載の態様において、前記受付部は、前記第1画像において予め決められた複数の位置の中から前記オブジェクトの位置を選択する、前記利用者の指示を受付けることを特徴とする。   An image reading apparatus according to a sixth aspect of the present invention is the image reading apparatus according to any one of the first to fifth aspects, wherein the reception unit is configured to select the position from a plurality of positions determined in advance in the first image. The user's instruction for selecting the position of the object is received.

本発明の請求項7に係る画像読取装置は、請求項1から6のいずれか1項に記載の態様において、前記第1画像から予め決められた条件を満たす領域を抽出する抽出部、を有し、前記出力部は、前記領域が抽出され、かつ、前記出力の形式が第1形式である場合、該領域から前記オブジェクトを生成し、該オブジェクト、該領域に対応した前記位置情報、及び前記第1画像を包含する前記第1データを出力することを特徴とする。   An image reading apparatus according to a seventh aspect of the present invention includes the extraction unit according to any one of the first to sixth aspects, wherein the extraction unit extracts a region satisfying a predetermined condition from the first image. The output unit generates the object from the region when the region is extracted and the format of the output is the first format, the object, the position information corresponding to the region, and the The first data including the first image is output.

本発明の請求項8に係るプログラムは、媒体に形成された第1画像を読取る読取部を有するコンピュータを、前記第1画像に付加するオブジェクトを利用者から受付ける受付部と、出力の形式が複数のデータを構成要素の集まりとして表現する第1形式である場合、前記第1画像、前記オブジェクト、及び該第1画像における該オブジェクトの位置を示す位置情報をそれぞれ包含する第1データを出力する出力部として機能させるためのプログラムである。   According to an eighth aspect of the present invention, there is provided a program having a reading unit that reads a first image formed on a medium, a receiving unit that receives an object to be added to the first image from a user, and a plurality of output formats. Output the first data including each of the first image, the object, and position information indicating the position of the object in the first image in the first format that represents the data of This is a program for functioning as a part.

請求項1、8に係る発明によれば、第1データを出力しない態様に比べて、オブジェクトが付加されたデータの検索性を向上させることができる。
請求項2に係る発明によれば、出力の形式に応じたデータが出力される。
請求項3に係る発明によれば、出力の形式が第2形式である場合、オブジェクトを付加した後のデータに加えて、オブジェクトを付加する前のデータが出力される。
請求項4に係る発明によれば、オブジェクトを付加する前後の画像が連続したページとして出力される。
請求項5に係る発明によれば、オブジェクトが文字によって検索される。
請求項6に係る発明によれば、第1画像におけるオブジェクトの位置が選択される。
請求項7に係る発明によれば、第1画像から生成されたオブジェクトを包含する第1データが出力される。
According to the first and eighth aspects of the invention, it is possible to improve the searchability of the data to which the object is added, as compared with the aspect in which the first data is not output.
According to the invention of claim 2, data corresponding to the output format is output.
According to the invention of claim 3, when the output format is the second format, in addition to the data after adding the object, the data before adding the object is output.
According to the invention of claim 4, the images before and after adding the object are output as continuous pages.
According to the fifth aspect of the present invention, an object is searched for by characters.
According to the invention of claim 6, the position of the object in the first image is selected.
According to the seventh aspect of the invention, the first data including the object generated from the first image is output.

本実施形態に係る画像処理システム9の全体構成を示す図。The figure which shows the whole structure of the image processing system 9 which concerns on this embodiment. 端末2の構成の一例を示す図。The figure which shows an example of a structure of the terminal. 画像読取装置1の構成を示す図。1 is a diagram illustrating a configuration of an image reading apparatus 1. FIG. 設定表121の例を示す図。The figure which shows the example of the setting table. 画像読取装置1の外観を示す図。1 is a diagram illustrating an appearance of an image reading apparatus 1. FIG. 表示部14が有する表示画面141の例を示す図。The figure which shows the example of the display screen 141 which the display part 14 has. 画像読取装置1の機能的構成を示す図。2 is a diagram illustrating a functional configuration of the image reading apparatus 1. FIG. 付加されたオブジェクトを確認するプレビュー画面の例。An example of a preview screen for confirming an added object. 画像読取装置1の動作の流れを説明するフロー図。FIG. 3 is a flowchart for explaining an operation flow of the image reading apparatus 1.

1.実施形態
1−1.画像処理システムの全体構成
図1は、本実施形態に係る画像処理システム9の全体構成を示す図である。画像処理システム9は、LAN(Local Area Network)及びWAN(Wide Area Network)等を形成する通信回線4と、この通信回線4に接続された画像読取装置1、及び端末2を有する。
1. Embodiment 1-1. Overall Configuration of Image Processing System FIG. 1 is a diagram showing an overall configuration of an image processing system 9 according to the present embodiment. The image processing system 9 includes a communication line 4 that forms a local area network (LAN), a wide area network (WAN), and the like, an image reading device 1 connected to the communication line 4, and a terminal 2.

図1に示す端末2は、通信回線4を介して画像読取装置1が出力したデータを受取る端末である。画像処理システム9が有する端末2は図1に示す通り、1つであってもよいし、複数であってもよい。   A terminal 2 shown in FIG. 1 is a terminal that receives data output from the image reading apparatus 1 via a communication line 4. As shown in FIG. 1, the image processing system 9 may have one terminal 2 or a plurality of terminals 2.

図1に示す画像読取装置1は、媒体に形成された画像(第1画像という)を読取り、この第1画像に利用者から受付けたオブジェクトを付加したデータを出力する装置である。媒体とは、例えば用紙等である。画像処理システム9が有する画像読取装置1は図1に示す通り1つであってもよいし、複数であってもよい。   An image reading apparatus 1 shown in FIG. 1 is an apparatus that reads an image (referred to as a first image) formed on a medium and outputs data obtained by adding an object received from a user to the first image. The medium is, for example, paper. The image processing apparatus 9 included in the image processing system 9 may be one as shown in FIG. 1 or plural.

オブジェクトとは、画像に重ねて表現される画像の要素であり、利用者が画像読取装置1を操作することにより、読取られた第1画像に重ねて配置される。オブジェクトは、例えば、利用者の操作子の軌跡を示す線分、利用者の操作により選択される文字、画像等、及びこれらの組合せである。また、オブジェクトは、例えば減色フィルタ、階調反転フィルタ、ガウシアンフィルタ等、重ねられる第1画像に対する作用を示す情報であってもよい。また、オブジェクトは、変化する画像であるアニメーションであってもよい。アニメーションは、例えば周期的に変化してもよいし、液晶画面等に表示されるタイミング又は操作のタイミング等で変化してもよい。   An object is an element of an image that is represented by being superimposed on the image, and is disposed so as to be superimposed on the first image that is read when the user operates the image reading device 1. The object is, for example, a line segment indicating the locus of the user's operation element, a character selected by the user's operation, an image, or the like, and a combination thereof. The object may be information indicating an action on the first image to be overlaid, such as a subtractive color filter, a gradation inversion filter, and a Gaussian filter. The object may be an animation that is a changing image. The animation may change periodically, for example, or may change at the timing displayed on the liquid crystal screen or the operation timing.

1−2.端末の構成
図2は、端末2の構成の一例を示す図である。端末2は、制御部21、記憶部22、通信部23、表示部24、及び操作部25を有する。
1-2. Terminal Configuration FIG. 2 is a diagram illustrating an example of the configuration of the terminal 2. The terminal 2 includes a control unit 21, a storage unit 22, a communication unit 23, a display unit 24, and an operation unit 25.

制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROM及び記憶部22に記憶されているコンピュータプログラム(以下、単にプログラムという)を読出して実行することにより端末2の各部を制御する。   The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and a computer program (hereinafter simply referred to as a program) in which the CPU is stored in the ROM and the storage unit 22. Is read and executed to control each part of the terminal 2.

記憶部22は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部21のCPUに読込まれる各種のプログラムを記憶する。   The storage unit 22 is a large-capacity storage unit such as a solid state drive or a hard disk drive, and stores various programs read by the CPU of the control unit 21.

通信部23は、無線又は有線により通信回線4に接続する通信回路である。端末2は、通信部23により通信回線4を介して画像読取装置1と情報を遣り取りする。   The communication unit 23 is a communication circuit connected to the communication line 4 by wireless or wired. The terminal 2 exchanges information with the image reading apparatus 1 through the communication line 4 by the communication unit 23.

操作部25は、各種の指示をするための操作ボタン等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部21に供給する。また、操作部25は、利用者の指又はスタイラスペン等の操作体の接触又は圧力等を検知するタッチパネルを有していてもよい。   The operation unit 25 includes operation elements such as operation buttons for giving various instructions. The operation unit 25 receives an operation by a user and supplies a signal corresponding to the operation content to the control unit 21. The operation unit 25 may have a touch panel that detects contact or pressure of an operation body such as a user's finger or stylus pen.

表示部24は、液晶ディスプレイを有しており、制御部21の制御の下、画像を表示する。表示部24の液晶ディスプレイの上には、操作部25の透明のタッチパネルが重ねて配置されてもよい。   The display unit 24 includes a liquid crystal display and displays an image under the control of the control unit 21. On the liquid crystal display of the display unit 24, the transparent touch panel of the operation unit 25 may be arranged to overlap.

1−3.画像読取装置の構成
図3は、画像読取装置1の構成を示す図である。画像読取装置1は、制御部11、記憶部12、通信部13、表示部14、操作部15、及び読取部16を有する。また、画像読取装置1は、図3に破線で示す形成部17を有してもよい。
1-3. Configuration of Image Reading Device FIG. 3 is a diagram illustrating a configuration of the image reading device 1. The image reading apparatus 1 includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, an operation unit 15, and a reading unit 16. Further, the image reading apparatus 1 may include a forming unit 17 indicated by a broken line in FIG.

制御部11は、CPU、ROM、RAMを有し、CPUがROM及び記憶部12に記憶されているプログラムを読出して実行することにより画像読取装置1の各部を制御する。   The control unit 11 includes a CPU, a ROM, and a RAM, and controls each unit of the image reading device 1 by the CPU reading and executing a program stored in the ROM and the storage unit 12.

通信部13は、無線又は有線により通信回線4に接続する通信回路である。画像読取装置1は、通信部13により通信回線4を介して端末2と情報を遣り取りする。   The communication unit 13 is a communication circuit that connects to the communication line 4 wirelessly or by wire. The image reading apparatus 1 exchanges information with the terminal 2 through the communication line 4 by the communication unit 13.

操作部15は、各種の指示をするための操作ボタン等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。また、操作部15は、利用者の指又はスタイラスペン等の操作体を検知するタッチパネル151を有する。利用者は、画像読取装置1を利用する際に操作部15を介して自分の識別情報を制御部11に伝えてもよい。また、操作部15は、例えばカードリーダ等、利用者を識別する手段を有していてもよい。   The operation unit 15 includes operation elements such as operation buttons for giving various instructions. The operation unit 15 receives an operation by a user and supplies a signal corresponding to the operation content to the control unit 11. The operation unit 15 includes a touch panel 151 that detects an operation body such as a user's finger or a stylus pen. The user may transmit his / her identification information to the control unit 11 via the operation unit 15 when using the image reading apparatus 1. Further, the operation unit 15 may have a means for identifying the user, such as a card reader.

表示部14は、液晶ディスプレイ等の表示画面141を有しており、制御部11の制御の下、画像を表示する。表示画面141の上には、操作部15の透明のタッチパネル151が重ねて配置されている。   The display unit 14 has a display screen 141 such as a liquid crystal display, and displays an image under the control of the control unit 11. On the display screen 141, the transparent touch panel 151 of the operation unit 15 is disposed so as to overlap.

記憶部12は、ソリッドステートドライブ、ハードディスクドライブ等の大容量の記憶手段であり、制御部11のCPUに読込まれる各種のプログラムを記憶する。また、記憶部12は、設定表121を記憶する。   The storage unit 12 is a large-capacity storage unit such as a solid state drive or a hard disk drive, and stores various programs read by the CPU of the control unit 11. In addition, the storage unit 12 stores a setting table 121.

図4は、設定表121の例を示す図である。図4(a)には、画像読取装置1を利用する利用者の識別情報である「利用者ID」、画像読取装置1が出力するデータの名称である「データ名」、及びデータの形式の名称である「形式名」等、各種の設定が記憶されている。例えば、図4(a)に示す例で、利用者IDは「U01」であり、データ名は「F991」であり、形式名は「第1形式b」である。   FIG. 4 is a diagram illustrating an example of the setting table 121. FIG. 4A shows the “user ID” that is identification information of the user who uses the image reading apparatus 1, the “data name” that is the name of data output by the image reading apparatus 1, and the format of the data. Various settings such as a “form name” as a name are stored. For example, in the example shown in FIG. 4A, the user ID is “U01”, the data name is “F991”, and the format name is “first format b”.

図4(a)に示した設定表121は、画像読取装置1に対する利用者の操作によって更新される。画像読取装置1の制御部11は、設定表121に記述された形式名を読出して、利用者が操作部15を操作して画像読取装置1に出力させようと指定したデータの形式を特定する。設定表121は、例えば制御部11のRAMに記憶されてもよい。この場合、記憶部12は、設定表121を記憶しなくてもよい。   The setting table 121 shown in FIG. 4A is updated by a user operation on the image reading apparatus 1. The control unit 11 of the image reading device 1 reads the format name described in the setting table 121 and specifies the format of data designated by the user to operate the operation unit 15 to be output to the image reading device 1. . The setting table 121 may be stored in the RAM of the control unit 11, for example. In this case, the storage unit 12 may not store the setting table 121.

なお、画像読取装置1が出力するデータの形式は、利用者によって指定されるものに限られない。例えば、図4(b)に示す設定表121は、「利用者ID」と「形式名」とを対応付けて記憶する。図4(b)に示す設定表121では、予め利用者ごとに出力するデータの形式が決められているため、画像読取装置1が利用者を識別したときに、データの形式が特定される。   Note that the format of data output by the image reading apparatus 1 is not limited to that specified by the user. For example, the setting table 121 illustrated in FIG. 4B stores “user ID” and “format name” in association with each other. In the setting table 121 shown in FIG. 4B, since the format of data to be output for each user is determined in advance, the format of the data is specified when the image reading apparatus 1 identifies the user.

また、例えば図4(c)に示す設定表121は、画像読取装置1が第1画像を読取った時刻、又は、画像読取装置1がデータを出力する時刻等、画像読取装置1のいずれかの機能を利用する時刻が属する「時間帯」ごとに「形式名」を対応付けている。図4(c)に示す設定表121では、予め利用する時間帯に対してデータの形式が決められているため、画像読取装置1が利用者に利用される時刻に応じてデータの形式が特定される。   Further, for example, the setting table 121 illustrated in FIG. 4C indicates any of the image reading devices 1 such as the time when the image reading device 1 reads the first image or the time when the image reading device 1 outputs data. A “format name” is associated with each “time zone” to which the time to use the function belongs. In the setting table 121 shown in FIG. 4C, since the data format is determined in advance for the time zone to be used, the data format is specified according to the time when the image reading apparatus 1 is used by the user. Is done.

読取部16は、媒体を光学的に読取る手段である。読取部16は、例えばCCD(Charge Coupled Device)イメージセンサ等の撮像素子を備え、媒体に形成された第1画像を読取り、この第1画像を示す画像データを生成する。   The reading unit 16 is a unit that optically reads a medium. The reading unit 16 includes an imaging device such as a CCD (Charge Coupled Device) image sensor, reads a first image formed on a medium, and generates image data indicating the first image.

形成部17は、画像データに基づいて画像を形成する手段である。形成部17は、例えば、電子写真方式や熱転写方式によって画像を用紙に形成する。   The forming unit 17 is a unit that forms an image based on the image data. The forming unit 17 forms an image on a sheet by, for example, an electrophotographic method or a thermal transfer method.

図5は、画像読取装置1の外観を示す図である。図5に示す画像読取装置1は、上部に読取部16が有する、ガラス等で保護された図示しない読取面を有する本体と、この本体に蝶番で開閉可能に取付けられたシートフィーダとを有する。シートフィーダは、媒体を連続して読取面に供給する装置である。   FIG. 5 is a diagram illustrating an appearance of the image reading apparatus 1. The image reading apparatus 1 shown in FIG. 5 includes a main body having a reading surface (not shown) protected by glass or the like, and a sheet feeder attached to the main body by a hinge so as to be opened and closed. The sheet feeder is a device that continuously supplies a medium to a reading surface.

利用者は、画像が形成された複数の媒体を閉じた状態のシートフィーダに設置して、これら複数の媒体にそれぞれ形成された画像を画像読取装置1に連続して読取らせる。また、利用者は、シートフィーダを開けて、読取面に直接、1枚の媒体を設置して、この媒体に形成された画像を画像読取装置1に読取らせる。   A user installs a plurality of media on which images are formed on a sheet feeder in a closed state, and causes the image reading apparatus 1 to continuously read images formed on the plurality of media. In addition, the user opens the sheet feeder, installs one medium directly on the reading surface, and causes the image reading apparatus 1 to read an image formed on the medium.

また、本体は、形成部17を有する。形成部17は、予め定められたサイズにカットされた、媒体としての用紙が収容される収容器を有し、制御部11の指示により搬送ロールによって収容器から用紙を1枚ずつ取り出して、この用紙に、感光体及び転写ベルト等に形成された画像を転写することで画像を形成する。なお、媒体は用紙に限らず、例えば樹脂製のシート等であってもよい。要するに、媒体は、表面に画像を記録し得るものであればよい。   Further, the main body has a forming portion 17. The forming unit 17 includes a container that stores paper as a medium that has been cut into a predetermined size, and in accordance with an instruction from the control unit 11, the paper is taken out from the container one by one by a transport roll. An image is formed by transferring an image formed on a photosensitive member, a transfer belt, or the like onto a sheet. The medium is not limited to paper, and may be a resin sheet, for example. In short, the medium may be any medium that can record an image on the surface.

上述したシートフィーダは、表示部14及び操作部15を有する。図6は、表示部14が有する表示画面141の例を示す図である。利用者が操作部15により第1画像の読取りの指示をすると、読取部16は、媒体に形成された第1画像を読取り、その第1画像を示す画像データを制御部11に送る。制御部11は図6に示す通り、読取部16から送られた画像データに基づき、第1画像を確認するためのプレビュー画面を表示部14の表示画面141に表示させる。   The sheet feeder described above includes a display unit 14 and an operation unit 15. FIG. 6 is a diagram illustrating an example of the display screen 141 included in the display unit 14. When a user instructs the operation unit 15 to read the first image, the reading unit 16 reads the first image formed on the medium and sends image data indicating the first image to the control unit 11. As shown in FIG. 6, the control unit 11 displays a preview screen for confirming the first image on the display screen 141 of the display unit 14 based on the image data sent from the reading unit 16.

図6に示すプレビュー画面には、領域g1に第1画像が表示され、その周囲に各種のアイコン(アイコンc0、アイコンc1、アイコンc2、アイコンc3、アイコンc4)が表示される。例えばアイコンc0は、プレビュー画面を終了する指示を示し、アイコンc1は、表示された第1画像を形成部17によって媒体に形成させる指示を示す。利用者は、これらのアイコンに対応するタッチパネル151の領域を触れる(クリックする)ことにより、画像読取装置1への指示をする。また、アイコンc2、アイコンc3、アイコンc4は、それぞれ画面の拡大、オブジェクトの付加、画像読取装置1の設定の指示を示す。   On the preview screen shown in FIG. 6, the first image is displayed in the area g1, and various icons (icon c0, icon c1, icon c2, icon c3, icon c4) are displayed around the first image. For example, the icon c0 indicates an instruction to end the preview screen, and the icon c1 indicates an instruction for forming the displayed first image on the medium by the forming unit 17. The user gives an instruction to the image reading apparatus 1 by touching (clicking) the area of the touch panel 151 corresponding to these icons. An icon c2, an icon c3, and an icon c4 indicate instructions for enlarging the screen, adding an object, and setting the image reading apparatus 1, respectively.

1−4.画像読取装置の機能的構成
図7は、画像読取装置1の機能的構成を示す図である。図7に示す画像読取装置1の制御部11は、記憶部12に記憶されたプログラムを実行することにより、取得部111、受付部112、表示制御部113、特定部114、及び出力部115として機能する。また、制御部11は、図7に破線で示す通り、抽出部116として機能してもよい。
1-4. Functional Configuration of Image Reading Device FIG. 7 is a diagram illustrating a functional configuration of the image reading device 1. The control unit 11 of the image reading apparatus 1 illustrated in FIG. 7 executes the program stored in the storage unit 12 to obtain the acquisition unit 111, the reception unit 112, the display control unit 113, the specifying unit 114, and the output unit 115. Function. Moreover, the control part 11 may function as the extraction part 116 as shown with the broken line in FIG.

取得部111は、読取部16によって読取られた第1画像を示す画像データを取得する。取得部111は、操作部15の操作に応じて、読取部16に第1画像を要求してもよい。この場合、取得部111の第1画像を要求するきっかけとなる操作は受付部112によって受付けられてもよい。   The acquisition unit 111 acquires image data indicating the first image read by the reading unit 16. The acquisition unit 111 may request the first image from the reading unit 16 in accordance with the operation of the operation unit 15. In this case, an operation that causes the acquisition unit 111 to request the first image may be received by the reception unit 112.

受付部112は、利用者が例えばタッチパネル151を操作して第1画像に付加する指示をしたオブジェクトの情報を受付ける。受付部112は、オブジェクトの情報としてオブジェクトの内容を示す情報、及び、オブジェクトが第1画像に重ねられる位置を示す位置情報を受付ける。   The accepting unit 112 accepts information on an object that the user has instructed to add to the first image by operating the touch panel 151, for example. The accepting unit 112 accepts information indicating the content of the object as object information and position information indicating a position where the object is superimposed on the first image.

位置情報は、例えば第1画像の幅方向及び高さ方向の組で表される座標を含む。また位置情報は、第1画像に対して複数の層(レイヤともいう)が重ねられる場合に、オブジェクトが配置されるレイヤを識別する識別情報及びそのレイヤの重ねられる順序を示す情報等を含んでもよい。オブジェクトが配置されるレイヤの順序の情報により、例えば複数のオブジェクトが重ねられている場合に、どのオブジェクトが閲覧者に視認されるかが特定される。   The position information includes, for example, coordinates represented by a set of the width direction and the height direction of the first image. The position information may include identification information for identifying a layer in which an object is arranged and information indicating an order in which the layers are superimposed when a plurality of layers (also referred to as layers) are superimposed on the first image. Good. Information on the order of layers in which objects are arranged specifies which objects are viewed by a viewer when a plurality of objects are stacked, for example.

利用者は、例えば操作部15を介して第1画像に重ねてオブジェクトを描くと、受付部112は、描かれたオブジェクトの形状からオブジェクトの内容を特定するとともに、オブジェクトが描かれた第1画像の位置を特定して、このオブジェクトの情報を受付ける。   For example, when the user draws an object over the first image via the operation unit 15, the reception unit 112 specifies the content of the object from the shape of the drawn object, and the first image in which the object is drawn. Identify the location of and accept the information for this object.

表示制御部113は、取得部111が取得した画像データに基づき表示部14の表示画面141に第1画像を確認するためのプレビュー画面を表示させる。また、受付部112がオブジェクトの情報を受付けた場合に、表示制御部113は、第1画像にオブジェクトを付加した画像をプレビュー画面に表示させてもよい。   The display control unit 113 displays a preview screen for confirming the first image on the display screen 141 of the display unit 14 based on the image data acquired by the acquisition unit 111. Further, when the receiving unit 112 receives object information, the display control unit 113 may display an image in which the object is added to the first image on the preview screen.

なお、利用者が第1画像に対して付加するオブジェクト、及びこのオブジェクトを付加する位置を指定することが可能であれば、表示制御部113はプレビュー画面を表示させなくてもよい。この場合、表示部14は、表示画面141を有しなくてもよい。   Note that if the user can specify an object to be added to the first image and a position to add the object, the display control unit 113 may not display the preview screen. In this case, the display unit 14 may not have the display screen 141.

図8は、付加されたオブジェクトを確認するプレビュー画面の例である。利用者が操作部15への操作をすることにより、第1画像にオブジェクトを付加する指示をすると、受付部112は、指示されたオブジェクトの情報を受付けて、その情報を表示制御部113に伝える。   FIG. 8 is an example of a preview screen for confirming the added object. When a user gives an instruction to add an object to the first image by operating the operation unit 15, the receiving unit 112 receives information on the instructed object and transmits the information to the display control unit 113. .

表示制御部113は、受付けたオブジェクトの情報に基づいて、そのオブジェクトを付加した第1画像をプレビュー画面として、表示画面141に表示させる制御信号を表示部14に送る。表示部14は、表示画面141に例えば、図8に示すプレビュー画面を表示する。   Based on the received object information, the display control unit 113 sends a control signal to be displayed on the display screen 141 to the display unit 14 using the first image to which the object is added as a preview screen. For example, the display unit 14 displays a preview screen shown in FIG. 8 on the display screen 141.

図8に示すプレビュー画面では、領域g1に第1画像が表示され、この第1画像に重なる領域g21に、赤い枠で描かれたオブジェクトが表示される。この表示を見た者(閲覧者という)には、この赤い枠の内側が利用者によって強調された部分であることが伝わる。   On the preview screen shown in FIG. 8, the first image is displayed in the region g1, and the object drawn in a red frame is displayed in the region g21 overlapping the first image. A person who sees this display (referred to as a viewer) is informed that the inside of the red frame is the portion emphasized by the user.

また、図8に示すプレビュー画面では、第1画像が表示された領域g1に重なる領域g22、及び領域g23にそれぞれ、「確認」という文字列が書かれた付箋、「間違い」という文字列が書かれた付箋、というオブジェクトが表示される。これらのオブジェクトは文字の情報を含む。   In the preview screen shown in FIG. 8, a sticky note with a character string “confirmation” and a character string “wrong” are written in the region g22 and the region g23 that overlap the region g1 where the first image is displayed. An object called a sticky note is displayed. These objects contain character information.

文字の情報を含むオブジェクトは、文字による検索の対象となる。閲覧者は、例えば「間違い」という文字列を入力して画像読取装置1又は端末2に検索を実行させると、領域g23に配置されたオブジェクトが検索される。また、オブジェクトに文字を含むことにより、閲覧者はこの文字によって利用者がオブジェクトを付加した意図を把握する。   An object including character information is a search target by characters. For example, when the viewer inputs a character string “wrong” and causes the image reading apparatus 1 or the terminal 2 to execute a search, an object arranged in the region g23 is searched. Also, by including characters in the object, the viewer can grasp the intention that the user has added the object by using these characters.

なお、オブジェクトに含まれる文字は操作部15を介して利用者に指定されてもよいし、画像読取装置1により予め決められた文字列を示す複数の選択肢のいずれかが利用者に選択されることで指定されてもよい。また、オブジェクトには、画像として表示、形成されない、いわゆるメタ情報が含まれてもよい。メタ情報は、例えば、オブジェクトを付加した時刻を示す情報や、オブジェクトを付加する指示をした利用者の識別情報(利用者ID)等であってもよい。また、オブジェクトに含まれる文字は、例えばインターネットにおけるURI(Uniform Resource Identifier)等、情報が格納されている場所を示す情報であってもよい。この場合、このオブジェクトに対して、利用者が、例えばクリック等の操作をすることで、このオブジェクトに含まれるURIが示すリソースに記載された情報を取得する。   Note that characters included in the object may be designated by the user via the operation unit 15, or one of a plurality of options indicating a character string determined in advance by the image reading device 1 is selected by the user. May be specified. The object may include so-called meta information that is not displayed or formed as an image. The meta information may be, for example, information indicating the time when an object is added, identification information (user ID) of a user who gives an instruction to add an object, or the like. The character included in the object may be information indicating a location where information is stored, such as a URI (Uniform Resource Identifier) on the Internet. In this case, for example, when the user performs an operation such as clicking on the object, information described in the resource indicated by the URI included in the object is acquired.

特定部114は、記憶部12に記憶された設定表121を読出して出力の形式を特定する。出力部115は、特定部114に特定された出力の形式に応じてデータを出力する。例えば、出力部115が通信部13にデータを出力する場合、出力されるデータは通信回線4を介して端末2に受取られる。また、例えば、出力部115が形成部17にデータを出力する場合、出力されるデータが示す画像が媒体に形成される。また、例えば、出力部115が記憶部12にデータを出力する場合、そのデータは記憶部12に記憶される。   The specifying unit 114 reads the setting table 121 stored in the storage unit 12 and specifies the output format. The output unit 115 outputs data according to the output format specified by the specifying unit 114. For example, when the output unit 115 outputs data to the communication unit 13, the output data is received by the terminal 2 via the communication line 4. For example, when the output unit 115 outputs data to the forming unit 17, an image indicated by the output data is formed on the medium. For example, when the output unit 115 outputs data to the storage unit 12, the data is stored in the storage unit 12.

出力部115は、特定部114により特定された出力の形式が第1形式である場合、第1画像、オブジェクト、及び第1画像におけるオブジェクトの位置を示す位置情報をそれぞれ包含する第1データを出力する。   When the output format specified by the specifying unit 114 is the first format, the output unit 115 outputs first data including each of the first image, the object, and position information indicating the position of the object in the first image. To do.

第1形式とは、文書内のデータ構造を把握でき、構成要素の集まりとして表現する形式を意味する。具体的には、後述する、ベクタ形式やラスタ形式が組み合されている電子文書や、付箋付きのページを文書の1ページと当該ページに付加された付箋とに分解して構造を把握できる電子文書が第1形式にあたる。
ベクタ形式とは、画像において描画される形を例えば関数又はパラメータ等で表した形式である。ベクタ形式の例として、PDF(Portable Document Format)等が挙げられる。
The first format means a format in which the data structure in the document can be grasped and expressed as a collection of components. Specifically, an electronic document in which a vector format or a raster format, which will be described later, or a page with a tag is decomposed into one page of the document and a tag added to the page can be grasped. The document is in the first format.
The vector format is a format in which a shape drawn in an image is expressed by, for example, a function or a parameter. Examples of the vector format include PDF (Portable Document Format).

第1形式で表される第1データにおいて、画像を構成する個々の要素は、第1データに包含されるだけであり、それぞれ第1データの内部において独立している。そのため、第1データに包含される要素の一つであるオブジェクトは端末2において抽出及び分離することが可能であり、再編集することも可能である。また、第1データから、オブジェクトが付加される前の第1画像を復元することも可能である。   In the first data represented in the first format, the individual elements constituting the image are only included in the first data, and are independent within the first data. Therefore, an object that is one of the elements included in the first data can be extracted and separated in the terminal 2, and can be re-edited. It is also possible to restore the first image before the object is added from the first data.

また、出力部115は、出力の形式が第2形式である場合、第1画像における、位置情報が示す位置にオブジェクトを合成した第2画像を示す第2データを出力する。   Further, when the output format is the second format, the output unit 115 outputs second data indicating the second image obtained by combining the object at the position indicated by the position information in the first image.

第2形式とは、ラスタ形式に電子化された画像データのみで表現する形式を意味する。
ラスタ形式とは、格子状に配列された画素の階調によって画像を表した形式である。ラスタ形式の例として、JPEG(Joint Photographic Experts Group)、PNG(Portable Network Graphics)、GIF(Graphics Interchange Format)等が挙げられる。
The second format means a format that is expressed only by image data digitized into a raster format.
The raster format is a format in which an image is represented by gradations of pixels arranged in a grid pattern. Examples of raster formats include JPEG (Joint Photographic Experts Group), PNG (Portable Network Graphics), GIF (Graphics Interchange Format), and the like.

第2形式で表される第2データにおいて、画像を構成するそれぞれの要素は1つの画像に合成されるため、オブジェクトは端末2において抽出又は分離することが不可能であり、再編集することも不可能である。また、第2データから、オブジェクトが付加される前の第1画像を復元することも不可能である。   In the second data expressed in the second format, since each element constituting the image is synthesized into one image, the object cannot be extracted or separated in the terminal 2, and can be re-edited. Impossible. It is also impossible to restore the first image before the object is added from the second data.

なお、出力部115は、第2データを出力する場合、この第2データに関連付けて第1画像を示す第3データを出力してもよい。これにより、例えば、画像読取装置1により出力された第2データを受取った端末2は、第2データからオブジェクトが付加される前の第1画像を復元することは不可能であるが、第2データと関連付けて出力される第3データから第1画像を取得する。   When outputting the second data, the output unit 115 may output third data indicating the first image in association with the second data. Thereby, for example, the terminal 2 that has received the second data output by the image reading device 1 cannot restore the first image before the object is added from the second data. The first image is acquired from the third data output in association with the data.

抽出部116は、第1画像から予め決められた条件を満たす領域を抽出する。この条件とは、例えば、その領域に描かれた色の階調が決められた範囲にあるか、その領域に描かれた形状が矩形、楕円等、を示しているか、等である。抽出部116は、例えば、受付部112が、上述した条件を満たす領域を抽出する旨の指示を操作部15から受付けた場合に、この抽出を行ってもよい。   The extraction unit 116 extracts a region that satisfies a predetermined condition from the first image. This condition is, for example, whether the gradation of the color drawn in the area is within a predetermined range, whether the shape drawn in the area indicates a rectangle, an ellipse, or the like. For example, the extraction unit 116 may perform this extraction when the reception unit 112 receives an instruction from the operation unit 15 to extract a region that satisfies the above-described conditions.

出力部115は、抽出部116が上述した条件を満たす領域を抽出し、かつ、出力の形式が第1形式である場合、抽出されたこの領域からオブジェクトを生成する。そして出力部115は、生成したオブジェクト、抽出された領域に対応した位置情報、及び第1画像を包含する第1データを出力する。   The output unit 115 extracts an area satisfying the above-described conditions, and if the output format is the first format, the output unit 115 generates an object from the extracted area. Then, the output unit 115 outputs the generated object, position information corresponding to the extracted area, and first data including the first image.

なお、出力部115は、上述したオブジェクトを生成する場合、第1画像のうち、抽出部116が抽出した領域の周囲の色に基づいて、この領域の内側を塗り潰す加工処理をしてもよい。上述した条件を満たす領域には、媒体そのものに付箋が貼られ、又は赤色等のマーカで加筆がされていることが多い。そして、この領域の周囲の色は、付箋又はマーカ等による物理的なオブジェクトが付加される前のオリジナルの原稿の色に近いことが多い。したがって、抽出した領域の周囲の色でその領域の内側を塗り潰す加工を施すことで、出力部115は、物理的に付箋等のオブジェクトが付加される前のオリジナルの原稿に近いと推定される画像を第1画像として出力する。   In addition, when generating the above-described object, the output unit 115 may perform processing for filling the inside of the region based on the color around the region extracted by the extraction unit 116 in the first image. . In an area that satisfies the above-described conditions, a sticky note is often affixed to the medium itself, or is often added with a marker such as red. The color around this area is often close to the color of the original document before a physical object such as a tag or marker is added. Therefore, by applying the process of filling the inside of the extracted area with the color around the extracted area, the output unit 115 is estimated to be close to the original document before the object such as a tag is physically added. The image is output as the first image.

1−5.画像読取装置の動作
図9は、画像読取装置1の動作の流れを説明するフロー図である。画像読取装置1の制御部11は、読取部16を制御して用紙等の媒体に形成された第1画像を読取らせ、この第1画像を示す画像データを取得すると(ステップS101)、取得したこの画像データにより示される第1画像を表示部14の表示画面141に表示させる(ステップS102)。
1-5. Operation of Image Reading Device FIG. 9 is a flowchart for explaining the operation flow of the image reading device 1. When the control unit 11 of the image reading apparatus 1 controls the reading unit 16 to read the first image formed on a medium such as paper, and acquires image data indicating the first image (step S101), the acquisition is performed. The first image indicated by the image data is displayed on the display screen 141 of the display unit 14 (step S102).

制御部11は、第1画像において予め決められた条件を満たす領域が存在している場合、この領域を抽出する(ステップS103)。制御部11は、領域が抽出されるとこの領域に描かれた内容に基づいてオブジェクトを生成する。   If there is a region that satisfies a predetermined condition in the first image, the control unit 11 extracts this region (step S103). When the area is extracted, the control unit 11 generates an object based on the contents drawn in the area.

利用者が、例えば操作部15を介して第1画像に重ねてオブジェクトを描き、画像読取装置1に対してこのオブジェクトを第1画像に付加する指示をすると、制御部11は、利用者の操作に応じたオブジェクトの情報を受付ける(ステップS104)。   When the user draws an object over the first image via, for example, the operation unit 15 and instructs the image reading apparatus 1 to add the object to the first image, the control unit 11 performs the operation of the user. The information of the object corresponding to is accepted (step S104).

制御部11は、記憶部12の設定表121を参照して、例えば利用者の指定する出力の形式を特定する(ステップS105)。そして制御部11は、ステップS105で特定した形式が第1形式であるか否かを判断する(ステップS106)。   The control unit 11 refers to the setting table 121 of the storage unit 12 and specifies, for example, an output format designated by the user (step S105). Then, the control unit 11 determines whether or not the format specified in step S105 is the first format (step S106).

特定した形式が第1形式であると判断する場合(ステップS106;YES)、制御部11は、第1画像を示す画像データが包含された第1データを生成し、この第1データにステップS104で受付けたオブジェクト、及びそのオブジェクトの第1画像における位置を示す位置情報を包含させる(ステップS107)。そして、制御部11は、生成したこの第1データを例えば、通信回線4を介して端末2に向けて出力する(ステップS110)。   If it is determined that the specified format is the first format (step S106; YES), the control unit 11 generates first data including image data indicating the first image, and the first data includes step S104. And the position information indicating the position of the object in the first image is included (step S107). And the control part 11 outputs this produced | generated 1st data toward the terminal 2 via the communication line 4, for example (step S110).

特定した形式が第1形式ではないと判断する場合(ステップS106;NO)、制御部11は、位置情報が示す第1画像の位置にオブジェクトが示す画像を合成した第2画像を示す第2データを生成する(ステップS108)。そして、制御部11は、生成したこの第2データを例えば、通信回線4を介して端末2に向けて出力する(ステップS110)。   When determining that the identified format is not the first format (step S106; NO), the control unit 11 includes second data indicating a second image obtained by combining the image indicated by the object with the position of the first image indicated by the position information. Is generated (step S108). And the control part 11 outputs this produced | generated 2nd data toward the terminal 2 via the communication line 4, for example (step S110).

なお、図9に示す制御部11は、第2データを出力する場合、この第2データに関連付けて第1画像を示す第3データを出力する。この場合、例えば、制御部11は、生成した第2データの前後に、第1画像を示す第3データを追加する(ステップS109)。これにより、制御部11は、第2データにより示される第2画像、及び第3データにより示される第1画像を、連続したページに出力する(ステップS110)。   In addition, when outputting the second data, the control unit 11 illustrated in FIG. 9 outputs the third data indicating the first image in association with the second data. In this case, for example, the control unit 11 adds third data indicating the first image before and after the generated second data (step S109). Thereby, the control part 11 outputs the 2nd image shown by 2nd data, and the 1st image shown by 3rd data to a continuous page (step S110).

なお「ページ」とは、媒体の1面に対応する画像データの単位である。また制御部11は、第3データを第2データに関連付けて出力する場合、第1画像の色を薄くする階調補正をした上でオブジェクトを合成した第2画像を示す第2データを生成してもよい。これにより、背景となる第1画像の色が薄まって相対的に目立ち難くなり、オブジェクトが付加されたことが強調される。   A “page” is a unit of image data corresponding to one surface of a medium. In addition, when outputting the third data in association with the second data, the control unit 11 generates second data indicating the second image obtained by synthesizing the object after performing gradation correction to make the color of the first image light. May be. As a result, the color of the first image that becomes the background is thinned and becomes relatively inconspicuous, and it is emphasized that the object is added.

この構成により画像読取装置1は、第1形式で出力する場合に、利用者が付加したオブジェクトを機械的に検索することが可能な第1データを出力するので、オブジェクトが付加されたデータの検索性が向上する。   With this configuration, when outputting in the first format, the image reading apparatus 1 outputs the first data that can mechanically search for the object added by the user. Improves.

また、この構成により画像読取装置1は、決められた出力の形式に応じて、オブジェクトを包含した第1データ、又はオブジェクトを合成した第2データを出力する。   Also, with this configuration, the image reading apparatus 1 outputs the first data including the object or the second data obtained by combining the objects according to the determined output format.

また、この構成により画像読取装置1は、出力の形式が第2形式であっても、第2データに関連付けて第3データを出力するので、これらのデータを受取った端末2で利用者は、第2データから復元することが不可能な、オブジェクトが付加される前の第1画像を第3データから取得する。   Also, with this configuration, even if the output format is the second format, the image reading apparatus 1 outputs the third data in association with the second data. Therefore, the user at the terminal 2 that has received these data A first image that cannot be restored from the second data and before the object is added is obtained from the third data.

また、この構成により画像読取装置1は、第2データにより示される第2画像と、第3データにより示される第1画像とを、それぞれ連続したページに出力するので、例えば、画像読取装置1の形成部17によってこれらのデータを出力させる場合、複数のページで構成される文書であって利用者がオブジェクトを付加したページの前後にそのオブジェクトが付加される前のページが挟み込まれた文書が作成される。   In addition, with this configuration, the image reading apparatus 1 outputs the second image indicated by the second data and the first image indicated by the third data to the continuous pages. When these data are output by the forming unit 17, a document composed of a plurality of pages, in which a page before the object is added before and after the page to which the user added the object, is created. Is done.

そして利用者は、オブジェクトが付加されることによってそのオブジェクトによって確認できなくなった部分を、その前後に挟み込まれたオリジナルの原稿により確認する。この場合、第1画像と第2画像とは連続したページに出力されているため、利用者はオブジェクトが付加された後の画像が形成されたページの前後に、オブジェクトが付加される前の画像が形成されたページを見つける。   Then, the user confirms the portion that cannot be confirmed by the object by adding the object by using the original document sandwiched between the front and back. In this case, since the first image and the second image are output on successive pages, the user can view the image before the object is added before and after the page on which the image after the object is added. Find the page that formed.

2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組合せてもよい。
2. Modification The above is the description of the embodiment, but the contents of this embodiment can be modified as follows. Further, the following modifications may be combined.

2−1.変形例1
上述した実施形態において、出力部115は、出力の形式が第2形式である場合、第1画像における、位置情報が示す位置にオブジェクトを合成した第2画像を示す第2データを出力していたが、オブジェクトを合成していない第1画像を示す第3データを上述した第1データ及び第2データに代えて出力してもよい。この場合、出力にオブジェクトは反映されない。
2-1. Modification 1
In the embodiment described above, when the output format is the second format, the output unit 115 outputs the second data indicating the second image in which the object is combined with the position indicated by the position information in the first image. However, the third data indicating the first image in which the object is not combined may be output instead of the first data and the second data described above. In this case, the object is not reflected in the output.

2−2.変形例2
上述した実施形態において、出力部115は、第2データを出力する場合、この第2データに関連付けて第1画像を示す第3データを出力していたが、第2データのみを出力してもよい。この場合、制御部11は、図9に示すステップS109を行わなくてもよい。
2-2. Modification 2
In the embodiment described above, when outputting the second data, the output unit 115 outputs the third data indicating the first image in association with the second data. However, the output unit 115 may output only the second data. Good. In this case, the control unit 11 does not have to perform step S109 shown in FIG.

2−3.変形例3
上述した実施形態において、制御部11は、第2データを出力する場合、生成した第2データの前後に、第1画像を示す第3データを追加していた。すなわち、制御部11によって実現する出力部115は、第2データにより示される第2画像、及び、第3データにより示される第1画像を、連続したページに出力していた。しかし、出力部115は、第1画像及び第2画像を連続したページに出力しなくてもよい。例えば、出力部115は、複数のページからなる文書の冒頭又は末尾に、関連付けられた第2画像のページ番号とともに第1画像を出力してもよい。要するに、オブジェクトが合成された第2画像と、オブジェクトが合成される前の第1画像とが関連付けられていることが閲覧者に伝わればよい。
2-3. Modification 3
In the embodiment described above, when outputting the second data, the control unit 11 adds the third data indicating the first image before and after the generated second data. That is, the output unit 115 realized by the control unit 11 outputs the second image indicated by the second data and the first image indicated by the third data to successive pages. However, the output unit 115 does not have to output the first image and the second image on successive pages. For example, the output unit 115 may output the first image together with the page number of the associated second image at the beginning or end of a document composed of a plurality of pages. In short, it is only necessary to inform the viewer that the second image in which the objects are combined and the first image before the objects are combined.

2−4.変形例4
上述した実施形態において、受付部112は、利用者により描かれたオブジェクトの形状からオブジェクトの内容を特定するとともに、オブジェクトが描かれた第1画像の位置を特定していたが、受付部112は、第1画像において予め決められた複数の位置の中からオブジェクトの位置を選択する、利用者の指示を受付けてもよい。
2-4. Modification 4
In the embodiment described above, the receiving unit 112 specifies the content of the object from the shape of the object drawn by the user and specifies the position of the first image on which the object is drawn. The user's instruction for selecting the position of the object from a plurality of predetermined positions in the first image may be received.

予め決められた複数の位置とは、例えばページ番号、上段、中断、下段、右上、中央、左下等、ページ内の相対的な区画等である。ページ内の区画は、例えば3分割又は9分割等、決められた数に分割されたものでよい。   The predetermined positions include, for example, page numbers, upper stage, interruption, lower stage, upper right, center, lower left, and the like, relative sections in the page, and the like. The sections in the page may be divided into a predetermined number such as 3 divisions or 9 divisions.

ページ数の多い文書では確認が必要な部分のページ番号がわかれば、そのページ内の位置まで知る必要がない場合が多い。また、ページ内の位置は大まかにわかれば詳細に決定する必要がない場合もある。この構成によれば、例えば表示画面141が比較的小さくてオブジェクトを付加する位置を細かく指定し難い場合にも、予め決められた大まかな位置の選択肢を選択するだけで、オブジェクトを付加する位置が指定される。   In many documents with a large number of pages, if the page number of the part that needs to be confirmed is known, it is often unnecessary to know the position within the page. In addition, if the position in the page is roughly known, it may not be necessary to determine in detail. According to this configuration, for example, even when the display screen 141 is relatively small and it is difficult to specify the position to add the object in detail, the position to add the object can be determined only by selecting a predetermined rough position option. It is specified.

2−5.変形例5
上述した実施形態において、制御部11は、第1画像から予め決められた条件を満たす領域を抽出する抽出部116として機能していたが、第1画像からこの領域を抽出しなくてもよい。この場合、制御部11は図9に示すステップS103を行わなくてもよい。
2-5. Modification 5
In the above-described embodiment, the control unit 11 functions as the extraction unit 116 that extracts a region that satisfies a predetermined condition from the first image. However, the region may not be extracted from the first image. In this case, the control unit 11 does not have to perform step S103 shown in FIG.

2−6.変形例6
画像読取装置1の制御部11によって実行されるプログラムは、磁気テープ及び磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上述した制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
2-6. Modification 6
The program executed by the control unit 11 of the image reading apparatus 1 is a recording that can be read by a computer device such as a magnetic recording medium such as a magnetic tape and a magnetic disk, an optical recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory. It may be provided in a state stored in a medium. It is also possible to download this program via a communication line such as the Internet. Note that various devices other than the CPU may be applied as the control means exemplified by the control unit 11 described above. For example, a dedicated processor or the like is used.

1…画像読取装置、11…制御部、111…取得部、112…受付部、113…表示制御部、114…特定部、115…出力部、116…抽出部、12…記憶部、121…設定表、13…通信部、14…表示部、141…表示画面、15…操作部、151…タッチパネル、16…読取部、17…形成部、2…端末、21…制御部、22…記憶部、23…通信部、24…表示部、25…操作部、4…通信回線、9…画像処理システム。 DESCRIPTION OF SYMBOLS 1 ... Image reading device, 11 ... Control part, 111 ... Acquisition part, 112 ... Reception part, 113 ... Display control part, 114 ... Identification part, 115 ... Output part, 116 ... Extraction part, 12 ... Storage part, 121 ... Setting Table: 13 ... Communication part 14 ... Display part 141 ... Display screen 15 ... Operation part 151 ... Touch panel 16 ... Reading part 17 ... Forming part 2 ... Terminal 21 ... Control part 22 ... Storage part 23: Communication unit, 24: Display unit, 25 ... Operation unit, 4 ... Communication line, 9 ... Image processing system.

Claims (8)

媒体に形成された第1画像を読取る読取部と、
前記第1画像に付加するオブジェクトを利用者から受付ける受付部と、
出力の形式が複数のデータを構成要素の集まりとして表現する第1形式である場合、前記第1画像、前記オブジェクト、及び該第1画像における該オブジェクトの位置を示す位置情報をそれぞれ包含する第1データを出力する出力部と、
を有する画像読取装置。
A reading unit that reads the first image formed on the medium;
A receiving unit that receives an object to be added to the first image from a user;
When the output format is a first format that expresses a plurality of data as a collection of constituent elements, the first image, the object, and position information indicating the position of the object in the first image are included. An output unit for outputting data;
An image reading apparatus.
前記出力部は、前記出力の形式がラスタ形式の画像データのみで表現する第2形式である場合、前記第1画像における、前記位置情報が示す位置に前記オブジェクトを合成した第2画像を示す第2データを出力する
ことを特徴とする請求項1に記載の画像読取装置。
When the output format is a second format represented only by raster format image data, the output unit displays a second image obtained by combining the object with the position indicated by the position information in the first image. The image reading apparatus according to claim 1, wherein two data are output.
前記出力部は、前記第2データを出力する場合、該第2データに関連付けて前記第1画像を示す第3データを出力する
ことを特徴とする請求項2に記載の画像読取装置。
3. The image reading apparatus according to claim 2, wherein, when outputting the second data, the output unit outputs third data indicating the first image in association with the second data. 4.
前記出力部は、前記第2データにより示される前記第2画像、及び、前記第3データにより示される前記第1画像を、連続したページに出力する
ことを特徴とする請求項3に記載の画像読取装置。
The image according to claim 3, wherein the output unit outputs the second image indicated by the second data and the first image indicated by the third data to successive pages. Reader.
前記オブジェクトは文字の情報を含む
ことを特徴とする請求項1から4のいずれか1項に記載の画像読取装置。
The image reading apparatus according to claim 1, wherein the object includes character information.
前記受付部は、前記第1画像において予め決められた複数の位置の中から前記オブジェクトの位置を選択する、前記利用者の指示を受付ける
ことを特徴とする請求項1から5のいずれか1項に記載の画像読取装置。
The said reception part receives the instruction | indication of the said user who selects the position of the said object from the several predetermined position in the said 1st image, The any one of Claim 1 to 5 characterized by the above-mentioned. The image reading apparatus described in 1.
前記第1画像から予め決められた条件を満たす領域を抽出する抽出部、を有し、
前記出力部は、前記領域が抽出され、かつ、前記出力の形式が第1形式である場合、該領域から前記オブジェクトを生成し、該オブジェクト、該領域に対応した前記位置情報、及び前記第1画像を包含する前記第1データを出力する
ことを特徴とする請求項1から6のいずれか1項に記載の画像読取装置。
An extraction unit that extracts a region satisfying a predetermined condition from the first image,
The output unit generates the object from the area when the area is extracted and the format of the output is the first format, the object, the position information corresponding to the area, and the first The image reading apparatus according to any one of claims 1 to 6, wherein the first data including an image is output.
媒体に形成された第1画像を読取る読取部を有するコンピュータを、
前記第1画像に付加するオブジェクトを利用者から受付ける受付部と、
出力の形式が複数のデータを構成要素の集まりとして表現する第1形式である場合、前記第1画像、前記オブジェクト、及び該第1画像における該オブジェクトの位置を示す位置情報をそれぞれ包含する第1データを出力する出力部
として機能させるためのプログラム。
A computer having a reading unit for reading a first image formed on a medium,
A receiving unit that receives an object to be added to the first image from a user;
When the output format is a first format that expresses a plurality of data as a collection of constituent elements, the first image, the object, and position information indicating the position of the object in the first image are included. A program that functions as an output unit that outputs data.
JP2017059720A 2017-03-24 2017-03-24 Image reading apparatus and program Pending JP2018164173A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017059720A JP2018164173A (en) 2017-03-24 2017-03-24 Image reading apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059720A JP2018164173A (en) 2017-03-24 2017-03-24 Image reading apparatus and program

Publications (1)

Publication Number Publication Date
JP2018164173A true JP2018164173A (en) 2018-10-18

Family

ID=63861104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059720A Pending JP2018164173A (en) 2017-03-24 2017-03-24 Image reading apparatus and program

Country Status (1)

Country Link
JP (1) JP2018164173A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268792A (en) * 2005-03-25 2006-10-05 Fuji Xerox Co Ltd Apparatus and method for image processing
JP2007060270A (en) * 2005-08-24 2007-03-08 Fuji Xerox Co Ltd Image reading apparatus, image forming apparatus, image processing system, and method of shortening print time therefor
JP2009163743A (en) * 2008-01-08 2009-07-23 Toshiba Corp Image processing apparatus and image processing method
CN101640739A (en) * 2008-07-30 2010-02-03 夏普株式会社 Image forming apparatus, recording medium, and preview display method
JP2010200225A (en) * 2009-02-27 2010-09-09 Sharp Corp Image forming apparatus and program
JP2016131292A (en) * 2015-01-13 2016-07-21 コニカミノルタ株式会社 Image processing system, image processing apparatus, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268792A (en) * 2005-03-25 2006-10-05 Fuji Xerox Co Ltd Apparatus and method for image processing
JP2007060270A (en) * 2005-08-24 2007-03-08 Fuji Xerox Co Ltd Image reading apparatus, image forming apparatus, image processing system, and method of shortening print time therefor
JP2009163743A (en) * 2008-01-08 2009-07-23 Toshiba Corp Image processing apparatus and image processing method
CN101640739A (en) * 2008-07-30 2010-02-03 夏普株式会社 Image forming apparatus, recording medium, and preview display method
US20100027060A1 (en) * 2008-07-30 2010-02-04 Sharp Kabushiki Kaisha Image forming apparatus, program, recording medium, and preview display method
JP2010035016A (en) * 2008-07-30 2010-02-12 Sharp Corp Image-forming device, program, recording medium, and preview display method
JP2010200225A (en) * 2009-02-27 2010-09-09 Sharp Corp Image forming apparatus and program
JP2016131292A (en) * 2015-01-13 2016-07-21 コニカミノルタ株式会社 Image processing system, image processing apparatus, and program

Similar Documents

Publication Publication Date Title
EP3058512B1 (en) Organizing digital notes on a user interface
JP6723966B2 (en) Information processing apparatus, display control method, and program
EP2264995B1 (en) Image processing apparatus, image processing method, and computer program
EP3100208B1 (en) Note capture and recognition with manual assist
US20020054112A1 (en) Image processing apparatus, image processing method, and a computer-readable storage medium containing a computer program for image processing recorded thereon
JP6702900B2 (en) Information processing apparatus, display control method, and program
JP6723938B2 (en) Information processing apparatus, display control method, and program
JP5991139B2 (en) Information management apparatus and program
EP2747404B1 (en) Image processing terminal, image processing system, and computer-readable storage medium storing control program of image processing terminal
JP2011055295A (en) Photographing apparatus
JP6821536B2 (en) Image processing equipment, control methods and programs
EP1909477A2 (en) Scrapbook server, method of controlling same, and control program therefor
CN107066211B (en) Information processing apparatus, information processing method, and computer program
JP2020167592A (en) Programs, image processing equipment, and image processing methods
US20180113661A1 (en) Information processing device, image file data structure, and non-transitory computer-readable medium
JP5942516B2 (en) Display processing apparatus, display processing method, and computer program
US20040041819A1 (en) System and method for generating an image fulfillment order
JP2018164173A (en) Image reading apparatus and program
JP7095259B2 (en) Document processing equipment and programs
JP2012128687A (en) Document management system, document management server, control method thereof and program
JP2021111800A (en) Information processing device, information processing method, image processing device, and program
JP7318289B2 (en) Information processing device and program
JP2008009572A (en) Document processing system, document processing method, and program
JP4389728B2 (en) Image forming apparatus, image selection screen generation method, and program
JP4952207B2 (en) Document processing apparatus, document processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413