JP2007174270A - Image processing apparatus, image processing method, storage medium, and program - Google Patents
Image processing apparatus, image processing method, storage medium, and program Download PDFInfo
- Publication number
- JP2007174270A JP2007174270A JP2005369215A JP2005369215A JP2007174270A JP 2007174270 A JP2007174270 A JP 2007174270A JP 2005369215 A JP2005369215 A JP 2005369215A JP 2005369215 A JP2005369215 A JP 2005369215A JP 2007174270 A JP2007174270 A JP 2007174270A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- page
- image
- image data
- low visibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Record Information Processing For Printing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【課題】 原稿画像を読み取って画像処理する場合に、視認性が低下する画像領域を含むページに画像処理を行うことで視認性に優れた出力結果を得ることである。
【解決手段】
MFP100は、複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内に縮小して出力させる。この場合に、データ処理装置115が出力する1ページに縮小された複数の画像データ中に視認性が低いページが存在するかを判断する。そして、視認性が低いページ領域があると判断した場合に、そのページ領域の画像データに対して変倍画像処理を行うことを特徴とする
【選択図】 図2PROBLEM TO BE SOLVED: To obtain an output result excellent in visibility by performing image processing on a page including an image area where visibility is lowered when an original image is read and image processing is performed.
[Solution]
MFP 100 reduces and outputs image data for a plurality of pages read from each document read from a document consisting of a plurality of pages within one page. In this case, it is determined whether there is a page with low visibility in the plurality of image data reduced to one page output by the data processing device 115. Then, when it is determined that there is a page area with low visibility, the scaled image processing is performed on the image data of the page area.
Description
本発明は、原稿から読み取られた原稿から読み取られた複数ページ分の画像データを出力させる画像処理装置における画像処理に関するものである。 The present invention relates to image processing in an image processing apparatus that outputs image data for a plurality of pages read from a document read from the document.
従来、画像出力デバイス、例えば印刷装置やデジタル複写機において、複数のページを1ページにレイアウトして出力する、いわゆるNin1機能を搭載したデバイスが実用化されている。この機能を紙資源やインク材、トナー材の節約に貢献できる有効な機能として幅広く利用されている。 2. Description of the Related Art Conventionally, in an image output device, for example, a printing apparatus or a digital copying machine, a device equipped with a so-called Nin1 function for laying out and outputting a plurality of pages into one page has been put into practical use. This function is widely used as an effective function that can contribute to saving paper resources, ink materials, and toner materials.
この場合は、各ページの用紙サイズがA4であった場合に、4ページを1ページにレイアウトすると単純に1/4サイズの画像データとして印刷されることとなる。したがって、当然に各ページのオブジェクト、文字、画像、グラフィックス等はそれぞれ画像処理により縮小処理が施される。 In this case, if the paper size of each page is A4, if 4 pages are laid out as 1 page, the image data is simply printed as 1/4 size image data. Therefore, as a matter of course, the objects, characters, images, graphics and the like on each page are reduced by image processing.
この結果、本来のサイズであれば、読み取れるような文字であっても、かなり小さいサイズの文字となってしまい、却って見づらくなってしまう。このため、ユーザは、レイアウト印刷されたいずれかのページを再度、操作画面上で、指定ページ印刷機能を選択して、その該当ページを印刷させる操作を行う場合がった。 As a result, even if it is an original size, even a readable character becomes a very small size character, which makes it difficult to see. For this reason, the user sometimes selects a designated page printing function on the operation screen again and prints the corresponding page of any page that has been layout-printed.
また、縮小・拡大・製本印刷設定などの場合、どのように印刷されるかが分からないと言う問題があり、そのため、試し印刷や印刷の失敗により、用紙を無駄に使用してしまうことがある。 In addition, in the case of reduction / enlargement / bookbinding printing settings, etc., there is a problem that it is not known how to print, so paper may be wasted due to trial printing or printing failure. .
下記特許文献1では、この問題点を解決するため、印刷する前に正確な画像情報の配置を知ることができる画像配置設定手段と出力イメージを表示する画像配置表示手段とを持ち、現在の設定状態で印刷しても良いかをユーザが判断することが開示されています。
しかしながら、従来技術においては、上述したようなNin1印刷を含む縮小印刷設定をしたの場合、複雑な図などが縮小され見づらく印刷されてしまうことは避けられない。 However, in the prior art, when the reduced print setting including the Nin1 printing as described above is performed, it is inevitable that a complicated figure or the like is reduced and hard to see.
また、見づらい部分を見やすく印刷するためには、別途原稿を読み込んだり印刷設定をし直すなど面倒が操作をユーザに強いる結果となり、利便性が損なわれる。また、印刷コスト負担を却ってユーザに強いる結果となってきわめて不経済である。 In addition, in order to print difficult-to-see parts in an easy-to-see manner, troublesome operations such as separately reading a document or resetting print settings are forced on the user, and convenience is impaired. In addition, it is extremely uneconomical as a result of forcing the user over the printing cost burden.
さらに、上記のような問題は、縮小レイアウト処理時に限られたものではない。例えば、等倍ページ内のオブジェクト毎のブロック領域が複数ある場合に、例えば表データ、画像データが配置されている。そして、必要以上に小さいな文字が表内に印刷されるような画像データである場合には、その表データ領域の視認性が著しく低下する場合もある。 Furthermore, the above problems are not limited to the reduced layout process. For example, when there are a plurality of block areas for each object in the same size page, for example, table data and image data are arranged. If the image data is such that characters smaller than necessary are printed in the table, the visibility of the table data area may be significantly reduced.
したがって、読み込まれる原稿シートの画像内のオブジェクトの構成や配置によっては、縮小レイアウト時と同様の課題があった。 Therefore, depending on the configuration and arrangement of the objects in the image of the original sheet to be read, there are problems similar to those in the reduced layout.
本発明は、上記の課題を解決するためになされたもので、本発明の目的は、原稿画像を読み取って画像処理する場合に、視認性が低下する画像領域を含むページに画像処理を行うことで視認性に優れた出力結果が得られる仕組みを提供することである。 The present invention has been made to solve the above-described problems, and an object of the present invention is to perform image processing on a page including an image area whose visibility is reduced when a document image is read and image processing is performed. It is to provide a mechanism for obtaining an output result with excellent visibility.
上記目的を達成する本発明の画像処理装置は以下に示す構成を備える。 The image processing apparatus of the present invention that achieves the above object has the following configuration.
複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内にレイアウトして出力させる画像処理装置であって、
出力する1ページにレイアウトされた複数の画像データ中に視認性が低いページ領域が存在するかを判断する判断手段と、
前記判断手段により視認性が低いページ領域があると判断した場合に、前記ページ領域の画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする。
An image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
Determining means for determining whether or not a page area having low visibility exists in a plurality of image data laid out on one page to be output;
An image processing unit that performs image processing on image data of the page area when the determination unit determines that there is a page area with low visibility;
It is characterized by having.
また、複数ページからなる原稿から読み取られた各画像データを出力させる画像処理装置であって、
出力する画像データ中に視認性が低いページが存在するかを判断する判断手段と、
前記判断手段により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする。
An image processing apparatus for outputting each image data read from a document consisting of a plurality of pages,
A determination means for determining whether or not a page with low visibility exists in the output image data;
An image processing unit that performs image processing on image data of the page with low visibility when the determination unit determines that there is a page with low visibility;
It is characterized by having.
さらに、複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内にレイアウトして出力させる画像処理装置であって、
出力する1ページにレイアウトされた複数の画像データを表示する表示手段と、
前記表示手段に表示された複数の画像データ中から視認性が低いページ領域を指示する指示手段と、
前記指示手段により指示された視認性が低いページ領域の画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする。
Furthermore, an image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
Display means for displaying a plurality of image data laid out on one page to be output;
Instruction means for instructing a page area having low visibility from the plurality of image data displayed on the display means;
Image processing means for performing image processing on image data of a page area having low visibility instructed by the instruction means;
It is characterized by having.
また、複数ページからなる原稿から読み取られた各原稿から読み取られた画像データを出力させる画像処理装置であって、
出力する画像データを表示する表示手段と、
前記表示手段に表示された画像データ中から視認性が低いページを指示する指示手段と、
出力する画像データ中に視認性が低いページが存在するかを判断する判断手段と、
前記判断手段により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする。
An image processing apparatus that outputs image data read from each document read from a document consisting of a plurality of pages,
Display means for displaying image data to be output;
Instruction means for instructing a page with low visibility from the image data displayed on the display means;
A determination means for determining whether or not a page with low visibility exists in the output image data;
An image processing unit that performs image processing on image data of the page with low visibility when the determination unit determines that there is a page with low visibility;
It is characterized by having.
上記目的を達成する本発明の画像処理方法は以下に示す構成を備える。 The image processing method of the present invention that achieves the above object has the following configuration.
複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内にレイアウトして出力させる画像処理装置における画像処理方法であって、
出力する1ページにレイアウトされた複数の画像データ中に視認性が低いページ領域が存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページ領域があると判断した場合に、前記ページ領域の画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする。
An image processing method in an image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
A determination step of determining whether or not a page region having low visibility exists in a plurality of image data laid out on one page to be output;
An image processing step of performing image processing on the image data of the page area when it is determined by the determining step that there is a page area having low visibility;
It is characterized by having.
また、複数ページからなる原稿から読み取られた各画像データを出力させる画像処理装置における画像処理方法であって、
出力する画像データ中に視認性が低いページが存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする。
An image processing method in an image processing apparatus for outputting each image data read from a document consisting of a plurality of pages,
A determination step of determining whether there is a page with low visibility in the image data to be output;
An image processing step of performing image processing on the image data of the page with low visibility when it is determined in the determination step that there is a page with low visibility;
It is characterized by having.
さらに、複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内にレイアウトして出力させる画像処理装置における画像処理方法であって、
出力する1ページにレイアウトされた複数の画像データを表示手段に表示する表示ステップと、
前記表示手段に表示された複数の画像データ中から視認性が低いページ領域を指示する指示ステップと、
前記指示ステップにより指示された視認性が低いページ領域の画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする。
Furthermore, an image processing method in an image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
A display step of displaying a plurality of image data laid out on one page to be output on a display means;
An instruction step for indicating a page area having low visibility from the plurality of image data displayed on the display means;
An image processing step for performing image processing on the image data of the page area with low visibility instructed by the instruction step;
It is characterized by having.
また、複数ページからなる原稿から読み取られた各原稿から読み取られた画像データを出力させる画像処理装置における画像処理方法であって、
出力する画像データを表示手段に表示する表示手段と、
前記表示手段に表示された画像データ中から視認性が低いページを指示する指示ステップと、
出力する画像データ中に視認性が低いページが存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする。
An image processing method in an image processing apparatus for outputting image data read from each document read from a document consisting of a plurality of pages,
Display means for displaying image data to be output on the display means;
An instruction step for instructing a page with low visibility from the image data displayed on the display means;
A determination step of determining whether there is a page with low visibility in the image data to be output;
An image processing step of performing image processing on the image data of the page with low visibility when it is determined in the determination step that there is a page with low visibility;
It is characterized by having.
本発明によれば、原稿画像を読み取って画像処理する場合に、視認性が低下する画像領域を含むページに画像処理を行うことで視認性に優れた出力結果が得られる。 According to the present invention, when a document image is read and image processing is performed, an output result excellent in visibility can be obtained by performing image processing on a page including an image region where the visibility is reduced.
また、縮小レイアウト出力を設定し、複雑な図などが縮小され見づらくなってしまう部分を拡大して出力することができるため、別途原稿を読み込んだり、出力設定をし直す必要がなく、手間を省くことができる。 In addition, you can set the reduced layout output to enlarge and output parts that are difficult to see due to the reduction of complex figures, so you do not have to read the original separately or reset the output settings, saving time be able to.
また、必要な部分のみを拡大できるため、面倒な操作をせずに省紙にも貢献できる。 In addition, since only the necessary parts can be enlarged, it is possible to contribute to paper saving without troublesome operations.
次に本発明を実施するための最良の形態について図面を参照して説明する。 Next, the best mode for carrying out the present invention will be described with reference to the drawings.
<システム構成の説明>
〔第1実施形態〕
以下、図面を参照して本発明の実施の形態を説明する。
<Description of system configuration>
[First Embodiment]
Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の第1実施形態を示す画像処理装置を適用可能な画像処理システムの一例を示す図である。この画像処理システムは、オフィス10とオフィス20とをインターネット104で接続された環境で実現する。なお、本実施形態では、インターネット104を介してオフィス10とオフィス20とをインターネット104で通信可能なシステム例について説明するが、本発明は、本実施形態に示す構成に限定されることはない。例えば所定の双方向インタフェースを介してクライアントPCと印刷装置とが通信可能なローカルなシステムでも本実施形態を適用可能である。
FIG. 1 is a diagram illustrating an example of an image processing system to which the image processing apparatus according to the first embodiment of the present invention can be applied. This image processing system is realized in an environment where the
図1において、オフィス10内に構築されたLAN107には、MFP100、MFP100を制御するマネージメントPC101が所定のプロトコルで通信可能に接続されている。また、オフィス10内に構築されたLAN107には、クライアントPC(外部記憶手段)102 文書管理サーバ106、そのデータベース105およびプロキシサーバ103が所定のプロトコルで通信可能に接続されている。
In FIG. 1, an
LAN107及びオフィス20内のLAN108はプロキシサーバ13を介してインターネット104に接続される。
The
本実施形態において、MFP100は紙文書の画像読み取り部と読み取った画像信号に対する画像処理の1部を担当し、画像信号はLAN109を用いてマネージメントPC101に入力する。
In this embodiment, the
マネージメントPCは通常のPCであり、内部に画像記憶手段、画像処理手段、表示手段、入力手段を有するが、その一部をMFP100に一体化して構成されている。
The management PC is a normal PC and includes an image storage unit, an image processing unit, a display unit, and an input unit. A part of the management PC is integrated with the
なお、クライアントPC102、マネージメントPC101、文書管理サーバ106は以下のハードウエア資源を備える。例えばCPU、ROM、RAM等を含むコントローラユニットを備え、入力デバイスとしてキーボード、ポインティングデバイスを備え、出力デバイスとして表示装置等を備える。また、ソフトウエア資源として、それぞれ機能処理を実行するためオペレーティングシステムを備える。また、クライアントPCでは、外部記憶装置としてのハードディスクを備えて、インストールされている各種のアプリケーションを実行することで、各種のデータ処理を行う。
The client PC 102,
図2は、図1に示したMFP100の構成を説明するブロック図である。
FIG. 2 is a block diagram illustrating a configuration of
図2において、オートドキュメントフィーダ(以降ADFと記す)を含む画像読み取り部110は束状の或いは1枚の原稿画像を図示しない光源で照射する。そして、その反射光を原稿反射像をレンズで固体撮像素子上に結像し、固体撮像素子からラスター状の画像読み取り信号(画像信号)を600DPIの密度のイメージ情報として得る。
In FIG. 2, an
通常の複写機能はこの画像信号をデータ処理装置115で記録信号へ画像処理し、複数毎複写の場合は記憶装置111に一旦1ページ分の記録データを記憶保持した後、記録装置112に順次出力して紙上に画像を形成する。
In the normal copying function, this image signal is processed into a recording signal by the
一方、クライアントPC102から出力されるPDL等のプリントデータはLAN107からネットワークIF114を経て受信される。そして、受信されたプリントデータはデータ処理装置115で記録可能なラスタデータに変換した後、記録装置で紙上に記録画像として形成される。
On the other hand, print data such as PDL output from the client PC 102 is received from the
MFP100への操作者の指示はMFPに装備されたキー操作部とマネージメントPCに入力されるキーボード及びマウスからなる入力装置113から行われ、これら一連の動作はデータ処理装置115内の図示しない制御部で制御される。
An operator's instruction to the
一方、操作入力の状態表示及び処理中の画像データの表示は表示装置116で行われる。
On the other hand, the status display of the operation input and the display of the image data being processed are performed on the
なお、記憶装置111はマネージメントPCからも制御され、これらMFP100とマネージメントPC101とのデータの授受及び制御はネットワークIF117および直結したLAN109を用いて行われる。
The
なお、データ処理装置115は、ネットワークインタフェース(ネットワークI/F)114等を介してクライアントPC102から受信する複数ページ構成をプリントデータに対して設定された印刷条件を解析する。そして、データ処理装置は、その解析結果において、例えば複数ページを1ページにレイアウトするNin1印刷等が指定されている場合には、後述する拡大印刷ページ検出処理で検出されたページ、あるいは、ユーザが指定しているページを拡大印刷処理する。ただし、この拡大印刷処理には、本来の用紙サイズで印刷する場合と、指定されている用紙サイズとは別の用紙サイズで印刷する場合とを含む。また、用紙サイズとともに、用紙種別も変更して、特定の給紙手段から給紙される記録媒体に印刷するように制御してもよい。
Note that the
また、本実施形態のMFP100は、画像読み取り部110が備えるADFから給送される各原稿シートの画像を読み取って得られる複数の画像データを、1枚の用紙に出力するNin1出力機能を備えている。
The
そして、上記同様に、複写機能選択時に、Nin1印刷等が指定されている場合には、後述する拡大印刷ページ検出処理で検出されたページ、あるいは、ユーザが指定しているページを拡大印刷処理する。ただし、この拡大印刷処理には、本来の用紙サイズで印刷する場合と、指定されている用紙サイズとは別の用紙サイズで印刷する場合とを含む。 Similarly to the above, when Nin1 printing or the like is designated when the copy function is selected, the page detected by the enlarged print page detection process described later or the page designated by the user is enlarged. . However, the enlarged printing process includes a case of printing with the original paper size and a case of printing with a paper size different from the designated paper size.
なお、データ処理装置115には、コントローラユニット2000を備え、CPU2001、ROM2002、RAM2003を備えている。
The
次に、図2に示した画像読み取り部(スキャナ)110および記録装置(プリンタ)112のハードウェア構成について図3を参照して説明する。 Next, the hardware configuration of the image reading unit (scanner) 110 and the recording apparatus (printer) 112 shown in FIG. 2 will be described with reference to FIG.
図3は、図2に示した画像読み取り部110および記録装置112のハードウェア構成を示す側断面図である。本実施形態では、画像読み取り部110と記録装置112とは、図3に示すように、一体的に構成されている例を示すが、画像読み取り部110と記録装置112とが分離可能として、それぞれ所定のインタフェースケーブルで接続されている構成であってもよい。
FIG. 3 is a side sectional view showing a hardware configuration of the
図3において、画像読み取り部110は、原稿給紙ユニット250を搭載し、原稿給紙ユニット250は、原稿を先頭から順に1枚ずつプラテンガラス211上へ給送する。そして、各原稿の読取動作が終了する毎に、その原稿をプラテンガラス211から排出トレイ(図示せず)に排出する。
In FIG. 3, the
画像読み取り部110は、原稿がプラテンガラス211上に給送されると、ランプ212を点灯し、移動ユニット213の移動を開始する。この移動ユニット213の移動によりプラテンガラス211上の原稿に対する読取走査が行われる。
When the document is fed onto the
この読取走査中、原稿からの反射光は、各ミラー214,215,216およびレンズ217を経てCCDイメージセンサ(以下、「CCD」という)218に導かれ、原稿上の画像がCCD218の撮像面上に結像される。
During this scanning, the reflected light from the document is guided to a CCD image sensor (hereinafter referred to as “CCD”) 218 via each
CCD218は、撮像面に結像された画像を電気信号に変換し、この電気信号が所定の処理施された後に制御装置(図示せず)に入力される。
The
なお、移動ユニット213が所定位置に移動して、固定された状態で、給送される原稿シートの画像を読み取る流し込みモードを備えていてもよい。さらに、原稿シートを搬送路を介して反転することで、原稿シートの両面の画像を読み取れるように構成されていてもい。
The moving
記録装置112は、レーザドライバ321を有し、レーザドライバ321は、制御装置から入力された画像データに基づきレーザ発光部322を駆動する。これにより、レーザ発光部322からは画像データに応じたレーザ光が発光され、このレーザ光は走査されながら感光ドラム323上に照射される。
The
感光ドラム323上には、照射されたレーザ光により静電潜像が形成され、この静電潜像は現像器324から供給されたトナーによりトナー像として可視像化される。レーザ光の照射タイミングに同期して、各カセット311C,312から記録紙が搬送路を介して感光ドラム323と転写部325との間に給紙され、感光ドラム323上のトナー像は転写部325により給紙された記録紙上に転写される。
An electrostatic latent image is formed on the
なお、本実施形態では、モノクロの記録装置を備える場合について説明するが、カラーで画像を記録する記録装置であってもよい。 In this embodiment, a case where a monochrome recording apparatus is provided will be described. However, a recording apparatus that records an image in color may be used.
その場合、複数の感光ドラムを配置して、各色の画像を重ねる4連タンデム型の記録装置であってもよいし、中間転写体に各色画像に対応する現像器を回動して、一色ずつ現像材を重ねる記録装置でもよい。また、記録方式がインクジェット方式であっても本発明を適用可能である。 In that case, a quadruple tandem type recording apparatus in which a plurality of photosensitive drums are arranged and images of each color are superimposed may be used, or a developing device corresponding to each color image is rotated on the intermediate transfer member one by one. A recording device that stacks the developer may be used. Further, the present invention can be applied even if the recording method is an ink jet method.
トナー像が転写された記録紙は、搬送ベルトを介して定着ローラ対(加熱ローラと加圧ローラ)326に送られ、定着ローラ対326は、記録紙を熱圧し、記録紙上のトナー像を記録紙上に定着させる。
The recording paper onto which the toner image has been transferred is sent to a fixing roller pair (heating roller and pressure roller) 326 via a conveyance belt, and the fixing
この定着ローラ対326を通過した記録紙は、排紙ローラ対327により排紙ユニット330に排紙される。排紙ユニット330は、ソート、ステイプルなどの後処理を施すことが可能なシート処理装置からなる。
The recording paper that has passed through the fixing
また、入力装置113により両面記録モードが設定されている場合には、記録紙を排紙ローラ対327まで搬送した後に、排紙ローラ対327の回転方向を逆転させ、フラッパ328によって再給紙搬送路339へ導く。
When the double-sided recording mode is set by the input device 113, the recording paper is transported to the paper
そして、再給紙搬送路339に導かれた記録紙は、上述したタイミングで感光ドラム323と転写部325との間に再給紙され、この記録紙の裏面にトナー像が転写される。
Then, the recording paper guided to the
図4は、図2に示した表示装置116の構成を示す平面図である。なお、本実施形態では、表示装置116は、操作部2012として機能するキーが配置されている。
4 is a plan view showing the configuration of the
図4において、LCD表示部2013は、LCD上にタッチパネルシートが貼られた構造となっている。そして、複写機1001の操作画面を表示するとともに、該画面に表示されたキーが押されるとその位置情報を、図2に示したコントローラユニット2000のCPU2001に伝える。
In FIG. 4, the
スタートキー2014は、原稿画像の読み取り動作を開始する時などに用いられる。スタートキー2014の中央部には、緑と赤の2色LED2018が設けられ、その色によってスタートキー2014が使える状態にあるか否かを示す。ストップキー2015は、稼働中の動作を止めるときに操作される。IDキー2016は、使用者のユーザIDを入力する時に用いられる。リセットキー2017は、操作部2012からの設定を初期化する時に用いられる。
A
図5は、図4に示した操作部2012上に表示される操作画面の一例を示す図である。
FIG. 5 is a diagram illustrating an example of an operation screen displayed on the
図5において、操作部2012の操作画面の上部には、タッチキーからなり、各種の機能を選択するためのコピータブ901、送信/FAXタブ902、ボックスタブ903、ブラウザタブ904、右矢印キー905が表示される。
In FIG. 5, a
なお、図5に示す画面は、コピータブ901のタッチキーが押下されたときのコピー機能の初期画面を表している。
Note that the screen shown in FIG. 5 represents an initial screen of the copy function when the touch key of the
ここで、コピー機能に関する表示は領域906で行なわれ、領域906の上から、「コピーできます」が表示されている領域には、コピー機能で表示すべきステータスを表示する。そして、その下の領域には、倍率、選択給紙段、置数を表示する。
Here, the display relating to the copy function is performed in the
また、コピー機能の動作モードを設定するためのタッチキーとして、等倍、倍率、用紙選択、ソータ、両面、割込み、文字、濃度調整用としての薄くするに対応する左矢印キー、濃くするに対応する右矢印キーが配置されている。また、濃度を自動調整する自動キーが表示され、また、初期画面に表示しきれない動作モードの指定画面は、応用モードボタン909を押下することで、階層的に領域906内に表示されるようになっている。
In addition, as a touch key for setting the operation mode of the copy function, the left arrow key corresponding to the same size, magnification, paper selection, sorter, double-sided, interrupt, character, thinning for density adjustment, corresponding to the darkening The right arrow key is placed. An automatic key for automatically adjusting the density is displayed, and an operation mode designation screen that cannot be displayed on the initial screen is displayed hierarchically in the
また、表示領域907は、複写機1001のステータスを表示する領域であり、例えば、ジャムなどのアラームメッセージや、PDLプリントが行われているときにPDLプリント中であることを示すステータスメッセージを表示する領域である。
A
表示領域907にはシステム状況/中止タッチキー908が表示され、該システム状況/中止タッチキー908を押下すると、複写機1001のデバイス情報を表示する画面や、プリントジョブ状況を表示する画面(図示せず)を表示しする。この画面ではジョブの中止を行うことが可能になる。
A system status / cancel touch key 908 is displayed in the
送信/FAXタブ902を押下すると、複写機1001で読み取った画像をLAN1006上の機器にE−メール送信またはFTP送信したり、また公衆回線1008を使ってファクシミリ送信したりするための設定画面(図6)を表示する。
When a transmission /
一方、図5に示す画面において、ボックスタブ903を押下すると、ボックス得機能画面が表示される。
On the other hand, when a
具体的には、複写機1001上で読み取った画像をHDD2004内のボックス領域に保存したり、ボックス領域に保存されている画像データを指定して印刷したり、LAN1006上の機器に送信したりするための設定画面(図示せず)を表示する。 Specifically, an image read on the copying machine 1001 is stored in a box area in the HDD 2004, image data stored in the box area is designated and printed, or transmitted to a device on the LAN 1006. A setting screen (not shown) is displayed.
また、5つ以上の機能がコントローラユニット2000に装備されている場合は、コピー、送信/FAX、ボックス、ブラウザの4つ機能タブ901〜904の右横に右矢印キー905が表示される。そして、右矢印キー905が押下されると、別の機能のための画面が表示されるようになっている。
When the
以下、第1実施形態に係る画像処理装置の機能および動作について説明する。 Hereinafter, functions and operations of the image processing apparatus according to the first embodiment will be described.
本実施形態では、ユーザがNin1モードで、スキャナ入力される原稿の画像データを縮小レイアウトする場合に、特定のページを選択し、あるいは、拡大出力するべきページを画像処理で特定することで検知して、そのページを拡大出力する処理例である。 In this embodiment, when the user performs the reduced layout of the image data of the document input by the scanner in the Nin1 mode, detection is performed by selecting a specific page or specifying a page to be enlarged and output by image processing. In this example, the page is enlarged and output.
図6は、図4に示すLCD表示部2013に表示される応用モード画面の一例を示す図である。本画面は、図5に示した応用モードボタン909から応用モード画面を表示した例で、縮小レイアウト4in1を設定する。なお、1ページにレイアウトするページ数は、2,4,6,8等が選択可能に構成されている。
FIG. 6 is a diagram showing an example of an application mode screen displayed on the
スキャナ2070に原稿束を用意し、図4に示したスタートキー2014を押下すると、スキャナ2070は原稿束より分離給紙される原稿シートを読み取り位置へ搬送することで各ページの原稿の画像を読み込む。 When a document bundle is prepared in the scanner 2070 and the start key 2014 shown in FIG. 4 is pressed, the scanner 2070 reads a document image of each page by conveying a document sheet separated and fed from the document bundle to a reading position. .
なお、ここで言う原稿は、既に縮小印刷されているものでも構わない。その時、縮小印刷設定はなされていない場合もある。また、読み込んだ原稿は、詳細は省略してあるが、コントローラユニット2000は、図7に示したXMLベースのSVGファイルをRAM2003上に生成し、このSVGファイルをRAM2003上の特定のメモリ領域に格納する。
It should be noted that the original mentioned here may already be reduced-printed. At that time, the reduced print setting may not be set. Although the details of the read document are omitted, the
図7は、図2に示したデータ処理装置115が生成するSVGファイルの一例を示す図である。
FIG. 7 is a diagram illustrating an example of the SVG file generated by the
そして、読み込んだ原稿内のテキスト部や図面部、写真部等を各オブジェクトとし、コントローラユニット2000による画像処理で図面部をベクトル化して、図面のサイズ変更を可能な状態にする。なお、ベクトル化処理の詳細については後述する。
Then, the text portion, the drawing portion, the photo portion, and the like in the read document are set as objects, and the drawing portion is vectorized by image processing by the
原稿を読み込むと、コントローラユニット2000は、読み込んだ原稿の画像データを設定された通りにレイアウトする。そして、レイアウトを行った画像データ(または、読み込んだ画像データ)に対し、画像プロファイルを作成する。
When the original is read, the
ここで言う、画像プロファイルとは、画像データの特徴を現すものである。 The image profile mentioned here represents the characteristics of image data.
次に、視認性の低い画像データを判断するための特定の基準データを用いて、コントローラユニット2000が作成した画像プロファイルと基準データとの比較を行う。
Next, the image profile created by the
そして、コントローラユニット2000により、視認性が低いと判断された画像プロファイルは、その画像データの印刷プレビューをLCD表示部2013上に、図8に示す形式で画面に表示した後、ユーザからの指示を待つ。ここで、指示とは、選択された画像データであって、視認性の低い画像データを、レイアウト出力とは、別に、そのページをそのページに設定されている用紙サイズで出力するページを指示することである。
The image profile determined to be low in visibility by the
なお、用紙サイズで出力すると等倍で画像として出力されるが、Nin1出力されているページは、本来の用紙サイズよりも縮小されて出力させるので、Nin1出力結果から対比すると拡大された出力となる。 Note that if the paper size is output, it is output as an image at the same magnification. However, since the Nin1 output page is output with a reduced size compared to the original paper size, the output is enlarged as compared with the Nin1 output result. .
図8は、図4に示したLCD表示部2013に表示される第1の印刷倍率変更−画像選択画面の一例を示す図である。本画面は、コントローラユニット2000の制御によりLCD表示部2013に表示される。なお、本画面は、後述する画像処理で特定されたレイアウト画像中に、視認性が低下すると判断された画像を検出された場合に表示される。
FIG. 8 is a diagram showing an example of a first print magnification change-image selection screen displayed on the
図8において、ユーザがコントローラユニット2000の制御で表示された印刷プレビューを目視する。そして、視認性が低いと判断した画像(図8に示す701)を選択し、ユーザがLCD表示部2013上で直接指示した後、OKボタン703を押下すると、コントローラユニット2000の制御によりLCD表示部2013に図10に示す倍率入力画面を表示する。703はOKボタン、704は印刷開始指示ボタンである。
In FIG. 8, the user looks at the print preview displayed under the control of the
図9は、図4に示したLCD表示部2013に表示される印刷倍率変更指定画面の一例を示す画面の一例を示す図である。
FIG. 9 is a diagram showing an example of a screen showing an example of a print magnification change designation screen displayed on the
図9に示す倍率設定画面は、固定変倍率で倍率を選択される固定変倍率設定部803、804と、任意倍率で選択された画像を出力させる倍率設定部805を備える。つまり、倍率設定部805は、ズーム設定機能を果たし、オプション機能として、XY独立変倍機能も備える。
The magnification setting screen shown in FIG. 9 includes fixed
なお、自動変倍キー806は、レイアウトされるページの原稿サイズに対して、例えば選択される用紙サイズ等を指示すると、自動的に算出される倍率を設定するキーである。
An
ユーザは、倍率入力画面から希望の倍率を入力し、OKボタン802を押下すると、コントローラユニット2000の制御により、図10に示すLCD表示部2013に印刷方法を指定する画面を表示する。
When the user inputs a desired magnification from the magnification input screen and presses an
図10は、図4に示したLCD表示部2013に表示される第2の印刷倍率変更−印刷方法指定画面の一例を示す画面の一例を示す図である。本画面表示は、コントローラユニット2000の制御により、図10に示すLCD表示部2013に表示される。
FIG. 10 is a diagram showing an example of a screen showing an example of a second print magnification change-printing method designation screen displayed on the
ユーザは、図10に示す印刷方法指定画面において、視認性の低いと判断した画像部をどのように印刷するかを、例えば2通りの方法のいずれかで決定する。 The user determines how to print the image portion determined to have low visibility on the printing method designation screen shown in FIG. 10 by, for example, one of two methods.
本実施形態では、印刷方法901−1では、「視認性の低い画像をそのまま印刷する」または、印刷方法904−1では「視認性の低い画像部には、別プリントを参照するメッセージを印刷する」と言ったような方法の例を示す。 In the present embodiment, the printing method 901-1 “prints an image with low visibility as it is” or the printing method 904-1 “prints a message referring to another print on the image portion with low visibility”. An example of such a method is shown.
また、この印刷設定は、ページごとの設定とすることも、すべてのページで共通とすることも可能である。 The print setting can be set for each page or can be common to all pages.
この画面において、印刷方法901−1、904−1のいずれかを選択し、OKボタン903Bを押下すると、ユーザが選択した1つの視認性の低い画像に対する設定は完了する。なお、キャンセルボタン902Bが指示されると、直前表示画面に画面表示が切り替わる。
In this screen, when one of the printing methods 901-1 and 904-1 is selected and the
ユーザが印刷方法設定画面のOKボタン押下後、再度、画像選択画面(図8参照)を表示し、ユーザの指示を待つという処理を繰り返す。 After the user presses the OK button on the printing method setting screen, the image selection screen (see FIG. 8) is displayed again, and the process of waiting for the user's instruction is repeated.
なお、再度、図8に示した画像選択画面を表示する際、「初めに表示した画像選択画面と同様の画面を表示する場合」と「再び画像プロファイルを作成し、視認性の低い画像を判断する基準と比較を行う。そして、視認性が低いと判断された画像の印刷プレビューを表示する場合」とが考えられる。 When the image selection screen shown in FIG. 8 is displayed again, “when a screen similar to the image selection screen that was initially displayed” is displayed and “an image profile is created again to determine an image with low visibility. And a case where a print preview of an image determined to have low visibility is displayed ”.
また、図8に示したキャンセルボタン702を押下すると、図8に示した画像選択画面の画面を閉じ、印刷を中止する。さらに、図9に示した設定取消ボタン801や図10に示したキャンセルボタン902Bを押下すると、図8に示した画像選択画面の表示に戻る。
When the cancel
さらに、視認性の低い画像の倍率変更処理を終了し印刷を行う場合、ユーザが図8に示した印刷ボタン704を押下すると、印刷を開始する。
Further, when the magnification change processing for an image with low visibility is finished and printing is performed, printing is started when the user presses the
以下、マネージメントPC101のCPUによる画像処理で、MFP100が原稿から読み取った画像データ中の図面部をベクトル化して、図面のサイズ変更を可能な状態にする処理について詳述する。
In the following, a detailed description will be given of a process of vectorizing the drawing portion in the image data read from the document by the
次に本発明による画像処理全体の概要を図11にフローチャートを参照して説明する。なお、本実施形態における視認性の低い画像であるかどうかを判断する処理を、MFP100とは別のデータ処理装置で行う場合について説明するが、もちろん、MFP100のコントローラユニット2000が実行する構成であってもい。また、MFP100のコントローラユニット2000に対して、ローカルに接続する外部装置が記憶された画像処理プログラムを実行することで実現してもよい。
Next, an overview of the entire image processing according to the present invention will be described with reference to a flowchart shown in FIG. Although the case where the process for determining whether the image is low visibility in the present embodiment is performed by a data processing apparatus different from the
図11は、本発明に係る情報処理装置における第1のデータ処理手順の一例を示すフローチャートである。なお、(120)〜(136)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 11 is a flowchart showing an example of a first data processing procedure in the information processing apparatus according to the present invention. In addition, (120)-(136) shows each step. Each step is realized by loading a control program stored in the CPU of the
まず、イメージ情報入力処理を開始して(120)、MFP100の画像読み取り部110を動作させ1枚の原稿をラスター状に走査し、イメージ情報入力処理120で600DPI−8ビットの画像信号を得る。
First, the image information input process is started (120), the
そして、デジタル化された該画像信号をデータ処理装置115で前処理を施し記憶装置111に1ページ分の画像データとして保存する。
The digitized image signal is preprocessed by the
次に、詳細は後述するブロックセレクション(BS)処理を開始して(121)、マネージメントPC101のCPUは、画像処理プログラムを実行する。これにより、MFP100内に格納された画像データを取得して、先ず、文字部/線画部分とハーフトーンの画像部分とに領域を分離する。
Next, block selection (BS) processing, which will be described in detail later, is started (121), and the CPU of the
文字部は更に段落で塊として纏まっているブロック毎に、或いは、線で構成された表、図形に分離し各々セグメント化する。 The character part is further segmented into blocks, which are grouped as a block in a paragraph, or separated into tables and figures composed of lines.
一方、ハーフトーンで表現される画像部分は、矩形に分離されたブロックの画像部分、背景部等、所謂ブロック毎に独立したオブジェクトに分割する。 On the other hand, an image portion expressed in halftone is divided into independent objects for each so-called block, such as an image portion of a block separated into rectangles, a background portion, and the like.
次に、原稿画像中に付加情報として記録された2次元バーコード、或いはURLに該当するオブジェクトを検出し、URLについてはOCRで文字認識し、或いは2次元バーコードなら該マークを解読する(122)。 Next, a two-dimensional barcode recorded as additional information in the document image or an object corresponding to the URL is detected, and the URL is character-recognized by OCR, or if it is a two-dimensional barcode, the mark is decoded (122). ).
次に、原稿のオリジナル電子ファイルが格納されている記憶装置内のポインタ情報を検出する(123)。なお、記憶装置は、後述するように、ネットワーク上の記憶資源であればよい。 Next, pointer information in the storage device in which the original electronic file of the document is stored is detected (123). The storage device may be a storage resource on the network as will be described later.
尚、ポインタ情報を付加する手段は他に文字と文字の間隔に情報を埋め込む方法、ハーフトーンの画像に埋め込む方法等直接可視化されない所謂電子透かしによる方法も有る。 As other means for adding pointer information, there are a so-called digital watermark method that is not directly visualized, such as a method of embedding information in the space between characters and a method of embedding in a halftone image.
ここで、ポインタ情報が検出されたと判断した場合、ステップ(125)に分岐し、ポインタで示されたアドレスから元の電子ファイルが検索されたか否かを判断する。 If it is determined that the pointer information has been detected, the process branches to step (125) to determine whether the original electronic file has been retrieved from the address indicated by the pointer.
なお、本実施形態では、オリジナル電子ファイルは図1に示したクライアントPC102内のハードディスク内に格納されている。また、オリジナル電子ファイルは、オフィス10或いはオフィス20のLANに接続された文書管理サーバ106内のデータベース105内に格納されている場合もある。また、オリジナル電子ファイルはMFP100自体が有する記憶装置111のいずれかに格納されている。
In the present embodiment, the original electronic file is stored in the hard disk in the client PC 102 shown in FIG. The original electronic file may be stored in the
従って、マネージメントPC101は、ステップ(123)で得られたアドレス情報に従ってこれらの記憶装置内を検索する。
Therefore, the
そして、ステップ(125)でオリジナル電子ファイルが検索できないと判断した場合は、ステップ(126)に進む。或いは検索できたがPDF或いはtiffに代表されるイメージファイルであると判断した場合ステップ(126)に進む。或いはポインタ情報自体が存在しないと判断した場合は、ステップ(126)に進む。なお、ステップ(125)で、電子ファイルが検索できたと判断した場合は、ステップ(133)へ進む。 If it is determined in step (125) that the original electronic file cannot be retrieved, the process proceeds to step (126). Alternatively, if it is determined that the file is an image file represented by PDF or tiff, the process proceeds to step (126). Alternatively, if it is determined that the pointer information itself does not exist, the process proceeds to step (126). If it is determined in step (125) that the electronic file has been retrieved, the process proceeds to step (133).
ステップ(126)は、所謂文書検索処理ルーチンである。ここでは、ステップ(122)で、各文字ブロックに対して行ったOCRの結果から単語を抽出して全文検索、或いは各オブジェクトの配列と各オブジェクトの属性から所謂レイアウト検索を行う。 Step (126) is a so-called document search processing routine. Here, in step (122), a word is extracted from the result of OCR performed on each character block and a full text search is performed, or a so-called layout search is performed from the array of each object and the attribute of each object.
このレイアウト検索の結果、類似度の高い電子ファイルが検索できたと判断した場合は、サムネイル等を表示する(127)。 If it is determined as a result of this layout search that an electronic file with a high degree of similarity has been searched, a thumbnail or the like is displayed (127).
複数の中から操作者の選択が必要な場合は、操作者の入力操作よってファイルの特定を行う。 When the operator needs to be selected from a plurality of files, the file is specified by the operator's input operation.
なお、候補が1ファイルの場合、自動的にステップ(128)からステップ(134)に進み、格納アドレスを通知する。 If the candidate is one file, the process automatically proceeds from step (128) to step (134) to notify the storage address.
そして、ステップ(128)で、電子ファイルが検索処理で検索できなかったと判断した場合、或いは、検索できたがPDFあるいはtiffに代表される所謂イメージファイルであった場合、ステップ(129)に分岐する。電子ファイルが検索処理で検索できたと判断した場合は、ステップ(134)へ進む。 If it is determined in step (128) that the electronic file has not been searched by the search process, or if the electronic file has been searched but is a so-called image file represented by PDF or tiff, the process branches to step (129). . If it is determined that the electronic file has been retrieved by the retrieval process, the process proceeds to step (134).
そして、ステップ(129)で、イメージデータからベクトルデータへの変換処理であり、オリジナル電子ファイルに近い電子ファイルに変換する。なお、ベクトル化処理の詳細については後述する。 In step (129), image data is converted into vector data, which is converted to an electronic file close to the original electronic file. Details of the vectorization process will be described later.
具体的には、ステップ(122)で、OCRされた文字ブロックに対しては、更に文字のサイズ、スタイル、字体を認識し、原稿を走査して得られた文字に可視的に忠実なフォントデータに変換処理する。 Specifically, for the character block that has been OCR in step (122), the font data that is visually faithful to the character obtained by further recognizing the character size, style, and font and scanning the document. Convert to.
一方、線で構成される表、図形ブロックに対してはアウトライン化処理を施す。 On the other hand, outline processing is applied to tables and graphic blocks composed of lines.
また、画像ブロックに対してはイメージデータとして個別のJPEGファイルとして処理する。 The image block is processed as an individual JPEG file as image data.
これらのベクトル化処理はオブジェクト毎に行い、更に各オブジェクトのレイアウト情報を保存して、例えば、rtfに変換して(130)、電子ファイルとして記憶装置に格納する(131)。 These vectorization processes are performed for each object, and further, layout information of each object is stored, converted into, for example, rtf (130), and stored as an electronic file in a storage device (131).
次に、今ベクトル化した原稿画像は以降同様の処理を行う際に直接電子ファイルとして検索出来るように、先ずステップ(132)において、検索の為のインデックス情報を生成して検索用インデックスファイルに追加する。 Next, in step (132), index information for search is first generated and added to the search index file so that the vectorized document image can be directly searched as an electronic file when the same processing is performed thereafter. To do.
次に、ステップ(133)へ進み、ステップ(125)で、ポインタ情報から電子ファイルが特定できた場合、該電子ファイルの格納アドレスを操作者に通知する。あるいは検索処理で電子ファイルが特定出来た場合、さらには、ベクトル化により電子ファイルに変換した場合、該電子ファイルの格納アドレスを操作者に通知する。 Next, the process proceeds to step (133). When the electronic file can be identified from the pointer information in step (125), the storage address of the electronic file is notified to the operator. Alternatively, when the electronic file can be specified by the search process, or further converted into an electronic file by vectorization, the storage address of the electronic file is notified to the operator.
次に、操作者が行いたい処理が記録であるかどうかを判断する(134)。ここで、記録処理をユーザが選択していると判断した場合は、ポインタ情報をイメージデータとしてファイルに付加する(135)。ここで、記録処理をユーザが選択していないと判断した場合は、ステップ(136)へ進む。 Next, it is determined whether or not the process desired by the operator is recording (134). If it is determined that the recording process is selected by the user, pointer information is added to the file as image data (135). If it is determined that the recording process has not been selected by the user, the process proceeds to step (136).
なお、検索処理で電子ファイルが特定できた場合も同様に以降からは直接電子ファイルを特定する為にステップ(128)からステップ(134)に分岐する。そして、格納アドレスを操作者に通知すると共に、今紙に記録する場合は、同様にポインタ情報を電子ファイルに付加する。 If the electronic file can be specified by the search process, the process branches from step (128) to step (134) in order to directly specify the electronic file. When notifying the storage address to the operator and recording it on the current sheet, pointer information is similarly added to the electronic file.
次に、得られた電子ファイル自体を用いて、例えば文書の加工、蓄積、伝送、記録を行い(136)、本処理を終了する。 Next, using the obtained electronic file itself, for example, processing, accumulation, transmission, and recording of a document are performed (136), and this processing is terminated.
これらの処理はイメージデータを用いる場合に比べて情報量が削減され、蓄積効率が高まり、伝送時間が短縮され、又記録表示する際には高品位なデータとして非常に優位となる。 These processes reduce the amount of information, increase the storage efficiency, shorten the transmission time, and are very advantageous as high-quality data when recorded and displayed compared to the case of using image data.
以下、図11に示した特定の各ステップの処理の詳細について説明する。 The details of the processing of each specific step shown in FIG. 11 will be described below.
先ず、図1に示したステップ(121)で示すブロックセレクション処理について説明する。 First, the block selection process shown in step (121) shown in FIG. 1 will be described.
<ブロックセレクション処理>
図12は、本実施形態における情報処理装置におけるブロックセレクション処理を説明する図である。図12の(A)は画像読み取り部110から入力される原稿シートで、テキスト12−1、表12−2、画像12−3,12−4、グラフィック12−6から構成される例である。
<Block selection processing>
FIG. 12 is a diagram for explaining block selection processing in the information processing apparatus according to the present embodiment. FIG. 12A shows an example of an original sheet input from the
図12の(B)は(A)をBS処理して、ブロック分割された領域の境界を異なる線種の矩形で示したものである。なお、表内において、テキストを含む場合がある。 (B) of FIG. 12 shows the boundary of the block-divided area by BS processing of (A), and shows rectangles of different line types. In the table, text may be included.
本実施形態において、ブロックセレクション処理とは、図12の(A)に示す画像読み取り部110が読み取った一頁のイメージデータを図12の(B)に示す様に、オブジェクト毎の塊として認識する。そして、該ブロック各々を文字/図画/写真/線/表等の属性に判定し、異なる属性を持つ領域に分割する処理である。
In this embodiment, the block selection process recognizes image data of one page read by the
ブロックセレクション処理の具体例を以下に説明する。 A specific example of the block selection process will be described below.
先ず、図12の(A)に示す原稿に対する入力画像を白黒に二値化し、輪郭線追跡を行って黒画素輪郭で囲まれる画素の塊を抽出する。 First, the input image for the document shown in FIG. 12A is binarized into black and white, and contour tracing is performed to extract a block of pixels surrounded by a black pixel contour.
この際、面積の大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡を行い白画素の塊を抽出し、さらに一定面積以上の白画素の塊の内部からは再帰的に黒画素の塊を抽出する。 At this time, for the black pixel block having a large area, the white line block is extracted by tracing the outline of the white pixel inside, and the white pixel block having a predetermined area or more is recursively extracted. A black pixel block is extracted.
なお、内部にある白画素に対しても輪郭線追跡をおこない白画素の塊を抽出する処理は、公知の画像処理である。 In addition, the process of performing contour line tracing for white pixels inside and extracting a lump of white pixels is a known image processing.
このようにして得られた黒画素の塊を、大きさおよび形状で分類し、異なる属性を持つ領域へ分類していく。 The black pixel blocks obtained in this way are classified by size and shape, and are classified into regions having different attributes.
例えば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊と認識する。また、近接する文字が整列良くグループ化可能な部分を文字領域と認識する。 For example, a pixel having an aspect ratio close to 1 and having a constant size is recognized as a pixel block corresponding to a character. Further, a portion where adjacent characters can be grouped with good alignment is recognized as a character region.
また、扁平な画素塊を線領域と、一定大きさ以上でかつ四角系の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域、不定形の画素塊が散在している領域を写真領域、それ以外の任意形状の画素塊を図画領域であると認識する。 In addition, a flat pixel block is defined as a line region, and a black pixel block that contains a square white pixel block that is not less than a certain size in a well-aligned manner is a table region, and an area in which irregular pixel blocks are scattered. It recognizes a picture area and a pixel block of any other shape as a picture area.
このようにしてブロックセレクション処理で得られた各ブロックに対するブロック情報を図13に示す。 FIG. 13 shows block information for each block obtained by the block selection process in this way.
図13は、図12に示した原稿に対するブロックセレクション結果であるブロック情報テーブルBTABの一例を示す図である。 FIG. 13 is a diagram showing an example of a block information table BTAB, which is a block selection result for the document shown in FIG.
本実施形態では、図12に示した各ブロックBL1〜BL6に対応してブロック情報をテーブルとして管理する例である。また、ブロックの総数は、「6」の例である。 In the present embodiment, block information is managed as a table corresponding to each of the blocks BL1 to BL6 shown in FIG. The total number of blocks is an example of “6”.
これらのブロックBL1〜BL6毎のブロック情報は以降に説明するベクトル化、或いは検索の為の情報として用いる。 The block information for each of the blocks BL1 to BL6 is used as information for vectorization or search described below.
<ポインタ情報の検出>
次に、図11に示したステップ(122)で示したファイルの格納位置をイメージ情報から抽出する為のOCR/OMR処理について、図14に示すフローチャートと、図15に示す原稿シート例を説明する。
<Detection of pointer information>
Next, the OCR / OMR process for extracting the storage location of the file shown in step (122) shown in FIG. 11 from the image information will be described with reference to the flowchart shown in FIG. 14 and the original sheet example shown in FIG. .
図14は、本発明に係る情報処理装置における第2のデータ処理手順の一例を示すフローチャートである。なお、(300)〜(308)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 14 is a flowchart showing an example of a second data processing procedure in the information processing apparatus according to the present invention. In addition, (300)-(308) shows each step. Each step is realized by loading a control program stored in the CPU of the
図15は、図2に示した画像読み取り部110が読み取り原稿シートの一例を示す図である。
FIG. 15 is a diagram illustrating an example of a document sheet read by the
図15において、310は原稿で、文字ブロック312、313と、画像ブロック314、2次元バーコード311とを含んで構成されている。
In FIG. 15,
本例は、原稿画像中に付加された2次元バーコード(QRコードシンボル)311を復号して、データ文字列を出力する処理である。 In this example, the two-dimensional barcode (QR code symbol) 311 added to the document image is decoded and a data character string is output.
まず、データ処理装置115内のページメモリ(RAM2003に確保される)に格納された原稿310を表すイメージ画像をCPU(不図示)で走査する。そして、先に説明したブロックセレクション処理の結果から所定の2次元バーコード311の位置を検出する(300)。
First, an image representing the original 310 stored in a page memory (secured in the RAM 2003) in the
なお、QRコードの位置検出パターンは、シンボルの4隅のうちの3済みに配置される同一の位置検出要素パターンから構成される。 The QR code position detection pattern is composed of the same position detection element patterns arranged in three of the four corners of the symbol.
次に、位置検出パターンに隣接する形式情報を復元し、シンボルに適用されている誤り訂正レベルおよびマスクパターンを得る(301)。シンボルの型番を決定した後(302)、形式情報で得られたマスクパターンを使って符号化領域ビットパターンをXOR演算することによってマスク処理を解除する(303)。 Next, the format information adjacent to the position detection pattern is restored, and the error correction level and mask pattern applied to the symbol are obtained (301). After the symbol model number is determined (302), the mask process is canceled by performing an XOR operation on the coding area bit pattern using the mask pattern obtained from the format information (303).
尚、モデルに対応する配置規則に従い、シンボルキャラクタを読み取り、メッセージのデータ及び誤り訂正コード語を復元する(304)。 The symbol character is read in accordance with the arrangement rule corresponding to the model, and the message data and the error correction code word are restored (304).
そして、復元されたコード上に、誤りがあるかどうかの検出を行い(305)、誤りが検出されたと判断した場合、ステップ(306)に分岐し、これを訂正する。誤りが検出されていないと判断した場合、ステップ(307)へ分岐する。 Then, whether or not there is an error is detected on the restored code (305), and if it is determined that an error has been detected, the process branches to step (306) and is corrected. If it is determined that no error has been detected, the process branches to step (307).
そして、誤り訂正されたデータより、モード指示子および文字数指示子に基づいて、データコード語をセグメントに分割する(ステップ307)。 Then, the data code word is divided into segments based on the mode indicator and the character number indicator from the error-corrected data (step 307).
最後に、仕様モードに基づいてデータ文字を復号し、結果を出力して(308)、本処理を終了する。 Finally, the data character is decoded based on the specification mode, the result is output (308), and this process is terminated.
尚、2次元バーコード内に組み込まれたデータは、対応するファイルのアドレス情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。或いは、対応するファイルへのURLで構成される。 Note that the data incorporated in the two-dimensional barcode represents the address information of the corresponding file, and is composed of path information including, for example, a file server name and a file name. Alternatively, it consists of a URL to the corresponding file.
本実施形態では、ポインタ情報が2次元バーコードを用いて付与された原稿310について説明した。
In the present embodiment, the
しかし、直接文字列でポインタ情報が記録される場合は所定のルールに従った文字列のブロックを先のブロックセレクション処理で検出し、該 ポインタ情報を示す文字列の各文字を文字認識する事で、直接元ファイルのアドレス情報を得る事が可能である。 However, when pointer information is directly recorded as a character string, a block of the character string according to a predetermined rule is detected by the previous block selection process, and each character of the character string indicating the pointer information is recognized. The address information of the original file can be obtained directly.
また、図15に示した原稿310の文字ブロック312、或いは文字ブロック313の文字列に対して隣接する文字と文字の間隔等に視認し難い程度の変調を加え、該文字間隔に情報を埋め込むことでもポインタ情報を電子透かし情報として付与できる。
Further, the character block 312 of the original 310 shown in FIG. 15 or the character string of the
所謂透かし情報は、後述する文字認識処理を行う際に各文字の間隔を検出すれば、ポインタ情報が得られる。又、自然画である画像ブロック314の中に電子透かしとしてポインタ情報を付加する事も可能である。
The so-called watermark information can be obtained by detecting pointer intervals when performing character recognition processing described later. It is also possible to add pointer information as a digital watermark into an
<ポインタ情報によるファイル検索>
次に、図11に示したステップ(125)およびステップ(128)で示す、ポインタ情報からの記憶装置に記憶されたオリジナル電子ファイルの検索処理について図16に示すフローチャートを参照して説明する。
<File search by pointer information>
Next, the search processing of the original electronic file stored in the storage device from the pointer information shown in step (125) and step (128) shown in FIG. 11 will be described with reference to the flowchart shown in FIG.
図16は、本発明に係る情報処理装置における第3のデータ処理手順の一例を示すフローチャートである。なお、(400)〜(408)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 16 is a flowchart showing an example of a third data processing procedure in the information processing apparatus according to the present invention. In addition, (400)-(408) shows each step. Each step is realized by loading a control program stored in the CPU of the
まず、上述した処理で取得しているポインタ情報に含まれるアドレスに基づいて,ファイルサーバを特定する(400)。ここでファイルサーバとは、クライアントPC102や、データベース105を内蔵する文書管理サーバ106や、記憶装置111を内蔵するMFP100自身を指す。ここでアドレスとは、URLや、サーバ名とファイル名からなるパス情報である。
First, a file server is specified based on the address included in the pointer information acquired by the above-described processing (400). Here, the file server refers to the client PC 102, the
このようにしてファイルサーバが特定できたら、ファイルサーバに対してアドレスを転送する(401)。 When the file server can be specified in this way, the address is transferred to the file server (401).
ファイルサーバは、上記アドレスを受信すると、該当するオリジナル電子ファイルを記憶装置内で検索する(402)。 When the file server receives the address, the file server searches the storage device for the corresponding original electronic file (402).
そして、該当するオリジナル電子ファイルが存在するかどうかを判断する(403)。ここで、該当するオリジナル電子ファイルが存在しないと場合には、MFP100に対してその旨通知する。
Then, it is determined whether or not the corresponding original electronic file exists (403). If the corresponding original electronic file does not exist, the
一方、ステップ(403)で、ファイルサーバに該当するファイルが存在すると判断した場合は、図11で説明した様に、ファイルのアドレスを通知する(図11に示すステップ(133))。また、ユーザの希望する処理が画像ファイルデータの取得であれば、MFP100に対して画像ファイルデータを転送して(408)、処理を終了する。 On the other hand, when it is determined in step (403) that the corresponding file exists in the file server, the file address is notified as described in FIG. 11 (step (133) shown in FIG. 11). If the process desired by the user is acquisition of image file data, the image file data is transferred to the MFP 100 (408), and the process ends.
<ファイル検索処理>
次に、図11に示したステップ(126)で示すファイル検索処理の詳細について、図13および図17に示すフローチャートを参照して説明を行う。
<File search process>
Next, the details of the file search process shown in step (126) shown in FIG. 11 will be described with reference to the flowcharts shown in FIGS.
図17は、本発明に係る情報処理装置における第4のデータ処理手順の一例を示すフローチャートである。本処理は、図11に示したステップ(126)で示すファイル検索処理の詳細手順である。なお、(510)〜(526)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 17 is a flowchart showing an example of a fourth data processing procedure in the information processing apparatus according to the present invention. This process is a detailed procedure of the file search process shown in step (126) shown in FIG. In addition, (510)-(526) shows each step. Each step is realized by loading a control program stored in the CPU of the
また、上述したステップ(126)の処理は、前述したように、ステップ(124)で入力原稿(入力ファイル)にポインタ情報が存在しなかった場合に行われる。または、ポインタ情報は在るが電子ファイルが見つからなかった場合に行われる。或いは電子ファイルがイメージファイルであった場合に行われる。 Further, as described above, the process of step (126) described above is performed when pointer information does not exist in the input document (input file) in step (124). Alternatively, it is performed when there is pointer information but no electronic file is found. Alternatively, it is performed when the electronic file is an image file.
ここでは、ステップ(122)の結果、抽出された各ブロック及び入力ファイルが、図13に示す情報(ブロック情報、入力ファイル情報)を備えるものとする。 Here, it is assumed that each block and input file extracted as a result of step (122) include the information (block information and input file information) shown in FIG.
また、情報内容として、属性、座標位置、幅と高さのサイズ、OCR情報有無を例としてあげる。属性は、文字、線、写真、絵、表その他に分類する。また簡単に説明を行うため、ブロックは座標Xの小さい順、即ち(例、X1<X2<X3<X4X5<X6)にブロックBL1、ブロックBL2、ブロックBL3、ブロックBL4、ブロックBL5,ブロックBL6と名前をつけている。 Further, as information contents, attributes, coordinate positions, width and height sizes, and presence / absence of OCR information are given as examples. Attributes are classified into characters, lines, photographs, pictures, tables and others. In addition, for the sake of simple explanation, the blocks are named as block BL1, block BL2, block BL3, block BL4, block BL5, block BL6 in ascending order of the coordinates X, that is, (eg, X1 <X2 <X3 <X4X5 <X6). Is attached.
ブロック総数は、入力ファイル中の全ブロック数であり、図17に示す例の場合は、ブロック総数は図13に示したように「6」である。 The total number of blocks is the total number of blocks in the input file. In the example shown in FIG. 17, the total number of blocks is “6” as shown in FIG.
以下、これらの情報を使用して、データベース内から、入力ファイルに類似したファイルのレイアウト検索を行う処理例を説明する。なお、ここで、データベースファイルは、図13と同様のテーブル情報を備えることを前提とする。また、本検索処理は、入力ファイルとデータベース中のファイルを順次比較するものである。なお、後述するステップ比較において、ΔNは入力ファイルのブロック総数の誤差に対応する。ΔWは入力ファイルのブロック幅の誤差に対応する。ΔHは、入力ファイルのブロック情報の高さの誤差に対応する。 Hereinafter, an example of processing for performing layout search of a file similar to an input file from the database using these pieces of information will be described. Here, it is assumed that the database file includes the same table information as in FIG. The search process sequentially compares the input file and the file in the database. In step comparison described later, ΔN corresponds to an error in the total number of blocks in the input file. ΔW corresponds to an error in the block width of the input file. ΔH corresponds to an error in the height of block information of the input file.
また、nはデータベースファイルのブロック総数である。また、wはデータベースファイルのブロック幅である。hは、データベースファイルのブロック高さである。 N is the total number of blocks in the database file. W is the block width of the database file. h is the block height of the database file.
また、Nは入力ファイルのブロック総数を示し、Wは入力ファイルのブロック幅を示し、Hは入力ファイルのブロック高さを示す。 N indicates the total number of blocks in the input file, W indicates the block width of the input file, and H indicates the block height of the input file.
まず、ステップ(510)で、後述する類似率等に関するメモリ領域の初期値の初期化を行う。次に、ステップ(511)で、ブロック総数の比較(N−ΔN<n<N+ΔN)を行い、ここで、この比較が真であるか否かを判断する。ここで、この比較が真であると判断した場合は、さらにファイル内のブロックの情報の属性を順次比較する(512)。そして、属性が一致すると判定した場合は、属性類似率を更新する(513)。なお、ここで、属性が一致しないと判断された場合には、ステップ(521)へ分岐する。 First, in step (510), initial values of memory areas relating to similarity and the like to be described later are initialized. Next, in step (511), the total number of blocks is compared (N−ΔN <n <N + ΔN), and it is determined whether or not this comparison is true. If it is determined that this comparison is true, the attribute of the block information in the file is further sequentially compared (512). If it is determined that the attributes match, the attribute similarity is updated (513). Here, if it is determined that the attributes do not match, the process branches to step (521).
次に、サイズ比較により、W−ΔW<w<W+ΔWで、かつ、H−ΔH<h<H+ΔHが真かどうかを判断する(514)。ここで、真でないと判断した場合は、ステップ(521)へ進む。 Next, it is determined by size comparison whether W−ΔW <w <W + ΔW and whether H−ΔH <h <H + ΔH is true (514). If it is determined that it is not true, the process proceeds to step (521).
一方、ステップ(514)で、真であると判断した場合は、入力ファイルとデータベースファイルとのサイズ類似率を更新する(515)。 On the other hand, if it is determined in step (514) that it is true, the size similarity between the input file and the database file is updated (515).
次に、入力ファイルとデータベースファイルとにそれぞれOCR情報があるかどうかを判断する(516)。ここで、OCR情報ないと判断された場合には、ステップ(521)へ分岐する。 Next, it is determined whether there is OCR information in the input file and the database file (516). If it is determined that there is no OCR information, the process branches to step (521).
次に、それぞれのOCR情報の文字コードを比較して(517)、OCR類似率を更新する(518)。 Next, the character codes of the respective OCR information are compared (517), and the OCR similarity rate is updated (518).
次に、入力ファイルの全ブロックについて属性類似率とOCR類似率を更新し終えているかどうかを判断する(519)。ここで、終了していないと判断された場合には、ステップ(520)へ分岐して、N≦nなら、入力ファイルの次のブロックへ、N>nならば、データベースファイルの次のブロックへ処理を進める。 Next, it is determined whether or not the attribute similarity ratio and the OCR similarity ratio have been updated for all blocks of the input file (519). If it is determined that the process has not been completed, the process branches to step (520). If N ≦ n, the process proceeds to the next block of the input file. If N> n, the process proceeds to the next block of the database file. Proceed with the process.
一方、ステップ(519)で、全ブロック終了していると判断した場合は、それぞれ算出されて更新された属性類似率、サイズ類似率、OCR類似率をもとに総合類似率を算出する(522)。 On the other hand, if it is determined in step (519) that all blocks have been completed, the overall similarity is calculated based on the attribute similarity, size similarity, and OCR similarity calculated and updated respectively (522). ).
なお、各類似率の算出方法については、公知の技術が用いられるので説明を省略する。 In addition, about the calculation method of each similarity rate, since a well-known technique is used, description is abbreviate | omitted.
次に、総合類似率が、予め設定された閾値Thより高いかどうかを判断する(523)。ここで、高くないと判断した場合は、ステップ(526)へ進み、データベースの次のファイルへアクセスして、ステップ(510)へ戻る。 Next, it is determined whether the total similarity is higher than a preset threshold Th (523). If it is determined that the value is not high, the process proceeds to step (526), the next file in the database is accessed, and the process returns to step (510).
一方、ステップ(523)で、総合類似率が、予め設定された閾値Thより高いと判断した場合は、そのファイルを類似候補として保存する(524)。 On the other hand, if it is determined in step (523) that the overall similarity is higher than a preset threshold Th, the file is stored as a similarity candidate (524).
次に、データベースの全ファイルの検索が終了しているかどうかを判断する(525)。ここで、終了していないと判断した場合は、ステップ(526)へ進み、終了していると判断している場合には、本処理を終了する。 Next, it is determined whether or not all files in the database have been searched (525). If it is determined that the process has not been completed, the process proceeds to step (526). If it is determined that the process has been completed, the process ends.
なお、不図示ではあるが、ステップ(514)にてサイズ比較時に、位置情報XYの比較などを行ってもよい。 Although not shown, the position information XY may be compared at the time of size comparison in step (514).
以上、検索の結果 類似度が閾値Thより高く、ステップ(524)で候補として保存されたデータベースファイルをサムネイル等で表示する(127)。複数の中から操作者の選択が必要なら操作者の入力操作よってファイルの特定を行う。 As described above, the search results show that the similarity is higher than the threshold value Th and the database file saved as a candidate in step (524) is displayed as a thumbnail (127). If the operator needs to be selected from a plurality of files, the file is specified by the operator's input operation.
<ベクトル化処理>
ファイルサーバの記憶装置にオリジナル電子ファイルが存在しないと判断した場合は、図11に示すステップ(129)で、図12に示すイメージデータをブロック毎にベクトル化する処理を行う。
<Vectorization processing>
If it is determined that the original electronic file does not exist in the storage device of the file server, the image data shown in FIG. 12 is vectorized for each block in step (129) shown in FIG.
次に、図11に示したステップ(129)で示されるベクトル化について詳説する。 Next, the vectorization shown in step (129) shown in FIG. 11 will be described in detail.
まず、文字ブロックに対しては各文字に対して文字認識処理を行う。 First, character recognition processing is performed on each character for a character block.
『文字認識』
文字認識部では、文字単位で切り出された画像に対し、パターンマッチの一手法を用いて認識を行い、対応する文字コードを得る。
"Character recognition"
The character recognition unit recognizes an image cut out in character units using a pattern matching method, and obtains a corresponding character code.
この認識処理は、文字画像から得られる特徴を数十次元の数値列に変換した観測特徴ベクトルと、あらかじめ字種毎に求められている辞書特徴ベクトルと比較し、最も距離の近い字種を認識結果とする処理である。 This recognition process recognizes the character type with the closest distance by comparing the observed feature vector obtained by converting the feature obtained from the character image into a numerical sequence of several tens of dimensions and the dictionary feature vector obtained for each character type in advance. The resulting process.
特徴ベクトルの抽出には種々の公知手法があり、例えば、文字をメッシュ状に分割し、各メッシュ内の文字線を方向別に線素としてカウントしたメッシュ数次元ベクトルを特徴とする方法がある。 There are various known methods for extracting feature vectors. For example, there is a method characterized by dividing a character into meshes, and using a mesh number-dimensional vector obtained by counting character lines in each mesh as line elements according to directions.
図11に示したステップ(121)のブロックセレクション処理で抽出された文字領域に対して文字認識を行う場合は、まず該当領域に対し横書き、縦書きの判定を行う。そして、各々対応する方向に行を切り出し、その後文字を切り出して文字画像を得る。 When character recognition is performed on the character area extracted by the block selection process in step (121) shown in FIG. 11, first, horizontal writing and vertical writing are determined for the corresponding area. Then, a line is cut out in a corresponding direction, and then a character is cut out to obtain a character image.
なお、横書き、縦書きの判定は、該当領域内で画素値に対する水平/垂直の射影を取り、水平射影の分散が大きい場合は横書き領域、垂直射影の分散が大きい場合は縦書き領域と判断すればよい。 Note that horizontal / vertical writing is determined by taking horizontal / vertical projections of the pixel values in the corresponding area. If the horizontal projection variance is large, the horizontal writing area is determined. If the vertical projection variance is large, the vertical writing area is determined. That's fine.
文字列および文字への分解は、横書きならば水平方向の射影を利用して行を切り出し、さらに切り出された行に対する垂直方向の射影から、文字を切り出すことで行う。縦書きの文字領域に対しては、水平と垂直を逆にすればよい。尚、この時文字のサイズが検出出来る。 For horizontal writing, character strings and characters are decomposed by cutting out lines using horizontal projection, and then cutting out characters from the vertical projection of the cut lines. For vertically written character areas, horizontal and vertical may be reversed. At this time, the character size can be detected.
『フォント認識』
文字認識の際に用いる、字種数ぶんの辞書特徴ベクトルを、文字形状種すなわちフォント種に対して複数用意し、マッチングの際に文字コードとともにフォント種を出力することで、文字のフォントが認識出来る。
"Font recognition"
Multiple character feature vectors used for character recognition are prepared for the character shape type, that is, font type, and the font type is output along with the character code when matching. I can do it.
『文字のベクトル化』
前記文字認識およびフォント認識よって得られた、文字コードおよびフォント情報を用いて、各々あらかじめ用意されたアウトラインデータを用いて、文字部分の情報をベクトルデータに変換する。なお、元原稿がカラーの場合は、カラー画像から各文字の色を抽出してベクトルデータとともに記録する。
"Vectorization of characters"
Using the character code and font information obtained by the character recognition and font recognition, the character portion information is converted into vector data using outline data prepared in advance. When the original document is color, the color of each character is extracted from the color image and recorded together with vector data.
以上の処理により 文字ブロックに属するイメージ情報をほぼ形状、大きさ、色が忠実なベクトルデータに変換出来る。 Through the above processing, image information belonging to a character block can be converted into vector data that is almost faithful in shape, size, and color.
『文字以外の部分のベクトル化』
図11に示したステップ(121)に示すブロックセレクション処理で、図画あるいは線、表領域とされた領域を対象に、中で抽出された画素塊の輪郭をベクトルデータに変換する。具体的には、輪郭をなす画素の点列を角と看倣される点で区切って、各区間を部分的な直線あるいは曲線で近似する。
"Vectorization of non-character parts"
In the block selection process shown in step (121) shown in FIG. 11, the outline of the pixel block extracted therein is converted into vector data for the area designated as a drawing, line, or table area. Specifically, a point sequence of pixels forming an outline is divided by points regarded as corners, and each section is approximated by a partial straight line or curve.
以下、図18、図19を参照して、文字以外の部分のベクトル化について説明する。 Hereinafter, vectorization of portions other than characters will be described with reference to FIGS.
図18、図19は、本実施形態における情報処理装置における文字以外の部分のベクトル化処理を説明する図である。 FIG. 18 and FIG. 19 are diagrams for explaining vectorization processing of portions other than characters in the information processing apparatus according to the present embodiment.
なお、本実施形態において、以下、角とは曲率が極大となる点であり、曲率が極大となる点は、図18に示すように、任意点Piに対し左右k個の離れた点Pi−k,Pi+kの間に弦を引いたとき、この弦とPiの距離が極大となる点として求められる。 In the present embodiment, hereinafter, the corner is a point at which the curvature is a maximum, and the point at which the curvature is at a maximum is, as shown in FIG. When a string is drawn between k and Pi + k, the distance between the string and Pi is obtained as a maximum.
さらに、Pi−k,Pi+k間の弦の長さ/弧の長さをRとし、Rの値が閾値以下である点を角とみなすことができる。角によって分割された後の各区間は、直線は点列に対する最小二乗法など、曲線は3次スプライン関数などを用いてベクトル化することができる。 Furthermore, let R be the chord length / arc length between Pi−k and Pi + k, and a point where the value of R is equal to or less than a threshold value can be regarded as a corner. Each section after being divided by the corners can be vectorized by using a least square method for a straight line and a curve using a cubic spline function.
また、対象が内輪郭を持つ場合、ブロックセレクションで抽出した白画素輪郭の点列を用いて、同様に部分的直線あるいは曲線で近似する。 Further, when the target has an inner contour, it is similarly approximated by a partial straight line or a curve using the point sequence of the white pixel contour extracted by block selection.
以上のように、輪郭の区分線近似を用いれば、任意形状の図形のアウトラインをベクトル化することができる。元原稿がカラーの場合は、カラー画像から図形の色を抽出してベクトルデータとともに記録する。 As described above, the outline of a figure having an arbitrary shape can be vectorized by using the contour line approximation. If the original document is in color, the figure color is extracted from the color image and recorded together with vector data.
さらに、図19に示す様に、ある区間で外輪郭と、内輪郭あるいは別の外輪郭が近接している場合、2つの輪郭線を一纏めにし、太さを持った線として表現することができる。 Furthermore, as shown in FIG. 19, when an outer contour and an inner contour or another outer contour are close to each other in a certain section, two contour lines can be combined and expressed as a line having a thickness. .
具体的には、ある輪郭の各点Piから別輪郭上で最短距離となる点Qiまで線を引き、各距離PQiが平均的に一定長以下の場合、注目区間はPQi中点を点列として直線あるいは曲線で近似し、その太さはPQiの平均値とする。線や線の集合体である表罫線は、前記のような太さを持つ線の集合として効率よくベクトル表現することができる。 Specifically, when a line is drawn from each point Pi of a certain contour to a point Qi that is the shortest distance on another contour, and each distance PQi is on average less than or equal to a certain length, the interval of interest has a midpoint PQi as a point sequence Approximate with a straight line or a curve, and the thickness is the average value of PQi. A table ruled line that is a line or a set of lines can be efficiently expressed as a set of lines having the above-described thickness.
尚、先に文字ブロックに対する文字認識処理を用いたベクトル化を説明したが、該文字認識処理の結果 辞書からの距離が最も近い文字を認識結果として用いる。しかし、この距離が所定値以上の場合は、必ずしも本来の文字に一致せず、形状が類似する文字に誤認識している場合が多い。 The vectorization using the character recognition processing for the character block has been described above. As a result of the character recognition processing, the character having the closest distance from the dictionary is used as the recognition result. However, when this distance is greater than or equal to a predetermined value, the character does not necessarily match the original character, and is often erroneously recognized as a character having a similar shape.
従って 本発明では、この様な文字に対しては、上記した様に、一般的な線画と同じに扱い、該文字をアウトライン化する。 Therefore, in the present invention, such characters are handled in the same way as general line drawings as described above, and the characters are outlined.
即ち、従来の文字字認識処理で誤認識を起こす文字に対しても 誤った文字にベクトル化されず、可視的にイメージデータに忠実なアウトライン化によるベクトル化が行える。 In other words, a character that is erroneously recognized by the conventional character recognition processing is not vectorized into an erroneous character, and can be vectorized by an outline that is visually faithful to image data.
本実施形態において、写真と判定されたブロックに対しては、ベクトル化出来ない為、イメージデータのままとする。 In the present embodiment, the block determined to be a photograph cannot be vectorized, and therefore remains as image data.
<図形認識>
上述したように任意形状の図形のアウトラインをベクトル化した後、これらベクトル化された区分線を図形オブジェクト毎にグループ化する処理について説明する。
<Figure recognition>
A process of grouping the vectorized dividing lines for each graphic object after vectorizing the outline of the figure of an arbitrary shape as described above will be described.
図20は、本実施形態における情報処理装置における第5のデータ処理手順の一例を示すフローチャートである。本例は、ベクトルデータを図形オブジェクト毎にグループ化するまでの処理手順に対応する。なお、(700)〜(702)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 20 is a flowchart illustrating an example of a fifth data processing procedure in the information processing apparatus according to this embodiment. This example corresponds to a processing procedure until vector data is grouped for each graphic object. In addition, (700)-(702) shows each step. Each step is realized by loading a control program stored in the CPU of the
まず、上述したベクトル化処理で生成される各ベクトルデータの始点、終点を算出する(700)。次に、各ベクトルの始点、終点情報を用いて、図形要素を検出する(701)。 First, the start point and end point of each vector data generated by the vectorization process described above are calculated (700). Next, a graphic element is detected using the start point and end point information of each vector (701).
なお、図形要素の検出とは、区分線が構成している閉図形を検出することである。検出に際しては、閉形状を構成する各ベクトルはその両端にそれぞれ連結するベクトルを有しているという原理を応用し、検出を行う。 Note that the detection of a graphic element means detecting a closed graphic formed by a dividing line. In detection, the detection is performed by applying the principle that each vector constituting the closed shape has vectors connected to both ends thereof.
次に図形要素内に存在する他の図形要素、もしくは区分線をグループ化し、一つの図形オブジェクトとして(702)、処理を終了する。 Next, other graphic elements or dividing lines existing in the graphic element are grouped to form one graphic object (702), and the process is terminated.
また、図形要素内に他の図形要素、区分線が存在しない場合は図形要素を図形オブジェクトとする。 If there is no other graphic element or dividing line in the graphic element, the graphic element is set as a graphic object.
図21は、本実施形態における情報処理装置における第6のデータ処理手順の一例を示すフローチャートである。本例は、図形要素を検出する処理例である。なお、(710)〜(712)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 21 is a flowchart illustrating an example of a sixth data processing procedure in the information processing apparatus according to the present embodiment. This example is a processing example for detecting a graphic element. In addition, (710)-(712) shows each step. Each step is realized by loading a control program stored in the CPU of the
先ず、上述したベクトル化処理で生成されるベクトルデータより両端に連結していない不要なベクトルを除去し、閉図形構成ベクトルを抽出する(710)。次に、閉図形構成ベクトルの中から該ベクトルの始点を開始点とし、時計回りに順にベクトルを追っていく。そして、開始点に戻るまで行い、通過したベクトルを全て一つの図形要素を構成する閉図形としてグループ化する(711)。 First, unnecessary vectors not connected to both ends are removed from the vector data generated by the vectorization process described above, and a closed graphic component vector is extracted (710). Next, from the closed figure constituent vectors, the starting point of the vector is used as a starting point, and the vectors are sequentially followed in the clockwise direction. The process is repeated until the start point is returned, and all the passed vectors are grouped as a closed graphic constituting one graphic element (711).
また、閉図形内部にある閉図形構成ベクトルも全てグループ化する。さらにまだグループ化されていないベクトルの始点を開始点とし、同様の処理を繰り返す。 In addition, all closed graphic constituent vectors inside the closed graphic are also grouped. Further, the same processing is repeated with the starting point of a vector not yet grouped as a starting point.
最後に、ステップ(710)で除去された不要ベクトルのうち、711で閉図形としてグループ化されたベクトルに接合しているものを検出し一つの図形要素としてグループ化して(712)、処理を終了する。 Finally, among the unnecessary vectors removed in step (710), those joined to the vector grouped as a closed figure in 711 are detected and grouped as one figure element (712), and the process is terminated. To do.
以上によって図形ブロックを個別に再利用可能な個別の図形オブジェクトとして扱う事が可能になる。 As described above, the graphic block can be handled as an individual graphic object that can be reused individually.
<アプリデータへの変換処理>
ところで、図11に示したステップ(121)で、一頁分のイメージデータをブロックセレクション処理して、ステップ(129)でベクトル化処理した結果は図22に示す様な中間データ形式のファイルとして変換されている。このようなデータ形式はドキュメント・アナリシス・アウトプット・フォーマット(DAOF)と呼ばれる。
<Conversion to application data>
By the way, in step (121) shown in FIG. 11, the image data for one page is subjected to block selection processing, and the result of vectorization processing in step (129) is converted into a file in an intermediate data format as shown in FIG. Has been. Such a data format is called a document analysis output format (DAOF).
図22は、本実施形態を示す情報処理装置が処理する中間データの構造を説明する図である。本例は、DAOFのデータ構造例である。 FIG. 22 is a diagram illustrating the structure of intermediate data processed by the information processing apparatus according to the present embodiment. This example is a data structure example of DAOF.
図22において、791はHeaderであり、処理対象の文書画像データに関する情報が保持される。
In FIG. 22,
レイアウト記述データ部792では、文書画像データ中のTEXT(文字)、TITLE(タイトル)、CAPTION(キャプション)、LINEART(線画)の属性毎に認識された各ブロックの属性情報とその矩形アドレス情報を保持する。
The layout
同様に、文書画像データ中のEPICTURE(自然画)、FRAME(枠)、TABLE(表)等の属性毎に認識された各ブロックの属性情報とその矩形アドレス情報を保持する。 Similarly, attribute information of each block recognized for each attribute such as EPICTURE (natural image), FRAME (frame), and TABLE (table) in the document image data and the rectangular address information thereof are held.
文字認識記述データ部793では、TEXT、TITLE、CAPTION等のTEXTブロックを文字認識して得られる文字認識結果を保持する。
The character recognition
表記述データ部794では、TABLEブロックの構造の詳細を格納する。画像記述データ部795は、PICTUREやLINEART等のブロックのイメージデータを文書画像データから切り出して保持する。
The table
このようなDAOFは、中間データとしてのみならず、それ自体がファイル化されて保存される場合もあるが、このファイルの状態では、所謂一般の文書作成アプリケーションで個々のオブジェクトを再利用する事は出来ない。 Such a DAOF is not only used as intermediate data but may be stored as a file itself. In this file state, it is not possible to reuse individual objects in a so-called general document creation application. I can't.
そこで、次に、図11に示したステップ(130)におけるこのDAOFからアプリデータに変換する処理について詳説する。 Therefore, the process of converting DAOF to application data in step (130) shown in FIG. 11 will be described in detail.
図23は、本実施形態における情報処理装置における第7のデータ処理手順の一例を示すフローチャートである。本例は、DAOFからアプリデータに変換する処理例である。なお、(8000)〜(8003)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 23 is a flowchart illustrating an example of a seventh data processing procedure in the information processing apparatus according to the present embodiment. This example is an example of processing for converting DAOF to application data. In addition, (8000)-(8003) show each step. Each step is realized by loading a control program stored in the CPU of the
まず、ステップ(8000)で、DAOFデータの入力を行う。そして、ステップ(8002)で、アプリデータの元となる文書構造ツリー生成を行う。次に、ステップ(8003)で、文書構造ツリーを元に、DAOF内の実データを流し込み、実際のアプリデータを生成して、処理を終了する。 First, in step (8000), DAOF data is input. In step (8002), a document structure tree that is the source of application data is generated. Next, in step (8003), based on the document structure tree, actual data in the DAOF is flowed to generate actual application data, and the process ends.
図24は、本実施形態における情報処理装置における第8のデータ処理手順の一例を示すフローチャートである。本処理は、図23に示したステップ(8002)の文書構造ツリー生成処理の詳細手順である。なお、(8100)〜(8105)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 24 is a flowchart illustrating an example of an eighth data processing procedure in the information processing apparatus according to the present embodiment. This process is a detailed procedure of the document structure tree generation process in step (8002) shown in FIG. Note that (8100) to (8105) indicate each step. Each step is realized by loading a control program stored in the CPU of the
図25は、本実施形態を示す情報処理装置における文書構造ツリーを説明する図である。図25の(A)は、実際のページ構成、図25の(B)はその文書構造ツリーである。 FIG. 25 is a diagram for explaining a document structure tree in the information processing apparatus according to the present embodiment. FIG. 25A shows the actual page configuration, and FIG. 25B shows the document structure tree.
全体制御の基本ルールとして、処理の流れはミクロブロック(単一ブロック)からマクロブロック(ブロックの集合体)へ移行する。以後ブロックとは、ミクロブロック、及びマクロブロック全体を指す。 As a basic rule of overall control, the flow of processing shifts from a micro block (single block) to a macro block (an aggregate of blocks). Hereinafter, the block refers to the micro block and the entire macro block.
まず、ステップ(8100)で、ブロック単位で縦方向の関連性を元に再グループ化する。スタート直後はミクロブロック単位での判定となる。ここで、関連性とは、距離が近い、ブロック幅(横方向の場合は高さ)がほぼ同一であることなどで定義することができる。また、距離、幅、高さなどの情報はGAOFを参照し、抽出する。 First, in step (8100), regrouping is performed on a block basis based on the vertical relationship. Immediately after the start, judgment is made in units of micro blocks. Here, the relevance can be defined by the fact that the distance is close and the block width (height in the horizontal direction) is substantially the same. Information such as distance, width, and height is extracted with reference to GAOF.
ステップ(8100)のグルーピング処理の結果、図25の(A)に示すT3,T4,T5が1つのグループV1を構成し、T6,T7が1つのグループV2が同じ階層のグループとしてまず生成される。 As a result of the grouping process in step (8100), T3, T4, and T5 shown in FIG. 25A constitute one group V1, and T6 and T7 are first generated as a group in the same hierarchy. .
次に、ステップ(8102)で、縦方向のセパレータの有無をチェックする。セパレータは、例えば物理的にはDAOF中でライン属性を持つオブジェクトである。また論理的な意味としては、アプリ中で明示的にブロックを分割する要素である。ここでセパレータを検出した場合は、同じ階層で再分割する。 Next, in step (8102), the presence / absence of a vertical separator is checked. For example, the separator is physically an object having a line attribute in the DAOF. Also, logically, it is an element that explicitly divides a block in the application. If a separator is detected here, it is subdivided at the same level.
次に、ステップ(8102)で、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。ここで、縦方向のグループ長がページ高さとなっている場合は、文書構造ツリー生成は終了する。 Next, in step (8102), it is determined using the group length whether or not there are no more divisions. If the group length in the vertical direction is the page height, the document structure tree generation ends.
図25に示す例の場合は、セパレータもなく、グループ高さはページ高さではないので、ステップ(8103)へ進む。 In the case of the example shown in FIG. 25, since there is no separator and the group height is not the page height, the process proceeds to step (8103).
そして、ステップ(8103)で、ブロック単位で横方向の関連性を元に再グループ化する。ここもスタート直後の第一回目はミクロブロック単位で判定を行うことになる。なお、関連性、及びその判定情報の定義は、縦方向の場合と同じである。 Then, in step (8103), regrouping is performed on a block basis based on the relevance in the horizontal direction. Here too, the first time immediately after the start is determined in units of microblocks. The definition of the relevance and the determination information is the same as in the vertical direction.
図25に示す例の場合は、T1,T2に対してH1が、V1,V2に対してH2が、V1,V2の1つ上の同じ階層のグループとして生成される。 In the case of the example shown in FIG. 25, H1 is generated for T1 and T2, and H2 is generated for V1 and V2, as a group in the same hierarchy one above V1 and V2.
次に、ステップ(8104)で、横方向セパレータの有無をチェックする。 Next, in step (8104), the presence / absence of a horizontal separator is checked.
図25の(A)に示す例では、S1があるので、これをツリーに登録し、H1,S1,H2という階層が生成される。 In the example shown in FIG. 25A, since S1 exists, this is registered in the tree, and a hierarchy of H1, S1, and H2 is generated.
次に、ステップ(8105)で、分割がこれ以上存在し得ないか否かをグループ長を利用して判定する。 Next, in step (8105), it is determined using the group length whether or not there are no more divisions.
ここで、横方向のグループ長がページ幅となっていると判定した場合は、文書構造ツリー生成は終了する。 Here, when it is determined that the horizontal group length is the page width, the document structure tree generation ends.
一方、ステップ(8105)で、横方向のグループ長がページ幅となっていないと判定した場合は、ステップ(8100)に戻り、再びもう一段上の階層で、縦方向の関連性チェックから繰り返す。 On the other hand, if it is determined in step (8105) that the group length in the horizontal direction is not the page width, the process returns to step (8100), and the relevance check in the vertical direction is repeated again at the next higher level.
図25に示す例の場合は、分割幅がページ幅になっているので、ここで終了し、最後にページ全体を表す最上位階層のV0が文書構造ツリーに付加される。 In the case of the example shown in FIG. 25, since the division width is the page width, the process ends here, and finally V0 of the highest hierarchy representing the entire page is added to the document structure tree.
文書構造ツリーが完成した後、その情報を元に、図23に示すステップ(8003)で、アプリデータの生成を行う。 After the document structure tree is completed, application data is generated in step (8003) shown in FIG. 23 based on the information.
図25に示す例の場合は、具体的には、以下のようになる。 Specifically, the example shown in FIG. 25 is as follows.
すなわち、H1は横方向に2つのブロックT1とT2があるので、2カラムとし、T1の内部情報(DAOFを参照、文字認識結果の文章、画像など)を出力後、カラムを変え、T2の内部情報出力、その後S1を出力となる。 That is, since there are two blocks T1 and T2 in the horizontal direction, H1 has two columns, and after T1 internal information (refer to DAOF, text of character recognition result, image, etc.) is output, the column is changed and the internal of T2 Information is output, and then S1 is output.
H2は横方向に2つのグループV1とV2があるので、2カラムとして出力、V1はT3,T4,T5の順にその内部情報を出力、その後カラムを変え、V2のT6,T7の内部情報を出力する。以上によりアプリデータへの変換処理が行える。 Since H2 has two groups V1 and V2 in the horizontal direction, it outputs as 2 columns, V1 outputs its internal information in the order of T3, T4, T5, then changes the column and outputs internal information of T2, T7 of V2 To do. As described above, conversion processing to application data can be performed.
<ポインタ情報の付加>
次に、図11に示したステップ(135)で、ポインタ情報付加処理について説明する。
<Addition of pointer information>
Next, the pointer information adding process will be described in step (135) shown in FIG.
今、処理すべき文書が検索処理で特定された場合、あるいはベクトル化によって元ファイルが再生できた場合において、該文書を記録処理する場合においては、紙への記録の際にポインタ情報を付与する。これにより、この文書を用いて再度各種処理を行う場合に簡単に元ファイルデータを取得できる。 When the document to be processed is specified by the search process, or when the original file can be reproduced by vectorization, when the document is recorded, pointer information is added at the time of recording on paper. . Thus, the original file data can be easily acquired when various processes are performed again using this document.
図26は、本実施形態における情報処理装置における第9のデータ処理手順の一例を示すフローチャートである。本例は、図11に示したステップ(135)で、ポインタ情報付加処理の詳細手順である。なお、(900)〜(906)は各ステップを示す。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 26 is a flowchart illustrating an example of a ninth data processing procedure in the information processing apparatus according to this embodiment. This example is a detailed procedure of the pointer information adding process in step (135) shown in FIG. In addition, (900)-(906) shows each step. Each step is realized by loading a control program stored in the CPU of the
本実施形態では、ポインタ情報としてのデータ文字列を2次元バーコード(QRコードシンボル:JIS X0510)311にて符号化して画像中に付加する処理例を説明する。 In this embodiment, a processing example in which a data character string as pointer information is encoded by a two-dimensional barcode (QR code symbol: JIS X0510) 311 and added to an image will be described.
2次元バーコード内に組み込むデータは、対応するファイルのアドレス情報を表しており、例えばファイルサーバ名およびファイル名からなるパス情報で構成される。或いは、対応するファイルへのURLや、対応するファイルの格納されているデータベース105内あるいはMFP100自体が有する記憶装置内で管理されるファイルID等で構成される。
The data to be incorporated in the two-dimensional barcode represents the address information of the corresponding file, and is composed of path information including a file server name and a file name, for example. Alternatively, the URL includes a URL to the corresponding file, a file ID managed in the
まず、符号化する種種の異なる文字を識別するため、入力データ列を分析する(900)。また、誤り検出及び誤り訂正レベルを選択し、入力データが収容できる最小型番を選択する。 First, an input data string is analyzed in order to identify different characters to be encoded (900). Further, an error detection and error correction level is selected, and a minimum model number that can accommodate input data is selected.
次に、入力データ列を所定のビット列に変換し、必要に応じてデータのモード(数字、英数字、8ビットバイト、漢字等)を表す指示子や、終端パターンを付加する。さらに所定のビットコード語に変換する(901)。 Next, the input data string is converted into a predetermined bit string, and an indicator indicating a data mode (numeric, alphanumeric, 8-bit byte, kanji, etc.) and a termination pattern are added as necessary. Further, it is converted into a predetermined bit code word (901).
この時、誤り訂正を行うため、コード語列を型番および誤り訂正レベルに応じて所定のブロック数に分割し、ブロック毎に誤り訂正コード語を生成し、データコード語列の後に付加する(902)。 At this time, in order to perform error correction, the code word string is divided into a predetermined number of blocks according to the model number and the error correction level, an error correction code word is generated for each block, and is added after the data code word string (902). ).
次に、ステップ(902)で、得られた各ブロックのデータコード語を接続し、各ブロックの誤り訂正コード語、必要に応じて剰余コード語を後続する(903)。 Next, in step (902), the obtained data code words of the respective blocks are connected, and the error correction code word of each block and, if necessary, the remainder code word are followed (903).
次に、マトリクスに位置検出パターン、分離パターン、タイミングパターンおよび位置合わせパターン等とともにコード語モジュールを配置する(ステップ904)。 Next, the code word module is arranged in the matrix together with the position detection pattern, separation pattern, timing pattern, alignment pattern, and the like (step 904).
更に、シンボルの符号化領域に対して最適なマスクパターンを選択して、マスク処理パターンをステップ904で得られたモジュールにXOR演算により変換する(905)。
Further, an optimal mask pattern is selected for the symbol coding region, and the mask processing pattern is converted into a module obtained in
最後に、ステップ(905)で得られたモジュールに形式情報および型番情報を生成して、2次元コードシンボルを完成して(906)、本処理を終了する。 Finally, format information and model number information are generated in the module obtained in step (905), a two-dimensional code symbol is completed (906), and this process ends.
上記に説明した、アドレス情報の組み込まれた2次元バーコードは、例えば、クライアントPC102から電子ファイルをプリントデータとして記録装置112に紙上に記録画像として形成する場合に、ラスタデータ上の所定の個所に付加されて画像形成される。具体的には、データ処理装置115内で記録可能なラスタデータに変換された後にラスタデータ上の所定の個所に付加されて画像形成される。
The above-described two-dimensional barcode with address information incorporated is, for example, in a predetermined location on raster data when an electronic file is formed as print data from a client PC 102 on a
ここで画像形成された紙を配布されたユーザは、画像読み取り部110で読み取ることにより、前述したステップ123にてポインタ情報からオリジナル電子ファイルの格納場所を検出することができる。
Here, the user who has distributed the image-formed paper can read the storage location of the original electronic file from the pointer information in
尚、同様の目的で付加情報を付与する手段は、本実施形態で説明した2次元バーコードの他に、一般に電子透かしと呼ばれる方法が適用出来る。 As a means for adding additional information for the same purpose, a method generally called a digital watermark can be applied in addition to the two-dimensional barcode described in the present embodiment.
例えば、ポインタ情報を直接文字列で文書に付加する方法、文書内の文字列、特に文字と文字の間隔を変調して情報を埋め込む方法、文書中の中間調画像中に埋め込む方法等、一般に電子透かしと呼ばれる方法が適用出来る。 For example, a method of adding pointer information directly to a document as a character string, a method of embedding information by modulating a character string in a document, particularly a character-to-character interval, a method of embedding in a halftone image in a document, etc. A method called watermarking can be applied.
〔第2実施形態〕
<ファイルアクセス権に関する他の処理>
ユーザが扱う文書ファイルの中には、第3者による再利用を制限すべき物がある。
[Second Embodiment]
<Other processing related to file access rights>
Some document files handled by the user should be restricted from being reused by a third party.
第1実施形態では、ファイルサーバに蓄積されたファイルは全て自由にアクセス出来、ファイル全体、或いはその一部のオブジェクトは全て再利用が可能な事を前提に説明した。 The first embodiment has been described on the premise that all the files stored in the file server can be freely accessed, and the entire file or a part of the objects can be reused.
そこで、第1実施形態でポインタ情報からファイルを検索した際に、検索の結果、特定出来たファイルにアクセス権の制限が有る場合についての他の実施形態について図27を参照して説明する。 Therefore, another embodiment of the case in which when a file is searched from pointer information in the first embodiment, the access right is restricted for the file identified as a result of the search will be described with reference to FIG.
図27は、本実施形態における情報処理装置における第10のデータ処理手順の一例を示すフローチャートである。本処理は、図23に示したステップ(8002)の文書構造ツリー生成処理の詳細手順である。なお、(400)〜(408)は各ステップを示す。また、図16に示したステップと同一ステップには、同一のステップ番号を付している。また、各ステップは、図2に示したマネージメントPC101のCPUが記憶される制御プログラムをRAMにロードして実行することで実現される。
FIG. 27 is a flowchart illustrating an example of a tenth data processing procedure in the information processing apparatus according to the present embodiment. This process is a detailed procedure of the document structure tree generation process in step (8002) shown in FIG. In addition, (400)-(408) shows each step. Also, the same step numbers are assigned to the same steps as those shown in FIG. Each step is realized by loading a control program stored in the CPU of the
さらに、ステップ(401)〜(403)までは、図16に示したステップと同一であるため、説明は省略する。 Further, steps (401) to (403) are the same as the steps shown in FIG.
ステップ(403)でファイルが検索されて特定された場合、ファイルサーバはそのファイルのアクセス権情報を調べ(404)、アクセス制限があると判断した場合には、MFP100に対してパスワードの送信を要求する(405)。
If the file is searched and specified in step (403), the file server checks the access right information of the file (404), and if it is determined that access is restricted, requests the
MFP100は操作者に対してパスワードの入力を促し、入力されたパスワードをファイルサーバに送信する(406)。
The
次に、ファイルサーバは送信されたパスワードを照合して一致することで認証が成功したか否かを判断する(407)。ここで、認証が成功していないと判断した場合は、ステップ(405)へ進む。 Next, the file server determines whether or not the authentication is successful by checking and matching the transmitted password (407). If it is determined that the authentication is not successful, the process proceeds to step (405).
一方、ステップ(407)で、認証成功していると判断した場合は、図11に示したように、ファイルのアドレスを通知する(134)。また、ユーザの希望する処理が画像ファイルデータの取得であれば、MFPに対してファイルを転送して(408)、本処理を終了する。 On the other hand, if it is determined in step (407) that the authentication is successful, the file address is notified as shown in FIG. 11 (134). If the process desired by the user is acquisition of image file data, the file is transferred to the MFP (408), and this process ends.
尚、アクセス権の制御を行う為の認証の方法は、ステップ(405)、(406)に示したパスワードによる方法に限定されず、例えば、指紋認証等の一般に広く用いられている生体認証、カードによる認証等、全ての認証手段を用いる事が出来る。 The authentication method for controlling the access right is not limited to the password method shown in steps (405) and (406). For example, biometric authentication and card widely used such as fingerprint authentication are widely used. All authentication means such as authentication by can be used.
又、本実施形態では紙文書に付加的に付与されたポインタ情報によりファイルを特定した場合を示したが、図11に示したステップ(126)〜(128)で示す、所謂検索処理でファイルを特定した場合においても同様の制御が可能である。 In this embodiment, the file is specified by the pointer information additionally given to the paper document. However, the file is obtained by so-called search processing shown in steps (126) to (128) shown in FIG. Similar control is possible even when specified.
一方、ファイルサーバ内からファイルを特定出来なかった場合、即ち図11に示したステップ(129)〜(132)で説明したベクトル化処理に対しても、限を加える事が出来る。 On the other hand, when the file cannot be specified from the file server, that is, the vectorization process described in steps (129) to (132) shown in FIG. 11 can be limited.
即ち紙文書を走査して得られたイメージ情報から該文書に対してのアクセス権の制限の存在を検出した場合には、認証確認が取れた場合のみベクトル化処理を行う事で、機密性の高い文書の使用に制限をかける事が出来る。 In other words, when it is detected from the image information obtained by scanning a paper document that there is a restriction on the access right to the document, the vectorization process is performed only when the authentication is confirmed, thereby ensuring confidentiality. Limit the use of expensive documents.
〔第3実施形態〕
<ファイル特定に関する他の処理>
上記第1実施形態では、原稿走査して得られるイメージ情報から元ファイルデータを特定する手段は、図11に示した様に、文書中に付与されたポインタ情報に従う手段に依る。或いは文書中に記載された各オブジェクト情報に従う検索手段のいずれかに依るが、より正確に元ファイルを特定するには、該両手段を併用すれば良い。
[Third Embodiment]
<Other processing related to file identification>
In the first embodiment, the means for specifying the original file data from the image information obtained by scanning the document depends on the means according to the pointer information given in the document, as shown in FIG. Alternatively, depending on one of the search means according to each object information described in the document, both means may be used together in order to specify the original file more accurately.
即ち、原稿中から得られるポインタ情報から元ファイルの存在が検出出来たとしても、更に該文書中のオブジェクト情報を使用する。例えば、レイアウト情報に従うレイアウト検索、文字認識されたキーワードによる全文検索を検出されたファイルに対して行い、高い一致が得られた場合に、該検出したファイルを、正式に元ファイルであると特定する。 That is, even if the existence of the original file can be detected from the pointer information obtained from the document, the object information in the document is further used. For example, a layout search according to layout information and a full-text search using a character-recognized keyword are performed on the detected file, and when a high match is obtained, the detected file is formally specified as the original file .
これは、例えば、ポインタ情報の下位の部分が曖昧であったり、誤り訂正でも訂正できなかったりした場合に対して、検索の範囲を絞り込んでファイルを特定出来る為、より高速で、確度の高いファイル特定が行える。 This is because, for example, if the lower part of the pointer information is ambiguous or cannot be corrected even by error correction, the file can be specified by narrowing down the search range, so it is faster and more accurate. Can be identified.
〔第4実施形態〕
<ベクトル化の他の処理>
先の実施例では検索手段で、元ファイルの特定が出来ない場合、イメージ画像全体に対してベクトル化処理を行う。例えば、一般の文書の場合、文書中のオブジェクト全て新規に作成された物でなく、一部のオブジェクトは他のファイルから流用して作成される場合がある。
[Fourth Embodiment]
<Other processing of vectorization>
In the previous embodiment, if the original file cannot be specified by the search means, the vectorization process is performed on the entire image. For example, in the case of a general document, not all objects in a document are newly created, and some objects may be created by diverting from other files.
例えば、背景オブジェクト(壁紙)は文書作成アプリケーションで幾つかのパターンを予め用意してあり、その中から選択して用いるのが通常である。 For example, as a background object (wallpaper), several patterns are prepared in advance by a document creation application, and it is normal to select and use them.
従って、このようなオブジェクトは文書ファイルデータベースの中の他の文書ファイル中に存在している可能性が高く、又 再利用可能なベクトルデータとして存在する可能性が高い。 Therefore, such an object is likely to exist in other document files in the document file database, and is likely to exist as reusable vector data.
従って、このような背景から、図11に示したステップ(129)のベクトル化処理の他の実施形態として以下のように態様もある。 Therefore, from such a background, another embodiment of the vectorization process of step (129) shown in FIG. 11 has the following aspects.
例えばブロックセレクション処理で個別のオブジェクトに分割された各オブジェクトに対して、該オブジェクト単位でデータベース中から該一致するオブジェクトを一部に含むファイルを検索する。そして、一致したオブジェクトに対して個別に該ファイルからオブジェクト単位でベクトルデータを取得する。 For example, for each object divided into individual objects in the block selection process, a file including a part of the matching object in the database is searched for each object. Then, vector data is acquired for each object that matches each object from the file.
これに依って、文書全体をベクトル化する必要が無くなり、より高速にベクトル化出来、更にベクトル化による画質劣化を防止出来る。 Accordingly, it is not necessary to vectorize the entire document, vectorization can be performed at a higher speed, and image quality deterioration due to vectorization can be prevented.
一方、図11に示したステップ(126)〜(128)における検索処理で元ファイルがPDFとして特定できた場合、該PDFがその文書の文字オブジェクトに対して既に文字認識された文字コードを付加ファイルとして有している場合がある。 On the other hand, when the original file can be specified as PDF by the search processing in steps (126) to (128) shown in FIG. 11, the PDF adds a character code that has already been recognized for the character object of the document. You may have as.
このようなPDFファイルをベクトル化する際には、該文字コードファイルを用いれば、129以降のベクトル化処理の中の文字認識処理を省く事が出来る。即ち ベクトル化処理をより高速に処理する事が可能に成る。 When vectorizing such a PDF file, if the character code file is used, character recognition processing in the vectorization processing after 129 can be omitted. In other words, the vectorization process can be performed at a higher speed.
〔第5実施形態〕
上記第1実施形態では、画像処理によって、視認性の低い画像を検出して、拡大して印刷する画像を特定する場合について説明した。
[Fifth Embodiment]
In the first embodiment, the case where an image with low visibility is detected by image processing and an image to be enlarged and printed is specified has been described.
これに対して、本実施形態は、読み取ってレイアウト表示されたサムネイル画像中から、視認性が低いかどうかをユーザが判断して、ユーザが表示されたサムネイル画像を、ユーザが指定した倍率で部分拡大してレイアウト出力する例である。 On the other hand, in the present embodiment, the user determines whether or not the visibility is low from the thumbnail images that are read and displayed in the layout, and the thumbnail image displayed by the user is partially displayed at a magnification specified by the user. This is an example of enlarging and outputting the layout.
図28は、図4に示したLCD表示部2013に表示される第3の印刷倍率変更−印刷方法指定画面の一例を示す画面の一例を示す図である。
FIG. 28 is a diagram showing an example of a screen showing an example of a third print magnification change-printing method designation screen displayed on the
図28に示す画面は、縮小レイアウトを設定し、原稿を読み込み後、すべての画像を設定通りにレイアウトし画面にコントローラ部2000の制御で表示装置116に表示し、ユーザの指示を待つ状態に対応する。
The screen shown in FIG. 28 corresponds to a state in which a reduced layout is set, a document is read, all images are laid out as set and displayed on the
図28において、1301は選択画像である。選択画像は、例えば4in1レイアウト形式でサムネイルTN1〜TNNをスクロールして、ユーザが各ページに対応する各サムネイルTN1〜TNN中からユーザが選択する。
In FIG. 28,
1302はキャンセルボタン、1303はOKボタン、1304は印刷ボタンである。 1302 is a cancel button, 1303 is an OK button, and 1304 is a print button.
図29は、本実施形態における画像処理装置における第1のデータ処理手順の一例を示すフローチャートである。本処理は、図23に示したステップ(8002)の文書構造ツリー生成処理の詳細手順である。なお、(400)〜(408)は各ステップを示す。また、図16に示したステップと同一ステップには、同一のステップ番号を付している。 FIG. 29 is a flowchart illustrating an example of a first data processing procedure in the image processing apparatus according to the present embodiment. This process is a detailed procedure of the document structure tree generation process in step (8002) shown in FIG. In addition, (400)-(408) shows each step. Also, the same step numbers are assigned to the same steps as those shown in FIG.
図28に示す画面表示状態で、縮小レイアウトを設定し、原稿を読み込み後、すべての画像を設定通りにレイアウトし画面に表示し、ユーザの指示を待つ。 In the screen display state shown in FIG. 28, a reduced layout is set, and after reading a document, all images are laid out as set and displayed on the screen, and a user instruction is awaited.
ユーザが表示装置116の画面を目視し、視認性が低いと判断して、表示されているサムネイル中から画像1301を選択し(1401)、OKボタン1303を押下する。
The user views the screen of the
次に、ユーザが選択した視認性が低い画像の倍率を一定値分増加させ(1402)、現在設定の倍率で良いかを判断する(1403)。 Next, the magnification of an image with low visibility selected by the user is increased by a certain value (1402), and it is determined whether the currently set magnification is acceptable (1403).
この判断は、具体的には、「現在設定したの倍率の画像を画面に表示し、ユーザが目視し判断する場合」と、「視認性の低い画像を判断する基準を用いて、現在設定した倍率の画像が視認性の低くない画像であると判断した場合」とが考えられる。 Specifically, this determination is performed by using a criterion for determining an image with low visibility and a case where the image is displayed at a magnification set at the current time and the user visually determines it. The case where it is determined that the magnification image is not an image with low visibility is considered.
そして、ステップ(1403)で、現在の倍率で良いと判断された場合、倍率の変更を終了する。 If it is determined in step (1403) that the current magnification is acceptable, the magnification change is terminated.
一方、ステップ(1403)で、現在の倍率では良くないと判断した場合、ステップ(1402)に戻り、再度倍率を一定値分増加させる。そして、この処理を適切な倍率になるまで、これを繰り返す。 On the other hand, if it is determined in step (1403) that the current magnification is not good, the process returns to step (1402), and the magnification is increased again by a certain value. This process is repeated until an appropriate magnification is obtained.
なお、一定値を、ユーザが指定可能とすることで、連続的あるいは段階的に拡大画像をユーザの好みの倍率変動で確認することができるように構成してもよい。 It should be noted that by allowing the user to specify a certain value, the enlarged image may be confirmed continuously or stepwise with the user's favorite magnification fluctuation.
これにより、第1実施形態に比べて、ユーザが選択した視認性が低い画像をユーザが指定した倍率で部分拡大してレイアウト出力するため、レイアウトされた画像のうち、選択された視認性の低い画像のみを拡大して出力させる要求に柔軟に対応できる。従って、ユーザの利便性が向上する。 As a result, compared to the first embodiment, an image with low visibility selected by the user is partially enlarged at a magnification specified by the user and output in a layout, so that the selected visibility among the laid out images is low. It is possible to respond flexibly to the request to enlarge and output only the image. Therefore, user convenience is improved.
〔第6実施形態〕
上記第5実施形態では、選択された画像を同一ページで、選択された視認性の低い画像を一部拡大して出力する場合について説明した。
[Sixth Embodiment]
In the fifth embodiment, a case has been described in which a selected image is enlarged on the same page and a part of the selected low-visibility image is output.
しかし、視認性の低い画像を拡大処理して、同一ページにレイアウトされた他のページの画像に影響を及ぼすかどうかを判断することで、別ページとして出力するかどうかを決定してもよい。 However, it may be determined whether to output as a separate page by enlarging an image with low visibility and determining whether it affects the image of another page laid out on the same page.
図30は、本実施形態における画像処理装置における第2のデータ処理手順の一例を示すフローチャートである。本処理は、複数ページがレイアウト表示されたいずれかのページが視認性が低いと判断された場合に、そのページをレイアウトされた領域内で拡大しても他のページに影響があるかを判断する。そして、その判断結果に基づいて、レイアウト処理中に拡大してレイアウト出力するか、視認性の低いページを別ページとするかの処理を切り替え制御する例である。なお、(1501)〜(1505)は各ステップを示す。また、各ステップは、図2に示したCPU2001がROM2002に記憶された制御プログラムをRAM2003にロードして実行することで実現される。
FIG. 30 is a flowchart illustrating an example of a second data processing procedure in the image processing apparatus according to the present embodiment. This process determines whether any page on which multiple pages are laid out is determined to have low visibility, even if the page is enlarged in the layout area. To do. Then, based on the determination result, it is an example of switching and controlling the process of enlarging the layout during layout processing and outputting the layout or setting a page with low visibility as another page. In addition, (1501)-(1505) shows each step. Each step is realized by the
まず、MFP100の表示装置116にレイアウト表示されたページ中から視認性の低い画像を選択する(1501)。そして、選択した画像を視認性の低くない画像まで拡大しても、同一ページ内にあるレイアウトされている他の画像に影響がないかを判断する(1502)。
First, an image with low visibility is selected from the page layout-displayed on the
ここで、影響がないと判断された場合、選択画像を同一ページ内で拡大し印刷して(1505)、処理を終了する。 If it is determined that there is no influence, the selected image is enlarged and printed in the same page (1505), and the process ends.
一方、ステップ(1502)で、影響があると判断された場合、他の画像を視認性が低くならない倍率まで下げると、拡大した選択画像が同一ページ内に収まるかを判断する(1503)。 On the other hand, if it is determined in step (1502) that there is an influence, it is determined whether or not the enlarged selected image fits within the same page if other images are reduced to a magnification that does not reduce the visibility (1503).
なお、他の画像を視認性が低くならない倍率とする場合の倍率を、ユーザが指定できるように構成してもよい。 In addition, you may comprise so that a user can designate the magnification | multiplying_factor when making another image into the magnification which does not become low visibility.
ここで、同一ページ内に収まると判断された場合、ステップ(1505)に進み、選択画像を拡大し、他の画像を縮小して印刷する。 If it is determined that the image can fit on the same page, the process proceeds to step (1505), the selected image is enlarged, and other images are reduced and printed.
一方、ステップ(1503)で、同ページ内に収まらないと判断された場合、選択画像を別プリントページとして印刷して、本処理を終了する。 On the other hand, if it is determined in step (1503) that the image does not fit within the page, the selected image is printed as a separate print page, and the process ends.
なお、別プリントページとして印刷する場合、元のドキュメントの視認性の低い画像部はそのまま印刷を行うか、別のプリントページを参照することを表す画像と置き換えるかを選択するように構成してもよい。 Note that when printing as a separate print page, it may be configured to select whether to print the low-visibility image portion of the original document as it is or to replace it with an image that refers to another print page. Good.
また、出力する用紙サイズとは、異なる用紙サイズを指定して、拡大率を自動設定するように構成してもよい。 Further, it may be configured such that the enlargement ratio is automatically set by designating a paper size different from the paper size to be output.
さらに、文字ブロックを拡大処理する場合に、ユーザが読み慣れた文字サイズを指定することで、全体の拡大率を自動設定するように構成してもよい。 Furthermore, when enlarging the character block, the entire enlargement ratio may be automatically set by designating a character size familiar to the user.
また、その際、読み慣れた文字サイズを指定した場合に、指定された用紙サイズから画像がはみ出て、画像全体として欠けて印刷される場合には、用紙サイズを画像が収まるように設定してもよい。さらに、最大用紙サイズでも収まらない場合には、文字サイズを段階的に下げて、可能な限り視認性に優れた拡大出力結果を得るように制御してもよい。 Also, if you specify a character size that you are familiar with, and if the image protrudes from the specified paper size and is printed as a whole image, set the paper size to fit the image. Also good. Furthermore, if the maximum paper size does not fit, the character size may be reduced in stages, and control may be performed so as to obtain an enlarged output result that is as excellent in visibility as possible.
〔第7実施形態〕
上記実施形態では、レイアウト印刷設定において、ユーザがレイアウト結果表示から視認性の低いページを別ページとして出力するモード設定に切り替える場合について説明した。
[Seventh Embodiment]
In the above embodiment, in the layout print setting, the case where the user switches from the layout result display to the mode setting for outputting a page with low visibility as another page has been described.
しかし、ユーザの設定負担を軽減すべく、印刷設定を行う際に、視認性の低い画像を自動で拡大するモードに自動的に切り替える制御を実行してもよい。 However, in order to reduce the setting burden on the user, when performing print settings, control for automatically switching to a mode in which an image with low visibility is automatically enlarged may be executed.
そして、自動で拡大するモードに自動的に切り替わった場合に、画像プロファイルを作成する。そして、その画像プロファイルと視認性の低い画像を判断する基準を用いて判断された視認性の低い画像は、予め決められた倍率で拡大(自動変倍を用いて、出力用紙サイズに合わせた倍率に設定するなど)する。そして、ユーザの判断を必要とすることなく、印刷設定を終える構成としてもよい。 Then, an image profile is created when the mode is automatically switched to the automatic enlargement mode. Then, the low-visibility image determined using the image profile and the criterion for determining the low-visibility image is enlarged at a predetermined magnification (automatic scaling is used to match the output paper size) Etc.). And it is good also as a structure which finishes a print setting, without requiring a user's judgment.
〔第8実施形態〕
上記実施形態では、視認性の低いページの画像が選択された場合に、レイアウトされたページと選択された視認性の低いページを別ページとして連続的に印刷する場合について説明した。
[Eighth Embodiment]
In the above-described embodiment, when an image of a page with low visibility is selected, the layout page and the selected page with low visibility are continuously printed as separate pages.
しかし、ユーザは、視認性の低いページのみの印刷結果を欲する場合もある。 However, the user may want a print result of only a page with low visibility.
そこで、印刷倍率変更−印刷方法指定画面において、ユーザが、レイアウトされたページを「すべて印刷し、選択した画像を別プリントして印刷」か、「選択した画像のみを印刷」かのいずれかを選択できるように構成してもよい。 Therefore, in the print magnification change-printing method designation screen, the user selects either “print all pages, print the selected image separately and print” or “print only the selected image”. You may comprise so that it can select.
図31は、図4に示したLCD表示部2013に表示される第3の印刷倍率変更−印刷方法指定画面の一例を示す画面の一例を示す図である。
FIG. 31 is a diagram showing an example of a screen showing an example of a third print magnification change-printing method designation screen displayed on the
図31において、コントローラユニット2000は、縮小レイアウトを設定し、原稿を読み込み後、すべての画像を設定通りにレイアウトし画面にコントローラユニット2000の制御で表示装置116に表示する。
In FIG. 31, the
ここで、ユーザの指示を待つ。そして、ユーザがレイアウト表示された複数のページの画像中から視認性の低い画像の選択と、その画像の変更倍率を決定すると、図31に示す第3の印刷倍率変更−印刷方法指定画面がコントローラユニット2000の制御で表示装置116上に表示される。なお、1602はキャンセルボタンである。
Here, it waits for a user's instruction. When the user selects an image with low visibility from the images of a plurality of pages displayed in layout and determines the change magnification of the image, the third print magnification change-printing method designation screen shown in FIG. 31 is displayed on the controller. It is displayed on the
ここで、ユーザが、図31に示す画像1601を選択し、OKボタン1603を選択すると選択した画像のみが印刷されるに印刷データの出力が開始される。
Here, when the user selects an
本実施形態によれば、縮小印刷された原稿等、既に視認性の低い原稿しかなく、その画像のみを拡大して印刷したい場合に有効である。また、無駄なレイアウト印刷が制限されるので、用紙資源が節約されて経済的である。 This embodiment is effective when there is only a document with low visibility, such as a reduced-printed document, and it is desired to enlarge and print only the image. Further, useless layout printing is restricted, so that paper resources are saved and it is economical.
なお、レイアウトページの任意の選択ページと、選択した画像のみのページとを連続して印刷するように構成してもよい。これにより、ユーザの利便性が向上する。 In addition, you may comprise so that the arbitrary selection page of a layout page and the page of only the selected image may be printed continuously. This improves the convenience for the user.
また、上記実施形態では、画像出力の例として、記録装置112からレイアウトされたページの画像データと視認性の低いページの画像データとを印刷させる場合について説明した。
In the above-described embodiment, as an example of image output, a case where image data of a page laid out from the
もちろん、それ以外に、視認性の低いページの画像データを指定されたクライアントPCやサーバ装置に転送出力したり、ネットワーク上の記憶装置に転送して格納させるような制御したりする構成であってもよい。 Of course, in addition to this, it is configured to transfer and output image data of a page with low visibility to a specified client PC or server device, or to transfer and store the image data on a storage device on a network. Also good.
これにより、視認性の低いページは、出力するのではなく、ユーザが必要に応じて、クライアントPC上で表示画面で確認するだけでよい場合には、その分の印刷コストが節約できる。 As a result, a page with low visibility is not output, but if the user only needs to check on the display screen on the client PC as necessary, the printing cost can be saved.
さらに、その表示確認時に、必要に応じて、印刷条件をユーザが設定することで、さらに、ユーザが好む態様で視認性の低いページを変倍したり、加工(新たに編集されたデータであればよい)したり、出力属性を変更したりして出力することができる。ここで、出力属性は、モノクロをカラーにして、あるいは、他のページとを組み合わせて両面印刷したり、トナー節約モードで印刷したりする等が好適である。 Furthermore, when the display is confirmed, the user can set the printing conditions as necessary, so that the page with low visibility can be scaled or processed (like newly edited data). Output) or changing the output attribute. Here, it is preferable that the output attribute is monochrome or color, or is combined with other pages to perform duplex printing or printing in the toner saving mode.
また、上記視認性の低いページの画像データを指定されたクライアントPCやサーバ装置に転送出力する場合に、所定の電子原稿形式(例えばPDF)に変換して、あるいは、画像ファイル形式(BMP→JPEG)を変更して転送してもよい。 When the image data of the page with low visibility is transferred and output to a specified client PC or server device, it is converted into a predetermined electronic document format (for example, PDF) or an image file format (BMP → JPEG). ) May be changed and transferred.
さらに、上記実施形態では、複数ページからなる原稿から読み取られた各原稿から読み取られた複数ページ分の画像データを1ページ内にレイアウトして出力させる画像処理装置について説明した。 Further, in the above-described embodiment, the image processing apparatus has been described in which image data for a plurality of pages read from each document read from a document having a plurality of pages is laid out in one page and output.
しかしながら、複数ページからなる原稿から読み取られた各画像データを出力させる画像処理装置にも以下の構成を備えることで同等の効果が得られる。 However, an image processing apparatus that outputs each image data read from a document composed of a plurality of pages can be provided with the same effect by providing the following configuration.
つまり、図2に示したMFP100のでデータ処理装置115が出力する画像データ中に視認性が低いページが存在するかを判断する判断機能を備える。また、図2に示したMFP100のでデータ処理装置115が該判断機能により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理機能を有する。
That is, the
これにより、等倍原稿中に複数のオブジェクトから構成される画像データブロックが存在する場合に、視認性判断で低いと判断されたブロック領域を変倍して別ページあるいは同一ページ内で多少変倍して視認性に優れたページを出力できる。 As a result, when an image data block composed of a plurality of objects exists in the same size original, the block area determined to be low in the visibility judgment is scaled to be slightly scaled on another page or the same page. And output a page with excellent visibility.
また、複数ページからなる原稿から読み取られた各原稿から読み取られた画像データを出力させる画像処理装置にも以下の構成を備えることで同等の効果が得られる。 In addition, an equivalent effect can be obtained by providing an image processing apparatus that outputs image data read from each document read from a document consisting of a plurality of pages with the following configuration.
つまり、図2に示したMFP100のでデータ処理装置115が出力する画像データを表示する表示装置116と、表示装置116に表示された画像データ中から視認性が低いページを指示する指示機能を備える。また、出力する画像データ中に視認性が低いページが存在するかを判断する判断機能を備える。さらに、判断機能により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理機能とを備える。
That is, the
〔第9実施形態〕
以下、図32、図33に示すメモリマップを参照して本発明に係る情報処理装置、画像処理装置で読み取り可能なデータ処理プログラムの構成について説明する。
[Ninth Embodiment]
The configuration of a data processing program that can be read by the information processing apparatus and image processing apparatus according to the present invention will be described below with reference to the memory maps shown in FIGS.
図32は、本発明に係る情報処理装置で読み取り可能な各種データ処理プログラムを格納する記憶媒体のメモリマップを説明する図である。 FIG. 32 is a diagram for explaining a memory map of a storage medium that stores various data processing programs readable by the information processing apparatus according to the present invention.
図33は、本発明に係る画像処理装置で読み取り可能な各種データ処理プログラムを格納する記憶媒体のメモリマップを説明する図である。 FIG. 33 is a diagram for explaining a memory map of a storage medium for storing various data processing programs readable by the image processing apparatus according to the present invention.
なお、特に図示しないが、記憶媒体に記憶されるプログラム群を管理する情報、例えばバージョン情報,作成者等も記憶され、かつ、プログラム読み出し側のOS等に依存する情報、例えばプログラムを識別表示するアイコン等も記憶される場合もある。 Although not particularly illustrated, information for managing a program group stored in the storage medium, for example, version information, creator, etc. is also stored, and information depending on the OS on the program reading side, for example, a program is identified and displayed. Icons may also be stored.
さらに、各種プログラムに従属するデータも上記ディレクトリに管理されている。また、各種プログラムをコンピュータにインストールするためのプログラムや、インストールするプログラムが圧縮されている場合に、解凍するプログラム等も記憶される場合もある。 Further, data depending on various programs is also managed in the directory. In addition, a program for installing various programs in the computer, and a program for decompressing when the program to be installed is compressed may be stored.
本実施形態における図11、図14、図16、図17、図20、図21、図23、図24、図26、図27、図29、図30、に示す機能が外部からインストールされるプログラムによって、ホストコンピュータにより遂行されていてもよい。そして、その場合、CD−ROMやフラッシュメモリやFD等の記憶媒体により、あるいはネットワークを介して外部の記憶媒体から、プログラムを含む情報群を出力装置に供給される場合でも本発明は適用されるものである。 The program shown in FIGS. 11, 14, 16, 17, 20, 21, 21, 23, 24, 26, 27, 29, and 30 in this embodiment is installed from the outside. May be performed by a host computer. In this case, the present invention is applied even when an information group including a program is supplied to the output device from a storage medium such as a CD-ROM, a flash memory, or an FD, or from an external storage medium via a network. Is.
以上のように、前述した実施形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 As described above, the storage medium storing the software program code for realizing the functions of the above-described embodiments is supplied to the system or apparatus. It goes without saying that the object of the present invention can also be achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.
従って、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 Therefore, as long as it has the function of the program, the form of the program such as an object code, a program executed by an interpreter, or script data supplied to the OS is not limited.
プログラムを供給するための記憶媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。 As a storage medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD, etc. Can be used.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、該ホームページから本発明のコンピュータプログラムそのもの、もしくは、圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバやftpサーバ等も本発明の請求項に含まれるものである。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. Then, the computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server, an ftp server, and the like that allow a plurality of users to download a program file for realizing the functional processing of the present invention on a computer are also included in the claims of the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the key information and install the program on a computer.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。例えばそのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行う。そして、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 In addition, the functions of the above-described embodiments are not only realized by executing the program code read by the computer. For example, based on an instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込ませる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.
本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から排除するものではない。 The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not.
本発明の様々な例と実施形態を示して説明したが、当業者であれば、本発明の趣旨と範囲は、本明細書内の特定の説明に限定されるのではない。 While various examples and embodiments of the present invention have been shown and described, the spirit and scope of the present invention are not limited to the specific descriptions in the present specification by those skilled in the art.
110 画像読み取り部
111 記憶装置
112 記録装置
113 入力装置
115 データ処理装置
116 表示装置
2000 コントローラユニット
2001 CPU
2002 ROM
2003 RAM
110
2002 ROM
2003 RAM
Claims (34)
出力する1ページにレイアウトされた複数の画像データ中に視認性が低いページ領域が存在するかを判断する判断手段と、
前記判断手段により視認性が低いページ領域があると判断した場合に、前記ページ領域の画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
Determining means for determining whether or not a page area having low visibility exists in a plurality of image data laid out on one page to be output;
An image processing unit that performs image processing on image data of the page area when the determination unit determines that there is a page area with low visibility;
An image processing apparatus comprising:
出力する画像データ中に視認性が低いページが存在するかを判断する判断手段と、
前記判断手段により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for outputting each image data read from a document consisting of a plurality of pages,
A determination means for determining whether or not a page with low visibility exists in the output image data;
An image processing unit that performs image processing on image data of the page with low visibility when the determination unit determines that there is a page with low visibility;
An image processing apparatus comprising:
出力する1ページにレイアウトされた複数の画像データを表示する表示手段と、
前記表示手段に表示された複数の画像データ中から視認性が低いページ領域を指示する指示手段と、
前記指示手段により指示された視認性が低いページ領域の画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
Display means for displaying a plurality of image data laid out on one page to be output;
Instruction means for instructing a page area having low visibility from the plurality of image data displayed on the display means;
Image processing means for performing image processing on image data of a page area having low visibility instructed by the instruction means;
An image processing apparatus comprising:
出力する画像データを表示する表示手段と、
前記表示手段に表示された画像データ中から視認性が低いページを指示する指示手段と、
出力する画像データ中に視認性が低いページが存在するかを判断する判断手段と、
前記判断手段により視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus for outputting image data read from each original read from a multi-page original,
Display means for displaying image data to be output;
Instruction means for instructing a page with low visibility from the image data displayed on the display means;
A determination means for determining whether or not a page with low visibility exists in the output image data;
An image processing unit that performs image processing on image data of the page with low visibility when the determination unit determines that there is a page with low visibility;
An image processing apparatus comprising:
前記画像処理手段は、前記影響度判断手段の判断結果基づいて、視認性の低いページの画像データに異なる態様の画像処理を行うことを特徴とする請求項1記載の画像処理装置。 The determination unit includes an influence determination unit that determines whether each image data of another page of the same page is affected even if the magnification of the image data of the page with low visibility is changed,
The image processing apparatus according to claim 1, wherein the image processing unit performs different types of image processing on image data of a page with low visibility based on a determination result of the influence level determination unit.
前記画像処理手段は、前記収束性判断手段が影響がないと判断した場合は、前記視認性の低いページの画像データの倍率上げて出力させ、前記収束性判断手段が影響があると判断した場合は、前記視認性の低いページの画像データを別ページとして出力させることを特徴とする請求項13記載の画像処理装置。 If the determination means determines that the influence determination means has an influence, the image data of the page with low visibility is reduced by decreasing the magnification of the image data of other pages in the same page and increasing the magnification. Convergence judging means to judge whether it fits within,
When the image processing unit determines that the convergence determination unit has no influence, the image processing unit increases the magnification of the image data of the page with low visibility, and the convergence determination unit determines that there is an influence. The image processing apparatus according to claim 13, wherein the image data of the page with low visibility is output as a separate page.
出力する1ページにレイアウトされた複数の画像データ中に視認性が低いページ領域が存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページ領域があると判断した場合に、前記ページ領域の画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理装置。 An image processing method in an image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
A determination step of determining whether or not a page region having low visibility exists in a plurality of image data laid out on one page to be output;
An image processing step of performing image processing on the image data of the page area when it is determined by the determining step that there is a page area having low visibility;
An image processing apparatus comprising:
出力する画像データ中に視認性が低いページが存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。 An image processing method in an image processing apparatus for outputting each image data read from a document consisting of a plurality of pages,
A determination step of determining whether there is a page with low visibility in the image data to be output;
An image processing step of performing image processing on the image data of the page with low visibility when it is determined in the determination step that there is a page with low visibility;
An image processing method comprising:
出力する1ページにレイアウトされた複数の画像データを表示手段に表示する表示ステップと、
前記表示手段に表示された複数の画像データ中から視認性が低いページ領域を指示する指示ステップと、
前記指示ステップにより指示された視認性が低いページ領域の画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。 An image processing method in an image processing apparatus for laying out and outputting image data for a plurality of pages read from each document read from a document consisting of a plurality of pages in one page,
A display step of displaying a plurality of image data laid out on one page to be output on a display means;
An instruction step for indicating a page area having low visibility from the plurality of image data displayed on the display means;
An image processing step for performing image processing on the image data of the page area with low visibility instructed by the instruction step;
An image processing method comprising:
出力する画像データを表示手段に表示する表示手段と、
前記表示手段に表示された画像データ中から視認性が低いページを指示する指示ステップと、
出力する画像データ中に視認性が低いページが存在するかを判断する判断ステップと、
前記判断ステップにより視認性が低いページがあると判断した場合に、前記視認性が低いページの画像データに対して画像処理を行う画像処理ステップと、
を有することを特徴とする画像処理方法。 An image processing method in an image processing apparatus for outputting image data read from each original read from a multi-page original,
Display means for displaying image data to be output on the display means;
An instruction step for instructing a page with low visibility from the image data displayed on the display means;
A determination step of determining whether there is a page with low visibility in the image data to be output;
An image processing step of performing image processing on the image data of the page with low visibility when it is determined in the determination step that there is a page with low visibility;
An image processing method comprising:
前記画像処理ステップは、前記影響度判断ステップの判断結果基づいて、視認性の低いページの画像データに異なる態様の画像処理を行うことを特徴とする請求項17記載の画像処理方法。 The determination step includes an influence degree determination step of determining whether each image data of another page of the same page is affected even if the magnification of the image data of the page with low visibility is changed,
The image processing method according to claim 17, wherein the image processing step performs image processing of a different mode on image data of a page with low visibility based on a determination result of the influence determination step.
前記画像処理ステップは、前記収束性判断ステップが影響がないと判断した場合は、
前記視認性の低いページの画像データの倍率上げて出力させ、前記収束性判断ステップが影響があると判断した場合は、前記視認性の低いページの画像データを別ページとして出力させることを特徴とする請求項29記載の画像処理方法。 If the determination step determines that the influence determination step has an effect, the image data of the other pages within the same page is reduced, and the magnification is increased. A convergence determination step for determining whether or not it fits within,
If the image processing step determines that the convergence determination step has no influence,
The image data of the page with low visibility is output with an increased magnification, and when the convergence determining step has an influence, the image data of the page with low visibility is output as a separate page. 30. The image processing method according to claim 29.
A program for causing a computer to execute the image processing method according to any one of claims 17 to 32.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005369215A JP2007174270A (en) | 2005-12-22 | 2005-12-22 | Image processing apparatus, image processing method, storage medium, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005369215A JP2007174270A (en) | 2005-12-22 | 2005-12-22 | Image processing apparatus, image processing method, storage medium, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007174270A true JP2007174270A (en) | 2007-07-05 |
Family
ID=38300248
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005369215A Withdrawn JP2007174270A (en) | 2005-12-22 | 2005-12-22 | Image processing apparatus, image processing method, storage medium, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007174270A (en) |
Cited By (38)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009022009A (en) * | 2007-07-11 | 2009-01-29 | Ricoh Co Ltd | Recognition of invisible junction features for document security or annotation |
| JP2009025688A (en) * | 2007-07-23 | 2009-02-05 | Konica Minolta Business Technologies Inc | Image processing apparatus and program |
| JP2009034963A (en) * | 2007-08-03 | 2009-02-19 | Canon Inc | Image forming apparatus with adaptive automatic layout function |
| JP2009122760A (en) * | 2007-11-12 | 2009-06-04 | Ricoh Co Ltd | Document processing apparatus, document processing method, and document processing program |
| JP2010081077A (en) * | 2008-09-24 | 2010-04-08 | Fuji Xerox Co Ltd | Image forming device and image forming program |
| JP2011004356A (en) * | 2009-06-22 | 2011-01-06 | Kyocera Mita Corp | Image forming apparatus |
| JP2011150544A (en) * | 2010-01-21 | 2011-08-04 | Canon Inc | Apparatus and method for processing information, and program |
| JP2011186887A (en) * | 2010-03-10 | 2011-09-22 | Seiko Epson Corp | Printing control device and printing control method |
| US8255832B2 (en) | 2008-07-15 | 2012-08-28 | Canon Kabushiki Kaisha | Image processing device, image processing method, and storage medium |
| US8332401B2 (en) | 2004-10-01 | 2012-12-11 | Ricoh Co., Ltd | Method and system for position-based image matching in a mixed media environment |
| US8335789B2 (en) | 2004-10-01 | 2012-12-18 | Ricoh Co., Ltd. | Method and system for document fingerprint matching in a mixed media environment |
| US8369655B2 (en) | 2006-07-31 | 2013-02-05 | Ricoh Co., Ltd. | Mixed media reality recognition using multiple specialized indexes |
| US8385589B2 (en) | 2008-05-15 | 2013-02-26 | Berna Erol | Web-based content detection in images, extraction and recognition |
| US8385660B2 (en) | 2009-06-24 | 2013-02-26 | Ricoh Co., Ltd. | Mixed media reality indexing and retrieval for repeated content |
| US8452780B2 (en) | 2006-01-06 | 2013-05-28 | Ricoh Co., Ltd. | Dynamic presentation of targeted information in a mixed media reality recognition system |
| US8478761B2 (en) | 2007-07-12 | 2013-07-02 | Ricoh Co., Ltd. | Retrieving electronic documents by converting them to synthetic text |
| US8489987B2 (en) | 2006-07-31 | 2013-07-16 | Ricoh Co., Ltd. | Monitoring and analyzing creation and usage of visual content using image and hotspot interaction |
| US8510283B2 (en) | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
| US8521737B2 (en) | 2004-10-01 | 2013-08-27 | Ricoh Co., Ltd. | Method and system for multi-tier image matching in a mixed media environment |
| US8600989B2 (en) | 2004-10-01 | 2013-12-03 | Ricoh Co., Ltd. | Method and system for image matching in a mixed media environment |
| US8612475B2 (en) | 2011-07-27 | 2013-12-17 | Ricoh Co., Ltd. | Generating a discussion group in a social network based on metadata |
| US8676810B2 (en) | 2006-07-31 | 2014-03-18 | Ricoh Co., Ltd. | Multiple index mixed media reality recognition using unequal priority indexes |
| US8825682B2 (en) | 2006-07-31 | 2014-09-02 | Ricoh Co., Ltd. | Architecture for mixed media reality retrieval of locations and registration of images |
| US8838591B2 (en) | 2005-08-23 | 2014-09-16 | Ricoh Co., Ltd. | Embedding hot spots in electronic documents |
| US8856108B2 (en) | 2006-07-31 | 2014-10-07 | Ricoh Co., Ltd. | Combining results of image retrieval processes |
| US8868555B2 (en) | 2006-07-31 | 2014-10-21 | Ricoh Co., Ltd. | Computation of a recongnizability score (quality predictor) for image retrieval |
| US8949287B2 (en) | 2005-08-23 | 2015-02-03 | Ricoh Co., Ltd. | Embedding hot spots in imaged documents |
| US8989431B1 (en) | 2007-07-11 | 2015-03-24 | Ricoh Co., Ltd. | Ad hoc paper-based networking with mixed media reality |
| US9020966B2 (en) | 2006-07-31 | 2015-04-28 | Ricoh Co., Ltd. | Client device for interacting with a mixed media reality recognition system |
| US9063952B2 (en) | 2006-07-31 | 2015-06-23 | Ricoh Co., Ltd. | Mixed media reality recognition with image tracking |
| US9063953B2 (en) | 2004-10-01 | 2015-06-23 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment |
| US9171202B2 (en) | 2005-08-23 | 2015-10-27 | Ricoh Co., Ltd. | Data organization and access for mixed media document system |
| US9176984B2 (en) | 2006-07-31 | 2015-11-03 | Ricoh Co., Ltd | Mixed media reality retrieval of differentially-weighted links |
| US9311336B2 (en) | 2006-07-31 | 2016-04-12 | Ricoh Co., Ltd. | Generating and storing a printed representation of a document on a local computer upon printing |
| US9357098B2 (en) | 2005-08-23 | 2016-05-31 | Ricoh Co., Ltd. | System and methods for use of voice mail and email in a mixed media environment |
| US9384619B2 (en) | 2006-07-31 | 2016-07-05 | Ricoh Co., Ltd. | Searching media content for objects specified using identifiers |
| US9405751B2 (en) | 2005-08-23 | 2016-08-02 | Ricoh Co., Ltd. | Database for mixed media document system |
| US9530050B1 (en) | 2007-07-11 | 2016-12-27 | Ricoh Co., Ltd. | Document annotation sharing |
-
2005
- 2005-12-22 JP JP2005369215A patent/JP2007174270A/en not_active Withdrawn
Cited By (42)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8332401B2 (en) | 2004-10-01 | 2012-12-11 | Ricoh Co., Ltd | Method and system for position-based image matching in a mixed media environment |
| US9063953B2 (en) | 2004-10-01 | 2015-06-23 | Ricoh Co., Ltd. | System and methods for creation and use of a mixed media environment |
| US8600989B2 (en) | 2004-10-01 | 2013-12-03 | Ricoh Co., Ltd. | Method and system for image matching in a mixed media environment |
| US8521737B2 (en) | 2004-10-01 | 2013-08-27 | Ricoh Co., Ltd. | Method and system for multi-tier image matching in a mixed media environment |
| US8335789B2 (en) | 2004-10-01 | 2012-12-18 | Ricoh Co., Ltd. | Method and system for document fingerprint matching in a mixed media environment |
| US8949287B2 (en) | 2005-08-23 | 2015-02-03 | Ricoh Co., Ltd. | Embedding hot spots in imaged documents |
| US9357098B2 (en) | 2005-08-23 | 2016-05-31 | Ricoh Co., Ltd. | System and methods for use of voice mail and email in a mixed media environment |
| US9171202B2 (en) | 2005-08-23 | 2015-10-27 | Ricoh Co., Ltd. | Data organization and access for mixed media document system |
| US8838591B2 (en) | 2005-08-23 | 2014-09-16 | Ricoh Co., Ltd. | Embedding hot spots in electronic documents |
| US9405751B2 (en) | 2005-08-23 | 2016-08-02 | Ricoh Co., Ltd. | Database for mixed media document system |
| US8452780B2 (en) | 2006-01-06 | 2013-05-28 | Ricoh Co., Ltd. | Dynamic presentation of targeted information in a mixed media reality recognition system |
| US8825682B2 (en) | 2006-07-31 | 2014-09-02 | Ricoh Co., Ltd. | Architecture for mixed media reality retrieval of locations and registration of images |
| US9063952B2 (en) | 2006-07-31 | 2015-06-23 | Ricoh Co., Ltd. | Mixed media reality recognition with image tracking |
| US9384619B2 (en) | 2006-07-31 | 2016-07-05 | Ricoh Co., Ltd. | Searching media content for objects specified using identifiers |
| US8369655B2 (en) | 2006-07-31 | 2013-02-05 | Ricoh Co., Ltd. | Mixed media reality recognition using multiple specialized indexes |
| US9020966B2 (en) | 2006-07-31 | 2015-04-28 | Ricoh Co., Ltd. | Client device for interacting with a mixed media reality recognition system |
| US8489987B2 (en) | 2006-07-31 | 2013-07-16 | Ricoh Co., Ltd. | Monitoring and analyzing creation and usage of visual content using image and hotspot interaction |
| US8510283B2 (en) | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
| US9311336B2 (en) | 2006-07-31 | 2016-04-12 | Ricoh Co., Ltd. | Generating and storing a printed representation of a document on a local computer upon printing |
| US8856108B2 (en) | 2006-07-31 | 2014-10-07 | Ricoh Co., Ltd. | Combining results of image retrieval processes |
| US8868555B2 (en) | 2006-07-31 | 2014-10-21 | Ricoh Co., Ltd. | Computation of a recongnizability score (quality predictor) for image retrieval |
| US8676810B2 (en) | 2006-07-31 | 2014-03-18 | Ricoh Co., Ltd. | Multiple index mixed media reality recognition using unequal priority indexes |
| US9176984B2 (en) | 2006-07-31 | 2015-11-03 | Ricoh Co., Ltd | Mixed media reality retrieval of differentially-weighted links |
| US9530050B1 (en) | 2007-07-11 | 2016-12-27 | Ricoh Co., Ltd. | Document annotation sharing |
| JP2009022009A (en) * | 2007-07-11 | 2009-01-29 | Ricoh Co Ltd | Recognition of invisible junction features for document security or annotation |
| US10192279B1 (en) | 2007-07-11 | 2019-01-29 | Ricoh Co., Ltd. | Indexed document modification sharing with mixed media reality |
| US9373029B2 (en) | 2007-07-11 | 2016-06-21 | Ricoh Co., Ltd. | Invisible junction feature recognition for document security or annotation |
| US8989431B1 (en) | 2007-07-11 | 2015-03-24 | Ricoh Co., Ltd. | Ad hoc paper-based networking with mixed media reality |
| US8478761B2 (en) | 2007-07-12 | 2013-07-02 | Ricoh Co., Ltd. | Retrieving electronic documents by converting them to synthetic text |
| JP2009025688A (en) * | 2007-07-23 | 2009-02-05 | Konica Minolta Business Technologies Inc | Image processing apparatus and program |
| JP2009034963A (en) * | 2007-08-03 | 2009-02-19 | Canon Inc | Image forming apparatus with adaptive automatic layout function |
| JP2009122760A (en) * | 2007-11-12 | 2009-06-04 | Ricoh Co Ltd | Document processing apparatus, document processing method, and document processing program |
| US8385589B2 (en) | 2008-05-15 | 2013-02-26 | Berna Erol | Web-based content detection in images, extraction and recognition |
| US8255832B2 (en) | 2008-07-15 | 2012-08-28 | Canon Kabushiki Kaisha | Image processing device, image processing method, and storage medium |
| JP2010081077A (en) * | 2008-09-24 | 2010-04-08 | Fuji Xerox Co Ltd | Image forming device and image forming program |
| JP2011004356A (en) * | 2009-06-22 | 2011-01-06 | Kyocera Mita Corp | Image forming apparatus |
| US8385660B2 (en) | 2009-06-24 | 2013-02-26 | Ricoh Co., Ltd. | Mixed media reality indexing and retrieval for repeated content |
| JP2011150544A (en) * | 2010-01-21 | 2011-08-04 | Canon Inc | Apparatus and method for processing information, and program |
| JP2011186887A (en) * | 2010-03-10 | 2011-09-22 | Seiko Epson Corp | Printing control device and printing control method |
| US8612475B2 (en) | 2011-07-27 | 2013-12-17 | Ricoh Co., Ltd. | Generating a discussion group in a social network based on metadata |
| US9058331B2 (en) | 2011-07-27 | 2015-06-16 | Ricoh Co., Ltd. | Generating a conversation in a social network based on visual search results |
| US8892595B2 (en) | 2011-07-27 | 2014-11-18 | Ricoh Co., Ltd. | Generating a discussion group in a social network based on similar source materials |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2007174270A (en) | Image processing apparatus, image processing method, storage medium, and program | |
| JP4251629B2 (en) | Image processing system, information processing apparatus, control method, computer program, and computer-readable storage medium | |
| US7545992B2 (en) | Image processing system and image processing method | |
| JP4266784B2 (en) | Image processing system and image processing method | |
| US7681121B2 (en) | Image processing apparatus, control method therefor, and program | |
| US7853866B2 (en) | Apparatus, method and system for document conversion, apparatuses for document processing and information processing, and storage media that store programs for realizing the apparatuses | |
| JP4574235B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP4510535B2 (en) | Image processing apparatus, control method therefor, and program | |
| US8520006B2 (en) | Image processing apparatus and method, and program | |
| US7640269B2 (en) | Image processing system and image processing method | |
| US7551753B2 (en) | Image processing apparatus and method therefor | |
| US20120250048A1 (en) | Image processing apparatus and image processing method | |
| EP1533745A1 (en) | Image processing apparatus, control method therefor, and program | |
| US8270717B2 (en) | Metadata determination method and image forming apparatus | |
| US8179558B2 (en) | Image processing apparatus, image processing method, program and storage medium constructed to generate print data including a bitmap image and attribute data of each pixel of the bitmap image | |
| JP5188201B2 (en) | Image processing apparatus, control method therefor, program, and storage medium | |
| JP4338189B2 (en) | Image processing system and image processing method | |
| US7596271B2 (en) | Image processing system and image processing method | |
| JP4185858B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP2005157905A (en) | Image processing apparatus, image processing method, and program | |
| JP2006146486A (en) | Image processing device | |
| JP2005165674A (en) | Image processing apparatus, image processing method, and computer program | |
| JP2005136729A (en) | Image processing apparatus, image processing method, computer program, and computer-readable recording medium | |
| JP2010026986A (en) | Image forming apparatus | |
| JP2007216434A (en) | Printing apparatus and printing control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20080108 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080219 |
|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090303 |