JP4692420B2 - Image processing apparatus, image forming apparatus, and program - Google Patents
Image processing apparatus, image forming apparatus, and program Download PDFInfo
- Publication number
- JP4692420B2 JP4692420B2 JP2006185978A JP2006185978A JP4692420B2 JP 4692420 B2 JP4692420 B2 JP 4692420B2 JP 2006185978 A JP2006185978 A JP 2006185978A JP 2006185978 A JP2006185978 A JP 2006185978A JP 4692420 B2 JP4692420 B2 JP 4692420B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- type
- image data
- alpha
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、複数の画像を合成処理する画像処理装置等に関する。 The present invention relates to an image processing apparatus that synthesizes a plurality of images.
プリンタ等の画像形成装置やディスプレイ等の画像表示装置等では、複数の画像を種々の態様で合成した画像が形成/表示される場合がある。例えば、背景画像の一部領域に新たな画像を合成したり、通常の画像に文字や記号等を重ねたりする場合等である。その場合に、合成する側の画像(以下、「ソース」と記す)には、表示すべき何らかの画像が存在する領域と何らの画像も存在しない領域とが存在する。そのため、何らかの画像が存在する領域については所定の混合割合に従ってソースを合成される側の画像(以下、「デスティネーション」と記す)に重ね合わせ、画像が存在しない領域についてはソースを透明としてデスティネーションをそのまま表示するような画像処理が行なわれる。このような画像処理は、一般に「アルファブレンド処理」と呼ばれている。 In an image forming apparatus such as a printer or an image display apparatus such as a display, an image obtained by combining a plurality of images in various modes may be formed / displayed. For example, it may be a case where a new image is synthesized with a partial area of the background image, or a character or symbol is superimposed on a normal image. In this case, the image to be combined (hereinafter referred to as “source”) includes an area where some image to be displayed exists and an area where no image exists. Therefore, the area where some image exists is superimposed on the image on the side where the source is synthesized (hereinafter referred to as “destination”) according to a predetermined mixing ratio, and the source is made transparent for the area where no image exists. Is processed as it is. Such image processing is generally called “alpha blend processing”.
一方、上記した画像処理装置を備えた画像形成装置では、画像形成部であるプリンタエンジンの性能を最大限に引き出すために、色変換処理やスクリーン処理において文字(フォント)画像、写真(イメージ)画像およびグラフィックス画像等といったオブジェクト毎に最適化した処理条件が設定されている。それにより、文字のシャープネスを維持したり、写真のグラデーションの滑らかさを忠実に表現することを可能としている。その際には、画像処理装置は、画像データに含まれるオブジェクトを示す属性情報を用いて、オブジェクト毎に最適化された処理条件の設定を行なっている。
ところが、画像処理装置においてアルファブレンド処理を行なう場合に、ソースとデスティネーションとが異なるオブジェクトである場合がある。その場合に、色変換処理やスクリーン処理において、いずれのオブジェクトに合わせた処理条件を使用するかが問題となる。
On the other hand, in an image forming apparatus provided with the above-described image processing apparatus, a character (font) image and a photograph (image) image are used in color conversion processing and screen processing in order to maximize the performance of the printer engine as an image forming unit. Also, optimized processing conditions are set for each object such as a graphics image. As a result, it is possible to maintain the sharpness of the characters and faithfully express the smoothness of the gradation of the photograph. At that time, the image processing apparatus sets processing conditions optimized for each object using the attribute information indicating the object included in the image data.
However, when alpha blending processing is performed in the image processing apparatus, the source and the destination may be different objects. In that case, there is a problem in which processing condition suitable for which object is used in the color conversion process or the screen process.
そこで、ソースとデスティネーションとが異なるオブジェクトである場合に、いずれのオブジェクトに合わせた処理条件を設定するかを定める従来技術が存在する。例えば、描画データをレンダリングし、その結果得られた属性ビットマップイメージにおいて、属性の異なるオブジェクト同士が印刷画面上で重なることによって発生する属性の不定領域が存在する場合に、属性ビットマップイメージ全体を単一の属性に変更する。そして、レンダリングによって得られた描画ビットマップイメージにおいて、この単一の属性に変更された属性ビットマップイメージに応じて処理パラメータを変更して第2のビットマップイメージを得て、この第2のビットマップイメージをビデオ信号に変換して印刷をプリンタエンジンに実行させるという技術が存在する(例えば、特許文献1参照)。 Therefore, there is a conventional technique that determines which processing condition is set for which object when the source and the destination are different objects. For example, when rendering data is rendered and the attribute bitmap image obtained as a result has an indefinite region of attributes that occurs when objects with different attributes overlap on the print screen, the entire attribute bitmap image is displayed. Change to a single attribute. Then, in the drawing bitmap image obtained by rendering, a processing parameter is changed according to the attribute bitmap image changed to the single attribute to obtain a second bitmap image, and this second bit is obtained. There is a technique of converting a map image into a video signal and causing a printer engine to execute printing (see, for example, Patent Document 1).
このように、アルファブレンド処理を行なった場合に、画像形成時にオブジェクトの異なるソースとデスティネーションとのいずれに合わせた処理条件を設定するかは、画像品質に大きな影響を与える重要な技術課題である。すなわち、ソースおよびデスティネーションについてのオブジェクト各々の画像特性を反映させた処理条件を設定することが、合成処理された画像を高品質に形成するために必要となる。 In this way, when alpha blend processing is performed, it is an important technical issue that greatly affects image quality to set processing conditions suitable for different sources and destinations of objects during image formation. . In other words, it is necessary to set processing conditions that reflect the image characteristics of each object for the source and destination in order to form a synthesized image with high quality.
しかしながら、ここで3つ以上の画像を合成する場合を想定する。そして、最初にアルファブレンド処理を行なう際のソースがイメージオブジェクトであり、デスティネーションがグラフィックオブジェクトであったとして、アルファブレンド処理によりグラフィックオブジェクトが設定されたとする。その際には、オブジェクトを示す属性情報はアルファブレンド処理によってグラフィックと設定されるため、その時点でイメージに関する属性情報は失われることとなる。そのため、その後にさらにフォントオブジェクトを合成するアルファブレンド処理を行なうとすると、グラフィックオブジェクト(デスティネーション)とフォントオブジェクト(ソース)との間で処理条件が設定されることになるため、最初にアルファブレンド処理された際のイメージオブジェクトの存在が加味されずに処理条件が選択されてしまうこととなる。 However, it is assumed here that three or more images are combined. Assume that the graphic object is set by the alpha blending process, assuming that the source for the first alpha blending process is an image object and the destination is a graphic object. At that time, the attribute information indicating the object is set as graphic by the alpha blending process, so that the attribute information regarding the image is lost at that time. Therefore, if you perform alpha blending processing that further synthesizes font objects after that, processing conditions are set between the graphic object (destination) and the font object (source), so alpha blending processing first. The processing conditions are selected without taking into account the presence of the image object at the time.
このように、アルファブレンド処理を重ねていくと、前の処理で選択されなかったオブジェクトに関する属性情報は順次失われていく。そのために、本来設定されるべき処理条件とは異なる処理条件が設定されて画像形成処理が行なわれる場合が生じる。その結果、アルファブレンド処理が行なわれることで、合成された画像に画像品質の低下が生じる場合があった。 As described above, when the alpha blending process is repeated, the attribute information regarding the object not selected in the previous process is sequentially lost. For this reason, there may be a case where the image forming process is performed under a process condition that is different from the process condition that should be originally set. As a result, when the alpha blend process is performed, image quality may be degraded in the synthesized image.
そこで本発明は、以上のような技術的課題を解決するためになされたものであり、その目的とするところは、3つ以上の画像の合成を行なう場合においても、高品質な合成画像の形成を行なうことにある。 Therefore, the present invention has been made to solve the technical problems as described above, and its object is to form a high-quality composite image even when three or more images are combined. Is to do.
かかる目的のもと、本発明の画像処理装置は、合成される複数のオブジェクトの各々についての画像データを受け付ける画像データ受付手段と、画像データ受付手段により受け付けられた画像データの各々についてのオブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成手段と、オブジェクトデータ生成手段により生成されたオブジェクトデータに対してアルファブレンド演算を行なうアルファブレンド処理手段と、アルファブレンド処理手段での演算結果に基づいて、複数のオブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定手段とを備えたことを特徴としている。
ここで、アルファブレンド演算とは、ソースの画素データをS、デスティネーションの画素データをD、アルファ値をα(0≦α<1)として、D′=S×α+D×(1−α)により、アルファブレンド処理された画素データD′を得る演算をいう。
For this purpose, the image processing apparatus of the present invention includes an image data receiving unit that receives image data for each of a plurality of objects to be combined, and an object for each of the image data received by the image data receiving unit. Based on the object data generation means for generating the object data representing the type, the alpha blend processing means for performing the alpha blend operation on the object data generated by the object data generation means, and the calculation result in the alpha blend processing means, An object setting means for setting the type of object in an area where a plurality of objects overlap is provided.
Here, the alpha blending operation is expressed by D ′ = S × α + D × (1−α), where S is the source pixel data, D is the destination pixel data, and α is α (0 ≦ α <1). , An operation to obtain alpha blended pixel data D ′.
ここで、オブジェクトデータ生成手段は、3ビット以上で構成されたオブジェクトデータを生成することを特徴とすることができる。また、オブジェクト設定手段は、アルファブレンド処理手段による演算結果とオブジェクトの種類とを対応付けるテーブルを有し、かかるテーブルを用いてアルファブレンド処理手段での演算結果からオブジェクトの種類を設定することを特徴とすることもできる。
さらに、オブジェクトデータ生成手段は、オブジェクトの種類毎に各々2ビット以上のデータ領域が割り当てられたオブジェクトデータを生成することを特徴とすることができる。その場合に、アルファブレンド処理手段は、オブジェクトの種類毎に割り当てられたデータ領域毎にアルファブレンド演算を行ない、オブジェクト設定手段は、アルファブレンド処理手段でのアルファブレンド演算により最大値が得られたデータ領域のオブジェクトをオブジェクトの種類として設定することを特徴とすることができる。
Here, the object data generating means can generate object data composed of 3 bits or more. The object setting means has a table for associating the calculation result of the alpha blend processing means with the object type, and sets the object type from the calculation result of the alpha blend processing means using the table. You can also
Furthermore, the object data generation means can generate object data to which a data area of 2 bits or more is allocated for each type of object. In that case, the alpha blending processing means performs an alpha blending operation for each data area assigned for each object type, and the object setting means is data obtained by the alpha blending processing in the alpha blending processing means. An object in the area can be set as the object type.
また、本発明の画像処理装置は、合成される複数のオブジェクトの各々についての画像データを受け付ける画像データ受付手段と、画像データ受付手段により受け付けられた画像データの各々についてのオブジェクトの種類を認識するオブジェクト認識手段と、オブジェクト認識手段にて認識されたオブジェクトの種類のすべてを加味して、オブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定手段とを備えたことを特徴としている。
ここで、オブジェクト認識手段にて認識されたオブジェクトの種類に基づいて、画像データ受付手段により受け付けられた画像データの各々についてのオブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成手段をさらに備え、オブジェクト設定手段は、オブジェクトデータ生成手段により生成されたオブジェクトデータに対してアルファブレンド演算を行ない、アルファブレンド演算の結果に基づいて、複数のオブジェクトが重なる領域のオブジェクトの種類を設定することを特徴とすることができる。
The image processing apparatus according to the present invention also recognizes image data receiving means for receiving image data for each of a plurality of objects to be combined, and the type of object for each of the image data received by the image data receiving means. The present invention is characterized by comprising object recognition means and object setting means for setting the object type in the area where the objects overlap, in consideration of all the object types recognized by the object recognition means.
Here, based on the type of object recognized by the object recognition means, further comprising object data generation means for generating object data representing the type of object for each of the image data received by the image data reception means, The object setting means performs an alpha blend operation on the object data generated by the object data generation means, and sets the type of the object in the region where a plurality of objects overlap based on the result of the alpha blend operation. can do.
また、本発明を画像形成装置として捉え、本発明の画像形成装置は、合成される複数のオブジェクトの各々についての画像データを受け付ける画像データ受付手段と、画像データ受付手段により受け付けられた複数の画像データに対する画像合成処理を行なう画像処理手段と、画像処理手段により画像合成処理された画像データに基づいて、記録媒体上に複数のオブジェクトが合成された画像を形成する画像形成手段とを有し、画像処理手段は、画像データ受付手段により受け付けられた画像データの各々についてのオブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成部と、オブジェクトデータ生成部により生成されたオブジェクトデータに対してアルファブレンド演算を行なうアルファブレンド処理部と、アルファブレンド処理部での演算結果に基づいて、複数のオブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定部とを備えたことを特徴としている。 Further, the present invention is regarded as an image forming apparatus, and the image forming apparatus according to the present invention includes an image data receiving unit that receives image data for each of a plurality of objects to be combined, and a plurality of images received by the image data receiving unit. Image processing means for performing image composition processing on data, and image forming means for forming an image in which a plurality of objects are synthesized on a recording medium based on image data subjected to image composition processing by the image processing means, The image processing unit includes an object data generation unit that generates object data representing an object type for each of the image data received by the image data reception unit, and alpha blending for the object data generated by the object data generation unit An alpha blending processor that performs computations and an Files based on the blend processing unit with the operation result, is characterized in that a object setting unit for setting the object type of region in which a plurality of objects overlap.
ここで、画像処理手段は、画像データ受付部により受け付けられた画像データに対して、オブジェクト設定部により設定されたオブジェクトの種類に応じた色変換処理を行なう色変換処理部をさらに備えたことを特徴とすることができる。
また、画像処理手段は、画像データ受付部により受け付けられた画像データに対して、オブジェクト設定部により設定されたオブジェクトの種類に応じたスクリーン処理を行なうスクリーン処理部をさらに備えたことを特徴とすることができる。
Here, the image processing means further includes a color conversion processing unit that performs color conversion processing on the image data received by the image data receiving unit according to the type of the object set by the object setting unit. Can be a feature.
The image processing means further includes a screen processing unit that performs screen processing on the image data received by the image data receiving unit according to the type of the object set by the object setting unit. be able to.
また、本発明をプログラムとして捉え、本発明のプログラムは、コンピュータに画像処理を実行させる際に用いられるプログラムであって、複数のオブジェクトの各々についての画像データを取得する機能と、取得した画像データの各々についてのオブジェクトの種類を表すオブジェクトデータを生成する機能と、生成されたオブジェクトデータに対してアルファブレンド演算を行なう機能と、アルファブレンド演算による演算結果に基づいて、複数のオブジェクトが重なる領域のオブジェクトの種類を設定する機能とをコンピュータに実現させることを特徴としている。
ここで、かかるプログラムは、3ビット以上で構成されたオブジェクトデータを生成してアルファブレンド演算を行なうことを特徴とすることができる。
Further, the present invention is regarded as a program, and the program of the present invention is a program used when causing a computer to execute image processing, and has a function of acquiring image data for each of a plurality of objects, and acquired image data A function that generates object data representing the type of object for each of the above, a function that performs alpha blending operation on the generated object data, and an area where multiple objects overlap based on the operation result of alpha blending operation It is characterized by having a computer realize the function of setting the type of object.
Here, such a program can be characterized by generating object data composed of 3 bits or more and performing an alpha blending operation.
なお、このプログラムは、例えば、ハードディスク等の予約領域に格納されたプログラムを、RAMにロードして実行される場合がある。また、予めROMに格納された状態にて、CPUで実行される形態がある。さらに、EEPROM等の書き換え可能なROMを備えている場合には、機器がアッセンブリされた後に、プログラムだけが提供されてROMにインストールされる場合がある。このプログラムの提供に際しては、インターネット等のネットワークを介してデータ記録装置を備えたコンピュータにプログラムが伝送され、データ記録装置の有するROMにインストールされる形態も考えられる。 Note that this program may be executed by loading a program stored in a reserved area such as a hard disk into the RAM, for example. In addition, there is a form that is executed by the CPU in a state stored in the ROM in advance. Further, when a rewritable ROM such as an EEPROM is provided, only a program may be provided and installed in the ROM after the device is assembled. In providing this program, it is also conceivable that the program is transmitted to a computer having a data recording device via a network such as the Internet and installed in a ROM of the data recording device.
本発明によれば、各オブジェクトの画像特性を反映させた高品質な合成画像を形成することが可能となる。 According to the present invention, it is possible to form a high-quality composite image that reflects the image characteristics of each object.
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
[実施の形態1]
図1は、本実施の形態が適用される画像処理装置を備えた画像形成装置の構成の一例を示したブロック図である。図1に示した画像形成装置1は、例えばデジタルカラープリンタであって、外部機器から入力された画像データに対して所定の画像処理を施す画像処理手段としての画像処理部(画像処理装置)10、処理プログラム等が記録される例えばハードディスク(Hard Disk Drive)にて実現される2次記憶部20、画像形成装置1全体の動作を制御する制御部30、各色成分の画像データに対応して画像形成を行なう画像形成手段の一例としての、電子写真方式のプリンタエンジンからなる画像形成部40を含んで構成されている。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[Embodiment 1]
FIG. 1 is a block diagram illustrating an example of a configuration of an image forming apparatus including an image processing apparatus to which the exemplary embodiment is applied. An
まず、画像形成部40は、図1に示したように、一定の間隔を置いて並列的に配置される4つの画像形成ユニット41Y,41M,41C,41Kが備えられている。画像形成ユニット41Y,41M,41C,41Kは、静電潜像を形成してトナー像を担持する感光体ドラム43、感光体ドラム43の表面を所定電位で一様に帯電する帯電ロール44、感光体ドラム43上に形成された静電潜像を現像する現像器45、転写後の感光体ドラム43表面を清掃するドラムクリーナ46を含んで構成されている。また、画像形成ユニット41Y,41M,41C,41Kそれぞれに対応して、感光体ドラム43を露光するレーザ露光装置42Y,42M,42C,42Kが設けられている。
ここで、各画像形成ユニット41Y,41M,41C,41Kは、現像器45に収納されたトナーを除いて、略同様に構成されている。そして、画像形成ユニット41Y,41M,41C,41Kは、それぞれがイエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)のトナー像を形成する。
First, as shown in FIG. 1, the
Here, the
また、画像形成部40は、各画像形成ユニット41Y,41M,41C,41Kの感光体ドラム43にて形成された各色のトナー像が多重転写される中間転写ベルト49、各画像形成ユニット41Y,41M,41C,41Kの各色トナー像を一次転写部T1にて中間転写ベルト49に順次転写(一次転写)させる一次転写ロール47、中間転写ベルト49上に転写された重畳トナー像を二次転写部T2にて記録材(記録紙)である用紙Pに一括転写(二次転写)させる二次転写ロール48、二次転写された画像を用紙P上に定着させる定着器50を備えている。
In addition, the
画像形成部40では、制御部30による動作制御のもと、画像形成部40の各レーザ露光装置42Y,42M,42C,42Kは、画像処理部10から入力された画像データに応じて変調されたレーザ光を生成して、各画像形成ユニット41Y,41M,41C,41Kの感光体ドラム43に静電潜像を形成する。例えばイエロー(Y)の画像形成ユニット41Yでは、帯電ロール44により所定電位で一様に帯電された感光体ドラム43の表面が、レーザ露光装置42Yにより生成されたレーザ光で走査露光されて、感光体ドラム43上に静電潜像が形成される。そして、形成された静電潜像は現像器45により現像され、感光体ドラム43上にはYのトナー像が形成される。同様に、画像形成ユニット41M,41C,41Kにおいても、M、C、Kの各色トナー像が形成される。
In the
各画像形成ユニット41Y,41M,41C,41Kで形成された各色トナー像は、図1の矢印A方向に循環移動する中間転写ベルト49上に、一次転写ロール47により順次静電吸引され、中間転写ベルト49上に重畳されたトナー像が形成される。重畳トナー像は、中間転写ベルト49の移動に伴って二次転写ロール48が配設された二次転写部T2に搬送される。重畳トナー像が二次転写部T2に搬送されると、トナー像が二次転写部T2に搬送されるタイミングに合わせて用紙Pが用紙カセット63から二次転写部T2に供給される。そして、二次転写部T2にて二次転写ロール48により形成される転写電界により、重畳トナー像は搬送されてきた用紙P上に一括して静電転写される。
その後、重畳トナー像が静電転写された用紙Pは、中間転写ベルト49から剥離され、搬送ベルト61,62により定着器50まで搬送される。定着器50に搬送された用紙P上の未定着トナー像は、定着器50によって熱および圧力による定着処理を受けることで用紙P上に定着される。そして定着画像が形成された用紙Pは、画像形成装置の排出部に設けられた排紙積載部(不図示)に搬送される。
なお、画像形成部40は、インクジェット方式等といった他の方式のエンジンを用いることもできる。
The color toner images formed by the
Thereafter, the sheet P on which the superimposed toner image is electrostatically transferred is peeled off from the
Note that the
次に、画像処理部10は、例えばパーソナルコンピュータ(PC)3やスキャナ等の画像読取装置4等といった外部機器からの画像データの入力を受け付ける画像データ受付手段の一例としての入力インターフェース11、入力インターフェース11にて受け付けた画像データを一時記憶する入力バッファ12、PDL(Page Description Language:ページ記述言語)形式の画像データを解析して中間データを生成するPDL解析部13、PDL解析部13にて生成された中間データを画素の並びで表現された印刷用の画像データ(ラスタ画像データ等)に展開(レンダリング)するレンダリング処理部14、レンダリング処理部14でのレンダリング処理に際して作業領域として使用される中間バッファ15、レンダリングされた画像データを印刷処理に適した表色系の画像データ(YMCK)に色変換する色変換処理部16、色変換された画像データに対してスクリーン処理を行なうスクリーン処理部17を含んで構成されている。
Next, the
ここで、図2は、本実施の形態の画像処理部10の内部構成を示すブロック図である。図2に示したように、画像処理部10は、画像データを処理するに際して、予め定められた処理プログラムに従ってデジタル演算処理を実行するCPU101、CPU101の作業用メモリ等として用いられるRAM102、CPU101により実行される処理プログラム等が格納されるROM103、書き換え可能で電源供給が途絶えた場合にもデータを保持できる、電池によりバックアップされたSRAMやフラッシュメモリ等の不揮発性メモリ104、画像処理部10に接続されるPC3や2次記憶部20や画像形成部40等の各部との信号の入出力を制御するインターフェース部105を備えている。
また、2次記憶部20(図1参照)には、画像処理部10により実行される処理プログラムが格納されており、画像形成装置1の立ち上げ時に画像処理部10がこの処理プログラムを読み込むことによって、本実施の形態の画像処理部10での画像処理が実行される。
Here, FIG. 2 is a block diagram showing an internal configuration of the
The secondary storage unit 20 (see FIG. 1) stores a processing program executed by the
図1に示した入力インターフェース11は、例えばユーザのパーソナルコンピュータ(PC)3やスキャナ等の画像読取装置4から画像データと描画コマンドとを受け付ける。そして、画像データを入力バッファ12に出力し、描画コマンドをPDL解析部13に出力する。ここで、この画像データは、例えばRGB毎に各8ビット(1バイト)で表現された例えばsRGB色空間に属する画素データと、オブジェクトの種類(フォントオブジェクト、グラフィックオブジェクト、イメージオブジェクト等)を表す例えば2ビットのデータからなるタグ情報とを含んで構成されている。
入力バッファ12は、入力インターフェース11から入力した画像データを一時的に記憶し、PDL解析部13に対して出力する。
The
The
PDL解析部13は、描画コマンドに応じて入力バッファ12から画像データを取得し、取得した画像データから例えば印刷1ページ分の中間データを生成する。そして、生成した中間データをレンダリング処理部14に対して出力する。
その際に、PDL解析部13は、入力インターフェース11にて受け付けた画像データに含まれるオブジェクトの種類を表すタグ情報からオブジェクトの種類を認識し、8ビット(1バイト)で表現されたオブジェクトの種類を表すタグデータ(オブジェクトデータ)を生成する。したがって、PDL解析部13は、オブジェクトの種類を認識するオブジェクト認識手段としての機能と、オブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成手段(オブジェクトデータ生成部)としての機能とを併有する。
The
At that time, the
ここで、図3は、オブジェクトの種類を表す8ビットのタグデータ(タグ値)のデフォルト値の一例を示した図である。図3に示した例では、フォントオブジェクトに対しては、タグ値として“0”(=0x00)が設定され、グラフィックオブジェクトに対しては、タグ値として“96”(=0x60)が設定され、イメージオブジェクトに対しては、タグ値として“192”(=0xC0)が設定される。
そして、PDL解析部13は、RGB毎に各8ビットの画素データと、オブジェクトの種類を表す8ビットのタグデータとからなる4バイトの中間データをレンダリング処理部14に出力する。ここで、図4は、PDL解析部13から出力される中間データのデータ構造の一例を示した図である。
Here, FIG. 3 is a diagram showing an example of a default value of 8-bit tag data (tag value) representing the type of object. In the example shown in FIG. 3, “0” (= 0x00) is set as the tag value for the font object, and “96” (= 0x60) is set as the tag value for the graphic object. For an image object, “192” (= 0xC0) is set as a tag value.
Then, the
レンダリング処理部14は、後段で詳述するように、描画コマンドに応じてPDL解析部13から取得した中間データに対するレンダリング処理を行なう。そして、このレンダリングされたラスタ画像データ(画素群が配列された画像データ)を色変換処理部16に対して出力する。
As will be described in detail later, the
色変換処理部16は、入力したラスタ画像データを、画像形成部40での印刷処理に適した表色系の画像データ(YMCK)に変換し、スクリーン処理部17に対して出力する。色変換処理部16は、DLUT(Direct Look-Up Table)と呼ばれる色変換テーブルを用いて色変換処理を行なう。その場合に、色変換処理部16は、オブジェクトの種類(フォントオブジェクト、グラフィックオブジェクト、イメージオブジェクト等)毎に異なるDLUTを有している。そして、レンダリング処理部14からのラスタ画像データに含まれるタグデータに基づいてオブジェクトの種類を設定し、オブジェクトの種類に応じた最適な色変換を行なうことができるように構成されている。
The color
スクリーン処理部17は、色変換処理部16から入力された色成分(YMCK)毎の多値(各8ビット)のラスタ画像データに対してスクリーン処理を行なう。それにより、2値化画像データ(1ビットの画像データ)を生成する。すなわち、濃度階調を有する多値画像情報であるラスタ画像データを、網点と呼ばれる着色ドットの大きさによって擬似的に中間調画像の濃度を表わす2値化画像データを生成する。
スクリーン処理部17は、スクリーンを作成するためのパラメータ(スクリーンパターン、スクリーン線幅、スクリーンピッチ、スクリーン角度等:以下、「スクリーンパラメータ」と記す)をオブジェクトの種類(フォントオブジェクト、グラフィックオブジェクト、イメージオブジェクト等)毎に有している。そして、レンダリング処理部14からのラスタ画像データに含まれるタグデータに基づいてオブジェクトの種類を設定し、オブジェクトの種類に対応して設定されたスクリーンパラメータを用いて、各オブジェクトに最適なスクリーン処理を行なうことができるように構成されている。
そして、スクリーン処理部17は、生成した2値化画像データを画像形成部40の各レーザ露光装置42Y,42M,42C,42Kに対して出力する。
The
The
Then, the
続いて、入力インターフェース11に同一のページに複数の異なる種類のオブジェクト(例えば、グラフィックオブジェクトおよびイメージオブジェクト)を合成する描画コマンドが入力された場合のレンダリング処理部14でのレンダリング処理について述べる。
図5は、レンダリング処理部14でのレンダリング処理の手順の一例を示すフローチャートである。図5に示したように、まずレンダリング処理部14は、PDL解析部13から描画コマンドを取得する(S101)。また、レンダリング処理部14は、PDL解析部13にて生成されたグラフィックオブジェクトおよびイメージオブジェクトについての中間データを取得し、中間バッファ15に格納する(S102)。
次いで、レンダリング処理部14は、描画コマンドに基づいて、中間バッファ15から合成する側として設定されているオブジェクト(以下、「ソース」と記す)の中間データを読み出す(S103)。ここでは、グラフィックオブジェクトがソースであるとする。
Next, a rendering process in the
FIG. 5 is a flowchart illustrating an example of a rendering processing procedure in the
Next, the
続いて、レンダリング処理部14は、描画コマンドがアルファブレンド描画コマンドであるか、または上書き描画コマンドであるかを判断する(S104)。ここで、アルファブレンドとは、合成される側のオブジェクト(以下、「デスティネーション」と記す)と合成する側のオブジェクト(ソース)とを、画素が重なる領域においてアルファ値(α)を用いて半透明合成する処理をいう。
ステップ104にて、描画コマンドがアルファブレンド描画コマンドであると判断された場合には、レンダリング処理部14は、描画コマンドに基づいて、中間バッファ15からデスティネーションとして設定されているイメージオブジェクトの中間データを読み出す(S105)。
Subsequently, the
If it is determined in
そして、レンダリング処理部14は、デスティネーションとソースとを各画素毎にアルファブレンド処理する(S106)。したがって、ここでのレンダリング処理部14は、アルファブレンド演算を行なうアルファブレンド処理手段(アルファブレンド処理部)として機能する。
本実施の形態でのアルファブレンド処理においては、図4に示したRGB毎の各8ビット(1バイト)の画素データに対するアルファブレンド演算と、8ビットのタグデータに対するアルファブレンド演算とが実行される。
すなわち、アルファブレンドされる領域では、画素毎の各色成分について、ソースの画素データをS、デスティネーションの画素データをD、アルファ値をα(0≦α<1)として、以下の(1)式で表されるアルファブレンド演算により、各画素毎にアルファブレンド処理された画素データD′が生成される。
D′=S×α+D×(1−α) …(1)
Then, the
In the alpha blend process in the present embodiment, the alpha blend operation for each 8-bit (1 byte) pixel data for each RGB shown in FIG. 4 and the alpha blend operation for 8-bit tag data are executed. .
That is, in the area to be alpha blended, for each color component for each pixel, the source pixel data is S, the destination pixel data is D, and the alpha value is α (0 ≦ α <1). The pixel data D ′ subjected to alpha blending processing is generated for each pixel by the alpha blending operation represented by
D ′ = S × α + D × (1−α) (1)
また、ソースのタグデータをs、デスティネーションのタグデータをdとして、以下の(2)式で表されるアルファブレンド演算により、各画素毎にアルファブレンド処理されたタグデータd′が生成される。
d′=s×α+d×(1−α) …(2)
この場合、本実施の形態ではα=0.25に設定されているとし、図3より、s(グラフィックオブジェクト)=96、d(イメージオブジェクト)=192であるから、(2)式より、
d′=96×0.25+192×(1−0.25)
=168(=0xA8) …(3)
と算出される。
すなわち、(1)式および(2)式により、アルファブレンド処理後の画素データおよびタグデータは、(D′R、D′G、D′B、d′)となる。
そして、レンダリング処理部14は、(1)式および(2)式の演算結果(D′R、D′G、D′B、d′)を中間バッファ15に格納する(S107)。
Further, with the tag data of the source as s and the tag data of the destination as d, the tag data d ′ subjected to alpha blending processing for each pixel is generated by the alpha blending operation represented by the following equation (2). .
d ′ = s × α + d × (1−α) (2)
In this case, in this embodiment, it is assumed that α = 0.25, and s (graphic object) = 96 and d (image object) = 192 from FIG.
d '= 96 * 0.25 + 192 * (1-0.25)
= 168 (= 0xA8) (3)
Is calculated.
That is, according to the expressions (1) and (2), the pixel data and the tag data after the alpha blending process are (D ′ R , D ′ G , D ′ B , d ′).
Then, the
なお、アルファブレンドされない領域、すなわちグラフィックオブジェクト(ソース)の画素データがすべて0である領域では、(1)式および(2)式の演算において、α=0に設定される。そのため、デスティネーションであるイメージオブジェクトの画像データのみが存在することとなる。 Note that in an area where alpha blending is not performed, that is, an area where the pixel data of the graphic object (source) is all 0, α = 0 is set in the calculations of the expressions (1) and (2). Therefore, only the image data of the destination image object exists.
ここで、図6および図7は、レンダリング処理部14に形成されたアルファブレンド演算回路の一例を示した回路図である。
図6に示したアルファブレンド演算回路は、乗算器141、(1−α)の演算を行なう演算器142、乗算器143、加算器144を備えている。乗算器141は、ソース(S,s)にアルファ値(α)を乗算し、S×α,s×αを得る。乗算器143は、デスティネーション(D,d)に演算器142で得られた(1−α)を乗算し、D×(1−α), d×(1−α)を得る。そして、加算器144は、乗算器141での乗算結果と乗算器143での乗算結果と加算して、D′=S×α+D×(1−α),d′=s×α+d×(1−α)を得る。
また、図7に示したアルファブレンド演算回路は、減算器145、乗算器146、加算器147を備えている。減算器145は、ソース(S,s)とデスティネーション(D,d)との差分を演算し、S−D,s−dを得る。乗算器146は、減算器145にて得られたS−D,s−dにアルファ値(α)を乗算し、(S−D)×α, (s−d)×αを得る。そして、加算器147は、乗算器146での乗算結果にデスティネーション(D,d)を加算し、D′=S×α+D×(1−α),d′=s×α+d×(1−α)を得る。
Here, FIGS. 6 and 7 are circuit diagrams illustrating an example of an alpha blend operation circuit formed in the
The alpha blend operation circuit shown in FIG. 6 includes a
7 includes a
一方、ステップ104にて、描画コマンドが上書き描画コマンドであると判断された場合には、レンダリング処理部14は、中間バッファ15に格納されているデスティネーションとして設定されているイメージオブジェクトの中間データに対して、グラフィックオブジェクトの中間データを上書き処理する(S108)。
ここで、上書き処理においては、ソースであるグラフィックオブジェクトの画像データ(画素データおよびタグデータ)を(SR、SG、SB、sG)、デスティネーションであるイメージオブジェクトの画像データを(DR、DG、DB、dI)とした場合に、グラフィックオブジェクト(ソース)の画素データがすべて0でない領域、すなわちSR=0かつSG=0かつSB=0ではなく、いずれかが1以上の濃度値を持つ画素の領域では、上書き処理後の画像データは、ソースの画像データ(SR、SG、SB、sG)に設定される。また、グラフィックオブジェクト(ソース)の画素データがすべて0である領域、すなわちSR=SG=SB=0の画素の領域では、上書き処理後の画像データは、デスティネーションの画像データ(DR、DG、DB、dI)に設定される。
On the other hand, if it is determined in
Here, in the overwriting process, the image data (pixel data and tag data) of the graphic object that is the source is (S R , S G , S B , s G ), and the image data of the image object that is the destination is (D R 1 , D G , D B , d I ), the pixel data of the graphic object (source) are not all 0, that is, S R = 0, S G = 0, and S B = 0. In the region of the pixel having a density value of 1 or more, the image data after overwriting is set to the source image data (S R , S G , S B , s G ). In the area where the pixel data of the graphic object (source) is all 0, that is, the area of the pixel where S R = S G = S B = 0, the image data after the overwriting process is the destination image data (D R , D G , D B , d I ).
そして、すべての描画コマンドが終了した後(S109)、レンダリング処理部14は、中間バッファ15に格納されている中間データに含まれる8ビットのタグデータに基づいて、各画素毎に、色変換処理部16での色変換処理において用いるDLUTおよびスクリーン処理部17でのスクリーン処理において用いるスクリーンパラメータを選択するためのオブジェクトの種類を決定し、決定されたオブジェクトの種類を2ビットのタグデータに変換処理するタグデータ補正を行なう(S110)。
After all the drawing commands are completed (S109), the
ステップ110でのタグデータ補正は、次のように行なう。図8は、中間バッファ15に格納された描画コマンドが終了した後のタグデータのタグ値と、それに対応して設定されるオブジェクトの種類との対応関係を定めたテーブルを示した図である。図8に示したテーブルはレンダリング処理部14に備えられている。そして、ステップ110にて、レンダリング処理部14は、図8のテーブルを用いてタグデータのタグ値を判定し、オブジェクトの種類を決定する。したがって、ここでのレンダリング処理部14は、オブジェクトの種類を設定するオブジェクト設定手段(オブジェクト設定部)として機能する。
The tag data correction at step 110 is performed as follows. FIG. 8 is a diagram showing a table that defines the correspondence between the tag value of the tag data after the drawing command stored in the
上記した例を用いて具体的に述べると、アルファブレンド処理によってタグデータのタグ値d′=168(=0xA8)と算出された場合には(上記した(3)式参照)、これを図8のテーブルを用いて判定し、オブジェクトの種類はイメージとして決定される。そして、図9に示したオブジェクトの種類と2ビットのタグデータとの対応関係を用いて、イメージオブジェクトを表す2ビットのタグデータ(タグ値:11b)が生成される。すなわち、ここで8ビットのタグデータは、2ビットのタグデータに変換される。
また、上書き処理によってタグデータのタグ値sG(=96(0x60):図3参照)である画素では、図8のテーブルを用いた判定により、オブジェクトの種類はそのままグラフィックとして決定される。そして、図9の対応関係により、グラフィックオブジェクトを表す2ビットのタグデータ(タグ値:10b)が生成される。さらに、上書き処理によってタグデータのタグ値dI(=192(0xC0):図3参照)である画素では、図8のテーブルを用いた判定により、オブジェクトの種類はそのままイメージとして決定される。そして、図9の対応関係により、イメージオブジェクトを表す2ビットのタグデータ(タグ値:11b)が生成される。すなわち、同様に、2ビットのタグデータに変換される。
Specifically, using the above example, when the tag value d ′ = 168 (= 0xA8) of the tag data is calculated by the alpha blending process (see equation (3) above), this is shown in FIG. The type of the object is determined as an image. Then, 2-bit tag data (tag value: 11b) representing the image object is generated using the correspondence between the object type and 2-bit tag data shown in FIG. That is, here, 8-bit tag data is converted into 2-bit tag data.
Further, in the pixel having the tag data tag value s G (= 96 (0x60): see FIG. 3) by the overwriting process, the object type is determined as a graphic as it is by the determination using the table of FIG. Then, 2-bit tag data (tag value: 10b) representing the graphic object is generated based on the correspondence relationship of FIG. Further, in the pixel having the tag data tag value d I (= 192 (0xC0): see FIG. 3) by the overwriting process, the object type is determined as an image as it is by the determination using the table of FIG. Then, 2-bit tag data (tag value: 11b) representing the image object is generated based on the correspondence relationship of FIG. That is, similarly, it is converted into 2-bit tag data.
生成された2ビットのタグデータは、それぞれ色変換処理部16およびスクリーン処理部17に送られる。色変換処理部16およびスクリーン処理部17は、取得した2ビットのタグデータに基づいて各画素毎にオブジェクトの種類を判断する。そして、各画素毎に、色変換処理部16にてオブジェクトの種類に応じて設定されているDLUTが選択され、オブジェクトの種類に対応した最適な色変換が行なわれる。また、スクリーン処理部17にてオブジェクトの種類に応じて設定されているスクリーンパラメータが選択され、オブジェクトの種類に対応した最適なスクリーン処理が行なわれる。
The generated 2-bit tag data is sent to the color
このように、本実施の形態の画像処理部10では、レンダリング処理にてアルファブレンド処理を行なう場合に、入力された画像データに含まれるソースとデスティネーションのオブジェクトの種類を表すタグ情報から例えば8ビットの多値のデータを生成し、例えば8ビットのソースのタグデータと8ビットのデスティネーションのタグデータとに関するアルファブレンド演算を行なう。そして、その結果得られたタグデータに基づいて、各画素毎のオブジェクトの種類を設定する。
それにより、アルファブレンド処理が行なわれた場合に、各画素毎に、ソース側に設定されたオブジェクトとデスティネーション側に設定されたオブジェクトとの関係(例えば、重なりの順序)と、その際に設定されたアルファ値(α)とに忠実に対応させたオブジェクトの種類を決定することができる。そのため、各画素毎に、色変換処理部16およびスクリーン処理部17により最適な設定条件が選択されることとなるので、画像の高品質化を図ることが可能となる。
As described above, in the
As a result, when alpha blend processing is performed, for each pixel, the relationship between the object set on the source side and the object set on the destination side (for example, the order of overlap) and the settings made at that time It is possible to determine the type of the object faithfully corresponding to the set alpha value (α). Therefore, the optimum setting condition is selected by the color
続いて、入力インターフェース11に3つのオブジェクトが入力された場合のレンダリング処理部14でのレンダリング処理について述べる。ここでは具体的に、上記した2つの異なるグラフィックオブジェクトとイメージオブジェクトとに加えて、さらに異なるイメージオブジェクトがソースとして入力された場合を例として説明する。
上記したステップ106のように、初めのグラフィックオブジェクト(ソース)とイメージオブジェクト(デスティネーション)とがアルファブレンド処理されると、(1)式および(2)式により、アルファブレンド処理後の画像データ(画素データおよびタグデータ)は、(D′R、D′G、D′B、d′)となる。これに加えてさらに異なるイメージオブジェクトがソースとして入力された場合には、上記した図5のステップ106では、(D′R、D′G、D′B、d′)の画像データを持ったデスティネーションD′に対して、イメージオブジェクトをソースとしてアルファブレンド処理することとなる。
Next, a rendering process in the
When the first graphic object (source) and the image object (destination) are alpha blended as in step 106 described above, the image data after alpha blending ( Pixel data and tag data) are (D ′ R , D ′ G , D ′ B , d ′). In addition to this, when a different image object is input as a source, in step 106 in FIG. 5, the destination having the image data of (D ′ R , D ′ G , D ′ B , d ′) is provided. Alpha blend processing is performed on the nation D ′ using the image object as a source.
この場合には、上記したステップ106においては、次のアルファブレンド処理が行なわれる。すなわち、ソースの画素データをS2とすると、デスティネーションの画素データはD′であるので、以下の(4)式で表されるアルファブレンド演算により、新たに画素データD″が生成される。
D″=S2×α+D′×(1−α) …(4)
同様に、ソースのタグデータをs2とすると、デスティネーションのタグデータはd′であるので、以下の(5)式で表されるアルファブレンド演算により、新たにタグデータd″が生成される。
d″=s2×α+d′×(1−α) …(5)
この場合、同様にα=0.25に設定するとし、図3よりs2(イメージオブジェクト)=192、(3)式よりd′=168であるから、これらを(5)式に代入して、
d″=192×0.25+168×(1−0.25)
=174(=0xAE)
となる。
すなわち、(4)式および(5)式により、アルファブレンド処理後の画素データおよびタグデータは、(D″R、D″G、D″B、d″)となる。
そして、生成されたタグデータd″は、図8のテーブルを用いてオブジェクトの種類が決定され、図9に示したオブジェクトの種類と2ビットのタグデータとの対応関係を用いて、2ビットのタグデータに変換処理される。
In this case, in step 106 described above, the next alpha blend process is performed. That is, assuming that the source pixel data is S2, the destination pixel data is D ′, and therefore, pixel data D ″ is newly generated by an alpha blending operation expressed by the following equation (4).
D ″ = S2 × α + D ′ × (1-α) (4)
Similarly, if the source tag data is s2, the destination tag data is d ', and therefore, tag data d "is newly generated by the alpha blending operation expressed by the following equation (5).
d ″ = s2 × α + d ′ × (1-α) (5)
In this case, if α = 0.25 is set similarly, s2 (image object) = 192 from FIG. 3 and d ′ = 168 from equation (3), these are substituted into equation (5),
d ″ = 192 × 0.25 + 168 × (1-0.25)
= 174 (= 0xAE)
It becomes.
That is, according to the equations (4) and (5), the pixel data and the tag data after the alpha blending process are (D ″ R , D ″ G , D ″ B , d ″).
In the generated tag data d ″, the object type is determined using the table of FIG. 8, and the 2-bit tag data is correlated with the object type shown in FIG. Converted to tag data.
このようにして、本実施の形態の画像処理部10では、3つ以上の異なる画像データをアルファブレンド処理して合成することができる。その場合に、画素データだけでなく、タグデータに対してもアルファブレンド演算を行なうことにより、タグデータには、(5)式にて用いた(3)式での演算結果d′のように、前回のアルファブレンド演算で用いられたソース(グラフィックオブジェクト)とデスティネーション(イメージオブジェクト)とによる演算結果を反映させることができる。それにより、順次行なわれるアルファブレンド処理には、それ以前に行なわれたアルファブレンド処理にて合成されたソースおよびデスティネーションの存在を加味させることで、合成されるすべてのオブジェクトの存在を反映させた演算結果を得ることができる。
そのため、アルファブレンド処理された合成画像にて各画素のオブジェクトの種類を決定する際に、合成されたすべての画像についての、ソース側に設定されたオブジェクトとデスティネーション側に設定されたオブジェクトとの関係(例えば、重なりの順序)や、その際に設定されたアルファ値(α)とに忠実に対応させたオブジェクトの選択が可能となる。その結果、3つ以上の異なる画像データを合成した場合にも、色変換処理部16およびスクリーン処理部17において各画素に対して本来設定すべき最適な処理条件が選択できるので、合成画像の高品質化を図ることが可能となる。
In this manner, the
Therefore, when determining the object type of each pixel in the composite image that has been alpha blended, the object set on the source side and the object set on the destination side for all the combined images It is possible to select an object faithfully corresponding to the relationship (for example, the order of overlap) and the alpha value (α) set at that time. As a result, even when three or more different image data are combined, the optimum processing conditions that should be originally set for each pixel can be selected in the color
以上説明したように、本実施の形態の画像処理部10では、レンダリング処理においてアルファブレンド処理による画像合成を行なう場合に、ソースおよびデスティネーションのオブジェクトの種類を表すタグデータを例えば8ビットの多値のデータで生成しておき、多値のソースのタグデータと多値のデスティネーションのタグデータとに関してもアルファブレンド演算を行なう。そして、その結果得られたタグデータに基づいて、各画素でのオブジェクトの種類を設定している。
それにより、アルファブレンド処理された合成画像にて各画素におけるオブジェクトの種類を設定するに際して、合成されたすべてのオブジェクトの存在を反映させることができる。その結果、色変換処理部16およびスクリーン処理部17において、合成画像において本来設定すべき最適な処理条件が選択されることとなるので、かかる合成画像の高品質化を図ることが可能となる。
As described above, in the
Thereby, when setting the type of the object in each pixel in the composite image that has been subjected to the alpha blending process, it is possible to reflect the presence of all the combined objects. As a result, the color
[実施の形態2]
実施の形態1の画像処理部10では、各オブジェクトを表すタグデータとして多値(8ビット)のタグ値を生成し、これをアルファブレンド演算することで得られたタグ値に基づいて、各画素でのオブジェクトの種類を設定する構成について説明した。本実施の形態の画像処理部10では、各オブジェクト毎に2ビットずつの領域が割り当てたタグデータを生成し、これをアルファブレンド演算することで得られたタグ値が最大値となるオブジェクトを各画素でのオブジェクトの種類として設定する構成について述べる。なお、実施の形態1と同様な構成については同様な符号を用い、ここではその詳細な説明を省略する。
[Embodiment 2]
In the
本実施の形態のPDL解析部13は、レンダリング処理部14においてアルファブレンド処理による画像合成を行なう場合に、入力インターフェース11にて受け付けた画像データに含まれるオブジェクトの種類を表すタグ情報からオブジェクトの種類を認識し、図4で示したものと同様に、8ビット(1バイト)で表現されたオブジェクトの種類を表すタグデータを生成する。その場合に、タグデータ内に各オブジェクト毎に2ビットずつの領域が割り当てられたデータ構造のタグデータを生成する。
ここで、図10は、本実施の形態のPDL解析部13が生成するオブジェクトの種類を表す1バイトのタグデータのデータ構造の一例を示した図である。図10に示したように、フォント、グラフィック、イメージの各オブジェクトに対応した領域(フォント領域、グラフィック領域、イメージ領域)に各々2ビットを割り当てるとともに、0〜1ビットの領域は空き領域としている。
また、図11は、デフォルトにおける各オブジェクトのタグデータの一例を示した図である。(a)は、オブジェクトがフォントの場合のタグデータであり、(b)は、オブジェクトがグラフィックの場合のタグデータであり、(c)は、オブジェクトがイメージの場合のタグデータである。それぞれデフォルト値として、各オブジェクトを示す領域に11b(=3)が設定され、他の領域には00b(=0)が設定される。
When the
Here, FIG. 10 is a diagram illustrating an example of the data structure of 1-byte tag data representing the type of object generated by the
FIG. 11 is a diagram showing an example of tag data of each object in default. (A) is tag data when the object is a font, (b) is tag data when the object is a graphic, and (c) is tag data when the object is an image. As default values, 11b (= 3) is set in the area indicating each object, and 00b (= 0) is set in the other areas.
次に、本実施の形態のレンダリング処理部14においても、実施の形態1と同様に、上記した図5の処理フローによる各画素毎のレンダリング処理を行なう。その際に、図5のステップ106でのタグデータに関するアルファブレンド処理では、上記した各オブジェクトに対応した領域毎にアルファブレンド演算を行なう。
本実施の形態においても、実施の形態1での場合と同様に、ソースがグラフィックオブジェクトであり、デスティネーションがイメージオブジェクトであると想定する。その場合には、図5のステップ106で行なわれるタグデータに関するアルファブレンド処理は、各オブジェクトを示す領域毎に、次の(6)〜(8)式のアルファブレンド演算が行なわれる。
Next, in the
Also in the present embodiment, as in the case of the first embodiment, it is assumed that the source is a graphic object and the destination is an image object. In that case, in the alpha blending process relating to the tag data performed in step 106 in FIG. 5, the following alpha blending calculations of the following expressions (6) to (8) are performed for each region indicating each object.
すなわち、タグデータのフォント領域では、グラフィックオブジェクト(ソース)のタグ値は00b(図11(b)参照)、イメージオブジェクト(デスティネーション)のタグ値は00b(図11(c)参照)であるので、(1)式より、フォント領域でのアルファブレンド処理された後のタグ値d′fは、
d′f=0(00b)×0.25+0(00b)×(1−0.25)
=0 …(6)
タグデータのグラフィック領域では、グラフィックオブジェクト(ソース)のタグ値は11b、イメージオブジェクト(デスティネーション)のタグ値は00bであるので、(1)式より、グラフィック領域でのアルファブレンド処理された後のタグ値d′gは、
d′g=3(11b)×0.25+0(00b)×(1−0.25)
=0.75 …(7)
タグデータのイメージ領域では、グラフィックオブジェクト(ソース)のタグ値は00b、イメージオブジェクト(デスティネーション)のタグ値は11bであるので、(1)式より、イメージ領域でのアルファブレンド処理された後のタグ値d′iは、
d′i=0(00b)×0.25+3(11b)×(1−0.25)
=2.25 …(8)
That is, in the font area of the tag data, the tag value of the graphic object (source) is 00b (see FIG. 11B), and the tag value of the image object (destination) is 00b (see FIG. 11C). From the expression (1), the tag value d ′ f after the alpha blending process in the font area is
d ′ f = 0 (00b) × 0.25 + 0 (00b) × (1-0.25)
= 0 (6)
In the graphic area of the tag data, the tag value of the graphic object (source) is 11b, and the tag value of the image object (destination) is 00b. The tag value d' g is
d ′ g = 3 (11b) × 0.25 + 0 (00b) × (1-0.25)
= 0.75 (7)
In the image area of the tag data, the tag value of the graphic object (source) is 00b, and the tag value of the image object (destination) is 11b. Therefore, from the equation (1), the alpha blend process in the image area is performed. The tag value d ′ i is
d ′ i = 0 (00b) × 0.25 + 3 (11b) × (1-0.25)
= 2.25 (8)
次に、上記した(6)〜(8)式で得られたタグデータの各領域でのタグ値d′f, d′g, d′iを2ビットに変換する。ここで、図12は、アルファブレンド処理された後の各領域でのタグ値と、それに対応して設定される2ビットのタグ値との対応関係を定めた図である。タグ値d′f, d′g, d′iの2ビットへの変換は、図12を用いて行なわれる。具体的には、図12より、d′f=0は00b、d′g=0.75は01b、d′i=2.25は11bに変換される。このように変換された2ビットのタグ値は、タグデータの各領域に書き込まれる。
そして、図5に示したステップ110でのタグデータ補正では、タグデータの各領域のタグ値d′f, d′g, d′iの中の最も大きな値を持つオブジェクトが、この画素でのオブジェクトに設定される。この場合には、d′iが11bで最大値を持つので、この画素はイメージオブジェクトに設定される。
そして、上記した図9に示したオブジェクトの種類と2ビットのタグデータとの対応関係により、イメージオブジェクトを表す2ビットのタグデータ(タグ値:11b)が生成される。すなわち、ここで8ビットのタグデータは、2ビットのタグデータに変換される。
さらには、3つ以上のオブジェクトに対してアルファブレンド演算を順次行なう場合にも、同様に画素毎のオブジェクトに設定され、2ビットのタグデータが生成される。
Next, the tag values d ′ f , d ′ g , d ′ i in each area of the tag data obtained by the above equations (6) to (8) are converted into 2 bits. Here, FIG. 12 is a diagram in which a correspondence relationship between a tag value in each region after the alpha blending process and a 2-bit tag value set corresponding thereto is defined. The tag values d ′ f , d ′ g , d ′ i are converted into 2 bits using FIG. Specifically, from FIG. 12, d ′ f = 0 is converted into 00b, d ′ g = 0.75 is converted into 01b, and d ′ i = 2.25 is converted into 11b. The 2-bit tag value converted in this way is written in each area of the tag data.
Then, in the tag data correction in step 110 shown in FIG. 5, the object having the largest value among the tag values d ′ f , d ′ g , d ′ i of each area of the tag data is determined at this pixel. Set to the object. In this case, since d ′ i has a maximum value of 11b, this pixel is set in the image object.
Then, 2-bit tag data (tag value: 11b) representing the image object is generated based on the correspondence between the object type shown in FIG. 9 and 2-bit tag data. That is, here, 8-bit tag data is converted into 2-bit tag data.
Further, when alpha blending operations are sequentially performed on three or more objects, the object is similarly set for each pixel, and 2-bit tag data is generated.
このように、本実施の形態の画像処理部10では、レンダリング処理においてアルファブレンド処理による画像合成を行なう場合に、1バイトの中に各オブジェクト毎に2ビットずつの領域が割り当てたデータ構造のタグデータを生成する。そして、各領域毎にタグ値をアルファブレンド演算し、得られたタグ値が最大値となる領域のオブジェクトを各画素でのオブジェクトとして設定している。
それにより、アルファブレンド処理された合成画像において各画素のオブジェクトの種類を決定する際に、合成されたすべての画像についての、ソース側に設定されたオブジェクトとデスティネーション側に設定されたオブジェクトとの関係(例えば、重なりの順序)や、その際に設定されたアルファ値(α)とに忠実に対応させたオブジェクトの選択が可能となる。そのため、オブジェクトの選択に際して、合成されたすべてのオブジェクトの存在を反映させることができる。その結果、色変換処理部16およびスクリーン処理部17において、合成画像において本来設定すべき最適な処理条件が選択されることとなるので、かかる合成画像の高品質化を図ることが可能となる。
As described above, in the
As a result, when determining the object type of each pixel in the alpha blended composite image, the object set on the source side and the object set on the destination side for all the combined images It is possible to select an object faithfully corresponding to the relationship (for example, the order of overlap) and the alpha value (α) set at that time. Therefore, it is possible to reflect the existence of all synthesized objects when selecting an object. As a result, the color
[実施の形態3]
実施の形態2の画像処理部10では、各オブジェクト毎に2ビットずつの領域が割り当てたタグデータを生成し、これをアルファブレンド演算することで得られたタグ値が最大値となる領域のオブジェクトを各画素でのオブジェクトの種類として設定する構成について説明した。本実施の形態の画像処理部10では、各オブジェクト毎に1バイト(8ビット)ずつの領域が割り当てられたタグデータを生成し、これをアルファブレンド演算することで得られたタグ値が最大値となる領域のオブジェクトを各画素でのオブジェクトの種類として設定する構成について述べる。なお、実施の形態1と同様な構成については同様な符号を用い、ここではその詳細な説明を省略する。
[Embodiment 3]
In the
本実施の形態のPDL解析部13は、レンダリング処理部14においてアルファブレンド処理による画像合成を行なう場合に、入力インターフェース11にて受け付けた画像データに含まれるオブジェクトの種類を表すタグ情報からオブジェクトの種類を認識し、各オブジェクト毎に8ビット(1バイト)で表現されたオブジェクトの種類を表すタグデータを生成する。すなわち、本実施の形態のPDL解析部13では、各オブジェクト毎に8ビットずつの領域が割り当てたデータ構造のタグデータを生成する。
ここで、図13は、本実施の形態のPDL解析部13が生成するオブジェクトの種類を各8ビットで表現したタグデータのデータ構造の一例を示した図である。図13に示したように、フォント、グラフィック、イメージの各オブジェクトに対応した領域(フォント領域、グラフィック領域、イメージ領域)に各々8ビット(1バイト)を割り当てるとともに、画素データとタグデータとにおける残りの1バイトの領域は空き領域としている。
また、図14は、デフォルトにおける各オブジェクトのタグデータの一例を示した図である。(a)は、オブジェクトがフォントの場合のタグデータであり、(b)は、オブジェクトがグラフィックの場合のタグデータであり、(c)は、オブジェクトがイメージの場合のタグデータである。それぞれデフォルト値として、各オブジェクトを示す領域には、例えば0xFF(=255)のタグ値が設定され、他の領域には0x00(=0)が設定される。
When the
Here, FIG. 13 is a diagram illustrating an example of a data structure of tag data in which the types of objects generated by the
FIG. 14 is a diagram showing an example of tag data of each object in default. (A) is tag data when the object is a font, (b) is tag data when the object is a graphic, and (c) is tag data when the object is an image. As default values, for example, a tag value of 0xFF (= 255) is set in the area indicating each object, and 0x00 (= 0) is set in the other areas.
次に、本実施の形態のレンダリング処理部14においても、実施の形態1と同様に、上記した図5の処理フローによる各画素毎のレンダリング処理を行なう。その際に、図5のステップ106でのタグデータに関するアルファブレンド処理では、上記した各オブジェクトに対応した領域毎にアルファブレンド演算を行なう。
本実施の形態においても、実施の形態1での場合と同様に、ソースがグラフィックオブジェクトであり、デスティネーションがイメージオブジェクトであると想定する。その場合には、図5のステップ106で行なわれるタグデータに関するアルファブレンド処理は、各オブジェクトを示す領域毎に、次の(9)〜(11)式のアルファブレンド演算が行なわれる。
Next, in the
Also in the present embodiment, as in the case of the first embodiment, it is assumed that the source is a graphic object and the destination is an image object. In this case, in the alpha blending process related to the tag data performed in step 106 in FIG. 5, the following alpha blending operations (9) to (11) are performed for each region indicating each object.
すなわち、タグデータのフォント領域では、グラフィックオブジェクト(ソース)のタグ値は0x00(=0)(図14(b)参照)、イメージオブジェクト(デスティネーション)のタグ値は0x00(=0)(図14(c)参照)であるので、(1)式より、フォント領域でのアルファブレンド処理された後のタグ値d″fは、
d″f=0(0x00)×0.25+0(0x00)×(1−0.25)
=0 …(9)
タグデータのグラフィック領域では、グラフィックオブジェクト(ソース)のタグ値は0xFF(=255)、イメージオブジェクト(デスティネーション)のタグ値は0x00(=0)であるので、(1)式より、グラフィック領域でのアルファブレンド処理された後のタグ値d″gは、
d″g=255(0xFF)×0.25+0(0x00)×(1−0.25)
=64(0x40) …(10)
タグデータのイメージ領域では、グラフィックオブジェクト(ソース)のタグ値は0x00(=0)、イメージオブジェクト(デスティネーション)のタグ値は0xFF(=255)であるので、(1)式より、イメージ領域でのアルファブレンド処理された後のタグ値d″iは、
d″i=0(0x00)×0.25+255(0xFF)×(1−0.25)
=191(0xBF) …(11)
That is, in the font area of the tag data, the tag value of the graphic object (source) is 0x00 (= 0) (see FIG. 14B), and the tag value of the image object (destination) is 0x00 (= 0) (FIG. 14). (C) (see (1)), the tag value d ″ f after the alpha blending process in the font area is
d ″ f = 0 (0x00) × 0.25 + 0 (0x00) × (1-0.25)
= 0 (9)
In the tag data graphic area, the tag value of the graphic object (source) is 0xFF (= 255), and the tag value of the image object (destination) is 0x00 (= 0). The tag value d ″ g after the alpha blending process of
d ″ g = 255 (0xFF) × 0.25 + 0 (0x00) × (1-0.25)
= 64 (0x40) (10)
In the tag data image area, the tag value of the graphic object (source) is 0x00 (= 0) and the tag value of the image object (destination) is 0xFF (= 255). The tag value d ″ i after the alpha blending process of
d ″ i = 0 (0x00) × 0.25 + 255 (0xFF) × (1-0.25)
= 191 (0xBF) (11)
次に、図5に示したステップ110でのタグデータ補正では、上記した(9)〜(11)式で得られたタグデータの各領域でのタグ値d″f, d″g, d″iの中の最も大きな値を持つオブジェクトが、この画素でのオブジェクトに決定される。その際に、上記した図8に示したテーブルを用いてタグデータのタグ値を判定し、判定結果に基づいてオブジェクトの種類を決定する。この場合には、d″iが191(0xBF)で最大値を持つので、図8よりこの画素はイメージオブジェクトとして設定される。
そして、上記した図9に示したオブジェクトの種類と2ビットのタグデータとの対応関係により、イメージオブジェクトを表す2ビットのタグデータ(タグ値:11b)が生成される。すなわち、ここで4バイト(1バイトは空き領域)のタグデータは、2ビットのタグデータに変換される。
さらには、3つ以上のオブジェクトに対してアルファブレンド演算を順次に行なう場合にも、同様に画素毎のオブジェクトに設定され、2ビットのタグデータが生成される。
Next, in the tag data correction in step 110 shown in FIG. 5, the tag values d ″ f , d ″ g , d ″ in each area of the tag data obtained by the above equations (9) to (11). The object having the largest value in i is determined as the object at this pixel, and the tag value of the tag data is determined using the table shown in FIG. In this case, since d ″ i has a maximum value of 191 (0xBF), this pixel is set as an image object in FIG.
Then, 2-bit tag data (tag value: 11b) representing the image object is generated based on the correspondence between the object type shown in FIG. 9 and 2-bit tag data. That is, here, tag data of 4 bytes (1 byte is an empty area) is converted into 2-bit tag data.
Further, when alpha blending operations are sequentially performed on three or more objects, the object is similarly set for each pixel, and 2-bit tag data is generated.
このように、本実施の形態の画像処理部10では、レンダリング処理においてアルファブレンド処理による画像合成を行なう場合に、各オブジェクト毎に1バイト(8ビット)ずつの領域が割り当てられたタグデータを生成する。そして、各領域毎にタグ値をアルファブレンド演算し、得られたタグ値が最大値となる領域のオブジェクトを各画素でのオブジェクトとして設定している。
それにより、アルファブレンド処理された合成画像において各画素のオブジェクトの種類を決定する際に、合成されたすべての画像についての、ソース側に設定されたオブジェクトとデスティネーション側に設定されたオブジェクトとの関係(例えば、重なりの順序)や、その際に設定されたアルファ値(α)とに忠実に対応させたオブジェクトの選択が可能となる。そのため、オブジェクトの選択に際し、合成されたすべてのオブジェクトの存在を反映させることができる。その結果、色変換処理部16およびスクリーン処理部17において、合成画像において本来設定すべき最適な処理条件が選択されることとなるので、かかる合成画像の高品質化を図ることが可能となる。
As described above, the
As a result, when determining the object type of each pixel in the alpha blended composite image, the object set on the source side and the object set on the destination side for all the combined images It is possible to select an object faithfully corresponding to the relationship (for example, the order of overlap) and the alpha value (α) set at that time. Therefore, it is possible to reflect the existence of all synthesized objects when selecting an object. As a result, the color
1…画像形成装置、3…パーソナルコンピュータ(PC)、4…画像読取装置、10…画像処理部(画像処理装置)、11…入力インターフェース、12…入力バッファ、13…PDL解析部、14…レンダリング処理部、15…中間バッファ、16…色変換処理部、17…スクリーン処理部、20…2次記憶部、30…制御部、40…画像形成部、101…CPU、102…RAM、103…ROM、104…不揮発性メモリ、105…インターフェース部
DESCRIPTION OF
Claims (11)
前記画像データ受付手段により受け付けられた前記画像データの各々についての前記オブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成手段と、
前記オブジェクトデータ生成手段により生成された前記オブジェクトデータに対してアルファブレンド演算を行なうアルファブレンド処理手段と、
前記アルファブレンド処理手段での演算結果に基づいて、前記複数のオブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定手段と
を備えたことを特徴とする画像処理装置。 Image data receiving means for receiving image data for each of a plurality of objects to be combined;
Object data generating means for generating object data representing the type of the object for each of the image data received by the image data receiving means;
Alpha blend processing means for performing an alpha blend operation on the object data generated by the object data generating means;
An image processing apparatus comprising: an object setting unit configured to set an object type in a region where the plurality of objects overlap based on a calculation result of the alpha blend processing unit.
前記画像データ受付手段により受け付けられた前記画像データの各々についての前記オブジェクトの種類を認識するオブジェクト認識手段と、
前記オブジェクト認識手段にて認識された前記オブジェクトの種類のすべてを加味して、前記オブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定手段と、
前記オブジェクト認識手段にて認識された前記オブジェクトの種類に基づいて、前記画像データ受付手段により受け付けられた前記画像データの各々についての当該オブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成手段とを備え、
前記オブジェクト設定手段は、前記オブジェクトデータ生成手段により生成された前記オブジェクトデータに対してアルファブレンド演算を行ない、当該アルファブレンド演算の結果に基づいて、前記複数のオブジェクトが重なる領域のオブジェクトの種類を設定することを特徴とする画像処理装置。 Image data receiving means for receiving image data for each of a plurality of objects to be combined;
Object recognition means for recognizing the type of the object for each of the image data received by the image data reception means;
In consideration of all the types of the objects recognized by the object recognition means, an object setting means for setting the object types in the area where the objects overlap ;
Object data generation means for generating object data representing the object type for each of the image data received by the image data reception means based on the type of the object recognized by the object recognition means; Prepared,
The object setting means performs an alpha blend operation on the object data generated by the object data generation means, and sets the type of object in the region where the plurality of objects overlap based on the result of the alpha blend operation An image processing apparatus.
前記画像データ受付手段により受け付けられた前記複数の画像データに対する画像合成処理を行なう画像処理手段と、
前記画像処理手段により画像合成処理された画像データに基づいて、記録媒体上に前記複数のオブジェクトが合成された画像を形成する画像形成手段とを有し、
前記画像処理手段は、
前記画像データ受付手段により受け付けられた前記画像データの各々についての前記オブジェクトの種類を表すオブジェクトデータを生成するオブジェクトデータ生成部と、
前記オブジェクトデータ生成部により生成された前記オブジェクトデータに対してアルファブレンド演算を行なうアルファブレンド処理部と、
前記アルファブレンド処理部での演算結果に基づいて、前記複数のオブジェクトが重なる領域のオブジェクトの種類を設定するオブジェクト設定部と
を備えたことを特徴とする画像形成装置。 Image data receiving means for receiving image data for each of a plurality of objects to be combined;
Image processing means for performing image composition processing on the plurality of image data received by the image data receiving means;
Image forming means for forming an image in which the plurality of objects are combined on a recording medium based on the image data subjected to image combining processing by the image processing means;
The image processing means includes
An object data generating unit that generates object data representing the type of the object for each of the image data received by the image data receiving means;
An alpha blending processing unit that performs an alpha blending operation on the object data generated by the object data generating unit;
An image forming apparatus comprising: an object setting unit configured to set an object type in an area where the plurality of objects overlap based on a calculation result in the alpha blend processing unit.
複数のオブジェクトの各々についての画像データを取得する機能と、
取得した前記画像データの各々についての前記オブジェクトの種類を表すオブジェクトデータを生成する機能と、
生成された前記オブジェクトデータに対してアルファブレンド演算を行なう機能と、
アルファブレンド演算による演算結果に基づいて、前記複数のオブジェクトが重なる領域のオブジェクトの種類を設定する機能と
をコンピュータに実現させるプログラム。 A program used when causing a computer to execute image processing,
A function of acquiring image data for each of a plurality of objects;
A function of generating object data representing the type of the object for each of the acquired image data;
A function of performing an alpha blend operation on the generated object data;
A program that causes a computer to realize a function of setting an object type in a region where the plurality of objects overlap based on a calculation result of an alpha blend calculation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185978A JP4692420B2 (en) | 2006-07-05 | 2006-07-05 | Image processing apparatus, image forming apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006185978A JP4692420B2 (en) | 2006-07-05 | 2006-07-05 | Image processing apparatus, image forming apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008017153A JP2008017153A (en) | 2008-01-24 |
JP4692420B2 true JP4692420B2 (en) | 2011-06-01 |
Family
ID=39073770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006185978A Expired - Fee Related JP4692420B2 (en) | 2006-07-05 | 2006-07-05 | Image processing apparatus, image forming apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4692420B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8384739B2 (en) * | 2008-09-30 | 2013-02-26 | Konica Minolta Laboratory U.S.A., Inc. | Systems and methods for optimization of pixel-processing algorithms |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4181716B2 (en) * | 1999-12-28 | 2008-11-19 | キヤノン株式会社 | Image processing apparatus, image processing method, and storage medium |
JP4261739B2 (en) * | 2000-06-15 | 2009-04-30 | キヤノン株式会社 | Image processing apparatus, image processing method, storage medium, and image processing system |
JP3902907B2 (en) * | 2000-06-29 | 2007-04-11 | キヤノン株式会社 | Image processing apparatus and method, and image forming apparatus |
JP4402580B2 (en) * | 2004-12-17 | 2010-01-20 | キヤノン株式会社 | Image processing system |
-
2006
- 2006-07-05 JP JP2006185978A patent/JP4692420B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008017153A (en) | 2008-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7692813B2 (en) | Image processing apparatus and method, and storage medium | |
US6751346B2 (en) | Image processing method and apparatus, and recording medium | |
JP5482073B2 (en) | Image processing apparatus, image forming system, and program | |
US7782487B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer data signal, and recording medium | |
EP1359537B1 (en) | Preparation of print bitmap from colour and monochrome data | |
US7636176B2 (en) | Image forming apparatus, method and storage medium | |
JP5031668B2 (en) | Printing apparatus, control method therefor, and program | |
JP2009117952A (en) | Image processing apparatus, image forming method, and program | |
JP6299436B2 (en) | Image processing apparatus, image processing method, program, and recorded member | |
JP5212886B2 (en) | Image forming system and image forming program | |
JP2008028917A (en) | Drawing device | |
JP2005295333A (en) | Image forming apparatus, image forming method, and program | |
US7460158B2 (en) | Recording material consumption control for an image forming apparatus | |
JP4687593B2 (en) | Image processing apparatus and program | |
KR101716278B1 (en) | Image forming apparatus, printing control terminal apparatus and image forming method there of | |
JP4323742B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4692420B2 (en) | Image processing apparatus, image forming apparatus, and program | |
JP2008118447A (en) | Image forming apparatus, image forming method, and program thereof | |
JP4115294B2 (en) | Image processing apparatus and method | |
JP2009027224A (en) | Printing system, image processing apparatus, color correction apparatus, image processing method, color correction method, image processing program, and color correction program | |
JP2009177307A (en) | Image forming apparatus and method for generating thumbnail image | |
JP2008017152A (en) | Image processing apparatus, image forming apparatus, and program | |
JP2011064949A (en) | Image forming apparatus and image forming method | |
JPH10285412A (en) | Image processing apparatus and method | |
JP2004187146A (en) | Color conversion method for image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110207 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140304 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |