[go: up one dir, main page]

JP2012177779A - Image forming apparatus and method - Google Patents

Image forming apparatus and method Download PDF

Info

Publication number
JP2012177779A
JP2012177779A JP2011040214A JP2011040214A JP2012177779A JP 2012177779 A JP2012177779 A JP 2012177779A JP 2011040214 A JP2011040214 A JP 2011040214A JP 2011040214 A JP2011040214 A JP 2011040214A JP 2012177779 A JP2012177779 A JP 2012177779A
Authority
JP
Japan
Prior art keywords
exposure
color
correction
pixel
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011040214A
Other languages
Japanese (ja)
Inventor
Yoichi Takigawa
陽一 滝川
Hideki Kubo
英希 久保
Takashi Ochiai
孝 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011040214A priority Critical patent/JP2012177779A/en
Publication of JP2012177779A publication Critical patent/JP2012177779A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Laser Beam Printer (AREA)
  • Color Electrophotography (AREA)

Abstract

【課題】補正誤差による当該色むらの発生を抑制した精度の良いバンディング補正を行うこと。
【解決手段】複数の画像形成部100Y、100M、100C、100K、二次転写装置111、中間転写ベルトクリーニング装置113である。さらに、定着装置112が、二次転写装置111の下流側に配置されている。また、画像形成部100Y、100M、100C、100Kそれぞれについて、対応する各色バンディング補正部130Y、130M、130C、130Kが設置されている。さらに、補正誤差格納部140と、図示しないHT画像格納部が設置されている。
【選択図】図1
An object of the present invention is to perform banding correction with high accuracy while suppressing the occurrence of color unevenness due to a correction error.
A plurality of image forming units 100Y, 100M, 100C, and 100K, a secondary transfer device 111, and an intermediate transfer belt cleaning device 113. Further, a fixing device 112 is disposed on the downstream side of the secondary transfer device 111. For each of the image forming units 100Y, 100M, 100C, and 100K, corresponding color banding correction units 130Y, 130M, 130C, and 130K are installed. Further, a correction error storage unit 140 and an HT image storage unit (not shown) are installed.
[Selection] Figure 1

Description

本発明は、電子写真方式あるいは静電記録方式を用いた複写機、プリンタ、ファクシミリ等の画像形成装置に関するものである。   The present invention relates to an image forming apparatus such as a copying machine, a printer, and a facsimile using an electrophotographic system or an electrostatic recording system.

従来、電子写真方式プリンタ等の画像形成装置では、一般に、感光体ドラムや感光体ベルトなどの像担持体を、レーザ光などによって露光することで画像信号に応じた静電潜像形成し、トナー等により現像した後に用紙等に転写することで画像形成している。また、現像色が異なる複数のトナー像を形成し、重ね合わせてフルカラー画像を形成するカラー画像形成装置が実用化されている。その際、レーザ光などを順次一次元方向に、例えば左から右へ主走査するとともに像担持体を回転させて主走査方向と直交する方向、例えば上から下へ副走査して静電潜像を形成することができる。従って、レーザ光を走査すると、像担持体上には主走査方向の直線(以下、走査線という)の静電潜像が副走査方向に一定間隔(以下、基準走査線間隔という)で多数平行に形成される。   2. Description of the Related Art Conventionally, in an image forming apparatus such as an electrophotographic printer, generally, an electrostatic latent image corresponding to an image signal is formed by exposing an image carrier such as a photosensitive drum or a photosensitive belt with a laser beam or the like. An image is formed by developing on a sheet or the like after development. In addition, a color image forming apparatus that forms a plurality of toner images with different development colors and overlays them to form a full color image has been put into practical use. At that time, an electrostatic latent image is sequentially scanned in a one-dimensional direction, for example, from left to right, and the image carrier is rotated to perform a sub-scan in the direction orthogonal to the main scanning direction, for example, from top to bottom. Can be formed. Therefore, when the laser beam is scanned, a large number of electrostatic latent images in a straight line in the main scanning direction (hereinafter referred to as scanning lines) are parallel on the image carrier at constant intervals (hereinafter referred to as reference scanning line intervals) in the sub-scanning direction. Formed.

このような画像形成装置では、走査線を用いることから各種の原因によって形成画像に画像濃度の濃淡による横縞(以下、バンディングという)が発生し、これによって画像の品質を著しく損なう問題があった。例えば、上述の像担持体は回転速度むらが発生することがあり、像担持体に書き込まれる走査線の間隔に不均一が発生し、それが形成画像のバンディングとして現われる。より詳細には、像坦持体の回転速度が速いときは、走査線の間隔が広くなるため、単位面積当たりの露光量が少なくなり出力画像が薄くなる。また、回転速度が遅いときは、逆に単位面積当たりの露光量が多くなるため出力画像濃くなる。像担持体は回転速度むらが発生すると、これらが不規則に発生してバンディングとなる。   In such an image forming apparatus, since scanning lines are used, horizontal stripes (hereinafter referred to as banding) due to the density of the image density are generated in the formed image due to various causes, thereby causing a problem that the quality of the image is remarkably impaired. For example, the above-mentioned image carrier may have uneven rotation speed, and non-uniformity occurs in the interval between scanning lines written on the image carrier, which appears as banding of the formed image. More specifically, when the rotation speed of the image carrier is high, the interval between the scanning lines is widened, so that the exposure amount per unit area is reduced and the output image is thinned. On the other hand, when the rotation speed is low, the exposure amount per unit area increases, so that the output image becomes dark. When the rotational speed of the image carrier is uneven, these irregularly occur and become banding.

上記問題を解決する手段として、像担持体の回転速度の速度誤差を検出し、速度誤差により発生するバンディングを打ち消すように露光量の調整を行う方法が提案されている(特許文献1)。   As means for solving the above problem, there has been proposed a method of detecting the speed error of the rotation speed of the image carrier and adjusting the exposure amount so as to cancel the banding caused by the speed error (Patent Document 1).

特開平2−131956号公報Japanese Patent Laid-Open No. 2-131956

しかしながら、特許文献1の調整法方は各色ごとに独立にバンディング補正を行うため、各々のバンディング補正で補正誤差が生じ、カラーバランスが崩れることにより色むらが発生するという課題がある。例として、ある色のバンディング補正を実行する際に誤差を生じて露光量過多となった場合、最終画像の色相は所望のものとは異なり、その色の色味が強くなる。また、露光量過少となった色はその色味が弱くなり、他の色の色味が強くなる。   However, since the adjustment method of Patent Document 1 performs banding correction independently for each color, there is a problem that a correction error occurs in each banding correction and color unevenness occurs due to the color balance being lost. As an example, when performing banding correction of a certain color, if an error occurs and the exposure amount is excessive, the hue of the final image is different from the desired one, and the color of that color becomes strong. In addition, the color with an underexposed amount becomes weak in color and the color of other colors becomes strong.

そこで本発明では、このような補正誤差による色むらの発生を抑制した精度の良いバンディング補正を行うことを目的とする。   Accordingly, an object of the present invention is to perform accurate banding correction that suppresses the occurrence of color unevenness due to such correction errors.

このような目的を達成するため、本発明の画像形成装置は、入力画像データに応じた画素ごとの露光量で感光体表面を走査することにより露光する露光手段により、感光体表面に複数の潜像を重ねて形成し画像を形成する画像形成装置であって、露光手段に設けられ、露光のため走査された走査位置を算出する走査位置算出手段と、走査位置から露光のため走査する際の画素間隔の予測値を算出する画素間隔予測手段と、入力画像データから、印字する画素ごとの周辺の画素パターンを取得する画素パターン取得手段と、画素間隔の予測値と画素パターンとから対象となる画素に対する入力画像データに応じた画素ごとの露光量を補正する露光量補正手段と、走査位置算出手段により算出された走査位置により算出された露光量と、露光量補正手段により補正された露光量との補正誤差を算出する補正誤差算出手段とを備えたことを特徴とする。   In order to achieve such an object, the image forming apparatus of the present invention has a plurality of latent images on the surface of the photoconductor by an exposure unit that exposes the photoconductor surface by scanning the photoconductor surface with an exposure amount for each pixel corresponding to input image data. An image forming apparatus that forms an image by overlapping images and is provided in an exposure unit, and a scanning position calculation unit that calculates a scanning position scanned for exposure, and a scanning position for scanning from the scanning position for exposure Targeted from the pixel interval prediction means for calculating the predicted value of the pixel interval, the pixel pattern acquisition means for acquiring the peripheral pixel pattern for each pixel to be printed from the input image data, and the predicted value and pixel pattern of the pixel interval. An exposure amount correction unit that corrects an exposure amount for each pixel according to input image data for the pixel, an exposure amount calculated by the scanning position calculated by the scanning position calculation unit, and an exposure amount compensation Characterized in that a correction error calculation means for calculating a correction error of the corrected exposure amount by means.

本発明は精度良くバンディングを補正する効果を奏する。   The present invention has an effect of correcting banding with high accuracy.

本発明の実施例1に係る画像形成装置の構成図である。1 is a configuration diagram of an image forming apparatus according to Embodiment 1 of the present invention. 本実施例の画像形成装置の走査位置を表す模式図である。It is a schematic diagram showing the scanning position of the image forming apparatus of the present embodiment. 本実施例の画像形成装置の走査位置の変動を表す模式図である。It is a schematic diagram showing the fluctuation | variation of the scanning position of the image forming apparatus of a present Example. 画像形成装置が行うバンディング補正処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of a banding correction process performed by the image forming apparatus. 本実施例の画像形成装置の処理システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a processing system of an image forming apparatus according to an exemplary embodiment. 光学位置センサの一例を示す模式図である。It is a schematic diagram which shows an example of an optical position sensor. 画像形成装置が保持する走査位置テーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a scanning position table held by the image forming apparatus. 本実施例の走査位置と走査線間隔の予測値との関係を表す模式図である。It is a schematic diagram showing the relationship between the scanning position of a present Example, and the predicted value of a scanning line space | interval. 本実施例の補正率算出処理に用いる濃度分布計算の概念図である。It is a conceptual diagram of density distribution calculation used for the correction factor calculation process of a present Example. 画像形成装置が行う各処理の動作順序の一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of an operation order of each process performed by the image forming apparatus. 本実施例の走査位置と走査線間隔との関係を表す模式図である。It is a schematic diagram showing the relationship between the scanning position and scanning line space | interval of a present Example. 画像形成装置が保持するY色バンディング補正誤差テーブルの一例を示す図である。6 is a diagram illustrating an example of a Y-color banding correction error table held by the image forming apparatus. FIG. 画像形成装置が保持するUCRテーブルの一例を示す図である。3 is a diagram illustrating an example of a UCR table held by an image forming apparatus. FIG. バンディング画像、及び本実施例により適正に補正された画像の模式図である。It is a schematic diagram of a banding image and an image appropriately corrected according to the present embodiment. 本実施例のポリゴンミラーの精度等により発生するジッタずれの模式図である。It is a schematic diagram of a jitter shift caused by the accuracy of the polygon mirror of the present embodiment.

以下、本発明を実施するための最良の形態について図面を用いて説明する。ただし、この実施の形態に記載されている構成要素の相対配置、数式、数値等は、特に特定的な記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
[実施例1]
以下、添付図面を参照して、本発明を好適な実施例に従って詳細に説明する。図1は、本実施例に示す画像形成装置の構成図である。以下に、図1を用いて画像形成装置の構成を説明する。
The best mode for carrying out the present invention will be described below with reference to the drawings. However, the relative arrangement, numerical formulas, numerical values, and the like of the components described in this embodiment are not intended to limit the scope of the present invention only to those unless otherwise specified.
[Example 1]
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings. FIG. 1 is a configuration diagram of the image forming apparatus shown in the present embodiment. The configuration of the image forming apparatus will be described below with reference to FIG.

搬送体の一例である中間転写ベルト110に沿って、以下に説明する各モジュールが、中間転写ベルト110回転方向R1の上流から、以下に記載する順で配置されている。各モジュールとは、複数の画像形成部100Y、100M、100C、100K、二次転写装置111、中間転写ベルトクリーニング装置113である。さらに、定着装置112が、二次転写装置111の下流側に配置されている。ここで、色ごとに存在するモジュールは、色を表す文字を付して識別する。すなわち、画像形成部100Y、100M、100Cおよび100Kは、それぞれY色用、M色用、C色用およびK色用の画像形成部を示す。   Along the intermediate transfer belt 110, which is an example of a conveyance body, modules described below are arranged in the order described below from the upstream in the rotation direction R1 of the intermediate transfer belt 110. Each module is a plurality of image forming units 100Y, 100M, 100C, 100K, a secondary transfer device 111, and an intermediate transfer belt cleaning device 113. Further, a fixing device 112 is disposed on the downstream side of the secondary transfer device 111. Here, a module that exists for each color is identified by attaching a character representing the color. That is, the image forming units 100Y, 100M, 100C, and 100K indicate image forming units for Y color, M color, C color, and K color, respectively.

また、画像形成部100Y、100M、100C、100Kそれぞれについて、対応する各色バンディング補正部130Y、130M、130C、130Kが設置されている。さらに、補正誤差格納部140と、図示しないHT画像格納部が設置されている。   For each of the image forming units 100Y, 100M, 100C, and 100K, corresponding color banding correction units 130Y, 130M, 130C, and 130K are installed. Further, a correction error storage unit 140 and an HT image storage unit (not shown) are installed.

以下に、画像形成装置の動作を説明する。画像形成部100Y、100M、100C、100Kは、各色トナー像を形成し、中間転写ベルト110に重ね合わせて一次転写する。各色トナー像形成は、Y色、M色、C色、K色の順で一定時間ずつタイミングをずらせて、同時進行的に実施される。画像形成部100Y、100M、100C、100Kは、以下に説明する現像処理で用いるトナーの色がそれぞれY色、M色、C色、K色と異なる以外は同様に構成される。そのため、画像形成部100M、100C、100Kの構成、及び処理の詳細は、以下の画像形成部100Yの説明を適宜読み替えて理解することができる。   The operation of the image forming apparatus will be described below. The image forming units 100Y, 100M, 100C, and 100K form toner images of the respective colors and primarily transfer them on the intermediate transfer belt 110. Each color toner image is formed at the same time by shifting the timing by a predetermined time in the order of Y color, M color, C color, and K color. The image forming units 100Y, 100M, 100C, and 100K are configured in the same manner except that toner colors used in the development processing described below are different from Y color, M color, C color, and K color, respectively. Therefore, details of the configuration and processing of the image forming units 100M, 100C, and 100K can be understood by appropriately replacing the description of the image forming unit 100Y below.

画像形成部100Yは、感光体ドラム101Yの周囲に、帯電装置102Y、露光装置103Y、現像装置104Y、転写装置105Y、クリーニング装置106Y、エンコーダ121、光学位置センサ122を配置する。感光体ドラム101Yは、その外周面に帯電極性が負極性の有機光導電体層を有し、矢印R3方向に回転する。   The image forming unit 100Y includes a charging device 102Y, an exposure device 103Y, a developing device 104Y, a transfer device 105Y, a cleaning device 106Y, an encoder 121, and an optical position sensor 122 around the photosensitive drum 101Y. The photoreceptor drum 101Y has an organic photoconductor layer with a negative polarity on the outer peripheral surface thereof, and rotates in the direction of the arrow R3.

(帯電)
帯電装置102Yは、負極性の電圧を印加され、感光体ドラム101Yの表面に帯電粒子を照射することにより、感光ドラム101Yは表面を一様な負極性の電位に帯電する。
(Charging)
The charging device 102Y is applied with a negative polarity voltage and irradiates the surface of the photosensitive drum 101Y with charged particles, whereby the photosensitive drum 101Y charges the surface to a uniform negative polarity potential.

(露光)
露光装置103Yは、入力画像データのY色の分解色画像を基にレーザを駆動し、回転ミラーで感光体ドラム101Y上を走査する。これにより、帯電した感光体ドラム101Yの表面に静電像を書き込む。
(exposure)
The exposure device 103Y drives a laser based on the Y color separation color image of the input image data, and scans the photosensitive drum 101Y with a rotating mirror. Thereby, an electrostatic image is written on the surface of the charged photosensitive drum 101Y.

(現像)
現像装置104Yは、負極性に帯電させたトナーを感光体ドラム101Yの静電像へ付着させて、静電像を反転現像する。
(developing)
The developing device 104Y attaches the negatively charged toner to the electrostatic image on the photosensitive drum 101Y, and reversely develops the electrostatic image.

(転写)
転写装置105Yは、正極性の電化を印加され、負極性に帯電して感光体ドラム101Yに担持されたトナー像を中間転写ベルト110へ一次転写させる。
(Transcription)
The transfer device 105 </ b> Y is applied with a positive charge, is negatively charged, and primarily transfers the toner image carried on the photosensitive drum 101 </ b> Y onto the intermediate transfer belt 110.

(クリーニング)
クリーニング装置106Yは、転写装置105Yを通過して感光体ドラム101Yの表面に残留した残トナー像を除去する。
(cleaning)
The cleaning device 106Y removes the residual toner image that has passed through the transfer device 105Y and remained on the surface of the photosensitive drum 101Y.

(二次転写)
二次転写装置111は、中間転写ベルト110に担持された4色のトナー像を、矢印R2方向に移動する記録材Pへ一括して二次転写する。
(Secondary transfer)
The secondary transfer device 111 collectively transfers the four color toner images carried on the intermediate transfer belt 110 onto the recording material P moving in the direction of the arrow R2.

(定着)
定着装置112は、4色のトナー像を一括して二次転写された記録材Pに加圧加熱などの処理を施し、表面にフルカラー画像を定着させる。
(Fixing)
The fixing device 112 performs a process such as pressure heating on the recording material P onto which the four color toner images have been secondarily transferred at once, thereby fixing the full color image on the surface.

(ベルトクリーニング)
中間転写ベルトクリーニング装置113は、二次転写装置111を通過して中間転写ベルト110に残留した残トナーを除去する。
(Belt cleaning)
The intermediate transfer belt cleaning device 113 removes residual toner remaining on the intermediate transfer belt 110 after passing through the secondary transfer device 111.

(バンディング補正)
エンコーダ121Yは、感光体ドラム101Yの回転角θを算出し、Y色バンディング補正部130Yへ出力する。光学位置センサ122Yは、露光装置103Yによるレーザ照射位置を算出し、Y色バンディング補正部130Yへ出力する。各色バンディング補正部130Y、130M、130C、130Kは、それぞれ対応する画像形成部においてバンディング補正処理を行う。また、補正誤差格納部140との間で各色バンディング補正誤差の入出力を行う。補正誤差格納部140は、各色バンディング補正部130Y、130M、130C、130Kとの間での各色バンディング補正誤差の入出力を行い、得られた各色バンディング補正誤差の保持を行う。
(Banding correction)
The encoder 121Y calculates the rotation angle θ of the photosensitive drum 101Y and outputs it to the Y-color banding correction unit 130Y. The optical position sensor 122Y calculates the laser irradiation position by the exposure device 103Y and outputs it to the Y-color banding correction unit 130Y. Each of the color banding correction units 130Y, 130M, 130C, and 130K performs banding correction processing in the corresponding image forming unit. In addition, each banding correction error is input to and output from the correction error storage unit 140. The correction error storage unit 140 inputs / outputs each color banding correction error to / from each color banding correction unit 130Y, 130M, 130C, 130K, and holds the obtained color banding correction error.

各色画像形成部は、感光体ドラムの回転速度が一定となるよう制御し、かつレーザ光による各走査線の書き出しタイミングの時間間隔が一定となるよう制御することで、走査線を等間隔に走査する。その詳細を、図2を用いて以下に説明する。   Each color image forming unit scans the scanning lines at equal intervals by controlling the rotation speed of the photosensitive drum to be constant and controlling the time interval of the writing timing of each scanning line by the laser light to be constant. To do. Details thereof will be described below with reference to FIG.

感光体ドラムは、半径がrであり、一定の角速度ωで回転するよう制御されている。また、各走査線の書き出しタイミングの時間間隔はtで一定となるよう制御されている。
まず、1番目走査線を走査する。このときの書き出しタイミングにおいて、時刻を0、感光体表面での走査位置を0とする。次に、2番目走査線を走査する。このときの書き出しタイミングにおいて、時刻はtであり、ドラムの回転角度はtωであるので、角度と円弧長の関係から感光体表面での走査位置はrtωとなる。さらに、3番目走査線を走査する。このときの書き出しタイミングにおいて、時刻は2tであり、ドラムは角度2tωだけ回転しているので、感光体表面での走査位置は2rtωとなる。
The photosensitive drum has a radius r and is controlled to rotate at a constant angular velocity ω. The time interval of write timing of each scan line is controlled to be constant at t 0.
First, the first scanning line is scanned. At this writing start timing, the time is set to 0, and the scanning position on the surface of the photoreceptor is set to 0. Next, the second scanning line is scanned. Since the time is t 0 and the rotation angle of the drum is t 0 ω at the writing timing at this time, the scanning position on the photosensitive member surface is rt 0 ω from the relationship between the angle and the arc length. Further, the third scanning line is scanned. At this writing start time, the time is 2t 0 and the drum is rotated by an angle 2t 0 ω, so the scanning position on the surface of the photoconductor is 2rt 0 ω.

以下同様に、i番目走査線を走査する際の書き出しタイミングにおいて、時刻t(i)、及び、感光体表面での走査位置D(i)は、それぞれ以下の式により算出できる。 Similarly, at the writing start timing when scanning the i-th scanning line, the time t (i) and the scanning position D 0 (i) on the surface of the photosensitive member can be calculated by the following equations, respectively.

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

以上のように、走査線間隔をrtωで一定となるように制御する。ところが、このような画像形成装置では、各種の原因によって走査線間隔に誤差が生じる。その主な原因として、ドラムの回転速度の変動とポリゴンミラーの面倒れによるレーザ照射の位置誤差が挙げられる。図3(a)に示すように、ドラムの回転速度が変化すると、感光体表面での実際の走査位置D(i)は、上で求めたD(i)とは異なるものとなる。また、ポリゴンミラーの面倒れ(複数ある反射面の角度ばらつき)により、レーザ光の反射角が変わると、図3(b)に示すようにレーザ照射の位置に誤差が発生する。 As described above, the scanning line interval is controlled to be constant at rt 0 ω. However, in such an image forming apparatus, an error occurs in the scanning line interval due to various causes. The main causes are the positional error of laser irradiation due to the fluctuation of the rotational speed of the drum and the surface tilt of the polygon mirror. As shown in FIG. 3A, when the rotational speed of the drum changes, the actual scanning position D (i) on the surface of the photoconductor becomes different from D 0 (i) obtained above. Further, when the reflection angle of the laser beam changes due to the surface tilt of the polygon mirror (angle variation of a plurality of reflection surfaces), an error occurs in the laser irradiation position as shown in FIG.

図14の画像a1に示すように、等しい強度、等しい間隔でレーザを操作することで、画像a2に示すような濃度が均一な画像を形成することができる。ところが実際には、上述の通り、走査線間隔は等間隔ではなく誤差を含むことがあるため、図14の画像b1に示すように粗密が生じる。このとき形成画像においては、図14の画像b2に示すように、走査線の間隔が密になる部分では濃く、走査線の間隔が疎になる部分では薄く画像形成される。このように走査線間隔は等間隔ではなく誤差を含む場合、画像の濃淡が変化し、バンディングが発生する。   As shown in the image a1 in FIG. 14, by operating the lasers with the same intensity and the same interval, an image having a uniform density as shown in the image a2 can be formed. However, in actuality, as described above, the scanning line interval is not an equal interval but may include an error, so that coarseness and density occur as shown in an image b1 in FIG. At this time, in the formed image, as shown in an image b2 in FIG. 14, a dark image is formed in a portion where the scanning line interval is narrow, and a thin image is formed in a portion where the scanning line interval is sparse. As described above, when the scanning line interval is not an equal interval but includes an error, the shading of the image changes and banding occurs.

本実施例に示す画像形成装置は、各色バンディング補正部130Y、130M、130C、130Kが行うバンディング補正処理により、レーザ光量(露光量)を調整することで、このバンディングを補正するものである。つまり、図14の画像c1´に示すように、走査線の間隔が密になる部分は弱く、走査線の間隔が疎になる部分は強くレーザを照射することで、走査線の間隔の粗密による画像の濃淡を打ち消し、バンディングを補正する。   The image forming apparatus shown in the present embodiment corrects this banding by adjusting the laser light amount (exposure amount) by the banding correction process performed by each color banding correction unit 130Y, 130M, 130C, and 130K. That is, as shown in the image c1 ′ of FIG. 14, the portion where the scanning line interval is narrow is weak, and the portion where the scanning line interval is sparse is strongly irradiated with the laser, so that the scanning line interval is dense and dense. Cancels the shading of the image and corrects the banding.

本実施例におけるバンディング補正処理は、各色バンディング補正部130Y、130M、130C、130Kにおいて、それぞれ対応する画像形成部が行うトナー像形成処理と同期して実施される。そのため、各色バンディング補正処理は、各色トナー像形成処理と同様に、Y色、M色、C色、K色の順で一定時間ずつタイミングをずらせて、同時進行的に実施される。まず、Y色バンディング補正部130Yの構成について、図5のブロック図に従って説明する。   The banding correction process in this embodiment is performed in synchronization with the toner image forming process performed by the corresponding image forming unit in each of the color banding correction units 130Y, 130M, 130C, and 130K. For this reason, each color banding correction process is carried out simultaneously with the timing shifted by a certain time in the order of Y color, M color, C color, and K color in the same manner as the toner image forming process for each color. First, the configuration of the Y-color banding correction unit 130Y will be described with reference to the block diagram of FIG.

(HT画像格納部501)
HT画像格納部501はY色、M色、C色、及びK色HT画像を保持し、露光量算出部502Yと、周辺画素パターン取得部507Yに対して当該HT画像を出力する。Y色HT画像は入力画像に基づいて生成されるY色の分解色画像であり、副走査方向にI行、主走査方向にJ列の行列として構成される。Y色HT画像の各要素は「0」または「1」で構成され、「0」は対応する画素がOFFであること、「1」はONであることにそれぞれ対応する。M色、C色、及びK色HT画像についても同様である。以下の説明において、i行目、j列目に対応する画素を、画素(i,j)と記述する。
(HT image storage unit 501)
The HT image storage unit 501 holds Y, M, C, and K color HT images, and outputs the HT image to the exposure amount calculation unit 502Y and the peripheral pixel pattern acquisition unit 507Y. The Y color HT image is a Y color separation color image generated based on the input image, and is configured as a matrix of I rows in the sub-scanning direction and J columns in the main scanning direction. Each element of the Y color HT image is composed of “0” or “1”, and “0” corresponds to the corresponding pixel being OFF and “1” being ON. The same applies to the M, C, and K color HT images. In the following description, a pixel corresponding to the i-th row and the j-th column is described as a pixel (i, j).

(露光量算出部502Y)
露光量算出部502Yは、HT画像格納部501が出力する各色HT画像を受け取り、露光量算出処理を行い、算出した露光量を露光量補正部509Yに対して出力する。
(Exposure amount calculation unit 502Y)
The exposure amount calculation unit 502Y receives each color HT image output from the HT image storage unit 501, performs exposure amount calculation processing, and outputs the calculated exposure amount to the exposure amount correction unit 509Y.

(走査位置算出部503Y)
走査位置算出部503Yは、エンコーダ121Yが出力するパルス信号と、光学位置センサ122Yが出力するレーザ照射位置を受け取り、走査位置算出処理を行い、算出した走査位置を走査位置格納部504Yに対して出力する。
(Scanning position calculation unit 503Y)
The scanning position calculation unit 503Y receives the pulse signal output from the encoder 121Y and the laser irradiation position output from the optical position sensor 122Y, performs a scanning position calculation process, and outputs the calculated scanning position to the scanning position storage unit 504Y. To do.

(走査位置格納部504Y)
走査位置格納部504Yは、走査位置算出部503Yが出力する走査位置を受け取り、受け取った走査位置を保持し、走査線間隔予測部505Yおよび走査線間隔算出部510Yに対して出力する。
(Scanning position storage unit 504Y)
The scanning position storage unit 504Y receives the scanning position output from the scanning position calculation unit 503Y, holds the received scanning position, and outputs it to the scanning line interval prediction unit 505Y and the scanning line interval calculation unit 510Y.

(走査線間隔予測部505Y)
走査線間隔予測部505Yは、走査位置格納部504Yが出力する走査位置を受け取り、走査間隔予測処理を行って走査線間隔の予測値を算出し、算出した走査線間隔の予測値を画素間隔予測部506Yに対して出力する。
(Scanning line interval prediction unit 505Y)
The scanning line interval prediction unit 505Y receives the scanning position output from the scanning position storage unit 504Y, performs a scanning interval prediction process, calculates a predicted value of the scanning line interval, and calculates the predicted value of the scanning line interval as a pixel interval prediction. Output to the unit 506Y.

(画素間隔予測部506Y)
画素間隔予測部506Yは、走査線間隔予測部505Yが出力する走査線間隔の予測値を受け取り、画素間隔予測処理を行って走査線間隔の予測値を算出し、算出した画素間隔の予測値を補正率算出部508Yに対して出力する。
(Pixel interval prediction unit 506Y)
The pixel interval prediction unit 506Y receives the predicted value of the scanning line interval output from the scanning line interval prediction unit 505Y, performs the pixel interval prediction process to calculate the predicted value of the scanning line interval, and calculates the calculated predicted value of the pixel interval. It outputs to the correction factor calculation unit 508Y.

(周辺画素パターン取得部507Y)
周辺画素パターン取得部507Yは、HT画像格納部501が出力する各色HT画像を受け取り、周辺画素パターン取得処理を行って周辺画素パターンを取得し、取得した周辺画素パターンを補正率算出部508Yと、補正誤差算出部512Yに対して出力する。
(Peripheral pixel pattern acquisition unit 507Y)
The peripheral pixel pattern acquisition unit 507Y receives each color HT image output from the HT image storage unit 501, performs a peripheral pixel pattern acquisition process to acquire a peripheral pixel pattern, and uses the acquired peripheral pixel pattern as a correction factor calculation unit 508Y. Output to the correction error calculation unit 512Y.

(補正率算出部508Y)
補正率算出部508Yは、画素間隔予測部506Yが出力する画素間隔の予測値と、周辺画素パターン取得部507Yが出力する周辺画素パターンとを受け取り、補正率算出処理を行って補正率を算出する。また、算出した補正率を露光量補正部509Yおよび補正誤差算出部512Yに対して出力する。
(Correction rate calculation unit 508Y)
The correction rate calculation unit 508Y receives the predicted value of the pixel interval output from the pixel interval prediction unit 506Y and the peripheral pixel pattern output from the peripheral pixel pattern acquisition unit 507Y, and performs the correction rate calculation process to calculate the correction rate. . Also, the calculated correction rate is output to the exposure amount correction unit 509Y and the correction error calculation unit 512Y.

(露光量補正部509Y)
露光量補正部509Yは、露光量算出部502Yが出力する露光量と、補正率算出部508Yが出力する補正率とを受け取り、露光量補正処理を行い、補正済み露光量を露光装置103Yに対して出力する。
(Exposure amount correction unit 509Y)
The exposure amount correction unit 509Y receives the exposure amount output from the exposure amount calculation unit 502Y and the correction rate output from the correction rate calculation unit 508Y, performs exposure amount correction processing, and supplies the corrected exposure amount to the exposure apparatus 103Y. Output.

(走査線間隔算出部510Y)
走査線間隔算出部510Yは、走査位置格納部504Yが出力する走査位置を受け取り、走査線間隔算出処理を行って走査線間隔を算出し、算出した走査線間隔を画素間隔算出部511Yに対して出力する。
(Scanning line interval calculation unit 510Y)
The scanning line interval calculation unit 510Y receives the scanning position output from the scanning position storage unit 504Y, performs a scanning line interval calculation process to calculate the scanning line interval, and calculates the calculated scanning line interval to the pixel interval calculation unit 511Y. Output.

(画素間隔算出部511Y)
画素間隔算出部511Yは、走査線間隔算出部510Yが出力する走査線間隔を受け取り、画素間隔算出処理を行って画素間隔を算出し、算出した画素間隔を補正誤差算出部512Yに対して出力する。
(Pixel interval calculation unit 511Y)
The pixel interval calculation unit 511Y receives the scanning line interval output from the scanning line interval calculation unit 510Y, performs pixel interval calculation processing to calculate the pixel interval, and outputs the calculated pixel interval to the correction error calculation unit 512Y. .

(補正誤差算出部512Y)
補正誤差算出部512Yは、周辺画素パターン取得部507Yが出力する周辺画素パターンと、補正率算出部508Yが出力する補正率と、画素間隔算出部511Yが出力する画素間隔とを受け取る。これらを用い、Y色バンディング補正誤差算出処理を行ってY色バンディング補正誤差を算出する。また、算出したY色バンディング補正誤差を補正誤差格納部140に対して出力する。
(Correction error calculation unit 512Y)
The correction error calculation unit 512Y receives the peripheral pixel pattern output from the peripheral pixel pattern acquisition unit 507Y, the correction rate output from the correction rate calculation unit 508Y, and the pixel interval output from the pixel interval calculation unit 511Y. Using these, a Y-banding correction error calculation process is performed to calculate a Y-banding correction error. Also, the calculated Y banding correction error is output to the correction error storage unit 140.

次に、Y色バンディング補正部130Yにおいて実施されるY色バンディング補正処理について、図4のフローチャートに従って説明する。   Next, the Y color banding correction process performed in the Y color banding correction unit 130Y will be described with reference to the flowchart of FIG.

(ステップS401Y)
ステップS401Yは、変数iに1をセットする処理である。iはHT画像の行番号(走査線番号)を示すインデックスである。iは以下のステップS402YないしステップS417Yを行う度に1ずつ増加し、I(副走査方向の画素数)に達するまで繰り返す。これは、以下のステップS402YないしステップS417Yを走査線毎に行うことを意味する。そのため以下の説明においては、特にi=1の場合に限定せず、一般のiについて述べる。
(Step S401Y)
Step S401Y is a process of setting 1 to the variable i. i is an index indicating the row number (scan line number) of the HT image. i increases by 1 each time the following steps S402Y to S417Y are performed, and is repeated until I (the number of pixels in the sub-scanning direction) is reached. This means that the following steps S402Y to S417Y are performed for each scanning line. Therefore, in the following description, general i is described without being limited to the case of i = 1.

(ステップS402Y)
ステップS402Yは、走査線間隔予測処理である。走査線間隔予測部505Yは、走査位置格納部504Yに格納されている走査位置テーブルの情報を用いて、i番目走査線と周辺走査線との走査線間隔を予測する。ここで周辺走査線とは、i−1番目走査線およびi+1番目走査線のことである。
(Step S402Y)
Step S402Y is a scanning line interval prediction process. The scanning line interval prediction unit 505Y predicts the scanning line interval between the i-th scanning line and the peripheral scanning line using the information in the scanning position table stored in the scanning position storage unit 504Y. Here, the peripheral scanning lines are the (i−1) th scanning line and the (i + 1) th scanning line.

図7は走査位置格納部504Yに格納されている走査位置テーブルの一例である。このテーブルには、−2番目からi番目までの各走査線について、その走査位置が、走査線番号と対応付けられて格納されている。各走査線の走査位置は、1番目走査線を基準とする、感光体表面での副走査方向の位置である。なお、このテーブルは、一つの画像のプリント処理が終わる毎に図7(b)に示すように初期化される。また、走査位置格納部504Yは、最大でI番目までの全走査線の走査位置を格納するのに十分なメモリを有している。また、本実施例では、−2番目から0番目までの走査線について、位置誤差が無いものとして走査位置を保持しているが、画像以外の領域にもレーザ光を走査し、走査位置を得るなどする方法も考えられる。   FIG. 7 is an example of a scanning position table stored in the scanning position storage unit 504Y. In this table, for each of the scanning lines from -2nd to i-th, the scanning position is stored in association with the scanning line number. The scanning position of each scanning line is a position in the sub-scanning direction on the surface of the photoconductor with respect to the first scanning line. This table is initialized as shown in FIG. 7B every time one image print process is completed. Further, the scanning position storage unit 504Y has a memory sufficient to store the scanning positions of all the scanning lines up to the I-th. In this embodiment, the scan positions are held on the assumption that there is no position error for the -2nd to 0th scan lines. However, the laser beam is also scanned in a region other than the image to obtain the scan position. The method of doing etc. can also be considered.

以下に、走査線間隔予測処理の詳細について説明する。その際、i番目走査線とi´番目走査線の走査線間隔の予測値をG^(i,i´)と書く。また、i番目走査線とi´番目走査線の実際の走査線間隔をG(i,i´)と書く。   Details of the scanning line interval prediction process will be described below. At this time, a predicted value of the scanning line interval between the i-th scanning line and the i′-th scanning line is written as G ^ (i, i ′). The actual scanning line interval between the i-th scanning line and the i′-th scanning line is written as G (i, i ′).

図8に走査位置と走査線間隔の予測値との関係を表す模式図を示す。対象となるi番目走査線とi+1番目走査線との走査線間隔の予測値G^(i,i+1)、及びi−1番目走査線とi番目走査線との走査線間隔の予測値G^(i−1,i)を算出する。その際、i番目走査線とi+1番目走査線との実際の走査線間隔G(i,i+1)はP(i+1)とP(i)との差分から算出することができる。ところが、i番目走査線を走査する時点において、P(i+1)は未来の情報であり、処理を行う際に取得することができない。そこで本実施例では、既に検知している過去の走査線の位置情報を用いて、走査線間隔の予測値G^(i,i+1)及びG^(i−1,i)を算出する。走査線間隔の予測値算出式の一例を以下に示す。   FIG. 8 is a schematic diagram showing the relationship between the scanning position and the predicted value of the scanning line interval. Predicted value G ^ (i, i + 1) of the scanning line interval between the i-th scanning line and the i + 1th scanning line, and the predicted value G ^ of the scanning line interval between the (i-1) th scanning line and the i-th scanning line. (I-1, i) is calculated. At that time, the actual scanning line interval G (i, i + 1) between the i-th scanning line and the i + 1-th scanning line can be calculated from the difference between P (i + 1) and P (i). However, at the time of scanning the i-th scanning line, P (i + 1) is future information and cannot be acquired when processing is performed. Therefore, in this embodiment, the predicted values G ^ (i, i + 1) and G ^ (i-1, i) of the scanning line interval are calculated using the position information of the past scanning lines already detected. An example of the predicted value calculation formula for the scanning line interval is shown below.

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

本実施例で行う予測は線形予測法として知られるものである。線形予測法は、将来の値を事前に観測された値の線形写像として予測する手法であり、一般的には以下の式で記述される。   The prediction performed in this embodiment is known as a linear prediction method. The linear prediction method is a method for predicting a future value as a linear map of values observed in advance, and is generally described by the following equation.

Figure 2012177779
Figure 2012177779

ここでx^(i)は予測値、x(i−k)は事前に観測された値、aは予測係数である。これを本実施例に合わせて書き直すと、以下の式になる。 Here, x ^ (i) is a predicted value, x (ik) is a value observed in advance, and ak is a prediction coefficient. When this is rewritten according to the present embodiment, the following equation is obtained.

Figure 2012177779
Figure 2012177779

また、通常、線形予測法において予測係数aは、誤差|x(i)−x^(i)|が最小となるものを選択する。本実施例ではこれを、k=1ではa=1、k≠1ではa=0として、式(6)を以下の式のように適用し、予測を行っている。 In general, the prediction coefficient a k in the linear prediction method is selected such that the error | x (i) −x ^ (i) | In the present embodiment, this is set as a k = 1 when k = 1, and a k = 0 when k ≠ 1, and prediction is performed by applying Expression (6) as the following expression.

Figure 2012177779
Figure 2012177779

そのため、G^(i−1,i)はP(i−1)とP(i−2)との差分から算出している。同様にG^(i,i+1)はP(i)とP(i−1)との差分から算出している。なお、予測係数aは予め取得した測定値から適切なものを選ぶことが可能である。さらに、本実施例では予測手法に線形予測法を用いたが、カルマンフィルタを用いるものや画像形成装置の動きを模したシミュレータを利用するなど他の予測手法を用いることが可能である。 Therefore, G ^ (i-1, i) is calculated from the difference between P (i-1) and P (i-2). Similarly, G ^ (i, i + 1) is calculated from the difference between P (i) and P (i-1). As the prediction coefficient ak, an appropriate value can be selected from the measurement values acquired in advance. Furthermore, in this embodiment, the linear prediction method is used as the prediction method, but other prediction methods such as a method using a Kalman filter or a simulator simulating the movement of the image forming apparatus can be used.

(ステップS403Y)
ステップS403Yは、画素間隔予測処理である。画素間隔予測部506Yは、i行目の各画素(i,j)と周辺の画素(i+k,j+l)との間隔の予測値D^を、以下の式で算出する。その際、ステップS402で算出した走査線間隔の予測値G^を用いる。また、k、lの変動範囲は{−1,0,1}である。
(Step S403Y)
Step S403Y is a pixel interval prediction process. The pixel interval prediction unit 506Y calculates a predicted value D ^ of the interval between each pixel (i, j) in the i-th row and surrounding pixels (i + k, j + l) by the following equation. At that time, the predicted value G ^ of the scanning line interval calculated in step S402 is used. The variation range of k and l is {-1, 0, 1}.

Figure 2012177779
Figure 2012177779

ここで、jはHT画像の列番号を示すインデックスであり、本来は、1からJ(主走査方向の画素数)までの全ての整数の値をとる。しかし、式(8)から明らかなように、D^の値はjに依存しない。そのため、D^は走査線毎に1度算出すれば良く、その値を、i行目の全ての画素で共通に用いる。また、式(8)中のGxは、主操作方向に隣接する画素間の、位置誤差が無い場合の距離である。   Here, j is an index indicating the column number of the HT image, and originally takes all integer values from 1 to J (number of pixels in the main scanning direction). However, as is clear from Equation (8), the value of D ^ does not depend on j. Therefore, D ^ may be calculated once for each scanning line, and the value is commonly used for all the pixels in the i-th row. Further, Gx in Expression (8) is a distance when there is no position error between pixels adjacent in the main operation direction.

(ステップS404Y)
ステップS404Yは、変数jに1をセットする処理である。jはHT画像の列番号を示すインデックスである。jは以下のステップS405YからステップS407Yを行う度に1ずつ増加し、J(主走査方向の画素数)に達するまで繰り返す。これは、以下のステップS405YからステップS407Yを画素毎に行うことを意味する。そのため以下の説明においては、特にj=1の場合に限定せず、一般のjについて述べる。
(Step S404Y)
Step S404Y is a process of setting 1 to the variable j. j is an index indicating the column number of the HT image. j is incremented by 1 each time the following steps S405Y to S407Y are performed, and is repeated until J (the number of pixels in the main scanning direction) is reached. This means that the following steps S405Y to S407Y are performed for each pixel. Therefore, in the following description, general j is described without being limited to the case of j = 1.

(ステップS405Y)
ステップS405Yは、周辺画素パターン取得処理である。周辺画素パターン取得部507Yは、HT画像格納部501に格納されているY色HT画像から、周辺画素パターンWを取得する。つまり、変動範囲が{−1,0,1}であるk、lについて、W(i+k,j+l)を以下の式で定める。
(Step S405Y)
Step S405Y is a peripheral pixel pattern acquisition process. The peripheral pixel pattern acquisition unit 507Y acquires the peripheral pixel pattern W from the Y color HT image stored in the HT image storage unit 501. That is, W (i + k, j + l) is defined by the following formula for k and l whose fluctuation range is {-1, 0, 1}.

Figure 2012177779
Figure 2012177779

(ステップS406Y)
ステップS406Yは、補正率算出処理である。補正率算出部508Yは、HT画像格納部501に格納されているY色HT画像を基に露光量算出部502Yが算出した露光量Eを変調する際の変調倍率R(補正率)を算出する。その際Rは、走査線間隔の誤差により発生するバンディングを低減するように決定される。つまり、以下に説明する目標濃度値と予測濃度値とを等しくするようにRを定める。目標濃度値とは、バンディングの発生が無い理想的な形成画像の注目位置での濃度値である。予測濃度値とは、補正済み露光量R×Eと、ステップS403Yで算出した画素間隔の予測値D^から算出される予測画像の注目位置での濃度値である。目標濃度値および予測濃度値は、ステップS403Yで算出した画素間隔の予測値D^、及びステップS405Yで取得した周辺画素パターンWを用いて、それぞれ以下の式で算出する。
(Step S406Y)
Step S406Y is a correction rate calculation process. The correction rate calculation unit 508Y calculates a modulation magnification R (correction rate) for modulating the exposure amount E calculated by the exposure amount calculation unit 502Y based on the Y color HT image stored in the HT image storage unit 501. . In this case, R is determined so as to reduce banding caused by an error in the scanning line interval. That is, R is determined so that the target density value and the predicted density value described below are equal. The target density value is a density value at an attention position of an ideal formed image in which no banding occurs. The predicted density value is a density value at the target position of the predicted image calculated from the corrected exposure amount R × E and the predicted value D ^ of the pixel interval calculated in step S403Y. The target density value and the predicted density value are calculated by the following formulas using the predicted pixel spacing value D ^ calculated in step S403Y and the peripheral pixel pattern W acquired in step S405Y.

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

ここで、式(10)中のGyは、位置誤差が無い場合の、副操作方向に隣接する画素間の距離であり、式(10)及び式(11)中のshは、本来の露光量Eで孤立ドットを印字した際の濃度分布を表す関数である。また、k、lの変動範囲は{−1,0,1}である。   Here, Gy in equation (10) is the distance between adjacent pixels in the sub-operation direction when there is no position error, and sh in equations (10) and (11) is the original exposure amount. E is a function representing the density distribution when an isolated dot is printed. The variation range of k and l is {-1, 0, 1}.

図9は、注目画素(i,j)に対応するドット(以下、注目ドットと記述する)と、その周辺画素に対応するドット(以下、周辺ドットと記述する)の濃度分布を示す模式図である。式(10)及び式(11)について、図9を用いて以下に説明する。なお、図9は、見易さを考慮して、周辺ドットは画素(i+1、j+1)に対応するドットのみを図示する。各ドットは一定の幅を持ち、重ねて印字されるため、ある注目位置での濃度値は、注目ドットを含む周辺ドットの、注目位置での濃度値の和で算出される。   FIG. 9 is a schematic diagram showing the density distribution of dots corresponding to the pixel of interest (i, j) (hereinafter referred to as “dots of interest”) and dots corresponding to the peripheral pixels (hereinafter referred to as “peripheral dots”). is there. Equations (10) and (11) will be described below with reference to FIG. Note that FIG. 9 illustrates only the dots corresponding to the pixel (i + 1, j + 1) as peripheral dots in consideration of easy viewing. Since each dot has a certain width and is printed in an overlapping manner, the density value at a certain target position is calculated as the sum of density values at the target position of peripheral dots including the target dot.

図9の模式図(a)は式(10)を説明するためのものである。目標濃度値は値901と値902との和を算出して得られる。値901は注目ドットの注目位置での濃度値である。このとき注目ドットは、バンディング補正処理により露光量を変調されることなく本来の露光量Eで露光されている。値902は周辺ドットの注目位置での濃度値である。このとき周辺ドットの位置には変動が無く、注目位置から周辺ドットまでの距離は√(Gx+Gy)である。そのため値902はsh(√(Gx+Gy))で算出される。 The schematic diagram (a) of FIG. 9 is for explaining the formula (10). The target density value is obtained by calculating the sum of the value 901 and the value 902. A value 901 is a density value at the target position of the target dot. At this time, the target dot is exposed with the original exposure amount E without the exposure amount being modulated by the banding correction process. A value 902 is a density value at the target position of the peripheral dots. At this time, there is no change in the positions of the peripheral dots, and the distance from the target position to the peripheral dots is √ (Gx 2 + Gy 2 ). Therefore, the value 902 is calculated by sh (√ (Gx 2 + Gy 2 )).

図9の模式図(b)は式(11)を説明するためのものである。予測濃度値は値903と値904との和を算出して得られる。値903は注目ドットの注目位置での濃度値である。このとき注目ドットは、補正済み露光量R×Eで露光される。値902は周辺ドットの注目位置での濃度値である。このとき周辺ドットの位置には変動が発生し、注目位置から周辺ドットまでの距離はステップS403Yにて算出したD^である。そのため値904はsh(D^)となり、値902とは異なるものとなる。式(11)右辺の第1項は、補正率Rで光量補正した際の濃度値の増減量を表す。   The schematic diagram (b) of FIG. 9 is for explaining the formula (11). The predicted density value is obtained by calculating the sum of the value 903 and the value 904. A value 903 is a density value at the target position of the target dot. At this time, the target dot is exposed with the corrected exposure amount R × E. A value 902 is a density value at the target position of the peripheral dots. At this time, fluctuations occur in the positions of the peripheral dots, and the distance from the target position to the peripheral dots is D ^ calculated in step S403Y. Therefore, the value 904 is sh (D ^), which is different from the value 902. The first term on the right side of Equation (11) represents the amount of increase or decrease in the density value when the light amount is corrected with the correction factor R.

なお、周辺ドットの注目位置での濃度値は、画像中全ての画素について和を算出する必要があるが、ある程度遠い画素ではその値が十分に小さく、無視できる。そのため、本実施例においては、縦・横・斜めに隣接する画素についてのみ、その和を算出するものとしている。式(10)で求まる目標濃度値と、式(11)で求まる予測濃度値とが等しくなるための条件により、補正率Rを以下の式で算出する。   The density value at the target position of the peripheral dots needs to be calculated for all the pixels in the image, but the value is sufficiently small for a pixel far away to some extent and can be ignored. Therefore, in this embodiment, the sum is calculated only for pixels adjacent vertically, horizontally, and diagonally. The correction rate R is calculated by the following equation based on the condition for the target density value obtained by Equation (10) to be equal to the predicted concentration value obtained by Equation (11).

Figure 2012177779
Figure 2012177779

ここで、式(12)中のD^((i,j),(j+k,j+l))は、ステップS403Yで算出した画素間隔の予測値であり、W(i+k,j+l)は、ステップS405Yで算出した周辺画素パターンである。   Here, D ^ ((i, j), (j + k, j + l)) in the equation (12) is a predicted value of the pixel interval calculated in step S403Y, and W (i + k, j + l) is determined in step S405Y. This is a calculated peripheral pixel pattern.

(ステップS407Y)
ステップS407Yは、露光量補正処理である。露光量補正部509Yは、ステップS406Yで算出した補正率Rを用いて露光量の補正を行う。つまり、算出した補正率Rを本来の露光量Eに乗算し、今回書き込むべき露光量E´を以下の式で算出する。
(Step S407Y)
Step S407Y is an exposure correction process. The exposure amount correction unit 509Y corrects the exposure amount using the correction rate R calculated in step S406Y. That is, the calculated correction rate R is multiplied by the original exposure amount E, and the exposure amount E ′ to be written this time is calculated by the following equation.

Figure 2012177779
(ステップS408Y)
ステップS408Yは、jを1だけ増加させる処理である。現在の画素での処理を終え、次の画素(主走査方向下流側)での処理へと移行する。
Figure 2012177779
(Step S408Y)
Step S408Y is a process for increasing j by one. After the processing at the current pixel is finished, the processing proceeds to the processing at the next pixel (downstream in the main scanning direction).

(ステップS409Y)
ステップS409Yは、「j≦J」の真偽を判定する処理である。判定結果が真であれば、ステップS405Yへ戻り、次の画素に対して同様の処理を繰り返す。判定結果が偽であれば繰り返しを終え、ステップS410Yへと移行する。以上ステップS409Yまでで説明したように、i行目の全ての画素について、周辺画素の位置情報と、周辺画素のパターン情報(各画素のON/OFF情報)とを用いて露光量を変調し、走査線の間隔の疎密により生じる画像濃度の変動を補正する。これにより、走査線の位置変動によるバンディングを精度良く補正することが可能となる。ところが、補正に用いた周辺画素の位置情報は、ステップS402Yでの走査線間隔予測処理に基づいて算出されたものである。このため、算出された予測の位置情報に誤差が生じて、バンディングを完全に補正することができない場合がある。
(Step S409Y)
Step S409Y is a process of determining the true / false of “j ≦ J”. If the determination result is true, the process returns to step S405Y, and the same processing is repeated for the next pixel. If the determination result is false, the repetition ends and the process proceeds to step S410Y. As described above up to step S409Y, for all the pixels in the i-th row, the exposure amount is modulated using the position information of the peripheral pixels and the pattern information of the peripheral pixels (ON / OFF information of each pixel), It corrects fluctuations in image density caused by the density of scanning line intervals. As a result, it is possible to accurately correct the banding due to the position variation of the scanning line. However, the peripheral pixel position information used for the correction is calculated based on the scanning line interval prediction process in step S402Y. For this reason, an error may occur in the calculated prediction position information, and banding may not be completely corrected.

本実施例では、このようにしてY色バンディング補正処理において残存するバンディング(以下、Y色バンディング補正誤差という)をも相殺し、より精度の良いバンディング補正を実現する。つまり、残存するY色バンディング補正誤差を検知し、引き続き実施されるM色、C色、及びK色バンディング補正処理において、Y色バンディング補正誤差を打ち消すよう制御する。   In the present embodiment, banding remaining in the Y-banding correction process (hereinafter referred to as Y-banding correction error) is canceled out in this way, and more accurate banding correction is realized. That is, the remaining Y-color banding correction error is detected, and control is performed to cancel the Y-color banding correction error in the M, C, and K-color banding correction processes that are subsequently performed.

以下ステップS410Yからは、Y色バンディング補正誤差を検知するための処理である。これまでに、i番目走査線の走査が終了している。続いてi+1番目走査線の走査を開始する直前に、その走査位置を取得し、周辺画素の実際の位置情報を算出する。これにより、実際の印字濃度を算出し、残存するバンディングの検知を行う。   Steps S410Y and thereafter are processing for detecting a Y-color banding correction error. So far, the scanning of the i-th scanning line has been completed. Subsequently, immediately before the scan of the (i + 1) th scanning line is started, the scanning position is acquired, and the actual position information of the peripheral pixels is calculated. As a result, the actual print density is calculated and the remaining banding is detected.

(ステップS410Y)
ステップS410Yはi+1番目走査位置算出処理である。走査位置算出部503Yは、エンコーダ121Y、及び光学位置センサ122Yの出力情報を用いて、i+1番目走査線の走査位置を算出する。まず、走査位置算出部503Yは、レーザ照射位置に誤差が無い場合の走査位置D(i+1)を算出する。エンコーダ121Yは、感光体ドラム101Yの回転に対応したパルス信号を発生し、これを積算することで感光体ドラム101Yの回転角θを出力する。走査位置算出部503Yは、この回転角θを用いてD(i+1)を以下の式により算出する。
(Step S410Y)
Step S410Y is an i + 1th scanning position calculation process. The scanning position calculation unit 503Y calculates the scanning position of the (i + 1) th scanning line using output information from the encoder 121Y and the optical position sensor 122Y. First, the scanning position calculation unit 503Y calculates the scanning position D (i + 1) when there is no error in the laser irradiation position. The encoder 121Y generates a pulse signal corresponding to the rotation of the photosensitive drum 101Y, and outputs the pulse signal to output the rotation angle θ of the photosensitive drum 101Y. The scanning position calculation unit 503Y calculates D (i + 1) using the rotation angle θ according to the following equation.

Figure 2012177779
Figure 2012177779

ここで、式(14)中のrは感光体感光体ドラム101Yの半径である。次に、走査位置算出部503Yは、光学位置センサ122Yからレーザ照射位置変動量L(i+1)を取得する。   Here, r in the equation (14) is the radius of the photosensitive drum 101Y. Next, the scanning position calculation unit 503Y acquires the laser irradiation position fluctuation amount L (i + 1) from the optical position sensor 122Y.

図6は、光学位置センサ122Yの一例を示す模式図である。図6の受光素子601はレーザ光を検出すると、パルス信号を出力する。三角形のスリット602は、受光素子601を覆っている。この構成により、レーザ照射位置に応じて受光素子601がレーザ照射を受ける時間が変化するため、出力されるパルス信号の幅からレーザ照射位置を算出することが可能である。また、レーザ光照射基準位置603にレーザ光が照射されるときに光学位置センサ122Yが出力するパルス信号の幅をw1とする。図6中のレーザ照射位置604の位置にレーザ光が照射された場合、レーザ光照射基準位置603にレーザ光が照射された場合に比べて、受光素子601がレーザ光を受光する時間が長くなり、出力信号のパルス幅w2はw1より長くなる。光学位置センサ122Yは、このパルス幅の変化からレーザ照射位置変動量を算出することができる。具体的には、パルス幅w2とw1の差分に比例係数をかけることで、レーザ照射位置変動量を求めることができる。この比例係数は、スリットの形状によって定まる定数である。例として、スリットの形状が直角二等辺三角形であり、直行する2辺の片方が主走査方向と平行、他方が副走査方向と平行である場合には、この比例係数は1である。つまり、パルス幅の差分がそのままレーザ照射位置変動量となる。このように、センサが出力する信号のパルス幅から、レーザ照射位置変動量L(i+1)を求めることができる。走査位置算出部503Yは、以上で求めたD(i+1)及びL(i+1)を用いて、以下の式によりi+1番目走査位置P(i+1)を算出する。   FIG. 6 is a schematic diagram illustrating an example of the optical position sensor 122Y. The light receiving element 601 in FIG. 6 outputs a pulse signal when detecting the laser beam. The triangular slit 602 covers the light receiving element 601. With this configuration, since the time during which the light receiving element 601 is irradiated with the laser changes according to the laser irradiation position, the laser irradiation position can be calculated from the width of the output pulse signal. The width of the pulse signal output from the optical position sensor 122Y when the laser beam irradiation reference position 603 is irradiated with the laser beam is set to w1. When the laser beam is irradiated to the position of the laser irradiation position 604 in FIG. 6, the time for the light receiving element 601 to receive the laser beam is longer than when the laser beam irradiation reference position 603 is irradiated with the laser beam. The pulse width w2 of the output signal is longer than w1. The optical position sensor 122Y can calculate the laser irradiation position fluctuation amount from the change in the pulse width. Specifically, the laser irradiation position fluctuation amount can be obtained by multiplying the difference between the pulse widths w2 and w1 by a proportional coefficient. This proportionality coefficient is a constant determined by the shape of the slit. As an example, if the shape of the slit is a right-angled isosceles triangle and one of the two orthogonal sides is parallel to the main scanning direction and the other is parallel to the sub-scanning direction, this proportionality factor is 1. That is, the difference in pulse width becomes the laser irradiation position fluctuation amount as it is. Thus, the laser irradiation position fluctuation amount L (i + 1) can be obtained from the pulse width of the signal output from the sensor. The scanning position calculation unit 503Y calculates the (i + 1) th scanning position P (i + 1) by using the following equation using D (i + 1) and L (i + 1) obtained above.

Figure 2012177779
Figure 2012177779

i+1番目走査位置P(i+1)は、その算出方法から明らかな様に、i+1番目走査線の、感光体ドラム101Y表面における副走査方向の位置である。次に、走査位置格納部504Yは、走査位置テーブルを更新する。走査位置テーブルは、ステップS402Yで参照したものである。テーブルを更新する直前、走査位置テーブルにはi番目までの各走査線について、その走査位置が走査線番号と対応付けられて格納されている。これに、i+1番目走査線の走査位置を走査線番号と対応付けて格納する。   As is apparent from the calculation method, the (i + 1) th scanning position P (i + 1) is the position of the i + 1th scanning line in the sub-scanning direction on the surface of the photosensitive drum 101Y. Next, the scanning position storage unit 504Y updates the scanning position table. The scanning position table is referred to in step S402Y. Immediately before updating the table, the scanning position table stores the scanning positions of the i-th scanning lines in association with the scanning line numbers. The scanning position of the (i + 1) th scanning line is stored in association with the scanning line number.

(ステップS411Y)
ステップS411Yは、走査線間隔算出処理である。走査線間隔算出部510Yは、直前に更新した走査位置テーブルの情報を用いて、i番目走査線と周辺走査線との走査線間隔を算出する。ここで周辺走査線とは、i−1番目走査線と、i+1番目走査線のことである。図11に走査位置と走査線間隔の関係を表す模式図を示す。i番目走査線とi+1番目走査線との走査線間隔G(i,i+1)及び、i−1番目走査線とi番目走査線との走査線間隔G(i−1,i)を、以下の式で算出する。
(Step S411Y)
Step S411Y is a scanning line interval calculation process. The scanning line interval calculation unit 510Y calculates the scanning line interval between the i-th scanning line and the peripheral scanning line using the information in the scanning position table updated immediately before. Here, the peripheral scanning lines are the (i−1) th scanning line and the (i + 1) th scanning line. FIG. 11 is a schematic diagram showing the relationship between the scanning position and the scanning line interval. A scanning line interval G (i, i + 1) between the i-th scanning line and the i + 1-th scanning line and a scanning line interval G (i-1, i) between the i-th scanning line and the i-th scanning line are expressed as follows. Calculate with the formula.

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

(ステップS412Y)
ステップS412Yは、画素間隔算出処理である。画素間隔算出部511Yは、i行目の各画素(i,j)と周辺の画素(i+k,J+l)との間隔Dを以下の式で算出する。その際、ステップS411で算出した走査線間隔Gを用いる。また、k、lの変動範囲は{−1,0,1}である。
(Step S412Y)
Step S412Y is a pixel interval calculation process. The pixel interval calculation unit 511Y calculates an interval D between each pixel (i, j) in the i-th row and surrounding pixels (i + k, J + l) by the following formula. At that time, the scanning line interval G calculated in step S411 is used. The variation range of k and l is {-1, 0, 1}.

Figure 2012177779
Figure 2012177779

ここで、jはHT画像の列番号を示すインデックスであり、本来は、1からJ(主走査方向の画素数)までの全ての整数の値をとる。しかし、式(18)から明らかなように、D^の値はjに依存しない。そのため、D^は走査線毎に1度算出すれば良く、その値をi行目の全ての画素で共通に用いる。また、式(18)中のGxは、主操作方向に隣接する画素間の、位置誤差が無い場合の距離である。   Here, j is an index indicating the column number of the HT image, and originally takes all integer values from 1 to J (number of pixels in the main scanning direction). However, as is clear from Equation (18), the value of D ^ does not depend on j. Therefore, D ^ may be calculated once for each scanning line, and the value is commonly used for all pixels in the i-th row. Further, Gx in Expression (18) is a distance when there is no position error between pixels adjacent in the main operation direction.

(ステップS413Y)
ステップS413Yは、変数jに1をセットする処理である。jはHT画像の列番号を示すインデックスである。jは以下のステップS414YないしステップS415Yを行う度に1ずつ増加し、J(主走査方向の画素数)に達するまで繰り返す。これは、以下のステップS414YないしステップS415Yを画素毎に行うことを意味する。そのため以下の説明においては、特にj=1の場合に限定せず、一般のjについて述べる。
(Step S413Y)
Step S413Y is a process of setting 1 to the variable j. j is an index indicating the column number of the HT image. j is incremented by 1 each time the following steps S414Y to S415Y are performed, and is repeated until J (the number of pixels in the main scanning direction) is reached. This means that the following steps S414Y to S415Y are performed for each pixel. Therefore, in the following description, general j is described without being limited to the case of j = 1.

(ステップS414Y)
ステップS414Yは周辺画素パターン取得処理である。ステップS414Yの処理はステップS405Yの処理と同一であるため、説明を省略する。
(Step S414Y)
Step S414Y is a peripheral pixel pattern acquisition process. Since the process of step S414Y is the same as the process of step S405Y, a description thereof will be omitted.

(ステップS415Y)
ステップS415YはY色バンディング補正誤差算出処理である。補正誤差算出部512Yは、走査線間隔予測処理の誤差により発生するY色バンディング補正誤差を算出する。
(Step S415Y)
Step S415Y is a Y-banding correction error calculation process. The correction error calculation unit 512Y calculates a Y-color banding correction error that occurs due to an error in the scanning line interval prediction process.

まず、補正誤差算出部512Yは、実印字濃度値を算出する。実印字濃度値とは、補正済み露光量R×Eと、ステップS412Yで算出した画素間隔Dから算出される実印字画像の注目位置での濃度値である。実印字濃度値は、ステップS412Yで算出した画素間隔D、ステップS414Yで取得した周辺画素パターンW、及びステップS406Yで算出した補正率Rを用いて、以下の式で算出する。   First, the correction error calculation unit 512Y calculates an actual print density value. The actual print density value is a density value at the target position of the actual print image calculated from the corrected exposure amount R × E and the pixel interval D calculated in step S412Y. The actual print density value is calculated by the following equation using the pixel interval D calculated in step S412Y, the peripheral pixel pattern W acquired in step S414Y, and the correction factor R calculated in step S406Y.

Figure 2012177779
Figure 2012177779

ここで、式(19)中のk、lの変動範囲は{−1,0,1}である。次に、補正誤差算出部512Yは、Y色バンディング補正誤差を算出する。画素(i,j)におけるY色バンディング補正誤差ErrY(i,j)は、直前で算出した実印字濃度値と、ステップS406Yと同様に算出した目標濃度値とを用いて、以下の式で算出する。   Here, the variation range of k and l in the equation (19) is {−1, 0, 1}. Next, the correction error calculation unit 512Y calculates a Y-banding correction error. The Y color banding correction error ErrY (i, j) in the pixel (i, j) is calculated by the following equation using the actual print density value calculated immediately before and the target density value calculated in the same manner as in step S406Y. To do.

Figure 2012177779
Figure 2012177779

続いて、補正誤差格納部140は、Y色バンディング補正誤差テーブルを更新する。図12は、補正誤差格納部140に格納されているY色バンディング補正誤差テーブルの一例である。このテーブルには、各画素について、そのY色バンディング補正誤差が行番号(副走査方向の座標)、及び列番号(主走査方向の座標)と対応付けられて格納されている。図12を参照すると、テーブルを更新する直前、i−1番目以前の走査線、及びi番目の走査線のj−1番目以前の画素について、そのY色バンディング補正誤差が格納されている。これに、画素(i,j)について、そのY色バンディング補正誤差を格納する。上述の処理により、バンディング補正誤差テーブルを更新する。なお、このテーブルは、一つの画像のプリント処理が終わる毎に、格納している情報全てを破棄する。また、補正誤差格納部140は、最大でI行J列の全画素のY色バンディング補正誤差を格納するのに十分なメモリを有している。   Subsequently, the correction error storage unit 140 updates the Y color banding correction error table. FIG. 12 is an example of a Y-color banding correction error table stored in the correction error storage unit 140. In this table, for each pixel, the Y color banding correction error is stored in association with the row number (coordinate in the sub-scanning direction) and the column number (coordinate in the main scanning direction). Referring to FIG. 12, immediately before the table is updated, Y-banding correction errors are stored for the (i−1) th scanning line and the j−1th scanning line of the ith scanning line. The Y banding correction error is stored for pixel (i, j). The banding correction error table is updated by the above processing. Note that this table discards all stored information every time printing of one image is completed. In addition, the correction error storage unit 140 has a memory sufficient to store Y banding correction errors of all the pixels in I rows and J columns at the maximum.

以上ステップS415Yにおいて算出、格納されたY色バンディング補正誤差ErrY(i,j)は、引き続き実施されるM色、C色、及びK色バンディング補正処理において参照される。そして、M色、C色、及びK色バンディング補正処理では、Y色バンディング補正誤差ErrY(i,j)を打ち消し、Y色バンディング補正誤差ErrY(i,j)により発生する色むらを抑制するように制御する。   The Y-banding correction error ErrY (i, j) calculated and stored in step S415Y is referred to in the subsequent M-color, C-color, and K-color banding correction processes. In the M-color, C-color, and K-color banding correction processes, the Y-color banding correction error ErrY (i, j) is canceled out, and the color unevenness caused by the Y-color banding correction error ErrY (i, j) is suppressed. To control.

(ステップS416Y)
ステップS416Yは、jを1だけ増加させる処理である。現在の画素での処理を終え、次の画素(主走査方向下流側)での処理へと移行する。
(Step S416Y)
Step S416Y is a process of increasing j by 1. After the processing at the current pixel is finished, the processing proceeds to the processing at the next pixel (downstream in the main scanning direction).

(ステップS417Y)
ステップS417Yは、「j≦J」の真偽を判定する処理である。判定結果が真であれば、ステップS414Yへ戻り、次の画素に対して同様の処理を繰り返す。判定結果が偽であれば繰り返しを終え、ステップS418Yへと移行する。
(Step S417Y)
Step S417Y is a process for determining the authenticity of “j ≦ J”. If the determination result is true, the process returns to step S414Y, and the same processing is repeated for the next pixel. If the determination result is false, the repetition ends and the process proceeds to step S418Y.

(ステップS418Y)
ステップS418Yは、iを1だけ増加させる処理である。現在の走査線での処理を終え、次の走査線(副走査方向下流側)での処理へと移行する。
(Step S418Y)
Step S418Y is a process of increasing i by 1. After the processing on the current scanning line is finished, the process proceeds to processing on the next scanning line (downstream in the sub-scanning direction).

(ステップS419Y)
ステップS419Yは、「i≦I」の真偽を判定する処理である。判定結果が真であれば、ステップS402Yへ戻り、次の走査線に対して同様の処理を繰り返す。判定結果が偽であれば繰り返しを終え、Y色バンディング補正処理を終了する。
(Step S419Y)
Step S419Y is a process for determining the authenticity of “i ≦ I”. If the determination result is true, the process returns to step S402Y, and the same processing is repeated for the next scanning line. If the determination result is false, the repetition is finished and the Y-banding correction process is finished.

Y色バンディング補正処理は、画像形成部100Y(図1)で実行されるY色露光処理と同期して実行される。Y色露光処理とY色バンディング補正処理の動作順序を、図10を用いて説明する。   The Y-color banding correction process is executed in synchronization with the Y-color exposure process executed by the image forming unit 100Y (FIG. 1). The operation sequence of the Y color exposure process and the Y color banding correction process will be described with reference to FIG.

(Y色露光処理)
Y色露光処理のi番目走査において、まず、レーザ照射位置検出用信号1001aが一定の時間発行される。次に、レーザ照射位置検出用信号1001aの発行の後、所定の時間を空けて、画像信号1002aが一定の時間発行される。レーザ照射位置検出用信号1001aと画像信号1002aが発行されている間、露光装置103Y(図1)はレーザ照射を行う。i+1番目走査においても、同様に、レーザ照射位置検出用信号1001bと画像信号1002bが発行される。
(Y color exposure process)
In the i-th scan of the Y-color exposure process, first, a laser irradiation position detection signal 1001a is issued for a certain period of time. Next, after the issuance of the laser irradiation position detection signal 1001a, a predetermined time is left and the image signal 1002a is issued for a certain time. While the laser irradiation position detection signal 1001a and the image signal 1002a are issued, the exposure apparatus 103Y (FIG. 1) performs laser irradiation. Similarly, in the i + 1th scan, a laser irradiation position detection signal 1001b and an image signal 1002b are issued.

(Y色バンディング補正処理)
レーザ照射位置検出用信号1001aの発行が終了してから画像信号1002aの発行が開始されるまでの間に、露光量補正信号1005aが発行される。露光量補正信号1005aのタイミングで、i番目走査に対するY色バンディング補正処理の内、図4のステップS402Yからステップ409Yまでの露光量を補正する処理が実行される。レーザ照射位置検出用信号1001bの発行が終了してから画像信号1002bの発行が開始されるまでの間に、レーザ照射位置検出信号1003bとドラム位置検出信号1004bが発行される。レーザ照射位置検出信号1003bのタイミングで、光学位置センサ122Y(図1)はレーザ光の照射位置を検出し、検出した照射位置をY色バンディング補正部130Y(図1)へ出力する。ドラム位置検出信号1004bのタイミングで、エンコーダ121Y(図1)は感光体ドラム101Y(図1)の回転角を検出し、検出した回転角をY色バンディング補正部130Y(図1)へ出力する。
(Y color banding correction process)
The exposure amount correction signal 1005a is issued after the issue of the laser irradiation position detection signal 1001a is finished and before the issue of the image signal 1002a is started. At the timing of the exposure amount correction signal 1005a, the processing for correcting the exposure amount from step S402Y to step 409Y in FIG. 4 in the Y color banding correction processing for the i-th scan is executed. The laser irradiation position detection signal 1003b and the drum position detection signal 1004b are issued after the issue of the laser irradiation position detection signal 1001b is completed and before the issue of the image signal 1002b is started. At the timing of the laser irradiation position detection signal 1003b, the optical position sensor 122Y (FIG. 1) detects the irradiation position of the laser beam and outputs the detected irradiation position to the Y-banding correction unit 130Y (FIG. 1). At the timing of the drum position detection signal 1004b, the encoder 121Y (FIG. 1) detects the rotation angle of the photosensitive drum 101Y (FIG. 1), and outputs the detected rotation angle to the Y-banding correction unit 130Y (FIG. 1).

レーザ照射位置検出信号1003bとドラム位置検出信号1004bの後、補正誤差算出信号1006bが発行される。補正誤差算出信号1006bのタイミングで、i番目走査に対するバンディング補正処理の内、図4のステップS410Yからステップ419Yまでの補正誤差を検出する処理が実行される。以上の処理が、走査毎に繰り返される。   After the laser irradiation position detection signal 1003b and the drum position detection signal 1004b, a correction error calculation signal 1006b is issued. At the timing of the correction error calculation signal 1006b, a process of detecting a correction error from step S410Y to step 419Y in FIG. 4 in the banding correction process for the i-th scan is executed. The above process is repeated for each scan.

次に、M色バンディング補正部130Mの構成について、図5のブロック図に従って説明する。M色バンディング補正部130Mは、Y色バンディング補正部130Yと同様に構成される。そのため、記号末尾のYをMに書き換えて図示し、詳細な説明を省略する。ただし、補正率算出部508Mのみ、補正率算出部508Yと異なる。より詳細には、補正率算出部508Mは補正率算出部508Yが行う処理に加えて、補正誤差格納部140が出力するM色バンディング補正誤差の受け取りを行う点で異なる。また、補正率算出部508Mは、508Yと異なり、下色除去変換のための下色除去(以下、UCRという)テーブル(図示せず)を保持する。図13は、補正率算出部508Mに格納されているUCRテーブルの一例である。このテーブルには、Y色、M色、C色を混色して無彩色の画像を形成する際の濃度値と、K色のみで無彩色の画像を形成する際の濃度値とが対応付けられて格納されている。即ち、Y色、M色、C色のトナー像を、それぞれ濃度値y(n)、m(n)、c(n)となるように形成して重ね合わせた画像は、濃度値k(n)の無彩色であることを示している。   Next, the configuration of the M color banding correction unit 130M will be described with reference to the block diagram of FIG. The M color banding correction unit 130M is configured in the same manner as the Y color banding correction unit 130Y. Therefore, Y at the end of the symbol is rewritten as M, and detailed description is omitted. However, only the correction rate calculation unit 508M is different from the correction rate calculation unit 508Y. More specifically, the correction rate calculation unit 508M is different in that it receives the M-color banding correction error output from the correction error storage unit 140 in addition to the processing performed by the correction rate calculation unit 508Y. Further, unlike 508Y, the correction rate calculation unit 508M holds a lower color removal (hereinafter referred to as UCR) table (not shown) for lower color removal conversion. FIG. 13 is an example of the UCR table stored in the correction rate calculation unit 508M. In this table, density values when an achromatic image is formed by mixing Y, M, and C colors are associated with density values when an achromatic image is formed using only the K color. Stored. That is, an image formed by superimposing Y, M, and C color toner images having density values y (n), m (n), and c (n), respectively, has a density value k (n ) Achromatic color.

次に、M色バンディング補正部130Mにおいて実施されるM色バンディング補正処理について、図4のフローチャートに従って説明する。M色バンディング補正処理は、Y色バンディング補正処理と比較して、補正率算出処理(ステップS406M)での目標濃度値算出のみ異なる。M色バンディング補正処理のうち、Y色バンディング補正処理と同一である部分については単に記号末尾のYをMに書き換えて図示した上で説明を省略し、相違点である目標濃度値算出についてのみ、以下にその詳細を説明する。   Next, the M color banding correction process performed in the M color banding correction unit 130M will be described with reference to the flowchart of FIG. The M banding correction process is different from the Y color banding correction process only in target density value calculation in the correction factor calculation process (step S406M). Of the M-banding correction process, the same part as the Y-color banding correction process is illustrated by simply rewriting Y at the end of the symbol to M and omitting the description, and only for calculating the target density value which is the difference. Details will be described below.

以下に、M色バンディング補正処理における目標濃度値算出について説明する。Y色バンディング補正処理においてバンディング補正誤差が発生した場合、各色のトナー像を重ね合わせてできる画像には色むらが生じる。そこで本実施例においては、Y色においてバンディング補正誤差が発生した場合には、M色の目標濃度値を変化させて色むらの発生を抑制するように制御する。つまり、各色を重ね合わせてできる画像の色相が所望の色相に近づくように、M色の目標濃度値を増減させる。   The target density value calculation in the M color banding correction process will be described below. When a banding correction error occurs in the Y-color banding correction process, color unevenness occurs in an image formed by superimposing the toner images of the respective colors. Therefore, in this embodiment, when a banding correction error occurs in the Y color, control is performed so as to suppress the occurrence of color unevenness by changing the target density value of the M color. That is, the target density value of M color is increased or decreased so that the hue of the image formed by superimposing the colors approaches the desired hue.

その際のM色目標濃度値増減量Smの決定方法について、以下に説明する。まず、周辺画素パターン取得部507Mは、HT画像格納部501に格納されているM色、C色、及びK色HT画像から、各色の周辺画素パターンWm、Wc、Wkを取得する。処理の詳細については、Y色バンディング補正処理のステップS405Yと同様であるため説明を省略する。   A method for determining the M color target density value increase / decrease amount Sm at that time will be described below. First, the peripheral pixel pattern acquisition unit 507M acquires the peripheral pixel patterns Wm, Wc, and Wk for each color from the M, C, and K color HT images stored in the HT image storage unit 501. The details of the process are the same as those in step S405Y of the Y-color banding correction process, and a description thereof will be omitted.

次に、補正誤差格納部140からY色バンディング補正誤差ErrY(i,j)を取得し、URCテーブルのY色列から、ErrY(i,j)の値に最も近い値y(ny)を取得する。さらに、M色列でy(ny)と同じ行に格納されている値m(ny)を取得する。次に、以下の式(21)、式(22)、式(23)を共に満足する範囲で、|m(ny)−m(n)|を最小とするnを求める。ただし、露光装置の露光量を変調して得られる濃度値は、M、C、K各色でそれぞれminM、minC、minKが最小、maxM、maxC、maxKが最大であるとする。minM、minC、minKは、最小のレーザパワーにて露光を行う場合の濃度値である。また、maxM、maxC、maxKは最大のレーザパワーにて露光を行う場合の濃度値である。 Next, the Y banding correction error ErrY (i, j) is acquired from the correction error storage unit 140, and the value y (ny) closest to the value of ErrY (i, j) is acquired from the Y color string of the URC table. To do. Further, the value m (ny) stored in the same row as y (ny) in the M color string is acquired. Then, the following equation (21), equation (22), in a range that satisfies both the equation (23), | m (ny ) -m (n 0) | a seek n 0 minimized. However, it is assumed that the density values obtained by modulating the exposure amount of the exposure apparatus have minimum values for minM, minC, and minK and maximum values for maxM, maxC, and maxK for each of the M, C, and K colors. minM, minC, and minK are density values when exposure is performed with the minimum laser power. MaxM, maxC, and maxK are density values when exposure is performed with the maximum laser power.

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

Figure 2012177779
Figure 2012177779

式(23)、式(24)、式(25)を共に満足する範囲でnを求めることは、M色、C色、K色を共に変調できる範囲においてのみ、M色目標濃度値を増減させることを意味する。つまり、例として、もともとK色で露光を行わない領域においてはK色露光量を減少させることができないため、そのような領域では、後のK色目標濃度値減少を前提とするM色目標濃度値増加を行わない。 Obtaining n 0 within a range satisfying both of the expressions (23), (24), and (25) increases or decreases the M color target density value only in a range where both the M, C, and K colors can be modulated. It means that That is, as an example, the K color exposure amount cannot be reduced in an area that is not originally exposed in K color, and therefore, in such an area, the M color target density based on the subsequent decrease in the K color target density value is assumed. Do not increase the value.

|m(ny)−m(n)|を最小とするようにnを求めることは、各色を重ね合わせてできる画像の色相が所望の色相に近づくように、M色の目標濃度値を増減させることを意味する。最後に、求めたnを用いて、M色目標濃度値増減量Smを以下の式で算出する。 Finding n 0 so as to minimize | m (ny) −m (n 0 ) | is to set the target density value of M color so that the hue of the image formed by superimposing the colors approaches the desired hue. Means to increase or decrease. Finally, using the obtained n 0 , the M color target density value increase / decrease amount Sm is calculated by the following equation.

Figure 2012177779
Figure 2012177779

以上の様に算出したM色目標濃度値増減量Smだけ、目標濃度値を増減させる。つまり、M色バンディング補正処理における目標濃度値は、以下の式で算出する。   The target density value is increased or decreased by the M color target density value increase / decrease amount Sm calculated as described above. That is, the target density value in the M banding correction process is calculated by the following equation.

Figure 2012177779
Figure 2012177779

この処理によりM色は、本来の濃度値にSmだけ加算した濃度値で印字されるように制御される。これにより、Y色バンディング補正処理でのバンディング補正誤差を打ち消し、色むらの発生を抑制する。   By this process, the M color is controlled to be printed with a density value obtained by adding Sm to the original density value. This cancels the banding correction error in the Y-color banding correction process and suppresses the occurrence of color unevenness.

次に、C色バンディング補正部130Cの構成について、図5のブロック図を参照して説明する。C色バンディング補正部130CはM色バンディング補正部130Mと同様に構成される。そのため、記号末尾のMをCに書き換えて図示し、詳細な説明を省略する。   Next, the configuration of the C-color banding correction unit 130C will be described with reference to the block diagram of FIG. The C banding correction unit 130C is configured in the same manner as the M color banding correction unit 130M. For this reason, M at the end of the symbol is rewritten as C, and detailed description thereof is omitted.

次に、C色バンディング補正部530Cにおいて実施されるC色バンディング補正処理について、図4のフローチャートに従って説明する。C色バンディング補正処理は、Y色バンディング補正処理と比較して、補正率算出処理(ステップS406C)での目標濃度値算出のみ異なる。C色バンディング補正処理のうち、Y色バンディング補正処理と同一である部分については単に記号末尾のYをCに書き換えて図示した上で説明を省略し、相違点である目標濃度値算出についてのみ、以下にその詳細を説明する。   Next, the C color banding correction process performed in the C color banding correction unit 530C will be described with reference to the flowchart of FIG. The C-banding correction process is different from the Y-color banding correction process only in target density value calculation in the correction factor calculation process (step S406C). Of the C-banding correction process, the same part as the Y-color banding correction process is illustrated by simply rewriting Y at the end of the symbol to C and omitting the description, and only for calculating the target density value, which is the difference, Details will be described below.

以下に、C色バンディング補正処理における目標濃度値算出について説明する。Y色、及びM色バンディング補正処理においてバンディング補正誤差が発生した場合、各色のトナー像を重ね合わせてできる画像には色むらが生じる。そこで本実施例においては、Y色、及びM色バンディング補正処理においてバンディング補正誤差が発生した場合には、C色の目標濃度値を変化させて色むらの発生を抑制するように制御する。つまり、各色を重ね合わせてできる画像の色相が所望の色相に近づくように、C色の目標濃度値を増減させる。その際のC色目標濃度値増減量Scの決定方法について、以下に説明する。   The target density value calculation in the C color banding correction process will be described below. When a banding correction error occurs in the Y color and M color banding correction processing, color unevenness occurs in an image formed by superimposing the toner images of the respective colors. Therefore, in the present embodiment, when a banding correction error occurs in the Y color and M color banding correction processing, control is performed so as to suppress the occurrence of color unevenness by changing the target density value of the C color. That is, the target density value for C color is increased or decreased so that the hue of the image formed by superimposing the colors approaches the desired hue. A method for determining the C color target density value increase / decrease amount Sc at that time will be described below.

まず、周辺画素パターン取得部507Cは、HT画像格納部501に格納されているC色、及びK色HT画像から、各色の周辺画素パターンWc、Wkを取得する。処理の詳細については、Y色バンディング補正処理のステップS405Yと同様であるため説明を省略する。   First, the peripheral pixel pattern acquisition unit 507C acquires the peripheral pixel patterns Wc and Wk of each color from the C color and K color HT images stored in the HT image storage unit 501. The details of the process are the same as those in step S405Y of the Y-color banding correction process, and a description thereof will be omitted.

次に、補正誤差格納部140からY色バンディング補正誤差ErrY(i,j)を取得し、図13に示すURCテーブルのY色列から、ErrY(i,j)の値に最も近い値y(ny)を取得する。さらに、C色列でy(ny)と同じ行に格納されている値c(ny)を取得する。さらに、補正誤差格納部140からM色バンディング補正誤差ErrM(i,j)を取得し、URCテーブルのM色列から、ErrM(i,j)の値に最も近い値m(nm)を取得する。さらに、C色列でm(nm)と同じ行に格納されている値c(nm)を取得する。   Next, the Y color banding correction error ErrY (i, j) is acquired from the correction error storage unit 140, and the value y () closest to the value of ErrY (i, j) is obtained from the Y color string of the URC table shown in FIG. ny). Further, the value c (ny) stored in the same row as y (ny) in the C color string is acquired. Further, the M color banding correction error ErrM (i, j) is acquired from the correction error storage unit 140, and the value m (nm) closest to the value of ErrM (i, j) is acquired from the M color string of the URC table. . Further, a value c (nm) stored in the same row as m (nm) in the C color column is acquired.

次に、式(24)、式(25)を共に満足する範囲で、|(c(ny)+c(nm))/2−c(n)|を最小とするnを求める。最後に、求めたnを用いて、C色目標濃度値増減量Scを以下の式で算出する。 Next, equation (24), in a range that satisfies both the equation (25), | (c ( ny) + c (nm)) / 2-c (n 0) | a seek n 0 minimized. Finally, with n 0 obtained, to calculate the C color target density value decrease amount Sc by the following equation.

Figure 2012177779
Figure 2012177779

以上の様に算出したC色目標濃度値増減量Scだけ、目標濃度値を増減させる。つまり、C色バンディング補正処理における目標濃度値は、以下の式で算出する。   The target density value is increased or decreased by the C color target density value increase / decrease amount Sc calculated as described above. That is, the target density value in the C color banding correction process is calculated by the following equation.

Figure 2012177779
Figure 2012177779

この処理によりC色は、本来の濃度値にScだけ加算した濃度値で印字されるように制御される。これにより、Y色、及びM色バンディング補正処理でのバンディング補正誤差を打ち消し、色むらの発生を抑制する。   With this process, the C color is controlled to be printed with a density value obtained by adding Sc to the original density value. Thereby, the banding correction error in the Y-color and M-color banding correction processing is canceled, and the occurrence of color unevenness is suppressed.

次に、K色バンディング補正部130Kの構成について、図5のブロック図を参照して説明する。K色バンディング補正部130Kは、他の色のバンディング補正部にあるいくつかのモジュールを有しない。すなわち、例えばM色バンディング補正部130Mから走査線間隔算出部510M、画素間隔算出部511M、及び補正誤差算出部512Mは不要である。そのため、このような不要な処理部を削除し、記号末尾のMをKに書き換えて図示し、詳細な説明を省略する。   Next, the configuration of the K-color banding correction unit 130K will be described with reference to the block diagram of FIG. The K-color banding correction unit 130K does not have some modules in the banding correction units for other colors. That is, for example, the M-banding correction unit 130M to the scanning line interval calculation unit 510M, the pixel interval calculation unit 511M, and the correction error calculation unit 512M are unnecessary. Therefore, such unnecessary processing units are deleted, M at the end of the symbol is replaced with K, and detailed description is omitted.

次に、K色バンディング補正部130Kにおいて実施されるK色バンディング補正処理について、図4のフローチャートを参照して説明する。K色バンディング補正処理は、Y色バンディング補正処理のステップの内、ステップS411からステップS418までを実施しない。つまり、K色のバンディング補正処理の後に他の色のバンディング補正処理は行われず、K色バンディング補正誤差が参照されることが無いため、K色バンディング補正誤差算出処理と、それに係る処理は実施しない。また、補正率算出処理(ステップS406K)での目標濃度値算出は、Y色バンディング補正処理の場合と異なる。K色バンディング補正処理のうち、Y色バンディング補正処理と同一である部分については記号末尾のYを単にKに書き換えて図示した上で説明を省略し、相違点である目標濃度値算出についてのみ、以下にその詳細を説明する。   Next, the K-color banding correction process performed in the K-color banding correction unit 130K will be described with reference to the flowchart of FIG. In the K banding correction process, steps S411 to S418 are not performed in the steps of the Y color banding correction process. That is, the banding correction process for other colors is not performed after the banding correction process for K color, and the K banding correction error calculation process and the related process are not performed because the K banding correction error is not referred to. . The target density value calculation in the correction factor calculation process (step S406K) is different from that in the Y color banding correction process. Of the K-color banding correction process, the same part as the Y-color banding correction process is illustrated by simply rewriting Y at the end of the symbol to K and omitting the description, and only for calculating the target density value which is the difference. Details will be described below.

以下に、K色バンディング補正処理における目標濃度値算出について説明する。M色、C色バンディング補正処理では、各色バンディング補正誤差による色相の変化を抑制するよう制御した。しかし、これらの処理では濃度の変化を考慮していない。そこで、K色バンディング補正処理では、各色を重ね合わせてできる画像の濃度が所望の濃度に近づくように、K色の目標濃度値を増減させる。その際のK色目標濃度値増減量Skの決定方法について、以下に説明する。   The target density value calculation in the K color banding correction process will be described below. In the M color and C color banding correction processing, control was performed so as to suppress a change in hue due to each color banding correction error. However, these processes do not consider changes in density. Therefore, in the K banding correction process, the target density value of K color is increased or decreased so that the density of the image formed by superimposing the colors approaches the desired density. A method for determining the K color target density value increase / decrease amount Sk at that time will be described below.

まず、周辺画素パターン取得部507Cは、HT画像格納部501に格納されているK色HT画像から、K色の周辺画素パターンWkを取得する。処理の詳細については、Y色バンディング補正処理のステップS405Yと同様であるため説明を省略する。次に、補正誤差格納部140からY色バンディング補正誤差ErrY(i,j)を取得し、図13に示すURCテーブルのY色列から、ErrY(i,j)の値に最も近い値y(ny)を取得する。さらに、K色列でy(ny)と同じ行に格納されている値k(ny)を取得する。   First, the peripheral pixel pattern acquisition unit 507C acquires a K-color peripheral pixel pattern Wk from the K-color HT image stored in the HT image storage unit 501. The details of the process are the same as those in step S405Y of the Y-color banding correction process, and a description thereof will be omitted. Next, the Y color banding correction error ErrY (i, j) is acquired from the correction error storage unit 140, and the value y () closest to the value of ErrY (i, j) is obtained from the Y color string of the URC table shown in FIG. ny). Further, the value k (ny) stored in the same row as y (ny) in the K color string is acquired.

さらに、補正誤差格納部140からM色バンディング補正誤差ErrM(i,j)を取得し、図13に示すURCテーブルのM色列から、ErrM(i,j)の値に最も近い値m(nm)を取得する。さらに、K色列でm(nm)と同じ行に格納されている値k(nm)を取得する。続けて、補正誤差格納部140からC色バンディング補正誤差ErrC(i,j)を取得し、URCテーブルのC色列から、ErrC(i,j)の値に最も近い値c(nc)を取得する。さらに、K色列でc(nc)と同じ行に格納されている値k(nc)を取得する。   Further, the M color banding correction error ErrM (i, j) is acquired from the correction error storage unit 140, and the value m (nm) closest to the value of ErrM (i, j) is obtained from the M color string of the URC table shown in FIG. ) To get. Further, the value k (nm) stored in the same row as m (nm) in the K color column is acquired. Subsequently, the C banding correction error ErrC (i, j) is acquired from the correction error storage unit 140, and the value c (nc) closest to the value of ErrC (i, j) is acquired from the C color string of the URC table. To do. Further, the value k (nc) stored in the same row as c (nc) in the K color string is acquired.

次に、式(25)を満足する範囲で、|(k(ny)+k(nm)+k(nc))/3−k(n)|を最小とするnを求める。最後に、求めたnを用いて、K色目標濃度値増減量Skを以下の式で算出する。 Then, in a range satisfying the equation (25), | (k ( ny) + k (nm) + k (nc)) / 3-k (n 0) | a seek n 0 minimized. Finally, with n 0 obtained, to calculate the K color target density value decrease amount Sk by the following equation.

Figure 2012177779
Figure 2012177779

以上の様に算出したK色目標濃度値増減量Skだけ、目標濃度値を増減させる。つまり、K色バンディング補正処理における目標濃度値は、以下の式で算出する。   The target density value is increased or decreased by the K color target density value increase / decrease amount Sk calculated as described above. That is, the target density value in the K-banding correction process is calculated by the following formula.

Figure 2012177779
Figure 2012177779

この処理によりK色は、本来の濃度値にSkだけ加算した濃度値で印字されるように制御される。これにより、Y色、M色、及びC色バンディング補正処理でのバンディング補正誤差を打ち消し、色むらの発生を抑制する。   By this process, the K color is controlled to be printed with a density value obtained by adding Sk to the original density value. As a result, the banding correction error in the Y color, M color, and C color banding correction processing is canceled, and the occurrence of color unevenness is suppressed.

以上説明したように、本実施例の画像形成装置は、2番目以降に実施されるM色、C色、K色バンディング補正処理において、現在の処理以前のバンディング補正処理におけるバンディング補正誤差を打ち消し、色むらの発生を抑制する。即ち、M色及びC色バンディング補正処理においては、各色を重ね合わせた画像の色相を所望の色相と同じくするように制御する。また、K色バンディング補正処理においては、各色を重ね合わせた画像の濃度を所望の濃度と同じくするように制御する。これにより、各色バンディング補正誤差により発生する色むらの少ない、良好な画像が得られる。さらに、本実施例では、4色によるカラー画像形成時の処理を示したが、これに限られず任意の色数の画像形成時に使用することができる。   As described above, the image forming apparatus according to the present exemplary embodiment cancels the banding correction error in the banding correction process before the current process in the M color, C color, and K color banding correction processes performed after the second time. Suppresses the occurrence of uneven color. That is, in the M color and C color banding correction processing, control is performed so that the hue of an image obtained by superimposing the colors is the same as the desired hue. In the K banding correction process, the density of an image in which each color is superimposed is controlled to be the same as a desired density. As a result, it is possible to obtain a good image with less color unevenness caused by each color banding correction error. Furthermore, in the present embodiment, the processing at the time of forming a color image with four colors has been shown, but the present invention is not limited to this, and can be used when an image having an arbitrary number of colors is formed.

なお、本実施例では、走査位置テーブルに各走査線の各色感光体ドラム(101Y、101M、101C、101K)表面における副走査方向の位置を格納することとしたが、これに限定されるものではない。他の例として、各色感光体ドラム(101Y、101M、101C、101K)表面における直前の走査線との副走査方向の距離を格納することとしてもよい。   In this embodiment, the position in the sub-scanning direction on the surface of each color photosensitive drum (101Y, 101M, 101C, 101K) of each scanning line is stored in the scanning position table. However, the present invention is not limited to this. Absent. As another example, the distance in the sub-scanning direction with the immediately preceding scanning line on the surface of each color photosensitive drum (101Y, 101M, 101C, 101K) may be stored.

また、本実施例では、走査位置テーブルに走査済みの全走査線の走査位置を格納することとしたが、これに限定されるものではなく、その一部の走査線についてのみ走査位置を格納してもよい。また、本実施例では、バンディング補正誤差テーブルに処理済みの全画素のバンディング補正誤差を格納することとしたが、これに限定されるものではなく、その一部の画素についてのみバンディング補正誤差を格納してもよい。また、本実施例では、走査線間隔予測処理(ステップS402Y、S402M、S402C、S402K)において、走査線間隔の全部を予測により算出したが、これに限定されるものではない。他の例として、走査線間隔の一部を予測により算出し、残りは実際に検知した間隔を用いることとしてもよい。   In this embodiment, the scanning positions of all scanned scanning lines are stored in the scanning position table. However, the present invention is not limited to this, and scanning positions are stored only for some of the scanning lines. May be. In this embodiment, the banding correction error of all processed pixels is stored in the banding correction error table. However, the present invention is not limited to this, and the banding correction error is stored only for some of the pixels. May be. In this embodiment, in the scanning line interval prediction process (steps S402Y, S402M, S402C, and S402K), the entire scanning line interval is calculated by prediction, but the present invention is not limited to this. As another example, a part of the scanning line interval may be calculated by prediction, and the remaining interval may be actually detected.

また、孤立ドットの濃度分布shを等方的であるものとして説明した。しかしshが異方的、例えば、主走査方向と副走査方向で分布が異なる場合などは、shを二次元の分布を表す関数とすることができる。その際、画素間隔予測処理(ステップS403Y、S403M、S403C、S403K)にて算出する画素間隔の予測値D^を主走査方向距離、副走査方向距離の2次元のベクトルとすることで対応可能である。また、本実施例では、補正率算出処理(ステップS406Y、S406M、S406C、S406K)において、周辺ドットは注目ドットと隣接するもののみを用いたが、これに限定されるものではなく、周囲いくつのドットを用いてもよい。   Further, the density distribution sh of the isolated dots has been described as being isotropic. However, sh is anisotropic, for example, when the distribution differs between the main scanning direction and the sub-scanning direction, sh can be a function representing a two-dimensional distribution. At that time, it is possible to cope with the pixel interval prediction value D ^ calculated in the pixel interval prediction process (steps S403Y, S403M, S403C, and S403K) as a two-dimensional vector of the main scanning direction distance and the sub-scanning direction distance. is there. In the present embodiment, in the correction factor calculation processing (steps S406Y, S406M, S406C, and S406K), only the neighboring dots that are adjacent to the target dot are used. However, the present invention is not limited to this. You may use a dot.

また、補正率算出処理(ステップS406Y、S406M、S406C、S406K)において、ドット濃度の算出は各色の補正率Ry、Rm、Rc、Rkに比例するものとしているが、これが成り立たない場合がある。その場合は、露光量とドット濃度の関係を示すルックアップテーブル(LUT)や関数などを用いることで同等の処理が可能である。
また、注目位置での予測濃度を孤立ドットの和から求めたが、こうした関係が成り立たない場合は、予め作成したLUTを用いて予測濃度や補正率を算出するなどしてもよい。
また、補正率算出処理(ステップS406Y、S406M、S406C、S406K)における式(11)において、予測濃度値は、周辺画素の露光量に補正がかかっていないものとして算出される。しかし、算出した補正率を順次記憶するなどして、以降の予測濃度値算出に反映することも可能である。
In the correction rate calculation processing (steps S406Y, S406M, S406C, and S406K), the dot density calculation is proportional to the correction rates Ry, Rm, Rc, and Rk for each color, but this may not be true. In that case, equivalent processing can be performed by using a look-up table (LUT) or a function indicating the relationship between the exposure amount and the dot density.
Further, the predicted density at the target position is obtained from the sum of the isolated dots, but when such a relationship does not hold, the predicted density and the correction rate may be calculated using a previously created LUT.
In addition, in equation (11) in the correction factor calculation process (steps S406Y, S406M, S406C, and S406K), the predicted density value is calculated assuming that the exposure amount of the peripheral pixels is not corrected. However, it is also possible to reflect the calculated correction factors in subsequent calculation of predicted density values by sequentially storing the correction factors.

また、HT画像格納部501が保持するHT画像は「0」または「1」の2値であるものとしている。HT画像が多値であり、パルス幅変調や露光強度変調等を用いて多値の露光処理を行う構成でも、本実施例と同様の処理が可能である。その場合、例として、画像データのレベル数に応じた複数の濃度分布を表す関数shを用いることで対応が可能である。さらに、パルス幅変調によりドットの重心が移動する場合は、この重心移動量を式(11)に反映させることが可能である。また、各色バンディング補正誤差算出処理(ステップS415Y、S415M、S415C、S415K)において実印字濃度値は、実際の形成画像をセンサで取得するなどの方法も考えられる。つまり、各色感光体ドラム(101Y、101M、101C、101K)に形成された静電潜像やトナー像、または中間転写ベルト110や記録材Pに転写されたトナー像をセンサで取得する方法である。   The HT image held by the HT image storage unit 501 is assumed to be a binary value of “0” or “1”. Even in a configuration in which the HT image is multi-valued and multi-value exposure processing is performed using pulse width modulation, exposure intensity modulation, or the like, the same processing as in this embodiment is possible. In this case, for example, it is possible to cope with this by using a function sh representing a plurality of density distributions corresponding to the number of levels of image data. Furthermore, when the center of gravity of the dot moves due to pulse width modulation, the amount of center of gravity movement can be reflected in equation (11). In addition, in each color banding correction error calculation process (steps S415Y, S415M, S415C, and S415K), an actual print density value may be acquired by a sensor. In other words, this is a method of acquiring, with a sensor, an electrostatic latent image or a toner image formed on each color photosensitive drum (101Y, 101M, 101C, 101K) or a toner image transferred to the intermediate transfer belt 110 or the recording material P. .

また、M色バンディング補正処理におけるM色目標濃度値増減量Smの決定方法は、例示したものに限定されない。つまり、各色を重ね合わせてできる画像の色相が所望の色相に近づくようにM色の目標濃度値を変化させる限りにおいて、Smの値は他の方法で決定してもよい。また、C色バンディング補正処理におけるC色目標濃度値増減量Scの決定方法は、例示したものに限定されない。つまり、各色を重ね合わせてできる画像の色相が所望の色相に近づくようにC色の目標濃度値を変化させる限りにおいて、Scの値は他の方法で決定してもよい。   Further, the method for determining the M color target density value increase / decrease amount Sm in the M color banding correction process is not limited to the exemplified one. That is, the value of Sm may be determined by other methods as long as the target density value of M color is changed so that the hue of the image formed by superimposing the colors approaches the desired hue. Further, the method for determining the C color target density value increase / decrease amount Sc in the C color banding correction process is not limited to the exemplified one. That is, the value of Sc may be determined by other methods as long as the target density value of C color is changed so that the hue of the image formed by superimposing the colors approaches the desired hue.

また、K色バンディング補正処理におけるK色目標濃度値増減量Skの決定方法は、例示したものに限定されない。つまり、各色を重ね合わせてできる画像の濃度が所望の濃度に近づくようにK色の目標濃度値を変化させる限りにおいて、Skの値は他の方法で決定してもよい。
[実施例2]
実施例1では、副走査方向の走査位置ずれに応じて露光量を変調する構成について説明した。本実施例では、副走査方向の走査位置ずれに加えて、主走査方向の走査位置ずれ(以下、ジッタずれという)にも対応して露光量を変調する構成について説明する。一般に、画像形成装置では、ポリゴンミラーの各面の精度等によりジッタずれが発生する場合がある。
Further, the method for determining the K color target density value increase / decrease amount Sk in the K color banding correction process is not limited to the exemplified one. That is, as long as the target density value of K color is changed so that the density of the image formed by superimposing the colors approaches the desired density, the value of Sk may be determined by another method.
[Example 2]
In the first embodiment, the configuration in which the exposure amount is modulated according to the scanning position shift in the sub-scanning direction has been described. In this embodiment, a description will be given of a configuration that modulates the exposure amount in response to a scanning position shift in the main scanning direction (hereinafter referred to as jitter shift) in addition to a scanning position shift in the sub-scanning direction. In general, in an image forming apparatus, jitter deviation may occur due to the accuracy of each surface of a polygon mirror.

図15は、ポリゴンミラー精度と主走査方向の走査位置の関係を示す模式図である。図15(a)は、ポリゴンミラー精度に誤差が無い場合のポリゴンミラーと走査位置の模式図である。図15(b)に示すポリゴンミラーは、6つの面のうち面1と面4に傾きを持っている。この際、面1と面4により走査される走査線は主走査方向にExの変動が発生する。   FIG. 15 is a schematic diagram showing the relationship between the polygon mirror accuracy and the scanning position in the main scanning direction. FIG. 15A is a schematic diagram of a polygon mirror and a scanning position when there is no error in polygon mirror accuracy. The polygon mirror shown in FIG. 15B has an inclination in the surface 1 and the surface 4 among the six surfaces. At this time, the variation in Ex occurs in the main scanning direction for the scanning lines scanned by the surface 1 and the surface 4.

本実施例に示す画像形成装置の基本的な構成と処理は実施例1と同様であるため、相違点のみを説明する。本実施例における画像形成装置は、実施例1と比較して、画素間隔予測処理(ステップS403Y、S403M、S403C、S403K)、及び、画素間隔算出処理(ステップS412Y、S412M、S412C、S412K)の2点で異なる。走査位置格納部504Yは、各走査線における主走査方向の位置変動量Exを予め取得し、保持している。   Since the basic configuration and processing of the image forming apparatus shown in the present embodiment are the same as those in the first embodiment, only differences will be described. Compared with the first embodiment, the image forming apparatus according to the present embodiment has two pixel interval prediction processes (steps S403Y, S403M, S403C, and S403K) and a pixel interval calculation process (steps S412Y, S412M, S412C, and S412K). It is different in point. The scanning position storage unit 504Y previously acquires and holds the position fluctuation amount Ex in the main scanning direction for each scanning line.

画素間隔予測処理(ステップS403Y、S403M、S403C、S403K)において、画素(i,j)と周辺の画素(i+k,j+l)との間隔の予測値D^を、以下の式で算出する。   In the pixel interval prediction process (steps S403Y, S403M, S403C, and S403K), the predicted value D ^ of the interval between the pixel (i, j) and the surrounding pixel (i + k, j + l) is calculated by the following equation.

Figure 2012177779
Figure 2012177779

画素間隔算出処理(ステップS412Y、S412M、S412C、S412K)において、画素(i,j)と周辺の画素(i+k,j+l)との間隔Dを、以下の式で算出する。   In the pixel interval calculation process (steps S412Y, S412M, S412C, and S412K), the interval D between the pixel (i, j) and the surrounding pixels (i + k, j + l) is calculated by the following equation.

Figure 2012177779
Figure 2012177779

式(30)と式(31)では、現在の走査線のジッタずれと周辺の走査線のジッタずれを考慮することにより、より正確な画素間隔(の予測値)を算出することが可能となり、精度の良いバンディング補正を行うことができる。   In Expression (30) and Expression (31), it is possible to calculate a more accurate pixel interval (predicted value thereof) by considering the jitter deviation of the current scanning line and the jitter deviation of the surrounding scanning lines. Accurate banding correction can be performed.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.

Claims (6)

入力画像データに応じた画素ごとの露光量で感光体表面を走査することにより露光する露光手段により、感光体表面に複数の潜像を重ねて形成し画像を形成する画像形成装置であって、
前記露光手段に設けられ、前記露光のため走査された走査位置を算出する走査位置算出手段と、
前記走査位置から前記露光のため走査する際の画素間隔の予測値を算出する画素間隔予測手段と、
前記入力画像データから、印字する画素ごとの周辺の画素パターンを取得する画素パターン取得手段と、
前記画素間隔の予測値と前記画素パターンとから対象となる画素に対する前記入力画像データに応じた画素ごとの露光量を補正する露光量補正手段と、
前記走査位置算出手段により算出された走査位置により算出された露光量と、前記露光量補正手段により補正された露光量との補正誤差を算出する補正誤差算出手段と
を備えたことを特徴とする画像形成装置。
An image forming apparatus that forms an image by forming a plurality of latent images on a surface of a photoconductor by an exposure unit that exposes the photoconductor by scanning the surface of the photoconductor with an exposure amount for each pixel according to input image data,
A scanning position calculating means provided in the exposure means for calculating a scanning position scanned for the exposure;
Pixel interval prediction means for calculating a predicted value of the pixel interval when scanning for the exposure from the scanning position;
Pixel pattern acquisition means for acquiring a peripheral pixel pattern for each pixel to be printed from the input image data;
Exposure amount correction means for correcting an exposure amount for each pixel corresponding to the input image data for a target pixel from the predicted value of the pixel interval and the pixel pattern;
And a correction error calculation unit that calculates a correction error between the exposure amount calculated by the scanning position calculated by the scanning position calculation unit and the exposure amount corrected by the exposure amount correction unit. Image forming apparatus.
前記露光手段により2番目以降に処理する露光手段の一部又は全部の露光量の補正は、当該2番目以降に処理の以前に処理する露光手段の補正誤差を減らすように実行することを特徴とする請求項1に記載の画像形成装置。   The correction of the exposure amount of a part or all of the exposure means processed after the second by the exposure means is executed so as to reduce the correction error of the exposure means processed before the second and subsequent processes. The image forming apparatus according to claim 1. 前記露光手段により2番目以降に処理する露光手段の一部又は全部の露光量の補正は、当該2番目以降に処理の以前に処理する露光手段の補正誤差により発生する形成画像の色相の変化を抑制するよう実行されることを特徴とする請求項1または2に記載の画像形成装置。   The correction of the exposure amount of a part or all of the exposure means processed after the second by the exposure means is performed by changing the hue of the formed image caused by the correction error of the exposure means processed before the second and subsequent processes. The image forming apparatus according to claim 1, wherein the image forming apparatus is executed to suppress the image forming apparatus. 前記形成画像の色相の変化の抑制は、前記補正誤差による色相の変化を、下色除去変換により2番目以降に処理する露光手段の一部又は全部の露光量の補正で打ち消して実行されることを特徴とする請求項3に記載の画像形成装置。   Suppression of the hue change of the formed image is executed by canceling the hue change due to the correction error by correcting the exposure amount of a part or all of the exposure means that processes the second and subsequent processes by undercolor removal conversion. The image forming apparatus according to claim 3. 前記露光手段により2番目以降に処理する露光手段の一部又は全部の露光量の補正は、当該2番目以降に処理の以前に処理する露光手段の補正誤差により発生する形成画像の濃度の変化を抑制するよう実行されることを特徴とする請求項1乃至4のいずれかに記載の画像形成装置。   The correction of the exposure amount of a part or all of the exposure unit processed after the second by the exposure unit is performed by changing the density of the formed image caused by the correction error of the exposure unit processed before the second and subsequent processing. The image forming apparatus according to claim 1, wherein the image forming apparatus is executed to suppress the image forming apparatus. 入力画像データに応じた画素ごとの露光量で感光体表面を走査することにより露光する露光ステップにより、感光体表面に複数の潜像を重ねて形成し画像を形成する画像形成方法であって、
前記露光ステップの露光のため走査された走査位置を算出する走査位置算出ステップと、
前記走査位置から前記露光のため走査する際の画素間隔の予測値を算出する画素間隔予測ステップと、
前記入力画像データから、印字する画素ごとの周辺の画素パターンを取得する画素パターン取得ステップと、
前記画素間隔の予測値と前記画素パターンとから対象となる画素に対する前記入力画像データに応じた画素ごとの露光量を補正する露光量補正ステップと、
前記走査位置算出ステップにおいて算出された走査位置により算出された露光量と、前記露光量補正ステップにおいて補正された露光量との補正誤差を算出する補正誤差算出ステップと
を備えたことを特徴とする画像形成方法。
An image forming method for forming an image by superposing a plurality of latent images on a surface of a photoconductor by an exposure step of performing exposure by scanning the surface of the photoconductor with an exposure amount for each pixel according to input image data,
A scanning position calculating step for calculating a scanning position scanned for exposure in the exposure step;
A pixel interval prediction step of calculating a predicted value of the pixel interval when scanning for the exposure from the scanning position;
A pixel pattern acquisition step of acquiring a peripheral pixel pattern for each pixel to be printed from the input image data;
An exposure amount correction step of correcting an exposure amount for each pixel corresponding to the input image data for a target pixel from the predicted value of the pixel interval and the pixel pattern;
A correction error calculating step for calculating a correction error between the exposure amount calculated by the scanning position calculated in the scanning position calculating step and the exposure amount corrected in the exposure amount correcting step. Image forming method.
JP2011040214A 2011-02-25 2011-02-25 Image forming apparatus and method Withdrawn JP2012177779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040214A JP2012177779A (en) 2011-02-25 2011-02-25 Image forming apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040214A JP2012177779A (en) 2011-02-25 2011-02-25 Image forming apparatus and method

Publications (1)

Publication Number Publication Date
JP2012177779A true JP2012177779A (en) 2012-09-13

Family

ID=46979666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040214A Withdrawn JP2012177779A (en) 2011-02-25 2011-02-25 Image forming apparatus and method

Country Status (1)

Country Link
JP (1) JP2012177779A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255834A (en) * 2011-06-07 2012-12-27 Canon Inc Image processing apparatus and method for controlling the same
JP2012255833A (en) * 2011-06-07 2012-12-27 Canon Inc Image forming apparatus and method for controlling the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255834A (en) * 2011-06-07 2012-12-27 Canon Inc Image processing apparatus and method for controlling the same
JP2012255833A (en) * 2011-06-07 2012-12-27 Canon Inc Image forming apparatus and method for controlling the same

Similar Documents

Publication Publication Date Title
JP2016133721A (en) Image processing apparatus, image processing method, and program
JP2012098622A (en) Image processing apparatus and method thereof
US9588472B2 (en) Image formation apparatus and image formation method
JP2009163103A (en) Image forming apparatus and image forming method
JP5825862B2 (en) Image processing apparatus and control method thereof
JP4411339B2 (en) Color image forming apparatus and control method thereof
JP5643612B2 (en) Image processing apparatus and method
US7266317B2 (en) Image forming apparatus and positional deviation correction system
JP2012177779A (en) Image forming apparatus and method
JP5511244B2 (en) Image forming apparatus
CN104238307B (en) Image Forming Apparatus
JP5142636B2 (en) Color image forming apparatus
JP2004179768A (en) Image processing apparatus, and image forming apparatus
JP4533222B2 (en) Color image forming apparatus and control method thereof
JP4939660B2 (en) Image forming apparatus and control method thereof
JP4926412B2 (en) Image processing apparatus, control method therefor, and program
JP2007006204A (en) Image forming device
JP4898292B2 (en) Image forming apparatus, image forming method, and program
JP5613019B2 (en) Image forming apparatus, control method thereof, and program
JP4950562B2 (en) Color image forming apparatus and control method thereof
JP4135750B2 (en) Image forming apparatus
JP4710287B2 (en) Image forming apparatus
JP4832150B2 (en) Image correction method and image forming apparatus
JP2009145847A (en) Image forming apparatus
JP2017219758A (en) Image forming apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513