JP2010068464A - Image processing apparatus, image processing method, and imaging apparatus - Google Patents
Image processing apparatus, image processing method, and imaging apparatus Download PDFInfo
- Publication number
- JP2010068464A JP2010068464A JP2008235485A JP2008235485A JP2010068464A JP 2010068464 A JP2010068464 A JP 2010068464A JP 2008235485 A JP2008235485 A JP 2008235485A JP 2008235485 A JP2008235485 A JP 2008235485A JP 2010068464 A JP2010068464 A JP 2010068464A
- Authority
- JP
- Japan
- Prior art keywords
- color
- color blur
- pixel
- image
- blur
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
【課題】被写体のカラーグラデーションを色滲みと誤判定して被写体の本来の色成分が除去されることを回避する。
【解決手段】画像処理装置150は、撮像装置100により得られたカラー原画像における強度傾斜を算出する傾斜演算部S102と、強度傾斜の変化の態様を表す情報に基づいて、原画像における色滲み画素と被写体テクスチャ画素とを判別する判別部S103,S104と、強度傾斜に基づいて色滲み画素における色滲み推定量を算出し、色滲み画素に対して色滲み推定量を用いた色滲み低減処理を行う処理部S152〜S155とを有する。
【選択図】図1An object of the present invention is to prevent a color gradation of a subject from being erroneously determined as color blur and removing an original color component of the subject.
An image processing apparatus includes: a gradient calculating unit that calculates an intensity gradient in a color original image obtained by an imaging apparatus; and color blur in an original image based on information representing a change aspect of the intensity gradient. Color blur reduction processing using the color blur estimated amount for the color blur pixel by determining the color blur estimated amount in the color blur pixel based on the intensity gradient, and the determination units S103 and S104 that determine the pixel and the subject texture pixel And processing units S152 to S155.
[Selection] Figure 1
Description
本発明は、撮像により得られたカラー画像に含まれる色滲みを低減する画像処理技術に関する。 The present invention relates to an image processing technique for reducing color blur included in a color image obtained by imaging.
撮像により得られたカラー画像のうち高輝度部分の周囲には、結像光学系(撮像光学系)の色収差に起因して、本来存在しない色が色滲みとして生じる場合がある。色滲みは、結像光学系の中心波長から離れた波長領域で生じやすく、例えば、可視光カラー撮像では、青や赤、又は双方が混ざった紫色のアーチファクトが滲み状に生じる。特に紫色に対する色滲みは、パープルフリンジとも呼ばれる。 Colors that do not originally exist may occur as color blurs around the high-luminance portion of the color image obtained by imaging due to chromatic aberration of the imaging optical system (imaging optical system). Color blur is likely to occur in a wavelength region away from the center wavelength of the imaging optical system. For example, in visible light color imaging, blue, red, or a purple artifact that is a mixture of both occurs in a blur shape. The color blur especially for purple is also called purple fringe.
結像光学系の色収差は、異なる分散を持つレンズを複数組み合わせることにより、ある程度光学的に抑えることができる。ただし、撮像センサの高解像度化と光学系の小型化とに伴い、色収差を光学系のみで十分に抑えることが困難になってきている。このため、画像処理による色滲みの低減が求められている。 The chromatic aberration of the imaging optical system can be optically suppressed to some extent by combining a plurality of lenses having different dispersions. However, as the resolution of the image sensor increases and the optical system becomes smaller, it has become difficult to sufficiently suppress chromatic aberration with the optical system alone. For this reason, reduction of color blur by image processing is required.
色収差は、横色収差(倍率色収差)と縦色収差(軸上色収差)とに大別される。特許文献1には、縦色収差による色滲み量を推定し、該推定量を原画像から減算することで、色滲みを低減する画像処理方法が開示されている。この画像処理方法では、画像強度(輝度)の空間的傾斜を算出し、該傾斜度によって色滲みか否かを判定する。この判定では、例えばRプレーンに対しては、 Chromatic aberration is roughly classified into lateral chromatic aberration (magnification chromatic aberration) and longitudinal chromatic aberration (axial chromatic aberration). Patent Document 1 discloses an image processing method for reducing color blur by estimating a color blur amount due to longitudinal chromatic aberration and subtracting the estimated amount from an original image. In this image processing method, a spatial gradient of image intensity (luminance) is calculated, and it is determined whether or not color bleeding is caused by the gradient. In this determination, for example, for the R plane,
のように、注目画素に隣接する2画素について縦横方向に計4画素での差分を算出する。 As described above, the difference between the four pixels in the vertical and horizontal directions is calculated for the two pixels adjacent to the target pixel.
図6、図7及び図8を用いて、特許文献1での色滲みの推定方法を簡単に説明する。図6は、高輝度光源を含む撮影画像の例を示す。該撮影画像内には、高輝度光源として高圧ナトリウムランプ等の道路照明(高輝度光源)が含まれ、その周辺に縦色収差による色滲み1001が発生している。 The color blur estimation method in Patent Document 1 will be briefly described with reference to FIGS. FIG. 6 shows an example of a photographed image including a high brightness light source. The photographed image includes road illumination (high luminance light source) such as a high pressure sodium lamp as a high luminance light source, and a color blur 1001 due to longitudinal chromatic aberration is generated in the vicinity thereof.
図7には、撮影画像における高輝度光源(被写体)とその周辺に形成される輝度飽和領域及び色滲み領域を模式的に示している。撮像センサは、飽和レベル以上の強度を測定できないため、高輝度の被写体より一回り大きなGとBの飽和した白飽和領域が形成される。そして、白飽和領域の周囲に、Bが飽和してGが減衰していくB飽和領域と、BとGがともに減衰する水色滲み領域と、Gが消えてBのみが強度を持つ真っ青滲み領域とが形成される。 FIG. 7 schematically shows a high-intensity light source (subject) in a captured image, and a luminance saturation region and a color blur region formed around the light source. Since the imaging sensor cannot measure the intensity above the saturation level, a white saturated region in which G and B are saturated, which is slightly larger than a high-luminance subject, is formed. Then, around the white saturated region, a B saturated region where B is saturated and G attenuates, a light blue blur region where both B and G attenuate, and a deep blue blur region where G disappears and only B has intensity And are formed.
このうち、青飽和領域、水色滲み領域及び真っ青滲み領域での青の色滲みが不自然に感じられる。 Among these, the blue color blur in the blue saturated region, the light blue blur region, and the pure blue blur region is unnaturally felt.
図8には、図7における被写体の中心を通る断面での画像強度プロファイルを示している。縦軸は強度であり、横軸は座標(画素位置)である。特許文献1では、図8の画像強度プロファイルに∇Bで示されるBプレーンでの強度傾斜(輝度傾斜)を算出し、色滲み量を推定する。
しかしながら、特許文献1にて開示された画像処理方法では、例えば青色のグラデーションを有する被写体(青色に装飾照明された建物の壁面や夜空等)が画像に含まれる場合に、この被写体の青グラデーションを色滲みと誤判定する可能性がある。この場合、本来残すべき被写体の青色成分が除去されてしまう。 However, in the image processing method disclosed in Patent Document 1, for example, when an object having a blue gradation (such as a wall surface of a building or a night sky illuminated in blue) is included in the image, the blue gradation of the object is displayed. There is a possibility of misjudgment as color bleeding. In this case, the blue component of the subject that should be left is removed.
このことについて、図9及び図10を用いて簡単に説明する。図9は、夜空を撮像した撮影画像の例を示している。地平線の近傍から天上へと徐々に暗くなる青色のグラデーション(被写体のグラデーションテクスチャ)1301〜1306が存在する。図10は、図9に示した撮影画像中の破線での断面における画像強度プロファイルを示している。縦軸は強度であり、横軸は座標(画素位置)である。図10では、被写体の青色グラデーションに対応して、GとBの強度が傾斜を有している。 This will be briefly described with reference to FIGS. FIG. 9 shows an example of a captured image obtained by imaging the night sky. There are blue gradations (subject gradation textures) 1301 to 1306 that gradually darken from the vicinity of the horizon to the top. FIG. 10 shows an image intensity profile in a cross section taken along a broken line in the captured image shown in FIG. The vertical axis represents intensity, and the horizontal axis represents coordinates (pixel position). In FIG. 10, the intensity of G and B has a slope corresponding to the blue gradation of the subject.
このような画像に対して強度傾斜∇Bを算出すると、図8に示した青の色滲みによる強度傾斜∇Bとほとんど同じ値となり、互いの区別がつかない。したがって、被写体の青色成分を青の色滲みと推定してしまい、撮影画像から除去してしまう。 When the intensity gradient wrinkle B is calculated for such an image, it becomes almost the same value as the intensity gradient wrinkle B caused by the blue color blur shown in FIG. 8, and cannot be distinguished from each other. Therefore, the blue component of the subject is estimated as blue color blur and is removed from the captured image.
本発明は、被写体のカラーグラデーションを色滲みと誤判定して被写体の本来の色成分が除去されることを回避できるようにした画像処理装置、画像処理方法及び撮像装置を提供する。 The present invention provides an image processing apparatus, an image processing method, and an imaging apparatus that can prevent a color gradation of a subject from being erroneously determined as color blur and removing an original color component of the subject.
本発明の一側面しての画像処理装置は、撮像装置により得られたカラー原画像における強度傾斜を算出する傾斜演算部と、強度傾斜の変化の態様を表す情報に基づいて、原画像における色滲み画素と被写体テクスチャ画素とを判別する判別部と、強度傾斜に基づいて色滲み画素における色滲み推定量を算出し、色滲み画素に対して色滲み推定量を用いた色滲み低減処理を行う処理部とを有することを特徴とする。 An image processing apparatus according to one aspect of the present invention includes a gradient calculation unit that calculates an intensity gradient in a color original image obtained by an imaging apparatus, and a color in the original image based on information representing a change aspect of the intensity gradient. A discrimination unit that discriminates between a blur pixel and a subject texture pixel, calculates a color blur estimation amount in the color blur pixel based on the intensity gradient, and performs color blur reduction processing using the color blur estimation amount for the color blur pixel. And a processing unit.
また、本発明の他の一側面としての画像処理方法は、撮像装置により得られたカラー原画像における強度傾斜を算出するステップと、強度傾斜の変化の態様を表す情報に基づいて、原画像における色滲み画素と被写体テクスチャ画素とを判別するステップと、強度傾斜に基づいて色滲み画素における色滲み推定量を算出し、色滲み画素に対して色滲み推定量を用いた色滲み低減処理を行うステップとを有することを特徴とする。 According to another aspect of the present invention, there is provided an image processing method, comprising: calculating an intensity gradient in a color original image obtained by an imaging apparatus; and information representing an aspect of a change in intensity gradient in an original image. The step of discriminating between the color blur pixel and the subject texture pixel, the color blur estimation amount in the color blur pixel is calculated based on the intensity gradient, and the color blur reduction process using the color blur estimation amount is performed on the color blur pixel. And a step.
なお、上記画像処理装置と、カラー原画像を得る撮像系とを有する撮像装置も本発明の他の一側面を構成する。 Note that an imaging apparatus having the image processing apparatus and an imaging system for obtaining a color original image also constitutes another aspect of the present invention.
本発明によれば、原画像に含まれる色滲み画素と被写体テクスチャ画素とを判別することができるので、被写体の本来の色成分が誤って除去されることを回避しつつ、色滲みを低減することができる。 According to the present invention, it is possible to discriminate between color blur pixels and subject texture pixels included in the original image, so that the color blur is reduced while avoiding accidental removal of the original color components of the subject. be able to.
以下、本発明の好ましい実施例について図面を参照しながら説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1には、本発明の実施例である画像処理装置を有する又は画像処理方法を使用するカラー撮像装置100を示す。 FIG. 1 shows a color imaging apparatus 100 having an image processing apparatus or using an image processing method according to an embodiment of the present invention.
カラー撮像装置100は、結像光学系110と、イメージセンサ120と、AD変換部130と、デモザイク部140と、色滲み除去部150とを有する。これら結像光学系110、イメージセンサ120、AD変換部130及びデモザイク部140により撮像装置100における撮像系が構成される。 The color imaging apparatus 100 includes an imaging optical system 110, an image sensor 120, an AD conversion unit 130, a demosaic unit 140, and a color blur removal unit 150. The imaging optical system 110, the image sensor 120, the AD conversion unit 130, and the demosaic unit 140 constitute an imaging system in the imaging apparatus 100.
また、撮像装置100は、視覚補正部160と、圧縮部170と、記録部180とを有する。 In addition, the imaging apparatus 100 includes a visual correction unit 160, a compression unit 170, and a recording unit 180.
なお、図1中に示した写野90(撮像領域、被写体)及びR(赤)光線91,G(緑)光線92,B(青)光線93はカラー撮像装置100の構成要素ではないが、説明のため図示する。 The field 90 (imaging area, subject) and the R (red) light ray 91, the G (green) light ray 92, and the B (blue) light ray 93 shown in FIG. 1 are not components of the color imaging device 100. Illustrated for illustrative purposes.
図1において、撮像された写野90は、結像光学系110を経てイメージセンサ120上に結像する。一般に、カラー撮像装置に装着される結像光学系は、一定の色収差補正が施されている。本実施例の結像光学系110は、RとGの波長域の縦色収差が良好に補正され、Bの波長域の縦色収差が残存している。このようにBの波長域の縦色収差の補正基準を下げることにより、その他の収差補正を改善したり、撮像装置を小型化したりすることが可能となる。 In FIG. 1, the captured field 90 is imaged on the image sensor 120 via the imaging optical system 110. In general, an image forming optical system attached to a color imaging apparatus is subjected to a certain chromatic aberration correction. In the imaging optical system 110 of the present embodiment, the longitudinal chromatic aberration in the R and G wavelength regions is well corrected, and the longitudinal chromatic aberration in the B wavelength region remains. Thus, by lowering the correction standard for longitudinal chromatic aberration in the B wavelength region, other aberration corrections can be improved, and the imaging apparatus can be downsized.
イメージセンサ120は、一般的な原色系カラーフィルタを備える単板カラーイメージセンサである。原色系カラーフィルタはそれぞれ、650nm,550nm,450nmの近傍に透過主波長帯を持つ3種類のカラーフィルタにより構成されており、それぞれR,G,Bの各バンドに対応する色プレーンを撮像する。 The image sensor 120 is a single plate color image sensor including a general primary color filter. Each primary color filter is composed of three types of color filters having a transmission main wavelength band in the vicinity of 650 nm, 550 nm, and 450 nm, and images color planes corresponding to the R, G, and B bands, respectively.
単板カラーイメージセンサでは、これらのカラーフィルタを画素毎に空間的に配列し、各画素に対しては単一の色プレーンにおける強度を得ることしかできない。このためイメージセンサ120からは色モザイク画像が出力される。 In a single-plate color image sensor, these color filters are spatially arranged for each pixel, and the intensity in a single color plane can only be obtained for each pixel. Therefore, a color mosaic image is output from the image sensor 120.
なお、不図示の色分解プリズムを用いて入射光をR,G,Bの波長域に分け、それぞれの波長の光を別々のイメージセンサで撮像する3板式カラーイメージセンサを用いてもよい。この場合、デモザイク部140は不要となる。 A three-plate color image sensor that divides incident light into R, G, and B wavelength regions using a color separation prism (not shown) and picks up light of each wavelength with separate image sensors may be used. In this case, the demosaic unit 140 is not necessary.
AD変換部130は、イメージセンサ120からアナログ電圧として出力される色モザイク画像を、これ以降の画像処理に適したデジタルデータに変換する。 The AD conversion unit 130 converts the color mosaic image output as an analog voltage from the image sensor 120 into digital data suitable for subsequent image processing.
デモザイク部140は、色モザイク画像を補間することによって、全ての画素がRGBの色情報を有するカラー画像を生成する。なお、この補間手法には単純な線形補間から、 E. Chang, S. Cheung, and D. Pan, “Color filter array recovery using a threshold-based variable number of gradients.” Proc. SPIE, vol. 3650, pp. 36-43, Jan.1999.にて紹介されている複雑な手法まで多くの手法が提案されている。本実施例における補間手法はこれら又はこれら以外のいずれでもよい。 The demosaic unit 140 generates a color image in which all pixels have RGB color information by interpolating the color mosaic image. Note that this interpolation method can be based on simple linear interpolation, E. Chang, S. Cheung, and D. Pan, “Color filter array recovery using a threshold-based variable number of gradients.” Proc. SPIE, vol. 3650, Many methods have been proposed up to the complicated method introduced in pp. 36-43, Jan.1999. The interpolation method in this embodiment may be any of these or other methods.
なお、本実施例では、イメージセンサ120のカラーフィルタをR,G,Bからなる原色系とするが、補色系カラーフィルタとしてもよい。この場合、色変換処理によって、R,G,Bの色プレーンからなるカラー画像が得られる。 In this embodiment, the color filter of the image sensor 120 is a primary color system composed of R, G, and B, but may be a complementary color system color filter. In this case, a color image including R, G, and B color planes is obtained by the color conversion process.
デモザイク部140で生成されたカラー画像におけるBプレーン(青プレーン)の解像度は、結像光学系110の色収差によって、Gプレーン(緑プレーン)やRプレーン(赤プレーン)に比べて劣っている。このため、図8に示すように、Gプレーンの像よりもBプレーンの像がぼやけ、図7に示すように明部である被写体の周囲に青系の色滲み(B飽和、水色滲み及び真っ青滲み)が生じる。 The resolution of the B plane (blue plane) in the color image generated by the demosaic unit 140 is inferior to the G plane (green plane) and the R plane (red plane) due to the chromatic aberration of the imaging optical system 110. For this reason, as shown in FIG. 8, the image of the B plane is blurred rather than the image of the G plane, and as shown in FIG. 7, a blue color blur (B saturation, light blue blur, and deep blue) is generated around the bright subject. Bleeding) occurs.
色滲み除去部150は、カラー画像からこのような色滲みを除去(低減)する。色滲み除去部150での色滲み除去処理(色滲み低減処理)については、後で詳しく説明する。 The color blur removal unit 150 removes (reduces) such color blur from the color image. The color blur removal process (color blur reduction process) in the color blur removal unit 150 will be described in detail later.
視覚補正部160は、主として画像の見栄えを改善するように色滲みが除去(低減)されたカラー画像を処理する。例えば、トーンカーブ(ガンマ)補正、彩度強調、色相補正、エッジ強調といった画像処理を行う。 The visual correction unit 160 mainly processes a color image from which color blur has been removed (reduced) so as to improve the appearance of the image. For example, image processing such as tone curve (gamma) correction, saturation enhancement, hue correction, and edge enhancement is performed.
処理の最後として、圧縮部170は、補正されたカラー画像をJPEG等の方法で画像圧縮を行い、記録時のサイズを小さくする。 At the end of the processing, the compression unit 170 compresses the corrected color image by a method such as JPEG, and reduces the size at the time of recording.
圧縮処理が行われたカラー画像は、記録部180にて、ハードディスク、DVD、磁気テープ、フラッシュメモリ等の記録媒体に記録される
これらイメージセンサ120から記録部180までの処理部は、実際にはそれぞれ別々のデバイスによって構成されてもよいし、単一のマイクロプロセッサ上に構成されてもよい。
The compressed color image is recorded on a recording medium such as a hard disk, a DVD, a magnetic tape, or a flash memory by the recording unit 180. The processing units from the image sensor 120 to the recording unit 180 are actually Each may be constituted by a separate device, or may be constituted on a single microprocessor.
次に、画像処理装置としての色滲み除去部150での処理(画像処理方法)を図2のフローチャートを用いて説明する。色滲み除去部150での処理は、空間演算ステップS151と、推定ステップS152と、領域判定ステップS153と、過除去抑止ステップS154と、除去ステップS155とを含む。該処理は、コンピュータプログラムにより実行される。 Next, processing (image processing method) in the color blur removal unit 150 as an image processing apparatus will be described with reference to the flowchart of FIG. The processing in the color blur removal unit 150 includes a space calculation step S151, an estimation step S152, an area determination step S153, an overremoval suppression step S154, and a removal step S155. This process is executed by a computer program.
ここで、上記ステップS151〜S155は、色滲み除去部150の構成と考えることもできる。すなわち、空間演算ステップS151は、後述する傾斜演算部、曲率演算部及び判別部を構成し、推定ステップS152、領域判定ステップS153、過除去抑止ステップS154及び除去ステップS155は処理部を構成する。 Here, steps S <b> 151 to S <b> 155 can be considered as the configuration of the color blur removal unit 150. That is, the space calculation step S151 constitutes an inclination calculation unit, a curvature calculation unit, and a determination unit, which will be described later, and the estimation step S152, the region determination step S153, the excessive removal suppression step S154, and the removal step S155 constitute a processing unit.
本実施例では、Bプレーンを色滲み除去の対象となる色プレーンとし、Gプレーンを色滲み除去において参照する基準プレーンとする。ただし、GプレーンやRプレーンに対しても同様に色滲み除去を行うことができる。 In this embodiment, the B plane is a color plane that is a target of color blur removal, and the G plane is a reference plane that is referred to in color blur removal. However, color blur removal can be similarly performed for the G plane and the R plane.
撮像装置100のシャッターボタンが押されることに応じて生成されたカラー画像としての入力画像(カラー原画像:以下、単に原画像という)は、空間演算ステップS151に入力される。 An input image (color original image: hereinafter simply referred to as an original image) generated as a color image generated when the shutter button of the imaging apparatus 100 is pressed is input to the space calculation step S151.
空間演算ステップS151は、図3に示すように、原画像の強度傾斜を算出する傾斜演算ステップS102と、強度傾斜の変化の態様(仕方)を表す情報である、強度傾斜の曲率(以下、強度曲率という)を演算する曲率演算ステップS103とを有する。また、該ステップS151は、傾斜演算ステップS102で得られた強度傾斜と曲率演算ステップS103で得られた強度曲率とに基づいて、原画像における注目画素が色滲みを表す画素か被写体テクスチャを表す画素かを判別する判別ステップS104を有する。 As shown in FIG. 3, the space calculation step S151 includes an inclination calculation step S102 for calculating the intensity gradient of the original image and an intensity gradient curvature (hereinafter referred to as intensity), which is information indicating a change mode (how) of the intensity gradient Curvature calculation step S103 for calculating the curvature). Further, in step S151, based on the intensity gradient obtained in the gradient calculation step S102 and the intensity curvature obtained in the curvature calculation step S103, the pixel of interest in the original image is a pixel representing color blur or a pixel representing subject texture. And determining step S104 for determining whether or not.
なお、上記ステップS102〜S104は、色滲み除去部150の構成と考えることもできる。この場合、傾斜演算ステップS102により前述した傾斜演算部が構成され、曲率演算ステップS103により曲率演算部が構成される。また、判別ステップS104により、判別部が構成される。 Note that steps S102 to S104 can be considered as the configuration of the color blur removal unit 150. In this case, the inclination calculation unit is configured by the inclination calculation step S102, and the curvature calculation unit is configured by the curvature calculation step S103. In addition, a determination unit is configured by the determination step S104.
傾斜演算ステップS102では、原画像におけるBプレーン及びGプレーンでの強度傾斜(輝度傾斜)∇B,∇Gを算出する。具体的には、図4に示す1次微分(グラディエント)フィルタ201,202を、注目画像とこれにx方向(水平方向)及びy方向(垂直方向)にて隣接する2画素の計3画素に適用して∇B,∇Gを算出する。∇B,∇Gの値は、 In the inclination calculation step S102, intensity gradients (luminance gradients) ∇B and ∇G in the B plane and the G plane in the original image are calculated. Specifically, the first-order differential (gradient) filters 201 and 202 shown in FIG. 4 are applied to the image of interest and two pixels adjacent to this in the x direction (horizontal direction) and the y direction (vertical direction). Apply to calculate ∇B, ∇G. The values of ∇B and ∇G are
として表すことができる。 Can be expressed as
ここで、
G(x+1,y)とB(x+1,y)はそれぞれ、G及びBプレーンにおける注目画素の右隣の画素の値である。
here,
G (x + 1, y) and B (x + 1, y) are the values of the pixels immediately to the right of the pixel of interest in the G and B planes, respectively.
G(x−1,y)とB(x−1,y)はそれぞれ、G及びBプレーンにおける注目画素の左隣の画素の値である。 G (x-1, y) and B (x-1, y) are the values of the pixels adjacent to the left of the pixel of interest in the G and B planes, respectively.
G(x,y+1)とB(x,y+1)はそれぞれ、G及びBプレーンにおける注目画素の下隣の画素の値である。 G (x, y + 1) and B (x, y + 1) are values of pixels below the pixel of interest in the G and B planes, respectively.
G(x,y−1)とB(x,y−1)はそれぞれ、G及びBプレーンにおける注目画素の上隣の画素の値である。 G (x, y-1) and B (x, y-1) are the values of the pixels adjacent to the target pixel in the G and B planes, respectively.
一方、曲率演算ステップS103では、原画像におけるBプレーンでの強度曲率ΔBを算出する。具体的には、図5に示す2次微分(ラプラシアン)フィルタ301,302を、注目画像とこれにx方向及びy方向にて隣接する2画素の計3画素に適用してΔBを算出する。ΔBの値は、 On the other hand, in the curvature calculation step S103, the intensity curvature ΔB at the B plane in the original image is calculated. Specifically, the second-order differential (Laplacian) filters 301 and 302 shown in FIG. 5 are applied to the image of interest and two pixels adjacent to this in the x direction and the y direction to calculate ΔB. The value of ΔB is
として表すことができる。 Can be expressed as
判別ステップS104は、上記のように算出された∇B,ΔBと、以下の論理式とに基づいて、注目画素が色滲みを表す画素(以下、色滲み画素という)か被写体テクスチャを表す画素(以下、被写体テクスチャ画素という)かを判別(判定)する。なお、∇B,ΔBに付されたxとyはそれぞれ、x方向とy方向を示している。 In the determination step S104, the pixel of interest represents a color blur (hereinafter referred to as a color blur pixel) or a pixel representing a subject texture (hereinafter referred to as a color blur pixel) based on ∇B and ΔB calculated as described above and the following logical expression. Hereinafter, it is determined (determined). In addition, x and y attached | subjected to を B and (DELTA) B have each shown the x direction and the y direction.
(論理式)
(∇Bx≠0かつΔBx<0)又は(∇By≠0かつΔBy<0):色滲み画素
それ以外:被写体テクスチャ画素
判別ステップS104での判別(判定)結果は、次の推定ステップS152に強度傾斜∇B,∇Gとともに渡される。
(Logical expression)
(∇B x ≠ 0 and ΔB x <0) or (∇B y ≠ 0 and ΔB y <0): Color blur pixel Other: Subject texture pixel The discrimination (determination) result in the discrimination step S104 is the following estimation Step S152 is passed along with the intensity gradients ∇B and ∇G.
ここで、判別ステップS104での処理の物理的意味を、図8及び図10を用いて説明する。 Here, the physical meaning of the processing in the determination step S104 will be described with reference to FIGS.
図8において、色滲みは、高輝度被写体を中心として狭い範囲で指数関数的に減衰することが経験的に解っている。一方、図10に示すように、被写体のグラデーションテクスチャは、色滲みと比較して、極めて広い範囲にわたって強度傾斜を有している。このため、前述したような隣接3画素の狭い領域においては、被写体のグラデーションテクスチャは、ほぼ直線的に減衰し、図8及び図10に示すように強度傾斜∇Bが同程度であっても、その曲率ΔBが色滲みと被写体テクスチャとでは異なる。さらに、色滲みによる強度プロファイルは、下に凸の傾斜であるため、曲率(ラプラシアン)は負の符号を持つ。 In FIG. 8, it is empirically understood that the color blur attenuates exponentially in a narrow range centering on the high-luminance subject. On the other hand, as shown in FIG. 10, the gradation texture of the subject has an intensity gradient over a very wide range as compared with color blur. For this reason, in the narrow region of the adjacent three pixels as described above, the gradation texture of the subject attenuates almost linearly, and even if the intensity gradient ∇B is the same as shown in FIGS. 8 and 10, The curvature ΔB differs between color blur and subject texture. Furthermore, since the intensity profile due to color blur has a downwardly convex slope, the curvature (Laplacian) has a negative sign.
したがって、被写体テクスチャ画素に対して色滲み画素は、「色滲みによる強度傾斜を有し(∇B≠0)、かつその傾きが下に凸の曲率を有する(ΔB<0)」のように論理式に表すことができる。そして、Bプレーンにおいて、x方向及びy方向のうちいずれかにおいて上記論理式に該当する注目画像を色滲み画素と判定する。 Therefore, the color blur pixel is logically expressed as “the subject texture pixel has an intensity gradient due to color blur (∇B ≠ 0), and the gradient has a downwardly convex curvature (ΔB <0)”. Can be expressed in the formula. Then, in the B plane, the target image corresponding to the logical expression in any of the x direction and the y direction is determined as a color blur pixel.
推定ステップS152では、原画像の各画素のうち、上記判別ステップS104にて色滲み画素と判定された画素についてのみ、色滲みとなっている余計なBプレーンの強度である色滲み推定量を算出(推定)する。被写体テクスチャ画素と判定された画素については、例えば強制的に色滲み推定量を0として、その後の色滲み除去の対象とならないようにする。 In the estimation step S152, a color blur estimation amount that is the intensity of the extra B plane that is color blur is calculated only for the pixels determined as the color blur pixels in the discrimination step S104 among the pixels of the original image. (presume. For pixels determined to be subject texture pixels, for example, the color blur estimation amount is forcibly set to 0 so as not to be a target for subsequent color blur removal.
色滲み推定量の推定手法は、Bが飽和しているかしていないかによって異なるが、双方の場合に備えて、推定ステップ1(S152a)及び推定ステップ2(S152b)により2種類の色滲み推定量E1,E2を計算する。 The estimation method of the color blur estimation amount differs depending on whether B is saturated or not. In preparation for both cases, two types of color blur estimation are performed by estimation step 1 (S152a) and estimation step 2 (S152b). The quantities E 1 and E 2 are calculated.
図7において、Bが飽和していない水色領域及び真っ青領域においては、推定ステップ1(S152a)により色滲み推定量E1を算出する。推定ステップ1は、以下の式で示すように、Bの強度傾斜∇Bの絶対値に対して係数k1を乗じて色滲み推定量E1とする。 In FIG. 7, in the light blue area and the deep blue area where B is not saturated, the estimated color blur estimated amount E 1 is calculated in the estimation step 1 (S152a). Estimation step 1, as shown by the following equation, by multiplying the coefficient k 1 as the estimated amount E 1 color blur with respect to the absolute value of the intensity gradient ∇B of B.
E1=k1・|∇B|
ここで、係数k1は正値であり、3前後が好ましい。
E 1 = k 1 · | ∇B |
Here, the coefficient k 1 is a positive value, and is preferably around 3.
一方、Bが飽和している青飽和領域では、Bの強度傾斜は0になってしまい、飽和前の強度傾斜が得られない。このような領域の色滲み推定量E2を推定ステップ2(S152b)により算出する。推定ステップ2は、以下の式で示すように、Gの強度傾斜∇Gと、係数k2とを用いて色滲み推定量E2を求める。 On the other hand, in the blue saturated region where B is saturated, the intensity gradient of B becomes 0, and the intensity gradient before saturation cannot be obtained. The color blur estimator E 2 of such regions is calculated by the estimation step 2 (S152b). In the estimation step 2, as shown by the following equation, the color blur estimation amount E 2 is obtained using the G intensity gradient ∇G and the coefficient k 2 .
E2=k2・|∇G|
ここで、係数k2は正値であり、3前後が好ましい。
E 2 = k 2 · | ∇G |
Here, the coefficient k 2 is a positive value, around 3 being preferred.
領域判定ステップS153では、まずBプレーンの強度に対する非線形変換を行い、飽和度Sを生成する。この飽和度Sは、Bが飽和しているかどうかを示すものであり、Bの強度が飽和している領域では1になり、Bの強度が小さい領域では0となる。そして、この飽和度Sを用いて推定ステップS152で算出したE1又はE2を選択する。すなわち、新たな色滲み推定量Eを、 In the region determination step S153, first, nonlinear conversion is performed on the intensity of the B plane to generate a saturation S. The degree of saturation S indicates whether or not B is saturated, and is 1 in a region where the intensity of B is saturated, and 0 in a region where the intensity of B is small. Then, using this degree of saturation S, E 1 or E 2 calculated in the estimation step S152 is selected. That is, the new estimated color blur amount E is
とする。なお、飽和度Sを0〜1において連続的に変化する値としてもよく、この場合は、新たな色滲み推定量Eを、
E=(1−S)E1+SE2
とする。
And Note that the saturation S may be a value that continuously changes from 0 to 1, and in this case, a new color blur estimation amount E is set as follows.
E = (1-S) E 1 + SE 2
And
過除去抑制ステップS154では、色滲み推定量Eをさらに修正し、実際に除去する色滲み量である色滲み除去量E′を決める。推定ステップS152で推定した色滲み量は一定のモデルに沿ったものであり、実際の滲み量とは必ずしも一致しない。例えば、同じBプレーンで検出される光であっても、波長450nmの光と波長400nmの光では滲み方が変化するが、推定ステップS152ではこれを考慮していない。除去量が過小である場合、除去後も若干の青みが残る。 In the excessive removal suppression step S154, the color blur estimation amount E is further corrected to determine a color blur removal amount E ′ that is a color blur amount to be actually removed. The color blur amount estimated in the estimation step S152 follows a certain model and does not necessarily match the actual blur amount. For example, even if the light is detected on the same B plane, the bleeding changes between light having a wavelength of 450 nm and light having a wavelength of 400 nm, but this is not considered in the estimation step S152. If the removal amount is too small, some blueness remains after removal.
一方、除去量が過大であると、灰色の背景に対してBを減らしすぎ、黄緑色になってしまう。特に、後者は不自然で、観察者に大きな違和感を与える。そこで、過除去抑制ステップS154では、一定の色相範囲内でのみ色滲み除去が作用するよう制限する。 On the other hand, if the removal amount is excessive, B is excessively reduced with respect to the gray background, resulting in a yellowish green color. In particular, the latter is unnatural and gives an observer a great sense of discomfort. Therefore, in the excessive removal suppression step S154, the color blur removal is limited so as to act only within a certain hue range.
このため、まず、画素の色度を計算する。R,G,Bの各プレーンの強度に対し、 For this reason, first, the chromaticity of the pixel is calculated. For the strength of each plane of R, G, B,
とする。 And
この色度座標ab面を図11に示す。青色は第4象限にあり、Bプレーン強度から推定量Eを除去すると、点線矢印321のように左上方向へ移動する。矢印の始点が除去前の色度であり、先端が推定量Eを除去した後の色度である。 The chromaticity coordinate ab plane is shown in FIG. Blue is in the fourth quadrant, and when the estimated amount E is removed from the B plane intensity, it moves in the upper left direction as indicated by a dotted arrow 321. The starting point of the arrow is the chromaticity before the removal, and the tip is the chromaticity after the estimated amount E is removed.
このことから、色滲み除去が作用する色相範囲をa>0、かつb<0に制限すると、
B>0.22R+0.68G、かつB>−1.84R+3.30G
となる。
From this, when the hue range in which color blur removal acts is limited to a> 0 and b <0,
B> 0.22R + 0.68G and B> −1.84R + 3.30G
It becomes.
このため、ステップS154では、この条件を満たさない画素に対してE′=0とし、除去対象から外す。これにより、これらの画素は除去ステップS155によって変化せず、色滲み除去部150によって画素値が影響を受けることがない。すなわち、この条件を満たす画素のみが除去対象となる。 Therefore, in step S154, E ′ = 0 is set for a pixel that does not satisfy this condition, and is excluded from the removal target. Accordingly, these pixels are not changed by the removal step S155, and the pixel value is not affected by the color blur removal unit 150. That is, only pixels that satisfy this condition are targeted for removal.
さらに、条件を満たす画素に対しても色滲み除去量E′を、
E′=min(E,B-(0.22R+0.68G),B-(-1.84R+3.30G))
として、除去ステップS155に渡す。この色滲み除去量E′に対応する滲みの除去による色度変化は、図11に実線矢印322で示すように、第4象限内に留まる。これにより、除去ステップS155により色相制限範囲を超えてBが減少されるのを防ぐ。
Furthermore, the color blur removal amount E ′ is also applied to pixels that satisfy the conditions.
E '= min (E, B- (0.22R + 0.68G), B-(-1.84R + 3.30G))
Is passed to the removal step S155. The chromaticity change due to the removal of the blur corresponding to the color blur removal amount E ′ remains in the fourth quadrant as indicated by the solid line arrow 322 in FIG. This prevents B from being reduced beyond the hue limit range in the removal step S155.
除去ステップS155では、上記色滲み除去量E′をBプレーンの強度から差し引いて、新たなBプレーン強度を、
B=B−E′
とする。
In the removal step S155, the color blur removal amount E ′ is subtracted from the intensity of the B plane to obtain a new B plane intensity.
B = B−E ′
And
このようにして、色滲み推定量を用いた色滲み除去処理(色滲み低減処理)が行われる。こうしてBプレーンを修正したカラー画像を、色滲み除去部150の出力として視覚補正部160に渡す。 In this way, color blur removal processing (color blur reduction processing) using the color blur estimation amount is performed. The color image with the B plane corrected in this way is passed to the visual correction unit 160 as the output of the color blur removal unit 150.
本実施例によれば、原画像に含まれる被写体のカラーグラデーションと色滲みとを明確に判別することができるので、被写体の本来の色成分が誤って除去されることを回避しつつ、不要な色滲みを低減することができる。 According to the present embodiment, since the color gradation and color blur of the subject included in the original image can be clearly discriminated, it is unnecessary while avoiding accidental removal of the original color component of the subject. Color blur can be reduced.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment when the present invention is implemented.
例えば、上記実施例では、結像光学系110から記録部180までの全部を備えたカラー撮像装置について説明した。しかし、カラー撮像装置とは別の装置として、少なくとも色滲み除去部(抽出部、推定部及び除去部)150を有する画像処理装置(パーソナルコンピュータ等)を構成してもよい。この場合、カラー撮像装置により撮像されて半導体メモリ、磁気/光ディスク等の記録媒体に格納されたカラー画像が画像処理装置に入力されるようにすればよい。また、カラー撮像装置と画像処理装置とをケーブルや無線LAN等によって接続し、カラー撮像装置から画像処理装置に画像が送信されるようにしてもよい。 For example, in the above-described embodiment, the color imaging apparatus including all of the imaging optical system 110 to the recording unit 180 has been described. However, an image processing apparatus (such as a personal computer) having at least a color blur removal unit (extraction unit, estimation unit, and removal unit) 150 may be configured as an apparatus different from the color imaging apparatus. In this case, a color image captured by a color imaging apparatus and stored in a recording medium such as a semiconductor memory or a magnetic / optical disk may be input to the image processing apparatus. Alternatively, the color imaging device and the image processing device may be connected by a cable, a wireless LAN, or the like so that an image is transmitted from the color imaging device to the image processing device.
また、上記実施例では、互いに隣接する3画素内での強度傾斜と強度曲率に基づいて被写体テクスチャ画素と色滲み画素とを判別する場合について説明した。しかし、例えば、より多くの画素内での強度傾斜を求め、その分布(すなわち、強度傾斜の変化の態様を表す情報)に基づいて被写体テクスチャ画素と色滲み画素とを判別できるような場合は、強度曲率を用いずに該判別を行ってもよい。 In the above-described embodiment, the case where the subject texture pixel and the color blur pixel are determined based on the intensity gradient and the intensity curvature in the three adjacent pixels is described. However, for example, in the case where the intensity gradient in more pixels is obtained and the subject texture pixel and the color blur pixel can be distinguished based on the distribution (that is, information indicating a change mode of the intensity gradient), The determination may be performed without using the intensity curvature.
90 写野
102 傾斜演算ステップ
103 曲率演算ステップ
104 判別ステップ
110 結像光学系
120 イメージセンサ
130 AD変換部
140 デモザイク部
150 色滲み除去部
151 空間演算ステップ
152 推定ステップ
153 領域判定ステップ
154 過除去抑制ステップ
155 除去ステップ
160 視覚補正部
170 圧縮部
180 記録部
90 imaging field 102 tilt calculation step 103 curvature calculation step 104 determination step 110 imaging optical system 120 image sensor 130 AD conversion unit 140 demosaic unit 150 color blur removal unit 151 space calculation step 152 estimation step 153 region determination step 154 excessive removal suppression step 155 Removal step 160 Visual correction unit 170 Compression unit 180 Recording unit
Claims (4)
前記強度傾斜の変化の態様を表す情報に基づいて、前記原画像における色滲み画素と被写体テクスチャ画素とを判別する判別部と、
前記強度傾斜に基づいて前記色滲み画素における色滲み推定量を算出し、前記色滲み画素に対して前記色滲み推定量を用いた色滲み低減処理を行う処理部とを有することを特徴とする画像処理装置。 An inclination calculator that calculates an intensity gradient in the color original image obtained by the imaging device;
A discriminating unit that discriminates a color blur pixel and a subject texture pixel in the original image based on information representing the aspect of the change in the intensity gradient;
And a processing unit that calculates a color blur estimated amount in the color blur pixel based on the intensity gradient and performs a color blur reduction process using the color blur estimated amount on the color blur pixel. Image processing device.
前記判別部は、前記強度傾斜と前記曲率とに基づいて、前記原画像における色滲み画素と被写体テクスチャ画素とを判別することを特徴とする請求項1に記載の画像処理装置。 As the information, it has a curvature calculator that calculates the curvature of the intensity gradient,
The image processing apparatus according to claim 1, wherein the determination unit determines a color blur pixel and a subject texture pixel in the original image based on the intensity gradient and the curvature.
前記強度傾斜の変化の態様を表す情報に基づいて、前記原画像における色滲み画素と被写体テクスチャ画素とを判別するステップと、
前記強度傾斜に基づいて前記色滲み画素における色滲み推定量を算出し、前記色滲み画素に対して前記色滲み推定量を用いた色滲み低減処理を行うステップとを有することを特徴とする画像処理方法。 Calculating an intensity gradient in the color original image obtained by the imaging device;
Discriminating color blur pixels and subject texture pixels in the original image based on information representing the aspect of change in the intensity gradient;
Calculating an estimated amount of color blur in the color blur pixel based on the intensity gradient and performing a color blur reduction process using the color blur estimated amount on the color blur pixel. Processing method.
請求項1から3のいずれか1つに記載の画像処理装置とを有することを特徴とする撮像装置。
An imaging system that images a subject and generates an image;
An image pickup apparatus comprising: the image processing apparatus according to claim 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008235485A JP5178421B2 (en) | 2008-09-12 | 2008-09-12 | Image processing apparatus, image processing method, and imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008235485A JP5178421B2 (en) | 2008-09-12 | 2008-09-12 | Image processing apparatus, image processing method, and imaging apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010068464A true JP2010068464A (en) | 2010-03-25 |
| JP5178421B2 JP5178421B2 (en) | 2013-04-10 |
Family
ID=42193605
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008235485A Expired - Fee Related JP5178421B2 (en) | 2008-09-12 | 2008-09-12 | Image processing apparatus, image processing method, and imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5178421B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015149618A (en) * | 2014-02-06 | 2015-08-20 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
| JP2015173490A (en) * | 2015-05-14 | 2015-10-01 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005151122A (en) * | 2003-11-14 | 2005-06-09 | Canon Inc | Image processing apparatus and image processing method |
| JP2007129361A (en) * | 2005-11-01 | 2007-05-24 | Eastman Kodak Co | Chromatic aberration suppression circuit and imaging apparatus having the same, and chromatic aberration suppression program |
| JP2007195122A (en) * | 2006-01-23 | 2007-08-02 | Konica Minolta Photo Imaging Inc | Imaging apparatus, image processor and image processing method |
-
2008
- 2008-09-12 JP JP2008235485A patent/JP5178421B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005151122A (en) * | 2003-11-14 | 2005-06-09 | Canon Inc | Image processing apparatus and image processing method |
| JP2007129361A (en) * | 2005-11-01 | 2007-05-24 | Eastman Kodak Co | Chromatic aberration suppression circuit and imaging apparatus having the same, and chromatic aberration suppression program |
| JP2007195122A (en) * | 2006-01-23 | 2007-08-02 | Konica Minolta Photo Imaging Inc | Imaging apparatus, image processor and image processing method |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015149618A (en) * | 2014-02-06 | 2015-08-20 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
| JP2015173490A (en) * | 2015-05-14 | 2015-10-01 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5178421B2 (en) | 2013-04-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5349790B2 (en) | Image processing apparatus, image processing method, and program | |
| EP1931130B1 (en) | Image processing apparatus, image processing method, and program | |
| JP5047048B2 (en) | Image processing apparatus, imaging apparatus, control method, program, and storage medium | |
| JP5847471B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
| JP4986820B2 (en) | Image processing apparatus and image processing method | |
| WO2011121760A9 (en) | Image processing apparatus and image capturing apparatus using same | |
| WO2010128578A1 (en) | Image processing method and image processing apparatus | |
| JP5047055B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| JP5917048B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5907590B2 (en) | Image processing apparatus, image processing method, and program | |
| JP5020615B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP4963598B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP5178421B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP2009200635A (en) | Image processor, and processing method and program | |
| JP2011041094A (en) | Image processing apparatus, imaging apparatus, and method of processing image | |
| JP2011041094A5 (en) | ||
| JP5274697B2 (en) | Image processing apparatus and image processing method | |
| JP6143575B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2009302960A (en) | Video signal processing apparatus, program and method | |
| JP2013165482A (en) | Image processor, image processing program and imaging apparatus | |
| JP2007028040A (en) | Image processing device | |
| JP5963913B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
| JP6257292B2 (en) | Image processing apparatus, control method thereof, and control program | |
| JP5290734B2 (en) | Noise reduction device and noise reduction method | |
| JP5957106B2 (en) | Image processing apparatus, image processing apparatus control method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110902 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120924 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121122 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121211 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130108 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5178421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160118 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |