JP2012029029A - Image processing device, image processing method and imaging device - Google Patents
Image processing device, image processing method and imaging device Download PDFInfo
- Publication number
- JP2012029029A JP2012029029A JP2010165669A JP2010165669A JP2012029029A JP 2012029029 A JP2012029029 A JP 2012029029A JP 2010165669 A JP2010165669 A JP 2010165669A JP 2010165669 A JP2010165669 A JP 2010165669A JP 2012029029 A JP2012029029 A JP 2012029029A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- luminance
- image
- conversion
- gain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 170
- 238000003384 imaging method Methods 0.000 title claims abstract description 42
- 238000003672 processing method Methods 0.000 title abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims abstract description 160
- 238000000034 method Methods 0.000 claims description 46
- 239000002131 composite material Substances 0.000 claims description 39
- 230000001066 destructive effect Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 abstract description 119
- 238000005375 photometry Methods 0.000 abstract description 26
- 230000008569 process Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 27
- 238000005286 illumination Methods 0.000 description 27
- 238000010606 normalization Methods 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000001934 delay Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 4
- 229920006395 saturated elastomer Polymers 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
【課題】入力画像の輝度情報を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法、画像処理プログラム及び撮像装置を提供する。
【解決手段】画像処理装置20を、測光部25と、HDR本線処理部26とを含む構成とし、測光部25において、標準露光時間T3よりも短い短露光時間T2で撮像して得られた画素データS2からヒストグラムを生成し、このヒストグラムに基づき撮像画像のコントラスト比の高低を判定し、この判定結果に基づきHDRカラー画像データの輝度を変換する際に用いられる輝度レベル補正ゲインの特性を制御するレベル補正制御パラメーターを生成し、HDR本線処理部26において、コントラスト比が高ければ高いほど低輝度部のゲインをより抑制する特性の複数種類の変換用LUTから前記パラメーターに対応するLUTを選択し、この選択したLUTを用いてHDRカラー画像データの輝度を変換する。
【選択図】図8An image processing apparatus, an image processing method, an image processing program, and an imaging apparatus suitable for generating output images having different gradation characteristics by converting luminance information of an input image.
An image processing apparatus includes a photometry unit and an HDR main line processing unit. In the photometry unit, pixels obtained by imaging with a short exposure time T2 shorter than a standard exposure time T3 are obtained. A histogram is generated from the data S2, the level of the contrast ratio of the captured image is determined based on the histogram, and the characteristic of the brightness level correction gain used when converting the brightness of the HDR color image data is controlled based on the determination result. A level correction control parameter is generated, and the HDR main line processing unit 26 selects an LUT corresponding to the parameter from a plurality of types of conversion LUTs having a characteristic of further suppressing the gain of the low luminance part as the contrast ratio is higher. The luminance of the HDR color image data is converted using the selected LUT.
[Selection] Figure 8
Description
本発明は、入力画像の輝度を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法及び撮像装置に関する。 The present invention relates to an image processing apparatus, an image processing method, and an imaging apparatus suitable for generating an output image having different gradation characteristics by converting luminance of an input image.
電子カメラは撮像素子のダイナミックレンジ(以下、Dレンジと称す)が狭い為、露出制御を行う。露出制御においては撮像素子のDレンジに入るように、電子シャッター速度や絞りにより撮像素子に入力される光量を調整する(例えば、特許文献1参照)。露出制御は、撮像素子から出力される信号レベルの平均値が、特定の値(例えばDレンジの18%のレベル)になるように、シャッター速度や絞りを制御する。一般に、露出制御はクローズドループ制御で行われる。 Since the electronic camera has a narrow dynamic range (hereinafter referred to as “D range”) of the image sensor, exposure control is performed. In exposure control, the amount of light input to the image sensor is adjusted by the electronic shutter speed and the aperture so as to fall within the D range of the image sensor (see, for example, Patent Document 1). In the exposure control, the shutter speed and the aperture are controlled so that the average value of the signal level output from the image sensor becomes a specific value (for example, 18% of the D range). Generally, exposure control is performed by closed loop control.
一方、Dレンジの広い撮像画像を得られるカメラとして、HDRカメラが存在する。これは、撮像素子のDレンジの狭さを補う為、露光時間の異なる画像を複数枚撮像し、それを合成することで、HDR画像を生成する(例えば、特許文献2参照)。HDRカメラは、先述した露光制御が不要になる。
仮に、最も長い時間で露光した場合の露光量を長時間露光量S3とし、最も短い露光時間で露光した場合の露光量を短時間露光量S1とし、これらの中間の露光時間で露光した場合の露光量を中時間露光量S2とする。HDRカメラは、S3とS1の比を大きくするほど、そのダイナミックレンジを大きくすることができる。また、HDRカメラからの出力画像の画質(S/N)は、中間の露光時間で撮像した画像の枚数を増やすほど良くなることが知られている。
On the other hand, HDR cameras exist as cameras that can obtain captured images with a wide D range. In order to compensate for the narrowness of the D range of the image sensor, an HDR image is generated by capturing a plurality of images with different exposure times and synthesizing them (for example, refer to Patent Document 2). The HDR camera does not require the above-described exposure control.
Temporarily, the exposure amount at the time of exposure for the longest time is set as the long-time exposure amount S3, the exposure amount at the time of exposure at the shortest exposure time is set as the short-time exposure amount S1, and Let the exposure amount be a medium time exposure amount S2. The HDR camera can increase its dynamic range as the ratio of S3 and S1 increases. Further, it is known that the image quality (S / N) of an output image from the HDR camera is improved as the number of images taken with an intermediate exposure time is increased.
HDRカメラにおいては、JPEG、MPEGなどの規格に準拠するためにレンジ圧縮が必要である。従来、入力画像の輝度情報を変換して、入力画像のダイナミックレンジを圧縮する手法として、人間の視覚特性を考慮したretinex理論に基づいた手法が多く発表
されている。例えば、非特許文献1では、「目に入る光像は照明光成分と反射成分の積で表されるが、視覚に強い相関を示すのは反射成分である」と実験から結論付けている。この理論に基づき、ダイナミックレンジを圧縮する際は画像の反射成分を保存し照明光成分のみを圧縮することで、画質劣化を防ぎつつ画像のDレンジを圧縮する方法が提案されている(例えば、特許文献3、特許文献4参照)。このDレンジを圧縮する処理は、一般に、トーンマップ処理と呼ばれる。
In HDR cameras, range compression is required to comply with standards such as JPEG and MPEG. Conventionally, many methods based on the retinex theory considering human visual characteristics have been published as methods for compressing the dynamic range of an input image by converting luminance information of the input image. For example, Non-Patent
飽和現象が起きないHDRカメラシステムは、露光制御が不要であることから、常に安
定な画像が得られる、という大きな特徴を有する。しかしながら、前述のトーンマップ処理によって、ビデオ出力画像のコントラスト感が損なわれる傾向がある。すなわちトーンマップ処理は、暗部のゲインを大きくして、暗部を明るく持ち上げるように動作することから、被写体のコントラスト比が大きいときは、靄(もや)のかかった様な眠たい画像になってしまう。
An HDR camera system in which saturation does not occur has a great feature that a stable image is always obtained because exposure control is unnecessary. However, the above tone map processing tends to impair the contrast of the video output image. In other words, the tone map process operates to increase the dark area gain and lift the dark area brightly, so when the contrast ratio of the subject is large, the image becomes sleepy with a hazy appearance. .
例えば、炎天下の環境で、自動車内に設置したカメラにて車内を撮影することを考える。この場合、通常のカメラでは、車窓からの風景がとんでしまうか、もしくは車内の映像が黒潰れしてしまうか、のどちらかになってしまう。一方、HDRカメラは、車窓からの風景を鮮明に写しつつ、本来は黒潰れする車内の風景も、前述のトーンマップ処理によりゲインを上げることで、描写する。このようにHDRカメラは、車外と車内の双方を映像として描写することが出来るが、トーンマップ処理を施すことで、その映像はコントラスト比が低い眠たい画像になる。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものである。本発明の幾つかの態様によれば、入力画像の輝度情報を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法及び撮像装置を提供できる。
For example, consider taking a picture of the inside of a car with a camera installed in a car in an environment under hot weather. In this case, with a normal camera, the scenery from the car window stops, or the image inside the car is crushed black. On the other hand, the HDR camera clearly describes the scenery from the vehicle window, and also describes the scenery in the car that is originally crushed by increasing the gain by the tone map processing described above. In this way, the HDR camera can depict both the inside and outside of the vehicle as images, but by applying tone map processing, the images become sleepy images with a low contrast ratio.
Therefore, the present invention has been made paying attention to such unsolved problems of the conventional technology. According to some aspects of the present invention, it is possible to provide an image processing apparatus, an image processing method, and an imaging apparatus that are suitable for generating output images having different gradation characteristics by converting luminance information of an input image.
〔形態1〕 上記目的を達成するために、形態1の画像処理装置は、
異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換手段と、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成手段と、
前記輝度分布情報生成手段で生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御手段と、を備え、
前記画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換する。
[Mode 1] In order to achieve the above object, an image processing apparatus according to
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. Image conversion means for generating two composite image data;
Luminance distribution information generating means for generating luminance distribution information that is information related to the luminance distribution of the captured image of the subject based on at least one of the plurality of image data;
Conversion gain control means for controlling the characteristics of the gain used for conversion of the luminance of the image conversion means based on the luminance distribution information generated by the luminance distribution information generation means,
The image conversion means converts the luminance of the first composite image data using the gain controlled by the conversion gain control means.
このような構成であれば、画像変換手段によって、異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成することが可能である。
一方、輝度分布情報生成手段によって、複数の画像データのうち、少なくとも1の画像データに基づき、撮像画像の輝度分布に係る輝度分布情報を生成することができる。更に、変換ゲイン制御手段によって、輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御することが可能である。
With such a configuration, the first composite image generated by combining two or more pieces of image data among a plurality of image data obtained by imaging the subject with a plurality of different exposure times by the image conversion means. It is possible to generate the second composite image data having different gradation characteristics by converting the luminance of the data.
On the other hand, the luminance distribution information generation means can generate luminance distribution information related to the luminance distribution of the captured image based on at least one of the plurality of image data. Furthermore, it is possible to control the characteristics of the gain used for the luminance conversion of the image conversion means based on the luminance distribution information by the conversion gain control means.
そして、画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換することが可能である。
これにより、輝度分布情報に基づき変換に用いるゲインの特性を自動で制御することができると共に、ゲインの特性を適切に制御することで、階調変換後の出力画像における画質劣化を低減することができる。
例えば、第1の合成画像データの低階調部分について、ゲインを抑えるように制御することで、輝度を変換後の出力画像における低階調部分のコントラスト比の低下による画質劣化を低減することができる。
The image conversion means can convert the luminance of the first composite image data using the gain controlled by the conversion gain control means.
This makes it possible to automatically control the characteristics of the gain used for conversion based on the luminance distribution information, and to reduce image quality deterioration in the output image after gradation conversion by appropriately controlling the characteristics of the gain. it can.
For example, by controlling the gain for the low gradation part of the first composite image data, it is possible to reduce image quality degradation due to a decrease in the contrast ratio of the low gradation part in the output image after the luminance conversion. it can.
また、入力画像(第1の合成画像データ)の特性や所望する出力画像(第2の合成画像データ)の特性などに応じて、ゲインの上限を変更することができる。
これにより、コントラスト比の低下による画質劣化を低減しつつ、所望の画質特性を有する出力画像を得ることができる。
ここで、輝度の変換は、一画素の単位で行ってもよいし、特定位置の複数画素の単位で行ってもよい。例えば、複数画素の場合は、平均輝度を求めて、該平均輝度に応じたゲインの上限を設定し、該上限に従って、輝度の変換を行う。
Further, the upper limit of the gain can be changed according to the characteristics of the input image (first composite image data), the desired output image (second composite image data), and the like.
Thereby, it is possible to obtain an output image having desired image quality characteristics while reducing image quality deterioration due to a decrease in contrast ratio.
Here, the luminance conversion may be performed in units of one pixel or may be performed in units of a plurality of pixels at a specific position. For example, in the case of a plurality of pixels, an average luminance is obtained, an upper limit of gain corresponding to the average luminance is set, and luminance is converted according to the upper limit.
〔形態2〕 更に、形態2の画像処理装置は、形態1の画像処理装置において、
前記輝度分布情報は、前記撮像画像の輝度のヒストグラムである。
このような構成であれば、輝度のヒストグラムから撮像画像の輝度のコントラストの状態を知ることができるので、的確なゲイン制御を行うことができる。
〔形態3〕 更に、形態3の画像処理装置は、形態1又は2の画像処理装置において、
前記画像変換手段は、前記第1の合成画像データの輝度を変換して、前記第1の合成画像データの輝度のダイナミックレンジを圧縮した第2の合成画像データを生成する。
[Mode 2] Furthermore, the image processing apparatus according to
The luminance distribution information is a luminance histogram of the captured image.
With such a configuration, the state of the brightness contrast of the captured image can be known from the brightness histogram, so that accurate gain control can be performed.
[Mode 3] Furthermore, the image processing apparatus of
The image conversion means converts the luminance of the first synthesized image data to generate second synthesized image data in which the dynamic range of the luminance of the first synthesized image data is compressed.
このような構成であれば、画像変換手段は、例えば、第1の合成画像データがハイダイナミックレンジの画像データである場合に、入力画像データの輝度を、表示装置などの出力装置の出力可能な階調範囲に合わせて変換することができる。
例えば、第1の合成画像データが20ビットの階調範囲を有している場合に、その階調範囲を、表示装置の表示可能な階調範囲に合わせて、これよりも低い階調範囲、例えば8ビットの階調範囲へと圧縮した第2の合成画像データを生成することができる。
With such a configuration, the image conversion means can output the luminance of the input image data from an output device such as a display device, for example, when the first composite image data is high dynamic range image data. Conversion can be performed in accordance with the gradation range.
For example, when the first composite image data has a 20-bit gradation range, the gradation range is adjusted to the gradation range that can be displayed by the display device, and a gradation range lower than this range. For example, the second composite image data compressed to an 8-bit gradation range can be generated.
〔形態4〕 更に、形態4の画像処理装置は、形態1乃至3のいずれか1の画像処理装置において、
前記輝度分布情報生成手段は、前記複数の画像データのうち、最長の露光時間を除く残りの露光時間に対応する画像データのうちの少なくとも1の画像データに基づき前記輝度分布情報を生成する。
このような構成であれば、比較的明るい場所で撮像する場合に、白飛びした画像以外の画像データから輝度分布情報を生成することができるので、精度の良い情報を生成することができる。特に、最長及び最短以外の画像データを用いることで、黒つぶれ且つ白飛びの無い画像データから輝度分布情報を生成することができる。
[Mode 4] Furthermore, the image processing apparatus according to mode 4 is the image processing apparatus according to any one of
The luminance distribution information generating means generates the luminance distribution information based on at least one image data of image data corresponding to the remaining exposure time excluding the longest exposure time among the plurality of image data.
With such a configuration, when capturing an image in a relatively bright place, the luminance distribution information can be generated from image data other than the overexposed image, so that accurate information can be generated. In particular, by using image data other than the longest and shortest, it is possible to generate luminance distribution information from image data that is blacked and has no whiteout.
〔形態5〕 更に、形態5の画像処理装置は、形態1乃至4のいずれか1の画像処理装置において、
前記変換ゲイン制御手段は、前記輝度分布情報に基づき撮像画像のコントラスト比の高低を判定し、コントラスト比が高いと判定したときは、前記第1の合成画像データにおける所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が高ければ高いほど小さい値となるように制御する。
このような構成であれば、コントラスト比が高いと判定したときに、所定輝度以下の画素データについて、変換後の輝度が高くなりすぎないようにゲインを調整することができる。従って、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた出力画像を生成することができる。
[Embodiment 5] Furthermore, the image processing apparatus of Embodiment 5 is the image processing apparatus of any one of
The conversion gain control means determines whether the contrast ratio of the captured image is high or low based on the luminance distribution information. The gain used for the tone conversion is controlled to be smaller as the contrast ratio is higher.
With such a configuration, when it is determined that the contrast ratio is high, the gain can be adjusted so that the luminance after conversion does not become too high for pixel data having a predetermined luminance or less. Therefore, it is possible to generate a sharp output image with no black floating while restricting the low luminance portion of the input image from becoming too bright.
〔形態6〕 更に、形態6の画像処理装置は、形態5の画像処理装置において、
前記変換ゲイン制御手段は、前記所定輝度以下の画素データの階調変換に用いるゲインが、一定値で固定されるようにゲインを制御する。
このような構成であれば、所定輝度以下の画素データについて、ゲインに上限値(リミット)を設けることができる。これにより、ゲインの上限値を適切に設定することで、入力画像の輝度を変換後の出力画像における低輝度部分のコントラストの低下による画質劣化を低減することができる。
[Mode 6] Further, the image processing apparatus of mode 6 is the same as the image processing apparatus of mode 5,
The conversion gain control means controls the gain so that the gain used for gradation conversion of the pixel data having the predetermined luminance or less is fixed at a constant value.
With such a configuration, an upper limit value (limit) can be set for the gain for pixel data having a predetermined luminance or less. Accordingly, by appropriately setting the upper limit value of the gain, it is possible to reduce image quality deterioration due to a decrease in contrast of a low-luminance portion in the output image after converting the luminance of the input image.
〔形態7〕 更に、形態7の画像処理装置は、形態5又は6の画像処理装置において、
前記変換ゲイン制御手段は、前記コントラスト比が低いと判定したときは、前記所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が低ければ低いほど大きい値となるように制御する。
このような構成であれば、コントラスト比が低いと判定したときに、所定輝度以下の画素データについて、変換後の輝度が低くなりすぎないようにゲインを調整することができる。従って、入力画像の低輝度部分が暗くなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた出力画像を生成することができる。
[Mode 7] Furthermore, the image processing apparatus of mode 7 is the image processing apparatus of mode 5 or 6,
When it is determined that the contrast ratio is low, the conversion gain control means controls the gain used for gradation conversion of pixel data having the predetermined luminance or less so that the gain becomes higher as the contrast ratio is lower.
With such a configuration, when it is determined that the contrast ratio is low, the gain can be adjusted so that the luminance after conversion does not become too low for pixel data having a predetermined luminance or less. Therefore, it is possible to generate a sharp output image with no black floating while limiting the low luminance portion of the input image so as not to be too dark.
〔形態8〕 更に、形態8の画像処理装置は、形態5乃至7のいずれか1の画像処理装置において、
前記輝度分布情報生成手段は、前記少なくとも1の画像データについて、該画像データの対応する輝度の階調範囲を高輝度側、中間輝度、低輝度側の3つの独立した範囲に区分すると共に各範囲を1以上の区分範囲に区分し、各区分範囲に属する画素の数を計数して前記輝度分布情報を生成する。
このような構成であれば、高輝度側の画素数と、低輝度側の画素数を簡易に把握することができ、撮像画像のコントラスト比の高低を簡易且つ高速に判定することができる。
[Embodiment 8] Furthermore, the image processing apparatus of Embodiment 8 is the image processing apparatus of any one of Embodiments 5 to 7,
The luminance distribution information generation means divides the corresponding luminance gradation range of the image data into three independent ranges of a high luminance side, an intermediate luminance, and a low luminance side for each of the at least one image data Are divided into one or more division ranges, and the number of pixels belonging to each division range is counted to generate the luminance distribution information.
With such a configuration, the number of pixels on the high luminance side and the number of pixels on the low luminance side can be easily grasped, and the contrast ratio of the captured image can be determined easily and at high speed.
〔形態9〕 更に、形態9の画像処理装置は、形態8の画像処理装置において、
前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第1閾値以上で、且つ前記低輝度側の範囲に属する区分範囲の合計画素数が第2閾値以上のときに、前記撮像画像のコントラスト比が高いと判定する。
このような構成であれば、第1閾値及び第2閾値によって、コントラスト比を高いと判定する際の基準を簡易に設定することができる。
[Embodiment 9] Furthermore, the image processing apparatus of Embodiment 9 is the image processing apparatus of Embodiment 8,
The conversion gain control unit is configured such that the total number of pixels in the divided range belonging to the high luminance side range is equal to or greater than a first threshold value and the total number of pixels in the divided range belonging to the low luminance side range is equal to or larger than a second threshold In addition, it is determined that the contrast ratio of the captured image is high.
With such a configuration, a reference for determining that the contrast ratio is high can be easily set by the first threshold value and the second threshold value.
〔形態10〕 更に、形態10の画像処理装置は、形態8又は9の画像処理装置において、
前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第3閾値以下のときに、前記撮像画像のコントラスト比が低いと判定する。
このような構成であれば、第3閾値によって、コントラスト比を低いと判定する際の基準を簡易に設定することができる。
[Mode 10] Furthermore, the image processing apparatus of
The conversion gain control means determines that the contrast ratio of the captured image is low when the total number of pixels in the divided range belonging to the range on the high luminance side is equal to or smaller than a third threshold value.
With such a configuration, a reference for determining that the contrast ratio is low can be easily set by the third threshold.
〔形態11〕 更に、形態11の画像処理装置は、形態1乃至10のいずれか1の画像処理装置において、
被写体を撮像可能な撮像素子から、当該撮像素子において異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、最長の露光時間に対応する画像データを含む2以上の画像データを取得する画像データ取得手段と、
前記画像データ取得手段で取得した前記2以上の画像データを露光時間の比率に基づき線形合成して前記第1の合成画像データを生成する合成画像データ生成手段と、を備え、
前記輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分布情報を生成する。
[Mode 11] Furthermore, an image processing apparatus according to
Two or more pieces of image data including image data corresponding to the longest exposure time among a plurality of pieces of image data obtained by imaging a subject with a plurality of different exposure times from the image pickup device capable of picking up the subject. Image data acquisition means for acquiring;
A synthesized image data generating unit that linearly synthesizes the two or more image data acquired by the image data acquiring unit based on an exposure time ratio to generate the first synthesized image data;
The luminance distribution information generation unit generates the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time.
このような構成であれば、画像データ取得手段によって、撮像素子から、異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、最長の露光時間に対応する画像データを含む2以上の画像データを取得することができる。
更に、合成画像データ生成手段によって、取得した前記2以上の画像データを露光量の比率に基づき線形合成して前記第1の合成画像データを生成することができる。
そして、輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分
布情報を生成することができる。
With such a configuration, the image data acquisition unit includes image data corresponding to the longest exposure time among a plurality of image data obtained by imaging the subject with a plurality of different exposure times from the image sensor. The above image data can be acquired.
Furthermore, the composite image data generating means can generate the first composite image data by linearly combining the acquired two or more pieces of image data based on the exposure amount ratio.
The luminance distribution information generation means can generate the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time. .
〔形態12〕 更に、形態12の画像処理装置は、形態11の画像処理装置において、
前記撮像素子は、各画素から蓄積電荷を維持したまま前記蓄積電荷に応じた画素信号を読み出す非破壊読み出し方式で画素信号を読み出すことが可能であり、各フレーム期間において露光時間の短い方から順に前記異なる複数の露光時間で前記各画素を露光すると共に、露光した各画素から前記非破壊読み出し方式で画素信号を読み出し、読み出した順番に前記複数の画像データを構成する画素信号のデータを出力し、
前記画像データ取得手段は、前記各フレーム期間において、前記最長の露光時間に対応する画像データを取得するよりも先行して前記少なくとも1の画像データを取得し、
前記輝度分布情報生成手段は、前記先行して取得した少なくとも1の画像データである先行画像データに基づき前記輝度分布情報を生成し、
前記変換ゲイン制御手段は、前記先行画像データに基づき生成された輝度分布情報に基づき、前記先行画像データを取得したフレーム期間と同じフレーム期間に取得される前記2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御し、
前記画像変換手段は、前記同じフレーム期間に対応する前記第1の合成画像データの輝度を、前記同じフレーム期間に対応する前記制御されたゲインを用いて変換する。
[Mode 12] Furthermore, the image processing apparatus of
The image sensor can read out a pixel signal by a nondestructive readout method that reads out a pixel signal corresponding to the accumulated charge while maintaining the accumulated charge from each pixel, and in order from the shorter exposure time in each frame period. The pixels are exposed at the different exposure times, pixel signals are read from the exposed pixels by the non-destructive readout method, and pixel signal data constituting the plurality of image data is output in the read order. ,
The image data acquisition means acquires the at least one image data prior to acquiring image data corresponding to the longest exposure time in each frame period;
The luminance distribution information generation means generates the luminance distribution information based on the preceding image data which is the at least one image data acquired in advance.
The conversion gain control means linearly synthesizes the two or more pieces of image data acquired in the same frame period as the frame period from which the preceding image data was acquired based on the luminance distribution information generated based on the preceding image data. Controlling the gain for converting the luminance of the generated first composite image data;
The image conversion means converts the luminance of the first composite image data corresponding to the same frame period using the controlled gain corresponding to the same frame period.
このような構成であれば、撮像素子から、最長の露光時間に対応する画素信号のデータに先行して、これより短い1の露光時間に対応する画素信号のデータを取得して、輝度分布情報を生成することができる。
更に、変換ゲイン制御手段は、生成した輝度分布情報に基づき、この情報の生成に用いた画像データと同じフレームに取得される2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御することができる。
With this configuration, the pixel signal data corresponding to one exposure time shorter than this is obtained from the image sensor prior to the pixel signal data corresponding to the longest exposure time, and the luminance distribution information is obtained. Can be generated.
Further, the conversion gain control means is a first synthesized image generated by linearly synthesizing two or more image data acquired in the same frame as the image data used to generate this information based on the generated luminance distribution information. The gain for converting the brightness of the data can be controlled.
従って、輝度分布情報の生成対象である画像データのフレームと、輝度分布情報に基づきゲインを制御する対象の第1の合成画像データの生成に用いる画像データのフレームとを同じにすることができる。これにより、別フレームとした場合の被写体の輝度変動に応じた発振(フリッカ)現象の発生を抑えることが可能である。そのため、常に安定な出力画像を得ることができる。
また、例えば、車載カメラやマシンビジョンなどのように実時間性が要求されるアプリケーションにおいて、実時間に近いタイミングで出力装置の階調に合わせて階調変換された合成画像(映像)の取得を行うのに有効である。
Therefore, the frame of the image data that is the generation target of the luminance distribution information can be made the same as the frame of the image data that is used to generate the first composite image data whose gain is controlled based on the luminance distribution information. As a result, it is possible to suppress the occurrence of an oscillation (flicker) phenomenon corresponding to the luminance fluctuation of the subject when the frame is different. Therefore, a stable output image can always be obtained.
Also, for example, in applications that require real-time performance, such as in-vehicle cameras and machine vision, acquisition of composite images (video) that have been tone-converted according to the tone of the output device at a timing close to real time It is effective to do.
〔形態13〕 一方、上記目的を達成するために、形態13の画像処理方法は、
異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換ステップと、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成ステップと、
前記輝度情報生成ステップで生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御ステップと、を含み、
前記画像変換ステップにおいては、前記変換ゲイン制御ステップで制御されたゲインを用いて前記第1の合成画像データの輝度を変換する。
これにより、形態1の画像処理装置と同等の作用及び効果が得られる。
[Mode 13] On the other hand, in order to achieve the above object, an image processing method according to
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. An image conversion step for generating two composite image data;
A luminance distribution information generation step for generating luminance distribution information, which is information relating to the luminance distribution of the captured image of the subject, based on at least one of the plurality of image data;
A conversion gain control step for controlling a characteristic of a gain used for conversion of the luminance of the image conversion unit based on the luminance distribution information generated in the luminance information generation step,
In the image conversion step, the luminance of the first composite image data is converted using the gain controlled in the conversion gain control step.
Thereby, the same operation and effect as those of the image processing apparatus of
〔形態14〕 また、上記目的を達成するために、形態14の撮像装置は、
被写体を撮像可能な撮像素子と、
形態11又は形態12に記載の画像処理装置と、を備える。
このような構成であれば、形態11又は12に記載の画像処理装置と同等の作用及び効果が得られる。
[Mode 14] In order to achieve the above object, an imaging apparatus according to
An image sensor capable of imaging a subject;
An image processing apparatus according to the eleventh or twelfth aspect.
With such a configuration, operations and effects equivalent to those of the image processing apparatus according to
〔第1実施形態〕
以下、本発明の第1実施形態を図面に基づき説明する。図1〜図14は、本発明に係る画像処理装置、画像処理方法、画像処理プログラム及び撮像装置の第1実施形態を示す図である。
(撮像装置の構成例)
まず、本発明に係る撮像装置の構成を図1〜図2に基づき説明する。図1は、本発明に係る撮像装置1の構成を示すブロック図である。また、図2は、HDR撮像素子10の内部構成を示すブロック図である。
撮像装置1は、図1に示すように、HDR撮像素子10と、画像処理装置20とを含んで構成される。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. 1 to 14 are diagrams illustrating a first embodiment of an image processing apparatus, an image processing method, an image processing program, and an imaging apparatus according to the present invention.
(Configuration example of imaging device)
First, the configuration of an imaging apparatus according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a configuration of an
As illustrated in FIG. 1, the
撮像素子10は、図2に示すように、レンズ10aと、マイクロレンズ10bと、カラーフィルターアレイ10cと、HDRセンサー10dと、駆動回路10eと、読出回路10fとを含んで構成される。
レンズ10aは、被写体からの反射光を集光して、マイクロレンズ10bへと導くものである。なお、撮像条件などに応じて、単焦点レンズ、ズームレンズ、オートアイリスレンズなどの種類がある。
マイクロレンズ10bは、レンズ10aを透過した光をHDRセンサー10dの有するセンサーセルアレイの各センサーセル(画素)に集光するものである。
As shown in FIG. 2, the
The
The
カラーフィルターアレイ10cは、マイクロレンズ10bを透過した光から所定の1種類の色要素に対応する波長の光を分離して該分離した光を対応する各画素に入射するカラーフィルター部(以下、CF部と称す)を少なくとも画素数分含んで構成されるものであ
る。
HDRセンサー10dは、各センサーセル(画素)がフォトダイオード及びCMOS素子から構成されるセンサーセルアレイを有し、電子シャッター方式によって露光時間を制御して露光時間の異なる複数種類の画像データを出力するものである。
駆動回路10eは、不図示のレジスターで設定される駆動モードと画像処理装置20からの同期信号とに基づき、HDRセンサー10dと読出回路10fとを駆動するものである。本実施形態においては、異なる露光時間で被写体を撮像するように駆動し、露光時間の異なる複数種類の撮像画像データを出力する。
The
The
The
読出回路10fは、HDRセンサー10dから撮像画像信号を読み出し、読み出した撮像画像信号(アナログ)に対してA/D変換を含む各種信号処理を施してデジタルの撮像画像データとして画像処理装置20に出力する。このとき、読出回路10fは、駆動回路10eを介して供給される画像処理装置20からの同期信号に同期して撮像画像データを出力する。
画像処理装置20は、HDR撮像素子10から出力される、露光時間の異なる複数種類の撮像画像データに基づき、ノイズ除去処理、合成処理、色処理、輝度画像データ生成処理、輝度値→ゲイン変換処理、レベル変換(トーンマッピング)処理、γ変換処理等を行うものである。なお、詳細な構成は後述する。
The
The
(カラーフィルターアレイの構成例)
次に、図3に基づき、カラーフィルターアレイ10cの構成を説明する。
ここで、図3は、カラーフィルターアレイ10cの構成を示す図である。
図3において、R、G、Bは、光の3原色(赤色、緑色、青色)のいずれか1色の波長領域の光を選択的に透過するCF部に対応し、これらに付された下付の数字は、行番号及び列番号を示す。例えば、R00であれば、行番号1の第1列目の画素に対応するRの波長領域の光を透過するフィルター部となる。なお、本実施形態においては、水平方向を行方向とし、垂直方向を列方向として、撮像装置2は、水平方向に並ぶ複数の画素から構成されるラインの単位で処理を行うようになっている。
(Color filter array configuration example)
Next, the configuration of the
Here, FIG. 3 is a diagram showing a configuration of the
In FIG. 3, R, G, and B correspond to CF portions that selectively transmit light in the wavelength region of any one of the three primary colors (red, green, and blue), and are attached to these. The attached numbers indicate row numbers and column numbers. For example, if R 00, a filter portion that transmits light in the wavelength region of R corresponding to the first column of the
具体的に、カラーフィルターアレイ10c(以下、CFアレイ10cと称す)は、マイクロレンズ10bを介して入射された光から、赤色に対応する波長領域の光(以下、R光と称す)、緑色に対応する波長領域の光(以下、G光と称す)及び青色に対応する波長領域の光(以下、B光と称す)のうち所定の1色に対応する波長領域の光を分離して、該分離した光をそれぞれ対応する画素に入射する複数のCF部から構成されている。
Specifically, the
より具体的に、CFアレイ10cは、図3に示すように、入射光からR光を分離して、該分離したR光を画素に入射する複数のR光透過フィルター部(図3中のR)と入射光からG光を分離して、該分離したG光を画素に入射する複数のG光透過フィルター部(図3中のG)とがR→G→R→G→R→G→・・・の順で水平方向に連続した構成のフィルターラインRGFLを複数備えている。
More specifically, as shown in FIG. 3, the
更に、複数のG光透過フィルター部と、入射光からB光を分離して、該分離したB光を画素に入射する複数のB光透過フィルター部(図3中のB)とがG→B→G→B→G→B→・・・の順で水平方向に連続した構成のフィルターラインGBFLを複数備えている。これら複数の、フィルターラインRGFLと、フィルターラインGBFLとは、図2に示すように、RGFL→GBFL→RGFL→GBFL→RGFL→・・・の順で垂直方向に連続して配列されている。つまり、複数のG光透過フィルター部と、複数のB光透過フィルター部と、複数のR光透過フィルター部とがベイヤ型に配列された構成となっている。 Further, a plurality of G light transmission filter sections and a plurality of B light transmission filter sections (B in FIG. 3) for separating the B light from the incident light and entering the separated B light into the pixels are G → B. A plurality of filter lines GBFL having a configuration that is continuous in the horizontal direction in the order of G → B → G → B →. The plurality of filter lines RGFL and filter lines GBFL are continuously arranged in the vertical direction in the order of RGFL → GBFL → RGFL → GBFL → RGFL →... That is, a plurality of G light transmission filter sections, a plurality of B light transmission filter sections, and a plurality of R light transmission filter sections are arranged in a Bayer shape.
(HDRセンサー10dの駆動制御方法について)
次に、図4〜図6に基づき、撮像素子10のHDRセンサー10dの露光時間の制御方法、及びセンサーセルアレイからの画素信号の読み出し方法について説明する。ここで、図4は、HDRセンサー10dのセンサーセルアレイにおける各画素のライン毎の露光及び画素信号の読み出し動作の一例を示す図である。また、図5は、蓄積電荷のリセットタイミングと、各露光時間の画素信号の読み出しタイミングとの一例を示す図である。また、図6は、HDRセンサー10dからの画素データの出力形式の一例を示す図である。
(About the drive control method of the
Next, a method for controlling the exposure time of the
ここで、本発明の露光時間の制御は、センサーセルアレイの露光領域(走査領域)に対して、超短露光時間T_S1の画素信号の非破壊読み出しを行う非破壊読み出しラインL
1と、短露光時間T_S2の画素信号の非破壊読み出しを行う非破壊読み出しラインL2
とを設定する。更に、各画素のラインの蓄積電荷のリセット及び標準露光時間T_S3の
画素信号の読み出しを行う読み出し&リセットラインL3を設定する。なお、T_S1〜
T_S3の関係は、図5に示すように、「T_S1<T_S2<T_S3」となっており、リセットされてから、まずT_S1経過時に非破壊読み出しラインL1が設定される。次に
T_S2経過時に非破壊読み出しラインL2が設定され、次にT_S3経過時に読み出し&リセットラインL3が設定される。
Here, the exposure time of the present invention is controlled by a nondestructive readout line L that performs nondestructive readout of the pixel signal of the ultrashort exposure time T_S1 with respect to the exposure region (scan region) of the sensor cell array.
1 and a non-destructive readout line L2 for non-destructive readout of a pixel signal having a short exposure time T_S2
And set. Further, a read & reset line L3 for resetting the accumulated charge of each pixel line and reading the pixel signal of the standard exposure time T_S3 is set. T_S1 ~
As shown in FIG. 5, the relationship of T_S3 is “T_S1 <T_S2 <T_S3”, and after reset, first, the non-destructive read line L1 is set when T_S1 has elapsed. Next, the non-destructive read line L2 is set when T_S2 elapses, and the read & reset line L3 is set when T_S3 elapses.
具体的に、非破壊読み出しラインL1及びL2並びに読み出し&リセットラインL3は、図4に示すように、露光領域における画素のラインに順次標準露光時間T_S3分の電
荷が蓄積されると、読み出し&リセットラインL3が各画素のラインの画素信号を順次読み出すと共に、その蓄積電荷を順次リセットするように設定される。一方、露光領域のリセット後の各画素のラインにおいては、標準露光時間T_S3の時間分の電荷が蓄積され
る期間中、超短露光時間T_S1及び短露光時間T_S2において各画素のラインの画素信号を非破壊で順次読み出すように非破壊読み出しラインL1及びL2がそれぞれ設定される。
Specifically, the non-destructive read lines L1 and L2 and the read & reset line L3 are read and reset when charges corresponding to the standard exposure time T_S3 are sequentially accumulated in the pixel lines in the exposure region, as shown in FIG. The line L3 is set so as to sequentially read out pixel signals of the lines of the respective pixels and to sequentially reset the accumulated charges. On the other hand, in the line of each pixel after resetting the exposure area, the pixel signal of the line of each pixel is obtained during the ultrashort exposure time T_S1 and the short exposure time T_S2 during the period in which the charge for the standard exposure time T_S3 is accumulated. Non-destructive read lines L1 and L2 are set to sequentially read non-destructively.
なお、本実施の形態においては、図4に示すように、リセット直後の超短露光時間T_
S1に対応する画素信号(アナログデータ)S1は、第1ラインメモリーに読み出され、短露光時間T_S2に対応する画素信号(アナログデータ)S2は、第2ラインメモリー
に読み出される。更に、標準露光時間T_S3に対応する画素信号(アナログデータ)S
3は、第3ラインメモリーに読み出される。そして、これら読み出された画素信号S1〜S3は、図3に示すように、それぞれ選択回路を経てADCにS1〜S3の順で順次出力されそこでデジタルデータ(画素データ)に変換される。変換された各画素データは、変換された順に(S1〜S3の順に)ライン単位で画像処理装置20に出力される。
In the present embodiment, as shown in FIG. 4, the ultrashort exposure time T_ immediately after the reset
The pixel signal (analog data) S1 corresponding to S1 is read to the first line memory, and the pixel signal (analog data) S2 corresponding to the short exposure time T_S2 is read to the second line memory. Further, a pixel signal (analog data) S corresponding to the standard exposure time T_S3.
3 is read into the third line memory. Then, as shown in FIG. 3, the read pixel signals S1 to S3 are sequentially output to the ADC in the order of S1 to S3 through the selection circuits, and are converted into digital data (pixel data) there. The converted pixel data is output to the
また、上記非破壊読み出しラインL1及びL2並びに読み出し&リセットラインL3の画素信号の読み出しタイミングの制御は、図4に示すように、各画素のライン毎に、読み出し&リセットラインL3を順次走査する(図4のスキャン方向)。そして、読み出し&リセットラインL3においては、蓄積電荷のリセットを行うとともに、蓄積電荷のリセット直前に標準露光時間T_S3の露光が行われた画素の画素信号の読み出しを行う。更に
、リセット直後に、超短露光時間T_S1の画素信号の読み出しを行う。
In addition, as shown in FIG. 4, the readout timing of the pixel signals on the non-destructive readout lines L1 and L2 and readout & reset line L3 is sequentially scanned for each pixel line (see FIG. 4). Scan direction in FIG. 4). In the read & reset line L3, the accumulated charge is reset, and the pixel signal of the pixel that has been exposed for the standard exposure time T_S3 immediately before the accumulated charge is reset is read. Further, immediately after the reset, the pixel signal of the ultrashort exposure time T_S1 is read out.
例えば、露光領域の一番目のラインである第1ラインにおいて標準露光時間T_S3の
画素信号S3の読み出し及びリセットが行われたとする。以降は、画素信号S3が第3ラインメモリーから全て外部に読み出される毎に、図4中のスキャン方向に1ラインずつ、読み出し&リセットラインL3の走査が順次行われる。このとき、読み出し&リセットラインL3が再び第1ラインに到達したときに、丁度標準露光時間T_S3が経過するタイ
ミングとなるように走査が行われる。このような手順で、センサーセルアレイの露光領域の画素のラインに対して、各画素のライン毎に、標準露光時の画素信号の読み出し及び蓄
積電荷のリセットを順次行う。
For example, it is assumed that the pixel signal S3 of the standard exposure time T_S3 is read and reset on the first line that is the first line of the exposure region. Thereafter, every time the pixel signal S3 is read from the third line memory to the outside, scanning of the read & reset line L3 is sequentially performed one line at a time in the scan direction in FIG. At this time, when the read & reset line L3 reaches the first line again, scanning is performed so that the standard exposure time T_S3 has just passed. In such a procedure, the pixel signal is read out and the stored charge is reset at the time of standard exposure for each pixel line for the pixel line in the exposure region of the sensor cell array.
一方、蓄積電荷がリセットされると、当該リセット後の画素のラインに対して、非破壊読み出しラインL1において超短露光時間T_S1の露光が行われた画素の画素信号S1
の非破壊読み出しを行い、引き続き、非破壊読み出しラインL2において短露光時間T_
S2の露光が行われた画素の画素信号S2の非破壊読み出しを行う。このような手順で、センサーセルアレイの各画素のラインに対して、ライン毎に、超短露光時間T_S1及び
短露光時間T_S2で露光時の画素信号S1及びS2の非破壊読み出しを順次行う。
On the other hand, when the accumulated charge is reset, the pixel signal S1 of the pixel that has been exposed for the ultrashort exposure time T_S1 in the nondestructive readout line L1 with respect to the pixel line after the reset
Of non-destructive readout, and then the short exposure time T_ in the non-destructive readout line L2
Non-destructive readout of the pixel signal S2 of the pixel subjected to the exposure of S2 is performed. According to such a procedure, the pixel signals S1 and S2 at the time of exposure are sequentially read out for each line of each pixel of the sensor cell array with the ultrashort exposure time T_S1 and the short exposure time T_S2.
このようにして読み出された画素信号S1〜S3は、ライン毎に、第1ラインメモリー〜第3ラインメモリーにそれぞれ格納されライン単位で選択回路へと出力される。選択回路からは、S1〜S3の順でアナログの画素データS1〜S3がADCに出力される。ADCは、アナログの画素データS1〜S3を、デジタルの画素データS1〜S3に変換する。そして、ADCからは、図6に示すように、ライン単位でS1〜S3の順に画素データが順次、画像処理装置20へと出力される。つまり、画像処理装置20には、図6に示すように、画素データS3に先行して、画素データS1〜S2がS1からS2の順に入力される。
The pixel signals S1 to S3 read out in this way are stored in the first line memory to the third line memory for each line and output to the selection circuit in line units. From the selection circuit, analog pixel data S1 to S3 are output to the ADC in the order of S1 to S3. The ADC converts the analog pixel data S1 to S3 into digital pixel data S1 to S3. Then, as shown in FIG. 6, the pixel data is sequentially output from the ADC to the
(画像処理装置の構成例)
次に、図7〜図12に基づき、画像処理装置20の詳細な構成を説明する。
ここで、図7は、画像処理装置20の内部構成の一例を示すブロック図である。また、図8は、測光部25及びHDR本線処理部26の内部構成の一例を示すブロック図である。また、図9は、HDR線形処理部30及びレベル補正処理部31の内部構成の一例を示すブロック図である。また、図10は、合成処理部30aの内部構成の一例を示すブロック図である。また、図11は、輝度分布情報生成部40の内部構成の一例を示すブロック図である。また、図12は、補正ゲイン算出部51の内部構成の一例を示すブロック図である。
(Configuration example of image processing apparatus)
Next, a detailed configuration of the
Here, FIG. 7 is a block diagram illustrating an example of an internal configuration of the
画像処理装置20は、図7に示すように、プリプロセス部21と、遅延部22〜24と、測光部25と、HDR本線処理部26とを含んで構成される。
プリプロセス部21は、HDRセンサー10dからの画素信号(画素データS1〜S3)に対して、超短露光時間T_S1の画素データS1を用いた固定パターンノイズの除去
処理、クランプ処理などを行う。
As shown in FIG. 7, the
The
具体的に、固定パターンノイズの除去処理は、短露光時間T_S2及び標準露光時間T_S3の画素データから、超短露光時間T_S1の画素データを各対応する画素毎に減算す
る処理となる。つまり、超短露光時間T_S1の画素データは、リセット直後の画素信号
に対応するデータであるため、電荷の蓄積量が少なく、固定パターンノイズの成分に支配されているので、このデータを、他の露光時間のデータから減算することで、固定パターンノイズの成分のみを除去することができる。
また、クランプ処理は、HDRセンサー10dからの画素データS1〜S3を受信し、それが遮光領域の信号か否かを検出し、遮光領域と検出された場合はその信号レベルが黒(基準)レベルになるように、全ての入力画素データの直流成分をクランプする処理となる。
Specifically, the fixed pattern noise removal process is a process of subtracting the pixel data of the ultrashort exposure time T_S1 for each corresponding pixel from the pixel data of the short exposure time T_S2 and the standard exposure time T_S3. That is, since the pixel data of the ultra-short exposure time T_S1 is data corresponding to the pixel signal immediately after the reset, the amount of accumulated charge is small and governed by the component of the fixed pattern noise. By subtracting from the exposure time data, only the fixed pattern noise component can be removed.
The clamp process receives the pixel data S1 to S3 from the
そして、固定パターンノイズの除去処理及びクランプ処理を経た画素データS1〜S3は、遅延部22〜24を介して出力タイミングを同期させて、HDR本線処理部26に出力される。以下、露光時間T_S1〜T_S3にそれぞれ対応する撮像画像データ(1フレーム分の画素データ)を、画素データS1〜S3と同様に、撮像画像データS1〜S3と称す。
遅延部22〜24は、露光時間の長さに応じて順番に出力される画素データS1〜S3を、遅延量d_S1〜d_S3でそれぞれ遅延させる遅延素子を有している。そして、画素データS1〜S3の出力タイミングを同期させる機能を有している。
具体的に、遅延部22の遅延素子は画素データS3を遅延量d_S3で遅延させ、遅延
部23の遅延素子は画素データS2を遅延量d_S2で遅延させ、遅延部24の遅延素子
は画素データS1を遅延量d_S3で遅延させる(d_S3<d_S2<d_S1)。
The pixel data S <b> 1 to S <b> 3 that have undergone the fixed pattern noise removal process and the clamp process are output to the HDR main
The
Specifically, the delay element of the
画素データS1に対する画素データS2及びS3の出力遅延時間を単純にdT2(T_
S2−T_S1)及びdT3(T_S3−T_S1)とし、その他の処理遅延を補正する遅
延量をΔt1、Δt2、Δt3とする。この場合に、「(d_S3=Δt3+dT3)=
(d_S2=Δt2+dT2)=(d_S1=Δt1)」の関係が成り立つ。
測光部25は、プリプロセス部21から出力される撮像画像データS1又はS2に基づき、ヒストグラムの生成処理、レベル補正制御パラメーターの発生処理を行う。
The output delay time of the pixel data S2 and S3 with respect to the pixel data S1 is simply set to dT2 (T_
S2-T_S1) and dT3 (T_S3-T_S1), and delay amounts for correcting other processing delays are Δt1, Δt2, and Δt3. In this case, “(d_S3 = Δt3 + dT3) =
The relationship (d_S2 = Δt2 + dT2) = (d_S1 = Δt1) ”holds.
The
HDR本線処理部26は、遅延部22〜24を介して、同期して入力される撮像画像データS1〜S3と、測光部25からのレベル補正制御パラメーターとに基づき、HDR合成処理、トーンマップ処理、色処理、ガンマ変換処理を行う。そして、ガンマ変換処理後の画像データ信号をビデオ信号として出力する。ビデオ信号は、業界標準の規格に準じた形態で、例えば8ビットのレンジに圧縮された画像信号である。
The HDR main
(測光部25の構成例)
測光部25は、図8に示すように、画素データS1又はS2に基づき撮像画像の輝度のヒストグラムを生成する輝度分布情報生成部40と、生成したヒストグラムに基づきレベル補正制御パラメーターを発生する制御パラメーター発生部41とを含んで構成される。
また、HDR本線処理部26は、図8に示すように、画素データS1〜S3に基づきHDRカラー画像データを生成するHDR線形処理部30と、HDRカラー画像データを業界標準(規格)のレンジ(階調範囲)に圧縮しHDRのビデオ信号を出力するレベル補正処理部31とを含んで構成される。
(Configuration example of photometry unit 25)
As shown in FIG. 8, the
As shown in FIG. 8, the HDR main
(HDR線形処理部30の構成例)
まず、図9及び図10に基づき、図8に示すHDR線形処理部30の詳細な構成について説明する。
HDR線形処理部30は、図9に示すように、合成処理部30aと、色処理部30bとを含んで構成される。
合成処理部30aは、3種類の露光時間T_S1,T_S2,T_S3に対応する画素デ
ータS1,S2,S3の信号を、前記露光時間の比率に基づいて合成し、HDR_RAW
画素データを生成する。
具体的に、合成処理部30aは、図10に示すように、正規化のためのゲインを算出する正規化ゲイン算出部70,71と、正規化ゲインを用いて画素データを正規化する正規化部72,73と、を含んで構成される。
(Configuration example of HDR linear processing unit 30)
First, based on FIG.9 and FIG.10, the detailed structure of the HDR
As shown in FIG. 9, the HDR
The combining
Pixel data is generated.
Specifically, as illustrated in FIG. 10, the
正規化ゲイン算出部70は、露光時間T_S3及びT_S1の比率に応じた正規化ゲインRS3を算出する。例えば、T_S1を基準に正規化を行う場合は、「RS3=T_S1/T_S3」を算出する。
正規化ゲイン算出部71は、露光時間T_S2及びT_S1の比率に応じた正規化ゲインRS2を算出する。例えば、T_S1を基準に正規化を行う場合は、「RS2=T_S1/T_S2」を算出する。
正規化部72は、画素データS3に正規化ゲインRS3を乗算して、画素データS3を正規化し、正規化画素データNS3を出力する。
The normalization
The normalization
The normalizing
正規化部73は、画素データS2に正規化ゲインRS2を乗算して、画素データS2を正規化し、正規化画素データNS2を出力する。
合成処理部30aは、更に、画像合成時の合成重みW1,W2,W3を算出する合成重み算出部74と、合成重みW1,W2,W3を用いて正規化画素データNS1,NS2,NS3を重み付けする重み付け部75,76,77と、を含んで構成される。
The normalizing
The
合成重み算出部74は、画素データS1,S2,S3に基づき、合成重みW1,W2,W3を算出する。具体的に、下式(1)に示す、画素データS1〜S3を要素xとした、重み関数F(x)を用いて合成重みを算出する。
F(x)=(x/MAX)n ・・・(1)
上式(1)において、MAXは、画素データS1,S2,S3の階調範囲の最大値、例えば、8ビットの階調範囲であれば「MAX=255」、10ビットの階調範囲であれば「MAX=1023」となる。
The combination
F (x) = (x / MAX) n (1)
In the above equation (1), MAX is the maximum value of the gradation range of the pixel data S1, S2, S3, for example, “MAX = 255” if the gradation range is 8 bits, and the gradation range of 10 bits. For example, “MAX = 1023”.
上式(1)を用いて、W1〜W3は、例えば、下式(2)〜(4)で算出することができる。
W1=F(S2) ・・・(2)
W2=F(S3)−W1=F(S3)−F(S2) ・・・(3)
W3=1−W2−W1=1−F(S3) ・・・(4)
Using the above equation (1), W1 to W3 can be calculated by, for example, the following equations (2) to (4).
W1 = F (S2) (2)
W2 = F (S3) -W1 = F (S3) -F (S2) (3)
W3 = 1-W2-W1 = 1-F (S3) (4)
重み付け部75は、合成重みW3を正規化画素データNS3に乗算して、重み付け画素データWS3を出力する。
重み付け部76は、合成重みW2を正規化画素データNS2に乗算して、重み付け画素データWS2を出力する。
重み付け部77は、合成重みW1を画素データS1に乗算して、重み付け画素データWS1を出力する。
合成処理部30aは、更に、重み付け画素データWS1,WS2,WS3を合成してHDR_RAW画素データを生成し、生成したHDR_RAW画素データを色処理部30bに出力する合成部78を含んで構成される。
The
The
The
The
合成部78は、例えば、画素データS1〜S3がそれぞれ10ビットのデータであるとして、重み付け画素データWS1,WS2,WS3を合成して20ビットのHDR_RA
W画素データを生成する。なお、1フレーム分のHDR_RAW画素データが、HDR画
像データ(HDR_RAW画像データ)となる。
色処理部30bは、不図示のラインメモリーを有しており、HDR_RAW画素データ
(処理すべき画素のデータ)と、ラインメモリーに格納された、処理すべき画素の周辺の画素のHDR_RAW画素データとを用いて色補間処理を行う。すなわち、ラインメモリ
ーにより遅延された、HDR_RAW画素データを用いて、画像の各点について、RGB
色空間に規定される色信号(データ)を生成する処理(色信号処理)を行う。
For example, the combining
W pixel data is generated. Note that HDR_RAW pixel data for one frame becomes HDR image data (HDR_RAW image data).
The
Processing for generating a color signal (data) defined in the color space (color signal processing) is performed.
また、色処理部30bは、撮像画像の輪郭部分の明度差および色相差を補正して撮像画像の輪郭部を明瞭にするシャープネス処理も行う。
上記色補間処理によって、HDR_RAW画素データを、画素毎に、RGBの各色要素
にそれぞれ対応するHDRカラー画素データに変換する。
これにより、画素毎に、R(赤)の色要素に対応する画素データR_hdr、G(緑)
の色要素に対応する画素データG_hdr及びB(青)の色要素に対応する画素データB_
hdrを有するHDRカラー画素データが生成される。なお、1フレーム分の画素データS1〜S3に対応するHDRカラー画素データR_hdr、G_hdr及びB_hdrから
HDRカラー画像データが構成される。
The
Through the color interpolation process, the HDR_RAW pixel data is converted into HDR color pixel data corresponding to each color element of RGB for each pixel.
Thereby, for each pixel, pixel data R_hdr, G (green) corresponding to the R (red) color element
Pixel data G_hdr corresponding to the color element of B and pixel data B_ corresponding to the color element of B (blue)
HDR color pixel data having hdr is generated. In addition, HDR color image data is comprised from HDR color pixel data R_hdr, G_hdr, and B_hdr corresponding to the pixel data S1 to S3 for one frame.
(輝度分布情報生成部40の構成例)
次に、図11に基づき、図8に示す輝度分布情報生成部40について詳細な構成を説明する。
輝度分布情報生成部40は、図11に示すように、セレクター60と、ヒストグラム生成器61とを含んで構成される。
セレクター60は、切替信号に応じて、ヒストグラム生成器61に入力する画素データを画素データS1及びS2のいずれか一方に選択的に切り替える機能を有している。この切り替えは、予め設定されたモードに応じて行ったり、撮影条件などに応じて自動的に行ったりする。
(Configuration example of luminance distribution information generation unit 40)
Next, a detailed configuration of the luminance distribution
As shown in FIG. 11, the luminance distribution
The
ヒストグラム生成器61は、図11に示すように、レベル分割器62と、カウンター63a〜63eと、出力レジスター64a〜64eとを含んで構成される。
レベル分割器62は、入力される画素データS1又はS2の階調レベルが、階調範囲(例えば、0〜1023)を複数の範囲に区分してなる各区分範囲のいずれに属するかを判定する。そして、カウンター63a〜63eのうち、判定結果の区分範囲に対応するカウンターにカウントパルスを入力する。
As shown in FIG. 11, the
The
カウンター63a〜63eは、各々が、レベル分割器62から入力されるカウントパルスをカウント(計数)し、そのカウント値を、出力レジスター64a〜64eのうち、符号の末尾の英字が同じ出力レジスターに出力する。また、カウンター63a〜63eは、外部からのRESET信号に応じて、カウント値をリセット(例えば、0に初期化)する。
出力レジスター64a〜64eは、各々が、カウンター63a〜63eのうち符号の末尾の英字が同じカウンターから入力されるカウント値を記憶し、外部からのHOLD信号に応じて、記憶したカウント値を、制御パラメーター発生部41に出力する。
Each of the
Each of the output registers 64a to 64e stores a count value input from the counter having the same letter at the end of the code among the
本実施の形態では、画素データS1又はS2の階調範囲を、画素データ信号の信号レベルをDATAとし、信号レベルのレンジの最大値をMAXとして、以下の5つの区分範囲に区分する。
(1)「Saturation(飽和):MAX=DATA」
(2)「High Range:(MAX+1)/2≦DATA<MAX」
(3)「Middle Range:(MAX+1)/8≦DATA<(MAX+1)/2」
(4)「Low Range:(MAX+1)/64≦DATA<(MAX+1)/8」
(5)「Bottom Range:0≦DATA<(MAX+1)/64」
上記区分範囲(1)〜(5)とカウンター63a〜63e及び出力レジスター64a〜64eとは、区分範囲(1)に対してカウンター63a及び出力レジスター64aが対応し、区分範囲(2)に対してカウンター63b及び出力レジスター64bが対応する。
In the present embodiment, the gradation range of the pixel data S1 or S2 is divided into the following five division ranges, where the signal level of the pixel data signal is DATA and the maximum value of the signal level range is MAX.
(1) “Saturation: MAX = DATA”
(2) “High Range: (MAX + 1) / 2 ≦ DATA <MAX”
(3) “Middle Range: (MAX + 1) / 8 ≦ DATA <(MAX + 1) / 2”
(4) “Low Range: (MAX + 1) / 64 ≦ DATA <(MAX + 1) / 8”
(5) “Bottom Range: 0 ≦ DATA <(MAX + 1) / 64”
The division ranges (1) to (5), the
また、区分範囲(3)に対してカウンター63c及び出力レジスター64cが対応し、区分範囲(4)に対してカウンター63d及び出力レジスター64dが対応し、区分範囲(5)に対してカウンター63e及び出力レジスター64eが対応する。
つまり、入力された画素データ(DATA)が、上記区分範囲(1)〜(5)のいずれかに属するかを判定し、カウンター63a〜63eによって各区分範囲に属する画素データを計数する(1フレーム期間分を計数する)。そして、撮像画像データS1又はS2の各画素データに対する、区分範囲(1)〜(5)の各区分範囲の画素数からヒストグラムを生成する。
Further, the
That is, it is determined whether the input pixel data (DATA) belongs to any one of the above-described division ranges (1) to (5), and the pixel data belonging to each division range is counted by the
なお、超短露光時間T_S1は、標準露光時間T_S3の1/100〜1/1000とし、短露光時間T_S2は、標準露光時間T_S3の1/10〜1/100とすることが望ましい。換言すると、超短露光時間T_S1の露光による露光量(蓄積電荷量)S1は、標
準露光時間T_S3の露光による露光量S3の1/100〜1/1000とすることが望
ましい。また、短露光時間T_S2の露光による露光量S2は、標準露光時間T_S3の露光による露光量S3の1/10〜1/100とすることが望ましい。
It is desirable that the ultrashort exposure time T_S1 is 1/100 to 1/1000 of the standard exposure time T_S3, and the short exposure time T_S2 is 1/10 to 1/100 of the standard exposure time T_S3. In other words, it is desirable that the exposure amount (accumulated charge amount) S1 by exposure during the ultrashort exposure time T_S1 is 1/100 to 1/1000 of the exposure amount S3 by exposure during the standard exposure time T_S3. Further, it is desirable that the exposure amount S2 by the exposure with the short exposure time T_S2 is set to 1/10 to 1/100 of the exposure amount S3 by the exposure with the standard exposure time T_S3.
また、本実施の形態では、ヒストグラムの生成において、画素データS1及びS2の一方を入力データとして選択できる構成となっているが、S1よりS2を用いることが望ましい。その理由は、S1では高輝度領域(明部)は精度良くヒストグラムを生成できるが、低輝度領域(暗部)は潰れる恐れがあるためである。一方、S3を仮に用いた場合には、低輝度領域(暗部)は精度良くヒストグラムを生成できるが、高輝度領域(明部)は飽和する恐れがある。これらの理由から、S2によりヒストグラムを生成(測光)することが望ましい。 In the present embodiment, in the generation of the histogram, one of the pixel data S1 and S2 can be selected as input data. However, it is desirable to use S2 rather than S1. The reason is that in S1, a histogram can be generated with high accuracy in the high luminance region (bright portion), but the low luminance region (dark portion) may be crushed. On the other hand, if S3 is used, a histogram can be generated with high accuracy in the low luminance region (dark portion), but the high luminance region (bright portion) may be saturated. For these reasons, it is desirable to generate (photometric) a histogram by S2.
(制御パラメーター発生部41について)
次に、図8に示す制御パラメーター発生部41について説明する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラ
ム)に基づき、レベル補正処理部31に対して、HDRカラー画像データの階調レベルの
補正内容を制御するレベル補正制御パラメーターを算出する。
本実施の形態では、ヒストグラムからコントラスト比の高低の程度を判定し、その判定結果に基づき、予め用意された複数種類の補正内容のうち、いずれの補正内容を用いるかを指定するパラメーターを算出(決定)する。
(Regarding the control parameter generator 41)
Next, the
The control
In the present embodiment, the level of the contrast ratio is determined from the histogram, and a parameter that specifies which correction content to use from a plurality of types of correction content prepared in advance is calculated based on the determination result ( decide.
具体的には、ヒストグラムにおいて区分範囲(1)の画素数(飽和画素数)と区分範囲(2)の画素数とを加算した数値が第1の閾値Th1以上で、かつ区分範囲(5)の画素数が第2の閾値Th2以上の場合に、コントラスト比が高い(ハイコントラストである)と判定する。
ここで、Th1は、撮像画像の解像度に応じて変化するもので、総画素数の例えば20%などに設定される。また、Th2も、撮像画像の解像度に応じて変化するもので、総画素数の例えば20%などに設定される。
Specifically, in the histogram, a value obtained by adding the number of pixels (saturated pixel number) in the segmented range (1) and the number of pixels in the segmented range (2) is equal to or greater than the first threshold Th1 and the segmented range (5) When the number of pixels is equal to or greater than the second threshold Th2, it is determined that the contrast ratio is high (high contrast).
Here, Th1 changes according to the resolution of the captured image, and is set to 20% of the total number of pixels, for example. Th2 also changes according to the resolution of the captured image, and is set to 20% of the total number of pixels, for example.
ハイコントラストと判定した場合は、ハイコントラスト用の補正内容を指定するレベル補正制御パラメーターを算出する。本実施の形態では、第1及び第2の閾値Th1及びTh2を総画素数の20〜30%の間の段階的な数値で用意し、コントラスト比の高さの程度を段階的に判定する。そして、コントラスト比が高ければ高いほど、低輝度側のレベル上昇を抑える(緩やかにする)補正内容を指定するレベル補正制御パラメーターを算出する。 If it is determined that the contrast is high, a level correction control parameter that specifies the correction content for high contrast is calculated. In the present embodiment, the first and second threshold values Th1 and Th2 are prepared as stepwise numerical values between 20% to 30% of the total number of pixels, and the degree of the contrast ratio is determined stepwise. Then, as the contrast ratio is higher, a level correction control parameter for designating correction contents for suppressing (relaxing) the level increase on the low luminance side is calculated.
一方、区分範囲(1)の画素数(飽和画素数)と区分範囲(2)の画素数とを加算した数値が第3の閾値Th3以下である場合は、コントラスト比が低いと判定する。本実施の形態では、第3の閾値Th3を、例えば、総画素数の15〜20%の範囲で段階的な数値で用意し、コントラスト比の低さの程度を段階的に判定する。そして、コントラスト比が低ければ低いほど低輝度側のレベル上昇を急峻にする補正内容を指定するレベル補正制御パラメーターを算出する。
また、レベル補正制御パラメーターは、HDRカラー画像データの輝度情報を輝度レベル補正ゲインへと変換する変換式のパラメーターや、この変換式を用いて、様々なパラメーターに対して予め生成された複数種類の変換用LUT(Look Up Table)のいずれかを
指定する情報などとしてもよい。
On the other hand, when the numerical value obtained by adding the number of pixels (saturated pixels) in the section range (1) and the number of pixels in the section range (2) is equal to or less than the third threshold Th3, it is determined that the contrast ratio is low. In the present embodiment, for example, the third threshold value Th3 is prepared as a stepwise numerical value within a range of 15 to 20% of the total number of pixels, and the degree of low contrast ratio is determined stepwise. Then, the level correction control parameter for designating the correction content that makes the level increase on the low luminance side steeper as the contrast ratio is lower is calculated.
The level correction control parameter is a parameter of a conversion formula for converting luminance information of HDR color image data into a luminance level correction gain, or a plurality of types of parameters generated in advance for various parameters using this conversion formula. Information specifying one of conversion LUTs (Look Up Table) may be used.
(レベル補正処理部31の構成例)
次に、図9に戻って、レベル補正処理部31は、ラインメモリー50と、補正ゲイン算出部51と、乗算器52と、γ変換部53とを含んで構成される。
ラインメモリー50は、補正ゲイン算出部51における計算遅延を補正し、HDRカラー画像データと輝度レベル補正ゲインとの出力タイミング(位相)を合わせる。つまり、ラインメモリー50は、補正ゲイン算出部51で要する計算時間分、出力タイミングを遅延する遅延素子としての役割を果たす。
補正ゲイン算出部51は、処理対象画素及びその周辺画素の輝度値と、測光部25からのレベル補正制御パラメーターとに基づいて、輝度レベル補正ゲインを算出する。
(Configuration example of level correction processing unit 31)
Next, returning to FIG. 9, the level
The
The correction
乗算器52は、HDRカラー画像データの各画素データと輝度レベル補正ゲインとを乗算してレベル変換(トーンマッピング)を行う。具体的に、レベル変換は、暗い側の領域画像を伸張してヒストグラムを均一に広げる(ブロード化する)動作となる。
γ変換部53は、レベル変換されたHDRカラー画像データをγ曲線(トーンカーブ)に準じて8ビットに量子化する(レンジ圧縮する)。
具体的に、γ変換部53は、外部表示装置の表示可能な階調範囲(例えば、業界標準の階調範囲)に対応するトーンカーブの情報が格納されたLUTから、レベル変換後のHDRカラー画像データの各画素データの値に対応した変換値を取得する。つまり、各画素データの示す階調値(輝度値)を、トーンカーブにおける対応する変換値に置き換えることでγ変換を施す。
The
The
Specifically, the
例えば、HDRカラー画像データの階調範囲が20ビットで、外部表示装置の表示可能な階調範囲が8ビットである場合は、LUTに格納された、20ビットの階調範囲の輝度値を8ビットの階調範囲の輝度値に変換するトーンカーブの情報から、各入力輝度値に対応した変換値を取得する。このとき、外部表示装置から、その表示可能な階調範囲を示す情報を取得するようにしてもよい。 For example, when the gradation range of the HDR color image data is 20 bits and the displayable gradation range of the external display device is 8 bits, the luminance value of the 20-bit gradation range stored in the LUT is set to 8 A conversion value corresponding to each input luminance value is acquired from information of a tone curve to be converted into a luminance value in a bit gradation range. At this time, information indicating the displayable gradation range may be acquired from the external display device.
(補正ゲイン算出部51の構成例)
次に、図12に基づき、補正ゲイン算出部51の詳細な構成について説明する。
補正ゲイン算出部51は、図12に示すように、輝度値算出部51aと、ラインメモリー51bと、輝度値→ゲイン変換部51cとを含んで構成される。
輝度値算出部51aは、HDRカラー画像データの処理対象画素及びその周辺画素の輝度値に基づき撮像画像の輝度を示す輝度画像データYを生成し、輝度画像データYから照明光成分を抽出する。
(Configuration Example of Correction Gain Calculation Unit 51)
Next, a detailed configuration of the correction
As shown in FIG. 12, the correction
The luminance
具体的に、HDR線形処理部30で生成されたHDRカラー画像データを輝度画像データYに変換し、輝度画像データYに対して、ローパスフィルター(以下、LPFと称す)を用いたぼかし処理を行う。このぼかし処理を行う目的は、HDRカラー画像データから照明光成分を分離し、分離した照明光成分の輝度画像を得るためである。
輝度値算出部51aは、まず、HDRカラー画像データを構成する赤色(R)、緑色(G)、青色(B)に対応するHDRカラー画素データR_hdr(x,y)、G_hdr(x、y)、B_hdr(x、y)を、輝度画素データP(x,y)へと変換する。なお、
1画像分の輝度画素データP(x,y)から輝度画像データYが構成される。また、(x,y)は、画素の位置を示す二次元座標である。例えば、画像の左上を原点(x,y)=(0,0)とした座標となる。
Specifically, the HDR color image data generated by the HDR
First, the luminance
Luminance image data Y is composed of luminance pixel data P (x, y) for one image. Further, (x, y) is a two-dimensional coordinate indicating the position of the pixel. For example, the upper left corner of the image is the coordinate with the origin (x, y) = (0, 0).
本実施形態において、輝度値算出部51aは、下式(5)に従って、HDRカラー画像データの各HDRカラー画素データR_hdr(x,y)、G_hdr(x、y)、B_h
dr(x、y)を、輝度画素データP(x,y)へと変換する。
P(x,y)=0.3×R_hdr(x,y)+0.6×G_hdr(x,y)+0.1×B_hdr(x,y) ・・・(5)
更に、輝度値算出部51aは、下式(6)に従って、公知のガウシアンフィルターを用いたぼかし処理を行い、輝度画像データYの各輝度画素データP(x,y)を、照明光成分データL(x,y)へと変換する。
In the present embodiment, the luminance
dr (x, y) is converted into luminance pixel data P (x, y).
P (x, y) = 0.3 × R_hdr (x, y) + 0.6 × G_hdr (x, y) + 0.1 × B_hdr (x, y) (5)
Further, the luminance
ここで、照明光成分は、比較的低周波数の成分で構成されるため、ガウシアンフィルターなどのローパスフィルターをかけることで、輝度成分から照明光成分を抽出することができる。
L(x,y)=Gauss(P(x,y)) ・・・(6)
ラインメモリー51bは、ぼかし処理を行うのに必要な分のHDRカラー画素データを格納するメモリーである。例えば、LPFが5×5のサイズであれば、HDRカラー画素データの5行分のデータを格納できるラインメモリーから構成される。
Here, since the illumination light component is composed of components having a relatively low frequency, the illumination light component can be extracted from the luminance component by applying a low-pass filter such as a Gaussian filter.
L (x, y) = Gauss (P (x, y)) (6)
The
輝度値→ゲイン変換部51cは、輝度値算出部51aからの照明光成分データL(x,y)と、測光部25からのレベル補正制御パラメーターとに基づき各照明光成分データL(x,y)を輝度レベル補正ゲインに変換し、その輝度レベル補正ゲインを乗算器52に出力する。
本実施形態において、輝度値→ゲイン変換部51cは、撮像画像のコントラスト比の高低に応じて算出される各レベル補正制御パラメーターに対応する、低輝度側のゲイン特性の異なる複数種類の変換用LUTを備えている。具体的に、変換用LUTは、コントラスト比が高ければ高いほど低輝度側のゲインを低く抑えると共に緩やかに変化する特性を有し、また、コントラスト比が低ければ低いほど高い場合と比較してゲインを高くし且つ急峻に変化する特性を有している。
The luminance value →
In the present embodiment, the luminance value →
変換用LUTは、予め下式(7)に従って算出された、HDRカラー画像データの階調範囲(例えば、20ビット)の輝度画素データP(x,y)に対応する各L(x,y)に対する輝度レベル補正ゲインK(L(x,y))を格納したデータテーブルである。本実施形態では、HDRカラー画像データの輝度のヒストグラムを、ブロード化するゲインK(L(x,y))が格納されている。
K(L(x,y))=1/LN(x,y)i (7)
但し、指数部iは、1以下の正の実数であり、LN(x,y)は正規化された照明光成
分であり「0〜1」の範囲の値となる。そして、コントラスト比の高低に応じて、上式(7)のiの値を変更したり、作成した変換用LUTの低輝度部分の特性を補正したりすることで複数種類の変換用LUTを生成する。例えば、iの値を変更して複数種類の変換用LUTを生成する場合は、レベル補正制御パラメーターを、iの値とすることが可能である。
The conversion LUT is calculated in advance according to the following equation (7), and each L (x, y) corresponding to the luminance pixel data P (x, y) in the gradation range (for example, 20 bits) of the HDR color image data. Is a data table storing a luminance level correction gain K (L (x, y)) for. In the present embodiment, a gain K (L (x, y)) for broadening the luminance histogram of the HDR color image data is stored.
K (L (x, y)) = 1 / L N (x, y) i (7)
However, the exponent part i is a positive real number equal to or less than 1, and L N (x, y) is a normalized illumination light component and has a value in the range of “0 to 1”. A plurality of types of conversion LUTs are generated by changing the value of i in the above equation (7) or correcting the characteristics of the low-brightness portion of the created conversion LUT according to the contrast ratio. To do. For example, when a plurality of types of conversion LUTs are generated by changing the value of i, the level correction control parameter can be set to the value of i.
(撮像装置1の動作例)
次に、図13〜図14に基づき、本実施形態の撮像装置1の具体的な動作を説明する。
ここで、図13は、各サブフレームにおける画素データの出力タイミングの一例を示す図である。また、図14は、本実施形態の変換用LUTの一例を示す図である。
被写体の撮像が開始されると、被写体から反射された光は、レンズ10aで集光されてマイクロレンズ10bに入射される。レンズ10aからの入射光は、マイクロレンズ10
bにおいて平行化されて、CFアレイ10cの各CF部を介してセンサーセルアレイの各画素に入射される。CFアレイ10cは、RGBの三原色に対応するCF部がベイヤ配列された構成となっているので、R光、G光及びB光のうち各CF部に対応した色要素の光のみが各画素に入射されることになる。
(Operation example of the imaging apparatus 1)
Next, a specific operation of the
Here, FIG. 13 is a diagram illustrating an example of output timing of pixel data in each subframe. FIG. 14 is a diagram illustrating an example of the conversion LUT according to the present embodiment.
When imaging of the subject is started, the light reflected from the subject is collected by the
Parallelized at b and incident on each pixel of the sensor cell array via each CF portion of the
一方、撮像が開始されると、開始ラインから順に1ラインずつ読み出し&リセットラインL3が設定されて、走査されたラインの各画素から画素信号S3が読み出され、その後、各画素の蓄積電荷がリセットされる。なお、最初に読み出される画素信号S3は、標準露光時間T_S3での露光がされていないため後段の各構成部において無視するように処
理される。引き続き、各走査ラインに対して、各画素のリセット後において超短露光時間T_S1の経過タイミングで非破壊読み出しラインL1が設定され、画素信号S1が読み
出される。引き続き、各走査ラインに対して、各画素のリセット後において短露光時間T_S2の経過タイミングで非破壊読み出しラインL2が設定され、画素信号S2が読み出
される。そして、再び、開始ラインから順に読み出し&リセットラインL3が設定されて、走査されたラインの各画素から画素信号S3が読み出され、その後、各画素の蓄積電荷がリセットされる。このとき読み出される画素信号S3とその前に読み出された画素信号S1及びS2とが後段の各構成部において処理対象となる。
以降、撮像が行われている間は、上記のL1〜L3の設定、画素信号S1〜S3の読み出し及びリセット処理が繰り返し行われる。
On the other hand, when the imaging is started, the readout and reset line L3 is set one line at a time from the start line, and the pixel signal S3 is read from each pixel of the scanned line. Reset. Note that the pixel signal S3 that is read out first is processed so as to be ignored in each component in the subsequent stage because the pixel signal S3 that has been read out is not exposed with the standard exposure time T_S3. Subsequently, for each scanning line, after resetting each pixel, the nondestructive readout line L1 is set at the elapse timing of the ultrashort exposure time T_S1, and the pixel signal S1 is read out. Subsequently, for each scanning line, after resetting each pixel, the non-destructive readout line L2 is set at the elapse timing of the short exposure time T_S2, and the pixel signal S2 is read out. Then, the read & reset line L3 is set again in order from the start line, the pixel signal S3 is read from each pixel of the scanned line, and then the accumulated charge of each pixel is reset. The pixel signal S3 read at this time and the pixel signals S1 and S2 read before the pixel signal S3 are to be processed in each component in the subsequent stage.
Thereafter, while imaging is being performed, the above-described setting of L1 to L3, readout of the pixel signals S1 to S3, and reset processing are repeatedly performed.
このようにして読み出された画素信号S1〜S3は、ライン毎に、読出回路10fの第1ラインメモリー〜第3ラインメモリーにそれぞれ格納されライン単位で選択回路へと出力される。選択回路からは、S1〜S3の順でアナログの画素データS1〜S3がADCに出力される。ADCは、アナログの画素データS1〜S3を、デジタルの画素データS1〜S3に変換する。そして、ADCからは、ライン単位でS1〜S3の順に画素データが順次、画像処理装置20へと出力される。つまり、画像処理装置20には、図13に示すように、画素データS3に先行して、画素データS1〜S2がS1からS2の順に入力される。
The pixel signals S1 to S3 read out in this way are stored in the first line memory to the third line memory of the
一方、画像処理装置20は、HDRセンサー10dからの画素データS1〜S3をS1から順番に受信すると、プリプロセス部21において、受信した順に画素データに対して、固定パターンノイズの除去処理、及びクランプ処理を施す。そして、これらの処理が施された画素データS1〜S3のうちS1及びS2をそのまま測光部25に出力し、処理の施された画素データS1〜S3を遅延部22〜24に出力する。
遅延部22〜24は、画素データS1〜S3のプリプロセス部21での受信の時間差を吸収し、画素データS1〜S3の出力タイミングを同期させて、これらをHDR本線処理部26に出力する。
On the other hand, when the
The
一方、測光部32は、プリプロセス部21から画素データS1及びS2が入力されると、輝度分布情報生成部40のセレクター60において、S1及びS2のいずれか一方をレベル分割器62に選択的に入力する。ここでは、画素データS2をレベル分割器62に入力することとする。
レベル分割器62は、入力された画素データS2の輝度値(DATA)と、「(MAX+1)/2」とを比較し、例えば、「DATA>(MAX+1)/2」であれば、次に、MAXとDATAとを比較する。これにより、「DATA=MAX」であれば、入力された画素データS2は、区分範囲(1)に属すると判断して、カウンター63aにカウントパルスを入力する。また、「DATA<MAX」であれば、入力された画素データS2は、区分範囲(2)に属すると判断し、カウンター63bにカウントパルスを入力する。
On the other hand, when the pixel data S1 and S2 are input from the preprocessing
The
また、「DATA>(MAX+1)/2」の場合は、次に、DATAと「(MAX+1
)/8」とを比較する。その結果、「DATA>(MAX+1)/8」であれば、入力された画素データS2は、区分範囲(3)に属すると判断し、カウンター63cにカウントパルスを入力する。
また、「DATA<(MAX+1)/8」の場合は、次に、DATAと「(MAX+1)/64」とを比較する。その結果、「DATA>(MAX+1)/64」であれば、入力された画素データS2は、区分範囲(4)に属すると判断し、カウンター63dにカウントパルスを入力する。
If “DATA> (MAX + 1) / 2”, then DATA and “(MAX + 1)
) / 8 ". As a result, if “DATA> (MAX + 1) / 8”, it is determined that the input pixel data S2 belongs to the divided range (3), and a count pulse is input to the
If “DATA <(MAX + 1) / 8”, then DATA is compared with “(MAX + 1) / 64”. As a result, if “DATA> (MAX + 1) / 64”, it is determined that the input pixel data S2 belongs to the segment range (4), and a count pulse is input to the
また、「DATA<(MAX+1)/64」の場合は、入力された画素データS2は、区分範囲(5)に属すると判断し、カウンター63eにカウントパルスを入力する。
また、レベル分割器62は、「DATA=(MAX+1)/2」の場合は区分範囲(2)に、「DATA=(MAX+1)/8」の場合は区分範囲(3)に、「DATA=(MAX+1)/64」の場合は区分範囲(4)に、入力された画素データS2がそれぞれ属すると判断する。
カウンター63a〜63eは、レベル分割器62からのカウントパルスをカウントし、そのカウント値は、カウントアップする毎に出力レジスター64a〜64eに上書きで格納される。
If “DATA <(MAX + 1) / 64”, it is determined that the input pixel data S2 belongs to the segment range (5), and a count pulse is input to the
Further, the
The
このような測光処理を1フレーム期間分の画素データS2に対して繰り返し行うと、不図示の制御回路からのRESET信号及びHOLD信号がアクティブとなり、カウンター63a〜63eのカウント値がリセットされ、出力レジスター64a〜64eに格納されたリセット前のカウント値(画素数)が制御パラメーター発生部41に出力される。この出力レジスター64a〜64eに格納されたカウント値(画素数)は、撮像画像の輝度のヒストグラムを構成する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラム)を受け取ると、まず、区分範囲(1)及び(2)の合計画素数HPを算出し、この合計画素数HPと第1の閾値Th1とを比較する。更に、区分範囲(5)の画素数LPと、第2の閾値Th2とを比較する。
When such photometric processing is repeatedly performed on the pixel data S2 for one frame period, the RESET signal and the HOLD signal from the control circuit (not shown) become active, the count values of the
When receiving the photometric result (histogram) from the luminance distribution
ここで、Th1は、例えば、総画素数の20%のTh1Lと、26%のTh1Hの2つの数値で設定されたとする(総画素数が例えば100であれば、Th1L=20、Th1H=26となる)。更に、第2の閾値Th2が、例えば、総画素数の20%のTh2Lと、26%のTh2Hの2つの数値で設定されたとする。
制御パラメーター発生部41は、比較結果が、「HP≧Th1H」且つ「LP≧Th2H」のときは、コントラスト比が高いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、最も緩やかな曲線を描くLr1の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
Here, Th1 is set by two numerical values, for example, Th1L of 20% of the total number of pixels and Th1H of 26% (if the total number of pixels is 100, for example, Th1L = 20, Th1H = 26 Become). Furthermore, it is assumed that the second threshold Th2 is set with two numerical values, for example, Th2L of 20% of the total number of pixels and Th2H of 26%.
The control
また、比較結果に、「HP≧Th1L」を含む場合は、コントラスト比がやや高いと判定する。そして、図14に示す変換曲線Lr1〜Lr5のうち、二番目に緩やかな曲線を描くLr2の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
画素数LH又はLPが、上記いずれの条件にも該当しなかった場合は、制御パラメーター発生部41は、次に、合計画素数HPと、第3の閾値Th3とを比較する。ここで、Th3は、総画素数の20%のTh3Hと、総画素数の15%のTh3Lとの2つの数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≦Th3L」のときは、コントラスト比が低いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、最も変化が急峻な曲線を描くLr5の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
If the comparison result includes “HP ≧ Th1L”, it is determined that the contrast ratio is slightly high. Then, a level correction control parameter for selecting a conversion LUT that tabulates the conversion characteristics of Lr2 that draws the second gentlest curve among the conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.
If the number of pixels LH or LP does not satisfy any of the above conditions, the control
The control
また、比較結果が、「Th3H>HP>Th3L」のときは、コントラスト比がやや低いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、二番目に変化が急峻な曲線を描くLr4の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
また、上記いずれの判定結果にも該当しない場合は、制御パラメーター発生部41は、図14に示す、複数の変換曲線Lr1〜Lr5のうち、中間の変化をする曲線を描くLr3の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
Further, when the comparison result is “Th3H>HP> Th3L”, it is determined that the contrast ratio is slightly low. Then, the level correction control parameter for selecting the conversion LUT that tabulates the conversion characteristics of Lr4 that draws the second steepest curve among the plurality of conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.
When none of the above determination results is satisfied, the control
そして、制御パラメーター発生部41は、算出したレベル補正制御パラメーターを、補正ゲイン算出部51の輝度値→ゲイン変換部51cに出力する。
また、HDR線形処理部30は、上記測光部25の処理と並行して、遅延部22〜24で遅延されて出力タイミングの同期された画素データS1〜S3を受信すると、まず、合成処理部30aにおいて、HDR_RAW画素データを生成する。
具体的に、合成処理部30aは、メモリーに保持又はHDR撮像素子10から取得した露光時間T_S1〜T_S3の情報から、正規化ゲイン算出部70,71において、正規化ゲインRS3,RS2を算出する。
Then, the control
When the HDR
Specifically, the
また、並行して、合成重み算出部74において、画素データS1〜S3から、上式(1)〜(4)を用いて合成重みW1〜W3を算出する。
次に、正規化部72,73において、正規化ゲインRS3,RS2を画素データS3,S2にそれぞれ乗算して、正規化画素データNS3,NS2を算出する。
次に、重み付け部75〜77において、正規化画素データNS3に合成重みW3を乗算し、正規化画素データNS2に合成重みW2を乗算し、画素データS1に合成重みW1を乗算して、重み付け画素データWS1,WS2,WS3を生成する。
In parallel, the
Next, the normalizing
Next, in the
次に、合成部78において、重み付け画素データWS1,WS2,WS3を合成して(足し合わせて)、HDR_RAW画素データを生成し、生成したHDR_RAW画素データを色処理部30bに出力する。
色処理部30bは、合成処理部30aからHDR_RAW画素データが入力されると、入力されたHDR_RAW画素データをラインメモリーに蓄積する。そして、ラインメモリーに一定量のHDR_RAW画素データが蓄積されると、色補正処理及びシャープネス処理を行い、HDRカラー画素データを生成する。そして、生成したHDRカラー画素データを、レベル補正処理部31のラインメモリー50と、補正ゲイン算出部51とにそれぞれ出力する。
ラインメモリー50は、色処理部30bからHDRカラー画素データを受信すると、それを蓄積し、出力タイミングを遅延させる。具体的に、補正ゲイン算出部51からの輝度レベル補正ゲインの出力タイミングと、そのゲインに対応するHDRカラー画素データの出力タイミングとが同期するように遅延させる。
Next, the combining
When the HDR_RAW pixel data is input from the
When the
一方、補正ゲイン算出部51は、HDRカラー画素データを受信すると、輝度値算出部51aにおいて、受信したHDRカラー画素データを、上式(5)に基づき、輝度画素データP(x,y)へと変換し、変換した輝度画素データP(x,y)をラインメモリー51bに蓄積する。
そして、ラインメモリー51bに、ぼかし処理に必要な分の輝度画素データP(x,y)が蓄積されると、上式(6)のガウシアンフィルターを用いたぼかし処理を実行し、輝度画素データP(x,y)を照明光成分データL(x,y)へと変換する。
On the other hand, when the correction
When the luminance pixel data P (x, y) necessary for the blurring process is accumulated in the
そして、照明光成分データL(x,y)を、輝度値→ゲイン変換部51cに出力する。
輝度値→ゲイン変換部51cは、制御パラメーター発生部41からのレベル補正制御パラメーターと、輝度値算出部51aからの照明光成分データL(x,y)とに基づき、複数種類の変換用LUTの中から、変換に用いるLUTを選択する。
具体的に、図14に示す、変換曲線Lr1〜Lr5の変換特性をデータテーブル化した複数種類の変換用LUTから、レベル補正制御パラメーターに対応する変換用LUTを選択する。そして、選択したLUTから、照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得し、それを乗算器52に出力する。
このとき、ラインメモリー50は、補正ゲイン算出部51の輝度レベル補正ゲインの出力タイミングに同期させて、そのゲインに対応するHDRカラー画素データを乗算器52に出力する。
Then, the illumination light component data L (x, y) is output to the luminance value →
The luminance value →
Specifically, the conversion LUT corresponding to the level correction control parameter is selected from a plurality of types of conversion LUTs in which the conversion characteristics of the conversion curves Lr1 to Lr5 shown in FIG. Then, the luminance level correction gain corresponding to the illumination light component data L (x, y) is acquired from the selected LUT, and is output to the
At this time, the
乗算器52は、ラインメモリー50から入力されるHDRカラー画素データに、補正ゲイン算出部51から入力される輝度レベル補正ゲインを乗算して、HDRカラー画素データのレベル変換(トーンマッピング)を行う。
レベル変換後のHDRカラー画素データは、γ変換部53に出力され、γ変換部53において、レベル変換後のカラー画素データを入力値とし、例えば、8ビットに量子化するトーンカーブに対応するLUTを用いて、入力値に対応する変換値を取得する。そして、取得した変換値を、RGBのビデオ信号として出力する。
The
The HDR color pixel data after level conversion is output to the
例えば、上記処理において、コントラスト比が高いと判定され、図14に示す、変換曲線Lr1に対応する変換用LUTが選択された場合は、変換曲線Lr5などと比較して、暗部側のゲインが低く抑えられ、撮像画像のコントラスト比を維持して、自然な画像出力が得られる。
なお、上記したように、各フレームの画素信号S1〜S3は、画素データS1→S2→S3の順番でプリプロセス部21に入力される。
For example, in the above processing, when it is determined that the contrast ratio is high and the conversion LUT corresponding to the conversion curve Lr1 shown in FIG. 14 is selected, the gain on the dark side is lower than that of the conversion curve Lr5 or the like. Therefore, a natural image output can be obtained while maintaining the contrast ratio of the captured image.
As described above, the pixel signals S1 to S3 of each frame are input to the
また、図13において、S1フレーム0〜2、S2フレーム0〜2、S3フレーム0〜2は、サブフレームであり、S1フレーム0の開始からS3フレーム0の終了までの期間が1フレームの期間となる。
HDR本線処理部26においては、上記したように、画素データS1〜S3を全て用いてHDRカラー画像データを生成する処理(本線系処理)が行われる。
従って、本実施形態では、本線系処理の開始タイミングを、図13のS3フレーム0〜2に示すように、各サブフレームの最初の画素データS3(ライン単位)が入力されたタイミングとしている。各サブフレームにおいては、新たな画素データS3が入力される毎に、順次、パイプライン処理のごとく本線系処理が行われる。
In FIG. 13, S1 frames 0 to 2, S2 frames 0 to 2, and S3 frames 0 to 2 are subframes, and the period from the start of S1 frame 0 to the end of S3 frame 0 is a period of one frame. Become.
In the HDR main
Therefore, in this embodiment, the start timing of the main line system processing is set to the timing at which the first pixel data S3 (line unit) of each subframe is input, as shown in S3 frames 0 to 2 in FIG. In each subframe, every time new pixel data S3 is input, main line processing is sequentially performed as in pipeline processing.
また、上記したように、測光部25においては、画素データS2を用いてヒストグラムを生成し、生成したヒストグラムに基づきレベル変換のためのゲインを制御するレベル補正制御パラメーターの算出処理が行われる。
本実施形態では、測光部25の測光処理の開始タイミングを、図13のS1フレーム0〜2又はS2フレーム0〜2に示すように、プリプロセス部21から各サブフレームの最初の画素データS1又はS2(ライン単位)が入力されたタイミングとしている。各サブフレームにおいては、新たな画素データS1又はS2が入力される毎に、順次、パイプライン処理のごとく測光処理が行われる。
Further, as described above, in the
In this embodiment, as shown in S1 frames 0 to 2 or S2 frames 0 to 2 in FIG. 13, the photometric processing start timing of the
その結果、例えば画素データS2を用いて測光処理を行う場合に、各サブフレームにおける、S2フレームの終了タイミングとS3フレームの開始タイミングとの間に図13に示す遅延量が発生する。また、各サブフレームにおける、本線系処理の開始タイミングと、測光系処理の開始タイミングとには、図13に示す走査による時間差が発生する。この時間差において、測光処理及びレベル補正制御パラメーターの算出処理を完了させ、更に
、補正ゲイン算出部51における輝度レベル補正ゲインの算出処理までも完了することが望ましい。しかし、ヒストグラムの生成には、画素データS1又はS2が1サブフレーム分必要なため、走査の時間差の期間では不足となる。これに加えて、レベル補正制御パラメーターの算出処理、輝度レベル補正ゲインの算出処理の時間も必要となる。そこで、本実施形態では、ラインメモリー50によって、本線系処理をこれらの不足分の時間だけ遅延させることで、各フレームにおける測光結果をこれと同一のフレームの画素データS1〜S3から生成されるHDRカラー画像データに対して反映させることができる。つまり、フィードフォワード型の制御を行うことができる。
As a result, for example, when the photometric processing is performed using the pixel data S2, a delay amount shown in FIG. 13 occurs between the end timing of the S2 frame and the start timing of the S3 frame in each subframe. Further, a time difference due to scanning shown in FIG. 13 occurs between the start timing of main line system processing and the start timing of photometric system processing in each subframe. With this time difference, it is desirable that the photometry process and the level correction control parameter calculation process are completed, and further, the luminance level correction gain calculation process in the correction
従来のフィードバック型の露出制御では、測光結果が反映されるのが次のフレームとなるので、1フレーム以上の遅延が発生する。一方、本実施形態では、測光部25と補正ゲイン算出部51における遅延分だけで済む。
以上説明したように、本実施形態の撮像装置1は、測光部25において、標準露光時間T_S3の画素データS3に先立って取得される、短露光時間T_S2の画素データS1又はS2を使ってヒストグラムを生成することができる。
In the conventional feedback-type exposure control, the photometric result is reflected in the next frame, so that a delay of one frame or more occurs. On the other hand, in this embodiment, only the delay in the
As described above, in the
従って、飽和画素や黒潰れ画素が少ない画像によって測光処理が可能となり、精度の高いヒストグラムを生成することができる。
更に、生成したヒストグラムに基づき、撮像画像のコントラスト比の高低を判断し、この判断結果に基づき輝度レベルを変換するための輝度レベル補正ゲインを制御するレベル補正制御パラメーターを算出することができる。
Therefore, photometric processing can be performed using an image with few saturated pixels and blackout pixels, and a highly accurate histogram can be generated.
Furthermore, it is possible to determine the level of the contrast ratio of the captured image based on the generated histogram, and to calculate a level correction control parameter for controlling the luminance level correction gain for converting the luminance level based on the determination result.
従って、精度の高いヒストグラムを用いて撮像画像のコントラスト比を判断することができると共に、コントラスト比の高低に応じたレベル変換処理のゲイン制御を、適切且つ自動的に行うことができる。
更に、HDR線形処理部30において、遅延部22〜24で出力タイミングを同期させた画素データS1〜S3を線形合成し且つ色補正処理を行ってHDRカラー画素データを生成することができる。
Accordingly, the contrast ratio of the captured image can be determined using a highly accurate histogram, and gain control of level conversion processing according to the level of the contrast ratio can be appropriately and automatically performed.
Further, the HDR
更に、補正ゲイン算出部51において、HDRカラー画素データから輝度画素データP(x,y)を生成し、P(x,y)から照明光成分データL(x,y)を生成することができる。更に、レベル補正制御パラメーターに基づき、変換特性の異なる複数種類の変換用LUTから、撮像画像のコントラスト比の高低に応じた変換用LUTを選択し、選択したLUTを用いて照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得することができる。
具体的に、コントラスト比が高ければ高いほど、暗部側のゲインをより低く抑える特性の変換用LUTを選択する。
Further, the correction
Specifically, the higher the contrast ratio, the more the conversion LUT having the characteristic of suppressing the dark side gain lower is selected.
これにより、撮像画像のコントラスト比を維持して、自然な画像出力を得ることができる。
更に、乗算器52において、ラインメモリー50において輝度レベル補正ゲインの出力タイミングに合わせて遅延して出力されたHDRカラー画素データと、輝度レベル補正ゲインとを乗算して、HDRカラー画素データのレベル変換を行うことができる。
従って、各フレームにおける測光結果(ヒストグラム)をこれと同一のフレームの画素データS1〜S3から生成されるHDRカラー画像データに対して反映させることができ、フィードフォワード型の制御を行うことができる。つまり、測光対象の画像(フレーム)と輝度制御を行う対象画像(フレーム)を同じにすることができるので、被写体の輝度変動に応じた発振(フリッカ)現象の発生を抑えることが可能である。そのため、常に安定な出力画像が得られる。また、リアルタイム性を要求されるシステムに対して組み込みやすいという利点を有する。
Thereby, a natural image output can be obtained while maintaining the contrast ratio of the captured image.
Further, the
Accordingly, the photometric result (histogram) in each frame can be reflected on the HDR color image data generated from the pixel data S1 to S3 of the same frame, and feedforward control can be performed. That is, since the image (frame) subject to photometry and the target image (frame) to be subjected to luminance control can be made the same, it is possible to suppress the occurrence of oscillation (flicker) phenomenon according to the luminance variation of the subject. Therefore, a stable output image can always be obtained. Further, it has an advantage that it can be easily incorporated into a system that requires real-time performance.
また、照明光成分データLに基づき、HDRカラー画像データに対して、レベル変換(トーンマップ)処理を施すようにしたので、全ダイナミックレンジにおいて、階調性を維持し、色再現性の良い映像を出力することができる。
また、測光対象の画像(フレーム)と輝度制御を行う対象画像(フレーム)を同一にしない場合でも、すなわち、測光した画像(フレーム)の結果が反映されるのが次のフレームの場合でも、測光処理が、本線系処理に対して先行して行われるので、測光に要する計算時間を十分確保できる。これにより、ヒストグラムによる動的制御など複雑な制御が可能となる。
In addition, since the HDR color image data is subjected to level conversion (tone map) processing based on the illumination light component data L, it is possible to maintain gradation and maintain good color reproducibility in the entire dynamic range. Can be output.
Even if the image (frame) subject to photometry and the image (frame) subject to brightness control are not the same, that is, even if the result of the photometric image (frame) is reflected in the next frame, photometry Since the process is performed prior to the main line system process, a sufficient calculation time for photometry can be secured. Thereby, complicated control such as dynamic control using a histogram is possible.
〔第2実施形態〕
次に、本発明の第2実施形態を図面に基づき説明する。図15〜図16は、本発明に係る画像処理装置、画像処理方法、画像処理プログラム及び撮像装置の第2実施形態を示す図である。
(第1実施形態との相違点)
上記第1実施形態の画像処理装置20における補正ゲイン算出部51においては、レベル補正制御パラメーターに基づき、複数種類の変換用LUTからパラメーターに応じたLUTを選択することで、ゲインの制御を行っていた。これに対して、本実施形態では、補正ゲイン算出部51に代えて補正ゲイン算出部51’において、レベル補正制御パラメーターに基づき、低輝度側のレベル変換に用いる輝度レベル補正ゲインをパラメーターに応じた一定値(リミット値)で固定とする制御を行う点で上記第1実施形態とは異なる。
[Second Embodiment]
Next, 2nd Embodiment of this invention is described based on drawing. 15 to 16 are diagrams showing a second embodiment of the image processing device, the image processing method, the image processing program, and the imaging device according to the present invention.
(Differences from the first embodiment)
In the correction
従って、制御パラメーター発生部41で算出されるレベル補正制御パラメーターが、リミット値を決定するためのものとなる点と、補正ゲイン算出部51の構成とが異なるのみで、他の構成は、上記第1実施形態と同様となる。
以下、上記第1実施形態と同様となる部分を同じ符号を付して適宜省略し、異なる部分を詳細に説明する。
Accordingly, the level correction control parameter calculated by the control
Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals and omitted as appropriate, and different parts will be described in detail.
(制御パラメーター発生部41について)
まず、本実施形態の制御パラメーター発生部41は、上記第1実施形態と同様に、まず、輝度分布情報生成部40で生成されたヒストグラムに基づきコントラスト比の高低を判断する。そして、この判断結果から、コントラスト比が高ければ高いほど、低輝度側のレベル上昇を抑える(制限する)補正内容を指定するレベル補正制御パラメーターを算出する。
但し、本実施形態においては、コントラスト比が高ければ高いほど輝度レベル補正ゲインのリミット値として、小さい値を指定するレベル補正制御パラメーターを算出する。
(Regarding the control parameter generator 41)
First, similarly to the first embodiment, the control
However, in the present embodiment, the level correction control parameter that specifies a smaller value as the limit value of the luminance level correction gain is calculated as the contrast ratio is higher.
(補正ゲイン算出部51’の構成)
次に、図15に基づき、本実施形態の補正ゲイン算出部51’の構成を説明する。
ここで、図15は、補正ゲイン算出部51’の内部構成の一例を示すブロック図である。
補正ゲイン算出部51’は、輝度値算出部51aと、ラインメモリー51bと、輝度値→ゲイン変換部51dと、リミッター51eとを含んで構成される。
輝度値→ゲイン変換部51dは、輝度値算出部51aから入力される照明光成分データL(x,y)に対して、通常に用いる変換用LUT(ここでは、1種類とする)から入力値L(x,y)に対応する輝度レベル補正ゲインを取得する。そして、取得した輝度レベル補正ゲインを入力値L(x,y)と共にリミッター51eに出力する。
(Configuration of Correction
Next, the configuration of the correction
Here, FIG. 15 is a block diagram illustrating an example of an internal configuration of the correction
The correction
The luminance value → gain converting
リミッター51eは、制御パラメーター発生部41からのレベル補正制御パラメーターに基づき、複数種類のリミット値のなかから、レベル補正制御パラメーターの値(指定内
容)に対応するリミット値を選択する。なお、レベル補正制御パラメーターの値をそのままリミット値としてもよい。
そして、輝度値→ゲイン変換部51dからの輝度レベル変換ゲイン及びL(x,y)に基づき、入力されたゲインが所定輝度以下の低輝度側の照明光成分データL(x,y)に対応するものである場合に、入力されたゲインに代えて、リミット値を乗算器52に出力する。
The
Then, based on the luminance level conversion gain and L (x, y) from the luminance value →
(撮像装置1の動作例)
次に、図16に基づき、本実施形態の撮像装置1の動作を説明する。
ここで、図16は、本実施形態の変換用LUT及びリミット値の一例を示す図である。
なお、ヒストグラムを生成する処理までは、上記第1実施形態と同様となるので、以降の処理から説明する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラム)を受け取ると、まず、区分範囲(1)及び(2)の合計画素数HPを算出し、この合計画素数HPと第1の閾値Th1とを比較する。更に、区分範囲(5)の画素数LPと、第2の閾値Th2とを比較する。
(Operation example of the imaging apparatus 1)
Next, based on FIG. 16, the operation of the
Here, FIG. 16 is a diagram illustrating an example of the conversion LUT and limit values of the present embodiment.
Since the process up to generating the histogram is the same as that in the first embodiment, the subsequent process will be described.
When receiving the photometric result (histogram) from the luminance distribution
ここで、Th1は、例えば、総画素数の20%の数値で設定されているとする(例えば、総画素数が100であれば、Th1=20となる)。更に、第2の閾値Th2が、例えば、総画素数の20%の数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≧Th1」且つ「LP≧Th2」のときは、コントラスト比が高いと判定する。そして、図16に示す、リミット値Lm1〜Lm3のうち、最も小さいリミット値Lm1を指定するレベル補正制御パラメーターを算出する。
Here, for example, Th1 is set as a numerical value of 20% of the total number of pixels (for example, if the total number of pixels is 100, Th1 = 20). Furthermore, it is assumed that the second threshold Th2 is set to a numerical value of 20% of the total number of pixels, for example.
The control
画素数LH又はLPが、上記の条件に該当しなかった場合は、制御パラメーター発生部41は、次に、合計画素数HPと、第3の閾値Th3とを比較する。ここで、Th3は、総画素数の15%の数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≦Th3」のときは、コントラスト比が低いと判定する。そして、図16に示す、リミット値Lm1〜Lm3のうち、最も大きいリミット値Lm3を指定するレベル補正制御パラメーターを算出する。
また、上記いずれの判定結果にも該当しない場合は、制御パラメーター発生部41は、図16に示す、リミット値Lm1〜Lm3のうち、中間のリミット値Lm2を指定するレベル補正制御パラメーターを算出する。
そして、制御パラメーター発生部41は、算出したレベル補正制御パラメーターを、補正ゲイン算出部51’のリミッター51eに出力する。
If the number of pixels LH or LP does not meet the above condition, the control
The control
If none of the above determination results is applicable, the control
Then, the control
ここで、HDRカラー画像データの生成処理、輝度値算出部51aの照明光成分データL(x,y)については、上記第1実施形態と同様となるので、以下、輝度値→ゲイン変換部51dの処理から説明する。
輝度値→ゲイン変換部51dは、輝度値算出部51aからの照明光成分データL(x,y)に基づき、変換用LUTから、照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得し、それをL(x,y)と共にリミッター51eに出力する。
リミッター51eは、制御パラメーター発生部41からのレベル補正制御パラメーターに基づき、該パラメーターで指定されたリミット値を選択する。つまり、図16に示すリミット値Lm1〜Lm3のうちのパラメーターで指定されたリミット値を選択する。
Here, the generation processing of HDR color image data and the illumination light component data L (x, y) of the luminance
The luminance value →
The
そして、輝度値→ゲイン変換部51dからの輝度レベル補正ゲインについて、それに対応する照明光成分データL(x,y)から、ゲインが所定輝度以下のL(x,y)に対応するものである場合に、該ゲインに代えて選択したリミット値を乗算器52に出力する。
また、所定輝度以下ではない場合は、入力された輝度レベル補正ゲインを乗算器52に出力する。
具体的に、図16に示すように、リミット値Lm1〜Lm3のラインと変換曲線との交点から縦に伸びる点線と横軸との交点から原点までの間の範囲内に含まれる照明光成分データの値(輝度)が、所定輝度以下の範囲となる。つまり、選択されるリミット値に応じて所定輝度以下の範囲が変化する。そのため、輝度値→ゲイン変換部51dからは、輝度レベル補正ゲインと共に照明光成分データL(x,y)の情報も得ている。
The luminance level correction gain from the luminance value →
If the luminance is not less than the predetermined luminance, the input luminance level correction gain is output to the
Specifically, as shown in FIG. 16, illumination light component data included in a range from the intersection point of the dotted line extending vertically from the intersection point of the line of the limit values Lm1 to Lm3 and the horizontal axis to the origin point. The value (luminance) is in a range not exceeding the predetermined luminance. That is, the range below the predetermined luminance changes according to the selected limit value. Therefore, information on the illumination light component data L (x, y) is also obtained from the brightness value →
一方、ラインメモリー50は、補正ゲイン算出部51の輝度レベル補正ゲインの出力タイミングに同期させて、そのゲインに対応するHDRカラー画素データを乗算器52に出力する。
乗算器52は、ラインメモリー50から入力されるHDRカラー画素データに、補正ゲイン算出部51から入力される輝度レベル補正ゲインを乗算して、HDRカラー画素データのレベル変換(トーンマッピング)を行う。
On the other hand, the
The
レベル変換後のHDRカラー画素データは、γ変換部53に出力され、γ変換部53において、レベル変換後のカラー画素データを入力値とし、例えば、8ビットに量子化するトーンカーブに対応するLUTを用いて、入力値に対応する変換値を取得する。そして、取得した変換値を、RGBのビデオ信号として出力する。
例えば、上記処理において、コントラスト比が高いと判定され、図16に示す、リミット値Lm1が選択された場合は、リミット値Lm3などと比較して、暗部側のゲインが低く抑えられ(一定値に固定)、撮像画像のコントラスト比を維持して、自然な画像出力が得られる。
The HDR color pixel data after level conversion is output to the
For example, in the above processing, when it is determined that the contrast ratio is high and the limit value Lm1 shown in FIG. 16 is selected, the gain on the dark side is suppressed to a low value (a constant value) compared to the limit value Lm3 and the like. (Fixed), the contrast ratio of the captured image is maintained and a natural image output is obtained.
以上説明したように、本実施形態の撮像装置1は、補正ゲイン算出部51’において、測光部25からのレベル補正制御パラメーターに基づき、値の異なる複数種類のリミット値から、撮像画像のコントラスト比の高低に応じたリミット値を選択することができる。
更に、選択したリミット値を用いて、所定輝度以下の照明光成分データL(x,y)に対応する輝度レベル補正ゲインについて、このゲインに代えて、リミット値を乗算器52に出力することができる。
具体的に、コントラスト比が高ければ高いほど、暗部側のゲインをより低い一定値へと固定するリミット値を選択する。
これにより、撮像画像のコントラスト比を維持して、自然な画像出力を得ることができる。
As described above, in the
Furthermore, using the selected limit value, a limit value can be output to the
Specifically, the higher the contrast ratio is, the limit value that fixes the dark side gain to a lower constant value is selected.
Thereby, a natural image output can be obtained while maintaining the contrast ratio of the captured image.
(対応関係)
上記各実施形態において、HDR撮像素子10は、撮像素子に対応し、プリプロセス部21は、画像データ取得手段に対応し、HDR線形処理部30は、合成画像データ生成手段に対応する。
また、上記各実施形態において、レベル補正処理部31は、画像変換手段に対応し、輝度分布情報生成部40は、輝度分布情報生成手段に対応し、制御パラメーター発生部41は、変換ゲイン制御手段に対応する。
また、上記各実施形態において、輝度分布情報生成部40におけるヒストグラムの生成処理は、輝度分布情報生成ステップに対応し、制御パラメーター発生部41におけるレベル補正制御パラメーターの生成処理は、変換ゲイン制御ステップに対応する。
また、レベル補正処理部31におけるHDRカラー画像データの輝度レベルの変換処理(トーンマッピング)は、画像変換ステップに対応する。
(Correspondence)
In each of the above embodiments, the
In each of the above embodiments, the level
In each of the above embodiments, the histogram generation process in the luminance distribution
Also, the luminance level conversion processing (tone mapping) of the HDR color image data in the level
(なお書き)
なお、上記各実施形態における、撮像装置1は、表示装置、メモリー装置等の不図示の
他の装置と組み合わせて、デジタルカメラ、デジタルビデオカメラなどの電子機器を構成することも可能である。
また、上記各実施形態において、輝度分布情報として、ヒストグラムを生成する構成としたが、この構成に限らず、コントラスト比の高低の判定が可能であれば、例えば、高輝度側、低輝度側の画素数のみを計数した情報等、他の輝度分布情報を生成する構成としてもよい。
(Note)
Note that the
In each of the above embodiments, a histogram is generated as the luminance distribution information. However, the present invention is not limited to this configuration. For example, if it is possible to determine whether the contrast ratio is high or low, for example, the high luminance side and the low luminance side Other luminance distribution information such as information obtained by counting only the number of pixels may be generated.
また、上記各実施形態において、撮像素子10のHDRセンサー10dが、CMOS技術を用いて構成されたセンサーセルアレイを有する構成としたが、この構成に限らない。例えば、CCDから構成されるセンサーセルアレイを有する構成など他の構成としてもよい。
また、上記各実施形態において、画像処理装置20が、撮像素子10から露光時間の長さの異なる複数種類の画像データを取得し、取得した複数種類の画像データを合成して、HDR画像データを生成する構成を例として説明したが、この構成に限らない。
例えば、撮像素子10がHDR画像データを生成する手段を有する構成、又は外部の別の装置が撮像素子10から取得した画像データを用いてHDR画像データを生成する構成としてもよい。
In each of the above embodiments, the
Further, in each of the above embodiments, the
For example, a configuration in which the
また、上記各実施形態は、本発明の好適な具体例であり、技術的に好ましい種々の限定が付されているが、本発明の範囲は、上記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。また、上記の説明で用いる図面は、図示の便宜上、部材ないし部分の縦横の縮尺は実際のものとは異なる模式図である。
また、本発明は上記各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
Each of the above embodiments is a preferable specific example of the present invention, and various technically preferable limitations are given. However, the scope of the present invention is particularly limited in the above description. As long as there is no description, it is not restricted to these forms. In the drawings used in the above description, for convenience of illustration, the vertical and horizontal scales of members or parts are schematic views different from actual ones.
Further, the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.
1…撮像装置、10…HDR撮像素子、10a…レンズ、10b…マイクロレンズ、10c…カラーフィルターアレイ、10d…HDRセンサー、10d…駆動回路、10f…読出回路、20…画像処理装置、21…プリプロセス部、22〜24…遅延部、25…測光部、26…HDR本線処理部、30…HDR線形処理部、30a…合成処理部、30b…色処理部、31…レベル補正処理部、40…輝度分布情報生成部、41…制御パラメーター発生部、50…ラインメモリー、51…補正ゲイン算出部、51a…輝度値算出部、51b…ラインメモリー、51c,51d…輝度値→ゲイン変換部、51e…リミッター、52…乗算器、53…γ変換部、60…セレクター、61…ヒストグラム生成器、62…レベル分割器、63a〜63e…カウンター、64a〜64e…出力レジスター、70,71…正規化ゲイン算出部、72,73…正規化部、74…合成重み算出部、75〜77…重み付け部、78…合成部
DESCRIPTION OF
Claims (14)
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成手段と、
前記輝度分布情報生成手段で生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御手段と、を備え、
前記画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換することを特徴とする画像処理装置。 Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. Image conversion means for generating two composite image data;
Luminance distribution information generating means for generating luminance distribution information that is information related to the luminance distribution of the captured image of the subject based on at least one of the plurality of image data;
Conversion gain control means for controlling the characteristics of the gain used for conversion of the luminance of the image conversion means based on the luminance distribution information generated by the luminance distribution information generation means,
The image processing device, wherein the image conversion means converts the luminance of the first composite image data using the gain controlled by the conversion gain control means.
前記画像データ取得手段で取得した前記2以上の画像データを露光時間の比率に基づき線形合成して前記第1の合成画像データを生成する合成画像データ生成手段と、を備え、
前記輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分布情報を生成することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理装置。 Two or more pieces of image data including image data corresponding to the longest exposure time among a plurality of pieces of image data obtained by imaging a subject with a plurality of different exposure times from the image pickup device capable of picking up the subject. Image data acquisition means for acquiring;
A synthesized image data generating unit that linearly synthesizes the two or more image data acquired by the image data acquiring unit based on an exposure time ratio to generate the first synthesized image data;
The luminance distribution information generating means generates the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time. The image processing apparatus according to any one of claims 1 to 10.
前記画像データ取得手段は、前記各フレーム期間において、前記最長の露光時間に対応する画像データを取得するよりも先行して前記少なくとも1の画像データを取得し、
前記輝度分布情報生成手段は、前記先行して取得した少なくとも1の画像データである先行画像データに基づき前記輝度分布情報を生成し、
前記変換ゲイン制御手段は、前記先行画像データに基づき生成された輝度分布情報に基づき、前記先行画像データを取得したフレーム期間と同じフレーム期間に取得される前記2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御し、
前記画像変換手段は、前記同じフレーム期間に対応する前記第1の合成画像データの輝度を、前記同じフレーム期間に対応する前記制御されたゲインを用いて変換することを特徴とする請求項11に記載の画像処理装置。 The image sensor can read out a pixel signal by a nondestructive readout method that reads out a pixel signal corresponding to the accumulated charge while maintaining the accumulated charge from each pixel, and in order from the shorter exposure time in each frame period. The pixels are exposed at the different exposure times, pixel signals are read from the exposed pixels by the non-destructive readout method, and pixel signal data constituting the plurality of image data is output in the read order. ,
The image data acquisition means acquires the at least one image data prior to acquiring image data corresponding to the longest exposure time in each frame period;
The luminance distribution information generation means generates the luminance distribution information based on the preceding image data which is the at least one image data acquired in advance.
The conversion gain control means linearly synthesizes the two or more pieces of image data acquired in the same frame period as the frame period from which the preceding image data was acquired based on the luminance distribution information generated based on the preceding image data. Controlling the gain for converting the luminance of the generated first composite image data;
The image conversion means converts the luminance of the first composite image data corresponding to the same frame period using the controlled gain corresponding to the same frame period. The image processing apparatus described.
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成ステップと、
前記輝度情報生成ステップで生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御ステップと、を含み、
前記画像変換ステップにおいては、前記変換ゲイン制御ステップで制御されたゲインを用いて前記第1の合成画像データの輝度を変換することを特徴とする画像処理方法。 Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. An image conversion step for generating two composite image data;
A luminance distribution information generation step for generating luminance distribution information, which is information relating to the luminance distribution of the captured image of the subject, based on at least one of the plurality of image data;
A conversion gain control step for controlling a characteristic of a gain used for conversion of the luminance of the image conversion unit based on the luminance distribution information generated in the luminance information generation step,
In the image conversion step, the luminance of the first composite image data is converted using the gain controlled in the conversion gain control step.
請求項11又は請求項12に記載の画像処理装置と、を備えることを特徴とする撮像装置。 An image sensor capable of imaging a subject;
An image processing apparatus comprising: the image processing apparatus according to claim 11.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010165669A JP2012029029A (en) | 2010-07-23 | 2010-07-23 | Image processing device, image processing method and imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010165669A JP2012029029A (en) | 2010-07-23 | 2010-07-23 | Image processing device, image processing method and imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012029029A true JP2012029029A (en) | 2012-02-09 |
Family
ID=45781440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010165669A Pending JP2012029029A (en) | 2010-07-23 | 2010-07-23 | Image processing device, image processing method and imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012029029A (en) |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014094034A (en) * | 2012-11-07 | 2014-05-22 | Fujifilm Corp | Endoscope apparatus |
| CN103843032A (en) * | 2012-08-08 | 2014-06-04 | 杜比实验室特许公司 | Image processing for high dynamic range images |
| WO2014123603A1 (en) * | 2013-02-05 | 2014-08-14 | Google Inc. | Noise models for image processing |
| US8866928B2 (en) | 2012-12-18 | 2014-10-21 | Google Inc. | Determining exposure times using split paxels |
| US8866927B2 (en) | 2012-12-13 | 2014-10-21 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
| US8995784B2 (en) | 2013-01-17 | 2015-03-31 | Google Inc. | Structure descriptors for image processing |
| US9066017B2 (en) | 2013-03-25 | 2015-06-23 | Google Inc. | Viewfinder display based on metering images |
| US9077913B2 (en) | 2013-05-24 | 2015-07-07 | Google Inc. | Simulating high dynamic range imaging with virtual long-exposure images |
| US9087391B2 (en) | 2012-12-13 | 2015-07-21 | Google Inc. | Determining an image capture payload burst structure |
| US9100589B1 (en) | 2012-09-11 | 2015-08-04 | Google Inc. | Interleaved capture for high dynamic range image acquisition and synthesis |
| US9117134B1 (en) | 2013-03-19 | 2015-08-25 | Google Inc. | Image merging with blending |
| US9131201B1 (en) | 2013-05-24 | 2015-09-08 | Google Inc. | Color correcting virtual long exposures with true long exposures |
| US9247152B2 (en) | 2012-12-20 | 2016-01-26 | Google Inc. | Determining image alignment failure |
| KR20160030352A (en) * | 2014-09-09 | 2016-03-17 | 한화테크윈 주식회사 | Image processing apparatus and image processing method |
| US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
| US10043253B2 (en) | 2015-06-16 | 2018-08-07 | Canon Kabushiki Kaisha | Image processing device, image processing method, and program |
| EP3471397A4 (en) * | 2016-06-09 | 2019-04-24 | Sony Corporation | APPARATUS AND METHOD FOR IMAGE CAPTURE CONTROL, AND VEHICLE |
| US10631016B2 (en) | 2017-09-20 | 2020-04-21 | Kabushiki Kaisha Toshiba | Dynamic range compression device and image processing device |
| JP2021013033A (en) * | 2011-02-16 | 2021-02-04 | 株式会社半導体エネルギー研究所 | Light emitting element, light emitting device, electronic device, and lighting device |
| US10917590B2 (en) | 2018-03-20 | 2021-02-09 | Kabushiki Kaisha Toshiba | Imaging control device, imaging apparatus, and imaging control method |
| CN113156408A (en) * | 2021-03-19 | 2021-07-23 | 奥比中光科技集团股份有限公司 | Contrast calibration method, device and equipment |
| KR20240014964A (en) * | 2022-07-26 | 2024-02-02 | 엘지전자 주식회사 | A display device and operating method thereof |
-
2010
- 2010-07-23 JP JP2010165669A patent/JP2012029029A/en active Pending
Cited By (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021013033A (en) * | 2011-02-16 | 2021-02-04 | 株式会社半導体エネルギー研究所 | Light emitting element, light emitting device, electronic device, and lighting device |
| US9076224B1 (en) | 2012-08-08 | 2015-07-07 | Dolby Laboratories Licensing Corporation | Image processing for HDR images |
| CN103843032A (en) * | 2012-08-08 | 2014-06-04 | 杜比实验室特许公司 | Image processing for high dynamic range images |
| CN103843032B (en) * | 2012-08-08 | 2016-04-20 | 杜比实验室特许公司 | Image processing for high dynamic range images |
| US9374589B2 (en) | 2012-08-08 | 2016-06-21 | Dolby Laboratories Licensing Corporation | HDR images with multiple color gamuts |
| JP2015508589A (en) * | 2012-08-08 | 2015-03-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Image processing for HDR images |
| US9467704B2 (en) | 2012-08-08 | 2016-10-11 | Dolby Laboratories Licensing Corporation | Adaptive ratio images in HDR image representation |
| US9100589B1 (en) | 2012-09-11 | 2015-08-04 | Google Inc. | Interleaved capture for high dynamic range image acquisition and synthesis |
| JP2014094034A (en) * | 2012-11-07 | 2014-05-22 | Fujifilm Corp | Endoscope apparatus |
| US9087391B2 (en) | 2012-12-13 | 2015-07-21 | Google Inc. | Determining an image capture payload burst structure |
| US8964060B2 (en) | 2012-12-13 | 2015-02-24 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
| US8866927B2 (en) | 2012-12-13 | 2014-10-21 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
| US9118841B2 (en) | 2012-12-13 | 2015-08-25 | Google Inc. | Determining an image capture payload burst structure based on a metering image capture sweep |
| US8866928B2 (en) | 2012-12-18 | 2014-10-21 | Google Inc. | Determining exposure times using split paxels |
| US9172888B2 (en) | 2012-12-18 | 2015-10-27 | Google Inc. | Determining exposure times using split paxels |
| US9247152B2 (en) | 2012-12-20 | 2016-01-26 | Google Inc. | Determining image alignment failure |
| US8995784B2 (en) | 2013-01-17 | 2015-03-31 | Google Inc. | Structure descriptors for image processing |
| US9749551B2 (en) | 2013-02-05 | 2017-08-29 | Google Inc. | Noise models for image processing |
| WO2014123603A1 (en) * | 2013-02-05 | 2014-08-14 | Google Inc. | Noise models for image processing |
| US9686537B2 (en) | 2013-02-05 | 2017-06-20 | Google Inc. | Noise models for image processing |
| US9117134B1 (en) | 2013-03-19 | 2015-08-25 | Google Inc. | Image merging with blending |
| US9066017B2 (en) | 2013-03-25 | 2015-06-23 | Google Inc. | Viewfinder display based on metering images |
| US9131201B1 (en) | 2013-05-24 | 2015-09-08 | Google Inc. | Color correcting virtual long exposures with true long exposures |
| US9077913B2 (en) | 2013-05-24 | 2015-07-07 | Google Inc. | Simulating high dynamic range imaging with virtual long-exposure images |
| US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
| KR102247597B1 (en) | 2014-09-09 | 2021-05-03 | 한화테크윈 주식회사 | Image processing apparatus and image processing method |
| KR20160030352A (en) * | 2014-09-09 | 2016-03-17 | 한화테크윈 주식회사 | Image processing apparatus and image processing method |
| US10043253B2 (en) | 2015-06-16 | 2018-08-07 | Canon Kabushiki Kaisha | Image processing device, image processing method, and program |
| EP3471397A4 (en) * | 2016-06-09 | 2019-04-24 | Sony Corporation | APPARATUS AND METHOD FOR IMAGE CAPTURE CONTROL, AND VEHICLE |
| US10631016B2 (en) | 2017-09-20 | 2020-04-21 | Kabushiki Kaisha Toshiba | Dynamic range compression device and image processing device |
| US10917590B2 (en) | 2018-03-20 | 2021-02-09 | Kabushiki Kaisha Toshiba | Imaging control device, imaging apparatus, and imaging control method |
| CN113156408A (en) * | 2021-03-19 | 2021-07-23 | 奥比中光科技集团股份有限公司 | Contrast calibration method, device and equipment |
| KR20240014964A (en) * | 2022-07-26 | 2024-02-02 | 엘지전자 주식회사 | A display device and operating method thereof |
| KR102896283B1 (en) * | 2022-07-26 | 2025-12-08 | 엘지전자 주식회사 | A display device and operating method thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012029029A (en) | Image processing device, image processing method and imaging device | |
| US8310562B2 (en) | Imaging control apparatus, imaging apparatus and imaging control method for compressing the dynamic range of image data | |
| JP5713752B2 (en) | Image processing apparatus and control method thereof | |
| US10021313B1 (en) | Image adjustment techniques for multiple-frame images | |
| US8254675B2 (en) | Image processing apparatus, imaging apparatus and image processing program | |
| JP5699482B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP6312487B2 (en) | Image processing apparatus, control method therefor, and program | |
| JP5901667B2 (en) | Image processing apparatus and method, image processing program, and imaging apparatus | |
| WO2016199573A1 (en) | Image processing device, image processing method, program, and image capture device | |
| JP2010136224A (en) | Imaging apparatus and imaging method | |
| US8085316B2 (en) | Image-processing unit, imaging apparatus, and computer program product | |
| US8305468B2 (en) | Image acquisition apparatus and image acquisition program | |
| JP2019047169A (en) | Apparatus, method, and program for creating high dynamic range image | |
| JP2002084449A (en) | Image pickup device employing solid-state imaging device | |
| JP2022179514A (en) | Control device, imaging device, control method and program | |
| JP5911525B2 (en) | Image processing apparatus and method, image processing program, and imaging apparatus | |
| KR100933556B1 (en) | Color image processing apparatus and method for extending the dynamic range | |
| US9019406B2 (en) | Imaging apparatus and image processing program for correcting dark area gradation | |
| KR101923162B1 (en) | System and Method for Acquisitioning HDRI using Liquid Crystal Panel | |
| JP5315125B2 (en) | Image processing apparatus, imaging apparatus, and composite image generation method | |
| JP2011100204A (en) | Image processor, image processing method, image processing program, imaging apparatus, and electronic device | |
| US9013605B2 (en) | Apparatus and method for processing intensity of image in digital camera | |
| JP2008294524A (en) | Image processing apparatus and image processing method | |
| US8102446B2 (en) | Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal | |
| US20110128404A1 (en) | Imaging apparatus, image processing program, image processing apparatus, and image processing method |