[go: up one dir, main page]

JP2012029029A - Image processing device, image processing method and imaging device - Google Patents

Image processing device, image processing method and imaging device Download PDF

Info

Publication number
JP2012029029A
JP2012029029A JP2010165669A JP2010165669A JP2012029029A JP 2012029029 A JP2012029029 A JP 2012029029A JP 2010165669 A JP2010165669 A JP 2010165669A JP 2010165669 A JP2010165669 A JP 2010165669A JP 2012029029 A JP2012029029 A JP 2012029029A
Authority
JP
Japan
Prior art keywords
image data
luminance
image
conversion
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010165669A
Other languages
Japanese (ja)
Inventor
Haruhisa Kurane
治久 倉根
Masanobu Kobayashi
雅暢 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010165669A priority Critical patent/JP2012029029A/en
Publication of JP2012029029A publication Critical patent/JP2012029029A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】入力画像の輝度情報を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法、画像処理プログラム及び撮像装置を提供する。
【解決手段】画像処理装置20を、測光部25と、HDR本線処理部26とを含む構成とし、測光部25において、標準露光時間T3よりも短い短露光時間T2で撮像して得られた画素データS2からヒストグラムを生成し、このヒストグラムに基づき撮像画像のコントラスト比の高低を判定し、この判定結果に基づきHDRカラー画像データの輝度を変換する際に用いられる輝度レベル補正ゲインの特性を制御するレベル補正制御パラメーターを生成し、HDR本線処理部26において、コントラスト比が高ければ高いほど低輝度部のゲインをより抑制する特性の複数種類の変換用LUTから前記パラメーターに対応するLUTを選択し、この選択したLUTを用いてHDRカラー画像データの輝度を変換する。
【選択図】図8
An image processing apparatus, an image processing method, an image processing program, and an imaging apparatus suitable for generating output images having different gradation characteristics by converting luminance information of an input image.
An image processing apparatus includes a photometry unit and an HDR main line processing unit. In the photometry unit, pixels obtained by imaging with a short exposure time T2 shorter than a standard exposure time T3 are obtained. A histogram is generated from the data S2, the level of the contrast ratio of the captured image is determined based on the histogram, and the characteristic of the brightness level correction gain used when converting the brightness of the HDR color image data is controlled based on the determination result. A level correction control parameter is generated, and the HDR main line processing unit 26 selects an LUT corresponding to the parameter from a plurality of types of conversion LUTs having a characteristic of further suppressing the gain of the low luminance part as the contrast ratio is higher. The luminance of the HDR color image data is converted using the selected LUT.
[Selection] Figure 8

Description

本発明は、入力画像の輝度を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法及び撮像装置に関する。   The present invention relates to an image processing apparatus, an image processing method, and an imaging apparatus suitable for generating an output image having different gradation characteristics by converting luminance of an input image.

電子カメラは撮像素子のダイナミックレンジ(以下、Dレンジと称す)が狭い為、露出制御を行う。露出制御においては撮像素子のDレンジに入るように、電子シャッター速度や絞りにより撮像素子に入力される光量を調整する(例えば、特許文献1参照)。露出制御は、撮像素子から出力される信号レベルの平均値が、特定の値(例えばDレンジの18%のレベル)になるように、シャッター速度や絞りを制御する。一般に、露出制御はクローズドループ制御で行われる。   Since the electronic camera has a narrow dynamic range (hereinafter referred to as “D range”) of the image sensor, exposure control is performed. In exposure control, the amount of light input to the image sensor is adjusted by the electronic shutter speed and the aperture so as to fall within the D range of the image sensor (see, for example, Patent Document 1). In the exposure control, the shutter speed and the aperture are controlled so that the average value of the signal level output from the image sensor becomes a specific value (for example, 18% of the D range). Generally, exposure control is performed by closed loop control.

一方、Dレンジの広い撮像画像を得られるカメラとして、HDRカメラが存在する。これは、撮像素子のDレンジの狭さを補う為、露光時間の異なる画像を複数枚撮像し、それを合成することで、HDR画像を生成する(例えば、特許文献2参照)。HDRカメラは、先述した露光制御が不要になる。
仮に、最も長い時間で露光した場合の露光量を長時間露光量S3とし、最も短い露光時間で露光した場合の露光量を短時間露光量S1とし、これらの中間の露光時間で露光した場合の露光量を中時間露光量S2とする。HDRカメラは、S3とS1の比を大きくするほど、そのダイナミックレンジを大きくすることができる。また、HDRカメラからの出力画像の画質(S/N)は、中間の露光時間で撮像した画像の枚数を増やすほど良くなることが知られている。
On the other hand, HDR cameras exist as cameras that can obtain captured images with a wide D range. In order to compensate for the narrowness of the D range of the image sensor, an HDR image is generated by capturing a plurality of images with different exposure times and synthesizing them (for example, refer to Patent Document 2). The HDR camera does not require the above-described exposure control.
Temporarily, the exposure amount at the time of exposure for the longest time is set as the long-time exposure amount S3, the exposure amount at the time of exposure at the shortest exposure time is set as the short-time exposure amount S1, and Let the exposure amount be a medium time exposure amount S2. The HDR camera can increase its dynamic range as the ratio of S3 and S1 increases. Further, it is known that the image quality (S / N) of an output image from the HDR camera is improved as the number of images taken with an intermediate exposure time is increased.

HDRカメラにおいては、JPEG、MPEGなどの規格に準拠するためにレンジ圧縮が必要である。従来、入力画像の輝度情報を変換して、入力画像のダイナミックレンジを圧縮する手法として、人間の視覚特性を考慮したretinex理論に基づいた手法が多く発表
されている。例えば、非特許文献1では、「目に入る光像は照明光成分と反射成分の積で表されるが、視覚に強い相関を示すのは反射成分である」と実験から結論付けている。この理論に基づき、ダイナミックレンジを圧縮する際は画像の反射成分を保存し照明光成分のみを圧縮することで、画質劣化を防ぎつつ画像のDレンジを圧縮する方法が提案されている(例えば、特許文献3、特許文献4参照)。このDレンジを圧縮する処理は、一般に、トーンマップ処理と呼ばれる。
In HDR cameras, range compression is required to comply with standards such as JPEG and MPEG. Conventionally, many methods based on the retinex theory considering human visual characteristics have been published as methods for compressing the dynamic range of an input image by converting luminance information of the input image. For example, Non-Patent Document 1 concludes from experiments that “the light image entering the eye is represented by the product of the illumination light component and the reflection component, but it is the reflection component that has a strong visual correlation”. Based on this theory, a method for compressing the D range of the image while preserving the reflection component of the image and compressing only the illumination light component when compressing the dynamic range while preventing image quality degradation has been proposed (for example, (See Patent Document 3 and Patent Document 4). This process of compressing the D range is generally called tone map processing.

特開2003−244538号公報JP 2003-244538 A 特開2009−49547号公報JP 2009-49547 A 特開2006−352825号公報JP 2006-352825 A 特開2008−511048号公報JP 2008-511048 A

E.H.Land,J.J.McCann,"Lightness and retinex theory",journal of the Optical Society of America,61(1),1(1971)E.H.Land, J.J.McCann, "Lightness and retinex theory", journal of the Optical Society of America, 61 (1), 1 (1971)

飽和現象が起きないHDRカメラシステムは、露光制御が不要であることから、常に安
定な画像が得られる、という大きな特徴を有する。しかしながら、前述のトーンマップ処理によって、ビデオ出力画像のコントラスト感が損なわれる傾向がある。すなわちトーンマップ処理は、暗部のゲインを大きくして、暗部を明るく持ち上げるように動作することから、被写体のコントラスト比が大きいときは、靄(もや)のかかった様な眠たい画像になってしまう。
An HDR camera system in which saturation does not occur has a great feature that a stable image is always obtained because exposure control is unnecessary. However, the above tone map processing tends to impair the contrast of the video output image. In other words, the tone map process operates to increase the dark area gain and lift the dark area brightly, so when the contrast ratio of the subject is large, the image becomes sleepy with a hazy appearance. .

例えば、炎天下の環境で、自動車内に設置したカメラにて車内を撮影することを考える。この場合、通常のカメラでは、車窓からの風景がとんでしまうか、もしくは車内の映像が黒潰れしてしまうか、のどちらかになってしまう。一方、HDRカメラは、車窓からの風景を鮮明に写しつつ、本来は黒潰れする車内の風景も、前述のトーンマップ処理によりゲインを上げることで、描写する。このようにHDRカメラは、車外と車内の双方を映像として描写することが出来るが、トーンマップ処理を施すことで、その映像はコントラスト比が低い眠たい画像になる。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものである。本発明の幾つかの態様によれば、入力画像の輝度情報を変換して階調特性の異なる出力画像を生成するのに好適な画像処理装置、画像処理方法及び撮像装置を提供できる。
For example, consider taking a picture of the inside of a car with a camera installed in a car in an environment under hot weather. In this case, with a normal camera, the scenery from the car window stops, or the image inside the car is crushed black. On the other hand, the HDR camera clearly describes the scenery from the vehicle window, and also describes the scenery in the car that is originally crushed by increasing the gain by the tone map processing described above. In this way, the HDR camera can depict both the inside and outside of the vehicle as images, but by applying tone map processing, the images become sleepy images with a low contrast ratio.
Therefore, the present invention has been made paying attention to such unsolved problems of the conventional technology. According to some aspects of the present invention, it is possible to provide an image processing apparatus, an image processing method, and an imaging apparatus that are suitable for generating output images having different gradation characteristics by converting luminance information of an input image.

〔形態1〕 上記目的を達成するために、形態1の画像処理装置は、
異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換手段と、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成手段と、
前記輝度分布情報生成手段で生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御手段と、を備え、
前記画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換する。
[Mode 1] In order to achieve the above object, an image processing apparatus according to mode 1 includes:
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. Image conversion means for generating two composite image data;
Luminance distribution information generating means for generating luminance distribution information that is information related to the luminance distribution of the captured image of the subject based on at least one of the plurality of image data;
Conversion gain control means for controlling the characteristics of the gain used for conversion of the luminance of the image conversion means based on the luminance distribution information generated by the luminance distribution information generation means,
The image conversion means converts the luminance of the first composite image data using the gain controlled by the conversion gain control means.

このような構成であれば、画像変換手段によって、異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成することが可能である。
一方、輝度分布情報生成手段によって、複数の画像データのうち、少なくとも1の画像データに基づき、撮像画像の輝度分布に係る輝度分布情報を生成することができる。更に、変換ゲイン制御手段によって、輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御することが可能である。
With such a configuration, the first composite image generated by combining two or more pieces of image data among a plurality of image data obtained by imaging the subject with a plurality of different exposure times by the image conversion means. It is possible to generate the second composite image data having different gradation characteristics by converting the luminance of the data.
On the other hand, the luminance distribution information generation means can generate luminance distribution information related to the luminance distribution of the captured image based on at least one of the plurality of image data. Furthermore, it is possible to control the characteristics of the gain used for the luminance conversion of the image conversion means based on the luminance distribution information by the conversion gain control means.

そして、画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換することが可能である。
これにより、輝度分布情報に基づき変換に用いるゲインの特性を自動で制御することができると共に、ゲインの特性を適切に制御することで、階調変換後の出力画像における画質劣化を低減することができる。
例えば、第1の合成画像データの低階調部分について、ゲインを抑えるように制御することで、輝度を変換後の出力画像における低階調部分のコントラスト比の低下による画質劣化を低減することができる。
The image conversion means can convert the luminance of the first composite image data using the gain controlled by the conversion gain control means.
This makes it possible to automatically control the characteristics of the gain used for conversion based on the luminance distribution information, and to reduce image quality deterioration in the output image after gradation conversion by appropriately controlling the characteristics of the gain. it can.
For example, by controlling the gain for the low gradation part of the first composite image data, it is possible to reduce image quality degradation due to a decrease in the contrast ratio of the low gradation part in the output image after the luminance conversion. it can.

また、入力画像(第1の合成画像データ)の特性や所望する出力画像(第2の合成画像データ)の特性などに応じて、ゲインの上限を変更することができる。
これにより、コントラスト比の低下による画質劣化を低減しつつ、所望の画質特性を有する出力画像を得ることができる。
ここで、輝度の変換は、一画素の単位で行ってもよいし、特定位置の複数画素の単位で行ってもよい。例えば、複数画素の場合は、平均輝度を求めて、該平均輝度に応じたゲインの上限を設定し、該上限に従って、輝度の変換を行う。
Further, the upper limit of the gain can be changed according to the characteristics of the input image (first composite image data), the desired output image (second composite image data), and the like.
Thereby, it is possible to obtain an output image having desired image quality characteristics while reducing image quality deterioration due to a decrease in contrast ratio.
Here, the luminance conversion may be performed in units of one pixel or may be performed in units of a plurality of pixels at a specific position. For example, in the case of a plurality of pixels, an average luminance is obtained, an upper limit of gain corresponding to the average luminance is set, and luminance is converted according to the upper limit.

〔形態2〕 更に、形態2の画像処理装置は、形態1の画像処理装置において、
前記輝度分布情報は、前記撮像画像の輝度のヒストグラムである。
このような構成であれば、輝度のヒストグラムから撮像画像の輝度のコントラストの状態を知ることができるので、的確なゲイン制御を行うことができる。
〔形態3〕 更に、形態3の画像処理装置は、形態1又は2の画像処理装置において、
前記画像変換手段は、前記第1の合成画像データの輝度を変換して、前記第1の合成画像データの輝度のダイナミックレンジを圧縮した第2の合成画像データを生成する。
[Mode 2] Furthermore, the image processing apparatus according to mode 2 is the same as the image processing apparatus according to mode 1.
The luminance distribution information is a luminance histogram of the captured image.
With such a configuration, the state of the brightness contrast of the captured image can be known from the brightness histogram, so that accurate gain control can be performed.
[Mode 3] Furthermore, the image processing apparatus of mode 3 is the image processing apparatus of mode 1 or 2,
The image conversion means converts the luminance of the first synthesized image data to generate second synthesized image data in which the dynamic range of the luminance of the first synthesized image data is compressed.

このような構成であれば、画像変換手段は、例えば、第1の合成画像データがハイダイナミックレンジの画像データである場合に、入力画像データの輝度を、表示装置などの出力装置の出力可能な階調範囲に合わせて変換することができる。
例えば、第1の合成画像データが20ビットの階調範囲を有している場合に、その階調範囲を、表示装置の表示可能な階調範囲に合わせて、これよりも低い階調範囲、例えば8ビットの階調範囲へと圧縮した第2の合成画像データを生成することができる。
With such a configuration, the image conversion means can output the luminance of the input image data from an output device such as a display device, for example, when the first composite image data is high dynamic range image data. Conversion can be performed in accordance with the gradation range.
For example, when the first composite image data has a 20-bit gradation range, the gradation range is adjusted to the gradation range that can be displayed by the display device, and a gradation range lower than this range. For example, the second composite image data compressed to an 8-bit gradation range can be generated.

〔形態4〕 更に、形態4の画像処理装置は、形態1乃至3のいずれか1の画像処理装置において、
前記輝度分布情報生成手段は、前記複数の画像データのうち、最長の露光時間を除く残りの露光時間に対応する画像データのうちの少なくとも1の画像データに基づき前記輝度分布情報を生成する。
このような構成であれば、比較的明るい場所で撮像する場合に、白飛びした画像以外の画像データから輝度分布情報を生成することができるので、精度の良い情報を生成することができる。特に、最長及び最短以外の画像データを用いることで、黒つぶれ且つ白飛びの無い画像データから輝度分布情報を生成することができる。
[Mode 4] Furthermore, the image processing apparatus according to mode 4 is the image processing apparatus according to any one of modes 1 to 3,
The luminance distribution information generating means generates the luminance distribution information based on at least one image data of image data corresponding to the remaining exposure time excluding the longest exposure time among the plurality of image data.
With such a configuration, when capturing an image in a relatively bright place, the luminance distribution information can be generated from image data other than the overexposed image, so that accurate information can be generated. In particular, by using image data other than the longest and shortest, it is possible to generate luminance distribution information from image data that is blacked and has no whiteout.

〔形態5〕 更に、形態5の画像処理装置は、形態1乃至4のいずれか1の画像処理装置において、
前記変換ゲイン制御手段は、前記輝度分布情報に基づき撮像画像のコントラスト比の高低を判定し、コントラスト比が高いと判定したときは、前記第1の合成画像データにおける所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が高ければ高いほど小さい値となるように制御する。
このような構成であれば、コントラスト比が高いと判定したときに、所定輝度以下の画素データについて、変換後の輝度が高くなりすぎないようにゲインを調整することができる。従って、入力画像の低輝度部分が明るくなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた出力画像を生成することができる。
[Embodiment 5] Furthermore, the image processing apparatus of Embodiment 5 is the image processing apparatus of any one of Embodiments 1 to 4,
The conversion gain control means determines whether the contrast ratio of the captured image is high or low based on the luminance distribution information. The gain used for the tone conversion is controlled to be smaller as the contrast ratio is higher.
With such a configuration, when it is determined that the contrast ratio is high, the gain can be adjusted so that the luminance after conversion does not become too high for pixel data having a predetermined luminance or less. Therefore, it is possible to generate a sharp output image with no black floating while restricting the low luminance portion of the input image from becoming too bright.

〔形態6〕 更に、形態6の画像処理装置は、形態5の画像処理装置において、
前記変換ゲイン制御手段は、前記所定輝度以下の画素データの階調変換に用いるゲインが、一定値で固定されるようにゲインを制御する。
このような構成であれば、所定輝度以下の画素データについて、ゲインに上限値(リミット)を設けることができる。これにより、ゲインの上限値を適切に設定することで、入力画像の輝度を変換後の出力画像における低輝度部分のコントラストの低下による画質劣化を低減することができる。
[Mode 6] Further, the image processing apparatus of mode 6 is the same as the image processing apparatus of mode 5,
The conversion gain control means controls the gain so that the gain used for gradation conversion of the pixel data having the predetermined luminance or less is fixed at a constant value.
With such a configuration, an upper limit value (limit) can be set for the gain for pixel data having a predetermined luminance or less. Accordingly, by appropriately setting the upper limit value of the gain, it is possible to reduce image quality deterioration due to a decrease in contrast of a low-luminance portion in the output image after converting the luminance of the input image.

〔形態7〕 更に、形態7の画像処理装置は、形態5又は6の画像処理装置において、
前記変換ゲイン制御手段は、前記コントラスト比が低いと判定したときは、前記所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が低ければ低いほど大きい値となるように制御する。
このような構成であれば、コントラスト比が低いと判定したときに、所定輝度以下の画素データについて、変換後の輝度が低くなりすぎないようにゲインを調整することができる。従って、入力画像の低輝度部分が暗くなりすぎないように制限をかけつつも、黒浮きのないメリハリの効いた出力画像を生成することができる。
[Mode 7] Furthermore, the image processing apparatus of mode 7 is the image processing apparatus of mode 5 or 6,
When it is determined that the contrast ratio is low, the conversion gain control means controls the gain used for gradation conversion of pixel data having the predetermined luminance or less so that the gain becomes higher as the contrast ratio is lower.
With such a configuration, when it is determined that the contrast ratio is low, the gain can be adjusted so that the luminance after conversion does not become too low for pixel data having a predetermined luminance or less. Therefore, it is possible to generate a sharp output image with no black floating while limiting the low luminance portion of the input image so as not to be too dark.

〔形態8〕 更に、形態8の画像処理装置は、形態5乃至7のいずれか1の画像処理装置において、
前記輝度分布情報生成手段は、前記少なくとも1の画像データについて、該画像データの対応する輝度の階調範囲を高輝度側、中間輝度、低輝度側の3つの独立した範囲に区分すると共に各範囲を1以上の区分範囲に区分し、各区分範囲に属する画素の数を計数して前記輝度分布情報を生成する。
このような構成であれば、高輝度側の画素数と、低輝度側の画素数を簡易に把握することができ、撮像画像のコントラスト比の高低を簡易且つ高速に判定することができる。
[Embodiment 8] Furthermore, the image processing apparatus of Embodiment 8 is the image processing apparatus of any one of Embodiments 5 to 7,
The luminance distribution information generation means divides the corresponding luminance gradation range of the image data into three independent ranges of a high luminance side, an intermediate luminance, and a low luminance side for each of the at least one image data Are divided into one or more division ranges, and the number of pixels belonging to each division range is counted to generate the luminance distribution information.
With such a configuration, the number of pixels on the high luminance side and the number of pixels on the low luminance side can be easily grasped, and the contrast ratio of the captured image can be determined easily and at high speed.

〔形態9〕 更に、形態9の画像処理装置は、形態8の画像処理装置において、
前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第1閾値以上で、且つ前記低輝度側の範囲に属する区分範囲の合計画素数が第2閾値以上のときに、前記撮像画像のコントラスト比が高いと判定する。
このような構成であれば、第1閾値及び第2閾値によって、コントラスト比を高いと判定する際の基準を簡易に設定することができる。
[Embodiment 9] Furthermore, the image processing apparatus of Embodiment 9 is the image processing apparatus of Embodiment 8,
The conversion gain control unit is configured such that the total number of pixels in the divided range belonging to the high luminance side range is equal to or greater than a first threshold value and the total number of pixels in the divided range belonging to the low luminance side range is equal to or larger than a second threshold In addition, it is determined that the contrast ratio of the captured image is high.
With such a configuration, a reference for determining that the contrast ratio is high can be easily set by the first threshold value and the second threshold value.

〔形態10〕 更に、形態10の画像処理装置は、形態8又は9の画像処理装置において、
前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第3閾値以下のときに、前記撮像画像のコントラスト比が低いと判定する。
このような構成であれば、第3閾値によって、コントラスト比を低いと判定する際の基準を簡易に設定することができる。
[Mode 10] Furthermore, the image processing apparatus of mode 10 is the image processing apparatus of mode 8 or 9,
The conversion gain control means determines that the contrast ratio of the captured image is low when the total number of pixels in the divided range belonging to the range on the high luminance side is equal to or smaller than a third threshold value.
With such a configuration, a reference for determining that the contrast ratio is low can be easily set by the third threshold.

〔形態11〕 更に、形態11の画像処理装置は、形態1乃至10のいずれか1の画像処理装置において、
被写体を撮像可能な撮像素子から、当該撮像素子において異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、最長の露光時間に対応する画像データを含む2以上の画像データを取得する画像データ取得手段と、
前記画像データ取得手段で取得した前記2以上の画像データを露光時間の比率に基づき線形合成して前記第1の合成画像データを生成する合成画像データ生成手段と、を備え、
前記輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分布情報を生成する。
[Mode 11] Furthermore, an image processing apparatus according to mode 11 is the image processing apparatus according to any one of modes 1 to 10,
Two or more pieces of image data including image data corresponding to the longest exposure time among a plurality of pieces of image data obtained by imaging a subject with a plurality of different exposure times from the image pickup device capable of picking up the subject. Image data acquisition means for acquiring;
A synthesized image data generating unit that linearly synthesizes the two or more image data acquired by the image data acquiring unit based on an exposure time ratio to generate the first synthesized image data;
The luminance distribution information generation unit generates the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time.

このような構成であれば、画像データ取得手段によって、撮像素子から、異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、最長の露光時間に対応する画像データを含む2以上の画像データを取得することができる。
更に、合成画像データ生成手段によって、取得した前記2以上の画像データを露光量の比率に基づき線形合成して前記第1の合成画像データを生成することができる。
そして、輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分
布情報を生成することができる。
With such a configuration, the image data acquisition unit includes image data corresponding to the longest exposure time among a plurality of image data obtained by imaging the subject with a plurality of different exposure times from the image sensor. The above image data can be acquired.
Furthermore, the composite image data generating means can generate the first composite image data by linearly combining the acquired two or more pieces of image data based on the exposure amount ratio.
The luminance distribution information generation means can generate the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time. .

〔形態12〕 更に、形態12の画像処理装置は、形態11の画像処理装置において、
前記撮像素子は、各画素から蓄積電荷を維持したまま前記蓄積電荷に応じた画素信号を読み出す非破壊読み出し方式で画素信号を読み出すことが可能であり、各フレーム期間において露光時間の短い方から順に前記異なる複数の露光時間で前記各画素を露光すると共に、露光した各画素から前記非破壊読み出し方式で画素信号を読み出し、読み出した順番に前記複数の画像データを構成する画素信号のデータを出力し、
前記画像データ取得手段は、前記各フレーム期間において、前記最長の露光時間に対応する画像データを取得するよりも先行して前記少なくとも1の画像データを取得し、
前記輝度分布情報生成手段は、前記先行して取得した少なくとも1の画像データである先行画像データに基づき前記輝度分布情報を生成し、
前記変換ゲイン制御手段は、前記先行画像データに基づき生成された輝度分布情報に基づき、前記先行画像データを取得したフレーム期間と同じフレーム期間に取得される前記2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御し、
前記画像変換手段は、前記同じフレーム期間に対応する前記第1の合成画像データの輝度を、前記同じフレーム期間に対応する前記制御されたゲインを用いて変換する。
[Mode 12] Furthermore, the image processing apparatus of mode 12 is the image processing apparatus of mode 11,
The image sensor can read out a pixel signal by a nondestructive readout method that reads out a pixel signal corresponding to the accumulated charge while maintaining the accumulated charge from each pixel, and in order from the shorter exposure time in each frame period. The pixels are exposed at the different exposure times, pixel signals are read from the exposed pixels by the non-destructive readout method, and pixel signal data constituting the plurality of image data is output in the read order. ,
The image data acquisition means acquires the at least one image data prior to acquiring image data corresponding to the longest exposure time in each frame period;
The luminance distribution information generation means generates the luminance distribution information based on the preceding image data which is the at least one image data acquired in advance.
The conversion gain control means linearly synthesizes the two or more pieces of image data acquired in the same frame period as the frame period from which the preceding image data was acquired based on the luminance distribution information generated based on the preceding image data. Controlling the gain for converting the luminance of the generated first composite image data;
The image conversion means converts the luminance of the first composite image data corresponding to the same frame period using the controlled gain corresponding to the same frame period.

このような構成であれば、撮像素子から、最長の露光時間に対応する画素信号のデータに先行して、これより短い1の露光時間に対応する画素信号のデータを取得して、輝度分布情報を生成することができる。
更に、変換ゲイン制御手段は、生成した輝度分布情報に基づき、この情報の生成に用いた画像データと同じフレームに取得される2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御することができる。
With this configuration, the pixel signal data corresponding to one exposure time shorter than this is obtained from the image sensor prior to the pixel signal data corresponding to the longest exposure time, and the luminance distribution information is obtained. Can be generated.
Further, the conversion gain control means is a first synthesized image generated by linearly synthesizing two or more image data acquired in the same frame as the image data used to generate this information based on the generated luminance distribution information. The gain for converting the brightness of the data can be controlled.

従って、輝度分布情報の生成対象である画像データのフレームと、輝度分布情報に基づきゲインを制御する対象の第1の合成画像データの生成に用いる画像データのフレームとを同じにすることができる。これにより、別フレームとした場合の被写体の輝度変動に応じた発振(フリッカ)現象の発生を抑えることが可能である。そのため、常に安定な出力画像を得ることができる。
また、例えば、車載カメラやマシンビジョンなどのように実時間性が要求されるアプリケーションにおいて、実時間に近いタイミングで出力装置の階調に合わせて階調変換された合成画像(映像)の取得を行うのに有効である。
Therefore, the frame of the image data that is the generation target of the luminance distribution information can be made the same as the frame of the image data that is used to generate the first composite image data whose gain is controlled based on the luminance distribution information. As a result, it is possible to suppress the occurrence of an oscillation (flicker) phenomenon corresponding to the luminance fluctuation of the subject when the frame is different. Therefore, a stable output image can always be obtained.
Also, for example, in applications that require real-time performance, such as in-vehicle cameras and machine vision, acquisition of composite images (video) that have been tone-converted according to the tone of the output device at a timing close to real time It is effective to do.

〔形態13〕 一方、上記目的を達成するために、形態13の画像処理方法は、
異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換ステップと、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成ステップと、
前記輝度情報生成ステップで生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御ステップと、を含み、
前記画像変換ステップにおいては、前記変換ゲイン制御ステップで制御されたゲインを用いて前記第1の合成画像データの輝度を変換する。
これにより、形態1の画像処理装置と同等の作用及び効果が得られる。
[Mode 13] On the other hand, in order to achieve the above object, an image processing method according to mode 13 includes:
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. An image conversion step for generating two composite image data;
A luminance distribution information generation step for generating luminance distribution information, which is information relating to the luminance distribution of the captured image of the subject, based on at least one of the plurality of image data;
A conversion gain control step for controlling a characteristic of a gain used for conversion of the luminance of the image conversion unit based on the luminance distribution information generated in the luminance information generation step,
In the image conversion step, the luminance of the first composite image data is converted using the gain controlled in the conversion gain control step.
Thereby, the same operation and effect as those of the image processing apparatus of aspect 1 can be obtained.

〔形態14〕 また、上記目的を達成するために、形態14の撮像装置は、
被写体を撮像可能な撮像素子と、
形態11又は形態12に記載の画像処理装置と、を備える。
このような構成であれば、形態11又は12に記載の画像処理装置と同等の作用及び効果が得られる。
[Mode 14] In order to achieve the above object, an imaging apparatus according to mode 14
An image sensor capable of imaging a subject;
An image processing apparatus according to the eleventh or twelfth aspect.
With such a configuration, operations and effects equivalent to those of the image processing apparatus according to mode 11 or 12 can be obtained.

本発明に係る撮像装置1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus 1 according to the present invention. HDR撮像素子10の内部構成を示すブロック図である。2 is a block diagram showing an internal configuration of an HDR image sensor 10. FIG. カラーフィルターアレイ10cの構成を示す図である。It is a figure which shows the structure of the color filter array 10c. HDRセンサー10dのセンサーセルアレイにおける各画素のライン毎の露光及び画素信号の読み出し動作の一例を示す図である。It is a figure which shows an example of the exposure for every line of each pixel in the sensor cell array of HDR sensor 10d, and the read-out operation of a pixel signal. 蓄積電荷のリセットタイミングと、各露光時間の画素信号の読み出しタイミングとの一例を示す図である。It is a figure which shows an example of the reset timing of stored charge, and the read-out timing of the pixel signal of each exposure time. HDRセンサー10dからの画素データの出力形式の一例を示す図である。It is a figure which shows an example of the output format of the pixel data from HDR sensor 10d. 画像処理装置20の内部構成の一例を示すブロック図である。2 is a block diagram illustrating an example of an internal configuration of an image processing device 20. FIG. 測光部25及びHDR本線処理部26の内部構成の一例を示すブロック図である。3 is a block diagram illustrating an example of an internal configuration of a photometry unit 25 and an HDR main line processing unit 26. FIG. HDR線形処理部30及びレベル補正処理部31の内部構成の一例を示すブロック図である。3 is a block diagram illustrating an example of an internal configuration of an HDR linear processing unit 30 and a level correction processing unit 31. FIG. 合成処理部30aの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of an internal structure of the synthetic | combination process part 30a. 輝度分布情報生成部40の内部構成の一例を示すブロック図である。3 is a block diagram illustrating an example of an internal configuration of a luminance distribution information generation unit 40. FIG. 補正ゲイン算出部51の内部構成の一例を示すブロック図である。3 is a block diagram illustrating an example of an internal configuration of a correction gain calculation unit 51. FIG. 各サブフレームにおける画素データの出力タイミングの一例を示す図である。It is a figure which shows an example of the output timing of the pixel data in each sub-frame. 第1実施形態の変換用LUTの一例を示す図である。It is a figure which shows an example of the conversion LUT of 1st Embodiment. 補正ゲイン算出部51’の内部構成の一例を示すブロック図である。It is a block diagram which shows an example of an internal structure of correction | amendment gain calculation part 51 '. 第2実施形態の変換用LUT及びリミット値の一例を示す図である。It is a figure which shows an example of the conversion LUT and limit value of 2nd Embodiment.

〔第1実施形態〕
以下、本発明の第1実施形態を図面に基づき説明する。図1〜図14は、本発明に係る画像処理装置、画像処理方法、画像処理プログラム及び撮像装置の第1実施形態を示す図である。
(撮像装置の構成例)
まず、本発明に係る撮像装置の構成を図1〜図2に基づき説明する。図1は、本発明に係る撮像装置1の構成を示すブロック図である。また、図2は、HDR撮像素子10の内部構成を示すブロック図である。
撮像装置1は、図1に示すように、HDR撮像素子10と、画像処理装置20とを含んで構成される。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. 1 to 14 are diagrams illustrating a first embodiment of an image processing apparatus, an image processing method, an image processing program, and an imaging apparatus according to the present invention.
(Configuration example of imaging device)
First, the configuration of an imaging apparatus according to the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a configuration of an imaging apparatus 1 according to the present invention. FIG. 2 is a block diagram showing an internal configuration of the HDR image sensor 10.
As illustrated in FIG. 1, the imaging device 1 includes an HDR imaging device 10 and an image processing device 20.

撮像素子10は、図2に示すように、レンズ10aと、マイクロレンズ10bと、カラーフィルターアレイ10cと、HDRセンサー10dと、駆動回路10eと、読出回路10fとを含んで構成される。
レンズ10aは、被写体からの反射光を集光して、マイクロレンズ10bへと導くものである。なお、撮像条件などに応じて、単焦点レンズ、ズームレンズ、オートアイリスレンズなどの種類がある。
マイクロレンズ10bは、レンズ10aを透過した光をHDRセンサー10dの有するセンサーセルアレイの各センサーセル(画素)に集光するものである。
As shown in FIG. 2, the image sensor 10 includes a lens 10a, a microlens 10b, a color filter array 10c, an HDR sensor 10d, a drive circuit 10e, and a readout circuit 10f.
The lens 10a collects reflected light from the subject and guides it to the microlens 10b. There are types such as a single focus lens, a zoom lens, and an auto iris lens depending on the imaging conditions.
The microlens 10b collects light transmitted through the lens 10a on each sensor cell (pixel) of the sensor cell array included in the HDR sensor 10d.

カラーフィルターアレイ10cは、マイクロレンズ10bを透過した光から所定の1種類の色要素に対応する波長の光を分離して該分離した光を対応する各画素に入射するカラーフィルター部(以下、CF部と称す)を少なくとも画素数分含んで構成されるものであ
る。
HDRセンサー10dは、各センサーセル(画素)がフォトダイオード及びCMOS素子から構成されるセンサーセルアレイを有し、電子シャッター方式によって露光時間を制御して露光時間の異なる複数種類の画像データを出力するものである。
駆動回路10eは、不図示のレジスターで設定される駆動モードと画像処理装置20からの同期信号とに基づき、HDRセンサー10dと読出回路10fとを駆動するものである。本実施形態においては、異なる露光時間で被写体を撮像するように駆動し、露光時間の異なる複数種類の撮像画像データを出力する。
The color filter array 10c separates light having a wavelength corresponding to one predetermined type of color element from light transmitted through the microlens 10b and makes the separated light incident on each corresponding pixel (hereinafter referred to as CF). Part) and at least the number of pixels.
The HDR sensor 10d has a sensor cell array in which each sensor cell (pixel) includes a photodiode and a CMOS element, and outputs a plurality of types of image data having different exposure times by controlling the exposure time by an electronic shutter method. It is.
The drive circuit 10e drives the HDR sensor 10d and the readout circuit 10f based on a drive mode set by a register (not shown) and a synchronization signal from the image processing device 20. In the present embodiment, driving is performed so that a subject is imaged at different exposure times, and a plurality of types of captured image data having different exposure times are output.

読出回路10fは、HDRセンサー10dから撮像画像信号を読み出し、読み出した撮像画像信号(アナログ)に対してA/D変換を含む各種信号処理を施してデジタルの撮像画像データとして画像処理装置20に出力する。このとき、読出回路10fは、駆動回路10eを介して供給される画像処理装置20からの同期信号に同期して撮像画像データを出力する。
画像処理装置20は、HDR撮像素子10から出力される、露光時間の異なる複数種類の撮像画像データに基づき、ノイズ除去処理、合成処理、色処理、輝度画像データ生成処理、輝度値→ゲイン変換処理、レベル変換(トーンマッピング)処理、γ変換処理等を行うものである。なお、詳細な構成は後述する。
The reading circuit 10f reads a captured image signal from the HDR sensor 10d, performs various signal processing including A / D conversion on the read captured image signal (analog), and outputs the signal to the image processing device 20 as digital captured image data. To do. At this time, the readout circuit 10f outputs captured image data in synchronization with a synchronization signal from the image processing device 20 supplied via the drive circuit 10e.
The image processing device 20 performs noise removal processing, composition processing, color processing, luminance image data generation processing, luminance value → gain conversion processing based on a plurality of types of captured image data output from the HDR imaging element 10 and having different exposure times. , Level conversion (tone mapping) processing, γ conversion processing, and the like. A detailed configuration will be described later.

(カラーフィルターアレイの構成例)
次に、図3に基づき、カラーフィルターアレイ10cの構成を説明する。
ここで、図3は、カラーフィルターアレイ10cの構成を示す図である。
図3において、R、G、Bは、光の3原色(赤色、緑色、青色)のいずれか1色の波長領域の光を選択的に透過するCF部に対応し、これらに付された下付の数字は、行番号及び列番号を示す。例えば、R00であれば、行番号1の第1列目の画素に対応するRの波長領域の光を透過するフィルター部となる。なお、本実施形態においては、水平方向を行方向とし、垂直方向を列方向として、撮像装置2は、水平方向に並ぶ複数の画素から構成されるラインの単位で処理を行うようになっている。
(Color filter array configuration example)
Next, the configuration of the color filter array 10c will be described with reference to FIG.
Here, FIG. 3 is a diagram showing a configuration of the color filter array 10c.
In FIG. 3, R, G, and B correspond to CF portions that selectively transmit light in the wavelength region of any one of the three primary colors (red, green, and blue), and are attached to these. The attached numbers indicate row numbers and column numbers. For example, if R 00, a filter portion that transmits light in the wavelength region of R corresponding to the first column of the pixel line number 1. Note that in the present embodiment, the horizontal direction is the row direction, and the vertical direction is the column direction, and the imaging apparatus 2 performs processing in units of lines composed of a plurality of pixels arranged in the horizontal direction. .

具体的に、カラーフィルターアレイ10c(以下、CFアレイ10cと称す)は、マイクロレンズ10bを介して入射された光から、赤色に対応する波長領域の光(以下、R光と称す)、緑色に対応する波長領域の光(以下、G光と称す)及び青色に対応する波長領域の光(以下、B光と称す)のうち所定の1色に対応する波長領域の光を分離して、該分離した光をそれぞれ対応する画素に入射する複数のCF部から構成されている。   Specifically, the color filter array 10c (hereinafter referred to as the CF array 10c) converts the light incident through the microlens 10b into light in a wavelength region corresponding to red (hereinafter referred to as R light), green. Separating light in a wavelength region corresponding to a predetermined color from light in a corresponding wavelength region (hereinafter referred to as G light) and light in a wavelength region corresponding to blue (hereinafter referred to as B light); It is composed of a plurality of CF sections that respectively input separated lights to corresponding pixels.

より具体的に、CFアレイ10cは、図3に示すように、入射光からR光を分離して、該分離したR光を画素に入射する複数のR光透過フィルター部(図3中のR)と入射光からG光を分離して、該分離したG光を画素に入射する複数のG光透過フィルター部(図3中のG)とがR→G→R→G→R→G→・・・の順で水平方向に連続した構成のフィルターラインRGFLを複数備えている。   More specifically, as shown in FIG. 3, the CF array 10 c separates R light from incident light, and a plurality of R light transmission filter units (R in FIG. 3) that enters the separated R light into pixels. ) And a plurality of G light transmission filter portions (G in FIG. 3) that separate the G light from the incident light and enter the separated G light into the pixel R → G → R → G → R → G → A plurality of filter lines RGFL having a configuration that is continuous in the horizontal direction in this order are provided.

更に、複数のG光透過フィルター部と、入射光からB光を分離して、該分離したB光を画素に入射する複数のB光透過フィルター部(図3中のB)とがG→B→G→B→G→B→・・・の順で水平方向に連続した構成のフィルターラインGBFLを複数備えている。これら複数の、フィルターラインRGFLと、フィルターラインGBFLとは、図2に示すように、RGFL→GBFL→RGFL→GBFL→RGFL→・・・の順で垂直方向に連続して配列されている。つまり、複数のG光透過フィルター部と、複数のB光透過フィルター部と、複数のR光透過フィルター部とがベイヤ型に配列された構成となっている。   Further, a plurality of G light transmission filter sections and a plurality of B light transmission filter sections (B in FIG. 3) for separating the B light from the incident light and entering the separated B light into the pixels are G → B. A plurality of filter lines GBFL having a configuration that is continuous in the horizontal direction in the order of G → B → G → B →. The plurality of filter lines RGFL and filter lines GBFL are continuously arranged in the vertical direction in the order of RGFL → GBFL → RGFL → GBFL → RGFL →... That is, a plurality of G light transmission filter sections, a plurality of B light transmission filter sections, and a plurality of R light transmission filter sections are arranged in a Bayer shape.

(HDRセンサー10dの駆動制御方法について)
次に、図4〜図6に基づき、撮像素子10のHDRセンサー10dの露光時間の制御方法、及びセンサーセルアレイからの画素信号の読み出し方法について説明する。ここで、図4は、HDRセンサー10dのセンサーセルアレイにおける各画素のライン毎の露光及び画素信号の読み出し動作の一例を示す図である。また、図5は、蓄積電荷のリセットタイミングと、各露光時間の画素信号の読み出しタイミングとの一例を示す図である。また、図6は、HDRセンサー10dからの画素データの出力形式の一例を示す図である。
(About the drive control method of the HDR sensor 10d)
Next, a method for controlling the exposure time of the HDR sensor 10d of the image sensor 10 and a method for reading a pixel signal from the sensor cell array will be described with reference to FIGS. Here, FIG. 4 is a diagram illustrating an example of exposure and pixel signal readout operations for each pixel line in the sensor cell array of the HDR sensor 10d. FIG. 5 is a diagram showing an example of the reset timing of the accumulated charge and the readout timing of the pixel signal for each exposure time. FIG. 6 is a diagram illustrating an example of an output format of pixel data from the HDR sensor 10d.

ここで、本発明の露光時間の制御は、センサーセルアレイの露光領域(走査領域)に対して、超短露光時間T_S1の画素信号の非破壊読み出しを行う非破壊読み出しラインL
1と、短露光時間T_S2の画素信号の非破壊読み出しを行う非破壊読み出しラインL2
とを設定する。更に、各画素のラインの蓄積電荷のリセット及び標準露光時間T_S3の
画素信号の読み出しを行う読み出し&リセットラインL3を設定する。なお、T_S1〜
T_S3の関係は、図5に示すように、「T_S1<T_S2<T_S3」となっており、リセットされてから、まずT_S1経過時に非破壊読み出しラインL1が設定される。次に
T_S2経過時に非破壊読み出しラインL2が設定され、次にT_S3経過時に読み出し&リセットラインL3が設定される。
Here, the exposure time of the present invention is controlled by a nondestructive readout line L that performs nondestructive readout of the pixel signal of the ultrashort exposure time T_S1 with respect to the exposure region (scan region) of the sensor cell array.
1 and a non-destructive readout line L2 for non-destructive readout of a pixel signal having a short exposure time T_S2
And set. Further, a read & reset line L3 for resetting the accumulated charge of each pixel line and reading the pixel signal of the standard exposure time T_S3 is set. T_S1 ~
As shown in FIG. 5, the relationship of T_S3 is “T_S1 <T_S2 <T_S3”, and after reset, first, the non-destructive read line L1 is set when T_S1 has elapsed. Next, the non-destructive read line L2 is set when T_S2 elapses, and the read & reset line L3 is set when T_S3 elapses.

具体的に、非破壊読み出しラインL1及びL2並びに読み出し&リセットラインL3は、図4に示すように、露光領域における画素のラインに順次標準露光時間T_S3分の電
荷が蓄積されると、読み出し&リセットラインL3が各画素のラインの画素信号を順次読み出すと共に、その蓄積電荷を順次リセットするように設定される。一方、露光領域のリセット後の各画素のラインにおいては、標準露光時間T_S3の時間分の電荷が蓄積され
る期間中、超短露光時間T_S1及び短露光時間T_S2において各画素のラインの画素信号を非破壊で順次読み出すように非破壊読み出しラインL1及びL2がそれぞれ設定される。
Specifically, the non-destructive read lines L1 and L2 and the read & reset line L3 are read and reset when charges corresponding to the standard exposure time T_S3 are sequentially accumulated in the pixel lines in the exposure region, as shown in FIG. The line L3 is set so as to sequentially read out pixel signals of the lines of the respective pixels and to sequentially reset the accumulated charges. On the other hand, in the line of each pixel after resetting the exposure area, the pixel signal of the line of each pixel is obtained during the ultrashort exposure time T_S1 and the short exposure time T_S2 during the period in which the charge for the standard exposure time T_S3 is accumulated. Non-destructive read lines L1 and L2 are set to sequentially read non-destructively.

なお、本実施の形態においては、図4に示すように、リセット直後の超短露光時間T_
S1に対応する画素信号(アナログデータ)S1は、第1ラインメモリーに読み出され、短露光時間T_S2に対応する画素信号(アナログデータ)S2は、第2ラインメモリー
に読み出される。更に、標準露光時間T_S3に対応する画素信号(アナログデータ)S
3は、第3ラインメモリーに読み出される。そして、これら読み出された画素信号S1〜S3は、図3に示すように、それぞれ選択回路を経てADCにS1〜S3の順で順次出力されそこでデジタルデータ(画素データ)に変換される。変換された各画素データは、変換された順に(S1〜S3の順に)ライン単位で画像処理装置20に出力される。
In the present embodiment, as shown in FIG. 4, the ultrashort exposure time T_ immediately after the reset
The pixel signal (analog data) S1 corresponding to S1 is read to the first line memory, and the pixel signal (analog data) S2 corresponding to the short exposure time T_S2 is read to the second line memory. Further, a pixel signal (analog data) S corresponding to the standard exposure time T_S3.
3 is read into the third line memory. Then, as shown in FIG. 3, the read pixel signals S1 to S3 are sequentially output to the ADC in the order of S1 to S3 through the selection circuits, and are converted into digital data (pixel data) there. The converted pixel data is output to the image processing device 20 in line units in the order of conversion (in order of S1 to S3).

また、上記非破壊読み出しラインL1及びL2並びに読み出し&リセットラインL3の画素信号の読み出しタイミングの制御は、図4に示すように、各画素のライン毎に、読み出し&リセットラインL3を順次走査する(図4のスキャン方向)。そして、読み出し&リセットラインL3においては、蓄積電荷のリセットを行うとともに、蓄積電荷のリセット直前に標準露光時間T_S3の露光が行われた画素の画素信号の読み出しを行う。更に
、リセット直後に、超短露光時間T_S1の画素信号の読み出しを行う。
In addition, as shown in FIG. 4, the readout timing of the pixel signals on the non-destructive readout lines L1 and L2 and readout & reset line L3 is sequentially scanned for each pixel line (see FIG. 4). Scan direction in FIG. 4). In the read & reset line L3, the accumulated charge is reset, and the pixel signal of the pixel that has been exposed for the standard exposure time T_S3 immediately before the accumulated charge is reset is read. Further, immediately after the reset, the pixel signal of the ultrashort exposure time T_S1 is read out.

例えば、露光領域の一番目のラインである第1ラインにおいて標準露光時間T_S3の
画素信号S3の読み出し及びリセットが行われたとする。以降は、画素信号S3が第3ラインメモリーから全て外部に読み出される毎に、図4中のスキャン方向に1ラインずつ、読み出し&リセットラインL3の走査が順次行われる。このとき、読み出し&リセットラインL3が再び第1ラインに到達したときに、丁度標準露光時間T_S3が経過するタイ
ミングとなるように走査が行われる。このような手順で、センサーセルアレイの露光領域の画素のラインに対して、各画素のライン毎に、標準露光時の画素信号の読み出し及び蓄
積電荷のリセットを順次行う。
For example, it is assumed that the pixel signal S3 of the standard exposure time T_S3 is read and reset on the first line that is the first line of the exposure region. Thereafter, every time the pixel signal S3 is read from the third line memory to the outside, scanning of the read & reset line L3 is sequentially performed one line at a time in the scan direction in FIG. At this time, when the read & reset line L3 reaches the first line again, scanning is performed so that the standard exposure time T_S3 has just passed. In such a procedure, the pixel signal is read out and the stored charge is reset at the time of standard exposure for each pixel line for the pixel line in the exposure region of the sensor cell array.

一方、蓄積電荷がリセットされると、当該リセット後の画素のラインに対して、非破壊読み出しラインL1において超短露光時間T_S1の露光が行われた画素の画素信号S1
の非破壊読み出しを行い、引き続き、非破壊読み出しラインL2において短露光時間T_
S2の露光が行われた画素の画素信号S2の非破壊読み出しを行う。このような手順で、センサーセルアレイの各画素のラインに対して、ライン毎に、超短露光時間T_S1及び
短露光時間T_S2で露光時の画素信号S1及びS2の非破壊読み出しを順次行う。
On the other hand, when the accumulated charge is reset, the pixel signal S1 of the pixel that has been exposed for the ultrashort exposure time T_S1 in the nondestructive readout line L1 with respect to the pixel line after the reset
Of non-destructive readout, and then the short exposure time T_ in the non-destructive readout line L2
Non-destructive readout of the pixel signal S2 of the pixel subjected to the exposure of S2 is performed. According to such a procedure, the pixel signals S1 and S2 at the time of exposure are sequentially read out for each line of each pixel of the sensor cell array with the ultrashort exposure time T_S1 and the short exposure time T_S2.

このようにして読み出された画素信号S1〜S3は、ライン毎に、第1ラインメモリー〜第3ラインメモリーにそれぞれ格納されライン単位で選択回路へと出力される。選択回路からは、S1〜S3の順でアナログの画素データS1〜S3がADCに出力される。ADCは、アナログの画素データS1〜S3を、デジタルの画素データS1〜S3に変換する。そして、ADCからは、図6に示すように、ライン単位でS1〜S3の順に画素データが順次、画像処理装置20へと出力される。つまり、画像処理装置20には、図6に示すように、画素データS3に先行して、画素データS1〜S2がS1からS2の順に入力される。   The pixel signals S1 to S3 read out in this way are stored in the first line memory to the third line memory for each line and output to the selection circuit in line units. From the selection circuit, analog pixel data S1 to S3 are output to the ADC in the order of S1 to S3. The ADC converts the analog pixel data S1 to S3 into digital pixel data S1 to S3. Then, as shown in FIG. 6, the pixel data is sequentially output from the ADC to the image processing apparatus 20 in the order of S <b> 1 to S <b> 3 in units of lines. That is, as shown in FIG. 6, the pixel data S <b> 1 to S <b> 2 are input to the image processing device 20 in the order of S <b> 1 to S <b> 2 prior to the pixel data S <b> 3.

(画像処理装置の構成例)
次に、図7〜図12に基づき、画像処理装置20の詳細な構成を説明する。
ここで、図7は、画像処理装置20の内部構成の一例を示すブロック図である。また、図8は、測光部25及びHDR本線処理部26の内部構成の一例を示すブロック図である。また、図9は、HDR線形処理部30及びレベル補正処理部31の内部構成の一例を示すブロック図である。また、図10は、合成処理部30aの内部構成の一例を示すブロック図である。また、図11は、輝度分布情報生成部40の内部構成の一例を示すブロック図である。また、図12は、補正ゲイン算出部51の内部構成の一例を示すブロック図である。
(Configuration example of image processing apparatus)
Next, a detailed configuration of the image processing apparatus 20 will be described with reference to FIGS.
Here, FIG. 7 is a block diagram illustrating an example of an internal configuration of the image processing apparatus 20. FIG. 8 is a block diagram illustrating an example of the internal configuration of the photometry unit 25 and the HDR main line processing unit 26. FIG. 9 is a block diagram illustrating an example of an internal configuration of the HDR linear processing unit 30 and the level correction processing unit 31. FIG. 10 is a block diagram illustrating an example of an internal configuration of the composition processing unit 30a. FIG. 11 is a block diagram illustrating an example of an internal configuration of the luminance distribution information generation unit 40. FIG. 12 is a block diagram illustrating an example of an internal configuration of the correction gain calculation unit 51.

画像処理装置20は、図7に示すように、プリプロセス部21と、遅延部22〜24と、測光部25と、HDR本線処理部26とを含んで構成される。
プリプロセス部21は、HDRセンサー10dからの画素信号(画素データS1〜S3)に対して、超短露光時間T_S1の画素データS1を用いた固定パターンノイズの除去
処理、クランプ処理などを行う。
As shown in FIG. 7, the image processing apparatus 20 includes a preprocessing unit 21, delay units 22 to 24, a photometry unit 25, and an HDR main line processing unit 26.
The pre-process unit 21 performs fixed pattern noise removal processing, clamping processing, and the like using the pixel data S1 of the ultrashort exposure time T_S1 on the pixel signals (pixel data S1 to S3) from the HDR sensor 10d.

具体的に、固定パターンノイズの除去処理は、短露光時間T_S2及び標準露光時間T_S3の画素データから、超短露光時間T_S1の画素データを各対応する画素毎に減算す
る処理となる。つまり、超短露光時間T_S1の画素データは、リセット直後の画素信号
に対応するデータであるため、電荷の蓄積量が少なく、固定パターンノイズの成分に支配されているので、このデータを、他の露光時間のデータから減算することで、固定パターンノイズの成分のみを除去することができる。
また、クランプ処理は、HDRセンサー10dからの画素データS1〜S3を受信し、それが遮光領域の信号か否かを検出し、遮光領域と検出された場合はその信号レベルが黒(基準)レベルになるように、全ての入力画素データの直流成分をクランプする処理となる。
Specifically, the fixed pattern noise removal process is a process of subtracting the pixel data of the ultrashort exposure time T_S1 for each corresponding pixel from the pixel data of the short exposure time T_S2 and the standard exposure time T_S3. That is, since the pixel data of the ultra-short exposure time T_S1 is data corresponding to the pixel signal immediately after the reset, the amount of accumulated charge is small and governed by the component of the fixed pattern noise. By subtracting from the exposure time data, only the fixed pattern noise component can be removed.
The clamp process receives the pixel data S1 to S3 from the HDR sensor 10d, detects whether the signal is a signal in the light shielding area, and if the signal is detected as the light shielding area, the signal level is the black (reference) level. Thus, the DC component of all input pixel data is clamped.

そして、固定パターンノイズの除去処理及びクランプ処理を経た画素データS1〜S3は、遅延部22〜24を介して出力タイミングを同期させて、HDR本線処理部26に出力される。以下、露光時間T_S1〜T_S3にそれぞれ対応する撮像画像データ(1フレーム分の画素データ)を、画素データS1〜S3と同様に、撮像画像データS1〜S3と称す。
遅延部22〜24は、露光時間の長さに応じて順番に出力される画素データS1〜S3を、遅延量d_S1〜d_S3でそれぞれ遅延させる遅延素子を有している。そして、画素データS1〜S3の出力タイミングを同期させる機能を有している。
具体的に、遅延部22の遅延素子は画素データS3を遅延量d_S3で遅延させ、遅延
部23の遅延素子は画素データS2を遅延量d_S2で遅延させ、遅延部24の遅延素子
は画素データS1を遅延量d_S3で遅延させる(d_S3<d_S2<d_S1)。
The pixel data S <b> 1 to S <b> 3 that have undergone the fixed pattern noise removal process and the clamp process are output to the HDR main line processing unit 26 in synchronism with the output timing via the delay units 22 to 24. Hereinafter, the captured image data (pixel data for one frame) respectively corresponding to the exposure times T_S1 to T_S3 are referred to as captured image data S1 to S3, similarly to the pixel data S1 to S3.
The delay units 22 to 24 have delay elements that delay the pixel data S1 to S3 output in order according to the length of the exposure time by the delay amounts d_S1 to d_S3, respectively. And it has the function to synchronize the output timing of pixel data S1-S3.
Specifically, the delay element of the delay unit 22 delays the pixel data S3 by the delay amount d_S3, the delay element of the delay unit 23 delays the pixel data S2 by the delay amount d_S2, and the delay element of the delay unit 24 is the pixel data S1. Is delayed by a delay amount d_S3 (d_S3 <d_S2 <d_S1).

画素データS1に対する画素データS2及びS3の出力遅延時間を単純にdT2(T_
S2−T_S1)及びdT3(T_S3−T_S1)とし、その他の処理遅延を補正する遅
延量をΔt1、Δt2、Δt3とする。この場合に、「(d_S3=Δt3+dT3)=
(d_S2=Δt2+dT2)=(d_S1=Δt1)」の関係が成り立つ。
測光部25は、プリプロセス部21から出力される撮像画像データS1又はS2に基づき、ヒストグラムの生成処理、レベル補正制御パラメーターの発生処理を行う。
The output delay time of the pixel data S2 and S3 with respect to the pixel data S1 is simply set to dT2 (T_
S2-T_S1) and dT3 (T_S3-T_S1), and delay amounts for correcting other processing delays are Δt1, Δt2, and Δt3. In this case, “(d_S3 = Δt3 + dT3) =
The relationship (d_S2 = Δt2 + dT2) = (d_S1 = Δt1) ”holds.
The photometry unit 25 performs a histogram generation process and a level correction control parameter generation process based on the captured image data S1 or S2 output from the preprocessing unit 21.

HDR本線処理部26は、遅延部22〜24を介して、同期して入力される撮像画像データS1〜S3と、測光部25からのレベル補正制御パラメーターとに基づき、HDR合成処理、トーンマップ処理、色処理、ガンマ変換処理を行う。そして、ガンマ変換処理後の画像データ信号をビデオ信号として出力する。ビデオ信号は、業界標準の規格に準じた形態で、例えば8ビットのレンジに圧縮された画像信号である。   The HDR main line processing unit 26 performs HDR synthesizing processing and tone map processing based on the captured image data S1 to S3 input in synchronization via the delay units 22 to 24 and the level correction control parameter from the photometry unit 25. , Color processing and gamma conversion processing. Then, the image data signal after the gamma conversion processing is output as a video signal. The video signal is an image signal compressed in an 8-bit range, for example, according to an industry standard.

(測光部25の構成例)
測光部25は、図8に示すように、画素データS1又はS2に基づき撮像画像の輝度のヒストグラムを生成する輝度分布情報生成部40と、生成したヒストグラムに基づきレベル補正制御パラメーターを発生する制御パラメーター発生部41とを含んで構成される。
また、HDR本線処理部26は、図8に示すように、画素データS1〜S3に基づきHDRカラー画像データを生成するHDR線形処理部30と、HDRカラー画像データを業界標準(規格)のレンジ(階調範囲)に圧縮しHDRのビデオ信号を出力するレベル補正処理部31とを含んで構成される。
(Configuration example of photometry unit 25)
As shown in FIG. 8, the photometry unit 25 includes a luminance distribution information generation unit 40 that generates a luminance histogram of a captured image based on the pixel data S1 or S2, and a control parameter that generates a level correction control parameter based on the generated histogram. The generator 41 is included.
As shown in FIG. 8, the HDR main line processing unit 26 generates an HDR linear image processing unit 30 that generates HDR color image data based on the pixel data S1 to S3, and converts the HDR color image data into an industry standard (standard) range (standard). And a level correction processing unit 31 that outputs an HDR video signal.

(HDR線形処理部30の構成例)
まず、図9及び図10に基づき、図8に示すHDR線形処理部30の詳細な構成について説明する。
HDR線形処理部30は、図9に示すように、合成処理部30aと、色処理部30bとを含んで構成される。
合成処理部30aは、3種類の露光時間T_S1,T_S2,T_S3に対応する画素デ
ータS1,S2,S3の信号を、前記露光時間の比率に基づいて合成し、HDR_RAW
画素データを生成する。
具体的に、合成処理部30aは、図10に示すように、正規化のためのゲインを算出する正規化ゲイン算出部70,71と、正規化ゲインを用いて画素データを正規化する正規化部72,73と、を含んで構成される。
(Configuration example of HDR linear processing unit 30)
First, based on FIG.9 and FIG.10, the detailed structure of the HDR linear process part 30 shown in FIG. 8 is demonstrated.
As shown in FIG. 9, the HDR linear processing unit 30 includes a synthesis processing unit 30a and a color processing unit 30b.
The combining processing unit 30a combines the signals of the pixel data S1, S2, and S3 corresponding to the three types of exposure times T_S1, T_S2, and T_S3 based on the ratio of the exposure times, and generates HDR_RAW.
Pixel data is generated.
Specifically, as illustrated in FIG. 10, the synthesis processing unit 30a includes normalization gain calculation units 70 and 71 that calculate gains for normalization, and normalization that normalizes pixel data using the normalization gains. Parts 72 and 73.

正規化ゲイン算出部70は、露光時間T_S3及びT_S1の比率に応じた正規化ゲインRS3を算出する。例えば、T_S1を基準に正規化を行う場合は、「RS3=T_S1/T_S3」を算出する。
正規化ゲイン算出部71は、露光時間T_S2及びT_S1の比率に応じた正規化ゲインRS2を算出する。例えば、T_S1を基準に正規化を行う場合は、「RS2=T_S1/T_S2」を算出する。
正規化部72は、画素データS3に正規化ゲインRS3を乗算して、画素データS3を正規化し、正規化画素データNS3を出力する。
The normalization gain calculation unit 70 calculates a normalization gain RS3 corresponding to the ratio between the exposure times T_S3 and T_S1. For example, when normalization is performed based on T_S1, “RS3 = T_S1 / T_S3” is calculated.
The normalization gain calculation unit 71 calculates a normalization gain RS2 corresponding to the ratio between the exposure times T_S2 and T_S1. For example, when normalization is performed based on T_S1, “RS2 = T_S1 / T_S2” is calculated.
The normalizing unit 72 multiplies the pixel data S3 by the normalization gain RS3, normalizes the pixel data S3, and outputs normalized pixel data NS3.

正規化部73は、画素データS2に正規化ゲインRS2を乗算して、画素データS2を正規化し、正規化画素データNS2を出力する。
合成処理部30aは、更に、画像合成時の合成重みW1,W2,W3を算出する合成重み算出部74と、合成重みW1,W2,W3を用いて正規化画素データNS1,NS2,NS3を重み付けする重み付け部75,76,77と、を含んで構成される。
The normalizing unit 73 multiplies the pixel data S2 by the normalization gain RS2, normalizes the pixel data S2, and outputs normalized pixel data NS2.
The composition processing unit 30a further weights the normalized pixel data NS1, NS2, NS3 using the composition weights W1, W2, W3 and the composition weights W1, W2, W3. Weighting units 75, 76, 77.

合成重み算出部74は、画素データS1,S2,S3に基づき、合成重みW1,W2,W3を算出する。具体的に、下式(1)に示す、画素データS1〜S3を要素xとした、重み関数F(x)を用いて合成重みを算出する。

F(x)=(x/MAX)n ・・・(1)

上式(1)において、MAXは、画素データS1,S2,S3の階調範囲の最大値、例えば、8ビットの階調範囲であれば「MAX=255」、10ビットの階調範囲であれば「MAX=1023」となる。
The combination weight calculation unit 74 calculates combination weights W1, W2, and W3 based on the pixel data S1, S2, and S3. Specifically, the composite weight is calculated using a weight function F (x) represented by the following formula (1), where the pixel data S1 to S3 are elements x.

F (x) = (x / MAX) n (1)

In the above equation (1), MAX is the maximum value of the gradation range of the pixel data S1, S2, S3, for example, “MAX = 255” if the gradation range is 8 bits, and the gradation range of 10 bits. For example, “MAX = 1023”.

上式(1)を用いて、W1〜W3は、例えば、下式(2)〜(4)で算出することができる。

W1=F(S2) ・・・(2)
W2=F(S3)−W1=F(S3)−F(S2) ・・・(3)
W3=1−W2−W1=1−F(S3) ・・・(4)
Using the above equation (1), W1 to W3 can be calculated by, for example, the following equations (2) to (4).

W1 = F (S2) (2)
W2 = F (S3) -W1 = F (S3) -F (S2) (3)
W3 = 1-W2-W1 = 1-F (S3) (4)

重み付け部75は、合成重みW3を正規化画素データNS3に乗算して、重み付け画素データWS3を出力する。
重み付け部76は、合成重みW2を正規化画素データNS2に乗算して、重み付け画素データWS2を出力する。
重み付け部77は、合成重みW1を画素データS1に乗算して、重み付け画素データWS1を出力する。
合成処理部30aは、更に、重み付け画素データWS1,WS2,WS3を合成してHDR_RAW画素データを生成し、生成したHDR_RAW画素データを色処理部30bに出力する合成部78を含んで構成される。
The weighting unit 75 multiplies the normalized pixel data NS3 by the composite weight W3 and outputs the weighted pixel data WS3.
The weighting unit 76 multiplies the normalized pixel data NS2 by the composite weight W2 and outputs the weighted pixel data WS2.
The weighting unit 77 multiplies the pixel data S1 by the composite weight W1 and outputs weighted pixel data WS1.
The combination processing unit 30a further includes a combining unit 78 that combines the weighted pixel data WS1, WS2, and WS3 to generate HDR_RAW pixel data and outputs the generated HDR_RAW pixel data to the color processing unit 30b.

合成部78は、例えば、画素データS1〜S3がそれぞれ10ビットのデータであるとして、重み付け画素データWS1,WS2,WS3を合成して20ビットのHDR_RA
W画素データを生成する。なお、1フレーム分のHDR_RAW画素データが、HDR画
像データ(HDR_RAW画像データ)となる。
色処理部30bは、不図示のラインメモリーを有しており、HDR_RAW画素データ
(処理すべき画素のデータ)と、ラインメモリーに格納された、処理すべき画素の周辺の画素のHDR_RAW画素データとを用いて色補間処理を行う。すなわち、ラインメモリ
ーにより遅延された、HDR_RAW画素データを用いて、画像の各点について、RGB
色空間に規定される色信号(データ)を生成する処理(色信号処理)を行う。
For example, the combining unit 78 combines the weighted pixel data WS1, WS2, and WS3 by combining the weighted pixel data WS1, WS2, and WS3, assuming that the pixel data S1 to S3 are each 10-bit data.
W pixel data is generated. Note that HDR_RAW pixel data for one frame becomes HDR image data (HDR_RAW image data).
The color processing unit 30b has a line memory (not shown), HDR_RAW pixel data (pixel data to be processed), HDR_RAW pixel data of pixels around the pixel to be processed, stored in the line memory, and Is used to perform color interpolation processing. That is, using the HDR_RAW pixel data delayed by the line memory, for each point of the image, RGB
Processing for generating a color signal (data) defined in the color space (color signal processing) is performed.

また、色処理部30bは、撮像画像の輪郭部分の明度差および色相差を補正して撮像画像の輪郭部を明瞭にするシャープネス処理も行う。
上記色補間処理によって、HDR_RAW画素データを、画素毎に、RGBの各色要素
にそれぞれ対応するHDRカラー画素データに変換する。
これにより、画素毎に、R(赤)の色要素に対応する画素データR_hdr、G(緑)
の色要素に対応する画素データG_hdr及びB(青)の色要素に対応する画素データB_
hdrを有するHDRカラー画素データが生成される。なお、1フレーム分の画素データS1〜S3に対応するHDRカラー画素データR_hdr、G_hdr及びB_hdrから
HDRカラー画像データが構成される。
The color processing unit 30b also performs sharpness processing that corrects the brightness difference and the hue difference of the contour portion of the captured image to clarify the contour portion of the captured image.
Through the color interpolation process, the HDR_RAW pixel data is converted into HDR color pixel data corresponding to each color element of RGB for each pixel.
Thereby, for each pixel, pixel data R_hdr, G (green) corresponding to the R (red) color element
Pixel data G_hdr corresponding to the color element of B and pixel data B_ corresponding to the color element of B (blue)
HDR color pixel data having hdr is generated. In addition, HDR color image data is comprised from HDR color pixel data R_hdr, G_hdr, and B_hdr corresponding to the pixel data S1 to S3 for one frame.

(輝度分布情報生成部40の構成例)
次に、図11に基づき、図8に示す輝度分布情報生成部40について詳細な構成を説明する。
輝度分布情報生成部40は、図11に示すように、セレクター60と、ヒストグラム生成器61とを含んで構成される。
セレクター60は、切替信号に応じて、ヒストグラム生成器61に入力する画素データを画素データS1及びS2のいずれか一方に選択的に切り替える機能を有している。この切り替えは、予め設定されたモードに応じて行ったり、撮影条件などに応じて自動的に行ったりする。
(Configuration example of luminance distribution information generation unit 40)
Next, a detailed configuration of the luminance distribution information generation unit 40 shown in FIG. 8 will be described based on FIG.
As shown in FIG. 11, the luminance distribution information generation unit 40 includes a selector 60 and a histogram generator 61.
The selector 60 has a function of selectively switching the pixel data input to the histogram generator 61 to one of the pixel data S1 and S2 in accordance with the switching signal. This switching is performed according to a preset mode or automatically according to shooting conditions.

ヒストグラム生成器61は、図11に示すように、レベル分割器62と、カウンター63a〜63eと、出力レジスター64a〜64eとを含んで構成される。
レベル分割器62は、入力される画素データS1又はS2の階調レベルが、階調範囲(例えば、0〜1023)を複数の範囲に区分してなる各区分範囲のいずれに属するかを判定する。そして、カウンター63a〜63eのうち、判定結果の区分範囲に対応するカウンターにカウントパルスを入力する。
As shown in FIG. 11, the histogram generator 61 includes a level divider 62, counters 63a to 63e, and output registers 64a to 64e.
The level divider 62 determines whether the gradation level of the input pixel data S1 or S2 belongs to each of the division ranges obtained by dividing the gradation range (for example, 0 to 1023) into a plurality of ranges. . And a count pulse is input into the counter corresponding to the division range of the determination result among the counters 63a to 63e.

カウンター63a〜63eは、各々が、レベル分割器62から入力されるカウントパルスをカウント(計数)し、そのカウント値を、出力レジスター64a〜64eのうち、符号の末尾の英字が同じ出力レジスターに出力する。また、カウンター63a〜63eは、外部からのRESET信号に応じて、カウント値をリセット(例えば、0に初期化)する。
出力レジスター64a〜64eは、各々が、カウンター63a〜63eのうち符号の末尾の英字が同じカウンターから入力されるカウント値を記憶し、外部からのHOLD信号に応じて、記憶したカウント値を、制御パラメーター発生部41に出力する。
Each of the counters 63a to 63e counts (counts) the count pulse input from the level divider 62, and outputs the count value to the output register having the same letter at the end of the sign among the output registers 64a to 64e. To do. In addition, the counters 63a to 63e reset (for example, initialize to 0) the count value in response to an external RESET signal.
Each of the output registers 64a to 64e stores a count value input from the counter having the same letter at the end of the code among the counters 63a to 63e, and controls the stored count value according to an external HOLD signal. Output to the parameter generator 41.

本実施の形態では、画素データS1又はS2の階調範囲を、画素データ信号の信号レベルをDATAとし、信号レベルのレンジの最大値をMAXとして、以下の5つの区分範囲に区分する。
(1)「Saturation(飽和):MAX=DATA」
(2)「High Range:(MAX+1)/2≦DATA<MAX」
(3)「Middle Range:(MAX+1)/8≦DATA<(MAX+1)/2」
(4)「Low Range:(MAX+1)/64≦DATA<(MAX+1)/8」
(5)「Bottom Range:0≦DATA<(MAX+1)/64」
上記区分範囲(1)〜(5)とカウンター63a〜63e及び出力レジスター64a〜64eとは、区分範囲(1)に対してカウンター63a及び出力レジスター64aが対応し、区分範囲(2)に対してカウンター63b及び出力レジスター64bが対応する。
In the present embodiment, the gradation range of the pixel data S1 or S2 is divided into the following five division ranges, where the signal level of the pixel data signal is DATA and the maximum value of the signal level range is MAX.
(1) “Saturation: MAX = DATA”
(2) “High Range: (MAX + 1) / 2 ≦ DATA <MAX”
(3) “Middle Range: (MAX + 1) / 8 ≦ DATA <(MAX + 1) / 2”
(4) “Low Range: (MAX + 1) / 64 ≦ DATA <(MAX + 1) / 8”
(5) “Bottom Range: 0 ≦ DATA <(MAX + 1) / 64”
The division ranges (1) to (5), the counters 63a to 63e, and the output registers 64a to 64e correspond to the division range (1), with the counter 63a and the output register 64a corresponding to the division range (2). Counter 63b and output register 64b correspond.

また、区分範囲(3)に対してカウンター63c及び出力レジスター64cが対応し、区分範囲(4)に対してカウンター63d及び出力レジスター64dが対応し、区分範囲(5)に対してカウンター63e及び出力レジスター64eが対応する。
つまり、入力された画素データ(DATA)が、上記区分範囲(1)〜(5)のいずれかに属するかを判定し、カウンター63a〜63eによって各区分範囲に属する画素データを計数する(1フレーム期間分を計数する)。そして、撮像画像データS1又はS2の各画素データに対する、区分範囲(1)〜(5)の各区分範囲の画素数からヒストグラムを生成する。
Further, the counter 63c and the output register 64c correspond to the segment range (3), the counter 63d and the output register 64d correspond to the segment range (4), and the counter 63e and the output to the segment range (5). Register 64e corresponds.
That is, it is determined whether the input pixel data (DATA) belongs to any one of the above-described division ranges (1) to (5), and the pixel data belonging to each division range is counted by the counters 63a to 63e (one frame). Count the period). And a histogram is produced | generated from the pixel count of each division range of division range (1)-(5) with respect to each pixel data of captured image data S1 or S2.

なお、超短露光時間T_S1は、標準露光時間T_S3の1/100〜1/1000とし、短露光時間T_S2は、標準露光時間T_S3の1/10〜1/100とすることが望ましい。換言すると、超短露光時間T_S1の露光による露光量(蓄積電荷量)S1は、標
準露光時間T_S3の露光による露光量S3の1/100〜1/1000とすることが望
ましい。また、短露光時間T_S2の露光による露光量S2は、標準露光時間T_S3の露光による露光量S3の1/10〜1/100とすることが望ましい。
It is desirable that the ultrashort exposure time T_S1 is 1/100 to 1/1000 of the standard exposure time T_S3, and the short exposure time T_S2 is 1/10 to 1/100 of the standard exposure time T_S3. In other words, it is desirable that the exposure amount (accumulated charge amount) S1 by exposure during the ultrashort exposure time T_S1 is 1/100 to 1/1000 of the exposure amount S3 by exposure during the standard exposure time T_S3. Further, it is desirable that the exposure amount S2 by the exposure with the short exposure time T_S2 is set to 1/10 to 1/100 of the exposure amount S3 by the exposure with the standard exposure time T_S3.

また、本実施の形態では、ヒストグラムの生成において、画素データS1及びS2の一方を入力データとして選択できる構成となっているが、S1よりS2を用いることが望ましい。その理由は、S1では高輝度領域(明部)は精度良くヒストグラムを生成できるが、低輝度領域(暗部)は潰れる恐れがあるためである。一方、S3を仮に用いた場合には、低輝度領域(暗部)は精度良くヒストグラムを生成できるが、高輝度領域(明部)は飽和する恐れがある。これらの理由から、S2によりヒストグラムを生成(測光)することが望ましい。   In the present embodiment, in the generation of the histogram, one of the pixel data S1 and S2 can be selected as input data. However, it is desirable to use S2 rather than S1. The reason is that in S1, a histogram can be generated with high accuracy in the high luminance region (bright portion), but the low luminance region (dark portion) may be crushed. On the other hand, if S3 is used, a histogram can be generated with high accuracy in the low luminance region (dark portion), but the high luminance region (bright portion) may be saturated. For these reasons, it is desirable to generate (photometric) a histogram by S2.

(制御パラメーター発生部41について)
次に、図8に示す制御パラメーター発生部41について説明する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラ
ム)に基づき、レベル補正処理部31に対して、HDRカラー画像データの階調レベルの
補正内容を制御するレベル補正制御パラメーターを算出する。
本実施の形態では、ヒストグラムからコントラスト比の高低の程度を判定し、その判定結果に基づき、予め用意された複数種類の補正内容のうち、いずれの補正内容を用いるかを指定するパラメーターを算出(決定)する。
(Regarding the control parameter generator 41)
Next, the control parameter generator 41 shown in FIG. 8 will be described.
The control parameter generation unit 41 controls the level correction processing unit 31 based on the photometry result (histogram) from the luminance distribution information generation unit 40 to control the correction content of the gradation level of the HDR color image data. Is calculated.
In the present embodiment, the level of the contrast ratio is determined from the histogram, and a parameter that specifies which correction content to use from a plurality of types of correction content prepared in advance is calculated based on the determination result ( decide.

具体的には、ヒストグラムにおいて区分範囲(1)の画素数(飽和画素数)と区分範囲(2)の画素数とを加算した数値が第1の閾値Th1以上で、かつ区分範囲(5)の画素数が第2の閾値Th2以上の場合に、コントラスト比が高い(ハイコントラストである)と判定する。
ここで、Th1は、撮像画像の解像度に応じて変化するもので、総画素数の例えば20%などに設定される。また、Th2も、撮像画像の解像度に応じて変化するもので、総画素数の例えば20%などに設定される。
Specifically, in the histogram, a value obtained by adding the number of pixels (saturated pixel number) in the segmented range (1) and the number of pixels in the segmented range (2) is equal to or greater than the first threshold Th1 and the segmented range (5) When the number of pixels is equal to or greater than the second threshold Th2, it is determined that the contrast ratio is high (high contrast).
Here, Th1 changes according to the resolution of the captured image, and is set to 20% of the total number of pixels, for example. Th2 also changes according to the resolution of the captured image, and is set to 20% of the total number of pixels, for example.

ハイコントラストと判定した場合は、ハイコントラスト用の補正内容を指定するレベル補正制御パラメーターを算出する。本実施の形態では、第1及び第2の閾値Th1及びTh2を総画素数の20〜30%の間の段階的な数値で用意し、コントラスト比の高さの程度を段階的に判定する。そして、コントラスト比が高ければ高いほど、低輝度側のレベル上昇を抑える(緩やかにする)補正内容を指定するレベル補正制御パラメーターを算出する。   If it is determined that the contrast is high, a level correction control parameter that specifies the correction content for high contrast is calculated. In the present embodiment, the first and second threshold values Th1 and Th2 are prepared as stepwise numerical values between 20% to 30% of the total number of pixels, and the degree of the contrast ratio is determined stepwise. Then, as the contrast ratio is higher, a level correction control parameter for designating correction contents for suppressing (relaxing) the level increase on the low luminance side is calculated.

一方、区分範囲(1)の画素数(飽和画素数)と区分範囲(2)の画素数とを加算した数値が第3の閾値Th3以下である場合は、コントラスト比が低いと判定する。本実施の形態では、第3の閾値Th3を、例えば、総画素数の15〜20%の範囲で段階的な数値で用意し、コントラスト比の低さの程度を段階的に判定する。そして、コントラスト比が低ければ低いほど低輝度側のレベル上昇を急峻にする補正内容を指定するレベル補正制御パラメーターを算出する。
また、レベル補正制御パラメーターは、HDRカラー画像データの輝度情報を輝度レベル補正ゲインへと変換する変換式のパラメーターや、この変換式を用いて、様々なパラメーターに対して予め生成された複数種類の変換用LUT(Look Up Table)のいずれかを
指定する情報などとしてもよい。
On the other hand, when the numerical value obtained by adding the number of pixels (saturated pixels) in the section range (1) and the number of pixels in the section range (2) is equal to or less than the third threshold Th3, it is determined that the contrast ratio is low. In the present embodiment, for example, the third threshold value Th3 is prepared as a stepwise numerical value within a range of 15 to 20% of the total number of pixels, and the degree of low contrast ratio is determined stepwise. Then, the level correction control parameter for designating the correction content that makes the level increase on the low luminance side steeper as the contrast ratio is lower is calculated.
The level correction control parameter is a parameter of a conversion formula for converting luminance information of HDR color image data into a luminance level correction gain, or a plurality of types of parameters generated in advance for various parameters using this conversion formula. Information specifying one of conversion LUTs (Look Up Table) may be used.

(レベル補正処理部31の構成例)
次に、図9に戻って、レベル補正処理部31は、ラインメモリー50と、補正ゲイン算出部51と、乗算器52と、γ変換部53とを含んで構成される。
ラインメモリー50は、補正ゲイン算出部51における計算遅延を補正し、HDRカラー画像データと輝度レベル補正ゲインとの出力タイミング(位相)を合わせる。つまり、ラインメモリー50は、補正ゲイン算出部51で要する計算時間分、出力タイミングを遅延する遅延素子としての役割を果たす。
補正ゲイン算出部51は、処理対象画素及びその周辺画素の輝度値と、測光部25からのレベル補正制御パラメーターとに基づいて、輝度レベル補正ゲインを算出する。
(Configuration example of level correction processing unit 31)
Next, returning to FIG. 9, the level correction processing unit 31 includes a line memory 50, a correction gain calculation unit 51, a multiplier 52, and a γ conversion unit 53.
The line memory 50 corrects the calculation delay in the correction gain calculation unit 51 and matches the output timing (phase) of the HDR color image data and the luminance level correction gain. That is, the line memory 50 serves as a delay element that delays the output timing by the calculation time required by the correction gain calculation unit 51.
The correction gain calculation unit 51 calculates a luminance level correction gain based on the luminance values of the processing target pixel and its surrounding pixels and the level correction control parameter from the photometry unit 25.

乗算器52は、HDRカラー画像データの各画素データと輝度レベル補正ゲインとを乗算してレベル変換(トーンマッピング)を行う。具体的に、レベル変換は、暗い側の領域画像を伸張してヒストグラムを均一に広げる(ブロード化する)動作となる。
γ変換部53は、レベル変換されたHDRカラー画像データをγ曲線(トーンカーブ)に準じて8ビットに量子化する(レンジ圧縮する)。
具体的に、γ変換部53は、外部表示装置の表示可能な階調範囲(例えば、業界標準の階調範囲)に対応するトーンカーブの情報が格納されたLUTから、レベル変換後のHDRカラー画像データの各画素データの値に対応した変換値を取得する。つまり、各画素データの示す階調値(輝度値)を、トーンカーブにおける対応する変換値に置き換えることでγ変換を施す。
The multiplier 52 performs level conversion (tone mapping) by multiplying each pixel data of the HDR color image data by the luminance level correction gain. Specifically, the level conversion is an operation of expanding (broadening) the histogram uniformly by expanding the dark area image.
The γ conversion unit 53 quantizes (range-compresses) the level-converted HDR color image data into 8 bits according to a γ curve (tone curve).
Specifically, the γ converter 53 converts the HDR color after level conversion from the LUT in which the tone curve information corresponding to the displayable gradation range (for example, the industry standard gradation range) of the external display device is stored. A conversion value corresponding to the value of each pixel data of the image data is acquired. That is, γ conversion is performed by replacing the gradation value (luminance value) indicated by each pixel data with the corresponding conversion value in the tone curve.

例えば、HDRカラー画像データの階調範囲が20ビットで、外部表示装置の表示可能な階調範囲が8ビットである場合は、LUTに格納された、20ビットの階調範囲の輝度値を8ビットの階調範囲の輝度値に変換するトーンカーブの情報から、各入力輝度値に対応した変換値を取得する。このとき、外部表示装置から、その表示可能な階調範囲を示す情報を取得するようにしてもよい。   For example, when the gradation range of the HDR color image data is 20 bits and the displayable gradation range of the external display device is 8 bits, the luminance value of the 20-bit gradation range stored in the LUT is set to 8 A conversion value corresponding to each input luminance value is acquired from information of a tone curve to be converted into a luminance value in a bit gradation range. At this time, information indicating the displayable gradation range may be acquired from the external display device.

(補正ゲイン算出部51の構成例)
次に、図12に基づき、補正ゲイン算出部51の詳細な構成について説明する。
補正ゲイン算出部51は、図12に示すように、輝度値算出部51aと、ラインメモリー51bと、輝度値→ゲイン変換部51cとを含んで構成される。
輝度値算出部51aは、HDRカラー画像データの処理対象画素及びその周辺画素の輝度値に基づき撮像画像の輝度を示す輝度画像データYを生成し、輝度画像データYから照明光成分を抽出する。
(Configuration Example of Correction Gain Calculation Unit 51)
Next, a detailed configuration of the correction gain calculation unit 51 will be described with reference to FIG.
As shown in FIG. 12, the correction gain calculation unit 51 includes a luminance value calculation unit 51a, a line memory 51b, and a luminance value → gain conversion unit 51c.
The luminance value calculation unit 51a generates luminance image data Y indicating the luminance of the captured image based on the luminance values of the processing target pixel of the HDR color image data and its peripheral pixels, and extracts the illumination light component from the luminance image data Y.

具体的に、HDR線形処理部30で生成されたHDRカラー画像データを輝度画像データYに変換し、輝度画像データYに対して、ローパスフィルター(以下、LPFと称す)を用いたぼかし処理を行う。このぼかし処理を行う目的は、HDRカラー画像データから照明光成分を分離し、分離した照明光成分の輝度画像を得るためである。
輝度値算出部51aは、まず、HDRカラー画像データを構成する赤色(R)、緑色(G)、青色(B)に対応するHDRカラー画素データR_hdr(x,y)、G_hdr(x、y)、B_hdr(x、y)を、輝度画素データP(x,y)へと変換する。なお、
1画像分の輝度画素データP(x,y)から輝度画像データYが構成される。また、(x,y)は、画素の位置を示す二次元座標である。例えば、画像の左上を原点(x,y)=(0,0)とした座標となる。
Specifically, the HDR color image data generated by the HDR linear processing unit 30 is converted into luminance image data Y, and the luminance image data Y is subjected to blurring processing using a low-pass filter (hereinafter referred to as LPF). . The purpose of performing this blurring process is to separate the illumination light component from the HDR color image data and obtain a luminance image of the separated illumination light component.
First, the luminance value calculation unit 51a performs HDR color pixel data R_hdr (x, y) and G_hdr (x, y) corresponding to red (R), green (G), and blue (B) constituting the HDR color image data. , B_hdr (x, y) is converted into luminance pixel data P (x, y). In addition,
Luminance image data Y is composed of luminance pixel data P (x, y) for one image. Further, (x, y) is a two-dimensional coordinate indicating the position of the pixel. For example, the upper left corner of the image is the coordinate with the origin (x, y) = (0, 0).

本実施形態において、輝度値算出部51aは、下式(5)に従って、HDRカラー画像データの各HDRカラー画素データR_hdr(x,y)、G_hdr(x、y)、B_h
dr(x、y)を、輝度画素データP(x,y)へと変換する。

P(x,y)=0.3×R_hdr(x,y)+0.6×G_hdr(x,y)+0.1×B_hdr(x,y) ・・・(5)

更に、輝度値算出部51aは、下式(6)に従って、公知のガウシアンフィルターを用いたぼかし処理を行い、輝度画像データYの各輝度画素データP(x,y)を、照明光成分データL(x,y)へと変換する。
In the present embodiment, the luminance value calculation unit 51a performs the HDR color pixel data R_hdr (x, y), G_hdr (x, y), B_h of the HDR color image data according to the following equation (5).
dr (x, y) is converted into luminance pixel data P (x, y).

P (x, y) = 0.3 × R_hdr (x, y) + 0.6 × G_hdr (x, y) + 0.1 × B_hdr (x, y) (5)

Further, the luminance value calculation unit 51a performs a blurring process using a known Gaussian filter according to the following equation (6), and converts each luminance pixel data P (x, y) of the luminance image data Y to the illumination light component data L. Convert to (x, y).

ここで、照明光成分は、比較的低周波数の成分で構成されるため、ガウシアンフィルターなどのローパスフィルターをかけることで、輝度成分から照明光成分を抽出することができる。

L(x,y)=Gauss(P(x,y)) ・・・(6)

ラインメモリー51bは、ぼかし処理を行うのに必要な分のHDRカラー画素データを格納するメモリーである。例えば、LPFが5×5のサイズであれば、HDRカラー画素データの5行分のデータを格納できるラインメモリーから構成される。
Here, since the illumination light component is composed of components having a relatively low frequency, the illumination light component can be extracted from the luminance component by applying a low-pass filter such as a Gaussian filter.

L (x, y) = Gauss (P (x, y)) (6)

The line memory 51b is a memory that stores HDR color pixel data as much as necessary for performing the blurring process. For example, if the LPF has a size of 5 × 5, it is composed of a line memory that can store data for five rows of HDR color pixel data.

輝度値→ゲイン変換部51cは、輝度値算出部51aからの照明光成分データL(x,y)と、測光部25からのレベル補正制御パラメーターとに基づき各照明光成分データL(x,y)を輝度レベル補正ゲインに変換し、その輝度レベル補正ゲインを乗算器52に出力する。
本実施形態において、輝度値→ゲイン変換部51cは、撮像画像のコントラスト比の高低に応じて算出される各レベル補正制御パラメーターに対応する、低輝度側のゲイン特性の異なる複数種類の変換用LUTを備えている。具体的に、変換用LUTは、コントラスト比が高ければ高いほど低輝度側のゲインを低く抑えると共に緩やかに変化する特性を有し、また、コントラスト比が低ければ低いほど高い場合と比較してゲインを高くし且つ急峻に変化する特性を有している。
The luminance value → gain conversion unit 51c is configured to output the illumination light component data L (x, y) based on the illumination light component data L (x, y) from the luminance value calculation unit 51a and the level correction control parameter from the photometry unit 25. ) Is converted into a luminance level correction gain, and the luminance level correction gain is output to the multiplier 52.
In the present embodiment, the luminance value → gain conversion unit 51c has a plurality of types of conversion LUTs having different gain characteristics on the low luminance side corresponding to the level correction control parameters calculated according to the contrast ratio of the captured image. It has. Specifically, the conversion LUT has a characteristic in which the gain on the low luminance side is kept low as the contrast ratio is higher and gradually changes, and the gain is lower than that when the contrast ratio is lower. And has a characteristic of changing sharply.

変換用LUTは、予め下式(7)に従って算出された、HDRカラー画像データの階調範囲(例えば、20ビット)の輝度画素データP(x,y)に対応する各L(x,y)に対する輝度レベル補正ゲインK(L(x,y))を格納したデータテーブルである。本実施形態では、HDRカラー画像データの輝度のヒストグラムを、ブロード化するゲインK(L(x,y))が格納されている。

K(L(x,y))=1/LN(x,y)i (7)

但し、指数部iは、1以下の正の実数であり、LN(x,y)は正規化された照明光成
分であり「0〜1」の範囲の値となる。そして、コントラスト比の高低に応じて、上式(7)のiの値を変更したり、作成した変換用LUTの低輝度部分の特性を補正したりすることで複数種類の変換用LUTを生成する。例えば、iの値を変更して複数種類の変換用LUTを生成する場合は、レベル補正制御パラメーターを、iの値とすることが可能である。
The conversion LUT is calculated in advance according to the following equation (7), and each L (x, y) corresponding to the luminance pixel data P (x, y) in the gradation range (for example, 20 bits) of the HDR color image data. Is a data table storing a luminance level correction gain K (L (x, y)) for. In the present embodiment, a gain K (L (x, y)) for broadening the luminance histogram of the HDR color image data is stored.

K (L (x, y)) = 1 / L N (x, y) i (7)

However, the exponent part i is a positive real number equal to or less than 1, and L N (x, y) is a normalized illumination light component and has a value in the range of “0 to 1”. A plurality of types of conversion LUTs are generated by changing the value of i in the above equation (7) or correcting the characteristics of the low-brightness portion of the created conversion LUT according to the contrast ratio. To do. For example, when a plurality of types of conversion LUTs are generated by changing the value of i, the level correction control parameter can be set to the value of i.

(撮像装置1の動作例)
次に、図13〜図14に基づき、本実施形態の撮像装置1の具体的な動作を説明する。
ここで、図13は、各サブフレームにおける画素データの出力タイミングの一例を示す図である。また、図14は、本実施形態の変換用LUTの一例を示す図である。
被写体の撮像が開始されると、被写体から反射された光は、レンズ10aで集光されてマイクロレンズ10bに入射される。レンズ10aからの入射光は、マイクロレンズ10
bにおいて平行化されて、CFアレイ10cの各CF部を介してセンサーセルアレイの各画素に入射される。CFアレイ10cは、RGBの三原色に対応するCF部がベイヤ配列された構成となっているので、R光、G光及びB光のうち各CF部に対応した色要素の光のみが各画素に入射されることになる。
(Operation example of the imaging apparatus 1)
Next, a specific operation of the imaging apparatus 1 according to the present embodiment will be described based on FIGS.
Here, FIG. 13 is a diagram illustrating an example of output timing of pixel data in each subframe. FIG. 14 is a diagram illustrating an example of the conversion LUT according to the present embodiment.
When imaging of the subject is started, the light reflected from the subject is collected by the lens 10a and is incident on the microlens 10b. Incident light from the lens 10 a
Parallelized at b and incident on each pixel of the sensor cell array via each CF portion of the CF array 10c. Since the CF array 10c has a configuration in which CF portions corresponding to the three primary colors of RGB are arranged in a Bayer arrangement, only light of color elements corresponding to each CF portion among R light, G light, and B light is applied to each pixel. It will be incident.

一方、撮像が開始されると、開始ラインから順に1ラインずつ読み出し&リセットラインL3が設定されて、走査されたラインの各画素から画素信号S3が読み出され、その後、各画素の蓄積電荷がリセットされる。なお、最初に読み出される画素信号S3は、標準露光時間T_S3での露光がされていないため後段の各構成部において無視するように処
理される。引き続き、各走査ラインに対して、各画素のリセット後において超短露光時間T_S1の経過タイミングで非破壊読み出しラインL1が設定され、画素信号S1が読み
出される。引き続き、各走査ラインに対して、各画素のリセット後において短露光時間T_S2の経過タイミングで非破壊読み出しラインL2が設定され、画素信号S2が読み出
される。そして、再び、開始ラインから順に読み出し&リセットラインL3が設定されて、走査されたラインの各画素から画素信号S3が読み出され、その後、各画素の蓄積電荷がリセットされる。このとき読み出される画素信号S3とその前に読み出された画素信号S1及びS2とが後段の各構成部において処理対象となる。
以降、撮像が行われている間は、上記のL1〜L3の設定、画素信号S1〜S3の読み出し及びリセット処理が繰り返し行われる。
On the other hand, when the imaging is started, the readout and reset line L3 is set one line at a time from the start line, and the pixel signal S3 is read from each pixel of the scanned line. Reset. Note that the pixel signal S3 that is read out first is processed so as to be ignored in each component in the subsequent stage because the pixel signal S3 that has been read out is not exposed with the standard exposure time T_S3. Subsequently, for each scanning line, after resetting each pixel, the nondestructive readout line L1 is set at the elapse timing of the ultrashort exposure time T_S1, and the pixel signal S1 is read out. Subsequently, for each scanning line, after resetting each pixel, the non-destructive readout line L2 is set at the elapse timing of the short exposure time T_S2, and the pixel signal S2 is read out. Then, the read & reset line L3 is set again in order from the start line, the pixel signal S3 is read from each pixel of the scanned line, and then the accumulated charge of each pixel is reset. The pixel signal S3 read at this time and the pixel signals S1 and S2 read before the pixel signal S3 are to be processed in each component in the subsequent stage.
Thereafter, while imaging is being performed, the above-described setting of L1 to L3, readout of the pixel signals S1 to S3, and reset processing are repeatedly performed.

このようにして読み出された画素信号S1〜S3は、ライン毎に、読出回路10fの第1ラインメモリー〜第3ラインメモリーにそれぞれ格納されライン単位で選択回路へと出力される。選択回路からは、S1〜S3の順でアナログの画素データS1〜S3がADCに出力される。ADCは、アナログの画素データS1〜S3を、デジタルの画素データS1〜S3に変換する。そして、ADCからは、ライン単位でS1〜S3の順に画素データが順次、画像処理装置20へと出力される。つまり、画像処理装置20には、図13に示すように、画素データS3に先行して、画素データS1〜S2がS1からS2の順に入力される。   The pixel signals S1 to S3 read out in this way are stored in the first line memory to the third line memory of the reading circuit 10f for each line and output to the selection circuit in units of lines. From the selection circuit, analog pixel data S1 to S3 are output to the ADC in the order of S1 to S3. The ADC converts the analog pixel data S1 to S3 into digital pixel data S1 to S3. Then, the pixel data is sequentially output from the ADC to the image processing apparatus 20 in the order of S1 to S3 in units of lines. That is, as shown in FIG. 13, the pixel data S <b> 1 to S <b> 2 are input to the image processing device 20 in the order of S <b> 1 to S <b> 2 prior to the pixel data S <b> 3.

一方、画像処理装置20は、HDRセンサー10dからの画素データS1〜S3をS1から順番に受信すると、プリプロセス部21において、受信した順に画素データに対して、固定パターンノイズの除去処理、及びクランプ処理を施す。そして、これらの処理が施された画素データS1〜S3のうちS1及びS2をそのまま測光部25に出力し、処理の施された画素データS1〜S3を遅延部22〜24に出力する。
遅延部22〜24は、画素データS1〜S3のプリプロセス部21での受信の時間差を吸収し、画素データS1〜S3の出力タイミングを同期させて、これらをHDR本線処理部26に出力する。
On the other hand, when the image processing apparatus 20 receives the pixel data S1 to S3 from the HDR sensor 10d in order from S1, the preprocessing unit 21 performs a fixed pattern noise removal process and a clamp on the pixel data in the order received. Apply processing. Then, among the pixel data S1 to S3 subjected to these processes, S1 and S2 are output to the photometry unit 25 as they are, and the processed pixel data S1 to S3 are output to the delay units 22 to 24.
The delay units 22 to 24 absorb the time difference of reception of the pixel data S1 to S3 by the preprocessing unit 21, synchronize the output timing of the pixel data S1 to S3, and output them to the HDR main line processing unit 26.

一方、測光部32は、プリプロセス部21から画素データS1及びS2が入力されると、輝度分布情報生成部40のセレクター60において、S1及びS2のいずれか一方をレベル分割器62に選択的に入力する。ここでは、画素データS2をレベル分割器62に入力することとする。
レベル分割器62は、入力された画素データS2の輝度値(DATA)と、「(MAX+1)/2」とを比較し、例えば、「DATA>(MAX+1)/2」であれば、次に、MAXとDATAとを比較する。これにより、「DATA=MAX」であれば、入力された画素データS2は、区分範囲(1)に属すると判断して、カウンター63aにカウントパルスを入力する。また、「DATA<MAX」であれば、入力された画素データS2は、区分範囲(2)に属すると判断し、カウンター63bにカウントパルスを入力する。
On the other hand, when the pixel data S1 and S2 are input from the preprocessing unit 21, the photometry unit 32 selectively selects one of S1 and S2 as the level divider 62 in the selector 60 of the luminance distribution information generation unit 40. input. Here, the pixel data S2 is input to the level divider 62.
The level divider 62 compares the luminance value (DATA) of the input pixel data S2 with “(MAX + 1) / 2”. For example, if “DATA> (MAX + 1) / 2”, then: Compare MAX with DATA. Accordingly, if “DATA = MAX”, it is determined that the input pixel data S2 belongs to the division range (1), and a count pulse is input to the counter 63a. If “DATA <MAX”, it is determined that the input pixel data S2 belongs to the segment range (2), and a count pulse is input to the counter 63b.

また、「DATA>(MAX+1)/2」の場合は、次に、DATAと「(MAX+1
)/8」とを比較する。その結果、「DATA>(MAX+1)/8」であれば、入力された画素データS2は、区分範囲(3)に属すると判断し、カウンター63cにカウントパルスを入力する。
また、「DATA<(MAX+1)/8」の場合は、次に、DATAと「(MAX+1)/64」とを比較する。その結果、「DATA>(MAX+1)/64」であれば、入力された画素データS2は、区分範囲(4)に属すると判断し、カウンター63dにカウントパルスを入力する。
If “DATA> (MAX + 1) / 2”, then DATA and “(MAX + 1)
) / 8 ". As a result, if “DATA> (MAX + 1) / 8”, it is determined that the input pixel data S2 belongs to the divided range (3), and a count pulse is input to the counter 63c.
If “DATA <(MAX + 1) / 8”, then DATA is compared with “(MAX + 1) / 64”. As a result, if “DATA> (MAX + 1) / 64”, it is determined that the input pixel data S2 belongs to the segment range (4), and a count pulse is input to the counter 63d.

また、「DATA<(MAX+1)/64」の場合は、入力された画素データS2は、区分範囲(5)に属すると判断し、カウンター63eにカウントパルスを入力する。
また、レベル分割器62は、「DATA=(MAX+1)/2」の場合は区分範囲(2)に、「DATA=(MAX+1)/8」の場合は区分範囲(3)に、「DATA=(MAX+1)/64」の場合は区分範囲(4)に、入力された画素データS2がそれぞれ属すると判断する。
カウンター63a〜63eは、レベル分割器62からのカウントパルスをカウントし、そのカウント値は、カウントアップする毎に出力レジスター64a〜64eに上書きで格納される。
If “DATA <(MAX + 1) / 64”, it is determined that the input pixel data S2 belongs to the segment range (5), and a count pulse is input to the counter 63e.
Further, the level divider 62 sets “DATA = (MAX + 1) / 2” to the section range (2), “DATA = (MAX + 1) / 8” to the section range (3), and “DATA = ( In the case of “MAX + 1) / 64”, it is determined that the input pixel data S2 belongs to the segment range (4).
The counters 63a to 63e count the count pulses from the level divider 62, and the count value is overwritten and stored in the output registers 64a to 64e every time it counts up.

このような測光処理を1フレーム期間分の画素データS2に対して繰り返し行うと、不図示の制御回路からのRESET信号及びHOLD信号がアクティブとなり、カウンター63a〜63eのカウント値がリセットされ、出力レジスター64a〜64eに格納されたリセット前のカウント値(画素数)が制御パラメーター発生部41に出力される。この出力レジスター64a〜64eに格納されたカウント値(画素数)は、撮像画像の輝度のヒストグラムを構成する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラム)を受け取ると、まず、区分範囲(1)及び(2)の合計画素数HPを算出し、この合計画素数HPと第1の閾値Th1とを比較する。更に、区分範囲(5)の画素数LPと、第2の閾値Th2とを比較する。
When such photometric processing is repeatedly performed on the pixel data S2 for one frame period, the RESET signal and the HOLD signal from the control circuit (not shown) become active, the count values of the counters 63a to 63e are reset, and the output register The count value (number of pixels) before reset stored in 64a to 64e is output to the control parameter generating unit 41. The count values (number of pixels) stored in the output registers 64a to 64e constitute a luminance histogram of the captured image.
When receiving the photometric result (histogram) from the luminance distribution information generation unit 40, the control parameter generation unit 41 first calculates the total pixel number HP of the divided ranges (1) and (2), and calculates the total pixel number HP. The first threshold Th1 is compared. Further, the number of pixels LP in the section range (5) is compared with the second threshold Th2.

ここで、Th1は、例えば、総画素数の20%のTh1Lと、26%のTh1Hの2つの数値で設定されたとする(総画素数が例えば100であれば、Th1L=20、Th1H=26となる)。更に、第2の閾値Th2が、例えば、総画素数の20%のTh2Lと、26%のTh2Hの2つの数値で設定されたとする。
制御パラメーター発生部41は、比較結果が、「HP≧Th1H」且つ「LP≧Th2H」のときは、コントラスト比が高いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、最も緩やかな曲線を描くLr1の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
Here, Th1 is set by two numerical values, for example, Th1L of 20% of the total number of pixels and Th1H of 26% (if the total number of pixels is 100, for example, Th1L = 20, Th1H = 26 Become). Furthermore, it is assumed that the second threshold Th2 is set with two numerical values, for example, Th2L of 20% of the total number of pixels and Th2H of 26%.
The control parameter generation unit 41 determines that the contrast ratio is high when the comparison results are “HP ≧ Th1H” and “LP ≧ Th2H”. Then, a level correction control parameter for selecting a conversion LUT that tabulates the conversion characteristics of Lr1 that draws the gentlest curve among the plurality of conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.

また、比較結果に、「HP≧Th1L」を含む場合は、コントラスト比がやや高いと判定する。そして、図14に示す変換曲線Lr1〜Lr5のうち、二番目に緩やかな曲線を描くLr2の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
画素数LH又はLPが、上記いずれの条件にも該当しなかった場合は、制御パラメーター発生部41は、次に、合計画素数HPと、第3の閾値Th3とを比較する。ここで、Th3は、総画素数の20%のTh3Hと、総画素数の15%のTh3Lとの2つの数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≦Th3L」のときは、コントラスト比が低いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、最も変化が急峻な曲線を描くLr5の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
If the comparison result includes “HP ≧ Th1L”, it is determined that the contrast ratio is slightly high. Then, a level correction control parameter for selecting a conversion LUT that tabulates the conversion characteristics of Lr2 that draws the second gentlest curve among the conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.
If the number of pixels LH or LP does not satisfy any of the above conditions, the control parameter generation unit 41 then compares the total number of pixels HP with the third threshold Th3. Here, it is assumed that Th3 is set with two numerical values, Th3H of 20% of the total number of pixels and Th3L of 15% of the total number of pixels.
The control parameter generation unit 41 determines that the contrast ratio is low when the comparison result is “HP ≦ Th3L”. Then, the level correction control parameter for selecting the conversion LUT that tabulates the conversion characteristics of Lr5 that draws the curve with the steepest change among the plurality of conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.

また、比較結果が、「Th3H>HP>Th3L」のときは、コントラスト比がやや低いと判定する。そして、図14に示す、複数の変換曲線Lr1〜Lr5のうち、二番目に変化が急峻な曲線を描くLr4の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
また、上記いずれの判定結果にも該当しない場合は、制御パラメーター発生部41は、図14に示す、複数の変換曲線Lr1〜Lr5のうち、中間の変化をする曲線を描くLr3の変換特性をテーブル化した変換用LUTを選択するレベル補正制御パラメーターを算出する。
Further, when the comparison result is “Th3H>HP> Th3L”, it is determined that the contrast ratio is slightly low. Then, the level correction control parameter for selecting the conversion LUT that tabulates the conversion characteristics of Lr4 that draws the second steepest curve among the plurality of conversion curves Lr1 to Lr5 shown in FIG. 14 is calculated.
When none of the above determination results is satisfied, the control parameter generation unit 41 displays the conversion characteristics of Lr3 that draws an intermediate change curve among the plurality of conversion curves Lr1 to Lr5 shown in FIG. A level correction control parameter for selecting the converted conversion LUT is calculated.

そして、制御パラメーター発生部41は、算出したレベル補正制御パラメーターを、補正ゲイン算出部51の輝度値→ゲイン変換部51cに出力する。
また、HDR線形処理部30は、上記測光部25の処理と並行して、遅延部22〜24で遅延されて出力タイミングの同期された画素データS1〜S3を受信すると、まず、合成処理部30aにおいて、HDR_RAW画素データを生成する。
具体的に、合成処理部30aは、メモリーに保持又はHDR撮像素子10から取得した露光時間T_S1〜T_S3の情報から、正規化ゲイン算出部70,71において、正規化ゲインRS3,RS2を算出する。
Then, the control parameter generation unit 41 outputs the calculated level correction control parameter to the brightness value → gain conversion unit 51c of the correction gain calculation unit 51.
When the HDR linear processing unit 30 receives the pixel data S1 to S3 delayed by the delay units 22 to 24 and synchronized in output timing in parallel with the processing of the photometry unit 25, first, the synthesis processing unit 30a. In the above, HDR_RAW pixel data is generated.
Specifically, the synthesis processing unit 30a calculates the normalized gains RS3 and RS2 in the normalized gain calculation units 70 and 71 from the information of the exposure times T_S1 to T_S3 held in the memory or acquired from the HDR imaging device 10.

また、並行して、合成重み算出部74において、画素データS1〜S3から、上式(1)〜(4)を用いて合成重みW1〜W3を算出する。
次に、正規化部72,73において、正規化ゲインRS3,RS2を画素データS3,S2にそれぞれ乗算して、正規化画素データNS3,NS2を算出する。
次に、重み付け部75〜77において、正規化画素データNS3に合成重みW3を乗算し、正規化画素データNS2に合成重みW2を乗算し、画素データS1に合成重みW1を乗算して、重み付け画素データWS1,WS2,WS3を生成する。
In parallel, the composite weight calculator 74 calculates composite weights W1 to W3 from the pixel data S1 to S3 using the above equations (1) to (4).
Next, the normalizing units 72 and 73 multiply the pixel data S3 and S2 by the normalization gains RS3 and RS2, respectively, thereby calculating the normalized pixel data NS3 and NS2.
Next, in the weighting units 75 to 77, the normalized pixel data NS3 is multiplied by the composite weight W3, the normalized pixel data NS2 is multiplied by the composite weight W2, and the pixel data S1 is multiplied by the composite weight W1 to obtain weighted pixels. Data WS1, WS2 and WS3 are generated.

次に、合成部78において、重み付け画素データWS1,WS2,WS3を合成して(足し合わせて)、HDR_RAW画素データを生成し、生成したHDR_RAW画素データを色処理部30bに出力する。
色処理部30bは、合成処理部30aからHDR_RAW画素データが入力されると、入力されたHDR_RAW画素データをラインメモリーに蓄積する。そして、ラインメモリーに一定量のHDR_RAW画素データが蓄積されると、色補正処理及びシャープネス処理を行い、HDRカラー画素データを生成する。そして、生成したHDRカラー画素データを、レベル補正処理部31のラインメモリー50と、補正ゲイン算出部51とにそれぞれ出力する。
ラインメモリー50は、色処理部30bからHDRカラー画素データを受信すると、それを蓄積し、出力タイミングを遅延させる。具体的に、補正ゲイン算出部51からの輝度レベル補正ゲインの出力タイミングと、そのゲインに対応するHDRカラー画素データの出力タイミングとが同期するように遅延させる。
Next, the combining unit 78 combines (adds) the weighted pixel data WS1, WS2, and WS3 to generate HDR_RAW pixel data, and outputs the generated HDR_RAW pixel data to the color processing unit 30b.
When the HDR_RAW pixel data is input from the composition processing unit 30a, the color processing unit 30b accumulates the input HDR_RAW pixel data in the line memory. When a certain amount of HDR_RAW pixel data is accumulated in the line memory, color correction processing and sharpness processing are performed to generate HDR color pixel data. Then, the generated HDR color pixel data is output to the line memory 50 of the level correction processing unit 31 and the correction gain calculation unit 51, respectively.
When the line memory 50 receives the HDR color pixel data from the color processing unit 30b, the line memory 50 accumulates the data and delays the output timing. Specifically, the output timing of the luminance level correction gain from the correction gain calculation unit 51 is delayed so that the output timing of the HDR color pixel data corresponding to the gain is synchronized.

一方、補正ゲイン算出部51は、HDRカラー画素データを受信すると、輝度値算出部51aにおいて、受信したHDRカラー画素データを、上式(5)に基づき、輝度画素データP(x,y)へと変換し、変換した輝度画素データP(x,y)をラインメモリー51bに蓄積する。
そして、ラインメモリー51bに、ぼかし処理に必要な分の輝度画素データP(x,y)が蓄積されると、上式(6)のガウシアンフィルターを用いたぼかし処理を実行し、輝度画素データP(x,y)を照明光成分データL(x,y)へと変換する。
On the other hand, when the correction gain calculation unit 51 receives the HDR color pixel data, the luminance value calculation unit 51a converts the received HDR color pixel data into the luminance pixel data P (x, y) based on the above equation (5). And the converted luminance pixel data P (x, y) is stored in the line memory 51b.
When the luminance pixel data P (x, y) necessary for the blurring process is accumulated in the line memory 51b, the blurring process using the Gaussian filter of the above equation (6) is executed, and the luminance pixel data P (X, y) is converted into illumination light component data L (x, y).

そして、照明光成分データL(x,y)を、輝度値→ゲイン変換部51cに出力する。
輝度値→ゲイン変換部51cは、制御パラメーター発生部41からのレベル補正制御パラメーターと、輝度値算出部51aからの照明光成分データL(x,y)とに基づき、複数種類の変換用LUTの中から、変換に用いるLUTを選択する。
具体的に、図14に示す、変換曲線Lr1〜Lr5の変換特性をデータテーブル化した複数種類の変換用LUTから、レベル補正制御パラメーターに対応する変換用LUTを選択する。そして、選択したLUTから、照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得し、それを乗算器52に出力する。
このとき、ラインメモリー50は、補正ゲイン算出部51の輝度レベル補正ゲインの出力タイミングに同期させて、そのゲインに対応するHDRカラー画素データを乗算器52に出力する。
Then, the illumination light component data L (x, y) is output to the luminance value → gain conversion unit 51c.
The luminance value → gain conversion unit 51c is configured to store a plurality of types of conversion LUTs based on the level correction control parameter from the control parameter generation unit 41 and the illumination light component data L (x, y) from the luminance value calculation unit 51a. The LUT used for conversion is selected from among them.
Specifically, the conversion LUT corresponding to the level correction control parameter is selected from a plurality of types of conversion LUTs in which the conversion characteristics of the conversion curves Lr1 to Lr5 shown in FIG. Then, the luminance level correction gain corresponding to the illumination light component data L (x, y) is acquired from the selected LUT, and is output to the multiplier 52.
At this time, the line memory 50 outputs the HDR color pixel data corresponding to the gain to the multiplier 52 in synchronization with the output timing of the luminance level correction gain of the correction gain calculation unit 51.

乗算器52は、ラインメモリー50から入力されるHDRカラー画素データに、補正ゲイン算出部51から入力される輝度レベル補正ゲインを乗算して、HDRカラー画素データのレベル変換(トーンマッピング)を行う。
レベル変換後のHDRカラー画素データは、γ変換部53に出力され、γ変換部53において、レベル変換後のカラー画素データを入力値とし、例えば、8ビットに量子化するトーンカーブに対応するLUTを用いて、入力値に対応する変換値を取得する。そして、取得した変換値を、RGBのビデオ信号として出力する。
The multiplier 52 multiplies the HDR color pixel data input from the line memory 50 by the luminance level correction gain input from the correction gain calculation unit 51 to perform level conversion (tone mapping) of the HDR color pixel data.
The HDR color pixel data after level conversion is output to the γ conversion unit 53, and the γ conversion unit 53 uses the color pixel data after level conversion as an input value, for example, an LUT corresponding to a tone curve that is quantized to 8 bits. Is used to obtain a conversion value corresponding to the input value. Then, the acquired conversion value is output as an RGB video signal.

例えば、上記処理において、コントラスト比が高いと判定され、図14に示す、変換曲線Lr1に対応する変換用LUTが選択された場合は、変換曲線Lr5などと比較して、暗部側のゲインが低く抑えられ、撮像画像のコントラスト比を維持して、自然な画像出力が得られる。
なお、上記したように、各フレームの画素信号S1〜S3は、画素データS1→S2→S3の順番でプリプロセス部21に入力される。
For example, in the above processing, when it is determined that the contrast ratio is high and the conversion LUT corresponding to the conversion curve Lr1 shown in FIG. 14 is selected, the gain on the dark side is lower than that of the conversion curve Lr5 or the like. Therefore, a natural image output can be obtained while maintaining the contrast ratio of the captured image.
As described above, the pixel signals S1 to S3 of each frame are input to the preprocessing unit 21 in the order of pixel data S1 → S2 → S3.

また、図13において、S1フレーム0〜2、S2フレーム0〜2、S3フレーム0〜2は、サブフレームであり、S1フレーム0の開始からS3フレーム0の終了までの期間が1フレームの期間となる。
HDR本線処理部26においては、上記したように、画素データS1〜S3を全て用いてHDRカラー画像データを生成する処理(本線系処理)が行われる。
従って、本実施形態では、本線系処理の開始タイミングを、図13のS3フレーム0〜2に示すように、各サブフレームの最初の画素データS3(ライン単位)が入力されたタイミングとしている。各サブフレームにおいては、新たな画素データS3が入力される毎に、順次、パイプライン処理のごとく本線系処理が行われる。
In FIG. 13, S1 frames 0 to 2, S2 frames 0 to 2, and S3 frames 0 to 2 are subframes, and the period from the start of S1 frame 0 to the end of S3 frame 0 is a period of one frame. Become.
In the HDR main line processing unit 26, as described above, processing (main line system processing) for generating HDR color image data using all the pixel data S1 to S3 is performed.
Therefore, in this embodiment, the start timing of the main line system processing is set to the timing at which the first pixel data S3 (line unit) of each subframe is input, as shown in S3 frames 0 to 2 in FIG. In each subframe, every time new pixel data S3 is input, main line processing is sequentially performed as in pipeline processing.

また、上記したように、測光部25においては、画素データS2を用いてヒストグラムを生成し、生成したヒストグラムに基づきレベル変換のためのゲインを制御するレベル補正制御パラメーターの算出処理が行われる。
本実施形態では、測光部25の測光処理の開始タイミングを、図13のS1フレーム0〜2又はS2フレーム0〜2に示すように、プリプロセス部21から各サブフレームの最初の画素データS1又はS2(ライン単位)が入力されたタイミングとしている。各サブフレームにおいては、新たな画素データS1又はS2が入力される毎に、順次、パイプライン処理のごとく測光処理が行われる。
Further, as described above, in the photometry unit 25, a histogram is generated using the pixel data S2, and a level correction control parameter calculation process for controlling a gain for level conversion is performed based on the generated histogram.
In this embodiment, as shown in S1 frames 0 to 2 or S2 frames 0 to 2 in FIG. 13, the photometric processing start timing of the photometry unit 25 is sent from the preprocessing unit 21 to the first pixel data S1 of each subframe or S2 (line unit) is input timing. In each subframe, each time new pixel data S1 or S2 is input, photometric processing is sequentially performed as in pipeline processing.

その結果、例えば画素データS2を用いて測光処理を行う場合に、各サブフレームにおける、S2フレームの終了タイミングとS3フレームの開始タイミングとの間に図13に示す遅延量が発生する。また、各サブフレームにおける、本線系処理の開始タイミングと、測光系処理の開始タイミングとには、図13に示す走査による時間差が発生する。この時間差において、測光処理及びレベル補正制御パラメーターの算出処理を完了させ、更に
、補正ゲイン算出部51における輝度レベル補正ゲインの算出処理までも完了することが望ましい。しかし、ヒストグラムの生成には、画素データS1又はS2が1サブフレーム分必要なため、走査の時間差の期間では不足となる。これに加えて、レベル補正制御パラメーターの算出処理、輝度レベル補正ゲインの算出処理の時間も必要となる。そこで、本実施形態では、ラインメモリー50によって、本線系処理をこれらの不足分の時間だけ遅延させることで、各フレームにおける測光結果をこれと同一のフレームの画素データS1〜S3から生成されるHDRカラー画像データに対して反映させることができる。つまり、フィードフォワード型の制御を行うことができる。
As a result, for example, when the photometric processing is performed using the pixel data S2, a delay amount shown in FIG. 13 occurs between the end timing of the S2 frame and the start timing of the S3 frame in each subframe. Further, a time difference due to scanning shown in FIG. 13 occurs between the start timing of main line system processing and the start timing of photometric system processing in each subframe. With this time difference, it is desirable that the photometry process and the level correction control parameter calculation process are completed, and further, the luminance level correction gain calculation process in the correction gain calculation unit 51 is also completed. However, since the pixel data S1 or S2 is required for one subframe to generate the histogram, the time difference between the scans is insufficient. In addition to this, it takes time for the level correction control parameter calculation process and the luminance level correction gain calculation process. Thus, in the present embodiment, the line memory 50 delays the main line processing by these shortage times, so that the photometric result in each frame is generated from the pixel data S1 to S3 of the same frame. It can be reflected on color image data. That is, feedforward type control can be performed.

従来のフィードバック型の露出制御では、測光結果が反映されるのが次のフレームとなるので、1フレーム以上の遅延が発生する。一方、本実施形態では、測光部25と補正ゲイン算出部51における遅延分だけで済む。
以上説明したように、本実施形態の撮像装置1は、測光部25において、標準露光時間T_S3の画素データS3に先立って取得される、短露光時間T_S2の画素データS1又はS2を使ってヒストグラムを生成することができる。
In the conventional feedback-type exposure control, the photometric result is reflected in the next frame, so that a delay of one frame or more occurs. On the other hand, in this embodiment, only the delay in the photometry unit 25 and the correction gain calculation unit 51 is required.
As described above, in the imaging device 1 of the present embodiment, the photometry unit 25 uses the pixel data S1 or S2 of the short exposure time T_S2 acquired prior to the pixel data S3 of the standard exposure time T_S3 to generate a histogram. Can be generated.

従って、飽和画素や黒潰れ画素が少ない画像によって測光処理が可能となり、精度の高いヒストグラムを生成することができる。
更に、生成したヒストグラムに基づき、撮像画像のコントラスト比の高低を判断し、この判断結果に基づき輝度レベルを変換するための輝度レベル補正ゲインを制御するレベル補正制御パラメーターを算出することができる。
Therefore, photometric processing can be performed using an image with few saturated pixels and blackout pixels, and a highly accurate histogram can be generated.
Furthermore, it is possible to determine the level of the contrast ratio of the captured image based on the generated histogram, and to calculate a level correction control parameter for controlling the luminance level correction gain for converting the luminance level based on the determination result.

従って、精度の高いヒストグラムを用いて撮像画像のコントラスト比を判断することができると共に、コントラスト比の高低に応じたレベル変換処理のゲイン制御を、適切且つ自動的に行うことができる。
更に、HDR線形処理部30において、遅延部22〜24で出力タイミングを同期させた画素データS1〜S3を線形合成し且つ色補正処理を行ってHDRカラー画素データを生成することができる。
Accordingly, the contrast ratio of the captured image can be determined using a highly accurate histogram, and gain control of level conversion processing according to the level of the contrast ratio can be appropriately and automatically performed.
Further, the HDR linear processing unit 30 can generate HDR color pixel data by linearly synthesizing the pixel data S1 to S3 whose output timings are synchronized by the delay units 22 to 24 and performing color correction processing.

更に、補正ゲイン算出部51において、HDRカラー画素データから輝度画素データP(x,y)を生成し、P(x,y)から照明光成分データL(x,y)を生成することができる。更に、レベル補正制御パラメーターに基づき、変換特性の異なる複数種類の変換用LUTから、撮像画像のコントラスト比の高低に応じた変換用LUTを選択し、選択したLUTを用いて照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得することができる。
具体的に、コントラスト比が高ければ高いほど、暗部側のゲインをより低く抑える特性の変換用LUTを選択する。
Further, the correction gain calculation unit 51 can generate luminance pixel data P (x, y) from the HDR color pixel data and generate illumination light component data L (x, y) from P (x, y). . Furthermore, based on the level correction control parameter, a conversion LUT corresponding to the contrast ratio of the captured image is selected from a plurality of types of conversion LUTs having different conversion characteristics, and the illumination light component data L ( A luminance level correction gain corresponding to x, y) can be acquired.
Specifically, the higher the contrast ratio, the more the conversion LUT having the characteristic of suppressing the dark side gain lower is selected.

これにより、撮像画像のコントラスト比を維持して、自然な画像出力を得ることができる。
更に、乗算器52において、ラインメモリー50において輝度レベル補正ゲインの出力タイミングに合わせて遅延して出力されたHDRカラー画素データと、輝度レベル補正ゲインとを乗算して、HDRカラー画素データのレベル変換を行うことができる。
従って、各フレームにおける測光結果(ヒストグラム)をこれと同一のフレームの画素データS1〜S3から生成されるHDRカラー画像データに対して反映させることができ、フィードフォワード型の制御を行うことができる。つまり、測光対象の画像(フレーム)と輝度制御を行う対象画像(フレーム)を同じにすることができるので、被写体の輝度変動に応じた発振(フリッカ)現象の発生を抑えることが可能である。そのため、常に安定な出力画像が得られる。また、リアルタイム性を要求されるシステムに対して組み込みやすいという利点を有する。
Thereby, a natural image output can be obtained while maintaining the contrast ratio of the captured image.
Further, the multiplier 52 multiplies the HDR color pixel data output in the line memory 50 with a delay in accordance with the output timing of the brightness level correction gain and the brightness level correction gain, thereby converting the level of the HDR color pixel data. It can be performed.
Accordingly, the photometric result (histogram) in each frame can be reflected on the HDR color image data generated from the pixel data S1 to S3 of the same frame, and feedforward control can be performed. That is, since the image (frame) subject to photometry and the target image (frame) to be subjected to luminance control can be made the same, it is possible to suppress the occurrence of oscillation (flicker) phenomenon according to the luminance variation of the subject. Therefore, a stable output image can always be obtained. Further, it has an advantage that it can be easily incorporated into a system that requires real-time performance.

また、照明光成分データLに基づき、HDRカラー画像データに対して、レベル変換(トーンマップ)処理を施すようにしたので、全ダイナミックレンジにおいて、階調性を維持し、色再現性の良い映像を出力することができる。
また、測光対象の画像(フレーム)と輝度制御を行う対象画像(フレーム)を同一にしない場合でも、すなわち、測光した画像(フレーム)の結果が反映されるのが次のフレームの場合でも、測光処理が、本線系処理に対して先行して行われるので、測光に要する計算時間を十分確保できる。これにより、ヒストグラムによる動的制御など複雑な制御が可能となる。
In addition, since the HDR color image data is subjected to level conversion (tone map) processing based on the illumination light component data L, it is possible to maintain gradation and maintain good color reproducibility in the entire dynamic range. Can be output.
Even if the image (frame) subject to photometry and the image (frame) subject to brightness control are not the same, that is, even if the result of the photometric image (frame) is reflected in the next frame, photometry Since the process is performed prior to the main line system process, a sufficient calculation time for photometry can be secured. Thereby, complicated control such as dynamic control using a histogram is possible.

〔第2実施形態〕
次に、本発明の第2実施形態を図面に基づき説明する。図15〜図16は、本発明に係る画像処理装置、画像処理方法、画像処理プログラム及び撮像装置の第2実施形態を示す図である。
(第1実施形態との相違点)
上記第1実施形態の画像処理装置20における補正ゲイン算出部51においては、レベル補正制御パラメーターに基づき、複数種類の変換用LUTからパラメーターに応じたLUTを選択することで、ゲインの制御を行っていた。これに対して、本実施形態では、補正ゲイン算出部51に代えて補正ゲイン算出部51’において、レベル補正制御パラメーターに基づき、低輝度側のレベル変換に用いる輝度レベル補正ゲインをパラメーターに応じた一定値(リミット値)で固定とする制御を行う点で上記第1実施形態とは異なる。
[Second Embodiment]
Next, 2nd Embodiment of this invention is described based on drawing. 15 to 16 are diagrams showing a second embodiment of the image processing device, the image processing method, the image processing program, and the imaging device according to the present invention.
(Differences from the first embodiment)
In the correction gain calculation unit 51 in the image processing apparatus 20 of the first embodiment, the gain is controlled by selecting an LUT corresponding to the parameter from a plurality of types of conversion LUTs based on the level correction control parameter. It was. On the other hand, in the present embodiment, instead of the correction gain calculation unit 51, the correction gain calculation unit 51 ′ sets the luminance level correction gain used for level conversion on the low luminance side according to the parameter based on the level correction control parameter. The second embodiment is different from the first embodiment in that control is performed with a fixed value (limit value).

従って、制御パラメーター発生部41で算出されるレベル補正制御パラメーターが、リミット値を決定するためのものとなる点と、補正ゲイン算出部51の構成とが異なるのみで、他の構成は、上記第1実施形態と同様となる。
以下、上記第1実施形態と同様となる部分を同じ符号を付して適宜省略し、異なる部分を詳細に説明する。
Accordingly, the level correction control parameter calculated by the control parameter generation unit 41 is different from the configuration for determining the limit value and the configuration of the correction gain calculation unit 51. Other configurations are the same as those described above. This is the same as in the first embodiment.
Hereinafter, the same parts as those in the first embodiment are denoted by the same reference numerals and omitted as appropriate, and different parts will be described in detail.

(制御パラメーター発生部41について)
まず、本実施形態の制御パラメーター発生部41は、上記第1実施形態と同様に、まず、輝度分布情報生成部40で生成されたヒストグラムに基づきコントラスト比の高低を判断する。そして、この判断結果から、コントラスト比が高ければ高いほど、低輝度側のレベル上昇を抑える(制限する)補正内容を指定するレベル補正制御パラメーターを算出する。
但し、本実施形態においては、コントラスト比が高ければ高いほど輝度レベル補正ゲインのリミット値として、小さい値を指定するレベル補正制御パラメーターを算出する。
(Regarding the control parameter generator 41)
First, similarly to the first embodiment, the control parameter generation unit 41 of the present embodiment first determines the level of the contrast ratio based on the histogram generated by the luminance distribution information generation unit 40. Then, from this determination result, the level correction control parameter for designating the correction content that suppresses (limits) the level increase on the low luminance side is calculated as the contrast ratio is higher.
However, in the present embodiment, the level correction control parameter that specifies a smaller value as the limit value of the luminance level correction gain is calculated as the contrast ratio is higher.

(補正ゲイン算出部51’の構成)
次に、図15に基づき、本実施形態の補正ゲイン算出部51’の構成を説明する。
ここで、図15は、補正ゲイン算出部51’の内部構成の一例を示すブロック図である。
補正ゲイン算出部51’は、輝度値算出部51aと、ラインメモリー51bと、輝度値→ゲイン変換部51dと、リミッター51eとを含んで構成される。
輝度値→ゲイン変換部51dは、輝度値算出部51aから入力される照明光成分データL(x,y)に対して、通常に用いる変換用LUT(ここでは、1種類とする)から入力値L(x,y)に対応する輝度レベル補正ゲインを取得する。そして、取得した輝度レベル補正ゲインを入力値L(x,y)と共にリミッター51eに出力する。
(Configuration of Correction Gain Calculation Unit 51 ′)
Next, the configuration of the correction gain calculation unit 51 ′ of the present embodiment will be described based on FIG.
Here, FIG. 15 is a block diagram illustrating an example of an internal configuration of the correction gain calculation unit 51 ′.
The correction gain calculation unit 51 ′ includes a luminance value calculation unit 51a, a line memory 51b, a luminance value → gain conversion unit 51d, and a limiter 51e.
The luminance value → gain converting unit 51d receives the input value from the normal conversion LUT (here, one type) for the illumination light component data L (x, y) input from the luminance value calculating unit 51a. A luminance level correction gain corresponding to L (x, y) is acquired. Then, the acquired luminance level correction gain is output to the limiter 51e together with the input value L (x, y).

リミッター51eは、制御パラメーター発生部41からのレベル補正制御パラメーターに基づき、複数種類のリミット値のなかから、レベル補正制御パラメーターの値(指定内
容)に対応するリミット値を選択する。なお、レベル補正制御パラメーターの値をそのままリミット値としてもよい。
そして、輝度値→ゲイン変換部51dからの輝度レベル変換ゲイン及びL(x,y)に基づき、入力されたゲインが所定輝度以下の低輝度側の照明光成分データL(x,y)に対応するものである場合に、入力されたゲインに代えて、リミット値を乗算器52に出力する。
The limiter 51e selects a limit value corresponding to the value (specified content) of the level correction control parameter from a plurality of types of limit values based on the level correction control parameter from the control parameter generation unit 41. The value of the level correction control parameter may be used as the limit value as it is.
Then, based on the luminance level conversion gain and L (x, y) from the luminance value → gain conversion unit 51d, the input gain corresponds to low-luminance illumination light component data L (x, y) having a predetermined luminance or less. If it is, the limit value is output to the multiplier 52 instead of the input gain.

(撮像装置1の動作例)
次に、図16に基づき、本実施形態の撮像装置1の動作を説明する。
ここで、図16は、本実施形態の変換用LUT及びリミット値の一例を示す図である。
なお、ヒストグラムを生成する処理までは、上記第1実施形態と同様となるので、以降の処理から説明する。
制御パラメーター発生部41は、輝度分布情報生成部40からの測光結果(ヒストグラム)を受け取ると、まず、区分範囲(1)及び(2)の合計画素数HPを算出し、この合計画素数HPと第1の閾値Th1とを比較する。更に、区分範囲(5)の画素数LPと、第2の閾値Th2とを比較する。
(Operation example of the imaging apparatus 1)
Next, based on FIG. 16, the operation of the imaging apparatus 1 of the present embodiment will be described.
Here, FIG. 16 is a diagram illustrating an example of the conversion LUT and limit values of the present embodiment.
Since the process up to generating the histogram is the same as that in the first embodiment, the subsequent process will be described.
When receiving the photometric result (histogram) from the luminance distribution information generation unit 40, the control parameter generation unit 41 first calculates the total pixel number HP of the divided ranges (1) and (2), and calculates the total pixel number HP. The first threshold Th1 is compared. Further, the number of pixels LP in the section range (5) is compared with the second threshold Th2.

ここで、Th1は、例えば、総画素数の20%の数値で設定されているとする(例えば、総画素数が100であれば、Th1=20となる)。更に、第2の閾値Th2が、例えば、総画素数の20%の数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≧Th1」且つ「LP≧Th2」のときは、コントラスト比が高いと判定する。そして、図16に示す、リミット値Lm1〜Lm3のうち、最も小さいリミット値Lm1を指定するレベル補正制御パラメーターを算出する。
Here, for example, Th1 is set as a numerical value of 20% of the total number of pixels (for example, if the total number of pixels is 100, Th1 = 20). Furthermore, it is assumed that the second threshold Th2 is set to a numerical value of 20% of the total number of pixels, for example.
The control parameter generation unit 41 determines that the contrast ratio is high when the comparison results are “HP ≧ Th1” and “LP ≧ Th2”. And the level correction control parameter which designates the smallest limit value Lm1 among limit values Lm1-Lm3 shown in FIG. 16 is calculated.

画素数LH又はLPが、上記の条件に該当しなかった場合は、制御パラメーター発生部41は、次に、合計画素数HPと、第3の閾値Th3とを比較する。ここで、Th3は、総画素数の15%の数値で設定されているとする。
制御パラメーター発生部41は、比較結果が、「HP≦Th3」のときは、コントラスト比が低いと判定する。そして、図16に示す、リミット値Lm1〜Lm3のうち、最も大きいリミット値Lm3を指定するレベル補正制御パラメーターを算出する。
また、上記いずれの判定結果にも該当しない場合は、制御パラメーター発生部41は、図16に示す、リミット値Lm1〜Lm3のうち、中間のリミット値Lm2を指定するレベル補正制御パラメーターを算出する。
そして、制御パラメーター発生部41は、算出したレベル補正制御パラメーターを、補正ゲイン算出部51’のリミッター51eに出力する。
If the number of pixels LH or LP does not meet the above condition, the control parameter generation unit 41 then compares the total number of pixels HP with the third threshold Th3. Here, it is assumed that Th3 is set to a numerical value of 15% of the total number of pixels.
The control parameter generation unit 41 determines that the contrast ratio is low when the comparison result is “HP ≦ Th3”. And the level correction control parameter which designates the largest limit value Lm3 among limit values Lm1-Lm3 shown in FIG. 16 is calculated.
If none of the above determination results is applicable, the control parameter generation unit 41 calculates a level correction control parameter for designating an intermediate limit value Lm2 among the limit values Lm1 to Lm3 shown in FIG.
Then, the control parameter generation unit 41 outputs the calculated level correction control parameter to the limiter 51e of the correction gain calculation unit 51 ′.

ここで、HDRカラー画像データの生成処理、輝度値算出部51aの照明光成分データL(x,y)については、上記第1実施形態と同様となるので、以下、輝度値→ゲイン変換部51dの処理から説明する。
輝度値→ゲイン変換部51dは、輝度値算出部51aからの照明光成分データL(x,y)に基づき、変換用LUTから、照明光成分データL(x,y)に対応する輝度レベル補正ゲインを取得し、それをL(x,y)と共にリミッター51eに出力する。
リミッター51eは、制御パラメーター発生部41からのレベル補正制御パラメーターに基づき、該パラメーターで指定されたリミット値を選択する。つまり、図16に示すリミット値Lm1〜Lm3のうちのパラメーターで指定されたリミット値を選択する。
Here, the generation processing of HDR color image data and the illumination light component data L (x, y) of the luminance value calculation unit 51a are the same as those in the first embodiment, and hence the luminance value → gain conversion unit 51d. The process will be described.
The luminance value → gain conversion unit 51d corrects the luminance level corresponding to the illumination light component data L (x, y) from the conversion LUT based on the illumination light component data L (x, y) from the luminance value calculation unit 51a. The gain is acquired and output to the limiter 51e together with L (x, y).
The limiter 51e selects a limit value specified by the parameter based on the level correction control parameter from the control parameter generator 41. That is, the limit value designated by the parameter among the limit values Lm1 to Lm3 shown in FIG. 16 is selected.

そして、輝度値→ゲイン変換部51dからの輝度レベル補正ゲインについて、それに対応する照明光成分データL(x,y)から、ゲインが所定輝度以下のL(x,y)に対応するものである場合に、該ゲインに代えて選択したリミット値を乗算器52に出力する。
また、所定輝度以下ではない場合は、入力された輝度レベル補正ゲインを乗算器52に出力する。
具体的に、図16に示すように、リミット値Lm1〜Lm3のラインと変換曲線との交点から縦に伸びる点線と横軸との交点から原点までの間の範囲内に含まれる照明光成分データの値(輝度)が、所定輝度以下の範囲となる。つまり、選択されるリミット値に応じて所定輝度以下の範囲が変化する。そのため、輝度値→ゲイン変換部51dからは、輝度レベル補正ゲインと共に照明光成分データL(x,y)の情報も得ている。
The luminance level correction gain from the luminance value → gain conversion unit 51d corresponds to L (x, y) whose gain is equal to or less than a predetermined luminance from the corresponding illumination light component data L (x, y). In this case, the selected limit value is output to the multiplier 52 instead of the gain.
If the luminance is not less than the predetermined luminance, the input luminance level correction gain is output to the multiplier 52.
Specifically, as shown in FIG. 16, illumination light component data included in a range from the intersection point of the dotted line extending vertically from the intersection point of the line of the limit values Lm1 to Lm3 and the horizontal axis to the origin point. The value (luminance) is in a range not exceeding the predetermined luminance. That is, the range below the predetermined luminance changes according to the selected limit value. Therefore, information on the illumination light component data L (x, y) is also obtained from the brightness value → gain conversion unit 51d together with the brightness level correction gain.

一方、ラインメモリー50は、補正ゲイン算出部51の輝度レベル補正ゲインの出力タイミングに同期させて、そのゲインに対応するHDRカラー画素データを乗算器52に出力する。
乗算器52は、ラインメモリー50から入力されるHDRカラー画素データに、補正ゲイン算出部51から入力される輝度レベル補正ゲインを乗算して、HDRカラー画素データのレベル変換(トーンマッピング)を行う。
On the other hand, the line memory 50 outputs the HDR color pixel data corresponding to the gain to the multiplier 52 in synchronization with the output timing of the luminance level correction gain of the correction gain calculation unit 51.
The multiplier 52 multiplies the HDR color pixel data input from the line memory 50 by the luminance level correction gain input from the correction gain calculation unit 51 to perform level conversion (tone mapping) of the HDR color pixel data.

レベル変換後のHDRカラー画素データは、γ変換部53に出力され、γ変換部53において、レベル変換後のカラー画素データを入力値とし、例えば、8ビットに量子化するトーンカーブに対応するLUTを用いて、入力値に対応する変換値を取得する。そして、取得した変換値を、RGBのビデオ信号として出力する。
例えば、上記処理において、コントラスト比が高いと判定され、図16に示す、リミット値Lm1が選択された場合は、リミット値Lm3などと比較して、暗部側のゲインが低く抑えられ(一定値に固定)、撮像画像のコントラスト比を維持して、自然な画像出力が得られる。
The HDR color pixel data after level conversion is output to the γ conversion unit 53, and the γ conversion unit 53 uses the color pixel data after level conversion as an input value, for example, an LUT corresponding to a tone curve that is quantized to 8 bits. Is used to obtain a conversion value corresponding to the input value. Then, the acquired conversion value is output as an RGB video signal.
For example, in the above processing, when it is determined that the contrast ratio is high and the limit value Lm1 shown in FIG. 16 is selected, the gain on the dark side is suppressed to a low value (a constant value) compared to the limit value Lm3 and the like. (Fixed), the contrast ratio of the captured image is maintained and a natural image output is obtained.

以上説明したように、本実施形態の撮像装置1は、補正ゲイン算出部51’において、測光部25からのレベル補正制御パラメーターに基づき、値の異なる複数種類のリミット値から、撮像画像のコントラスト比の高低に応じたリミット値を選択することができる。
更に、選択したリミット値を用いて、所定輝度以下の照明光成分データL(x,y)に対応する輝度レベル補正ゲインについて、このゲインに代えて、リミット値を乗算器52に出力することができる。
具体的に、コントラスト比が高ければ高いほど、暗部側のゲインをより低い一定値へと固定するリミット値を選択する。
これにより、撮像画像のコントラスト比を維持して、自然な画像出力を得ることができる。
As described above, in the imaging apparatus 1 of the present embodiment, in the correction gain calculation unit 51 ′, based on the level correction control parameter from the photometry unit 25, the contrast ratio of the captured image is determined from a plurality of types of limit values having different values. The limit value can be selected according to the height of.
Furthermore, using the selected limit value, a limit value can be output to the multiplier 52 instead of this gain for the luminance level correction gain corresponding to the illumination light component data L (x, y) having a predetermined luminance or less. it can.
Specifically, the higher the contrast ratio is, the limit value that fixes the dark side gain to a lower constant value is selected.
Thereby, a natural image output can be obtained while maintaining the contrast ratio of the captured image.

(対応関係)
上記各実施形態において、HDR撮像素子10は、撮像素子に対応し、プリプロセス部21は、画像データ取得手段に対応し、HDR線形処理部30は、合成画像データ生成手段に対応する。
また、上記各実施形態において、レベル補正処理部31は、画像変換手段に対応し、輝度分布情報生成部40は、輝度分布情報生成手段に対応し、制御パラメーター発生部41は、変換ゲイン制御手段に対応する。
また、上記各実施形態において、輝度分布情報生成部40におけるヒストグラムの生成処理は、輝度分布情報生成ステップに対応し、制御パラメーター発生部41におけるレベル補正制御パラメーターの生成処理は、変換ゲイン制御ステップに対応する。
また、レベル補正処理部31におけるHDRカラー画像データの輝度レベルの変換処理(トーンマッピング)は、画像変換ステップに対応する。
(Correspondence)
In each of the above embodiments, the HDR imaging device 10 corresponds to an imaging device, the preprocessing unit 21 corresponds to an image data acquisition unit, and the HDR linear processing unit 30 corresponds to a composite image data generation unit.
In each of the above embodiments, the level correction processing unit 31 corresponds to an image conversion unit, the luminance distribution information generation unit 40 corresponds to a luminance distribution information generation unit, and the control parameter generation unit 41 includes a conversion gain control unit. Corresponding to
In each of the above embodiments, the histogram generation process in the luminance distribution information generation unit 40 corresponds to the luminance distribution information generation step, and the level correction control parameter generation process in the control parameter generation unit 41 corresponds to the conversion gain control step. Correspond.
Also, the luminance level conversion processing (tone mapping) of the HDR color image data in the level correction processing unit 31 corresponds to an image conversion step.

(なお書き)
なお、上記各実施形態における、撮像装置1は、表示装置、メモリー装置等の不図示の
他の装置と組み合わせて、デジタルカメラ、デジタルビデオカメラなどの電子機器を構成することも可能である。
また、上記各実施形態において、輝度分布情報として、ヒストグラムを生成する構成としたが、この構成に限らず、コントラスト比の高低の判定が可能であれば、例えば、高輝度側、低輝度側の画素数のみを計数した情報等、他の輝度分布情報を生成する構成としてもよい。
(Note)
Note that the imaging device 1 in each of the above embodiments can be combined with other devices (not shown) such as a display device and a memory device to constitute an electronic device such as a digital camera or a digital video camera.
In each of the above embodiments, a histogram is generated as the luminance distribution information. However, the present invention is not limited to this configuration. For example, if it is possible to determine whether the contrast ratio is high or low, for example, the high luminance side and the low luminance side Other luminance distribution information such as information obtained by counting only the number of pixels may be generated.

また、上記各実施形態において、撮像素子10のHDRセンサー10dが、CMOS技術を用いて構成されたセンサーセルアレイを有する構成としたが、この構成に限らない。例えば、CCDから構成されるセンサーセルアレイを有する構成など他の構成としてもよい。
また、上記各実施形態において、画像処理装置20が、撮像素子10から露光時間の長さの異なる複数種類の画像データを取得し、取得した複数種類の画像データを合成して、HDR画像データを生成する構成を例として説明したが、この構成に限らない。
例えば、撮像素子10がHDR画像データを生成する手段を有する構成、又は外部の別の装置が撮像素子10から取得した画像データを用いてHDR画像データを生成する構成としてもよい。
In each of the above embodiments, the HDR sensor 10d of the image sensor 10 has a sensor cell array configured using CMOS technology, but the configuration is not limited thereto. For example, other configurations such as a configuration having a sensor cell array composed of CCDs may be used.
Further, in each of the above embodiments, the image processing apparatus 20 acquires a plurality of types of image data having different exposure time lengths from the image sensor 10, combines the acquired plurality of types of image data, and generates HDR image data. The configuration to be generated has been described as an example, but is not limited to this configuration.
For example, a configuration in which the image sensor 10 includes means for generating HDR image data, or a configuration in which another external device generates HDR image data using image data acquired from the image sensor 10 may be employed.

また、上記各実施形態は、本発明の好適な具体例であり、技術的に好ましい種々の限定が付されているが、本発明の範囲は、上記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。また、上記の説明で用いる図面は、図示の便宜上、部材ないし部分の縦横の縮尺は実際のものとは異なる模式図である。
また、本発明は上記各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
Each of the above embodiments is a preferable specific example of the present invention, and various technically preferable limitations are given. However, the scope of the present invention is particularly limited in the above description. As long as there is no description, it is not restricted to these forms. In the drawings used in the above description, for convenience of illustration, the vertical and horizontal scales of members or parts are schematic views different from actual ones.
Further, the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.

1…撮像装置、10…HDR撮像素子、10a…レンズ、10b…マイクロレンズ、10c…カラーフィルターアレイ、10d…HDRセンサー、10d…駆動回路、10f…読出回路、20…画像処理装置、21…プリプロセス部、22〜24…遅延部、25…測光部、26…HDR本線処理部、30…HDR線形処理部、30a…合成処理部、30b…色処理部、31…レベル補正処理部、40…輝度分布情報生成部、41…制御パラメーター発生部、50…ラインメモリー、51…補正ゲイン算出部、51a…輝度値算出部、51b…ラインメモリー、51c,51d…輝度値→ゲイン変換部、51e…リミッター、52…乗算器、53…γ変換部、60…セレクター、61…ヒストグラム生成器、62…レベル分割器、63a〜63e…カウンター、64a〜64e…出力レジスター、70,71…正規化ゲイン算出部、72,73…正規化部、74…合成重み算出部、75〜77…重み付け部、78…合成部 DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... HDR imaging device, 10a ... Lens, 10b ... Micro lens, 10c ... Color filter array, 10d ... HDR sensor, 10d ... Drive circuit, 10f ... Reading circuit, 20 ... Image processing device, 21 ... Pre Process unit, 22-24 ... Delay unit, 25 ... Photometry unit, 26 ... HDR main line processing unit, 30 ... HDR linear processing unit, 30a ... Composition processing unit, 30b ... Color processing unit, 31 ... Level correction processing unit, 40 ... Luminance distribution information generation unit 41 ... control parameter generation unit 50 ... line memory 51 ... correction gain calculation unit 51a ... brightness value calculation unit 51b ... line memory 51c, 51d ... brightness value → gain conversion unit 51e ... Limiter, 52... Multiplier, 53... Gamma conversion unit, 60... Selector, 61 ... Histogram generator, 62 ... Level divider, 63a-63 ... counter, 64A~64e ... output register, 70, 71 ... normalizing gain calculation unit, 72, 73 ... normalization unit, 74 ... combining weight calculator, 75-77 ... weighting unit, 78 ... combining portion

Claims (14)

異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換手段と、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成手段と、
前記輝度分布情報生成手段で生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御手段と、を備え、
前記画像変換手段は、前記変換ゲイン制御手段で制御されたゲインを用いて前記第1の合成画像データの輝度を変換することを特徴とする画像処理装置。
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. Image conversion means for generating two composite image data;
Luminance distribution information generating means for generating luminance distribution information that is information related to the luminance distribution of the captured image of the subject based on at least one of the plurality of image data;
Conversion gain control means for controlling the characteristics of the gain used for conversion of the luminance of the image conversion means based on the luminance distribution information generated by the luminance distribution information generation means,
The image processing device, wherein the image conversion means converts the luminance of the first composite image data using the gain controlled by the conversion gain control means.
前記輝度分布情報は、前記撮像画像の輝度のヒストグラムであることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the luminance distribution information is a histogram of luminance of the captured image. 前記画像変換手段は、前記第1の合成画像データの輝度を変換して、前記第1の合成画像データの輝度のダイナミックレンジを圧縮した第2の合成画像データを生成することを特徴とする請求項1又は請求項2に記載の画像処理装置。   The image conversion means converts the luminance of the first synthesized image data to generate second synthesized image data in which the dynamic range of the luminance of the first synthesized image data is compressed. The image processing apparatus according to claim 1 or 2. 前記輝度分布情報生成手段は、前記複数の画像データのうち、最長の露光時間を除く残りの露光時間に対応する画像データのうちの少なくとも1の画像データに基づき前記輝度分布情報を生成することを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像処理装置。   The luminance distribution information generation means generates the luminance distribution information based on at least one image data of image data corresponding to the remaining exposure time excluding the longest exposure time among the plurality of image data. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized. 前記変換ゲイン制御手段は、前記輝度分布情報に基づき撮像画像のコントラスト比の高低を判定し、コントラスト比が高いと判定したときは、前記第1の合成画像データにおける所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が高ければ高いほど小さい値となるように制御することを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像処理装置。   The conversion gain control means determines whether the contrast ratio of the captured image is high or low based on the luminance distribution information. The image processing apparatus according to any one of claims 1 to 4, wherein a gain used for tone conversion is controlled to be a smaller value as the contrast ratio is higher. 前記変換ゲイン制御手段は、前記所定輝度以下の画素データの階調変換に用いるゲインが、一定値で固定されるようにゲインを制御することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the conversion gain control unit controls the gain so that a gain used for gradation conversion of the pixel data having the predetermined luminance or less is fixed at a constant value. 前記変換ゲイン制御手段は、前記コントラスト比が低いと判定したときは、前記所定輝度以下の画素データの階調変換に用いるゲインを前記コントラスト比が低ければ低いほど大きい値となるように制御することを特徴とする請求項5又は請求項6に記載の画像処理装置。   When it is determined that the contrast ratio is low, the conversion gain control means controls the gain used for gradation conversion of pixel data having the predetermined luminance or less so that the gain becomes higher as the contrast ratio is lower. The image processing apparatus according to claim 5, wherein: 前記輝度分布情報生成手段は、前記少なくとも1の画像データについて、該画像データの対応する輝度の階調範囲を高輝度側、中間輝度、低輝度側の3つの独立した範囲に区分すると共に各範囲を1以上の区分範囲に区分し、各区分範囲に属する画素の数を計数して前記輝度分布情報を生成することを特徴とする請求項5乃至請求項7のいずれか1項に記載の画像処理装置。   The luminance distribution information generation means divides the corresponding luminance gradation range of the image data into three independent ranges of a high luminance side, an intermediate luminance, and a low luminance side for each of the at least one image data 8. The image according to claim 5, wherein the luminance distribution information is generated by dividing the image into one or more divided ranges and counting the number of pixels belonging to each divided range. Processing equipment. 前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第1閾値以上で、且つ前記低輝度側の範囲に属する区分範囲の合計画素数が第2閾値以上のときに、前記撮像画像のコントラスト比が高いと判定することを特徴とする請求項8に記載の画像処理装置。   The conversion gain control unit is configured such that the total number of pixels in the divided range belonging to the high luminance side range is equal to or greater than a first threshold value and the total number of pixels in the divided range belonging to the low luminance side range is equal to or larger than a second threshold The image processing apparatus according to claim 8, wherein the contrast ratio of the captured image is determined to be high. 前記変換ゲイン制御手段は、前記高輝度側の範囲に属する区分範囲の合計画素数が第3閾値以下のときに、前記撮像画像のコントラスト比が低いと判定することを特徴とする請求項8又は請求項9に記載の画像処理装置。   The conversion gain control means determines that the contrast ratio of the captured image is low when the total number of pixels of the divided range belonging to the range on the high luminance side is equal to or smaller than a third threshold value. The image processing apparatus according to claim 9. 被写体を撮像可能な撮像素子から、当該撮像素子において異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、最長の露光時間に対応する画像データを含む2以上の画像データを取得する画像データ取得手段と、
前記画像データ取得手段で取得した前記2以上の画像データを露光時間の比率に基づき線形合成して前記第1の合成画像データを生成する合成画像データ生成手段と、を備え、
前記輝度分布情報生成手段は、前記2以上の画像データのうち前記最長の露光時間を除く露光時間のうち少なくとも1の露光時間に対応する画像データに基づき前記輝度分布情報を生成することを特徴とする請求項1乃至請求項10のいずれか1項に記載の画像処理装置。
Two or more pieces of image data including image data corresponding to the longest exposure time among a plurality of pieces of image data obtained by imaging a subject with a plurality of different exposure times from the image pickup device capable of picking up the subject. Image data acquisition means for acquiring;
A synthesized image data generating unit that linearly synthesizes the two or more image data acquired by the image data acquiring unit based on an exposure time ratio to generate the first synthesized image data;
The luminance distribution information generating means generates the luminance distribution information based on image data corresponding to at least one exposure time out of the two or more pieces of image data excluding the longest exposure time. The image processing apparatus according to any one of claims 1 to 10.
前記撮像素子は、各画素から蓄積電荷を維持したまま前記蓄積電荷に応じた画素信号を読み出す非破壊読み出し方式で画素信号を読み出すことが可能であり、各フレーム期間において露光時間の短い方から順に前記異なる複数の露光時間で前記各画素を露光すると共に、露光した各画素から前記非破壊読み出し方式で画素信号を読み出し、読み出した順番に前記複数の画像データを構成する画素信号のデータを出力し、
前記画像データ取得手段は、前記各フレーム期間において、前記最長の露光時間に対応する画像データを取得するよりも先行して前記少なくとも1の画像データを取得し、
前記輝度分布情報生成手段は、前記先行して取得した少なくとも1の画像データである先行画像データに基づき前記輝度分布情報を生成し、
前記変換ゲイン制御手段は、前記先行画像データに基づき生成された輝度分布情報に基づき、前記先行画像データを取得したフレーム期間と同じフレーム期間に取得される前記2以上の画像データを線形合成して生成される第1の合成画像データの輝度を変換するゲインを制御し、
前記画像変換手段は、前記同じフレーム期間に対応する前記第1の合成画像データの輝度を、前記同じフレーム期間に対応する前記制御されたゲインを用いて変換することを特徴とする請求項11に記載の画像処理装置。
The image sensor can read out a pixel signal by a nondestructive readout method that reads out a pixel signal corresponding to the accumulated charge while maintaining the accumulated charge from each pixel, and in order from the shorter exposure time in each frame period. The pixels are exposed at the different exposure times, pixel signals are read from the exposed pixels by the non-destructive readout method, and pixel signal data constituting the plurality of image data is output in the read order. ,
The image data acquisition means acquires the at least one image data prior to acquiring image data corresponding to the longest exposure time in each frame period;
The luminance distribution information generation means generates the luminance distribution information based on the preceding image data which is the at least one image data acquired in advance.
The conversion gain control means linearly synthesizes the two or more pieces of image data acquired in the same frame period as the frame period from which the preceding image data was acquired based on the luminance distribution information generated based on the preceding image data. Controlling the gain for converting the luminance of the generated first composite image data;
The image conversion means converts the luminance of the first composite image data corresponding to the same frame period using the controlled gain corresponding to the same frame period. The image processing apparatus described.
異なる複数の露光時間で被写体を撮像して得られる複数の画像データのうち、2以上の画像データを合成して生成される第1の合成画像データの輝度を変換して階調特性の異なる第2の合成画像データを生成する画像変換ステップと、
前記複数の画像データのうち、少なくとも1の画像データに基づき、前記被写体の撮像画像の輝度分布に係る情報である輝度分布情報を生成する輝度分布情報生成ステップと、
前記輝度情報生成ステップで生成した輝度分布情報に基づき、前記画像変換手段の前記輝度の変換に用いるゲインの特性を制御する変換ゲイン制御ステップと、を含み、
前記画像変換ステップにおいては、前記変換ゲイン制御ステップで制御されたゲインを用いて前記第1の合成画像データの輝度を変換することを特徴とする画像処理方法。
Among a plurality of image data obtained by imaging a subject with a plurality of different exposure times, the brightness of the first composite image data generated by combining two or more image data is converted to have a different gradation characteristic. An image conversion step for generating two composite image data;
A luminance distribution information generation step for generating luminance distribution information, which is information relating to the luminance distribution of the captured image of the subject, based on at least one of the plurality of image data;
A conversion gain control step for controlling a characteristic of a gain used for conversion of the luminance of the image conversion unit based on the luminance distribution information generated in the luminance information generation step,
In the image conversion step, the luminance of the first composite image data is converted using the gain controlled in the conversion gain control step.
被写体を撮像可能な撮像素子と、
請求項11又は請求項12に記載の画像処理装置と、を備えることを特徴とする撮像装置。
An image sensor capable of imaging a subject;
An image processing apparatus comprising: the image processing apparatus according to claim 11.
JP2010165669A 2010-07-23 2010-07-23 Image processing device, image processing method and imaging device Pending JP2012029029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010165669A JP2012029029A (en) 2010-07-23 2010-07-23 Image processing device, image processing method and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010165669A JP2012029029A (en) 2010-07-23 2010-07-23 Image processing device, image processing method and imaging device

Publications (1)

Publication Number Publication Date
JP2012029029A true JP2012029029A (en) 2012-02-09

Family

ID=45781440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010165669A Pending JP2012029029A (en) 2010-07-23 2010-07-23 Image processing device, image processing method and imaging device

Country Status (1)

Country Link
JP (1) JP2012029029A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014094034A (en) * 2012-11-07 2014-05-22 Fujifilm Corp Endoscope apparatus
CN103843032A (en) * 2012-08-08 2014-06-04 杜比实验室特许公司 Image processing for high dynamic range images
WO2014123603A1 (en) * 2013-02-05 2014-08-14 Google Inc. Noise models for image processing
US8866928B2 (en) 2012-12-18 2014-10-21 Google Inc. Determining exposure times using split paxels
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US8995784B2 (en) 2013-01-17 2015-03-31 Google Inc. Structure descriptors for image processing
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US9077913B2 (en) 2013-05-24 2015-07-07 Google Inc. Simulating high dynamic range imaging with virtual long-exposure images
US9087391B2 (en) 2012-12-13 2015-07-21 Google Inc. Determining an image capture payload burst structure
US9100589B1 (en) 2012-09-11 2015-08-04 Google Inc. Interleaved capture for high dynamic range image acquisition and synthesis
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9131201B1 (en) 2013-05-24 2015-09-08 Google Inc. Color correcting virtual long exposures with true long exposures
US9247152B2 (en) 2012-12-20 2016-01-26 Google Inc. Determining image alignment failure
KR20160030352A (en) * 2014-09-09 2016-03-17 한화테크윈 주식회사 Image processing apparatus and image processing method
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US10043253B2 (en) 2015-06-16 2018-08-07 Canon Kabushiki Kaisha Image processing device, image processing method, and program
EP3471397A4 (en) * 2016-06-09 2019-04-24 Sony Corporation APPARATUS AND METHOD FOR IMAGE CAPTURE CONTROL, AND VEHICLE
US10631016B2 (en) 2017-09-20 2020-04-21 Kabushiki Kaisha Toshiba Dynamic range compression device and image processing device
JP2021013033A (en) * 2011-02-16 2021-02-04 株式会社半導体エネルギー研究所 Light emitting element, light emitting device, electronic device, and lighting device
US10917590B2 (en) 2018-03-20 2021-02-09 Kabushiki Kaisha Toshiba Imaging control device, imaging apparatus, and imaging control method
CN113156408A (en) * 2021-03-19 2021-07-23 奥比中光科技集团股份有限公司 Contrast calibration method, device and equipment
KR20240014964A (en) * 2022-07-26 2024-02-02 엘지전자 주식회사 A display device and operating method thereof

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021013033A (en) * 2011-02-16 2021-02-04 株式会社半導体エネルギー研究所 Light emitting element, light emitting device, electronic device, and lighting device
US9076224B1 (en) 2012-08-08 2015-07-07 Dolby Laboratories Licensing Corporation Image processing for HDR images
CN103843032A (en) * 2012-08-08 2014-06-04 杜比实验室特许公司 Image processing for high dynamic range images
CN103843032B (en) * 2012-08-08 2016-04-20 杜比实验室特许公司 Image processing for high dynamic range images
US9374589B2 (en) 2012-08-08 2016-06-21 Dolby Laboratories Licensing Corporation HDR images with multiple color gamuts
JP2015508589A (en) * 2012-08-08 2015-03-19 ドルビー ラボラトリーズ ライセンシング コーポレイション Image processing for HDR images
US9467704B2 (en) 2012-08-08 2016-10-11 Dolby Laboratories Licensing Corporation Adaptive ratio images in HDR image representation
US9100589B1 (en) 2012-09-11 2015-08-04 Google Inc. Interleaved capture for high dynamic range image acquisition and synthesis
JP2014094034A (en) * 2012-11-07 2014-05-22 Fujifilm Corp Endoscope apparatus
US9087391B2 (en) 2012-12-13 2015-07-21 Google Inc. Determining an image capture payload burst structure
US8964060B2 (en) 2012-12-13 2015-02-24 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US9118841B2 (en) 2012-12-13 2015-08-25 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US8866928B2 (en) 2012-12-18 2014-10-21 Google Inc. Determining exposure times using split paxels
US9172888B2 (en) 2012-12-18 2015-10-27 Google Inc. Determining exposure times using split paxels
US9247152B2 (en) 2012-12-20 2016-01-26 Google Inc. Determining image alignment failure
US8995784B2 (en) 2013-01-17 2015-03-31 Google Inc. Structure descriptors for image processing
US9749551B2 (en) 2013-02-05 2017-08-29 Google Inc. Noise models for image processing
WO2014123603A1 (en) * 2013-02-05 2014-08-14 Google Inc. Noise models for image processing
US9686537B2 (en) 2013-02-05 2017-06-20 Google Inc. Noise models for image processing
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US9131201B1 (en) 2013-05-24 2015-09-08 Google Inc. Color correcting virtual long exposures with true long exposures
US9077913B2 (en) 2013-05-24 2015-07-07 Google Inc. Simulating high dynamic range imaging with virtual long-exposure images
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
KR102247597B1 (en) 2014-09-09 2021-05-03 한화테크윈 주식회사 Image processing apparatus and image processing method
KR20160030352A (en) * 2014-09-09 2016-03-17 한화테크윈 주식회사 Image processing apparatus and image processing method
US10043253B2 (en) 2015-06-16 2018-08-07 Canon Kabushiki Kaisha Image processing device, image processing method, and program
EP3471397A4 (en) * 2016-06-09 2019-04-24 Sony Corporation APPARATUS AND METHOD FOR IMAGE CAPTURE CONTROL, AND VEHICLE
US10631016B2 (en) 2017-09-20 2020-04-21 Kabushiki Kaisha Toshiba Dynamic range compression device and image processing device
US10917590B2 (en) 2018-03-20 2021-02-09 Kabushiki Kaisha Toshiba Imaging control device, imaging apparatus, and imaging control method
CN113156408A (en) * 2021-03-19 2021-07-23 奥比中光科技集团股份有限公司 Contrast calibration method, device and equipment
KR20240014964A (en) * 2022-07-26 2024-02-02 엘지전자 주식회사 A display device and operating method thereof
KR102896283B1 (en) * 2022-07-26 2025-12-08 엘지전자 주식회사 A display device and operating method thereof

Similar Documents

Publication Publication Date Title
JP2012029029A (en) Image processing device, image processing method and imaging device
US8310562B2 (en) Imaging control apparatus, imaging apparatus and imaging control method for compressing the dynamic range of image data
JP5713752B2 (en) Image processing apparatus and control method thereof
US10021313B1 (en) Image adjustment techniques for multiple-frame images
US8254675B2 (en) Image processing apparatus, imaging apparatus and image processing program
JP5699482B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
JP5901667B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
WO2016199573A1 (en) Image processing device, image processing method, program, and image capture device
JP2010136224A (en) Imaging apparatus and imaging method
US8085316B2 (en) Image-processing unit, imaging apparatus, and computer program product
US8305468B2 (en) Image acquisition apparatus and image acquisition program
JP2019047169A (en) Apparatus, method, and program for creating high dynamic range image
JP2002084449A (en) Image pickup device employing solid-state imaging device
JP2022179514A (en) Control device, imaging device, control method and program
JP5911525B2 (en) Image processing apparatus and method, image processing program, and imaging apparatus
KR100933556B1 (en) Color image processing apparatus and method for extending the dynamic range
US9019406B2 (en) Imaging apparatus and image processing program for correcting dark area gradation
KR101923162B1 (en) System and Method for Acquisitioning HDRI using Liquid Crystal Panel
JP5315125B2 (en) Image processing apparatus, imaging apparatus, and composite image generation method
JP2011100204A (en) Image processor, image processing method, image processing program, imaging apparatus, and electronic device
US9013605B2 (en) Apparatus and method for processing intensity of image in digital camera
JP2008294524A (en) Image processing apparatus and image processing method
US8102446B2 (en) Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal
US20110128404A1 (en) Imaging apparatus, image processing program, image processing apparatus, and image processing method