JP2006345359A - Electronic camera - Google Patents
Electronic camera Download PDFInfo
- Publication number
- JP2006345359A JP2006345359A JP2005170721A JP2005170721A JP2006345359A JP 2006345359 A JP2006345359 A JP 2006345359A JP 2005170721 A JP2005170721 A JP 2005170721A JP 2005170721 A JP2005170721 A JP 2005170721A JP 2006345359 A JP2006345359 A JP 2006345359A
- Authority
- JP
- Japan
- Prior art keywords
- gain
- electronic camera
- suppression
- partial images
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 57
- 230000001629 suppression Effects 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000012937 correction Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 28
- 238000013213 extrapolation Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 9
- 230000014509 gene expression Effects 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 2
- 238000012886 linear function Methods 0.000 description 20
- 238000012546 transfer Methods 0.000 description 13
- 230000001419 dependent effect Effects 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、電子カメラに関し、特にたとえば、複数の撮像領域で生成された複数の部分画像を互いに結合して1つの画像を作成する、電子カメラに関する。 The present invention relates to an electronic camera, and more particularly, to an electronic camera that creates a single image by combining a plurality of partial images generated in a plurality of imaging regions.
従来のこの種の電子カメラの一例が、特許文献1に開示されている。この従来技術によれば、イメージセンサは、右チャネルおよび左チャネルを有する。撮像面の右側領域で生成された画像情報は右チャネルから出力され、撮像面の左側領域で生成された画像情報は左チャネルから出力される。出力された画像情報は、チャネル毎に黒レベル補正処理を施され、チャネル間のゲイン差が解消されるようにゲイン補正処理を施される。特に、ゲイン補正値は、右側領域および左側領域の境界を跨ぐ数画素に注目して決定される。これによって、右側領域および左側領域の境界線が再生画像に現れるのを防止することができる。
しかし、従来技術では、ゲイン補正値の決定にあたって、注目する1フレームにおける輝度や色の変化が考慮されない。このため、右側領域および左側領域の境界の周辺にエッジが現れると、ゲイン補正値が最適値からずれてしまい、境界線の出現を効果的に防止できない可能性がある。 However, in the prior art, when determining the gain correction value, changes in luminance and color in one frame of interest are not taken into consideration. For this reason, if an edge appears around the boundary between the right region and the left region, the gain correction value may deviate from the optimum value, and the appearance of the boundary line may not be effectively prevented.
それゆえに、この発明の主たる目的は、画像の境界線の出現をより効果的に防止できる、電子カメラを提供することである。 Therefore, a main object of the present invention is to provide an electronic camera that can more effectively prevent the appearance of image boundary lines.
請求項1の発明に従う電子カメラ(10)は、複数の部分撮像領域が形成された撮像面と複数の部分撮像領域にそれぞれ対応する複数の出力経路とを有する撮像手段(14)、複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差を抑制する抑制手段(28r, 28g, 28b)、抑制手段によって抑制されたゲイン差を有する複数の部分画像を互いに結合する結合手段(38)、抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を第1明るさ範囲について検出する第1検出手段(60, 62, 64, S43, S65, S87)、第1検出手段によって検出されたゲイン差に補間演算処理を施して抑制手段の動作特性を第1明るさ範囲について補正する第1補正手段(S21)、抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを第2明るさ範囲について検出する第2検出手段(S27, S31, S51, S55, S73, S77)、および第2検出手段によって検出されたゲインに補外演算処理を施して抑制手段の動作特性を第2明るさ範囲について補正する第2補正手段(S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85)を備える。
An electronic camera (10) according to the invention of
撮像手段は、複数の部分撮像領域が形成された撮像面と、複数の部分撮像領域にそれぞれ対応する複数の出力経路とを有する。複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差は、抑制手段によって抑制される。抑制されたゲイン差を有する複数の部分画像は、結合手段によって互いに結合される。 The imaging means has an imaging surface on which a plurality of partial imaging areas are formed, and a plurality of output paths respectively corresponding to the plurality of partial imaging areas. The gain difference between the plurality of partial images respectively output from the plurality of output paths is suppressed by the suppression unit. A plurality of partial images having suppressed gain differences are combined with each other by the combining means.
第1検出手段は、抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を、第1明るさ範囲について検出する。第1補正手段は、第1検出手段によって検出されたゲイン差に補間演算処理を施して、抑制手段の動作特性を第1明るさ範囲について補正する。 The first detection unit detects a gain difference between the plurality of partial images subjected to the suppression process by the suppression unit for the first brightness range. The first correction unit performs an interpolation calculation process on the gain difference detected by the first detection unit, and corrects the operation characteristic of the suppression unit for the first brightness range.
一方、第2検出手段は、抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを、第2明るさ範囲について検出する。第2補正手段は、第2検出手段によって検出されたゲインに補外演算処理を施して、抑制手段の動作特性を第2明るさ範囲について補正する。 On the other hand, a 2nd detection means detects the gain of each of the some partial image to which the suppression process is performed by the suppression means about the 2nd brightness range. The second correction unit corrects the operating characteristic of the suppression unit for the second brightness range by performing extrapolation calculation processing on the gain detected by the second detection unit.
このように、注目する明るさ範囲が第1明るさ範囲であれば複数の部分画像の間のゲイン差が検出され、注目する明るさ範囲が第2明るさ範囲であれば複数の部分画像の各々のゲインが検出される。また、第1明るさ範囲に関する抑制手段の動作特性は検出されたゲイン差に対する補間演算処理によって補正され、第2明るさ範囲に関する抑制手段の動作特性は検出されたゲインに対する補外演算処理によって補正される。 As described above, if the focused brightness range is the first brightness range, a gain difference between the plurality of partial images is detected. If the focused brightness range is the second brightness range, the plurality of partial images are detected. Each gain is detected. In addition, the operation characteristic of the suppression unit relating to the first brightness range is corrected by an interpolation calculation process for the detected gain difference, and the operation characteristic of the suppression unit relating to the second brightness range is corrected by an extrapolation calculation process for the detected gain. Is done.
つまり、請求項1の発明では、ゲインの変動態様が第1明るさ範囲と第2明るさ範囲とで異なることを考慮して、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を第1明るさ範囲と第2明るさ範囲とで異ならせるようにしている。これによって、画像の境界線の出現をより効果的に防止することができる。 That is, in the first aspect of the invention, taking into consideration that the variation mode of the gain is different between the first brightness range and the second brightness range, the detection target (gain difference, gain) and the correction method (interpolation calculation process, The extrapolation calculation process is made different between the first brightness range and the second brightness range. Thereby, the appearance of the boundary line of the image can be more effectively prevented.
請求項2の発明に従う電子カメラは、請求項1に従属し、第2補正手段は、入射光量に対するゲインの変化を示す関係式を複数の部分画像の各々について特定する特定手段(S29, S33, S53, S57, S75, S79)、および特定手段によって特定された複数の関係式の1つによって規定されるゲインと複数の関係式の他の1つによって規定されるゲインとの差分を補外演算処理によって検出するゲイン差検出手段(S35, S59, S81)を含む。 An electronic camera according to a second aspect of the invention is dependent on the first aspect, wherein the second correction means specifies a relational expression indicating a change in gain with respect to the amount of incident light for each of the plurality of partial images (S29, S33, S53, S57, S75, S79) and extrapolation of the difference between the gain defined by one of the plurality of relational expressions specified by the specifying means and the gain specified by the other one of the plurality of relational expressions Gain difference detection means (S35, S59, S81) for detecting by processing is included.
請求項3の発明に従う電子カメラは、請求項2に従属し、特定手段は最小2乗法を用いて関係式を特定する。 The electronic camera according to the invention of claim 3 is dependent on claim 2, and the specifying means specifies the relational expression using the least square method.
請求項4の発明に従う電子カメラは、請求項1ないし3のいずれかに従属し、抑制手段によって抑制処理を施される複数の部分画像が平坦度条件を満足するか否かを判別する判別手段(S23, S47, S69)をさらに備え、第1検出手段および第2検出手段の各々は判別手段の判別結果が肯定的であるとき検出動作を行う。平坦度条件が満足されるときのゲインに注目することで、抑制手段の動作特性を正確に補正することができる。 An electronic camera according to a fourth aspect of the invention is dependent on any one of the first to third aspects, and is a discriminating unit that discriminates whether or not a plurality of partial images subjected to suppression processing by the suppression unit satisfy a flatness condition. (S23, S47, S69), and each of the first detection means and the second detection means performs a detection operation when the determination result of the determination means is affirmative. By paying attention to the gain when the flatness condition is satisfied, the operation characteristic of the suppressing means can be accurately corrected.
請求項5の発明に従う電子カメラは、請求項1ないし4のいずれかに従属し、複数の部分画像は複数色の色情報を有し、抑制手段は複数色にそれぞれ対応する複数の動作特性を有する。この結果、複数の部分画像の間のゲイン差は色毎に抑制され、境界線の出現を効果的に防止できる。 An electronic camera according to a fifth aspect of the present invention is dependent on any one of the first to fourth aspects, wherein the plurality of partial images have color information of a plurality of colors, and the suppression means has a plurality of operation characteristics corresponding to the plurality of colors, respectively. Have. As a result, the gain difference between the plurality of partial images is suppressed for each color, and the appearance of the boundary line can be effectively prevented.
請求項6の発明に従う電子カメラは、請求項5に従属し、第1補正手段および第2補正手段の各々は複数の部分画像が有する色毎に補正動作を行う。 An electronic camera according to a sixth aspect of the invention is dependent on the fifth aspect, and each of the first correction means and the second correction means performs a correction operation for each color of the plurality of partial images.
請求項7の発明に従う電子カメラは、請求項1ないし6のいずれかに従属し、複数の部分画像をそれぞれ形成する複数の小画像を抽出する抽出手段(46)をさらに備え、第1検出手段および第2検出手段の各々は抽出手段によって抽出される複数の小画像に注目する。
The electronic camera according to the invention of
請求項8の発明に従う電子カメラは、請求項7に従属し、第1検出手段は、抽出手段によって抽出された複数の小画像の各々の成分の平均値を算出する平均値算出手段(60, 62, 64)、および平均値算出手段によって求められた複数の平均値の間の差分値をゲイン差として算出する差分値算出手段(S43, S65, S87)を含む。
An electronic camera according to the invention of
請求項9の発明に従う電子カメラは、請求項7または8に従属し、抽出手段によって抽出される複数の小画像は複数の部分画像の境界の近傍に存在する。
The electronic camera according to the invention of claim 9 is dependent on
請求項10の発明に従う電子カメラは、請求項1ないし9のいずれかに従属し、複数の部分画像の基準レベルを互いに一致させる調整手段(22a, 22b)をさらに備える。 An electronic camera according to a tenth aspect of the invention is dependent on any one of the first to ninth aspects, and further includes adjusting means (22a, 22b) for matching the reference levels of the plurality of partial images with each other.
請求項11の発明に従う電子カメラは、請求項10に従属し、調整手段は抑制手段の抑制動作に先立ってレベル調整を行う。 The electronic camera according to the invention of claim 11 is dependent on claim 10, and the adjusting means performs level adjustment prior to the suppressing operation of the suppressing means.
請求項12の発明に従う電子カメラは、請求項1ないし11のいずれかに従属し、第1明るさ範囲は第2明るさ範囲よりも暗い範囲である。
The electronic camera according to the invention of
この発明によれば、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を第1明るさ範囲と第2明るさ範囲とで異ならせるようにしているため、画像の境界線の出現をより効果的に防止することができる。 According to the present invention, the detection target (gain difference, gain) and the correction method (interpolation calculation processing, extrapolation calculation processing) are made different between the first brightness range and the second brightness range. The appearance of the boundary line can be prevented more effectively.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のディジタルカメラ(電子カメラ)10は、光学レンズ12を含む。被写界の光学像は、光学レンズ12を介してCCDイメージャ14の撮像面に照射される。撮像面は、R(Red),G(Green)またはB(Blue)のフィルタ要素がベイヤ態様で配列された色フィルタ14fによって覆われる。
Referring to FIG. 1, a digital camera (electronic camera) 10 of this embodiment includes an
このため、Rの色情報を有する電荷はRのフィルタ要素によって覆われた受光素子であるR画素で生成され、Gの色情報を有する電荷はGのフィルタ要素によって覆われた受光素子であるG画素で生成され、そしてBの色情報を有する電荷はBのフィルタ要素によって覆われた受光素子であるB画素で生成される。 Therefore, the charge having R color information is generated by the R pixel, which is a light receiving element covered by the R filter element, and the charge having G color information is G, which is the light receiving element covered by the G filter element. A charge generated in the pixel and having B color information is generated in the B pixel which is a light receiving element covered by the B filter element.
キー入力装置32によって撮影操作が行われると、TG(Timing Generator)18がCPU30によって起動される。TG18は、水平同期信号Hsyncおよび垂直同期信号Vsyncを含む複数のタイミング信号を発生する。ドライバ16aおよび16bの各々は、かかるタイミング信号に応答してCCDイメージャ14を駆動する。これによって、1フレームに相当する電荷つまり生画像信号が、垂直同期信号Vsyncが発生する毎に、CCDイメージャ14から出力される。
When a photographing operation is performed by the
図2を参照して、CCDイメージャ14の撮像面は、左側撮像領域IMLおよび右側撮像領域IMRを有する。左側撮像領域IMLは、撮像面の中心から垂直方向に伸びる境界線BLの左側に形成され、右側撮像領域IMRは、同じ境界線BLの右側に形成される。つまり、左側撮像領域IMLおよび右側撮像領域IMRは、境界線BLで互いに接する。
Referring to FIG. 2, the imaging surface of
左側撮像領域IMLおよび右側撮像領域IMRの各々には、図示しない複数の垂直転送レジスタが割り当てられる。また、左側撮像領域IMLには水平転送レジスタHLが割り当てられ、右側撮像領域IMRには水平転送レジスタHRが割り当てられる。さらに、水平転送レジスタHLの出力端にはアンプAPLが設けられ、水平転送レジスタHRの出力端にはアンプAPRが設けられる。 A plurality of vertical transfer registers (not shown) are assigned to each of the left imaging area IML and the right imaging area IMR. Further, a horizontal transfer register HL is assigned to the left imaging area IML, and a horizontal transfer register HR is assigned to the right imaging area IMR. Further, an amplifier APL is provided at the output end of the horizontal transfer register HL, and an amplifier APR is provided at the output end of the horizontal transfer register HR.
したがって、左側撮像領域IML上の複数の受光素子で生成された電荷は、図示しない垂直転送レジスタ,水平転送レジスタHLおよびアンプAPLを介して、チャネルCH1から出力される。右側撮像領域IMR上の複数の受光素子で生成された電荷も同様に、図示しない垂直転送レジスタ,水平転送レジスタHRおよびアンプAPRを介して、チャネルCH2から出力される。 Therefore, the charges generated by the plurality of light receiving elements on the left imaging region IML are output from the channel CH1 via the vertical transfer register, the horizontal transfer register HL, and the amplifier APL (not shown). Similarly, the charges generated by the plurality of light receiving elements on the right imaging region IMR are also output from the channel CH2 via a vertical transfer register, a horizontal transfer register HR, and an amplifier APR (not shown).
つまり、ドライバ16aは、TG18からのタイミング信号に基づいて左側撮像領域IMLにラスタ走査を施し、左側1/2フレームの生画像信号をチャネルCH1から出力する。ドライバ16bも同様に、TG18からのタイミング信号に基づいて右側撮像領域IMRにラスタ走査を施し、右側1/2フレームの生画像信号をチャネルCH2から出力する。
That is, the
ただし、水平転送レジスタHRの転送方向は、水平転送レジスタHLの転送方向と逆の方向である。このため、ラスタ走査方向もまた、左側撮像領域IMLおよび右側撮像領域IMRの間で互いに反転する。 However, the transfer direction of the horizontal transfer register HR is opposite to the transfer direction of the horizontal transfer register HL. For this reason, the raster scanning direction is also reversed between the left imaging area IML and the right imaging area IMR.
CDS/AGC/AD回路20aは、チャネルCH1の生画像信号に相関2重サンプリング,自動ゲイン調整およびA/D変換の一連の処理を施す。同様に、CDS/AGC/AD回路20bは、チャネルCH2の生画像信号に相関2重サンプリング,自動ゲイン調整およびA/D変換の一連の処理を施す。なお、CDS/AGC/AD回路20aおよび20bも、TG18から出力されたタイミング信号に同期して、上述の処理を行う。
The CDS / AGC /
クランプ回路22aは、CDS/AGC/AD回路20aから出力された生画像データの基準レベルを、レベル調整回路24によって設定された黒レベルに合わせる。クランプ回路22bも同様に、CDS/AGC/AD回路20bから出力された生画像データの基準レベルを、レベル調整回路24によって設定された黒レベルに合わせる。
The
クランプ回路22aから出力された生画像データは、メモリ制御回路38によってSDRAM36に書き込まれる。また、クランプ回路22bから出力された生画像データは、LUT(Look Up Table)28rによるR成分のゲイン調整,LUT28gによるG成分のゲイン調整およびLUT28bによるB成分のゲイン調整を経て、メモリ制御回路38によってSDRAM36に書き込まれる。
The raw image data output from the
SDRAM36は、図3に示すように生画像領域36a,YUV画像領域36bおよび圧縮画像領域36cを有する。メモリ制御回路38は、チャネルCH1の生画像データを生画像領域36aの左側に格納し、チャネルCH2の生画像データを生画像領域36aの右側に格納する。こうして生画像領域36aに格納された生画像データは、撮像された1フレームの被写界像を表す。また、LUT28r,28gおよび28bによるゲイン調整によってチャネルCH1およびCH2の間での生画像データのゲイン差が解消され、境界線の出現が防止される。
As shown in FIG. 3, the
なお、クランプ回路22aおよび22bの各々から出力される生画像データは12ビットで表現される。このため、LUT28r,28gおよび28bの各々は、4096個の設定値を有する。
The raw image data output from each of the
後処理回路40は、このような生画像データをメモリ制御回路38を通してSDRAM36から読み出し、読み出された生画像データに色分離,YUV変換などの処理を施し、そしてYUV形式の画像データをメモリ制御回路38を通してYUV画像領域36bに書き込む。JPEGコーデック42は、YUV画像領域36bに格納された画像データをメモリ制御回路38を通して読み出し、読み出された画像データにJPEG圧縮を施し、そして圧縮画像データをメモリ制御回路38を通して圧縮画像領域36cに書き込む。このような圧縮動作は、垂直同期信号Vsyncが発生する毎に実行される。
The
CPU30は、圧縮画像領域36cに蓄積された圧縮画像データをメモリ制御回路38を通して読み出し、読み出された圧縮画像データをI/F44を通して記録媒体46に記録する。こうして、複数フレームの圧縮画像データを収めた動画像ファイルが記録媒体46に形成される。
The
図4を参照して、クランプ回路22aに入力されるチャネルCH1の生画像データのR成分,G成分およびB成分がそれぞれ入射光量に対して曲線C1rin,C1ginおよびC1binを描く場合、クランプ回路22aから出力されるチャネルCH1の生画像データのR成分,G成分およびB成分はそれぞれ入射光量に対して曲線C1rout,C1goutおよびC1boutを描く。また、クランプ回路22bに入力されるチャネルCH2の生画像データのR成分,G成分およびB成分がそれぞれ入射光量に対して曲線C2rin,C2ginおよびC2binを描く場合、クランプ回路22bから出力されるチャネルCH2の生画像データのR成分,G成分およびB成分はそれぞれ入射光量に対して曲線C2rout,C2goutおよびC2boutを描く。
Referring to FIG. 4, when the R component, G component, and B component of the raw image data of channel CH1 input to clamp
アンプAPLおよびAPRの増幅特性の相違から、生画像データの黒レベルおよびゲインもまたチャネルCH1およびCH2の間で相違する。このうち黒レベルのずれが、クランプ回路22a,22bおよびレベル調整回路24によって解消される。
Due to the difference in amplification characteristics of the amplifiers APL and APR, the black level and gain of the raw image data also differ between the channels CH1 and CH2. Of these, the black level shift is eliminated by the
なお、図4によれば、複数のレベル域LV1〜LV10が生画像データのダイナミックレンジに割り当てられる。このうち、レベル域LV1〜LV4は低輝度範囲(第1明るさ範囲)を形成し、レベル域LV5〜LV10は高輝度範囲(第2明るさ範囲)を形成する。 According to FIG. 4, a plurality of level ranges LV1 to LV10 are assigned to the dynamic range of the raw image data. Among these, the level areas LV1 to LV4 form a low luminance range (first brightness range), and the level areas LV5 to LV10 form a high luminance range (second brightness range).
チャネルCH1およびCH2の間のゲインのずれは、次の要領で解消される。クランプ回路22aから出力された生画像データはブロック演算回路26aに与えられ、クランプ回路22bから出力された生画像データはブロック演算回路26bに与えられる。図5を参照して、ブロック演算回路26aは、境界線BLに近接するように左側撮像領域IMLに割り当てられた境界ブロックB1L,B2L,…BnLの各々に属する小画像について、高周波成分の色毎の積算値と画像レベルの色毎の平均値を求める。ブロック演算回路26bは、境界線BLに近接するように右側撮像領域IMRに割り当てられた境界ブロックB1R,B2R,…BnRの各々に属する小画像について、高周波成分の色毎の積分値と画像レベルの色毎の平均値を求める。
The gain shift between the channels CH1 and CH2 is eliminated in the following manner. The raw image data output from the
ブロック演算回路26aおよび26bの各々は、詳しくは、図6に示すように構成される。クランプ回路22aまたは22bから出力された生画像データは、ブロック抽出回路46に与えられる。ブロック抽出回路46は、境界ブロックB1L〜BnLの各々あるいは境界ブロックB1R〜BnRの各々に属する生画像データを抽出する。
Specifically, each of the
R差分値算出回路48は、抽出された生画像データのうち隣り合うR画素の差分値であるR差分値を算出する。G差分値算出回路50は、抽出された生画像データのうち隣り合うG画素の差分値であるG差分値を算出する。抽出された生画像データのうち隣り合うB画素の差分値であるB差分値を算出する。
The R difference
積算回路54は算出されたR差分値の絶対値を境界ブロック毎に積算し、積算回路56は算出されたG差分値の絶対値を境界ブロック毎に積算し、そして積算回路58は算出されたB差分値の絶対値を境界ブロック毎に積算する。これによって、同じ境界ブロックに対応する積算値Rh,GhおよびBhが、積算回路54,56および58からそれぞれ出力される。
The
R平均値算出回路60は、ブロック抽出回路46からの生画像データのうちR画素のレベルを境界ブロック毎に平均し、G平均値算出回路62は、ブロック抽出回路46からの生画像データのうちG画素のレベルを境界ブロック毎に平均し、そしてB平均値算出回路64は、ブロック抽出回路46からの生画像データのうちB画素のレベルを境界ブロック毎に平均する。これによって、同じ境界ブロックに対応する平均値Rav,GavおよびBavが、R平均値算出回路60,G平均値算出回路62およびB平均値算出回路64からそれぞれ出力される。
The R average
図1に戻って、ブロック演算回路26aおよび26bの各々は、こうして算出された積算値Rh,Gh,Bhおよび平均値Rav,Gav,BavをCPU30に与える。CPU30はまず、互いに隣接する2つの境界ブロックBKLおよびBKR(K:1〜n)の小画像が平坦であるか否かを判別する。
Returning to FIG. 1, each of the
注目する2つの境界ブロックの各々で求められた積算値Rhが閾値TH未満であれば、これらの境界ブロックに属する小画像のR成分は平坦であると判別される。注目する2つの境界ブロックの各々で求められた積算値Ghが閾値TH未満であれば、これらの境界ブロックに属する小画像のG成分は平坦であると判別される。注目する2つの境界ブロックの各々で求められた積算値Bhが閾値TH未満であれば、これらの境界ブロックに属する小画像のB成分は平坦であると判別される。 If the integrated value Rh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the R component of the small image belonging to these boundary blocks is flat. If the integrated value Gh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the G component of the small image belonging to these boundary blocks is flat. If the integrated value Bh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the B component of the small image belonging to these boundary blocks is flat.
CPU30は、R成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Rhを閾値THrと比較し、G成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Ghを閾値THgと比較し、そしてB成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Bhを閾値THbと比較する。なお、閾値THr,THgおよびTHbは、図4に示す低輝度範囲の最大値を示す。
The
積分値Rhが閾値THrを下回るときはR成分によって再現される画像は暗いと判別され、積分値Rhが閾値THr以上のときはR成分によって再現される画像は明るいと判別される。同様に、積分値Ghが閾値THgを下回るときはG成分によって再現される画像は暗いと判別され、積分値Ghが閾値THg以上のときはG成分によって再現される画像は明るいと判別される。さらに、積分値Bhが閾値THbを下回るときはB成分によって再現される画像は暗いと判別され、積分値Bhが閾値THb以上のときはB成分によって再現される画像は明るいと判別される。 When the integral value Rh is lower than the threshold value THr, the image reproduced by the R component is determined to be dark, and when the integral value Rh is equal to or greater than the threshold value THr, the image reproduced by the R component is determined to be bright. Similarly, when the integral value Gh is lower than the threshold value THg, the image reproduced by the G component is determined to be dark, and when the integral value Gh is equal to or greater than the threshold value THg, the image reproduced by the G component is determined to be bright. Further, when the integral value Bh is less than the threshold value THb, the image reproduced by the B component is determined to be dark, and when the integral value Bh is equal to or greater than the threshold value THb, the image reproduced by the B component is determined to be bright.
R成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Ravに基づいて差分値ΔRavを算出する。また、G成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Gavに基づいて差分値ΔGavを算出する。さらに、B成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Bavに基づいて差分値ΔBavを算出する。
When it is determined that the image based on the R component is dark, the
差分値ΔRavは、境界ブロックBKLの平均値Ravから境界ブロックBKRの平均値Ravを引き算することによって求められ、差分値ΔGavは、境界ブロックBKLの平均値Gavから境界ブロックBKRの平均値Gavを引き算することによって求められ、差分値ΔBavは、境界ブロックBKLの平均値Bavから境界ブロックBKRの平均値Bavを引き算することによって求められる。 The difference value ΔRav is obtained by subtracting the average value Rav of the boundary block BKR from the average value Rav of the boundary block BKL, and the difference value ΔGav is obtained by subtracting the average value Gav of the boundary block BKR from the average value Gav of the boundary block BKL. The difference value ΔBav is obtained by subtracting the average value Bav of the boundary block BKR from the average value Bav of the boundary block BKL.
こうして求められた差分値ΔRav,ΔGav,ΔBavおよび境界ブックBKRで求められた平均値Rav,Gav,Bavは、図7に示す低輝度用レジスタ34aに書き込まれる。図7によれば、レベル域LV1〜LV4の各々に5つの欄が割り当てられる。平均値Rav,Gav,Bavの各々は、自分が属するレベル域の欄に、数値が小さい方から順に書き込まれる。差分値ΔRav,ΔGav,ΔBavはそれぞれ、関連する平均値Rav,Gav,Bavに割り当てられる。
The difference values ΔRav, ΔGav, ΔBav obtained in this way and the average values Rav, Gav, Bav obtained from the boundary book BKR are written in the
たとえば、境界ブロックBKRの平均値Rav,GavおよびBavがそれぞれレベル域LV3,LV4およびLV1に属する場合、平均値Ravおよびこれに関連する差分値ΔRavは低輝度用レジスタ34aのレベル域LV3の欄に書き込まれ、平均値Gavおよびこれに関連する差分値ΔGavは低輝度用レジスタ34aのレベル域LV4の欄に書き込まれ、そして平均値Bavおよびこれに関連する差分値ΔBavは低輝度用レジスタ34aのレベル域LV1の欄に書き込まれる。
For example, when the average values Rav, Gav, and Bav of the boundary block BKR belong to the level areas LV3, LV4, and LV1, respectively, the average value Rav and the difference value ΔRav related thereto are stored in the level area LV3 column of the
低輝度用レジスタ34aの全ての欄が数値によって埋められると、低輝度用レジスタ34aが完成する。CPU30は、低輝度レジスタ34aに書き込まれた20個の差分値ΔRavに補間演算を施して低輝度用R補正データを作成し、低輝度レジスタ34aに書き込まれた20個の差分値ΔGavに補間演算を施して低輝度用G補正データを作成し、そして低輝度レジスタ34aに書き込まれた20個の差分値ΔBavに補間演算を施して低輝度用B補正データを作成する。
When all the columns of the
クランプ回路22aから出力されたチャネルCH1の生画像データのR成分,G成分およびB成分が図4に示す曲線C1rout,C1goutおよびC1boutを描き、クランプ回路22bから出力されたチャネルCH2の生画像データが図4に示す曲線C2rout,C2goutおよびC2boutを描く場合、低輝度用R補正データ,低輝度用G補正データおよび低輝度用B補正データはそれぞれ図8に示す曲線Cr,CgおよびCbを描く。
The R, G, and B components of the raw image data of the channel CH1 output from the
曲線Cr,CbおよびCgの各々は、チャネルCH1の生画像データからチャネルCH2の生画像データを減算して得られた差分画像データがチャネルCH2の生画像データに対してどのように変化するかを示す特性曲線に等しい。 Each of the curves Cr, Cb, and Cg shows how the difference image data obtained by subtracting the raw image data of the channel CH2 from the raw image data of the channel CH1 changes with respect to the raw image data of the channel CH2. Equal to the characteristic curve shown.
CPU30は、低輝度用R補正データの値をLUT28rの低輝度デフォルト設定値に加算し、低輝度用G補正データの値をLUT28gの低輝度デフォルト設定値に加算し、そして低輝度用B補正データの値をLUT28bの低輝度デフォルト設定値に加算する。
The
R成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Ravを高輝度用レジスタ34bに書き込む。同様に、G成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Gavを高輝度用レジスタ34bに書き込む。さらに、B成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Bavを高輝度用レジスタ34bに書き込む。
When it is determined that the image based on the R component is bright, the
左側撮像領域IMLに属する境界ブロックの平均値Rav,GavまたはBavは図9に示す高輝度用レジスタ34bの左側領域の欄に書き込まれ、右側撮像領域IMRに属する境界ブロックの平均値Rav,GavまたはBavは高輝度用レジスタ34bの右側領域の欄に書き込まれる。なお、高輝度用レジスタ34bはリングバッファの機能を有し、平均値Rav,GavおよびBavの書き込み先は循環的に更新される。
The average values Rav, Gav or Bav of the boundary blocks belonging to the left imaging area IML are written in the left area column of the
CPU30は続いて、高輝度用レジスタ34bの左側領域の欄に設定された平均値Rav,GavおよびBavの各々に最小2乗法に従う演算を施して、チャネルCH1の生画像データにおけるRゲイン特性,Gゲイン特性およびBゲイン特性をそれぞれ示す3つの1次関数F1r,F1gおよびF1bを特定する。
Subsequently, the
CPU30はまた、高輝度用レジスタ34bの右側領域の欄に設定された平均値Rav,GavおよびBavの各々に最小2乗法に従う演算を施して、チャネルCH2の生画像データにおけるRゲイン特性,Gゲイン特性およびBゲイン特性をそれぞれ示す3つの1次関数F2r,F2gおよびF2bを特定する。
The
たとえば、R画素レベル,G画素レベルまたはB画素レベルの各々が左側撮像領域IMLの水平方向において図10(A)に示すように変化した場合、1次関数F1r,F1gまたはF1bは同じ図10(A)に示す直線を描く。また、R画素レベル,G画素レベルまたはB画素レベルの各々が右側撮像領域IMRの水平方向において図10(B)に示すように変化した場合、1次関数F2r,F2gまたはF2bは同じ図10(B)に示す直線を描く。 For example, when each of the R pixel level, the G pixel level, and the B pixel level changes as shown in FIG. 10A in the horizontal direction of the left imaging region IML, the linear functions F1r, F1g, or F1b are the same as in FIG. Draw a straight line shown in A). Further, when each of the R pixel level, the G pixel level, and the B pixel level is changed as shown in FIG. 10B in the horizontal direction of the right imaging region IMR, the linear functions F2r, F2g, or F2b are the same as those in FIG. Draw a straight line as shown in B).
CPU30は、右側撮像領域IMRで生成された電荷にチャネルCH1における一連の処理を施したときに得られるであろう生画像データの高輝度範囲に属する複数のRゲイン,複数のGゲインおよび複数のBゲインを、1次関数F1r,F1gおよびF1bに従う補外演算によって推定する。CPU30はまた、チャネルCH1の生画像データの高輝度範囲に属する複数のRゲイン,複数のGゲインおよび複数のBゲインを、1次関数F2r,F2gまたはF2bに従う補外演算によって推定する。こうして推定されたゲインを有するR画素,G画素およびB画素は、右側撮像領域IMRの水平方向において図10(C)に示すように分布する。
The
CPU30はその後、1次関数F1rに基づく複数のRゲインから1次関数F2rに基づく複数のRゲインをそれぞれ引き算して、複数のRゲイン差によって表される高輝度用R補正データを作成する。CPU30はまた、1次関数F1gに基づく複数のGゲインから1次関数F2gに基づく複数のGゲインを引き算して、複数のGゲイン差によって表される高輝度用G補正データを作成する。CPU30はさらに、1次関数F1bに基づく複数のBゲインから1次関数F2bに基づく複数のBゲインを引き算して、複数のBゲイン差によって形成される高輝度用B補正データを作成する。作成された高輝度用R補正データ,高輝度用G補正データおよび高輝度用B補正データは、図4に示す高輝度範囲にわたる。
Thereafter, the
CPU30は、高輝度用R補正データの値をLUT28rの高輝度デフォルト設定値に加算し、高輝度用G補正データの値をLUT28gの高輝度デフォルト設定値に加算し、そして高輝度用B補正データの値をLUT28bの高輝度デフォルト設定値に加算する。
The
LUT28rのデフォルト設定値,LUT28gのデフォルト設定値およびLUT28bのデフォルト設定値がそれぞれクランプ回路22bの出力に対して図11に示す曲線TSr,TSgおよびTSbを描く場合、上述の低輝度用R補正データ,低輝度用G補正データ,低輝度用B補正データ,高輝度用R補正データ,高輝度用G補正データおよび高輝度用B補正データが加算されると、LUT28rの設定値,LUT28gの設定値およびLUT28bの設定値はそれぞれ、図11に示す曲線TMr,TMgおよびTMbを描く。この結果、生画像データのゲインは、チャネルCH1およびCH2の間でほぼ一致することとなる。
When the default setting value of the
LUT28r,28gおよび28bの設定値を調整するとき、CPU30は、図12〜図18に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、フラッシュメモリ48に記憶される。
When adjusting the set values of the
まずステップS1およびS3で高輝度用レジスタ34bおよび低輝度用レジスタ34aをクリアし、ステップS5で変数Kを“0”に設定する。ステップS7では垂直同期信号Vsyncが発生したか否かを判断し、YESであればステップS9で変数Kをインクリメントする。ステップS11では、変数Kが所定値nを上回ったかどうかを判別する。ここでNOであればステップS11に進み、YESであればステップS17に進む。
First, in steps S1 and S3, the
ステップS13では境界ブロックBKLの積算値Rh,Gh,Bhおよび平均値Rav,Gav,Bavをブロック演算回路26aから取り込み、ステップS15では境界ブロックBKRの積算値Rh,Gh,Bhおよび平均値Rav,Gav,Bavをブロック演算回路26bから取り込む。
In step S13, the integrated values Rh, Gh, Bh and average values Rav, Gav, Bav of the boundary block BKL are fetched from the block
ステップS23では、取り込まれた2つの積算値Rhが平坦度条件を満足するか否かを判別する。具体的には、取り込まれた2つの積分値Rhのいずれもが閾値TH未満であるか否かを判別する。この平坦度条件が満たされなければ、境界ブロックBKLに属するR成分によって再現される小画像および境界ブロックBKRに属するR成分によって再現される小画像の少なくとも一方が平坦画像ではないとみなし、ステップS47に進む。一方、この条件が満たされると、境界ブロックBKLおよびBKRの各々に属するR成分によって再現される小画像はいずれも平坦画像であるとみなし、ステップS25に進む。 In step S23, it is determined whether or not the two integrated values Rh that have been taken in satisfy the flatness condition. Specifically, it is determined whether or not both of the two integrated values Rh that have been taken are less than the threshold value TH. If this flatness condition is not satisfied, it is assumed that at least one of the small image reproduced by the R component belonging to the boundary block BKL and the small image reproduced by the R component belonging to the boundary block BKR is not a flat image, step S47. Proceed to On the other hand, if this condition is satisfied, the small image reproduced by the R component belonging to each of the boundary blocks BKL and BKR is regarded as a flat image, and the process proceeds to step S25.
ステップS25では、境界ブロックBKRの平均値Ravが閾値THrを上回るか否かを判別する。ここでNOであればステップS43に進み、境界ブロックBKLの平均値Ravから境界ブロックBKRの平均値Ravを引き算する。これによって、差分値ΔRavが求められる。ステップS45では、算出された差分値ΔRavと境界ブロックBKRの平均値Ravとを図7に示す低輝度用レジスタ34aに書き込む。書き込みが完了すると、ステップS47に進む。
In step S25, it is determined whether or not the average value Rav of the boundary block BKR exceeds a threshold value THr. If “NO” here, the process proceeds to a step S43 to subtract the average value Rav of the boundary block BKR from the average value Rav of the boundary block BKL. Thereby, the difference value ΔRav is obtained. In step S45, the calculated difference value ΔRav and the average value Rav of the boundary block BKR are written in the
ステップS25でYESであればステップS27に進み、境界ブロックBKLの平均値Ravを図9に示す高輝度用レジスタ34bの左側領域の欄に書き込む。ステップS29では、高輝度用レジスタ34bの左側領域の欄に書き込まれた複数の平均値Ravに最小2乗法に従う演算を施して、チャネルCH1の生画像データのRゲイン特性を示す1次関数F1rを特定する。
If “YES” in the step S25, the process proceeds to a step S27, and the average value Rav of the boundary block BKL is written in the left area column of the
ステップS31では、境界ブロックBKRの平均値Ravを図9に示す高輝度用レジスタ34bの右側領域の欄に書き込む。ステップS33では、高輝度用レジスタ34bの右側領域の欄に書き込まれた複数の平均値Ravに最小2乗法に従う演算を施して、チャネルCH2の生画像データのRゲイン特性を示す1次関数F2rを特定する。
In step S31, the average value Rav of the boundary block BKR is written in the right area column of the
ステップS35では、こうして求められた2つの1次関数F1rおよびF2rに基づく補外演算処理を実行して、高輝度用R補正データを作成する。ステップS39では、作成された高輝度用R補正データが前回作成された高輝度用R補正データから大きく変動しているか否かを判別する。変動量が大きいときはステップS41に進み、作成された高輝度用R補正データをLUT28rの高輝度デフォルト設定値に加算する。ステップS41の処理が完了すると、ステップS47に進む。ステップS39でNOと判断されたときは、そのままステップS47に進む。
In step S35, extrapolation calculation processing based on the two linear functions F1r and F2r thus obtained is executed to create R correction data for high luminance. In step S39, it is determined whether or not the created high-intensity R correction data has changed significantly from the previously created high-intensity R correction data. When the fluctuation amount is large, the process proceeds to step S41, and the created high luminance R correction data is added to the high luminance default setting value of the
なお、1回目のステップS29の処理では1次関数F1rを特定することは不可能であり、1回目のステップS33の処理では1次関数F2rを特定することは不可能である。このため、この実施例では、1回目のステップS39で強制的にNOと判断する。 Note that it is impossible to specify the linear function F1r in the first step S29, and it is impossible to specify the primary function F2r in the first step S33. For this reason, in this embodiment, NO is forcibly determined in the first step S39.
ステップS47〜S67の処理は、R成分に代えてG成分に注目する点を除き、上述のステップS23〜45と同じである。図14に示すステップS69〜S89の処理も、R成分に代えてB成分に注目する点を除き、上述のステップS23〜45と同じである。したがって、重複した説明は省略する。 Steps S47 to S67 are the same as steps S23 to S45 described above except that attention is paid to the G component instead of the R component. The processes in steps S69 to S89 shown in FIG. 14 are the same as steps S23 to S45 described above except that attention is paid to the B component instead of the R component. Therefore, duplicate description is omitted.
なお、ステップS53ではチャネルCH1の生画像データのRゲイン特性を示す1次関数F1gが特定され、ステップS57ではチャネルCH2の生画像データのRゲイン特性を示す1次関数F2gが特定される。ステップS47またはS61でNOと判断されるか、あるいはステップS63またはS67の処理が完了すると、ステップS69に進む。 In step S53, the linear function F1g indicating the R gain characteristic of the raw image data of the channel CH1 is specified, and in step S57, the linear function F2g indicating the R gain characteristic of the raw image data of the channel CH2 is specified. When NO is determined in step S47 or S61, or when the process of step S63 or S67 is completed, the process proceeds to step S69.
また、ステップS75ではチャネルCH1の生画像データのRゲイン特性を示す1次関数F1bが特定され、ステップS79ではチャネルCH2の生画像データのRゲイン特性を示す1次関数F2bが特定される。ステップS69またはS83でNOと判断されるか、あるいはステップS85またはS89の処理が完了すると、ステップS9に戻る。 In step S75, the linear function F1b indicating the R gain characteristic of the raw image data of the channel CH1 is specified, and in step S79, the linear function F2b indicating the R gain characteristic of the raw image data of the channel CH2 is specified. When NO is determined in step S69 or S83, or when the process of step S85 or S89 is completed, the process returns to step S9.
図10に戻って、ステップS11でYESであれば、低輝度用レジスタ34aが完成したか否かをステップS17で判別する。低輝度用レジスタ34aは、全ての欄に数値が書き込まれたときに完成する。ここでNOと判断されるとステップS7に戻り、YESと判断されるとステップS19に進む。
Returning to FIG. 10, if “YES” in the step S11, it is determined whether or not the
ステップS19では、低輝度用レジスタ34aに設定された差分値ΔRavの補間演算によって低輝度用R補正データを作成し、低輝度用レジスタ34aに設定された差分値ΔGavの補間演算によって低輝度用G補正データを作成し、そして低輝度用レジスタ34aに設定された差分値ΔBavの補間演算によって低輝度用B補正データを作成する。
In step S19, low luminance R correction data is created by interpolation calculation of the difference value ΔRav set in the
ステップS21では、作成された低輝度用R補正データをLUT28rの低輝度デフォルト設定値に加算し、作成された低輝度用G補正データをLUT28gの低輝度デフォルト設定値に加算し、そして作成された低輝度用B補正データをLUT28bの低輝度デフォルト設定値に加算する。ステップS21の処理が完了すると、ステップS1に戻る。
In step S21, the created low brightness R correction data is added to the low brightness default setting value of the
ステップS35の補外演算処理は、図16に示すサブルーチンに従って実行される。ステップS351では、右側撮像領域IMRで生成された電荷にチャネルCH1における一連の処理を施したときに得られるであろう生画像データの高輝度範囲に属する複数のRゲインを、1次関数F1rに従う補外演算によって推定する。ステップS353では、チャネルCH1の生画像データの高輝度範囲に属する複数のRゲインを、1次関数F2rに従う補外演算によって推定する。ステップS355では、ステップS351で求められた複数のRゲインからステップS353で求められた複数のRゲインをそれぞれ引き算し、高輝度用R補正データを算出する。ステップS355の処理が完了すると、上階層のルーチンに復帰する。 The extrapolation calculation process in step S35 is executed according to a subroutine shown in FIG. In step S351, a plurality of R gains that belong to the high luminance range of the raw image data that will be obtained when a series of processing in the channel CH1 is performed on the charge generated in the right imaging region IMR follows the linear function F1r. Estimated by extrapolation. In step S353, a plurality of R gains belonging to the high luminance range of the raw image data of channel CH1 are estimated by extrapolation according to the linear function F2r. In step S355, the R correction data for high luminance is calculated by subtracting the plurality of R gains obtained in step S353 from the plurality of R gains obtained in step S351. When the process of step S355 is completed, the process returns to the upper-level routine.
図14に示すステップS59の補外演算処理は図17に示すサブルーチンに従って実行され、図15に示すステップS81の補外演算処理は図18に示すサブルーチンに従って実行される。ただし、図17に示すステップS591〜S595の処理は、R成分に代えてG成分に注目する点を除き図16に示すステップS351〜S355の処理と同じである。また、図18に示すステップS811〜S815の処理は、R成分に代えてB成分に注目する点を除き図16に示すステップS351〜S355の処理と同じである。したがって、重複した説明は省略する。 The extrapolation calculation process of step S59 shown in FIG. 14 is executed according to the subroutine shown in FIG. 17, and the extrapolation calculation process of step S81 shown in FIG. 15 is executed according to the subroutine shown in FIG. However, the processing in steps S591 to S595 shown in FIG. 17 is the same as the processing in steps S351 to S355 shown in FIG. 16 except that attention is paid to the G component instead of the R component. 18 is the same as the process of steps S351 to S355 shown in FIG. 16 except that the process pays attention to the B component instead of the R component. Therefore, duplicate description is omitted.
以上の説明から分かるように、CCDイメージャ14は、左側撮像領域IMLおよび右側撮像領域IMRが形成された撮像面と、左側撮像領域IMLおよび右側撮像領域IMRにそれぞれ対応するチャネルCH1およびCH2とを有する。チャネルCH1およびCH2からそれぞれ出力された2つの部分画像の間のゲイン差は、LUT28r,28gおよび28bによって抑制される。抑制されたゲイン差を有する2つの部分画像は、メモリ制御回路38によって互いに結合される。
As can be seen from the above description, the
CPU30は、抑制処理を施される2つの部分画像の間のゲイン差を低輝度範囲について検出し(S43, S65, S87)、検出されたゲイン差に補間演算処理を施してLUT28r,28gおよび28bの低輝度設定値を補正する(S21)。
The
CPU30はまた、抑制処理を施される2つの部分画像の各々のゲインを高輝度範囲について検出し(S27, S31, S51, S55, S73, S77)、検出されたゲインに補外演算処理を施してLUT28r,28gおよび28bの高輝度設定値を補正する(S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85)。
The
このように、注目する輝度範囲が低輝度範囲であれば2つの部分画像の間のゲイン差が検出され、注目する輝度範囲が高輝度範囲であれば2つの部分画像の各々のゲインが検出される。また、低輝度範囲に関するLUT28r,28gおよび28bの動作特性は、検出されたゲイン差に対する補間演算処理によって補正され、高輝度範囲に関するLUT28r,28gおよび28bの動作特性は、検出されたゲインに対する補外演算処理によって補正される。
As described above, if the focused luminance range is the low luminance range, the gain difference between the two partial images is detected, and if the focused luminance range is the high luminance range, the gains of the two partial images are detected. The In addition, the operation characteristics of the
つまり、この実施例では、ゲインの変動態様が低輝度範囲と高輝度範囲とで異なることを考慮して、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を低輝度範囲と高輝度範囲とで異ならせるようにしている。これによって、画像の境界線の出現をより効果的に防止することができる。 That is, in this embodiment, taking into account that the variation mode of the gain differs between the low luminance range and the high luminance range, the detection target (gain difference, gain) and the correction method (interpolation calculation processing, extrapolation calculation processing) are set. The low luminance range and the high luminance range are made different. Thereby, the appearance of the boundary line of the image can be more effectively prevented.
なお、この実施例では、LUT28r,28gおよび28bによるゲイン調整処理に先立ってクランプ処理を行うようにしているが、クランプ処理をゲイン調整処理の後に実行するようにしてもよい。また、この実施例では、撮像面に形成される部分撮像領域の数は2つであるが、部分撮像領域の数は3以上であってもよい。
In this embodiment, the clamp process is performed prior to the gain adjustment process by the
10 …ディジタルカメラ
14 …イメージセンサ
22a,22b …クランプ回路
26a,26b …ブロック演算回路
28r,28g,28b …LUT
30 …CPU
34a …低輝度用レジスタ
34b …高輝度用レジスタ
DESCRIPTION OF SYMBOLS 10 ...
30 ... CPU
34a:
Claims (12)
前記複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差を抑制する抑制手段、
前記抑制手段によって抑制されたゲイン差を有する複数の部分画像を互いに結合する結合手段、
前記抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を第1明るさ範囲について検出する第1検出手段、
前記第1検出手段によって検出されたゲイン差に補間演算処理を施して前記抑制手段の動作特性を前記第1明るさ範囲について補正する第1補正手段、
前記抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを第2明るさ範囲について検出する第2検出手段、および
前記第2検出手段によって検出されたゲインに補外演算処理を施して前記抑制手段の動作特性を前記第2明るさ範囲について補正する第2補正手段を備える、電子カメラ。 An imaging means having an imaging surface on which a plurality of partial imaging areas are formed and a plurality of output paths respectively corresponding to the plurality of partial imaging areas;
Suppression means for suppressing a gain difference between the plurality of partial images respectively output from the plurality of output paths;
Combining means for combining a plurality of partial images having gain differences suppressed by the suppressing means;
First detection means for detecting a gain difference between a plurality of partial images subjected to suppression processing by the suppression means for a first brightness range;
First correction means for performing interpolation calculation processing on the gain difference detected by the first detection means to correct the operating characteristic of the suppression means for the first brightness range;
Second detection means for detecting a gain of each of the plurality of partial images subjected to suppression processing by the suppression means for a second brightness range; and extrapolation calculation processing is performed on the gain detected by the second detection means. An electronic camera comprising second correction means for correcting the operating characteristic of the suppression means for the second brightness range.
前記第1検出手段および前記第2検出手段の各々は前記判別手段の判別結果が肯定的であるとき検出動作を行う、請求項1ないし3のいずれかに記載の電子カメラ。 A discriminating unit for discriminating whether or not the plurality of partial images subjected to the suppression process by the suppression unit satisfy a flatness condition;
4. The electronic camera according to claim 1, wherein each of the first detection unit and the second detection unit performs a detection operation when a determination result of the determination unit is positive.
前記抑制手段は前記複数色にそれぞれ対応する複数の動作特性を有する、請求項1ないし4のいずれかに記載の電子カメラ。 The plurality of partial images have color information of a plurality of colors,
The electronic camera according to claim 1, wherein the suppression unit has a plurality of operating characteristics corresponding to the plurality of colors.
前記第1検出手段および前記第2検出手段の各々は前記抽出手段によって抽出される複数の小画像に注目する、請求項1ないし6のいずれかに記載の電子カメラ。 An extraction means for extracting a plurality of small images that respectively form the plurality of partial images;
The electronic camera according to claim 1, wherein each of the first detection unit and the second detection unit focuses on a plurality of small images extracted by the extraction unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005170721A JP4471890B2 (en) | 2005-06-10 | 2005-06-10 | Electronic camera |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005170721A JP4471890B2 (en) | 2005-06-10 | 2005-06-10 | Electronic camera |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2006345359A true JP2006345359A (en) | 2006-12-21 |
| JP4471890B2 JP4471890B2 (en) | 2010-06-02 |
Family
ID=37641955
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005170721A Expired - Fee Related JP4471890B2 (en) | 2005-06-10 | 2005-06-10 | Electronic camera |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4471890B2 (en) |
-
2005
- 2005-06-10 JP JP2005170721A patent/JP4471890B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP4471890B2 (en) | 2010-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4768448B2 (en) | Imaging device | |
| US8229217B2 (en) | Image processing method and apparatus, image processing program and medium storing this program | |
| JP4315971B2 (en) | Imaging device | |
| US8373769B2 (en) | Imaging apparatus, imaging processing method and recording medium | |
| US20130002936A1 (en) | Image pickup apparatus, image processing apparatus, and storage medium storing image processing program | |
| JP2008124764A (en) | Imaging system and image processing program | |
| JP5052189B2 (en) | Video processing apparatus and video processing program | |
| US7251057B2 (en) | Digital camera | |
| US7995120B2 (en) | Image brightness compensating apparatus and method, recorded medium recorded the program performing it | |
| US20070211165A1 (en) | Imaging device, method for controlling imaging device, program of method for controlling imaging device, recording medium in which program of method for controlling imaging device is recorded | |
| WO2008056566A1 (en) | Image signal processing apparatus, image signal processing program and image signal processing method | |
| JP3590242B2 (en) | Electronic imaging device | |
| JP2008305122A (en) | Image processing apparatus, image processing method, and program | |
| JP4471890B2 (en) | Electronic camera | |
| JP2006060744A (en) | Noise reduction device | |
| JP4026516B2 (en) | Image processing apparatus and method | |
| US7876366B2 (en) | Electronic camera | |
| JP4606306B2 (en) | Electronic camera | |
| JP2006217108A (en) | Electronic camera | |
| JP4698426B2 (en) | Electronic camera | |
| JP2007267072A (en) | Electronic camera | |
| JP2009022044A (en) | Image processing apparatus and image processing program | |
| JP4960597B2 (en) | White balance correction apparatus and method, and imaging apparatus | |
| JP2007020045A (en) | Electronic camera | |
| JP4804327B2 (en) | Electronic camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080530 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100202 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100302 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |