[go: up one dir, main page]

JP2006345359A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2006345359A
JP2006345359A JP2005170721A JP2005170721A JP2006345359A JP 2006345359 A JP2006345359 A JP 2006345359A JP 2005170721 A JP2005170721 A JP 2005170721A JP 2005170721 A JP2005170721 A JP 2005170721A JP 2006345359 A JP2006345359 A JP 2006345359A
Authority
JP
Japan
Prior art keywords
gain
electronic camera
suppression
partial images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005170721A
Other languages
Japanese (ja)
Other versions
JP4471890B2 (en
Inventor
Yoshitaka Anada
好孝 穴田
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005170721A priority Critical patent/JP4471890B2/en
Publication of JP2006345359A publication Critical patent/JP2006345359A/en
Application granted granted Critical
Publication of JP4471890B2 publication Critical patent/JP4471890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of more effectively preventing the appearance of a boundary line of images. <P>SOLUTION: A CCD imager 14 has an imaging face having a plurality of partial imaging areas formed therein and channels CH1 and CH2 corresponding to the plurality of partial imaging areas respectively. A gain difference between two partial images output from channels CH1 and CH2 is suppressed by LUTs 28r, 28g, and 28b. Two partial images having the suppressed gain difference are coupled together by a memory control circuit 38. A CPU 30 detects the gain difference between two partial images subjected to suppression processing, with respect to a low luminance range and subjects the detected gain difference to interpolating operation processing to correct low luminance set values of the LUTs 28r, 28g, and 28b. The CPU 30 detects respective gains of two partial images subjected to suppression processing, with respect to a high luminance range and subjects the detected gains to extrapolating operation processing to correct high luminance set values of LUTs 28r, 28g, and 28b. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、電子カメラに関し、特にたとえば、複数の撮像領域で生成された複数の部分画像を互いに結合して1つの画像を作成する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly, to an electronic camera that creates a single image by combining a plurality of partial images generated in a plurality of imaging regions.

従来のこの種の電子カメラの一例が、特許文献1に開示されている。この従来技術によれば、イメージセンサは、右チャネルおよび左チャネルを有する。撮像面の右側領域で生成された画像情報は右チャネルから出力され、撮像面の左側領域で生成された画像情報は左チャネルから出力される。出力された画像情報は、チャネル毎に黒レベル補正処理を施され、チャネル間のゲイン差が解消されるようにゲイン補正処理を施される。特に、ゲイン補正値は、右側領域および左側領域の境界を跨ぐ数画素に注目して決定される。これによって、右側領域および左側領域の境界線が再生画像に現れるのを防止することができる。
特開2002−252808号公報[H04N 5/335, 5/16, G06T 1/00,H01L 27/148]
An example of a conventional electronic camera of this type is disclosed in Patent Document 1. According to this prior art, the image sensor has a right channel and a left channel. Image information generated in the right region of the imaging surface is output from the right channel, and image information generated in the left region of the imaging surface is output from the left channel. The output image information is subjected to black level correction processing for each channel, and gain correction processing is performed so as to eliminate the gain difference between channels. In particular, the gain correction value is determined by paying attention to several pixels straddling the boundary between the right region and the left region. Thereby, it is possible to prevent the boundary line between the right region and the left region from appearing in the reproduced image.
JP 2002-252808 A [H04N 5/335, 5/16, G06T 1/00, H01L 27/148]

しかし、従来技術では、ゲイン補正値の決定にあたって、注目する1フレームにおける輝度や色の変化が考慮されない。このため、右側領域および左側領域の境界の周辺にエッジが現れると、ゲイン補正値が最適値からずれてしまい、境界線の出現を効果的に防止できない可能性がある。   However, in the prior art, when determining the gain correction value, changes in luminance and color in one frame of interest are not taken into consideration. For this reason, if an edge appears around the boundary between the right region and the left region, the gain correction value may deviate from the optimum value, and the appearance of the boundary line may not be effectively prevented.

それゆえに、この発明の主たる目的は、画像の境界線の出現をより効果的に防止できる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can more effectively prevent the appearance of image boundary lines.

請求項1の発明に従う電子カメラ(10)は、複数の部分撮像領域が形成された撮像面と複数の部分撮像領域にそれぞれ対応する複数の出力経路とを有する撮像手段(14)、複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差を抑制する抑制手段(28r, 28g, 28b)、抑制手段によって抑制されたゲイン差を有する複数の部分画像を互いに結合する結合手段(38)、抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を第1明るさ範囲について検出する第1検出手段(60, 62, 64, S43, S65, S87)、第1検出手段によって検出されたゲイン差に補間演算処理を施して抑制手段の動作特性を第1明るさ範囲について補正する第1補正手段(S21)、抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを第2明るさ範囲について検出する第2検出手段(S27, S31, S51, S55, S73, S77)、および第2検出手段によって検出されたゲインに補外演算処理を施して抑制手段の動作特性を第2明るさ範囲について補正する第2補正手段(S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85)を備える。   An electronic camera (10) according to the invention of claim 1 includes an imaging means (14) having an imaging surface on which a plurality of partial imaging regions are formed and a plurality of output paths respectively corresponding to the plurality of partial imaging regions, and a plurality of outputs. Suppressing means (28r, 28g, 28b) for suppressing a gain difference between a plurality of partial images respectively output from the path, and a combining means (38 for combining a plurality of partial images having a gain difference suppressed by the suppressing means with each other ), First detection means (60, 62, 64, S43, S65, S87) for detecting the gain difference between the plurality of partial images subjected to the suppression processing by the suppression means for the first brightness range, the first detection First correction means (S21) for performing interpolation calculation processing on the gain difference detected by the means to correct the operating characteristic of the suppression means for the first brightness range, and for a plurality of partial images subjected to the suppression processing by the suppression means. Each gain for the second brightness range The second detection means (S27, S31, S51, S55, S73, S77) to be output and the gain detected by the second detection means are subjected to extrapolation calculation processing, and the operating characteristics of the suppression means are set for the second brightness range. Second correcting means for correcting (S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85) is provided.

撮像手段は、複数の部分撮像領域が形成された撮像面と、複数の部分撮像領域にそれぞれ対応する複数の出力経路とを有する。複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差は、抑制手段によって抑制される。抑制されたゲイン差を有する複数の部分画像は、結合手段によって互いに結合される。   The imaging means has an imaging surface on which a plurality of partial imaging areas are formed, and a plurality of output paths respectively corresponding to the plurality of partial imaging areas. The gain difference between the plurality of partial images respectively output from the plurality of output paths is suppressed by the suppression unit. A plurality of partial images having suppressed gain differences are combined with each other by the combining means.

第1検出手段は、抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を、第1明るさ範囲について検出する。第1補正手段は、第1検出手段によって検出されたゲイン差に補間演算処理を施して、抑制手段の動作特性を第1明るさ範囲について補正する。   The first detection unit detects a gain difference between the plurality of partial images subjected to the suppression process by the suppression unit for the first brightness range. The first correction unit performs an interpolation calculation process on the gain difference detected by the first detection unit, and corrects the operation characteristic of the suppression unit for the first brightness range.

一方、第2検出手段は、抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを、第2明るさ範囲について検出する。第2補正手段は、第2検出手段によって検出されたゲインに補外演算処理を施して、抑制手段の動作特性を第2明るさ範囲について補正する。   On the other hand, a 2nd detection means detects the gain of each of the some partial image to which the suppression process is performed by the suppression means about the 2nd brightness range. The second correction unit corrects the operating characteristic of the suppression unit for the second brightness range by performing extrapolation calculation processing on the gain detected by the second detection unit.

このように、注目する明るさ範囲が第1明るさ範囲であれば複数の部分画像の間のゲイン差が検出され、注目する明るさ範囲が第2明るさ範囲であれば複数の部分画像の各々のゲインが検出される。また、第1明るさ範囲に関する抑制手段の動作特性は検出されたゲイン差に対する補間演算処理によって補正され、第2明るさ範囲に関する抑制手段の動作特性は検出されたゲインに対する補外演算処理によって補正される。   As described above, if the focused brightness range is the first brightness range, a gain difference between the plurality of partial images is detected. If the focused brightness range is the second brightness range, the plurality of partial images are detected. Each gain is detected. In addition, the operation characteristic of the suppression unit relating to the first brightness range is corrected by an interpolation calculation process for the detected gain difference, and the operation characteristic of the suppression unit relating to the second brightness range is corrected by an extrapolation calculation process for the detected gain. Is done.

つまり、請求項1の発明では、ゲインの変動態様が第1明るさ範囲と第2明るさ範囲とで異なることを考慮して、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を第1明るさ範囲と第2明るさ範囲とで異ならせるようにしている。これによって、画像の境界線の出現をより効果的に防止することができる。   That is, in the first aspect of the invention, taking into consideration that the variation mode of the gain is different between the first brightness range and the second brightness range, the detection target (gain difference, gain) and the correction method (interpolation calculation process, The extrapolation calculation process is made different between the first brightness range and the second brightness range. Thereby, the appearance of the boundary line of the image can be more effectively prevented.

請求項2の発明に従う電子カメラは、請求項1に従属し、第2補正手段は、入射光量に対するゲインの変化を示す関係式を複数の部分画像の各々について特定する特定手段(S29, S33, S53, S57, S75, S79)、および特定手段によって特定された複数の関係式の1つによって規定されるゲインと複数の関係式の他の1つによって規定されるゲインとの差分を補外演算処理によって検出するゲイン差検出手段(S35, S59, S81)を含む。   An electronic camera according to a second aspect of the invention is dependent on the first aspect, wherein the second correction means specifies a relational expression indicating a change in gain with respect to the amount of incident light for each of the plurality of partial images (S29, S33, S53, S57, S75, S79) and extrapolation of the difference between the gain defined by one of the plurality of relational expressions specified by the specifying means and the gain specified by the other one of the plurality of relational expressions Gain difference detection means (S35, S59, S81) for detecting by processing is included.

請求項3の発明に従う電子カメラは、請求項2に従属し、特定手段は最小2乗法を用いて関係式を特定する。   The electronic camera according to the invention of claim 3 is dependent on claim 2, and the specifying means specifies the relational expression using the least square method.

請求項4の発明に従う電子カメラは、請求項1ないし3のいずれかに従属し、抑制手段によって抑制処理を施される複数の部分画像が平坦度条件を満足するか否かを判別する判別手段(S23, S47, S69)をさらに備え、第1検出手段および第2検出手段の各々は判別手段の判別結果が肯定的であるとき検出動作を行う。平坦度条件が満足されるときのゲインに注目することで、抑制手段の動作特性を正確に補正することができる。   An electronic camera according to a fourth aspect of the invention is dependent on any one of the first to third aspects, and is a discriminating unit that discriminates whether or not a plurality of partial images subjected to suppression processing by the suppression unit satisfy a flatness condition. (S23, S47, S69), and each of the first detection means and the second detection means performs a detection operation when the determination result of the determination means is affirmative. By paying attention to the gain when the flatness condition is satisfied, the operation characteristic of the suppressing means can be accurately corrected.

請求項5の発明に従う電子カメラは、請求項1ないし4のいずれかに従属し、複数の部分画像は複数色の色情報を有し、抑制手段は複数色にそれぞれ対応する複数の動作特性を有する。この結果、複数の部分画像の間のゲイン差は色毎に抑制され、境界線の出現を効果的に防止できる。   An electronic camera according to a fifth aspect of the present invention is dependent on any one of the first to fourth aspects, wherein the plurality of partial images have color information of a plurality of colors, and the suppression means has a plurality of operation characteristics corresponding to the plurality of colors, respectively. Have. As a result, the gain difference between the plurality of partial images is suppressed for each color, and the appearance of the boundary line can be effectively prevented.

請求項6の発明に従う電子カメラは、請求項5に従属し、第1補正手段および第2補正手段の各々は複数の部分画像が有する色毎に補正動作を行う。   An electronic camera according to a sixth aspect of the invention is dependent on the fifth aspect, and each of the first correction means and the second correction means performs a correction operation for each color of the plurality of partial images.

請求項7の発明に従う電子カメラは、請求項1ないし6のいずれかに従属し、複数の部分画像をそれぞれ形成する複数の小画像を抽出する抽出手段(46)をさらに備え、第1検出手段および第2検出手段の各々は抽出手段によって抽出される複数の小画像に注目する。   The electronic camera according to the invention of claim 7 is dependent on any one of claims 1 to 6, and further comprises extraction means (46) for extracting a plurality of small images respectively forming a plurality of partial images, and the first detection means. Each of the second detection means pays attention to a plurality of small images extracted by the extraction means.

請求項8の発明に従う電子カメラは、請求項7に従属し、第1検出手段は、抽出手段によって抽出された複数の小画像の各々の成分の平均値を算出する平均値算出手段(60, 62, 64)、および平均値算出手段によって求められた複数の平均値の間の差分値をゲイン差として算出する差分値算出手段(S43, S65, S87)を含む。   An electronic camera according to the invention of claim 8 is dependent on claim 7, and the first detection means calculates an average value calculation means (60, 60) for calculating an average value of each component of the plurality of small images extracted by the extraction means. 62, 64), and difference value calculation means (S43, S65, S87) for calculating a difference value between a plurality of average values obtained by the average value calculation means as a gain difference.

請求項9の発明に従う電子カメラは、請求項7または8に従属し、抽出手段によって抽出される複数の小画像は複数の部分画像の境界の近傍に存在する。   The electronic camera according to the invention of claim 9 is dependent on claim 7 or 8, and the plurality of small images extracted by the extracting means are present in the vicinity of the boundaries of the plurality of partial images.

請求項10の発明に従う電子カメラは、請求項1ないし9のいずれかに従属し、複数の部分画像の基準レベルを互いに一致させる調整手段(22a, 22b)をさらに備える。   An electronic camera according to a tenth aspect of the invention is dependent on any one of the first to ninth aspects, and further includes adjusting means (22a, 22b) for matching the reference levels of the plurality of partial images with each other.

請求項11の発明に従う電子カメラは、請求項10に従属し、調整手段は抑制手段の抑制動作に先立ってレベル調整を行う。   The electronic camera according to the invention of claim 11 is dependent on claim 10, and the adjusting means performs level adjustment prior to the suppressing operation of the suppressing means.

請求項12の発明に従う電子カメラは、請求項1ないし11のいずれかに従属し、第1明るさ範囲は第2明るさ範囲よりも暗い範囲である。   The electronic camera according to the invention of claim 12 is dependent on any one of claims 1 to 11, and the first brightness range is a darker range than the second brightness range.

この発明によれば、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を第1明るさ範囲と第2明るさ範囲とで異ならせるようにしているため、画像の境界線の出現をより効果的に防止することができる。   According to the present invention, the detection target (gain difference, gain) and the correction method (interpolation calculation processing, extrapolation calculation processing) are made different between the first brightness range and the second brightness range. The appearance of the boundary line can be prevented more effectively.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルカメラ(電子カメラ)10は、光学レンズ12を含む。被写界の光学像は、光学レンズ12を介してCCDイメージャ14の撮像面に照射される。撮像面は、R(Red),G(Green)またはB(Blue)のフィルタ要素がベイヤ態様で配列された色フィルタ14fによって覆われる。   Referring to FIG. 1, a digital camera (electronic camera) 10 of this embodiment includes an optical lens 12. The optical image of the object scene is irradiated onto the imaging surface of the CCD imager 14 via the optical lens 12. The imaging surface is covered with a color filter 14f in which R (Red), G (Green), or B (Blue) filter elements are arranged in a Bayer manner.

このため、Rの色情報を有する電荷はRのフィルタ要素によって覆われた受光素子であるR画素で生成され、Gの色情報を有する電荷はGのフィルタ要素によって覆われた受光素子であるG画素で生成され、そしてBの色情報を有する電荷はBのフィルタ要素によって覆われた受光素子であるB画素で生成される。   Therefore, the charge having R color information is generated by the R pixel, which is a light receiving element covered by the R filter element, and the charge having G color information is G, which is the light receiving element covered by the G filter element. A charge generated in the pixel and having B color information is generated in the B pixel which is a light receiving element covered by the B filter element.

キー入力装置32によって撮影操作が行われると、TG(Timing Generator)18がCPU30によって起動される。TG18は、水平同期信号Hsyncおよび垂直同期信号Vsyncを含む複数のタイミング信号を発生する。ドライバ16aおよび16bの各々は、かかるタイミング信号に応答してCCDイメージャ14を駆動する。これによって、1フレームに相当する電荷つまり生画像信号が、垂直同期信号Vsyncが発生する毎に、CCDイメージャ14から出力される。   When a photographing operation is performed by the key input device 32, a TG (Timing Generator) 18 is activated by the CPU 30. The TG 18 generates a plurality of timing signals including a horizontal synchronization signal Hsync and a vertical synchronization signal Vsync. Each of the drivers 16a and 16b drives the CCD imager 14 in response to the timing signal. As a result, a charge corresponding to one frame, that is, a raw image signal is output from the CCD imager 14 every time the vertical synchronization signal Vsync is generated.

図2を参照して、CCDイメージャ14の撮像面は、左側撮像領域IMLおよび右側撮像領域IMRを有する。左側撮像領域IMLは、撮像面の中心から垂直方向に伸びる境界線BLの左側に形成され、右側撮像領域IMRは、同じ境界線BLの右側に形成される。つまり、左側撮像領域IMLおよび右側撮像領域IMRは、境界線BLで互いに接する。   Referring to FIG. 2, the imaging surface of CCD imager 14 has a left imaging area IML and a right imaging area IMR. The left imaging region IML is formed on the left side of the boundary line BL extending in the vertical direction from the center of the imaging surface, and the right imaging region IMR is formed on the right side of the same boundary line BL. That is, the left imaging area IML and the right imaging area IMR are in contact with each other at the boundary line BL.

左側撮像領域IMLおよび右側撮像領域IMRの各々には、図示しない複数の垂直転送レジスタが割り当てられる。また、左側撮像領域IMLには水平転送レジスタHLが割り当てられ、右側撮像領域IMRには水平転送レジスタHRが割り当てられる。さらに、水平転送レジスタHLの出力端にはアンプAPLが設けられ、水平転送レジスタHRの出力端にはアンプAPRが設けられる。   A plurality of vertical transfer registers (not shown) are assigned to each of the left imaging area IML and the right imaging area IMR. Further, a horizontal transfer register HL is assigned to the left imaging area IML, and a horizontal transfer register HR is assigned to the right imaging area IMR. Further, an amplifier APL is provided at the output end of the horizontal transfer register HL, and an amplifier APR is provided at the output end of the horizontal transfer register HR.

したがって、左側撮像領域IML上の複数の受光素子で生成された電荷は、図示しない垂直転送レジスタ,水平転送レジスタHLおよびアンプAPLを介して、チャネルCH1から出力される。右側撮像領域IMR上の複数の受光素子で生成された電荷も同様に、図示しない垂直転送レジスタ,水平転送レジスタHRおよびアンプAPRを介して、チャネルCH2から出力される。   Therefore, the charges generated by the plurality of light receiving elements on the left imaging region IML are output from the channel CH1 via the vertical transfer register, the horizontal transfer register HL, and the amplifier APL (not shown). Similarly, the charges generated by the plurality of light receiving elements on the right imaging region IMR are also output from the channel CH2 via a vertical transfer register, a horizontal transfer register HR, and an amplifier APR (not shown).

つまり、ドライバ16aは、TG18からのタイミング信号に基づいて左側撮像領域IMLにラスタ走査を施し、左側1/2フレームの生画像信号をチャネルCH1から出力する。ドライバ16bも同様に、TG18からのタイミング信号に基づいて右側撮像領域IMRにラスタ走査を施し、右側1/2フレームの生画像信号をチャネルCH2から出力する。   That is, the driver 16a performs raster scanning on the left imaging region IML based on the timing signal from the TG 18, and outputs a left half frame raw image signal from the channel CH1. Similarly, the driver 16b performs raster scanning on the right imaging region IMR based on the timing signal from the TG 18, and outputs the raw image signal of the right half frame from the channel CH2.

ただし、水平転送レジスタHRの転送方向は、水平転送レジスタHLの転送方向と逆の方向である。このため、ラスタ走査方向もまた、左側撮像領域IMLおよび右側撮像領域IMRの間で互いに反転する。   However, the transfer direction of the horizontal transfer register HR is opposite to the transfer direction of the horizontal transfer register HL. For this reason, the raster scanning direction is also reversed between the left imaging area IML and the right imaging area IMR.

CDS/AGC/AD回路20aは、チャネルCH1の生画像信号に相関2重サンプリング,自動ゲイン調整およびA/D変換の一連の処理を施す。同様に、CDS/AGC/AD回路20bは、チャネルCH2の生画像信号に相関2重サンプリング,自動ゲイン調整およびA/D変換の一連の処理を施す。なお、CDS/AGC/AD回路20aおよび20bも、TG18から出力されたタイミング信号に同期して、上述の処理を行う。   The CDS / AGC / AD circuit 20a performs a series of processes of correlated double sampling, automatic gain adjustment, and A / D conversion on the raw image signal of the channel CH1. Similarly, the CDS / AGC / AD circuit 20b performs a series of processes of correlated double sampling, automatic gain adjustment, and A / D conversion on the raw image signal of the channel CH2. Note that the CDS / AGC / AD circuits 20a and 20b also perform the above-described processing in synchronization with the timing signal output from the TG 18.

クランプ回路22aは、CDS/AGC/AD回路20aから出力された生画像データの基準レベルを、レベル調整回路24によって設定された黒レベルに合わせる。クランプ回路22bも同様に、CDS/AGC/AD回路20bから出力された生画像データの基準レベルを、レベル調整回路24によって設定された黒レベルに合わせる。   The clamp circuit 22 a matches the reference level of the raw image data output from the CDS / AGC / AD circuit 20 a with the black level set by the level adjustment circuit 24. Similarly, the clamp circuit 22 b adjusts the reference level of the raw image data output from the CDS / AGC / AD circuit 20 b to the black level set by the level adjustment circuit 24.

クランプ回路22aから出力された生画像データは、メモリ制御回路38によってSDRAM36に書き込まれる。また、クランプ回路22bから出力された生画像データは、LUT(Look Up Table)28rによるR成分のゲイン調整,LUT28gによるG成分のゲイン調整およびLUT28bによるB成分のゲイン調整を経て、メモリ制御回路38によってSDRAM36に書き込まれる。   The raw image data output from the clamp circuit 22 a is written into the SDRAM 36 by the memory control circuit 38. The raw image data output from the clamp circuit 22b undergoes R component gain adjustment by a LUT (Look Up Table) 28r, G component gain adjustment by the LUT 28g, and B component gain adjustment by the LUT 28b, and then the memory control circuit 38. Is written in the SDRAM 36.

SDRAM36は、図3に示すように生画像領域36a,YUV画像領域36bおよび圧縮画像領域36cを有する。メモリ制御回路38は、チャネルCH1の生画像データを生画像領域36aの左側に格納し、チャネルCH2の生画像データを生画像領域36aの右側に格納する。こうして生画像領域36aに格納された生画像データは、撮像された1フレームの被写界像を表す。また、LUT28r,28gおよび28bによるゲイン調整によってチャネルCH1およびCH2の間での生画像データのゲイン差が解消され、境界線の出現が防止される。   As shown in FIG. 3, the SDRAM 36 includes a raw image area 36a, a YUV image area 36b, and a compressed image area 36c. The memory control circuit 38 stores the raw image data of the channel CH1 on the left side of the raw image region 36a, and stores the raw image data of the channel CH2 on the right side of the raw image region 36a. The raw image data stored in the raw image area 36a in this way represents a captured one-field scene image. Further, the gain adjustment by the LUTs 28r, 28g, and 28b eliminates the gain difference of the raw image data between the channels CH1 and CH2, and prevents the appearance of the boundary line.

なお、クランプ回路22aおよび22bの各々から出力される生画像データは12ビットで表現される。このため、LUT28r,28gおよび28bの各々は、4096個の設定値を有する。   The raw image data output from each of the clamp circuits 22a and 22b is represented by 12 bits. Therefore, each of the LUTs 28r, 28g, and 28b has 4096 set values.

後処理回路40は、このような生画像データをメモリ制御回路38を通してSDRAM36から読み出し、読み出された生画像データに色分離,YUV変換などの処理を施し、そしてYUV形式の画像データをメモリ制御回路38を通してYUV画像領域36bに書き込む。JPEGコーデック42は、YUV画像領域36bに格納された画像データをメモリ制御回路38を通して読み出し、読み出された画像データにJPEG圧縮を施し、そして圧縮画像データをメモリ制御回路38を通して圧縮画像領域36cに書き込む。このような圧縮動作は、垂直同期信号Vsyncが発生する毎に実行される。   The post-processing circuit 40 reads out such raw image data from the SDRAM 36 through the memory control circuit 38, performs processing such as color separation and YUV conversion on the read raw image data, and performs memory control on the YUV format image data. The YUV image area 36b is written through the circuit 38. The JPEG codec 42 reads the image data stored in the YUV image area 36b through the memory control circuit 38, performs JPEG compression on the read image data, and passes the compressed image data to the compressed image area 36c through the memory control circuit 38. Write. Such a compression operation is executed every time the vertical synchronization signal Vsync is generated.

CPU30は、圧縮画像領域36cに蓄積された圧縮画像データをメモリ制御回路38を通して読み出し、読み出された圧縮画像データをI/F44を通して記録媒体46に記録する。こうして、複数フレームの圧縮画像データを収めた動画像ファイルが記録媒体46に形成される。   The CPU 30 reads the compressed image data stored in the compressed image area 36 c through the memory control circuit 38 and records the read compressed image data on the recording medium 46 through the I / F 44. Thus, a moving image file containing a plurality of frames of compressed image data is formed on the recording medium 46.

図4を参照して、クランプ回路22aに入力されるチャネルCH1の生画像データのR成分,G成分およびB成分がそれぞれ入射光量に対して曲線C1rin,C1ginおよびC1binを描く場合、クランプ回路22aから出力されるチャネルCH1の生画像データのR成分,G成分およびB成分はそれぞれ入射光量に対して曲線C1rout,C1goutおよびC1boutを描く。また、クランプ回路22bに入力されるチャネルCH2の生画像データのR成分,G成分およびB成分がそれぞれ入射光量に対して曲線C2rin,C2ginおよびC2binを描く場合、クランプ回路22bから出力されるチャネルCH2の生画像データのR成分,G成分およびB成分はそれぞれ入射光量に対して曲線C2rout,C2goutおよびC2boutを描く。   Referring to FIG. 4, when the R component, G component, and B component of the raw image data of channel CH1 input to clamp circuit 22a draw curves C1rin, C1gin, and C1bin with respect to the incident light amount, respectively, from clamp circuit 22a The R component, G component, and B component of the output raw image data of the channel CH1 draw curves C1rout, C1gout, and C1bout with respect to the incident light amount, respectively. Further, when the R component, G component, and B component of the raw image data of the channel CH2 input to the clamp circuit 22b draw curves C2rin, C2gin, and C2bin with respect to the incident light amount, the channel CH2 output from the clamp circuit 22b. The R component, G component, and B component of the raw image data of FIG.

アンプAPLおよびAPRの増幅特性の相違から、生画像データの黒レベルおよびゲインもまたチャネルCH1およびCH2の間で相違する。このうち黒レベルのずれが、クランプ回路22a,22bおよびレベル調整回路24によって解消される。   Due to the difference in amplification characteristics of the amplifiers APL and APR, the black level and gain of the raw image data also differ between the channels CH1 and CH2. Of these, the black level shift is eliminated by the clamp circuits 22 a and 22 b and the level adjustment circuit 24.

なお、図4によれば、複数のレベル域LV1〜LV10が生画像データのダイナミックレンジに割り当てられる。このうち、レベル域LV1〜LV4は低輝度範囲(第1明るさ範囲)を形成し、レベル域LV5〜LV10は高輝度範囲(第2明るさ範囲)を形成する。   According to FIG. 4, a plurality of level ranges LV1 to LV10 are assigned to the dynamic range of the raw image data. Among these, the level areas LV1 to LV4 form a low luminance range (first brightness range), and the level areas LV5 to LV10 form a high luminance range (second brightness range).

チャネルCH1およびCH2の間のゲインのずれは、次の要領で解消される。クランプ回路22aから出力された生画像データはブロック演算回路26aに与えられ、クランプ回路22bから出力された生画像データはブロック演算回路26bに与えられる。図5を参照して、ブロック演算回路26aは、境界線BLに近接するように左側撮像領域IMLに割り当てられた境界ブロックB1L,B2L,…BnLの各々に属する小画像について、高周波成分の色毎の積算値と画像レベルの色毎の平均値を求める。ブロック演算回路26bは、境界線BLに近接するように右側撮像領域IMRに割り当てられた境界ブロックB1R,B2R,…BnRの各々に属する小画像について、高周波成分の色毎の積分値と画像レベルの色毎の平均値を求める。   The gain shift between the channels CH1 and CH2 is eliminated in the following manner. The raw image data output from the clamp circuit 22a is applied to the block arithmetic circuit 26a, and the raw image data output from the clamp circuit 22b is applied to the block arithmetic circuit 26b. Referring to FIG. 5, the block arithmetic circuit 26 a performs, for each small image belonging to each of the boundary blocks B <b> 1 </ b> L, B <b> 2 </ b> L,. And an average value for each color of the image level. For the small images belonging to each of the boundary blocks B1R, B2R,... BnR assigned to the right imaging region IMR so as to be close to the boundary line BL, the block arithmetic circuit 26b determines the integration value and image level of the high-frequency component for each color. Find the average value for each color.

ブロック演算回路26aおよび26bの各々は、詳しくは、図6に示すように構成される。クランプ回路22aまたは22bから出力された生画像データは、ブロック抽出回路46に与えられる。ブロック抽出回路46は、境界ブロックB1L〜BnLの各々あるいは境界ブロックB1R〜BnRの各々に属する生画像データを抽出する。   Specifically, each of the block arithmetic circuits 26a and 26b is configured as shown in FIG. The raw image data output from the clamp circuit 22a or 22b is given to the block extraction circuit 46. The block extraction circuit 46 extracts raw image data belonging to each of the boundary blocks B1L to BnL or each of the boundary blocks B1R to BnR.

R差分値算出回路48は、抽出された生画像データのうち隣り合うR画素の差分値であるR差分値を算出する。G差分値算出回路50は、抽出された生画像データのうち隣り合うG画素の差分値であるG差分値を算出する。抽出された生画像データのうち隣り合うB画素の差分値であるB差分値を算出する。   The R difference value calculation circuit 48 calculates an R difference value that is a difference value between adjacent R pixels in the extracted raw image data. The G difference value calculation circuit 50 calculates a G difference value that is a difference value between adjacent G pixels in the extracted raw image data. A B difference value that is a difference value between adjacent B pixels in the extracted raw image data is calculated.

積算回路54は算出されたR差分値の絶対値を境界ブロック毎に積算し、積算回路56は算出されたG差分値の絶対値を境界ブロック毎に積算し、そして積算回路58は算出されたB差分値の絶対値を境界ブロック毎に積算する。これによって、同じ境界ブロックに対応する積算値Rh,GhおよびBhが、積算回路54,56および58からそれぞれ出力される。   The integration circuit 54 integrates the absolute value of the calculated R difference value for each boundary block, the integration circuit 56 integrates the absolute value of the calculated G difference value for each boundary block, and the integration circuit 58 is calculated. The absolute value of the B difference value is integrated for each boundary block. Thereby, integrated values Rh, Gh and Bh corresponding to the same boundary block are output from the integrating circuits 54, 56 and 58, respectively.

R平均値算出回路60は、ブロック抽出回路46からの生画像データのうちR画素のレベルを境界ブロック毎に平均し、G平均値算出回路62は、ブロック抽出回路46からの生画像データのうちG画素のレベルを境界ブロック毎に平均し、そしてB平均値算出回路64は、ブロック抽出回路46からの生画像データのうちB画素のレベルを境界ブロック毎に平均する。これによって、同じ境界ブロックに対応する平均値Rav,GavおよびBavが、R平均値算出回路60,G平均値算出回路62およびB平均値算出回路64からそれぞれ出力される。   The R average value calculating circuit 60 averages the R pixel levels in the raw image data from the block extracting circuit 46 for each boundary block, and the G average value calculating circuit 62 is included in the raw image data from the block extracting circuit 46. The level of the G pixel is averaged for each boundary block, and the B average value calculation circuit 64 averages the level of the B pixel in the raw image data from the block extraction circuit 46 for each boundary block. As a result, average values Rav, Gav, and Bav corresponding to the same boundary block are output from the R average value calculation circuit 60, the G average value calculation circuit 62, and the B average value calculation circuit 64, respectively.

図1に戻って、ブロック演算回路26aおよび26bの各々は、こうして算出された積算値Rh,Gh,Bhおよび平均値Rav,Gav,BavをCPU30に与える。CPU30はまず、互いに隣接する2つの境界ブロックBKLおよびBKR(K:1〜n)の小画像が平坦であるか否かを判別する。   Returning to FIG. 1, each of the block arithmetic circuits 26 a and 26 b gives the integrated values Rh, Gh, Bh and average values Rav, Gav, Bav thus calculated to the CPU 30. First, the CPU 30 determines whether or not the small images of the two boundary blocks BKL and BKR (K: 1 to n) adjacent to each other are flat.

注目する2つの境界ブロックの各々で求められた積算値Rhが閾値TH未満であれば、これらの境界ブロックに属する小画像のR成分は平坦であると判別される。注目する2つの境界ブロックの各々で求められた積算値Ghが閾値TH未満であれば、これらの境界ブロックに属する小画像のG成分は平坦であると判別される。注目する2つの境界ブロックの各々で求められた積算値Bhが閾値TH未満であれば、これらの境界ブロックに属する小画像のB成分は平坦であると判別される。   If the integrated value Rh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the R component of the small image belonging to these boundary blocks is flat. If the integrated value Gh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the G component of the small image belonging to these boundary blocks is flat. If the integrated value Bh obtained in each of the two boundary blocks of interest is less than the threshold value TH, it is determined that the B component of the small image belonging to these boundary blocks is flat.

CPU30は、R成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Rhを閾値THrと比較し、G成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Ghを閾値THgと比較し、そしてB成分が平坦であると判別された2つの境界ブロックのうち境界ブロックBKRで求められた積分値Bhを閾値THbと比較する。なお、閾値THr,THgおよびTHbは、図4に示す低輝度範囲の最大値を示す。   The CPU 30 compares the integrated value Rh obtained by the boundary block BKR out of the two boundary blocks determined to have the R component flat, and compares the threshold value THr with the two boundary blocks determined to have the G component flat. The integral value Gh obtained by the boundary block BKR is compared with the threshold value THg, and the integral value Bh obtained by the boundary block BKR among the two boundary blocks determined to have a flat B component is compared with the threshold value THb. Compare. Note that the threshold values THr, THg, and THb indicate the maximum values in the low luminance range shown in FIG.

積分値Rhが閾値THrを下回るときはR成分によって再現される画像は暗いと判別され、積分値Rhが閾値THr以上のときはR成分によって再現される画像は明るいと判別される。同様に、積分値Ghが閾値THgを下回るときはG成分によって再現される画像は暗いと判別され、積分値Ghが閾値THg以上のときはG成分によって再現される画像は明るいと判別される。さらに、積分値Bhが閾値THbを下回るときはB成分によって再現される画像は暗いと判別され、積分値Bhが閾値THb以上のときはB成分によって再現される画像は明るいと判別される。   When the integral value Rh is lower than the threshold value THr, the image reproduced by the R component is determined to be dark, and when the integral value Rh is equal to or greater than the threshold value THr, the image reproduced by the R component is determined to be bright. Similarly, when the integral value Gh is lower than the threshold value THg, the image reproduced by the G component is determined to be dark, and when the integral value Gh is equal to or greater than the threshold value THg, the image reproduced by the G component is determined to be bright. Further, when the integral value Bh is less than the threshold value THb, the image reproduced by the B component is determined to be dark, and when the integral value Bh is equal to or greater than the threshold value THb, the image reproduced by the B component is determined to be bright.

R成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Ravに基づいて差分値ΔRavを算出する。また、G成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Gavに基づいて差分値ΔGavを算出する。さらに、B成分に基づく画像が暗いと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Bavに基づいて差分値ΔBavを算出する。   When it is determined that the image based on the R component is dark, the CPU 30 calculates the difference value ΔRav based on the two average values Rav obtained from the two boundary blocks of interest. When it is determined that the image based on the G component is dark, the CPU 30 calculates the difference value ΔGav based on the two average values Gav respectively obtained from the two boundary blocks of interest. Further, when it is determined that the image based on the B component is dark, the CPU 30 calculates the difference value ΔBav based on the two average values Bav respectively obtained from the two boundary blocks of interest.

差分値ΔRavは、境界ブロックBKLの平均値Ravから境界ブロックBKRの平均値Ravを引き算することによって求められ、差分値ΔGavは、境界ブロックBKLの平均値Gavから境界ブロックBKRの平均値Gavを引き算することによって求められ、差分値ΔBavは、境界ブロックBKLの平均値Bavから境界ブロックBKRの平均値Bavを引き算することによって求められる。   The difference value ΔRav is obtained by subtracting the average value Rav of the boundary block BKR from the average value Rav of the boundary block BKL, and the difference value ΔGav is obtained by subtracting the average value Gav of the boundary block BKR from the average value Gav of the boundary block BKL. The difference value ΔBav is obtained by subtracting the average value Bav of the boundary block BKR from the average value Bav of the boundary block BKL.

こうして求められた差分値ΔRav,ΔGav,ΔBavおよび境界ブックBKRで求められた平均値Rav,Gav,Bavは、図7に示す低輝度用レジスタ34aに書き込まれる。図7によれば、レベル域LV1〜LV4の各々に5つの欄が割り当てられる。平均値Rav,Gav,Bavの各々は、自分が属するレベル域の欄に、数値が小さい方から順に書き込まれる。差分値ΔRav,ΔGav,ΔBavはそれぞれ、関連する平均値Rav,Gav,Bavに割り当てられる。   The difference values ΔRav, ΔGav, ΔBav obtained in this way and the average values Rav, Gav, Bav obtained from the boundary book BKR are written in the low luminance register 34a shown in FIG. According to FIG. 7, five columns are assigned to each of the level areas LV1 to LV4. Each of the average values Rav, Gav, and Bav is written in the level area column to which the average value belongs in order from the smallest numerical value. The difference values ΔRav, ΔGav, ΔBav are assigned to the associated average values Rav, Gav, Bav, respectively.

たとえば、境界ブロックBKRの平均値Rav,GavおよびBavがそれぞれレベル域LV3,LV4およびLV1に属する場合、平均値Ravおよびこれに関連する差分値ΔRavは低輝度用レジスタ34aのレベル域LV3の欄に書き込まれ、平均値Gavおよびこれに関連する差分値ΔGavは低輝度用レジスタ34aのレベル域LV4の欄に書き込まれ、そして平均値Bavおよびこれに関連する差分値ΔBavは低輝度用レジスタ34aのレベル域LV1の欄に書き込まれる。   For example, when the average values Rav, Gav, and Bav of the boundary block BKR belong to the level areas LV3, LV4, and LV1, respectively, the average value Rav and the difference value ΔRav related thereto are stored in the level area LV3 column of the low luminance register 34a. The average value Gav and the difference value ΔGav related thereto are written to the column of the level area LV4 of the low luminance register 34a, and the average value Bav and the difference value ΔBav related thereto are the levels of the low luminance register 34a. It is written in the field LV1.

低輝度用レジスタ34aの全ての欄が数値によって埋められると、低輝度用レジスタ34aが完成する。CPU30は、低輝度レジスタ34aに書き込まれた20個の差分値ΔRavに補間演算を施して低輝度用R補正データを作成し、低輝度レジスタ34aに書き込まれた20個の差分値ΔGavに補間演算を施して低輝度用G補正データを作成し、そして低輝度レジスタ34aに書き込まれた20個の差分値ΔBavに補間演算を施して低輝度用B補正データを作成する。   When all the columns of the low luminance register 34a are filled with numerical values, the low luminance register 34a is completed. The CPU 30 interpolates 20 difference values ΔRav written in the low brightness register 34a to create low brightness R correction data, and interpolates 20 difference values ΔGav written in the low brightness register 34a. To generate G correction data for low luminance, and perform interpolation calculation on the 20 difference values ΔBav written in the low luminance register 34a to generate B correction data for low luminance.

クランプ回路22aから出力されたチャネルCH1の生画像データのR成分,G成分およびB成分が図4に示す曲線C1rout,C1goutおよびC1boutを描き、クランプ回路22bから出力されたチャネルCH2の生画像データが図4に示す曲線C2rout,C2goutおよびC2boutを描く場合、低輝度用R補正データ,低輝度用G補正データおよび低輝度用B補正データはそれぞれ図8に示す曲線Cr,CgおよびCbを描く。   The R, G, and B components of the raw image data of the channel CH1 output from the clamp circuit 22a draw the curves C1rout, C1gout, and C1bout shown in FIG. 4, and the raw image data of the channel CH2 output from the clamp circuit 22b When the curves C2rout, C2gout and C2bout shown in FIG. 4 are drawn, the low luminance R correction data, the low luminance G correction data and the low luminance B correction data draw the curves Cr, Cg and Cb shown in FIG. 8, respectively.

曲線Cr,CbおよびCgの各々は、チャネルCH1の生画像データからチャネルCH2の生画像データを減算して得られた差分画像データがチャネルCH2の生画像データに対してどのように変化するかを示す特性曲線に等しい。   Each of the curves Cr, Cb, and Cg shows how the difference image data obtained by subtracting the raw image data of the channel CH2 from the raw image data of the channel CH1 changes with respect to the raw image data of the channel CH2. Equal to the characteristic curve shown.

CPU30は、低輝度用R補正データの値をLUT28rの低輝度デフォルト設定値に加算し、低輝度用G補正データの値をLUT28gの低輝度デフォルト設定値に加算し、そして低輝度用B補正データの値をLUT28bの低輝度デフォルト設定値に加算する。   The CPU 30 adds the value of the low-luminance R correction data to the low-luminance default setting value of the LUT 28r, adds the value of the low-luminance G correction data to the low-luminance default setting value of the LUT 28g, and low-luminance B correction data Is added to the low brightness default setting value of the LUT 28b.

R成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Ravを高輝度用レジスタ34bに書き込む。同様に、G成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Gavを高輝度用レジスタ34bに書き込む。さらに、B成分に基づく画像が明るいと判別されたとき、CPU30は、注目する2つの境界ブロックからそれぞれ求められた2つの平均値Bavを高輝度用レジスタ34bに書き込む。   When it is determined that the image based on the R component is bright, the CPU 30 writes two average values Rav respectively obtained from the two boundary blocks of interest into the high luminance register 34b. Similarly, when it is determined that the image based on the G component is bright, the CPU 30 writes two average values Gav respectively obtained from the two boundary blocks of interest into the high luminance register 34b. Further, when it is determined that the image based on the B component is bright, the CPU 30 writes the two average values Bav respectively obtained from the two boundary blocks of interest into the high luminance register 34b.

左側撮像領域IMLに属する境界ブロックの平均値Rav,GavまたはBavは図9に示す高輝度用レジスタ34bの左側領域の欄に書き込まれ、右側撮像領域IMRに属する境界ブロックの平均値Rav,GavまたはBavは高輝度用レジスタ34bの右側領域の欄に書き込まれる。なお、高輝度用レジスタ34bはリングバッファの機能を有し、平均値Rav,GavおよびBavの書き込み先は循環的に更新される。   The average values Rav, Gav or Bav of the boundary blocks belonging to the left imaging area IML are written in the left area column of the high brightness register 34b shown in FIG. 9, and the average values Rav, Gav or of the boundary blocks belonging to the right imaging area IMR are written. Bav is written in the right area column of the high luminance register 34b. The high luminance register 34b has a ring buffer function, and the write destinations of the average values Rav, Gav and Bav are updated cyclically.

CPU30は続いて、高輝度用レジスタ34bの左側領域の欄に設定された平均値Rav,GavおよびBavの各々に最小2乗法に従う演算を施して、チャネルCH1の生画像データにおけるRゲイン特性,Gゲイン特性およびBゲイン特性をそれぞれ示す3つの1次関数F1r,F1gおよびF1bを特定する。   Subsequently, the CPU 30 performs an arithmetic operation according to the least square method on each of the average values Rav, Gav and Bav set in the left area column of the high brightness register 34b, thereby obtaining an R gain characteristic, G in the raw image data of the channel CH1. Three linear functions F1r, F1g, and F1b that respectively indicate the gain characteristic and the B gain characteristic are specified.

CPU30はまた、高輝度用レジスタ34bの右側領域の欄に設定された平均値Rav,GavおよびBavの各々に最小2乗法に従う演算を施して、チャネルCH2の生画像データにおけるRゲイン特性,Gゲイン特性およびBゲイン特性をそれぞれ示す3つの1次関数F2r,F2gおよびF2bを特定する。   The CPU 30 also performs an operation according to the least square method on each of the average values Rav, Gav, and Bav set in the right area column of the high luminance register 34b, thereby obtaining an R gain characteristic and a G gain in the raw image data of the channel CH2. Three linear functions F2r, F2g, and F2b respectively indicating the characteristics and the B gain characteristics are specified.

たとえば、R画素レベル,G画素レベルまたはB画素レベルの各々が左側撮像領域IMLの水平方向において図10(A)に示すように変化した場合、1次関数F1r,F1gまたはF1bは同じ図10(A)に示す直線を描く。また、R画素レベル,G画素レベルまたはB画素レベルの各々が右側撮像領域IMRの水平方向において図10(B)に示すように変化した場合、1次関数F2r,F2gまたはF2bは同じ図10(B)に示す直線を描く。   For example, when each of the R pixel level, the G pixel level, and the B pixel level changes as shown in FIG. 10A in the horizontal direction of the left imaging region IML, the linear functions F1r, F1g, or F1b are the same as in FIG. Draw a straight line shown in A). Further, when each of the R pixel level, the G pixel level, and the B pixel level is changed as shown in FIG. 10B in the horizontal direction of the right imaging region IMR, the linear functions F2r, F2g, or F2b are the same as those in FIG. Draw a straight line as shown in B).

CPU30は、右側撮像領域IMRで生成された電荷にチャネルCH1における一連の処理を施したときに得られるであろう生画像データの高輝度範囲に属する複数のRゲイン,複数のGゲインおよび複数のBゲインを、1次関数F1r,F1gおよびF1bに従う補外演算によって推定する。CPU30はまた、チャネルCH1の生画像データの高輝度範囲に属する複数のRゲイン,複数のGゲインおよび複数のBゲインを、1次関数F2r,F2gまたはF2bに従う補外演算によって推定する。こうして推定されたゲインを有するR画素,G画素およびB画素は、右側撮像領域IMRの水平方向において図10(C)に示すように分布する。   The CPU 30 has a plurality of R gains, a plurality of G gains, and a plurality of G values belonging to the high luminance range of the raw image data that will be obtained when a series of processing in the channel CH1 is performed on the charges generated in the right imaging region IMR. B gain is estimated by extrapolation according to the linear functions F1r, F1g and F1b. The CPU 30 also estimates a plurality of R gains, a plurality of G gains, and a plurality of B gains belonging to the high luminance range of the raw image data of the channel CH1 by extrapolation calculation according to the linear function F2r, F2g, or F2b. The R pixel, the G pixel, and the B pixel having the gain thus estimated are distributed as shown in FIG. 10C in the horizontal direction of the right imaging region IMR.

CPU30はその後、1次関数F1rに基づく複数のRゲインから1次関数F2rに基づく複数のRゲインをそれぞれ引き算して、複数のRゲイン差によって表される高輝度用R補正データを作成する。CPU30はまた、1次関数F1gに基づく複数のGゲインから1次関数F2gに基づく複数のGゲインを引き算して、複数のGゲイン差によって表される高輝度用G補正データを作成する。CPU30はさらに、1次関数F1bに基づく複数のBゲインから1次関数F2bに基づく複数のBゲインを引き算して、複数のBゲイン差によって形成される高輝度用B補正データを作成する。作成された高輝度用R補正データ,高輝度用G補正データおよび高輝度用B補正データは、図4に示す高輝度範囲にわたる。   Thereafter, the CPU 30 subtracts a plurality of R gains based on the linear function F2r from a plurality of R gains based on the linear function F1r to create high-luminance R correction data represented by a plurality of R gain differences. The CPU 30 also subtracts a plurality of G gains based on the primary function F2g from a plurality of G gains based on the linear function F1g to create high-luminance G correction data represented by a plurality of G gain differences. Further, the CPU 30 subtracts a plurality of B gains based on the primary function F2b from a plurality of B gains based on the linear function F1b to create B correction data for high luminance formed by a plurality of B gain differences. The created high luminance R correction data, high luminance G correction data, and high luminance B correction data span the high luminance range shown in FIG.

CPU30は、高輝度用R補正データの値をLUT28rの高輝度デフォルト設定値に加算し、高輝度用G補正データの値をLUT28gの高輝度デフォルト設定値に加算し、そして高輝度用B補正データの値をLUT28bの高輝度デフォルト設定値に加算する。   The CPU 30 adds the value of the high luminance R correction data to the high luminance default setting value of the LUT 28r, adds the value of the high luminance G correction data to the high luminance default setting value of the LUT 28g, and then adds the high luminance B correction data. Is added to the high brightness default setting value of the LUT 28b.

LUT28rのデフォルト設定値,LUT28gのデフォルト設定値およびLUT28bのデフォルト設定値がそれぞれクランプ回路22bの出力に対して図11に示す曲線TSr,TSgおよびTSbを描く場合、上述の低輝度用R補正データ,低輝度用G補正データ,低輝度用B補正データ,高輝度用R補正データ,高輝度用G補正データおよび高輝度用B補正データが加算されると、LUT28rの設定値,LUT28gの設定値およびLUT28bの設定値はそれぞれ、図11に示す曲線TMr,TMgおよびTMbを描く。この結果、生画像データのゲインは、チャネルCH1およびCH2の間でほぼ一致することとなる。   When the default setting value of the LUT 28r, the default setting value of the LUT 28g, and the default setting value of the LUT 28b draw the curves TSr, TSg and TSb shown in FIG. 11 with respect to the output of the clamp circuit 22b, respectively, When the low luminance G correction data, the low luminance B correction data, the high luminance R correction data, the high luminance G correction data, and the high luminance B correction data are added, the setting value of the LUT 28r, the setting value of the LUT 28g, and The set values of the LUT 28b draw curves TMr, TMg and TMb shown in FIG. As a result, the gains of the raw image data are substantially the same between the channels CH1 and CH2.

LUT28r,28gおよび28bの設定値を調整するとき、CPU30は、図12〜図18に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、フラッシュメモリ48に記憶される。   When adjusting the set values of the LUTs 28r, 28g, and 28b, the CPU 30 executes processing according to the flowcharts shown in FIGS. A control program corresponding to this flowchart is stored in the flash memory 48.

まずステップS1およびS3で高輝度用レジスタ34bおよび低輝度用レジスタ34aをクリアし、ステップS5で変数Kを“0”に設定する。ステップS7では垂直同期信号Vsyncが発生したか否かを判断し、YESであればステップS9で変数Kをインクリメントする。ステップS11では、変数Kが所定値nを上回ったかどうかを判別する。ここでNOであればステップS11に進み、YESであればステップS17に進む。   First, in steps S1 and S3, the high luminance register 34b and the low luminance register 34a are cleared, and in step S5, the variable K is set to "0". In step S7, it is determined whether or not the vertical synchronization signal Vsync is generated. If YES, the variable K is incremented in step S9. In step S11, it is determined whether or not the variable K exceeds a predetermined value n. If “NO” here, the process proceeds to a step S11, and if “YES”, the process proceeds to the step S17.

ステップS13では境界ブロックBKLの積算値Rh,Gh,Bhおよび平均値Rav,Gav,Bavをブロック演算回路26aから取り込み、ステップS15では境界ブロックBKRの積算値Rh,Gh,Bhおよび平均値Rav,Gav,Bavをブロック演算回路26bから取り込む。   In step S13, the integrated values Rh, Gh, Bh and average values Rav, Gav, Bav of the boundary block BKL are fetched from the block arithmetic circuit 26a. In step S15, the integrated values Rh, Gh, Bh and average values Rav, Gav of the boundary block BKR are acquired. , Bav are fetched from the block arithmetic circuit 26b.

ステップS23では、取り込まれた2つの積算値Rhが平坦度条件を満足するか否かを判別する。具体的には、取り込まれた2つの積分値Rhのいずれもが閾値TH未満であるか否かを判別する。この平坦度条件が満たされなければ、境界ブロックBKLに属するR成分によって再現される小画像および境界ブロックBKRに属するR成分によって再現される小画像の少なくとも一方が平坦画像ではないとみなし、ステップS47に進む。一方、この条件が満たされると、境界ブロックBKLおよびBKRの各々に属するR成分によって再現される小画像はいずれも平坦画像であるとみなし、ステップS25に進む。   In step S23, it is determined whether or not the two integrated values Rh that have been taken in satisfy the flatness condition. Specifically, it is determined whether or not both of the two integrated values Rh that have been taken are less than the threshold value TH. If this flatness condition is not satisfied, it is assumed that at least one of the small image reproduced by the R component belonging to the boundary block BKL and the small image reproduced by the R component belonging to the boundary block BKR is not a flat image, step S47. Proceed to On the other hand, if this condition is satisfied, the small image reproduced by the R component belonging to each of the boundary blocks BKL and BKR is regarded as a flat image, and the process proceeds to step S25.

ステップS25では、境界ブロックBKRの平均値Ravが閾値THrを上回るか否かを判別する。ここでNOであればステップS43に進み、境界ブロックBKLの平均値Ravから境界ブロックBKRの平均値Ravを引き算する。これによって、差分値ΔRavが求められる。ステップS45では、算出された差分値ΔRavと境界ブロックBKRの平均値Ravとを図7に示す低輝度用レジスタ34aに書き込む。書き込みが完了すると、ステップS47に進む。   In step S25, it is determined whether or not the average value Rav of the boundary block BKR exceeds a threshold value THr. If “NO” here, the process proceeds to a step S43 to subtract the average value Rav of the boundary block BKR from the average value Rav of the boundary block BKL. Thereby, the difference value ΔRav is obtained. In step S45, the calculated difference value ΔRav and the average value Rav of the boundary block BKR are written in the low luminance register 34a shown in FIG. When the writing is completed, the process proceeds to step S47.

ステップS25でYESであればステップS27に進み、境界ブロックBKLの平均値Ravを図9に示す高輝度用レジスタ34bの左側領域の欄に書き込む。ステップS29では、高輝度用レジスタ34bの左側領域の欄に書き込まれた複数の平均値Ravに最小2乗法に従う演算を施して、チャネルCH1の生画像データのRゲイン特性を示す1次関数F1rを特定する。   If “YES” in the step S25, the process proceeds to a step S27, and the average value Rav of the boundary block BKL is written in the left area column of the high luminance register 34b shown in FIG. In step S29, a calculation according to the least square method is performed on the plurality of average values Rav written in the left area column of the high luminance register 34b, and a linear function F1r indicating the R gain characteristics of the raw image data of the channel CH1 is obtained. Identify.

ステップS31では、境界ブロックBKRの平均値Ravを図9に示す高輝度用レジスタ34bの右側領域の欄に書き込む。ステップS33では、高輝度用レジスタ34bの右側領域の欄に書き込まれた複数の平均値Ravに最小2乗法に従う演算を施して、チャネルCH2の生画像データのRゲイン特性を示す1次関数F2rを特定する。   In step S31, the average value Rav of the boundary block BKR is written in the right area column of the high luminance register 34b shown in FIG. In step S33, a calculation according to the least square method is performed on the plurality of average values Rav written in the right area column of the high luminance register 34b, and a linear function F2r indicating the R gain characteristics of the raw image data of the channel CH2 is obtained. Identify.

ステップS35では、こうして求められた2つの1次関数F1rおよびF2rに基づく補外演算処理を実行して、高輝度用R補正データを作成する。ステップS39では、作成された高輝度用R補正データが前回作成された高輝度用R補正データから大きく変動しているか否かを判別する。変動量が大きいときはステップS41に進み、作成された高輝度用R補正データをLUT28rの高輝度デフォルト設定値に加算する。ステップS41の処理が完了すると、ステップS47に進む。ステップS39でNOと判断されたときは、そのままステップS47に進む。   In step S35, extrapolation calculation processing based on the two linear functions F1r and F2r thus obtained is executed to create R correction data for high luminance. In step S39, it is determined whether or not the created high-intensity R correction data has changed significantly from the previously created high-intensity R correction data. When the fluctuation amount is large, the process proceeds to step S41, and the created high luminance R correction data is added to the high luminance default setting value of the LUT 28r. When the process of step S41 is completed, the process proceeds to step S47. If NO is determined in step S39, the process proceeds to step S47 as it is.

なお、1回目のステップS29の処理では1次関数F1rを特定することは不可能であり、1回目のステップS33の処理では1次関数F2rを特定することは不可能である。このため、この実施例では、1回目のステップS39で強制的にNOと判断する。   Note that it is impossible to specify the linear function F1r in the first step S29, and it is impossible to specify the primary function F2r in the first step S33. For this reason, in this embodiment, NO is forcibly determined in the first step S39.

ステップS47〜S67の処理は、R成分に代えてG成分に注目する点を除き、上述のステップS23〜45と同じである。図14に示すステップS69〜S89の処理も、R成分に代えてB成分に注目する点を除き、上述のステップS23〜45と同じである。したがって、重複した説明は省略する。   Steps S47 to S67 are the same as steps S23 to S45 described above except that attention is paid to the G component instead of the R component. The processes in steps S69 to S89 shown in FIG. 14 are the same as steps S23 to S45 described above except that attention is paid to the B component instead of the R component. Therefore, duplicate description is omitted.

なお、ステップS53ではチャネルCH1の生画像データのRゲイン特性を示す1次関数F1gが特定され、ステップS57ではチャネルCH2の生画像データのRゲイン特性を示す1次関数F2gが特定される。ステップS47またはS61でNOと判断されるか、あるいはステップS63またはS67の処理が完了すると、ステップS69に進む。   In step S53, the linear function F1g indicating the R gain characteristic of the raw image data of the channel CH1 is specified, and in step S57, the linear function F2g indicating the R gain characteristic of the raw image data of the channel CH2 is specified. When NO is determined in step S47 or S61, or when the process of step S63 or S67 is completed, the process proceeds to step S69.

また、ステップS75ではチャネルCH1の生画像データのRゲイン特性を示す1次関数F1bが特定され、ステップS79ではチャネルCH2の生画像データのRゲイン特性を示す1次関数F2bが特定される。ステップS69またはS83でNOと判断されるか、あるいはステップS85またはS89の処理が完了すると、ステップS9に戻る。   In step S75, the linear function F1b indicating the R gain characteristic of the raw image data of the channel CH1 is specified, and in step S79, the linear function F2b indicating the R gain characteristic of the raw image data of the channel CH2 is specified. When NO is determined in step S69 or S83, or when the process of step S85 or S89 is completed, the process returns to step S9.

図10に戻って、ステップS11でYESであれば、低輝度用レジスタ34aが完成したか否かをステップS17で判別する。低輝度用レジスタ34aは、全ての欄に数値が書き込まれたときに完成する。ここでNOと判断されるとステップS7に戻り、YESと判断されるとステップS19に進む。   Returning to FIG. 10, if “YES” in the step S11, it is determined whether or not the low luminance register 34a is completed in a step S17. The low luminance register 34a is completed when numerical values are written in all the columns. If NO is determined here, the process returns to step S7. If YES is determined, the process proceeds to step S19.

ステップS19では、低輝度用レジスタ34aに設定された差分値ΔRavの補間演算によって低輝度用R補正データを作成し、低輝度用レジスタ34aに設定された差分値ΔGavの補間演算によって低輝度用G補正データを作成し、そして低輝度用レジスタ34aに設定された差分値ΔBavの補間演算によって低輝度用B補正データを作成する。   In step S19, low luminance R correction data is created by interpolation calculation of the difference value ΔRav set in the low luminance register 34a, and low luminance G is calculated by interpolation of the difference value ΔGav set in the low luminance register 34a. Correction data is created, and low-luminance B correction data is created by interpolation calculation of the difference value ΔBav set in the low-luminance register 34a.

ステップS21では、作成された低輝度用R補正データをLUT28rの低輝度デフォルト設定値に加算し、作成された低輝度用G補正データをLUT28gの低輝度デフォルト設定値に加算し、そして作成された低輝度用B補正データをLUT28bの低輝度デフォルト設定値に加算する。ステップS21の処理が完了すると、ステップS1に戻る。   In step S21, the created low brightness R correction data is added to the low brightness default setting value of the LUT 28r, and the created low brightness G correction data is added to the low brightness default setting value of the LUT 28g. The B correction data for low luminance is added to the low luminance default setting value of the LUT 28b. When the process of step S21 is completed, the process returns to step S1.

ステップS35の補外演算処理は、図16に示すサブルーチンに従って実行される。ステップS351では、右側撮像領域IMRで生成された電荷にチャネルCH1における一連の処理を施したときに得られるであろう生画像データの高輝度範囲に属する複数のRゲインを、1次関数F1rに従う補外演算によって推定する。ステップS353では、チャネルCH1の生画像データの高輝度範囲に属する複数のRゲインを、1次関数F2rに従う補外演算によって推定する。ステップS355では、ステップS351で求められた複数のRゲインからステップS353で求められた複数のRゲインをそれぞれ引き算し、高輝度用R補正データを算出する。ステップS355の処理が完了すると、上階層のルーチンに復帰する。   The extrapolation calculation process in step S35 is executed according to a subroutine shown in FIG. In step S351, a plurality of R gains that belong to the high luminance range of the raw image data that will be obtained when a series of processing in the channel CH1 is performed on the charge generated in the right imaging region IMR follows the linear function F1r. Estimated by extrapolation. In step S353, a plurality of R gains belonging to the high luminance range of the raw image data of channel CH1 are estimated by extrapolation according to the linear function F2r. In step S355, the R correction data for high luminance is calculated by subtracting the plurality of R gains obtained in step S353 from the plurality of R gains obtained in step S351. When the process of step S355 is completed, the process returns to the upper-level routine.

図14に示すステップS59の補外演算処理は図17に示すサブルーチンに従って実行され、図15に示すステップS81の補外演算処理は図18に示すサブルーチンに従って実行される。ただし、図17に示すステップS591〜S595の処理は、R成分に代えてG成分に注目する点を除き図16に示すステップS351〜S355の処理と同じである。また、図18に示すステップS811〜S815の処理は、R成分に代えてB成分に注目する点を除き図16に示すステップS351〜S355の処理と同じである。したがって、重複した説明は省略する。   The extrapolation calculation process of step S59 shown in FIG. 14 is executed according to the subroutine shown in FIG. 17, and the extrapolation calculation process of step S81 shown in FIG. 15 is executed according to the subroutine shown in FIG. However, the processing in steps S591 to S595 shown in FIG. 17 is the same as the processing in steps S351 to S355 shown in FIG. 16 except that attention is paid to the G component instead of the R component. 18 is the same as the process of steps S351 to S355 shown in FIG. 16 except that the process pays attention to the B component instead of the R component. Therefore, duplicate description is omitted.

以上の説明から分かるように、CCDイメージャ14は、左側撮像領域IMLおよび右側撮像領域IMRが形成された撮像面と、左側撮像領域IMLおよび右側撮像領域IMRにそれぞれ対応するチャネルCH1およびCH2とを有する。チャネルCH1およびCH2からそれぞれ出力された2つの部分画像の間のゲイン差は、LUT28r,28gおよび28bによって抑制される。抑制されたゲイン差を有する2つの部分画像は、メモリ制御回路38によって互いに結合される。   As can be seen from the above description, the CCD imager 14 has an imaging surface on which the left imaging area IML and the right imaging area IMR are formed, and channels CH1 and CH2 corresponding to the left imaging area IML and the right imaging area IMR, respectively. . The gain difference between the two partial images output from the channels CH1 and CH2 is suppressed by the LUTs 28r, 28g, and 28b. Two partial images with suppressed gain differences are combined with each other by the memory control circuit 38.

CPU30は、抑制処理を施される2つの部分画像の間のゲイン差を低輝度範囲について検出し(S43, S65, S87)、検出されたゲイン差に補間演算処理を施してLUT28r,28gおよび28bの低輝度設定値を補正する(S21)。   The CPU 30 detects the gain difference between the two partial images to be subjected to the suppression process for the low luminance range (S43, S65, S87), performs the interpolation calculation process on the detected gain difference, and performs the LUTs 28r, 28g, and 28b. The low brightness setting value is corrected (S21).

CPU30はまた、抑制処理を施される2つの部分画像の各々のゲインを高輝度範囲について検出し(S27, S31, S51, S55, S73, S77)、検出されたゲインに補外演算処理を施してLUT28r,28gおよび28bの高輝度設定値を補正する(S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85)。   The CPU 30 also detects the gain of each of the two partial images subjected to the suppression process for the high luminance range (S27, S31, S51, S55, S73, S77), and performs extrapolation calculation processing on the detected gain. Thus, the high brightness setting values of the LUTs 28r, 28g and 28b are corrected (S29, S33, S35, S41, S53, S57, S59, S63, S75, S79, S81, S85).

このように、注目する輝度範囲が低輝度範囲であれば2つの部分画像の間のゲイン差が検出され、注目する輝度範囲が高輝度範囲であれば2つの部分画像の各々のゲインが検出される。また、低輝度範囲に関するLUT28r,28gおよび28bの動作特性は、検出されたゲイン差に対する補間演算処理によって補正され、高輝度範囲に関するLUT28r,28gおよび28bの動作特性は、検出されたゲインに対する補外演算処理によって補正される。   As described above, if the focused luminance range is the low luminance range, the gain difference between the two partial images is detected, and if the focused luminance range is the high luminance range, the gains of the two partial images are detected. The In addition, the operation characteristics of the LUTs 28r, 28g, and 28b related to the low luminance range are corrected by interpolation calculation processing for the detected gain difference, and the operation characteristics of the LUTs 28r, 28g, and 28b related to the high luminance range are extrapolated to the detected gain. It is corrected by arithmetic processing.

つまり、この実施例では、ゲインの変動態様が低輝度範囲と高輝度範囲とで異なることを考慮して、検出対象(ゲイン差,ゲイン)および補正方法(補間演算処理,補外演算処理)を低輝度範囲と高輝度範囲とで異ならせるようにしている。これによって、画像の境界線の出現をより効果的に防止することができる。   That is, in this embodiment, taking into account that the variation mode of the gain differs between the low luminance range and the high luminance range, the detection target (gain difference, gain) and the correction method (interpolation calculation processing, extrapolation calculation processing) are set. The low luminance range and the high luminance range are made different. Thereby, the appearance of the boundary line of the image can be more effectively prevented.

なお、この実施例では、LUT28r,28gおよび28bによるゲイン調整処理に先立ってクランプ処理を行うようにしているが、クランプ処理をゲイン調整処理の後に実行するようにしてもよい。また、この実施例では、撮像面に形成される部分撮像領域の数は2つであるが、部分撮像領域の数は3以上であってもよい。   In this embodiment, the clamp process is performed prior to the gain adjustment process by the LUTs 28r, 28g, and 28b. However, the clamp process may be executed after the gain adjustment process. In this embodiment, the number of partial imaging areas formed on the imaging surface is two, but the number of partial imaging areas may be three or more.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図1実施例に適用されるイメージセンサの構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the image sensor applied to FIG. 1 Example. 図1実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of SDRAM applied to FIG. 1 Example. 図1実施例に適用されるクランプ回路の動作の一部を示すグラフである。It is a graph which shows a part of operation | movement of the clamp circuit applied to FIG. 1 Example. 図1実施例の動作の一部を示す図解図である。It is an illustration figure which shows a part of operation | movement of FIG. 1 Example. 図1実施例に適用されるブロック演算回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the block arithmetic circuit applied to the FIG. 1 Example. 図1実施例に適用される低輝度用レジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a low luminance register applied to the embodiment in FIG. 1; 図1実施例の動作の他の一部を示すグラフである。It is a graph which shows another part of operation | movement of FIG. 1 Example. 図1実施例に適用される高輝度用レジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a high luminance register applied to the embodiment in FIG. 1; (A)は左側撮像領域に対応する高輝度画像に最小2乗法に従う演算を施すときの動作の一部を示す図解図であり、(B)は右側撮像領域に対応する高輝度画像に最小2乗法に従う演算を施すときの動作の一部を示す図解図であり、(C)は右側撮像領域について補外演算を行うときの動作の一部を示す図解図である。(A) is an illustration figure which shows a part of operation | movement when performing the calculation according to the least squares method to the high-intensity image corresponding to the left side imaging area, (B) is minimum 2 to the high-intensity image corresponding to the right side imaging area. It is an illustration figure which shows a part of operation | movement when performing the calculation according to a multiplication, (C) is an illustration figure which shows a part of operation | movement when performing an extrapolation calculation about the right side imaging region. 図1実施例の動作のその他の一部を示すグラフである。It is a graph which shows a part of other operation | movement of FIG. 1 Example. 図1実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1.

符号の説明Explanation of symbols

10 …ディジタルカメラ
14 …イメージセンサ
22a,22b …クランプ回路
26a,26b …ブロック演算回路
28r,28g,28b …LUT
30 …CPU
34a …低輝度用レジスタ
34b …高輝度用レジスタ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 14 ... Image sensor 22a, 22b ... Clamp circuit 26a, 26b ... Block arithmetic circuit 28r, 28g, 28b ... LUT
30 ... CPU
34a: low luminance register 34b: high luminance register

Claims (12)

複数の部分撮像領域が形成された撮像面と前記複数の部分撮像領域にそれぞれ対応する複数の出力経路とを有する撮像手段、
前記複数の出力経路からそれぞれ出力された複数の部分画像の間のゲイン差を抑制する抑制手段、
前記抑制手段によって抑制されたゲイン差を有する複数の部分画像を互いに結合する結合手段、
前記抑制手段によって抑制処理を施される複数の部分画像の間のゲイン差を第1明るさ範囲について検出する第1検出手段、
前記第1検出手段によって検出されたゲイン差に補間演算処理を施して前記抑制手段の動作特性を前記第1明るさ範囲について補正する第1補正手段、
前記抑制手段によって抑制処理を施される複数の部分画像の各々のゲインを第2明るさ範囲について検出する第2検出手段、および
前記第2検出手段によって検出されたゲインに補外演算処理を施して前記抑制手段の動作特性を前記第2明るさ範囲について補正する第2補正手段を備える、電子カメラ。
An imaging means having an imaging surface on which a plurality of partial imaging areas are formed and a plurality of output paths respectively corresponding to the plurality of partial imaging areas;
Suppression means for suppressing a gain difference between the plurality of partial images respectively output from the plurality of output paths;
Combining means for combining a plurality of partial images having gain differences suppressed by the suppressing means;
First detection means for detecting a gain difference between a plurality of partial images subjected to suppression processing by the suppression means for a first brightness range;
First correction means for performing interpolation calculation processing on the gain difference detected by the first detection means to correct the operating characteristic of the suppression means for the first brightness range;
Second detection means for detecting a gain of each of the plurality of partial images subjected to suppression processing by the suppression means for a second brightness range; and extrapolation calculation processing is performed on the gain detected by the second detection means. An electronic camera comprising second correction means for correcting the operating characteristic of the suppression means for the second brightness range.
前記第2補正手段は、入射光量に対するゲインの変化を示す関係式を前記複数の部分画像の各々について特定する特定手段、および前記特定手段によって特定された複数の関係式の1つによって規定されるゲインと前記複数の関係式の他の1つによって規定されるゲインとの差分を前記補外演算処理によって検出するゲイン差検出手段を含む、請求項1記載の電子カメラ。   The second correction unit is defined by a specifying unit that specifies a relational expression indicating a gain change with respect to an incident light amount for each of the plurality of partial images, and one of a plurality of relational expressions specified by the specifying unit. The electronic camera according to claim 1, further comprising: a gain difference detection unit that detects a difference between a gain and a gain defined by another one of the plurality of relational expressions by the extrapolation calculation process. 前記特定手段は最小2乗法を用いて前記関係式を特定する、請求項2記載の電子カメラ。   The electronic camera according to claim 2, wherein the specifying unit specifies the relational expression using a least square method. 前記抑制手段によって抑制処理を施される複数の部分画像が平坦度条件を満足するか否かを判別する判別手段をさらに備え、
前記第1検出手段および前記第2検出手段の各々は前記判別手段の判別結果が肯定的であるとき検出動作を行う、請求項1ないし3のいずれかに記載の電子カメラ。
A discriminating unit for discriminating whether or not the plurality of partial images subjected to the suppression process by the suppression unit satisfy a flatness condition;
4. The electronic camera according to claim 1, wherein each of the first detection unit and the second detection unit performs a detection operation when a determination result of the determination unit is positive.
前記複数の部分画像は複数色の色情報を有し、
前記抑制手段は前記複数色にそれぞれ対応する複数の動作特性を有する、請求項1ないし4のいずれかに記載の電子カメラ。
The plurality of partial images have color information of a plurality of colors,
The electronic camera according to claim 1, wherein the suppression unit has a plurality of operating characteristics corresponding to the plurality of colors.
前記第1補正手段および前記第2補正手段の各々は前記複数の部分画像が有する色毎に補正動作を行う、請求項5記載の電子カメラ。   6. The electronic camera according to claim 5, wherein each of the first correction unit and the second correction unit performs a correction operation for each color of the plurality of partial images. 前記複数の部分画像をそれぞれ形成する複数の小画像を抽出する抽出手段をさらに備え、
前記第1検出手段および前記第2検出手段の各々は前記抽出手段によって抽出される複数の小画像に注目する、請求項1ないし6のいずれかに記載の電子カメラ。
An extraction means for extracting a plurality of small images that respectively form the plurality of partial images;
The electronic camera according to claim 1, wherein each of the first detection unit and the second detection unit focuses on a plurality of small images extracted by the extraction unit.
前記第1検出手段は、前記抽出手段によって抽出された複数の小画像の各々の成分の平均値を算出する平均値算出手段、および前記平均値算出手段によって求められた複数の平均値の間の差分値を前記ゲイン差として算出する差分値算出手段を含む、請求項7記載の電子カメラ。   The first detecting means includes an average value calculating means for calculating an average value of each component of the plurality of small images extracted by the extracting means, and a plurality of average values obtained by the average value calculating means. The electronic camera according to claim 7, further comprising difference value calculation means for calculating a difference value as the gain difference. 前記抽出手段によって抽出される複数の小画像は前記複数の部分画像の境界の近傍に存在する、請求項7または8記載の電子カメラ。   The electronic camera according to claim 7 or 8, wherein the plurality of small images extracted by the extraction unit are present in the vicinity of boundaries of the plurality of partial images. 前記複数の部分画像の基準レベルを互いに一致させる調整手段をさらに備える、請求項1ないし9のいずれかに記載の電子カメラ。   The electronic camera according to claim 1, further comprising an adjusting unit that matches reference levels of the plurality of partial images with each other. 前記調整手段は前記抑制手段の抑制動作に先立ってレベル調整を行う、請求項10記載の電子カメラ。   The electronic camera according to claim 10, wherein the adjustment unit performs level adjustment prior to the suppression operation of the suppression unit. 前記第1明るさ範囲は前記第2明るさ範囲よりも暗い範囲である、請求項1ないし11のいずれかに記載の電子カメラ。   The electronic camera according to claim 1, wherein the first brightness range is a darker range than the second brightness range.
JP2005170721A 2005-06-10 2005-06-10 Electronic camera Expired - Fee Related JP4471890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005170721A JP4471890B2 (en) 2005-06-10 2005-06-10 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005170721A JP4471890B2 (en) 2005-06-10 2005-06-10 Electronic camera

Publications (2)

Publication Number Publication Date
JP2006345359A true JP2006345359A (en) 2006-12-21
JP4471890B2 JP4471890B2 (en) 2010-06-02

Family

ID=37641955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005170721A Expired - Fee Related JP4471890B2 (en) 2005-06-10 2005-06-10 Electronic camera

Country Status (1)

Country Link
JP (1) JP4471890B2 (en)

Also Published As

Publication number Publication date
JP4471890B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4768448B2 (en) Imaging device
US8229217B2 (en) Image processing method and apparatus, image processing program and medium storing this program
JP4315971B2 (en) Imaging device
US8373769B2 (en) Imaging apparatus, imaging processing method and recording medium
US20130002936A1 (en) Image pickup apparatus, image processing apparatus, and storage medium storing image processing program
JP2008124764A (en) Imaging system and image processing program
JP5052189B2 (en) Video processing apparatus and video processing program
US7251057B2 (en) Digital camera
US7995120B2 (en) Image brightness compensating apparatus and method, recorded medium recorded the program performing it
US20070211165A1 (en) Imaging device, method for controlling imaging device, program of method for controlling imaging device, recording medium in which program of method for controlling imaging device is recorded
WO2008056566A1 (en) Image signal processing apparatus, image signal processing program and image signal processing method
JP3590242B2 (en) Electronic imaging device
JP2008305122A (en) Image processing apparatus, image processing method, and program
JP4471890B2 (en) Electronic camera
JP2006060744A (en) Noise reduction device
JP4026516B2 (en) Image processing apparatus and method
US7876366B2 (en) Electronic camera
JP4606306B2 (en) Electronic camera
JP2006217108A (en) Electronic camera
JP4698426B2 (en) Electronic camera
JP2007267072A (en) Electronic camera
JP2009022044A (en) Image processing apparatus and image processing program
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP2007020045A (en) Electronic camera
JP4804327B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees