[go: up one dir, main page]

JP2015032870A - Imaging device, imaging apparatus and imaging processing program - Google Patents

Imaging device, imaging apparatus and imaging processing program Download PDF

Info

Publication number
JP2015032870A
JP2015032870A JP2013158957A JP2013158957A JP2015032870A JP 2015032870 A JP2015032870 A JP 2015032870A JP 2013158957 A JP2013158957 A JP 2013158957A JP 2013158957 A JP2013158957 A JP 2013158957A JP 2015032870 A JP2015032870 A JP 2015032870A
Authority
JP
Japan
Prior art keywords
pixel
component
component value
color
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013158957A
Other languages
Japanese (ja)
Inventor
暁彦 宇津木
Akihiko Utsuki
暁彦 宇津木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013158957A priority Critical patent/JP2015032870A/en
Publication of JP2015032870A publication Critical patent/JP2015032870A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of reproducing a high-luminance region while disposing low-sensitivity pixels with a low density.SOLUTION: The imaging device comprises: a first pixel which receives a first color component of subject light and outputs a first component value corresponding to the first color component; a second pixel which receives a second color component of the subject light and outputs a second component value corresponding to the second color component; and a third pixel which receives a first color component of the subject light with a sensitivity lower than that of the first pixel and outputs a third component value. The number of third pixels is less than the numbers of first pixels and second pixels. Neighboring pixels surrounding the second pixel or neighboring pixels surrounding at lest another second pixel closest to the second pixel include the third pixel. In neighboring pixels surrounding the third pixel, the first pixel is included and the other third pixel is not included.

Description

本発明は、撮像素子、撮像装置および撮像処理プログラムに関する。   The present invention relates to an imaging device, an imaging device, and an imaging processing program.

従来、撮像素子に高感度画素と低感度画素を配置し、低感度画素の出力を用いて高ダイナミックレンジ画像を生成するとともに、全画素の出力を用いて高解像度画像を生成し、両方の画像を統合して高ダイナミックレンジかつ高解像度の画像を生成する撮像装置が提案されている(例えば特許文献1参照)。   Conventionally, a high-sensitivity pixel and a low-sensitivity pixel are arranged on the image sensor, and a high dynamic range image is generated using the output of the low-sensitivity pixel, and a high-resolution image is generated using the output of all pixels. Have been proposed (see Patent Document 1, for example).

特開2004−336468号公報JP 2004-336468 A

高輝度領域の画像構造を再現するためには、低感度画素をある程度高密度に配置する必要があり、低輝度領域の再現性やS/Nを犠牲にせざるを得ないという問題があった。   In order to reproduce the image structure of the high luminance region, it is necessary to dispose the low sensitivity pixels to a certain degree of density, and there is a problem that the reproducibility of the low luminance region and S / N must be sacrificed.

請求項1に記載の撮像素子は、被写体光の第一の色成分を受光して第一の色成分に対応する第一の成分値を出力する第一の画素と、被写体光の第二の色成分を受光して第二の色成分に対応する第二の成分値を出力する第二の画素と、被写体光の第一の色成分を、第一の画素よりも低い感度で受光して第三の成分値を出力する第三の画素とを備え、第三の画素の画素数は第一の画素および第二の画素のいずれの画素よりも少なく、第二の画素を囲む隣接画素、または第二の画素に最も近い少なくとも一つの他の第二の画素を囲む隣接画素には、第三の画素が含まれ、第三の画素を囲む隣接画素には、第一の画素が含まれるとともに、他の第三の画素が含まれないことを特徴とする。
請求項4に記載の撮像装置は、請求項1〜3のいずれか1項に記載の撮像素子と、撮像素子から出力された第三の成分値を所定数倍することによって、第三の画素における第三の成分値を、第三の画素が第一の画素と等しい感度で第一の色成分を受光した場合に得られる、第三の画素における第一の色成分に対応する第四の成分値に補正する感度補正手段と、第二の画素における第二の成分値と、第一の画素における第一の成分値と、第三の画素における第四の成分値と、第一の成分値の飽和レベルと、第四の成分値と飽和レベルとの大小関係とに基づき、第一の画素および第二の画素の各画素における第一の成分値および第二の成分値を生成することによって、画像を生成する画像生成手段とを備えることを特徴とする。
請求項9に記載の撮像処理プログラムは、被写体光の第一の色成分を受光して第一の色成分に対応する第一の成分値を出力する第一の画素と、被写体光の第二の色成分を受光して第二の色成分に対応する第二の成分値を出力する第二の画素と、被写体光の第一の色成分を、第一の画素よりも低い感度で受光して第三の成分値を出力する第三の画素とを有し、第三の画素の画素数は第一の画素および第二の画素のいずれの画素よりも少なく、第三の画素が他の第三の画素に隣接しない撮像素子から出力された第三の成分値を所定数倍することによって、第三の画素における第三の成分値を、第三の画素が第一の画素と等しい感度で第一の色成分を受光した場合に得られる、第三の画素における第一の色成分に対応する第四の成分値に補正する感度補正処理と、第二の画素における第二の成分値と、第一の画素における第一の成分値と、第三の画素における第四の成分値と、第一の成分値の飽和レベルと、第四の成分値と飽和レベルとの大小関係とに基づき、第一の画素および第二の画素の各画素における第一の成分値および第二の成分値を生成することによって、画像を生成する画像生成処理とをコンピュータに実行させることを特徴とする。
The imaging device according to claim 1, wherein the first pixel that receives the first color component of the subject light and outputs the first component value corresponding to the first color component, and the second pixel of the subject light. A second pixel that receives the color component and outputs a second component value corresponding to the second color component, and the first color component of the subject light is received with lower sensitivity than the first pixel. A third pixel that outputs a third component value, the number of pixels of the third pixel is less than either of the first pixel and the second pixel, and adjacent pixels surrounding the second pixel, Alternatively, the adjacent pixel surrounding at least one other second pixel closest to the second pixel includes the third pixel, and the adjacent pixel surrounding the third pixel includes the first pixel. In addition, another third pixel is not included.
The imaging device according to claim 4 is a third pixel obtained by multiplying the imaging element according to any one of claims 1 to 3 and a third component value output from the imaging element by a predetermined number of times. The fourth component value corresponding to the first color component in the third pixel is obtained when the third pixel receives the first color component with the same sensitivity as the first pixel. Sensitivity correction means for correcting the component value, the second component value in the second pixel, the first component value in the first pixel, the fourth component value in the third pixel, and the first component Generating a first component value and a second component value in each pixel of the first pixel and the second pixel based on a saturation level of the value and a magnitude relationship between the fourth component value and the saturation level; And image generating means for generating an image.
The imaging processing program according to claim 9, wherein the first pixel that receives the first color component of the subject light and outputs the first component value corresponding to the first color component; and the second pixel of the subject light A second pixel that receives the first color component and outputs a second component value corresponding to the second color component, and the first color component of the subject light is received with lower sensitivity than the first pixel. A third pixel that outputs a third component value, the number of pixels of the third pixel is smaller than any of the first pixel and the second pixel, and the third pixel By multiplying the third component value output from the image sensor not adjacent to the third pixel by a predetermined number, the third component value in the third pixel is equal to the sensitivity of the third pixel equal to that of the first pixel. The sense of correcting to the fourth component value corresponding to the first color component in the third pixel, obtained when the first color component is received at Correction processing, second component value in the second pixel, first component value in the first pixel, fourth component value in the third pixel, saturation level of the first component value, An image is generated by generating a first component value and a second component value in each pixel of the first pixel and the second pixel based on the magnitude relationship between the fourth component value and the saturation level. The image generation processing is executed by a computer.

本発明によれば、低感度画素を低密度に配置しつつ高輝度領域を再現できる撮像素子、撮像装置および撮像処理プログラムを提供することができる。   According to the present invention, it is possible to provide an image pickup device, an image pickup apparatus, and an image pickup processing program capable of reproducing a high luminance region while arranging low sensitivity pixels at a low density.

本発明の一実施の形態における撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device in one embodiment of this invention. 本発明の一実施の形態における撮像素子の構成を示す図である。It is a figure which shows the structure of the image pick-up element in one embodiment of this invention. 低感度画素の構成例を示す図である。It is a figure which shows the structural example of a low sensitivity pixel. 本発明の一実施の形態における撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process in one embodiment of this invention. 低感度画素平滑化を説明するための図である。It is a figure for demonstrating low sensitivity pixel smoothing. 基準色差生成、RB成分補間および色差補間を説明するための図である。It is a figure for demonstrating reference | standard color difference production | generation, RB component interpolation, and color difference interpolation. 撮像素子の構成の変形例を示す図である。It is a figure which shows the modification of a structure of an image pick-up element. 本発明による撮像装置の制御装置が撮像処理を実行するためのコンピュータプログラム製品の提供形態を示す図である。It is a figure which shows the provision form of the computer program product for the control apparatus of the imaging device by this invention for performing an imaging process.

図1は、本発明の一実施の形態における撮像装置100の構成を示す図である。撮像装置100は、レンズ110と撮像素子120と制御装置130とを有する。レンズ110は、被写体500から到来する被写体光510を透過させて、撮像素子120に被写体の光学像を結像させる。撮像素子120には、被写体光510のG(緑色)成分を受光してG成分値を出力する複数のG(緑)画素と、被写体光510のR(赤色)成分を受光してR成分値を出力する複数のR(赤)画素と、被写体光510のB(青色)成分を受光してB成分値を出力する複数のB(青)画素とが、二次元的に、例えばBayer配列に従って配置される。複数のG画素のうちの一部は、図2を用いて後述するように、被写体光510のG(緑色)成分を低い感度で受光して低感度のG成分値を出力するD画素(低感度画素)に置き換わっている。後述する制御装置130内の撮像制御部1310による撮像制御に従って、撮像素子120に配置される各画素が、被写体光510の各色成分を光電変換により各色成分値に変換し、その各色成分値を出力することによって、撮像素子120からはRAW画像(原画像)が出力される。   FIG. 1 is a diagram illustrating a configuration of an imaging apparatus 100 according to an embodiment of the present invention. The imaging device 100 includes a lens 110, an imaging element 120, and a control device 130. The lens 110 transmits subject light 510 coming from the subject 500 and forms an optical image of the subject on the image sensor 120. The image sensor 120 receives a G (green) component of the subject light 510 and outputs a G component value, and receives an R (red) component of the subject light 510 and receives an R component value. And a plurality of B (blue) pixels that receive the B (blue) component of the subject light 510 and output a B component value are two-dimensionally, for example, according to a Bayer array Be placed. As described later with reference to FIG. 2, some of the plurality of G pixels receive a G (green) component of the subject light 510 with low sensitivity and output a low-sensitivity G component value (low pixel). Sensitivity pixel). In accordance with imaging control by an imaging control unit 1310 in the control device 130 to be described later, each pixel arranged in the imaging device 120 converts each color component of the subject light 510 into each color component value by photoelectric conversion, and outputs each color component value. As a result, a RAW image (original image) is output from the image sensor 120.

制御装置130は、撮像処理プログラムを実行するコンピュータである。制御装置130は、その撮像処理プログラムを実行することによって、撮像制御部1310、ホワイトバランス補正部1320、感度補正部1330、基準色差生成部1340、色成分補間部1350、高輝度領域用色成分生成部1360、基準色成分選択部1370、および画像生成部1380を機能的に有する。撮像制御部1310、ホワイトバランス補正部1320、感度補正部1330、基準色差生成部1340、色成分補間部1350、高輝度領域用色成分生成部1360、基準色成分選択部1370、および画像生成部1380は、それぞれ、図4を用いて後述する撮像処理の各ステップを行う。   The control device 130 is a computer that executes an imaging processing program. The control device 130 executes the imaging processing program to thereby generate an imaging control unit 1310, a white balance correction unit 1320, a sensitivity correction unit 1330, a reference color difference generation unit 1340, a color component interpolation unit 1350, and a color component generation for a high luminance area. Unit 1360, reference color component selection unit 1370, and image generation unit 1380 are functionally included. Imaging control unit 1310, white balance correction unit 1320, sensitivity correction unit 1330, reference color difference generation unit 1340, color component interpolation unit 1350, high luminance area color component generation unit 1360, reference color component selection unit 1370, and image generation unit 1380 Each performs each step of the imaging process mentioned later using FIG.

図2は、本実施の形態における撮像素子120の構成を示す図である。図2(a)および図2(b)に示す撮像素子120は同一の画素配列を有しており、すなわり同一の撮像素子を表している。以下の説明の便宜上、撮像素子120の横方向の座標値xかつ撮像素子120の縦方向の座標値yの画素位置に配置される画素を注目画素として、図2(a)は注目画素をR画素とした場合の撮像素子120を表す図であり、図2(b)は注目画素をB画素とした場合の撮像素子120を表す図である。   FIG. 2 is a diagram illustrating a configuration of the image sensor 120 according to the present embodiment. The image sensor 120 shown in FIGS. 2A and 2B has the same pixel arrangement, that is, represents the same image sensor. For convenience of the following description, a pixel arranged at a pixel position of a horizontal coordinate value x of the image sensor 120 and a vertical coordinate value y of the image sensor 120 is a pixel of interest, and FIG. FIG. 2B is a diagram illustrating the image sensor 120 when the pixel is a pixel, and FIG. 2B is a diagram illustrating the image sensor 120 when the pixel of interest is a B pixel.

図2(a)および図2(b)に示すように、複数のR画素および複数のB画素とともにBayer配列に従って配置される複数のG画素のうちの例えば4分の1が、被写体光510のG(緑色)成分を低感度で受光して低感度のG成分値を出力するD画素(低感度画素)に置き換わっている。具体的には、R画素が配置された横方向の行において、Bayer配列に従って配置される複数のG画素の半分がD画素に置き換わり、R画素の両隣の画素位置の一方にG画素、他方にD画素が配置されている。D画素の画素数は、G画素の画素数の3分の1であり、R画素およびB画素のそれぞれの画素数の2分の1である。R画素を囲む隣接画素には、D画素が含まれる。B画素を囲む隣接画素には、D画素が含まれる。D画素を囲む隣接画素には、G画素が含まれるとともに、他のD画素が含まれない。D画素によるG成分の受光感度は、G画素に比べて、K分の1(所定数Kは例えば2程度)である。D画素が出力する低感度のG成分値を所定数K倍すると、G画素が出力するG成分値と等しくなる。   As shown in FIGS. 2A and 2B, for example, a quarter of the plurality of G pixels arranged according to the Bayer array together with the plurality of R pixels and the plurality of B pixels is the object light 510. It is replaced with a D pixel (low sensitivity pixel) that receives the G (green) component with low sensitivity and outputs a low sensitivity G component value. Specifically, in the horizontal row in which the R pixel is arranged, half of the plurality of G pixels arranged according to the Bayer arrangement is replaced with the D pixel, and the G pixel is placed on one of the pixel positions adjacent to the R pixel, and the other is placed on the other side. D pixels are arranged. The number of D pixels is one third of the number of G pixels and one half of the number of each of R and B pixels. D pixels are included in adjacent pixels surrounding the R pixel. D pixels are included in adjacent pixels surrounding the B pixel. The adjacent pixels surrounding the D pixel include the G pixel and do not include other D pixels. The light reception sensitivity of the G component by the D pixel is 1 / K (the predetermined number K is about 2 for example) compared to the G pixel. When the low-sensitivity G component value output by the D pixel is multiplied by a predetermined number K, the value becomes equal to the G component value output by the G pixel.

図3は、D画素(低感度画素)210の構成例を示す図である。この例におけるD画素210は、G画素と同様に、半導体基板220と、その半導体基板220に形成される光電変換素子230と、マイクロレンズ240と、色フィルター250とを有する。マイクロレンズ240は、レンズ110を透過した被写体光510を透過させる。色フィルター250は、緑色に対応する分光感度特性を有し、レンズ110およびマイクロレンズ240を透過した被写体光510のG成分を透過させる。光電変換素子230は、色フィルター250を透過した被写体光510のG成分を低感度で受光し、その受光したG成分を低感度のG成分値を有する電気信号に変換し、その電気信号を出力する。   FIG. 3 is a diagram illustrating a configuration example of the D pixel (low sensitivity pixel) 210. Similar to the G pixel, the D pixel 210 in this example includes a semiconductor substrate 220, a photoelectric conversion element 230 formed on the semiconductor substrate 220, a microlens 240, and a color filter 250. The microlens 240 transmits the subject light 510 that has passed through the lens 110. The color filter 250 has a spectral sensitivity characteristic corresponding to green, and transmits the G component of the subject light 510 that has passed through the lens 110 and the microlens 240. The photoelectric conversion element 230 receives the G component of the subject light 510 transmitted through the color filter 250 with low sensitivity, converts the received G component into an electrical signal having a low sensitivity G component value, and outputs the electrical signal. To do.

D画素210は、G画素とは異なり、被写体光510のG成分を低感度で受光するための構造を有している。そうした構造のいくつかの例として、以下の第一〜第五の構造を、図3を用いて説明する。図3は、第一〜第五の構造をすべて図示しているが、D画素210は、第一〜第五の構造のうちのいずれか一つまたは複数の構造を有していればよい。   Unlike the G pixel, the D pixel 210 has a structure for receiving the G component of the subject light 510 with low sensitivity. As some examples of such a structure, the following first to fifth structures will be described with reference to FIG. FIG. 3 illustrates all of the first to fifth structures, but the D pixel 210 may have any one or more of the first to fifth structures.

第一の構造は、D画素210の光電変換素子230によってもたらされる。D画素210の光電変換素子230の受光領域がG画素の光電変換素子の受光領域よりも狭くなるように、D画素210の光電変換素子230をG画素の光電変換素子よりも小さくする。   The first structure is provided by the photoelectric conversion element 230 of the D pixel 210. The photoelectric conversion element 230 of the D pixel 210 is made smaller than the photoelectric conversion element of the G pixel so that the light reception area of the photoelectric conversion element 230 of the D pixel 210 is narrower than the light reception area of the photoelectric conversion element of the G pixel.

第二の構造は光電変換素子230直上の遮光マスク260によってもたらされる。D画素210の光電変換素子230の受光領域がG画素の光電変換素子の受光領域よりも狭くなるように、遮光マスク260が開口部265を狭くして光電変換素子230を覆う。   The second structure is provided by the light shielding mask 260 directly above the photoelectric conversion element 230. The light shielding mask 260 narrows the opening 265 so as to cover the photoelectric conversion element 230 so that the light reception area of the photoelectric conversion element 230 of the D pixel 210 is narrower than the light reception area of the photoelectric conversion element of the G pixel.

第三の構造は、マイクロレンズ240近傍に配置された遮光部材270によってもたらされる。D画素210の光電変換素子230によって受光される光量がG画素の光電変換素子によって受光される光量よりも低減されるように、遮光部材270がマイクロレンズ240を透過した被写体光510の一部を遮光する。   The third structure is provided by the light shielding member 270 disposed in the vicinity of the microlens 240. Part of the subject light 510 transmitted by the light shielding member 270 through the microlens 240 is reduced so that the amount of light received by the photoelectric conversion element 230 of the D pixel 210 is less than the amount of light received by the photoelectric conversion element of the G pixel. Shield from light.

第四の構造は、色フィルター250によってもたらされる。D画素210の色フィルター250を透過する被写体光510のG成分の光量が、G画素の色フィルターを透過する被写体光510のG成分の光量よりも小さくなるように、D画素210の色フィルター250の濃度をG画素の色フィルターの濃度よりも大きくする。   The fourth structure is provided by the color filter 250. The color filter 250 of the D pixel 210 so that the light amount of the G component of the subject light 510 transmitted through the color filter 250 of the D pixel 210 is smaller than the light amount of the G component of the subject light 510 transmitted through the color filter of the G pixel. Is made larger than the density of the color filter of the G pixel.

第五の構造は、色フィルター250を覆う光量低減フィルター280によってもたらされる。D画素210の色フィルター250に入射する被写体光510の光量が、G画素の色フィルターに入射する被写体光510の光量よりも小さくなるように、光量低減フィルター280が光量低減フィルター280を透過する被写体光510の光量を低減する。   The fifth structure is provided by the light reduction filter 280 that covers the color filter 250. Subject through which the light quantity reduction filter 280 passes through the light quantity reduction filter 280 so that the quantity of subject light 510 incident on the color filter 250 of the D pixel 210 is smaller than the quantity of subject light 510 incident on the color filter of the G pixel. The amount of light 510 is reduced.

制御装置130内の撮像制御部1310が撮像制御を行うことによって、撮像素子120からRAW画像(原画像)が出力される。そのRAW画像に対して、制御装置130内のホワイトバランス補正部1320がホワイトバランス補正処理を行うのが好ましい。通常のホワイトバランス補正処理では、RAW画像のR画素値(R画素のR成分値)およびB画素値(B画素のB成分値)にホワイトバランス補正値gainRおよびgainBをそれぞれかけた後、撮像素子の飽和レベル以下に制限されるようにクリップする。しかし、本実施の形態のホワイトバランス補正処理では以下の式(1)で表されるクリップレベルでクリップして出力する。ここで、min( )は、( )の中の最小値を表す。
クリップレベル = 撮像素子の飽和レベル×min(gainR , gainB , K) (1)
The imaging control unit 1310 in the control device 130 performs imaging control, so that a RAW image (original image) is output from the imaging element 120. The white balance correction unit 1320 in the control device 130 preferably performs white balance correction processing on the RAW image. In a normal white balance correction process, the R pixel value (R component value of R pixel) and B pixel value (B component value of B pixel) of the RAW image are respectively multiplied by white balance correction values gainR and gainB, and then the image sensor Clip to be limited to below the saturation level. However, in the white balance correction process of the present embodiment, the clip level is expressed by the clip level expressed by the following equation (1) and output. Here, min () represents the minimum value in ().
Clip level = Image sensor saturation level x min (gainR, gainB, K) (1)

通常の撮影条件において、ホワイトバランス補正値gainRおよびgainBは2程度の値を持ち、上述したように所定数Kは2であることから、以上のホワイトバランス補正処理によると、R成分値およびB成分値については従来の2倍近いダイナミックレンジを再現できる。   Under normal shooting conditions, the white balance correction values gainR and gainB have a value of about 2 and the predetermined number K is 2 as described above. Therefore, according to the above white balance correction processing, the R component value and the B component As for the value, the dynamic range close to twice the conventional value can be reproduced.

ただし、G画素値(G画素のG成分値)についてはダイナミックレンジが低いので、そのまま色差を生成すると偽色が生じてしまう。つまり、G画素のG成分値の飽和レベル以上の高輝度領域においては、G成分の露光量が飽和レベルを超えた分だけ、G画素値は本来のG成分よりも小さくなるので、基準色差(Cr=R-G、Cb=B-G)は実際よりも大きな値として算出されてしまう。   However, since the dynamic range of the G pixel value (G component value of the G pixel) is low, a false color is generated if the color difference is generated as it is. That is, in a high luminance region that is equal to or higher than the saturation level of the G component value of the G pixel, the G pixel value becomes smaller than the original G component by the amount by which the exposure amount of the G component exceeds the saturation level. Cr = RG, Cb = BG) is calculated as a larger value than the actual value.

そこで、本実施の形態では、G成分の露光量が飽和レベルをどの程度超えているかを、低感度のD画素値(D画素の低感度のG成分値)を使って推定し、上記基準色差からその推定値を減算して補正することにより、高輝度領域においても正しい基準色差Cr、Cbを得る。   Therefore, in the present embodiment, the extent to which the exposure amount of the G component exceeds the saturation level is estimated using the low-sensitivity D pixel value (the low-sensitivity G component value of the D pixel), and the reference color difference By subtracting the estimated value from the correction value, correct reference color differences Cr and Cb are obtained even in the high luminance region.

さらに、高輝度領域においてR成分およびG成分と基準色差Cr、Cbの両方が得られているので、それらに基づいて、高輝度領域のG成分を求める。   Furthermore, since both the R and G components and the reference color differences Cr and Cb are obtained in the high luminance region, the G component of the high luminance region is obtained based on them.

低輝度領域においては、G画素値に基づいて生成したG成分の方が正確なので、高輝度領域か低輝度領域かを判定し、それぞれについて適切なG成分を選択する。   In the low luminance region, the G component generated based on the G pixel value is more accurate. Therefore, it is determined whether the region is a high luminance region or a low luminance region, and an appropriate G component is selected for each.

なお、低感度画素(D画素)のレベルがG画素の1/K倍になるように設計しても、実際には数%程度の出力誤差が生じる可能性がある。また、K倍した低感度画素にはG画素のK倍のノイズが発生し、高感度撮影時にはそれが顕著になる。そのような場合には低感度画素に突出点状の偽構造が生じてしまうので、MaxMinフィルター処理によりそれを除去するのが好ましい。   Even if the low sensitivity pixel (D pixel) level is designed to be 1 / K times that of the G pixel, an output error of about several percent may actually occur. Further, K times the noise of the G pixel is generated in the low-sensitivity pixel multiplied by K, and this becomes noticeable during high-sensitivity shooting. In such a case, a protruding dot-like false structure occurs in the low-sensitivity pixel, and it is preferable to remove it by MaxMin filter processing.

図4は、本実施の形態における撮像装置100が有する制御装置130によって行われる撮像処理のフローチャートである。   FIG. 4 is a flowchart of imaging processing performed by the control device 130 included in the imaging device 100 according to the present embodiment.

ステップS310において、制御装置130内の撮像制御部1310は、撮像素子120に被写体500の光学像を露光させて撮像素子120を駆動し、RAW画像を得る。撮像素子120は、RAW画像の各画素値を、撮像素子の飽和レベル以下に制限されるようにクリップして出力する。   In step S310, the imaging control unit 1310 in the control device 130 exposes the optical element 120 to the optical image of the subject 500 and drives the imaging element 120 to obtain a RAW image. The image sensor 120 clips and outputs each pixel value of the RAW image so as to be limited to a saturation level or less of the image sensor.

ステップS315において、制御装置130内のホワイトバランス補正部1320は、公知の方法でホワイトバランス補正値gainR、gainBを求め、それをRAW画像のR画素値とB画素値にそれぞれかける。通常のホワイトバランス補正処理では、R、B画素値にホワイトバランス補正値をかけた後、撮像素子の飽和レベル以下に制限されるようにクリップするのだが、本実施形態では上述した式(1)のクリップレベルでクリップして出力する。このようにして、飽和レベル以上の値になりうるR、B画素値を出力する。以降で参照するR、B画素値は、本処理後の画素値であるものとする。   In step S315, the white balance correction unit 1320 in the control device 130 obtains white balance correction values gainR and gainB by a known method, and applies them to the R pixel value and the B pixel value of the RAW image, respectively. In normal white balance correction processing, the white balance correction value is applied to the R and B pixel values and then clipped so as to be limited to the saturation level of the image sensor or less. In this embodiment, the above-described equation (1) is used. Clip at the clip level and output. In this way, R and B pixel values that can be values above the saturation level are output. Assume that the R and B pixel values referred to hereinafter are the pixel values after this processing.

ステップS320において、制御装置130内の感度補正部1330は、D画素値に所定数Kをかけて感度を補正し、上記ステップS315と同じクリップレベル以下にクリップして出力する。D画素が出力する低感度のG成分値が所定数K倍されることによって、G画素が出力するG成分値のレベルと等しくなるとともに、飽和レベル以上の値になりうる。以降で参照するD画素値は、本処理後の画素値であるものとする。   In step S320, the sensitivity correction unit 1330 in the control device 130 corrects the sensitivity by multiplying the D pixel value by a predetermined number K, and clips and outputs the clip level below the same clip level as in step S315. By multiplying the low-sensitivity G component value output from the D pixel by a predetermined number K, the level becomes equal to the level of the G component value output from the G pixel and can be equal to or higher than the saturation level. It is assumed that the D pixel value referred to hereinafter is a pixel value after this processing.

ステップS325において、制御装置130内の感度補正部1330は、ステップS320で出力した感度補正後のK倍された低感度画素値(D画素値)に対する低感度画素平滑化を行うことが好ましい。全ての低感度画素位置(x,y)について、K倍された低感度画素値に対して、隣接するG画素値を参照して公知のMaxMinフィルター処理を行い、その結果をG成分G(x,y)として出力する。MaxMinフィルター処理としては、例えば、図5に矩形枠で囲んで示す注目画素位置(x,y)の低感度画素(D画素)に隣接する8つのG画素のG成分値の最大値と最小値を求め、D画素位置のG成分値を、最小値以上最大値以内にクリップすればよい。注目画素位置(x,y)の低感度画素(D画素)に隣接する8つのG画素は図5に円形枠で囲んで示され、それら8つのG画素の画素位置は(x−2,y)、(x−1,y−1)、(x,y−2)、(x+1,y−1)、(x+1,y)、(x+1,y+1)、(x,y+2)、(x−1,y+1)である。   In step S325, the sensitivity correction unit 1330 in the control device 130 preferably performs low-sensitivity pixel smoothing on the K-sensitized low-sensitivity pixel value (D pixel value) output in step S320 after the sensitivity correction. For all the low-sensitivity pixel positions (x, y), a known MaxMin filter process is performed on the low-sensitivity pixel values multiplied by K with reference to adjacent G pixel values, and the result is expressed as a G component G (x , Y). As the MaxMin filter processing, for example, the maximum value and the minimum value of the G component values of the eight G pixels adjacent to the low sensitivity pixel (D pixel) at the target pixel position (x, y) indicated by a rectangular frame in FIG. And the G component value at the D pixel position may be clipped within the maximum value within the minimum value. Eight G pixels adjacent to the low-sensitivity pixel (D pixel) at the target pixel position (x, y) are shown in a circular frame in FIG. 5, and the pixel positions of these eight G pixels are (x−2, y). ), (X-1, y-1), (x, y-2), (x + 1, y-1), (x + 1, y), (x + 1, y + 1), (x, y + 2), (x-1 , Y + 1).

ステップS330において、制御装置130内の基準色差生成部1340は、図2(a)に示す各R画素位置(x,y)について、例えば以下の処理を行い基準色差Crを出力する。さらに、B画素についても同様の処理を行い、図2(b)に示すB画素位置(x,y)について基準色差Cbを出力する。   In step S330, the reference color difference generation unit 1340 in the control device 130 performs, for example, the following processing on each R pixel position (x, y) illustrated in FIG. 2A and outputs the reference color difference Cr. Further, similar processing is performed for the B pixel, and the reference color difference Cb is output for the B pixel position (x, y) shown in FIG.

まず、全R画素位置(x,y)についてG成分の方向判定処理を行って、(x,y)における画像構造が縦方向か横方向かどの方向ともいえないかを判定する。簡易な処理の例としては、例えば次の式(2)および(3)を用いて、CV-CH<-thの場合、画像構造は「縦方向」と判定し、CV-CH>thの場合、画像構造は「横方向」と判定し、-th≦CV-CH≦thの場合、画像構造は「どの方向ともいえない」と判定する。図2(a)に示すように、縦方向はy方向であり、横方向はx方向である。所定の閾値thは、ノイズによる画素値の揺らぎ幅の数倍程度に設定すればよい。
CV = |G(x,y-1) −G(x,y+1)| (2)
CH = |G(x-1,y) −G(x+1,y)| (3)
First, G component direction determination processing is performed for all R pixel positions (x, y) to determine whether the image structure at (x, y) is the vertical direction or the horizontal direction. As an example of simple processing, for example, using the following formulas (2) and (3), when CV-CH <-th, the image structure is determined as “vertical direction”, and when CV-CH> th The image structure is determined as “horizontal direction”, and when −th ≦ CV−CH ≦ th, the image structure is determined as “not in any direction”. As shown in FIG. 2A, the vertical direction is the y direction, and the horizontal direction is the x direction. The predetermined threshold th may be set to about several times the fluctuation width of the pixel value due to noise.
CV = | G (x, y-1) −G (x, y + 1) | (2)
CH = | G (x-1, y) −G (x + 1, y) | (3)

次に、上記方向判定結果に基づいて、例えば以下の処理により、全R画素位置(x,y)において、基準色差Crを生成するとともに、G色成分が飽和しているか否かについての飽和判定を行う。画像構造が「縦方向」と判定された場合、基準色差Crは以下の式(4)を演算することによって生成する。G(x,y-1)=飽和レベル、かつG(x,y+1)=飽和レベルの場合、G色成分が「飽和している」と判定する。G(x,y-1)=飽和レベル、またはG(x,y+1)=飽和レベルの場合、G色成分が「飽和している」と判定することとしてもよい。
Cr =R(x,y) −(G(x,y-1)+G(x,y+1))/2 (4)
Next, based on the direction determination result, for example, by the following process, a reference color difference Cr is generated at all R pixel positions (x, y), and whether or not the G color component is saturated is determined. I do. When the image structure is determined to be “vertical direction”, the reference color difference Cr is generated by calculating the following equation (4). If G (x, y-1) = saturation level and G (x, y + 1) = saturation level, it is determined that the G color component is “saturated”. When G (x, y-1) = saturation level or G (x, y + 1) = saturation level, it may be determined that the G color component is “saturated”.
Cr = R (x, y)-(G (x, y-1) + G (x, y + 1)) / 2 (4)

画像構造が「横方向」と判定された場合、基準色差Crは以下の式(5)を演算することによって生成する。G(x-1,y)=飽和レベル、かつG(x+1,y)=飽和レベルの場合、G色成分が「飽和している」と判定する。G(x-1,y)=飽和レベル、またはG(x+1,y)=飽和レベルの場合、G色成分が「飽和している」と判定することとしてもよい。
Cr =R(x,y) −(G(x-1,y)+G(x+1,y))/2 (5)
When the image structure is determined to be “lateral direction”, the reference color difference Cr is generated by calculating the following equation (5). When G (x−1, y) = saturation level and G (x + 1, y) = saturation level, it is determined that the G color component is “saturated”. When G (x−1, y) = saturation level or G (x + 1, y) = saturation level, it may be determined that the G color component is “saturated”.
Cr = R (x, y)-(G (x-1, y) + G (x + 1, y)) / 2 (5)

画像構造が「どの方向ともいえない」と判定された場合、基準色差Crは以下の式(6)を演算することによって生成する。G(x,y-1)=飽和レベル、かつG(x,y+1)=飽和レベル、かつG(x-1,y)=飽和レベル、かつG(x+1,y)=飽和レベルの場合、G色成分が「飽和している」と判定する。G(x,y-1)=飽和レベル、G(x,y+1)=飽和レベル、G(x-1,y)=飽和レベル、またはG(x+1,y)=飽和レベルの場合、G色成分が「飽和している」と判定することとしてもよい。
Cr =R(x,y) −(G(x-1,y)+G(x+1,y)+ G(x,y-1)+G(x,y+1))/4 (6)
When it is determined that the image structure is “not in any direction”, the reference color difference Cr is generated by calculating the following equation (6). G (x, y-1) = saturation level and G (x, y + 1) = saturation level and G (x-1, y) = saturation level and G (x + 1, y) = saturation level In this case, it is determined that the G color component is “saturated”. When G (x, y-1) = saturation level, G (x, y + 1) = saturation level, G (x-1, y) = saturation level, or G (x + 1, y) = saturation level The G color component may be determined to be “saturated”.
Cr = R (x, y)-(G (x-1, y) + G (x + 1, y) + G (x, y-1) + G (x, y + 1)) / 4 (6 )

注目画素位置(x,y)に位置するR画素の最近傍のD画素値が飽和レベル未満である場合か、またはG色成分が「飽和している」と判定されなかった場合、基準色差生成部1340は、ステップS334において生成した基準色差Crを、ステップS335において補正せずに出力する。   If the closest D pixel value of the R pixel located at the target pixel position (x, y) is less than the saturation level, or if the G color component is not determined to be “saturated”, the reference color difference is generated. The unit 1340 outputs the reference color difference Cr generated in step S334 without correction in step S335.

注目画素位置(x,y) に位置するR画素の最近傍のD画素値が飽和レベル以上であり、かつG色成分が「飽和している」と判定された場合、基準色差生成部1340は、以下の式(7)によって、ステップS334において生成した基準色差Crを補正し、ステップS335において補正後の基準色差Crを出力する。
補正後の基準色差Cr=補正前の基準色差−((x,y)の近傍のD画素値−飽和レベル) (7)
When it is determined that the closest D pixel value of the R pixel located at the target pixel position (x, y) is equal to or higher than the saturation level and the G color component is “saturated”, the reference color difference generation unit 1340 The reference color difference Cr generated in step S334 is corrected by the following equation (7), and the corrected reference color difference Cr is output in step S335.
Reference color difference after correction Cr = reference color difference before correction− (D pixel value in the vicinity of (x, y) −saturation level) (7)

ステップS340およびステップS345において、制御装置130内の色成分補間部1350は、以下の処理を行い、全B画素位置、全G画素位置および全D画素位置におけるR成分および基準色差Crを補間生成する。さらに、B成分と基準色差Cbについても同様の処理を行い、全R画素位置、全G画素位置および全D画素位置におけるB成分および基準色差Cbを補間生成する。   In step S340 and step S345, the color component interpolation unit 1350 in the control device 130 performs the following processing to generate an R component and a reference color difference Cr at all B pixel positions, all G pixel positions, and all D pixel positions. . Further, the same processing is performed for the B component and the reference color difference Cb, and the B component and the reference color difference Cb at all R pixel positions, all G pixel positions, and all D pixel positions are generated by interpolation.

色成分補間部1350は、図2(b)に示す全B画素位置(x,y)についてR成分の方向判定を行い、全B画素位置(x,y)における画像構造が斜め第一方向か斜め第二方向かどの方向ともいえないかを判定する。斜め第一方向は、横方向のxの値が大きくなるにつれて縦方向のyが小さくなり、かつ横方向のxの値が小さくなるにつれて縦方向のyが大きくなる方向である。斜め第二方向は、横方向のxの値が大きくなるにつれて縦方向のyが大きくなり、かつ横方向のxの値が小さくなるにつれて縦方向のyが小さくなる方向である。ここでの簡易な方向判定としては、例えば以下の式(8)および(9)を用いた判定処理を行う。CD1-CD2<-thの場合、画像構造は「斜め第一方向」と判定し、CD1-CD2>thの場合、画像構造は「斜め第二方向」と判定し、-th≦CD1-CD2≦thの場合、画像構造は「どの方向ともいえない」と判定する。所定の閾値thは、ノイズによる画素値の揺らぎ幅の数倍程度に設定すればよい。
CD1=|R(x-1,y-1)−R(x+1,y+1)| (8)
CD2=|R(x-1,y+1)−R(x+1,y-1)| (9)
The color component interpolation unit 1350 determines the direction of the R component for all B pixel positions (x, y) shown in FIG. 2B, and determines whether the image structure at all B pixel positions (x, y) is the oblique first direction. It is determined whether the direction is the diagonal second direction or not. The diagonal first direction is a direction in which y in the vertical direction decreases as the value of x in the horizontal direction increases, and y in the vertical direction increases as the value of x in the horizontal direction decreases. The oblique second direction is a direction in which y in the vertical direction increases as the value of x in the horizontal direction increases, and y in the vertical direction decreases as the value of x in the horizontal direction decreases. As simple direction determination here, the determination process using the following formula | equation (8) and (9) is performed, for example. In the case of CD1-CD2 <-th, the image structure is determined as “oblique first direction”, and in the case of CD1-CD2> th, the image structure is determined as “oblique second direction”, and −th ≦ CD1-CD2 ≦ In the case of th, it is determined that the image structure is “not in any direction”. The predetermined threshold th may be set to about several times the fluctuation width of the pixel value due to noise.
CD1 = | R (x-1, y-1) −R (x + 1, y + 1) | (8)
CD2 = | R (x-1, y + 1) -R (x + 1, y-1) | (9)

ステップS340において、色成分補間部1350は、上記方向判定結果に基づいて、例えば以下の処理によってB画素位置(x,y)におけるR成分を補間生成する。画像構造が「斜め第一方向」と判定された場合、式(10)によってB画素位置(x,y)におけるR成分を補間生成する。画像構造が「斜め第二方向」と判定された場合、式(11)によってB画素位置(x,y)におけるR成分を補間生成する。画像構造が「どの方向ともいえない」と判定された場合、式(12)によってB画素位置(x,y)におけるR成分を補間生成する。
R(x,y) = (R(x-1,y-1)+R(x+1,y+1))/2 (10)
R(x,y) = (R(x-1,y+1)+R(x+1,y-1))/2 (11)
R(x,y) = (R(x-1,y-1)+R(x+1,y+1)+R(x-1,y+1)+R(x+1,y-1))/4 (12)
In step S340, the color component interpolation unit 1350 interpolates and generates an R component at the B pixel position (x, y), for example, by the following process based on the direction determination result. When it is determined that the image structure is “oblique first direction”, the R component at the B pixel position (x, y) is generated by interpolation using the equation (10). When it is determined that the image structure is the “diagonal second direction”, the R component at the B pixel position (x, y) is generated by interpolation using Expression (11). When it is determined that the image structure is “not in any direction”, the R component at the B pixel position (x, y) is generated by interpolation using Expression (12).
R (x, y) = (R (x-1, y-1) + R (x + 1, y + 1)) / 2 (10)
R (x, y) = (R (x-1, y + 1) + R (x + 1, y-1)) / 2 (11)
R (x, y) = (R (x-1, y-1) + R (x + 1, y + 1) + R (x-1, y + 1) + R (x + 1, y-1) ) / 4 (12)

色成分補間部1350は、図6(a)に示す全G画素位置(x,y)と全低感度画素位置(x,y)について方向判定処理を行って、その画素位置(x,y)における画像構造が縦方向か横方向かどの方向ともいえないかを判定する。ここでの簡易な方向判定としては、例えば以下の式(13)および(14)を用いた判定処理を行う。CV-CH<-thの場合、画像構造は「縦方向」と判定し、CV-CH>thの場合、画像構造は「横方向」と判定し、-th≦CV-CH≦thの場合、画像構造は「どの方向ともいえない」と判定する。所定の閾値thは、ノイズによる画素値の揺らぎ幅の数倍程度に設定すればよい。
CV = |R(x,y-1) −R(x,y+1)| (13)
CH = |R(x-1,y) −R(x+1,y)| (14)
The color component interpolation unit 1350 performs direction determination processing for all G pixel positions (x, y) and all low-sensitivity pixel positions (x, y) illustrated in FIG. 6A, and the pixel positions (x, y). It is determined whether the image structure in can be said to be either the vertical direction or the horizontal direction. As simple direction determination here, the determination process using the following formula | equation (13) and (14) is performed, for example. When CV-CH <-th, the image structure is determined as “vertical direction”. When CV-CH> th, the image structure is determined as “horizontal direction”. When -th ≦ CV-CH ≦ th, It is determined that the image structure is “not in any direction”. The predetermined threshold th may be set to about several times the fluctuation width of the pixel value due to noise.
CV = | R (x, y-1) −R (x, y + 1) | (13)
CH = | R (x-1, y) −R (x + 1, y) | (14)

ステップS340において、色成分補間部1350は、上記方向判定結果に基づいて、全G画素位置(x,y)と全低感度画素位置(x,y)のR成分を、例えば以下の処理により補間生成する。画像構造が「縦方向」と判定された場合、式(15)によって全G画素位置(x,y)および全低感度画素位置(x,y)におけるR成分を補間生成する。画像構造が「横方向」と判定された場合、式(16)によって全G画素位置(x,y)および全低感度画素位置(x,y)におけるR成分を補間生成する。画像構造が「どの方向ともいえない」と判定された場合、式(17)によって全G画素位置(x,y)および全低感度画素位置(x,y)におけるR成分を補間生成する。
R(x,y)=(R(x,y-1)+R(x,y+1))/2 (15)
R(x,y)=(R(x-1,y)+R(x+1,y))/2 (16)
R(x,y) =(R(x-1,y)+R(x+1,y)+ R(x,y-1)+R(x,y+1))/4 (17)
In step S340, the color component interpolation unit 1350 interpolates R components of all G pixel positions (x, y) and all low sensitivity pixel positions (x, y) based on the direction determination result, for example, by the following processing. Generate. When the image structure is determined to be “vertical direction”, R components at all G pixel positions (x, y) and all low-sensitivity pixel positions (x, y) are generated by interpolation using Expression (15). When it is determined that the image structure is “lateral direction”, R components at all G pixel positions (x, y) and all low-sensitivity pixel positions (x, y) are generated by interpolation using Expression (16). When it is determined that the image structure is “not in any direction”, R components at all G pixel positions (x, y) and all low sensitivity pixel positions (x, y) are generated by interpolation using Expression (17).
R (x, y) = (R (x, y-1) + R (x, y + 1)) / 2 (15)
R (x, y) = (R (x-1, y) + R (x + 1, y)) / 2 (16)
R (x, y) = (R (x-1, y) + R (x + 1, y) + R (x, y-1) + R (x, y + 1)) / 4 (17)

色成分補間部1350は、上述した処理と同様の処理によってR画素位置(x,y)、全G画素位置(x,y)および全低感度画素位置(x,y)におけるB成分を補間生成する。   The color component interpolation unit 1350 interpolates and generates B components at the R pixel position (x, y), all G pixel positions (x, y), and all low sensitivity pixel positions (x, y) by the same process as described above. To do.

ステップS345において、色成分補間部1350は、上述した全B画素位置(x,y)における画像構造の方向判定結果に基づいて、例えば以下の処理によってB画素位置(x,y)における基準色差Crを補間生成する。画像構造が「斜め第一方向」と判定された場合、式(18)によってB画素位置(x,y)における基準色差Crを補間生成する。画像構造が「斜め第二方向」と判定された場合、式(19)によってB画素位置(x,y)における基準色差Crを補間生成する。画像構造が「どの方向ともいえない」と判定された場合、式(20)によってB画素位置(x,y)における基準色差Crを補間生成する。
Cr(x,y) = (Cr(x-1,y-1)+Cr(x+1,y+1))/2 (18)
Cr(x,y) = (Cr(x-1,y+1)+Cr(x+1,y-1))/2 (19)
Cr(x,y) = (Cr(x-1,y-1)+Cr(x+1,y+1)+Cr(x-1,y+1)+Cr(x+1,y-1))/4 (20)
In step S345, the color component interpolation unit 1350, based on the image structure direction determination result at all the B pixel positions (x, y) described above, for example, the reference color difference Cr at the B pixel position (x, y) by the following processing. Is generated by interpolation. When it is determined that the image structure is “oblique first direction”, the reference color difference Cr at the B pixel position (x, y) is generated by interpolation using Expression (18). When it is determined that the image structure is the “diagonal second direction”, the reference color difference Cr at the B pixel position (x, y) is generated by interpolation using the equation (19). When it is determined that the image structure is “not in any direction”, the reference color difference Cr at the B pixel position (x, y) is generated by interpolation using the equation (20).
Cr (x, y) = (Cr (x-1, y-1) + Cr (x + 1, y + 1)) / 2 (18)
Cr (x, y) = (Cr (x-1, y + 1) + Cr (x + 1, y-1)) / 2 (19)
Cr (x, y) = (Cr (x-1, y-1) + Cr (x + 1, y + 1) + Cr (x-1, y + 1) + Cr (x + 1, y-1) ) / 4 (20)

ステップS345において、色成分補間部1350は、全G画素位置(x,y)と全低感度画素位置(x,y)における画像構造の方向判定結果に基づいて、例えば以下の処理によってB画素位置(x,y)における基準色差Crを補間生成する。画像構造が「縦方向」と判定された場合、式(21)によって全G画素位置(x,y)および全低感度画素位置(x,y)における基準色差Crを補間生成する。画像構造が「横方向」と判定された場合、式(22)によって全G画素位置(x,y)および全低感度画素位置(x,y)における基準色差Crを補間生成する。画像構造が「どの方向ともいえない」と判定された場合、式(23)によって全G画素位置(x,y)および全低感度画素位置(x,y)における基準色差Crを補間生成する。
Cr(x,y)=(Cr(x,y-1)+Cr(x,y+1))/2 (21)
Cr(x,y)=(Cr(x-1,y)+Cr(x+1,y))/2 (22)
Cr(x,y) =(Cr(x-1,y)+Cr(x+1,y)+ Cr(x,y-1)+Cr(x,y+1))/4 (23)
In step S345, the color component interpolating unit 1350 performs, for example, the following process based on the direction determination result of the image structure at all G pixel positions (x, y) and all low-sensitivity pixel positions (x, y). A reference color difference Cr at (x, y) is generated by interpolation. When it is determined that the image structure is “vertical direction”, the reference color difference Cr at all G pixel positions (x, y) and all low sensitivity pixel positions (x, y) is generated by interpolation using Expression (21). When it is determined that the image structure is “horizontal direction”, the reference color difference Cr at all G pixel positions (x, y) and all low sensitivity pixel positions (x, y) is generated by interpolation using Expression (22). When it is determined that the image structure is “not in any direction”, the reference color difference Cr at all G pixel positions (x, y) and all low-sensitivity pixel positions (x, y) is generated by interpolation using Expression (23).
Cr (x, y) = (Cr (x, y-1) + Cr (x, y + 1)) / 2 (21)
Cr (x, y) = (Cr (x-1, y) + Cr (x + 1, y)) / 2 (22)
Cr (x, y) = (Cr (x-1, y) + Cr (x + 1, y) + Cr (x, y-1) + Cr (x, y + 1)) / 4 (23)

色成分補間部1350は、上述した処理と同様の処理によってR画素位置(x,y)、全G画素位置(x,y)および全低感度画素位置(x,y)における基準色差Cbを補間生成する。   The color component interpolation unit 1350 interpolates the reference color difference Cb at the R pixel position (x, y), all G pixel positions (x, y), and all low sensitivity pixel positions (x, y) by the same process as described above. Generate.

ステップS350において、制御装置130内の高輝度領域用色成分生成部1360は、全画素位置について、R成分から基準色差Crを減算することにより、第一の高輝度領域用G成分を算出する。また、全画素位置について、B成分から基準色差Cbを減算することにより、第二の高輝度領域用G成分を算出する。そして、第一と第二の高輝度領域用G成分を平均して、高輝度領域用G成分を生成する。   In step S350, the high-luminance region color component generation unit 1360 in the control device 130 calculates the first high-luminance region G component by subtracting the reference color difference Cr from the R component for all pixel positions. For all pixel positions, the second G component for the high brightness area is calculated by subtracting the reference color difference Cb from the B component. Then, the first and second high luminance region G components are averaged to generate a high luminance region G component.

ステップS355において、制御装置130内の色成分補間部1350は、全てのR、B、G、D画素位置(x,y)におけるG成分を求めて出力する。全てのRB画素位置(x,y)については、色成分補間部1350は、以下の補間処理を行う。   In step S355, the color component interpolation unit 1350 in the control device 130 obtains and outputs G components at all R, B, G, and D pixel positions (x, y). For all RB pixel positions (x, y), the color component interpolation unit 1350 performs the following interpolation processing.

まず、色成分補間部1350は、全てのRB画素位置(x,y)におけるG成分に関する画像構造が縦方向か横方向かどの方向ともいえないかを判定する。簡易な処理の例としては、例えば次の式(24)および(25)を用いて、CV-CH<-thの場合、画像構造は「縦方向」と判定し、CV-CH>thの場合、画像構造は「横方向」と判定し、-th≦CV-CH≦thの場合、画像構造は「どの方向ともいえない」と判定する。図2(a)および図2(b)に示すように、縦方向はy方向であり、横方向はx方向である。所定の閾値thは、ノイズによる画素値の揺らぎ幅の数倍程度に設定すればよい。
CV = |G(x,y-1) −G(x,y+1)| (24)
CH = |G(x-1,y) −G(x+1,y)| (25)
First, the color component interpolation unit 1350 determines whether the image structure related to the G component at all RB pixel positions (x, y) is the vertical direction or the horizontal direction. As an example of simple processing, for example, using the following formulas (24) and (25), when CV-CH <-th, the image structure is determined as “vertical direction”, and CV-CH> th The image structure is determined as “horizontal direction”, and when −th ≦ CV−CH ≦ th, the image structure is determined as “not in any direction”. As shown in FIGS. 2A and 2B, the vertical direction is the y direction and the horizontal direction is the x direction. The predetermined threshold th may be set to about several times the fluctuation width of the pixel value due to noise.
CV = | G (x, y-1) −G (x, y + 1) | (24)
CH = | G (x-1, y) −G (x + 1, y) | (25)

次に、上記方向判定結果に基づいて、例えば以下の処理により、全てのRB画素位置(x,y)におけるG成分を補間生成する。画像構造が「縦方向」と判定された場合、式(26)によって画素位置(x,y)におけるG成分を補間生成する。画像構造が「横方向」と判定された場合、式(27)によって画素位置(x,y)におけるG成分を補間生成する。画像構造が「どの方向ともいえない」と判定された場合、式(28)によって画素位置(x,y)におけるG成分を補間生成する。
G(x,y)=(G(x,y-1)+G(x,y+1))/2 (26)
G(x,y)=(G(x-1,y)+G(x+1,y))/2 (27)
G(x,y)=(G(x-1,y)+G(x+1,y)+ G(x,y-1)+G(x,y+1))/4 (28)
Next, based on the direction determination result, G components at all RB pixel positions (x, y) are generated by interpolation, for example, by the following process. When it is determined that the image structure is “vertical direction”, the G component at the pixel position (x, y) is generated by interpolation using Expression (26). When it is determined that the image structure is “lateral direction”, the G component at the pixel position (x, y) is generated by interpolation using the equation (27). When it is determined that the image structure is “not in any direction”, the G component at the pixel position (x, y) is generated by interpolation using Expression (28).
G (x, y) = (G (x, y-1) + G (x, y + 1)) / 2 (26)
G (x, y) = (G (x-1, y) + G (x + 1, y)) / 2 (27)
G (x, y) = (G (x-1, y) + G (x + 1, y) + G (x, y-1) + G (x, y + 1)) / 4 (28)

ステップS355において、制御装置130内の色成分補間部1350は、G画素位置については、ステップS310で得られた、そのG画素位置に配置されたG画素のG成分値を出力する。D画素位置については、ステップS325で得られたD画素位置のG成分値を出力する。こうして、撮像素子120の全画素位置におけるG成分を生成することができる。   In step S355, for the G pixel position, the color component interpolation unit 1350 in the control device 130 outputs the G component value of the G pixel arranged in the G pixel position obtained in step S310. For the D pixel position, the G component value at the D pixel position obtained in step S325 is output. In this way, G components at all pixel positions of the image sensor 120 can be generated.

ステップS360において、制御装置130内の基準色成分選択部1370は、ステップS355で生成されたG成分が飽和レベル未満である画素位置については、そのG成分を選択して出力する。基準色成分選択部1370は、ステップS355で生成されたG成分が飽和レベルに達している画素位置については、ステップS350で生成された高輝度領域用G成分を選択して出力する。こうして、全てのR、B、G、D画素位置(x,y)におけるG成分が決定される。   In step S360, the reference color component selection unit 1370 in the control device 130 selects and outputs the G component for the pixel position where the G component generated in step S355 is less than the saturation level. The reference color component selection unit 1370 selects and outputs the high-luminance region G component generated in step S350 for the pixel position where the G component generated in step S355 reaches the saturation level. In this way, the G component at all R, B, G, and D pixel positions (x, y) is determined.

ステップS365において、制御装置130内の画像生成部1380は、上記ステップS330およびS335で生成された全てのR画素位置における基準色差Crおよび全てのB画素位置における基準色差Cbと、ステップS345で補間された全てのB、G画素位置における基準色差Cr、全てのR、G画素位置における基準色差Cbと、ステップS360で選択された、全てのR、B、G、D画素位置(x,y)におけるG成分とに基づき、以下の式(29)および(30)によって全画素位置にRB成分を生成する。
R=Cr+G (29)
B=Cb+G (30)
In step S365, the image generation unit 1380 in the control device 130 is interpolated in step S345 with the reference color difference Cr in all R pixel positions and the reference color difference Cb in all B pixel positions generated in steps S330 and S335. The reference color difference Cr at all B, G pixel positions, the reference color difference Cb at all R, G pixel positions, and all the R, B, G, D pixel positions (x, y) selected in step S360. Based on the G component, RB components are generated at all pixel positions by the following equations (29) and (30).
R = Cr + G (29)
B = Cb + G (30)

ステップS365において、画像生成部1380は、以上で生成された全画素位置におけるG成分、R成分、B成分に基づき、RGB画像を生成する。画像生成部1380は、生成したRGB画像に対して、さらに不図示の公知の階調補正や彩度強調や輪郭強調などを施して出力する。   In step S365, the image generation unit 1380 generates an RGB image based on the G component, R component, and B component at all pixel positions generated as described above. The image generation unit 1380 further performs well-known gradation correction (not shown), saturation enhancement, edge enhancement, and the like on the generated RGB image and outputs the result.

本実施の形態における撮像素子120は、被写体光510のG成分(緑色成分)を受光してG成分に対応するG成分値を出力するG画素を有する。撮像素子120は、被写体光のR成分(赤色成分)およびB成分(青色成分)をそれぞれ受光してR成分(赤色成分)およびB成分(青色成分)にそれぞれ対応するR成分値およびB成分値をそれぞれ出力するR画素およびB画素とを有する。撮像素子120は、被写体光510のG成分を、G画素よりも低い感度で受光して低感度のG成分値を出力するD画素を有する。D画素の画素数はG画素、R画素およびB画素のいずれの画素よりも少ない。R画素を囲む隣接画素またはそのR画素に最も近い少なくとも一つの他のR画素を囲む隣接画素には、D画素が含まれる。B画素を囲む隣接画素またはそのB画素に最も近い少なくとも一つの他のB画素を囲む隣接画素には、D画素が含まれる。D画素を囲む隣接画素には、G画素が含まれるとともに、他のD画素が含まれない。R画素やB画素の近傍にD画素が位置しているので、その近傍のD画素を参照することによって、R画素やB画素の画素位置における飽和を検出しやすい。D画素の周囲には必ずD画素ではなく少なくとも2個以上のG画素が隣接することになるので、ステップS325において、D画素の画素値に対する低感度画素平滑化を行うことができる。D画素の画素数がR画素、B画素、G画素よりも少ないので、低輝度領域の再現性への影響は小さい。   The image sensor 120 according to the present embodiment has G pixels that receive the G component (green component) of the subject light 510 and output a G component value corresponding to the G component. The image sensor 120 receives the R component (red component) and the B component (blue component) of the subject light, respectively, and the R component value and the B component value corresponding to the R component (red component) and the B component (blue component), respectively. R and B pixels that respectively output. The image sensor 120 has a D pixel that receives the G component of the subject light 510 with a lower sensitivity than the G pixel and outputs a low-sensitivity G component value. The number of D pixels is smaller than any of G pixels, R pixels, and B pixels. The adjacent pixel surrounding the R pixel or the adjacent pixel surrounding at least one other R pixel closest to the R pixel includes the D pixel. The adjacent pixel surrounding the B pixel or the adjacent pixel surrounding at least one other B pixel closest to the B pixel includes the D pixel. The adjacent pixels surrounding the D pixel include the G pixel and do not include other D pixels. Since the D pixel is positioned in the vicinity of the R pixel and the B pixel, it is easy to detect saturation at the pixel position of the R pixel and the B pixel by referring to the D pixel in the vicinity thereof. Since at least two G pixels, not necessarily D pixels, are always adjacent to the periphery of the D pixel, low-sensitivity pixel smoothing with respect to the pixel value of the D pixel can be performed in step S325. Since the number of D pixels is smaller than that of R pixels, B pixels, and G pixels, the influence on the reproducibility of the low luminance region is small.

本実施の形態における撮像装置100は、上述した撮像素子120と、制御装置130とを有する。制御装置130は感度補正部1330を有し、感度補正部1330は、撮像素子120から出力された低感度のG成分値を所定数K倍することによって、D画素における低感度のG成分値を、D画素がG画素と等しい感度でG成分を受光した場合に得られる、D画素におけるG成分に対応するG成分値に補正する。御装置130は画像生成部1380を有し、画像生成部1380は、R画素およびB画素におけるそれぞれのR成分値およびB成分値と、G画素におけるG成分値と、D画素における感度補正後のG成分値と、G成分値の飽和レベルと、D画素における感度補正後のG成分値とG成分値の飽和レベルとの大小関係とに基づき、G画素、R画素およびB画素の各画素におけるG成分値、R成分値およびB成分値を生成することによって、画像を生成する。G成分値の飽和を考慮するため、画像生成における高輝度領域の再現性を保つことができる。   The imaging device 100 in the present embodiment includes the above-described imaging element 120 and the control device 130. The control device 130 includes a sensitivity correction unit 1330. The sensitivity correction unit 1330 multiplies the low-sensitivity G component value output from the image sensor 120 by a predetermined number K, thereby reducing the low-sensitivity G component value in the D pixel. The G component value corresponding to the G component in the D pixel, which is obtained when the D pixel receives the G component with the same sensitivity as the G pixel, is corrected. The control device 130 includes an image generation unit 1380. The image generation unit 1380 includes the R component value and the B component value in the R pixel and the B pixel, the G component value in the G pixel, and the sensitivity correction in the D pixel. Based on the G component value, the saturation level of the G component value, and the magnitude relationship between the G component value after sensitivity correction in the D pixel and the saturation level of the G component value, each of the G pixel, R pixel, and B pixel An image is generated by generating a G component value, an R component value, and a B component value. Since the saturation of the G component value is taken into account, it is possible to maintain the reproducibility of the high luminance region in image generation.

本実施の形態における撮像装置100は、基準色差生成部1340をさらに有する。基準色差生成部1340は、R画素におけるR成分値とB画素におけるB成分値とG画素におけるG成分値とに基づいてR画素およびB画素における基準色差CrおよびCbを生成し、R画素およびB画素における基準色差CrおよびCbに基づいてG画素における基準色差CrおよびCbを生成する。基準色差生成部1340は、R画素およびB画素の近傍のD画素における感度補正後のG成分値が飽和レベル以上である場合、かつ基準色差生成部1340によるR画素およびB画素における基準色差CrおよびCbの生成に用いられたG成分値がすべて飽和レベルに達している場合、R画素およびB画素の近傍のD画素における感度補正後のG成分値と飽和レベルとの差に基づいて、R画素およびB画素における基準色差CrおよびCbを補正する。画像生成部1380は、G画素、R画素およびB画素の各画素におけるR成分値およびB成分値を、G画素、R画素およびB画素の各画素におけるG成分値ならびに基準色差CrおよびCbに基づいて生成する。G成分値の飽和を考慮するため、画像生成における高輝度領域の再現性を保つことができる。   The imaging apparatus 100 according to the present embodiment further includes a reference color difference generation unit 1340. The reference color difference generation unit 1340 generates reference color differences Cr and Cb in the R pixel and the B pixel based on the R component value in the R pixel, the B component value in the B pixel, and the G component value in the G pixel. Based on the reference color differences Cr and Cb in the pixel, the reference color differences Cr and Cb in the G pixel are generated. The reference color difference generation unit 1340, when the G component value after sensitivity correction in the D pixel near the R pixel and the B pixel is equal to or higher than the saturation level, and the reference color difference Cr in the R pixel and the B pixel by the reference color difference generation unit 1340 When all the G component values used to generate Cb have reached the saturation level, the R pixel is determined based on the difference between the G component value after sensitivity correction and the saturation level in the D pixel in the vicinity of the R pixel and the B pixel. And the reference color differences Cr and Cb in the B pixel are corrected. The image generation unit 1380 calculates the R component value and the B component value in each pixel of the G pixel, the R pixel, and the B pixel based on the G component value and the reference color differences Cr and Cb in each pixel of the G pixel, the R pixel, and the B pixel. To generate. Since the saturation of the G component value is taken into account, it is possible to maintain the reproducibility of the high luminance region in image generation.

本実施の形態における撮像素子120の構成は、図2に示す構成に限られない。図7は、撮像素子120の構成の変形例を示す図である。図7(a)では、Bayer配列の画素位置(x,y)に配置された注目画素であるR画素に対して、その注目画素と同じ行の両側横方向に3つ隣の画素位置(x−3,y)および(x+3,y)におけるG画素がD画素に置き換わっている。また、その注目画素と同じ列の両側縦方向に3つ隣の画素位置(x,y−3)および(x,y+3)におけるG画素がD画素に置き換わっている。D画素の画素数はG画素、R画素およびB画素のいずれの画素よりも少ない。注目画素であるR画素を囲む隣接画素にはD画素は含まれないが、注目画素であるR画素に最も近い少なくとも一つの他のR画素である画素位置(x−2,y)、(x+2,y)、(x,y−2)または(x,y+2)を囲む隣接画素にはD画素が含まれる。   The configuration of the image sensor 120 in the present embodiment is not limited to the configuration shown in FIG. FIG. 7 is a diagram illustrating a modified example of the configuration of the image sensor 120. In FIG. 7A, with respect to the R pixel that is the target pixel arranged at the pixel position (x, y) of the Bayer array, three adjacent pixel positions (x The G pixels in −3, y) and (x + 3, y) are replaced with D pixels. In addition, the G pixel at the pixel positions (x, y−3) and (x, y + 3) adjacent to each other in the vertical direction on both sides of the same column as the target pixel is replaced with the D pixel. The number of D pixels is smaller than any of G pixels, R pixels, and B pixels. The adjacent pixels surrounding the R pixel as the target pixel do not include the D pixel, but the pixel position (x−2, y), (x + 2) as at least one other R pixel closest to the R pixel as the target pixel , Y), (x, y−2) or adjacent pixels surrounding (x, y + 2) include D pixels.

図7(b)では、図2(a)に示す配列の画素位置(x,y)に配置された注目画素であるR画素に対して、その注目画素と同じ行に配置されていたD画素がG画素に戻されている。すなわち、R画素が配置されている行に関して、D画素が配置されている行と配置されていない行が交互に縦方向に1行おきに並置されている。D画素の画素数はG画素、R画素およびB画素のいずれの画素よりも少ない。注目画素であるR画素を囲む隣接画素にはD画素は含まれないが、注目画素であるR画素に最も近い少なくとも一つの他のR画素である画素位置(x,y−2)または(x,y+2)を囲む隣接画素にはD画素が含まれる。   In FIG. 7B, for the R pixel that is the pixel of interest arranged at the pixel position (x, y) in the array shown in FIG. 2A, the D pixel that is arranged in the same row as the pixel of interest. Is returned to the G pixel. That is, with respect to the row in which the R pixel is arranged, the row in which the D pixel is arranged and the row in which the D pixel is not arranged are alternately arranged in the vertical direction every other row. The number of D pixels is smaller than any of G pixels, R pixels, and B pixels. The adjacent pixels surrounding the R pixel that is the target pixel do not include the D pixel, but the pixel position (x, y−2) or (x) that is at least one other R pixel closest to the R pixel that is the target pixel , Y + 2) includes D pixels in adjacent pixels.

撮像装置100の制御装置130が上述の実施形態および変形例の各々における撮像処理を実行するためのコンピュータプログラム製品は、図8に示されるように、プログラム記憶媒体2000(例えばCD−ROM)や通信ネットワーク4000(例えばインターネット)によって伝達されるデータ信号を通じてデータ処理装置1500(例えばPC)に提供される。撮像装置100は、そのデータ処理装置1500から通信を介して撮像処理プログラムを読み込む。   As shown in FIG. 8, the computer program product for the control device 130 of the imaging device 100 to execute the imaging processing in each of the above-described embodiments and modifications is a program storage medium 2000 (for example, a CD-ROM) or communication. The data processing apparatus 1500 (for example, a PC) is provided through a data signal transmitted through the network 4000 (for example, the Internet). The imaging device 100 reads an imaging processing program from the data processing device 1500 via communication.

データ処理装置1500は、プログラム記憶媒体2000を介して撮像処理プログラムの提供を受ける。あるいは、以下の供給形態で撮像処理プログラムが提供されても良い。データ処理装置1500は通信ネットワーク4000との接続機能を有する。サーバー3000は撮像処理プログラムを提供するコンピュータであり、ハードディスクなどの記憶媒体に撮像処理プログラムを格納する。サーバー3000はハードディスクから読み出した撮像処理プログラムを、データ信号として搬送波に載せ、通信ネットワーク4000を介してデータ処理装置1500へ転送する。以上のように、撮像処理プログラムは、プログラム記憶媒体2000や通信ネットワーク4000を介するデータ信号としての提供を含む種々の形態のコンピュータプログラム製品によって供給されることが好ましい。   The data processing device 1500 is provided with an imaging processing program via the program storage medium 2000. Alternatively, the imaging processing program may be provided in the following supply form. The data processing device 1500 has a connection function with the communication network 4000. The server 3000 is a computer that provides an imaging processing program, and stores the imaging processing program in a storage medium such as a hard disk. The server 3000 places the imaging processing program read from the hard disk on a carrier wave as a data signal, and transfers it to the data processing device 1500 via the communication network 4000. As described above, the imaging processing program is preferably supplied by various forms of computer program products including provision as data signals via the program storage medium 2000 and the communication network 4000.

100 撮像装置、110 レンズ、120 撮像素子、130 制御装置、
210 低感度画素、220 半導体基板、230 光電変換素子、
240 マイクロレンズ、250 色フィルター、
260 遮光マスク、265 開口部、
270 遮光部材、280 光量低減フィルター、
500 被写体、510 被写体光、
1310 撮像制御部、1320 ホワイトバランス補正部、1330 感度補正部、
1340 基準色差生成部、1350 色成分補間部、
1360 高輝度領域用色成分生成部、1370 基準色成分選択部、
1380 画像生成部、
1500 データ処理装置、2000 プログラム記憶媒体、
3000 サーバー、4000 通信ネットワーク
100 imaging device, 110 lens, 120 imaging device, 130 control device,
210 low-sensitivity pixel, 220 semiconductor substrate, 230 photoelectric conversion element,
240 micro lens, 250 color filter,
260 shading mask, 265 opening,
270 light shielding member, 280 light quantity reduction filter,
500 subjects, 510 subject light,
1310 Imaging control unit, 1320 White balance correction unit, 1330 Sensitivity correction unit,
1340 reference color difference generation unit, 1350 color component interpolation unit,
1360 color component generation unit for high brightness area, 1370 reference color component selection unit,
1380 image generator,
1500 data processing device, 2000 program storage medium,
3000 servers, 4000 communication networks

Claims (9)

被写体光の第一の色成分を受光して前記第一の色成分に対応する第一の成分値を出力する第一の画素と、
被写体光の第二の色成分を受光して前記第二の色成分に対応する第二の成分値を出力する第二の画素と、
前記被写体光の前記第一の色成分を、前記第一の画素よりも低い感度で受光して第三の成分値を出力する第三の画素とを備え、
前記第三の画素の画素数は前記第一の画素および前記第二の画素のいずれの画素よりも少なく、
前記第二の画素を囲む隣接画素、または前記第二の画素に最も近い少なくとも一つの他の前記第二の画素を囲む隣接画素には、前記第三の画素が含まれ、
前記第三の画素を囲む隣接画素には、前記第一の画素が含まれるとともに、他の前記第三の画素が含まれないことを特徴とする撮像素子。
A first pixel that receives a first color component of subject light and outputs a first component value corresponding to the first color component;
A second pixel that receives a second color component of subject light and outputs a second component value corresponding to the second color component;
A third pixel that receives the first color component of the subject light with a lower sensitivity than the first pixel and outputs a third component value;
The number of pixels of the third pixel is less than any of the first pixel and the second pixel,
The adjacent pixel surrounding the second pixel, or the adjacent pixel surrounding at least one other second pixel closest to the second pixel includes the third pixel,
The imaging device, wherein the adjacent pixel surrounding the third pixel includes the first pixel and does not include the other third pixel.
請求項1に記載の撮像素子において、
前記第三の画素は、前記被写体光の前記第一の色成分を、前記第一の画素よりも狭い受光領域で受光することによって、低い感度で受光して前記第三の成分値を出力することを特徴とする撮像素子。
The imaging device according to claim 1,
The third pixel receives the first color component of the subject light in a light receiving region that is narrower than the first pixel, thereby receiving the third component value with low sensitivity. An image sensor characterized by the above.
請求項1に記載の撮像素子において、
前記第三の画素は、光量低減フィルターを有し、前記被写体光の前記第一の色成分を、前記光量低減フィルターを透過させることによって、低い感度で受光して前記第三の成分値を出力することを特徴とする撮像素子。
The imaging device according to claim 1,
The third pixel includes a light amount reduction filter, and transmits the first color component of the subject light through the light amount reduction filter with low sensitivity and outputs the third component value. An image pickup device characterized by:
請求項1〜3のいずれか1項に記載の撮像素子と、
前記撮像素子から出力された前記第三の成分値を所定数倍することによって、前記第三の画素における前記第三の成分値を、前記第三の画素が前記第一の画素と等しい感度で前記第一の色成分を受光した場合に得られる、前記第三の画素における前記第一の色成分に対応する第四の成分値に補正する感度補正手段と、
前記第二の画素における前記第二の成分値と、前記第一の画素における前記第一の成分値と、前記第三の画素における前記第四の成分値と、前記第一の成分値の飽和レベルと、前記第四の成分値と前記飽和レベルとの大小関係とに基づき、前記第一の画素および前記第二の画素の各画素における前記第一の成分値および前記第二の成分値を生成することによって、画像を生成する画像生成手段とを備えることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
By multiplying the third component value output from the image sensor by a predetermined number of times, the third component value in the third pixel is obtained with the sensitivity that the third pixel is equal to the first pixel. Sensitivity correction means for correcting to a fourth component value corresponding to the first color component in the third pixel, obtained when the first color component is received;
Saturation of the second component value in the second pixel, the first component value in the first pixel, the fourth component value in the third pixel, and the first component value Based on the level and the magnitude relationship between the fourth component value and the saturation level, the first component value and the second component value in each pixel of the first pixel and the second pixel are An imaging apparatus comprising: an image generation unit configured to generate an image by generating the image.
請求項4に記載の撮像装置において、
前記第二の画素における前記第二の成分値と前記第一の画素における前記第一の成分値とに基づいて前記第二の画素における基準色差を生成し、前記第二の画素における前記基準色差に基づいて前記第一の画素における基準色差を生成する色差生成手段をさらに備え、
前記色差生成手段は、前記第二の画素の近傍の前記第三の画素における前記第四の成分値が前記飽和レベル以上である場合、かつ前記色差生成手段による前記第二の画素における前記基準色差の生成に用いられた前記第一の成分値がすべて前記飽和レベルに達している場合、前記第二の画素の近傍の前記第三の画素における前記第四の成分値と前記飽和レベルとの差に基づいて、前記第二の画素における前記基準色差を補正し、
前記画像生成手段は、前記第一の画素および前記第二の画素の各画素における前記第二の成分値を、前記第一の画素および前記第二の画素の各画素における前記第一の成分値および前記基準色差に基づいて生成することを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A reference color difference in the second pixel is generated based on the second component value in the second pixel and the first component value in the first pixel, and the reference color difference in the second pixel is generated. Further comprising color difference generating means for generating a reference color difference in the first pixel based on
The color difference generation unit is configured such that when the fourth component value in the third pixel in the vicinity of the second pixel is equal to or higher than the saturation level, and the reference color difference in the second pixel by the color difference generation unit When all of the first component values used for generating the saturation level have reached the saturation level, the difference between the fourth component value and the saturation level in the third pixel in the vicinity of the second pixel And correcting the reference color difference in the second pixel,
The image generation means calculates the second component value in each pixel of the first pixel and the second pixel, and the first component value in each pixel of the first pixel and the second pixel. And an image pickup device generated based on the reference color difference.
請求項5に記載の撮像装置において、
前記第一の画素における前記第二の色成分に対応する前記第二の成分値を、前記第一の画素の近傍の前記第二の画素における前記撮像素子によって出力された前記第二の成分値に基づいて補間生成するとともに、前記第二の画素における前記第一の色成分に対応する前記第一の成分値を、前記第二の画素の近傍の前記第一の画素における前記撮像素子によって出力された前記第一の成分値に基づいて補間生成する色成分補間手段と、
前記色成分補間生成手段によって補間生成された、前記第一の画素における前記第二の色成分に対応する前記第二の成分値と、前記撮像素子によって出力された、前記第二の画素における前記第二の色成分に対応する前記第二の成分値と、前記第一の画素および前記第二の画素の各画素における前記基準色差とに基づいて、前記第一の画素および前記第二の画素の各画素における前記第一の色成分に対応する高輝度領域用色成分を生成する高輝度領域用色成分生成手段と、
前記第一の画素においては前記撮像素子によって出力された前記第一の色成分に対応する前記第一の成分値が、前記第二の画素においては前記色成分補間手段によって補間生成された前記第一の色成分に対応する前記第一の成分値が、前記飽和レベルに達していない場合は該第一の成分値を、該第一の成分値が前記飽和レベルに達している場合は前記高輝度領域用色成分の高輝度領域用色成分値を、基準色成分として選択する基準色成分選択手段とをさらに備え、
前記画像生成手段は、前記第一の画素および第二の画素の各画素における前記基準色差および前記基準色成分に基づき、前記第一の画素および前記第二の画素の各画素における前記第一の成分値および前記第二の成分値を生成することによって、前記画像を生成することを特徴とする撮像装置。
The imaging apparatus according to claim 5,
The second component value corresponding to the second color component in the first pixel is output by the image sensor in the second pixel in the vicinity of the first pixel. And generating the first component value corresponding to the first color component in the second pixel by the imaging device in the first pixel in the vicinity of the second pixel. Color component interpolation means for generating an interpolation based on the first component value,
The second component value corresponding to the second color component in the first pixel, which is generated by interpolation by the color component interpolation generation means, and the second pixel value output by the image sensor. Based on the second component value corresponding to the second color component and the reference color difference in each pixel of the first pixel and the second pixel, the first pixel and the second pixel High-luminance area color component generating means for generating a high-luminance area color component corresponding to the first color component in each pixel of
In the first pixel, the first component value corresponding to the first color component output by the image sensor is interpolated and generated by the color component interpolation means in the second pixel. When the first component value corresponding to one color component does not reach the saturation level, the first component value is set. When the first component value reaches the saturation level, the high value is set. A reference color component selection means for selecting a color component value for the high luminance area of the color component for the luminance area as a reference color component;
The image generation means is configured to determine the first pixel in each pixel of the first pixel and the second pixel based on the reference color difference and the reference color component in each pixel of the first pixel and the second pixel. An image pickup apparatus that generates the image by generating a component value and the second component value.
請求項5または6に記載の撮像装置において、
前記色差生成手段によって前記基準色差が生成される際に用いられる前記第三の画素における前記第四の成分値を、前記第三の画素の周囲の前記第一の画素を参照してMaxMinフィルター処理を行うことによってクリップする低感度画素平滑化手段をさらに備えることを特徴とする撮像装置。
In the imaging device according to claim 5 or 6,
The fourth component value in the third pixel used when the reference color difference is generated by the color difference generation unit is referred to the first pixel around the third pixel, and MaxMin filter processing is performed. An image pickup apparatus, further comprising: a low-sensitivity pixel smoothing unit that performs clipping.
請求項4〜7のいずれか1項に記載の撮像装置において、
前記撮像素子から出力された前記第二の成分値にホワイトバランス補正値を乗じることによって、前記第二の成分値を補正するホワイトバランス補正手段をさらに備えることを特徴とする撮像装置。
In the imaging device according to any one of claims 4 to 7,
An imaging apparatus, further comprising: a white balance correction unit that corrects the second component value by multiplying the second component value output from the imaging element by a white balance correction value.
被写体光の第一の色成分を受光して前記第一の色成分に対応する第一の成分値を出力する第一の画素と、被写体光の第二の色成分を受光して前記第二の色成分に対応する第二の成分値を出力する第二の画素と、前記被写体光の前記第一の色成分を、前記第一の画素よりも低い感度で受光して第三の成分値を出力する第三の画素とを有し、前記第三の画素の画素数は前記第一の画素および前記第二の画素のいずれの画素よりも少なく、前記第三の画素が他の前記第三の画素に隣接しない撮像素子から出力された前記第三の成分値を所定数倍することによって、前記第三の画素における前記第三の成分値を、前記第三の画素が前記第一の画素と等しい感度で前記第一の色成分を受光した場合に得られる、前記第三の画素における前記第一の色成分に対応する第四の成分値に補正する感度補正処理と、
前記第二の画素における前記第二の成分値と、前記第一の画素における前記第一の成分値と、前記第三の画素における前記第四の成分値と、前記第一の成分値の飽和レベルと、前記第四の成分値と前記飽和レベルとの大小関係とに基づき、前記第一の画素および前記第二の画素の各画素における前記第一の成分値および前記第二の成分値を生成することによって、画像を生成する画像生成処理とをコンピュータに実行させることを特徴とする撮像処理プログラム。
A first pixel that receives a first color component of subject light and outputs a first component value corresponding to the first color component; and a second pixel that receives a second color component of subject light and A second pixel that outputs a second component value corresponding to the first color component, and a third component value that receives the first color component of the subject light with lower sensitivity than the first pixel. And the third pixel has a smaller number of pixels than either the first pixel or the second pixel, and the third pixel is the other of the other pixels. The third component value output from the image sensor not adjacent to the third pixel is multiplied by a predetermined number, whereby the third component value in the third pixel is determined by the third pixel. The first color component in the third pixel obtained when the first color component is received with the same sensitivity as the pixel A sensitivity correction process for correcting the fourth component value corresponding,
Saturation of the second component value in the second pixel, the first component value in the first pixel, the fourth component value in the third pixel, and the first component value Based on the level and the magnitude relationship between the fourth component value and the saturation level, the first component value and the second component value in each pixel of the first pixel and the second pixel are An imaging processing program that causes a computer to execute image generation processing for generating an image by generating the image.
JP2013158957A 2013-07-31 2013-07-31 Imaging device, imaging apparatus and imaging processing program Pending JP2015032870A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013158957A JP2015032870A (en) 2013-07-31 2013-07-31 Imaging device, imaging apparatus and imaging processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013158957A JP2015032870A (en) 2013-07-31 2013-07-31 Imaging device, imaging apparatus and imaging processing program

Publications (1)

Publication Number Publication Date
JP2015032870A true JP2015032870A (en) 2015-02-16

Family

ID=52517891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013158957A Pending JP2015032870A (en) 2013-07-31 2013-07-31 Imaging device, imaging apparatus and imaging processing program

Country Status (1)

Country Link
JP (1) JP2015032870A (en)

Similar Documents

Publication Publication Date Title
US8798395B2 (en) Image processing apparatus, image processing method, and program
US7839437B2 (en) Image pickup apparatus, image processing method, and computer program capable of obtaining high-quality image data by controlling imbalance among sensitivities of light-receiving devices
JP4371108B2 (en) Imaging apparatus and method, recording medium, and program
CN105659583B (en) Image processing device, image processing method, electronic device, and computer-readable storage medium
US8436910B2 (en) Image processing apparatus and image processing method
JP2013219705A (en) Image processor, image processing method and program
US20140375848A1 (en) Image processing apparatus, image processing method, and program
WO2017098897A1 (en) Imaging device, imaging control method, and program
WO2010001811A1 (en) Image signal correcting device, imaging device, image signal correcting method, and program
JP5222625B2 (en) Imaging device
WO2014073386A1 (en) Signal processing device, signal processing method and signal processing program
US7982787B2 (en) Image apparatus and method and program for producing interpolation signal
JP2010016814A (en) Image processing apparatus and method, and computer-readable medium
JP2015186247A (en) Image processing system, control method, and program
JPWO2013099792A1 (en) Image processing apparatus, method and program, and imaging apparatus
KR101243285B1 (en) Apparatus and method for reconstructing color image based on multi-spectrum using Bayer Color Filter Array camera
JP5631769B2 (en) Image processing device
JP2016015634A (en) Imaging device, image processing method and image processing program
JP4934991B2 (en) Imaging signal processing apparatus and method, and imaging apparatus
JP2010178226A (en) Imaging apparatus, chromatic aberration suppressing method, and chromatic aberration suppressing circuit, and program
JP2015032870A (en) Imaging device, imaging apparatus and imaging processing program
JP5363966B2 (en) Imaging device
JP5087474B2 (en) Imaging device
JP2009147762A (en) Image processing apparatus, image processing method, and program
JP2014158165A (en) Image processing device, image processing method, and program