JP2018093284A - Visible and near infrared simultaneous imaging device - Google Patents
Visible and near infrared simultaneous imaging device Download PDFInfo
- Publication number
- JP2018093284A JP2018093284A JP2016232991A JP2016232991A JP2018093284A JP 2018093284 A JP2018093284 A JP 2018093284A JP 2016232991 A JP2016232991 A JP 2016232991A JP 2016232991 A JP2016232991 A JP 2016232991A JP 2018093284 A JP2018093284 A JP 2018093284A
- Authority
- JP
- Japan
- Prior art keywords
- infrared
- output
- pixel
- white
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
Abstract
【課題】可視光帯域と近赤外光帯域の光を透過するDBPFと白Wの画素領域を有するカラーフィルタとを用いて可視画像と近赤外画像を同時に撮影する場合に、白W成分の信号出力を用いた演算により赤外IR成分の信号出力を求めることで発生するモアレを低減できる可視近赤外同時撮像装置を提供する。【解決手段】可視近赤外同時撮像装置は、可視光と近赤外光を透過するダブルバンドパスフィルタ(DBPF2)と、赤、緑、青、白の各画素領域が所定パターンで配置されるとともに、各画素領域が近赤外光に透過特性を有するカラーフィルタと、固体撮像素子3を備える。可視近赤外同時撮像装置は、赤外光成分の出力信号を算出するIR信号生成部6と、IR信号生成部6により算出された赤外光成分の出力信号に生じるモアレを低減するローパスフィルタ21とを備える。【選択図】図1Kind Code: A1 When a visible image and a near-infrared image are simultaneously captured using a DBPF that transmits light in a visible light band and a near-infrared light band and a color filter having a white W pixel region, a white W component is obtained. Provided is a simultaneous visible and near-infrared imaging apparatus capable of reducing moiré generated by obtaining signal outputs of infrared and IR components through calculation using signal outputs. A visible/near-infrared simultaneous imaging device includes a double bandpass filter (DBPF2) that transmits visible light and near-infrared light, and red, green, blue, and white pixel regions arranged in a predetermined pattern. In addition, each pixel region includes a color filter having a transmission characteristic for near-infrared light, and a solid-state imaging device 3 . The visible and near-infrared simultaneous imaging apparatus includes an IR signal generator 6 that calculates an output signal of the infrared light component, and a low-pass filter that reduces moiré generated in the output signal of the infrared light component calculated by the IR signal generator 6. 21. [Selection drawing] Fig. 1
Description
本発明は、可視画像と赤外画像を同時に撮影して出力可能な可視近赤外同時撮像装置に関する。 The present invention relates to a visible and near infrared simultaneous imaging apparatus capable of simultaneously capturing and outputting a visible image and an infrared image.
一般に、監視用のカメラ等において、可視光での撮影と赤外光での撮影との両方が可能なカメラが求められている。一つの固体撮像素子で、可視画像と赤外画像を撮影するカメラとして、可視光帯域の光と、近赤外光帯域の光とを透過するダブルバンドパスフィルタと、赤R、緑G、青Bの画素領域に加えて赤外IRの画素領域をモザイク状に有するカラーフィルタとを用いる撮像システムが提案されている(例えば、特許文献1参照)。 In general, there is a demand for a camera capable of both photographing with visible light and photographing with infrared light, such as a monitoring camera. As a camera that captures visible and infrared images with a single solid-state imaging device, a double bandpass filter that transmits light in the visible light band and light in the near infrared light band, red R, green G, and blue An imaging system using a color filter having an infrared IR pixel region in a mosaic shape in addition to the B pixel region has been proposed (for example, see Patent Document 1).
DBPFは、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタである。この可視光帯域と第2の波長帯域の間の波長帯域(第1の波長帯域の一部)は、光に対して遮断特性を有する。上述の撮像システムとしてのカメラでは、通常のカメラで用いられる赤外カットフィルタを用いていないため、赤外光は、DBPFの赤外光帯域(第2の波長帯域)を透過するとともに、カラーフィルタの赤外IR画素領域を透過する。この際に赤外光は、ダイクロイックのカラーフィルタのIR画素領域を透過するだけではなく、R、G、Bの各画素領域を透過してしまう。すなわち、カラーフィルタには、赤外光を透過する特性があり、通常のカメラでは赤外カットフィルタを用いて赤外光の影響を排除している。 The DBPF has a transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength band that is a part of the first wavelength band. Is an optical filter having transmission characteristics. A wavelength band (a part of the first wavelength band) between the visible light band and the second wavelength band has a blocking characteristic with respect to light. In the camera as the imaging system described above, the infrared cut filter used in a normal camera is not used. Therefore, the infrared light transmits the infrared light band (second wavelength band) of DBPF, and the color filter. Is transmitted through the infrared IR pixel region. At this time, the infrared light passes not only through the IR pixel region of the dichroic color filter but also through the R, G, and B pixel regions. That is, the color filter has a characteristic of transmitting infrared light, and an ordinary camera uses an infrared cut filter to eliminate the influence of infrared light.
上述の撮像システムでは、カラーフィルタを有する固体撮像素子において、赤R、緑G、青Bの各画素領域では、赤外光の影響で信号強度が高くなり、不自然な画像となる虞がある。そこで、上述の撮像システムでは、画像処理として、RGBの各信号出力からIRの信号出力分を減算している。ここで、各画素領域の透過光がIRを含むことから赤Rの画素領域の透過光をR+IR、緑Gの画素領域の透過光をG+IR、青Bの画素領域の透過光をB+IRで表すことができるので、各色の画素領域に対応する出力信号から赤外IR成分を取り除くと、(R+IR)−IR=R、(G+IR)−IR=G、(B+IR)−IR=Bとなり、これにより赤外IR成分を取り除いた赤R、緑G、青Bの信号を得ることができる。これにより上述の撮像システムでは、IR画像とIRの影響を低減した可視画像とを同時に出力可能となっている。なお、IR画素領域は、可視光を遮断し、DBPFの第2の波長帯域に対応する近赤外光を透過する。 In the above-described imaging system, in a solid-state imaging device having a color filter, in each of the red R, green G, and blue B pixel regions, there is a risk that the signal intensity increases due to the influence of infrared light, resulting in an unnatural image. . Therefore, in the above-described imaging system, the IR signal output is subtracted from the RGB signal outputs as image processing. Here, since the transmitted light of each pixel region includes IR, the transmitted light of the red R pixel region is represented by R + IR, the transmitted light of the green G pixel region is represented by G + IR, and the transmitted light of the blue B pixel region is represented by B + IR. Therefore, when the infrared IR component is removed from the output signal corresponding to the pixel area of each color, (R + IR) −IR = R, (G + IR) −IR = G, and (B + IR) −IR = B. Red R, green G, and blue B signals from which external IR components have been removed can be obtained. Thereby, in the above-described imaging system, an IR image and a visible image with reduced influence of IR can be output simultaneously. The IR pixel region blocks visible light and transmits near-infrared light corresponding to the second wavelength band of DBPF.
ところで、上述のように可視画像と赤外画像を同時に出力するカメラにおいて、カラーフィルタとしてRGBの各画素領域にIR画素領域ではなく、白(W)画素領域を加えたカラーフィルタを用いてもR、G、Bの信号出力からIR成分の信号出力を除去することが可能である。IR画素領域は、可視光を透過させないので、可視画像に関しては、IR画素領域を例えばR、G、B各1画素に対してIRを1画素設けると、可視画像で使用する画素数が1/4だけ減ってしまう。通常IR画素領域の割合をもっと少なくするが、いずれにしろ、可視光帯域の光を遮断するIR画素領域をカラーフィルタに設けることで、可視光(特に輝度)の解像度が低下することになる。 By the way, in a camera that outputs a visible image and an infrared image simultaneously as described above, even if a color filter in which a white (W) pixel region is added to each RGB pixel region instead of an IR pixel region is used as a color filter, R It is possible to remove the IR component signal output from the G, B signal outputs. Since the IR pixel area does not transmit visible light, when the IR pixel area is provided with one IR pixel for each of R, G, B, for example, the number of pixels used in the visible image is 1 /. Decrease by 4. Normally, the ratio of the IR pixel area is further reduced, but in any case, by providing the color filter with an IR pixel area that blocks light in the visible light band, the resolution of visible light (particularly luminance) is lowered.
そこで、白Wの画素領域を用いると、赤外IRの画素領域を用いる場合よりも可視画像に使用可能な画素が増えることになる。なお、白Wの画素領域とは、基本的に可視光も赤外光も透過させる画素領域であり、赤R、緑G、青Bの各画素領域がIRを含む場合に、各画素の透過光を上述のようにR+IR、G+IR、B+IRで表すことができるのに対して白Wの画素領域の透過光をR+G+B+IR(W+IR)で表すことができる。なお、カラーフィルタの白Wの画素領域は、実際に白い分けではなく、可視光と赤外光を透過する画素領域であり、基本的に無色透明な領域である。ここでは、この透明な画素領域を白Wと称する。
図6は、このような赤R、緑G、青B、白Wの各画素領域を有するカラーフィルタの配色を示すもので、赤R、緑G、青B、白Wの各画素領域が2×2の画素配列中に一つずつ配置され、この配列が繰り返されて配置されている。また、各画素領域の透過光には、上述のようにIRが含まれている。
Therefore, when the white W pixel region is used, more pixels can be used for the visible image than when the infrared IR pixel region is used. The white W pixel region is basically a pixel region that transmits both visible light and infrared light. When each of the red R, green G, and blue B pixel regions includes IR, the transmission of each pixel is performed. The light can be represented by R + IR, G + IR, and B + IR as described above, whereas the transmitted light of the white W pixel region can be represented by R + G + B + IR (W + IR). Note that the white W pixel region of the color filter is not actually white, but is a pixel region that transmits visible light and infrared light, and is basically a colorless and transparent region. Here, this transparent pixel region is referred to as white W.
FIG. 6 shows the color arrangement of a color filter having such red R, green G, blue B, and white W pixel regions, and each of the red R, green G, blue B, and white W pixel regions has 2 pixels. One by one is arranged in the × 2 pixel array, and this array is repeated. Further, the transmitted light of each pixel region includes IR as described above.
図7のグラフは、固体撮像素子に用いられるフォトダイオード等のセンサの分光感度と、各フィルタの分光透過率を示すもので、横軸が光の周波数とされ、縦軸が感度または透過率を照度として示すもので、目盛の最大を100とするとともに透過率の上限がグラフ上においてセンサの感度以下となるように正規化したものである。なお、DBPFの分光透過率は正規化しておらず、全透過を縦軸の100としている。図7のグラフにおいて、二重線がセンサの分光感度であり、太線がDBPFの分光透過率であり、2点鎖線が青Bのカラーフィルタの分光透過率であり、1点鎖線が緑Gのカラーフィルタの分光透過率であり、破線が赤Rのカラーフィルタの分光透過率であり、実線がNIRフィルタの分光透過率である。 The graph in FIG. 7 shows the spectral sensitivity of a sensor such as a photodiode used in a solid-state imaging device and the spectral transmittance of each filter. The horizontal axis is the frequency of light, and the vertical axis is the sensitivity or transmittance. It is shown as illuminance, and is normalized so that the maximum scale is 100 and the upper limit of the transmittance is below the sensitivity of the sensor on the graph. The spectral transmittance of DBPF is not normalized, and the total transmission is 100 on the vertical axis. In the graph of FIG. 7, the double line is the spectral sensitivity of the sensor, the thick line is the spectral transmittance of DBPF, the two-dot chain line is the spectral transmittance of the blue B color filter, and the one-dot chain line is green G. The spectral transmittance of the color filter, the broken line is the spectral transmittance of the red R color filter, and the solid line is the spectral transmittance of the NIR filter.
図7に示すように、赤外側で赤R、緑G、青Bの各カラーフィルタの透過率は、全透過となる。また、図7では、白Wのカラーフィルタではなく、上述のIRの画素領域のカラーフィルタとしてNIRフィルタの分光透過率を示しており、NIRフィルタが透過する光の波長の範囲と赤R、緑G、青Bのカラーフィルタの各画素領域が赤外側で全透過となる波長の範囲とが重なるとともに、これら波長の範囲とDBPFの光を透過する赤外光帯域(第2の波長帯域)と重なるようになっている。図7に図示されない白Wの画素領域では、基本的に可視光および近赤外光が全透過であり、上述のように正規化すると、図7のフォトダイオード(センサ)の分光感度を示す二重線と略同様となる。 As shown in FIG. 7, the transmittance of each color filter of red R, green G, and blue B on the infrared side is total transmission. FIG. 7 shows the spectral transmittance of the NIR filter as a color filter in the above-described IR pixel region, not the white W color filter, and the wavelength range of light transmitted by the NIR filter and red R, green Each pixel region of the G and blue B color filters overlaps with a wavelength range in which the total transmission is performed on the infrared side, and these wavelength ranges and an infrared light band (second wavelength band) that transmits DBPF light It is supposed to overlap. In the white W pixel region not shown in FIG. 7, visible light and near-infrared light are basically totally transmitted, and when normalized as described above, the spectral sensitivity of the photodiode (sensor) in FIG. It is almost the same as the heavy line.
このようなカメラにおいて、白Wを有するカラーフィルタを用いて赤外IRの出力信号を得るためには、上述のように赤Rの画素領域からの画素出力をR+IR、緑Gの画素領域からの画素出力をG+IR、青Bの画素領域からの画素出力をB+IR、白Wの画素領域からの画素出力をR+G+B+IRとすると、すなわち、R+G+B−W=0とすると、IR=((R画素出力)+(G画素出力)+(B画素出力)−(W画素出力))/2=((R+IR)+(G+IR)+(B+IR)−(R+G+B+IR))/2となる。より詳細には、フォトダイオード等のセンサの感度(分光感度)が周波数によって異なるため、センサの感度に応じた各色の係数として赤Rの係数をKr、緑Gの係数をKg、青Bの係数をKbとし、Kr*R+Kg*G+Kb*B−W=0とすると、IRは以下の式で示される。
IR=((Kr*(R画素出力)+Kg*(G画素出力)+Kb*(B画素出力)−(W画素出力))/(Kr+Kg+Kb−1)=(kr*(R+IR)+Kg*(G+IR)+Kb*(B+IR)−(W+IR))/(Kr+Kg+Kb−1)となる。
In such a camera, in order to obtain an infrared IR output signal using a color filter having white W, the pixel output from the red R pixel region is obtained from the R + IR, green G pixel region as described above. If the pixel output is G + IR, the pixel output from the blue B pixel region is B + IR, and the pixel output from the white W pixel region is R + G + B + IR, that is, R + G + B−W = 0, then IR = ((R pixel output) + (G pixel output) + (B pixel output) − (W pixel output)) / 2 = ((R + IR) + (G + IR) + (B + IR) − (R + G + B + IR)) / 2. More specifically, since the sensitivity (spectral sensitivity) of a sensor such as a photodiode differs depending on the frequency, the coefficient of red R is Kr, the coefficient of green G is Kg, and the coefficient of blue B is a coefficient of each color corresponding to the sensitivity of the sensor. Is Kb and Kr * R + Kg * G + Kb * B−W = 0, IR is represented by the following equation.
IR = ((Kr * (R pixel output) + Kg * (G pixel output) + Kb * (B pixel output) − (W pixel output)) / (Kr + Kg + Kb−1) = (kr * (R + IR) + Kg * (G + IR) + Kb * (B + IR)-(W + IR)) / (Kr + Kg + Kb-1).
実際に上述のDBPFと白W画素領域を含むカラーフィルタを用いた場合に、上述の白W画素領域の信号出力を用いた計算でIR信号成分を求めると、IR信号にモアレが生じることが分かった。この場合にIR信号にモアレが生じると、赤R、緑G、青Bの信号出力においても、モアレが生じたIR信号を減算することでモアレが生じてしまう。
特に、図8に示す空間周波数のグラフにおいてサンプリング周波数fsの1/2および1/4にモアレが発生する。なお、このグラフにおいて、縦軸が垂直方向の空間周波数を示し、横軸が水平方向の空間周波数を示し、サンプリング周波数は、固体撮像素子の水平方向および垂直方向の単位長さ当たりの画素数(画素ピッチ)に対応する。
In fact, when the color filter including the DBPF and the white W pixel region is used, if the IR signal component is obtained by calculation using the signal output of the white W pixel region, it is found that moire occurs in the IR signal. It was. In this case, when moire occurs in the IR signal, moire occurs in the output of red R, green G, and blue B signals by subtracting the IR signal in which moire has occurred.
In particular, moire occurs at 1/2 and 1/4 of the sampling frequency fs in the spatial frequency graph shown in FIG. In this graph, the vertical axis indicates the spatial frequency in the vertical direction, the horizontal axis indicates the spatial frequency in the horizontal direction, and the sampling frequency indicates the number of pixels per unit length in the horizontal and vertical directions of the solid-state imaging device ( Pixel pitch).
このようなモアレが撮影によって生じてしまうと、実際の被写体にはない色や模様が生じてしまい、被写体をまともに撮影することが困難になってしまう。すなわち、可視画像の解像度を高めるために赤外IRの画素領域に代えて白Wの画素領域をカラーフィルタに設けるとIRの信号出力にモアレが生じてしまい赤外画像に問題が生じるとともに、可視画像にも問題が生じてしまい、白Wの画素領域を用いるメリットがなくなってしまう。 When such moire is generated by photographing, colors and patterns that are not present in an actual subject are generated, making it difficult to photograph the subject properly. In other words, if a white W pixel area is provided in the color filter in place of the infrared IR pixel area in order to increase the resolution of the visible image, moire occurs in the IR signal output, causing a problem in the infrared image and the visible image. Problems also arise in the image, and the merit of using the white W pixel region is lost.
本発明は、前記事情に鑑みてなされたものであり、可視光帯域と近赤外光帯域の光を透過するDBPFと白Wの画素領域を有するカラーフィルタとを用いて可視画像と近赤外画像を同時に撮影する場合に、白W成分の信号出力を用いた演算により赤外IR成分の信号出力を求めることで発生するモアレを低減できる可視近赤外同時撮像装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and a visible image and a near infrared light using a DBPF that transmits light in a visible light band and a near infrared light band and a color filter having a white W pixel region. An object of the present invention is to provide a visible-near-infrared simultaneous imaging apparatus capable of reducing moire generated by obtaining a signal output of an infrared IR component by calculation using a signal output of a white W component when simultaneously capturing images. To do.
前記課題を解決するために本発明の可視近赤外同時撮像装置は、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタであるダブルバンドパスフィルタと、
赤、緑、青、白の各画素領域が所定パターンで配置されるとともに、各画素領域が第2の波長帯域に透過特性を有するカラーフィルタと、
前記カラーフィルタの前記画素領域毎にセンサを備える固体撮像素子と、
前記固体撮像素子上に被写体の像を結像させるレンズと、
前記カラーフィルタ上で互いに近接する赤、緑、青、白の前記画素領域を組み合わせて設定される各赤外算出領域に対応する前記固体撮像素子の出力信号から第2の波長帯域に対応する赤外光成分の出力信号を算出する赤外算出手段と、
前記赤外算出手段により算出された赤外光成分の出力信号に生じるモアレを低減する赤外モアレ低減手段とを備えたことを特徴とする。
In order to solve the above-mentioned problems, the visible and near infrared simultaneous imaging device of the present invention has a transmission characteristic in the visible light band and a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band. A double band pass filter that is an optical filter having transmission characteristics in a second wavelength band that is a part of the first wavelength band;
A color filter in which each pixel region of red, green, blue, and white is arranged in a predetermined pattern, and each pixel region has transmission characteristics in the second wavelength band;
A solid-state imaging device including a sensor for each pixel region of the color filter;
A lens that forms an image of a subject on the solid-state image sensor;
Red corresponding to the second wavelength band from the output signal of the solid-state imaging device corresponding to each infrared calculation region set by combining the pixel regions of red, green, blue, and white adjacent to each other on the color filter Infrared calculation means for calculating an output signal of the external light component;
Infrared moiré reduction means for reducing moiré generated in the output signal of the infrared light component calculated by the infrared calculation means is provided.
このような構成によれば、赤外IR光成分の出力信号を、それぞれ赤外IRに透過特性を有するカラーフィルタの赤R、緑G、青B、白Wの各画素領域に対応する固体撮像素子の各センサ(例えば、フォトダイオード)の出力信号から算出することにより生じるモアレを無くしたり、弱めたりすることができる。これにより、可視画像から第2の波長帯域を透過する赤外光の影響を排除するために、カラーフィルタの赤R、緑G、青Bの各画素領域に対応する出力信号から赤外IR成分のモアレが生じた出力信号を減算することにより、赤R、緑G、青Bの出力信号にもモアレが生じてしまうのを、モアレが低減された赤外IRの出力信号を用いることで防止することができる。 According to such a configuration, the output signal of the infrared IR light component is output as a solid-state image corresponding to each of the red R, green G, blue B, and white W pixel regions of the color filter having transmission characteristics in the infrared IR. It is possible to eliminate or weaken the moire generated by calculating from the output signal of each sensor (for example, photodiode) of the element. Thus, in order to eliminate the influence of infrared light that passes through the second wavelength band from the visible image, the infrared IR component from the output signal corresponding to each of the red R, green G, and blue B pixel regions of the color filter. By subtracting the output signal in which the moiré is generated, the moiré is also prevented from being generated in the red R, green G, and blue B output signals by using the infrared IR output signal in which the moiré is reduced. can do.
本発明の前記構成において、前記赤外モアレ低減手段は、前記固体撮像素子と前記レンズとの間にローパスフィルタを有することが好ましい。 The said structure of this invention WHEREIN: It is preferable that the said infrared moire reduction means has a low-pass filter between the said solid-state image sensor and the said lens.
このような構成によれば、ローパスフィルタによりモアレを低減することができる。ここでのローパスフィルタは、例えば、複屈折率を有する水晶を用いたもので、空間周波数が高い光をぼかした状態として遮断し、空間周波数の低い光を透過させる。ここでは、サンプリング周波数の1/2の空間周波数や1/4の空間周波数の近傍の空間周波数の光をぼかすことが好ましい。なお、サンプリング周波数は、固体撮像素子における画素ピッチに基づくものであり、単位長さ当たりの画素数に対応する。したがって、正方画素の固体撮像素子では、画素ピッチが水平方向でも垂直方向でも同じなので、図8のグラフにおいて、X軸とY軸とで目盛間隔が同じとなる。
ここで、固体撮像素子が正方画素の場合に、ローパスフィルタとなる水晶の光学軸方向が、固体撮像素子の上述の水平方向および垂直方向に対して45度ずれた角度となっていることが好ましい。
According to such a configuration, moire can be reduced by the low-pass filter. The low-pass filter here uses, for example, a crystal having a birefringence, blocks light having a high spatial frequency as a blurred state, and transmits light having a low spatial frequency. Here, it is preferable to blur light having a spatial frequency that is ½ of the sampling frequency or a spatial frequency in the vicinity of ¼ of the sampling frequency. Note that the sampling frequency is based on the pixel pitch in the solid-state imaging device, and corresponds to the number of pixels per unit length. Therefore, in the solid-state imaging device of square pixels, the pixel pitch is the same both in the horizontal direction and in the vertical direction, so in the graph of FIG. 8, the scale interval is the same on the X axis and the Y axis.
Here, when the solid-state imaging device is a square pixel, it is preferable that the optical axis direction of the crystal serving as the low-pass filter is an angle shifted by 45 degrees with respect to the above-described horizontal and vertical directions of the solid-state imaging device. .
本発明の前記構成において、前記赤外モアレ低減手段は、
前記固体撮像素子からの出力信号からエッジを検出するエッジ検出手段と、
前記エッジ検出手段に検出された前記エッジが前記赤外算出領域と重なる場合に、前記赤外算出領域が前記エッジと重ならにように、前記赤外算出領域に含まれる前記画素領域を変更して前記赤外算出領域の位置を変更することが好ましい。
In the configuration of the present invention, the infrared moire reduction means includes
Edge detection means for detecting an edge from an output signal from the solid-state imaging device;
When the edge detected by the edge detection unit overlaps the infrared calculation region, the pixel region included in the infrared calculation region is changed so that the infrared calculation region overlaps the edge. It is preferable to change the position of the infrared calculation region.
このような構成によれば、例えば、カラーフィルタの赤R、緑G、青B、白Wの画素領域からなる赤外算出領域にエッジが重なっていると、各色の画素領域のエッジとなるラインの出力が高くなる側では、画素領域の出力が相対的に大きく(明るく)、エッジの出力が小さくなる側では、画素領域の出力が相対的に小さく(暗く)なってしまい、不連続的に明るさが変化し、互いに相関性の無いこれらの出力を用いて赤外IR成分の出力を正確に算出できなくなり、誤った信号が出力され、モアレの要因となってしまう。 According to such a configuration, for example, when an edge overlaps an infrared calculation region composed of pixel regions of red R, green G, blue B, and white W of the color filter, a line that becomes an edge of the pixel region of each color The output of the pixel area is relatively large (brighter) on the side where the output of the pixel becomes higher, and the output of the pixel area becomes relatively smaller (darker) on the side where the output of the edge becomes smaller. The brightness changes and the output of the infrared IR component cannot be accurately calculated using these outputs that are not correlated with each other, and an erroneous signal is output, which causes moire.
ここで、各赤外算出領域は、基本的に縦横にマトリックス状に配置されており、エッジ検出で検出されたエッジが重なる赤外算出領域では、エッジとなる光強度の高い側と低い側との境界を超えないように、光強度の低い側にある赤R、緑G、青B、白Wの画素領域を組合せて赤外算出領域を設定しなおすことにより、赤外算出領域がエッジと重ならないようにする。また、同様に前記境界の光強度の高い側にある赤R、緑G、青B、白Wの画素領域を組合せて赤外算出領域を設定しなおすことにより、赤外算出領域がエッジと重ならないようにする。これらの赤外算出領域の配置の変更により、モアレを低減することができる。 Here, each infrared calculation area is basically arranged in a matrix in the vertical and horizontal directions, and in the infrared calculation area where the edges detected by edge detection overlap, the side where the light intensity is high and the side where the light is low The infrared calculation region is set as an edge by re-setting the infrared calculation region by combining the pixel regions of red R, green G, blue B, and white W on the low light intensity side so as not to exceed the boundary of Avoid overlapping. Similarly, the infrared calculation area is overlapped with the edge by resetting the infrared calculation area by combining the red R, green G, blue B, and white W pixel areas on the side of the boundary where the light intensity is high. Do not become. Moire can be reduced by changing the arrangement of these infrared calculation regions.
本発明によれば、DBPFと赤R、緑G、青B、白Wの画素領域を備えるカラーフィルタとを有する可視近赤外同時撮像装置において、モアレの発生を低減できる。 ADVANTAGE OF THE INVENTION According to this invention, generation | occurrence | production of a moire can be reduced in the visible near-infrared simultaneous imaging device which has DBPF and the color filter provided with the pixel area | region of red R, green G, blue B, and white W.
以下、本発明の実施の形態について説明する。
図1に示すように、本実施の形態の可視近赤外同時撮像装置は、レンズ1とDBPF2とセンサおよびカラーフィルタを備える固体撮像素子3とを備える。また、この可視近赤外同時撮像装置は、固体撮像素子から図6に示すカラーフィルタの赤R、緑G、青B、白Wの各画素領域に対応して出力される画素毎の出力信号が入力されて同時化処理を行う同時化処理部4と、同時化処理部4で画素毎に決定された赤R、緑G、青B、白Wの出力がそれぞれ入力される輝度信号生成部5、IR信号生成部6およびRGB信号生成マトリックス部7を備える。
Embodiments of the present invention will be described below.
As shown in FIG. 1, the visible-near-infrared simultaneous imaging device of this Embodiment is provided with the
また、可視近赤外同時撮像装置において、輝度信号生成部5で生成された輝度信号の一部は、赤外IR成分を取り除く処理を施すことなく、IR未補正輝度信号として出力される。輝度信号の残りの一部は、IR減算処理部8においてIR信号生成部6で生成されたIR信号が減算され、赤外IRが補正された輝度信号としてガンマ処理部9で処理されて輝度Y信号として可視近赤外同時撮像装置の外部に送信される。IR信号生成部6で生成されたIR信号は、赤外画像用の信号として外部に出力される。RGB信号生成マトリックス部7から出力される赤R、緑G、青Bの各信号は、IR減算処理部8においてIR信号生成部6で生成されたIR信号が除去される。IR信号が除去されたRGB信号は、W/B処理部10でホワイトバランスが調整され、ガンマ処理部11でガンマ補正され、色差信号生成部12でRGB信号が色差信号に変換されるようになっている。
In the visible-near-infrared simultaneous imaging device, part of the luminance signal generated by the luminance signal generation unit 5 is output as an IR uncorrected luminance signal without performing a process of removing the infrared IR component. The remaining part of the luminance signal is subtracted from the IR signal generated by the IR signal generation unit 6 in the IR subtraction processing unit 8, and is processed by the gamma processing unit 9 as a luminance signal in which infrared IR is corrected, and luminance Y The signal is transmitted to the outside of the visible / near infrared simultaneous imaging apparatus. The IR signal generated by the IR signal generation unit 6 is output to the outside as a signal for an infrared image. The IR signal generated by the IR signal generation unit 6 is removed by the IR subtraction processing unit 8 from the red R, green G, and blue B signals output from the RGB signal generation matrix unit 7. The RGB signal from which the IR signal has been removed is subjected to white balance adjustment by the W /
レンズ1は、被写体の像を結像するものであり、通常、複数枚のレンズからなっている。DBPF2は、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタであり、各帯域の波長の上限および下限は製造に際して調整可能であり、図7に示すように、センサの分光感度と、カラーフィルタの各画素領域の分光透過率に対応して各帯域の上限および下限の波長が決定されている。
The
固体撮像素子3は、画素毎にフォトダイオード等のセンサを有するとともに、カラーフィルタの各画素領域が配置されている。したがって、固体撮像素子3からの出力は、各画素領域に対応する色の出力信号となり、一画素から赤R、緑G、青B、白Wのうちのいずれか1色の出力信号が出力される。同時化処理部4では、画素毎に赤R、緑G、青B、白Wの4色の信号が同時に出力されるように同時化される。本実施の形態では、同時化処理において、ラインメモリを用いる方法で行っているが、他の方法を用いてもよい。
The solid-state imaging device 3 has a sensor such as a photodiode for each pixel, and each pixel region of the color filter is arranged. Therefore, the output from the solid-state imaging device 3 is an output signal of a color corresponding to each pixel region, and an output signal of any one of red R, green G, blue B, and white W is output from one pixel. The The
但し、モアレを防止する上では、白Wの出力信号を用いた演算を行わないことが好ましい。例えば、白Wの信号から赤Rと緑Gの出力信号を減算すれば、青Bの信号が得られ、白Wの信号から緑Gと青Bの出力信号を減算すれば、赤Rの信号が得られ、白Wの信号から赤Rと青Bの出力信号を減算すれば、緑Gの信号が得られる。この実施形態では、このような白Wを用いた演算を行うことなく、ラインメモリを用いて同時化処理を行う。 However, in order to prevent moire, it is preferable not to perform an operation using the white W output signal. For example, if the red R and green G output signals are subtracted from the white W signal, the blue B signal is obtained, and if the green G and blue B output signals are subtracted from the white W signal, the red R signal is obtained. By subtracting the red R and blue B output signals from the white W signal, a green G signal is obtained. In this embodiment, the synchronization processing is performed using the line memory without performing such calculation using white W.
図2に示すように同時化処理部4では、固体撮像素子3から出力される出力信号を2つのラインメモリ41、42と加算処理部43と、ライン切替スイッチ44を利用して垂直方向の同時化処理を行う。図6に示す画素配列において、固体撮像素子3からの出力は、例えば、水平方向の画素1列分の出力としてW・R・W・R・W・R・W・R・・・という1ラインの出力の後に、次の画素一列分のB・G・B・G・B・G・B・G・・・という1ラインの出力を行うことを繰り返すもので、これが固体撮像素子3からのスルーの信号となる。
As shown in FIG. 2, the
それに対して、第1ラインメモリ41では、上述の1ライン分を記憶してから出力されるので、スルーの出力信号より1ライン分遅れて出力される。さらに、第2ラインメモリ42では、第1ラインメモリ41の1ライン分の出力を記憶してから出力するのでスルーに対して2ライン分遅れた状態となります。これを第1ラインメモリ41の出力を基準にして考えると、第1ラインメモリ41の出力に対してスルーの出力は1ライン分早く、第2ラインメモリ42の出力は1ライン分遅くなる。 On the other hand, in the first line memory 41, since the above-mentioned one line is stored and output, the output is delayed by one line from the through output signal. Furthermore, in the second line memory 42, since the output of one line of the first line memory 41 is stored and then output, it is delayed by two lines with respect to the through. When this is considered based on the output of the first line memory 41, the through output is earlier by one line than the output of the first line memory 41, and the output of the second line memory 42 is delayed by one line.
また、1ライン分の出力は、白Wと赤Rの出力だけとなるか、緑Gと青Bの出力だけとなる。この場合に第1ラインメモリ41の出力を基準とすると、第1ラインメモリ41の出力が緑Gと青Bの場合に、スルーと第2ラインメモリ42の出力が白Wと赤Rとなる。また、第1ラインメモリ41の出力が白Wと赤Rの場合に、スルーと第2ラインメモリ42の出力が緑Gと青Bとなる。そこで、第1ラインメモリ41の出力と、スルーおよび第2ラインメモリ42の出力とを組合せて、1ライン分の出力に白Wと赤Rの出力と、緑Gと青Bの出力が行われるようにしている。 Further, the output for one line is only the output of white W and red R or only the output of green G and blue B. In this case, when the output of the first line memory 41 is used as a reference, when the output of the first line memory 41 is green G and blue B, the through and the output of the second line memory 42 are white W and red R. When the output of the first line memory 41 is white W and red R, the output of the through and second line memory 42 is green G and blue B. Therefore, by combining the output of the first line memory 41 and the output of the through and second line memories 42, the output of white W and red R and the output of green G and blue B are performed for the output of one line. I am doing so.
図2に示すように、スルーの出力の1/2と、第2ラインメモリ42の出力の1/2とを加算処理部43で足し合わせて白Wと赤Rの出力または緑Gと青Bの出力を生成している。すなわち、水平方向と垂直方向の両方に沿うマトリックス状の画素群において、基準となる水平な1列の画素の出力信号に、その上の水平な1列の画素の出力と、その下の水平な1列の画素の出力との平均となる出力を組合せている。
また、1ライン分の出力毎に第1ラインメモリ41、第2ラインメモリ42、スルーの出力が白Wおよび赤Rの出力と、緑Gおよび青Bの出力とが入れ替わるとともに、第1ラインメモリ41の出力に対して、スルーおよび第2ラインメモリ42の出力が白Wおよび赤Rの出力と、緑Gおよび青Bの出力とで常に逆となる。
したがって、第1ラインメモリ41の出力が白Wおよび赤Rの出力と、緑Gおよび青Bの出力とで切り替わり、加算処理部43の出力が緑Gおよび青Bの出力と、白Wおよび赤Rの出力とで切り替わる。そこで、ライン切替スイッチ44により、第1ラインメモリ41の出力と、加算処理部43の出力とを切り替えて、一方の端子からは撮影中に常時白Wと赤Rの信号が出力され、他方の出力端子からは撮影中に常時緑Gと青Bの信号が出力されるようにしている。これにより、垂直方向の同時化処理が行われたことになる。
As shown in FIG. 2, 1/2 of the through output and 1/2 of the output of the second line memory 42 are added together by the addition processing unit 43 to output white W and red R or green G and blue B. Is generating the output. That is, in a matrix-like pixel group along both the horizontal direction and the vertical direction, an output signal of a horizontal column of pixels serving as a reference and an output of a horizontal column of pixels above and a horizontal pixel below the reference are output. The outputs that are averaged with the outputs of pixels in one column are combined.
In addition, for each output for one line, the first line memory 41, the second line memory 42, the outputs of the white W and red R and the outputs of the green G and blue B are interchanged, and the first line memory The output of the through and second line memory 42 is always opposite to the output of white W and red R and the output of green G and blue B with respect to the output of 41.
Therefore, the output of the first line memory 41 is switched between the outputs of white W and red R and the outputs of green G and blue B, and the output of the addition processing unit 43 is the output of green G and blue B and white W and red. Switch with R output. Therefore, the line changeover switch 44 switches between the output of the first line memory 41 and the output of the addition processing unit 43, and white W and red R signals are always output from one terminal during photographing, The output terminal always outputs green G and blue B signals during shooting. Thus, the vertical synchronization process has been performed.
次に同時化処理部4の水平方向の同時化処理を、図3を参照して説明する。水平方向の同時化処理では、第1レジスタ45、第2レジスタ46、画素加算処理部47、画素切替スイッチ48を用いて水平方向の同時化処理を行う。なお、図3に示す構成は、図2に示す白Wおよび赤Rを出力する端子用と、緑Gおよび青Bを出力する端子用との2つを必要とする。ここでは、白Wおよび赤Rの出力の水平方向の同時化処理を説明する。ます、スルーとなる信号は、白W及び赤Rが繰り返す信号であり、第1レジスタ45の出力は、スルーの1画素分の出力を記憶してから出力するようになっており、スルーの出力に対して1画素分遅くなるようにしている。また、第2レジスタ46の出力は、第1レジスタ45の出力を1画素分記憶してから出力するようになっており、第1レジスタ45の出力に対して1画素分遅くなるようにしている。
Next, the horizontal synchronization processing of the
したがって、第1レジスタ45の出力を基準にすると、スルーの出力は1画素分速く、第2レジスタ46の出力は一画素分お遅くなる。ここで、白Wおよび赤Rの出力が1画素分毎に切り替わる場合に、第1レジスタ45の出力が白Wの場合に、スルーおよび第2レジスタ46の出力が赤Rとなり、第1レジスタ45の出力が赤Rの場合に、スルーおよび第2レジスタ46の出力が白Wとなる。そこで、第1レジスタ45の出力と、スルーおよび第2レジスタ46の出力とを組み合わせることにより、1画素に白Wおよび赤Rの出力の両方の出力を得ることができる。ここでは、スルーの信号出力の1/2と、第2レジスタ46の信号出力の1/2を画素加算処理部47で加算して出力している。この出力は、第1レジスタ45の信号出力する画素の一つ前の画素と一つ後の画素の出力の平均となる。 Therefore, when the output of the first register 45 is used as a reference, the through output is accelerated by one pixel, and the output of the second register 46 is delayed by one pixel. Here, when the outputs of white W and red R are switched for each pixel, when the output of the first register 45 is white W, the output of the through and second registers 46 becomes red R, and the first register 45 And the output of the second register 46 is white W. Therefore, by combining the output of the first register 45 and the output of the through and second registers 46, it is possible to obtain both white W and red R outputs for one pixel. Here, ½ of the through signal output and ½ of the signal output of the second register 46 are added and output by the pixel addition processing unit 47. This output is the average of the output of the pixel immediately before and the pixel immediately after the pixel that outputs the signal of the first register 45.
また、第1レジスタ45の出力は、1画素分毎に白Wと赤Rが切り替わり、画素加算処理部47の出力は、1画素分毎に赤Rと白Wとが切り替わるので、画素切替スイッチ48により第1レジスタ45の出力と、画素加算処理部47の出力とを1画素分毎に切り替えて、白Wの端子からは白Wが撮影中常時出力され、赤Rの出力端子からは赤Rが撮影中常時出力されるようにしている。また、緑Gおよび青Bも同様に処理される。これにより、同時化処理部4からの出力は、1画素当たり、白W、赤R、緑G、青Bの4つの信号が出力される。ここでは、白Wを含む複数色の出力信号の演算は行われず、上述のように同じ色の異なるタイミングの信号の平均を取る処理だけであり、上述のように白Wと他の色との演算により画素の色の補間処理を行っていないので、モアレの発生を抑止することができる。
The output of the first register 45 is switched between white W and red R for each pixel, and the output of the pixel addition processing unit 47 is switched between red R and white W for each pixel. 48, the output of the first register 45 and the output of the pixel addition processing unit 47 are switched for each pixel, white W is always output from the white W terminal during photographing, and red is output from the red R output terminal. R is always output during shooting. Green G and blue B are similarly processed. As a result, four signals of white W, red R, green G, and blue B are output per pixel from the
本実施の形態の可視近赤外同時撮像装置においては、上述のように赤外IR成分の出力を減算していない未補正の輝度信号を出力するようになっており、例えば、画像認識を行う場合に、未補正のモアレのない輝度信号を用いることができるようになっている。 In the visible and near infrared simultaneous imaging apparatus of the present embodiment, as described above, an uncorrected luminance signal that is not subtracted from the output of the infrared IR component is output. For example, image recognition is performed. In this case, an uncorrected luminance signal without moire can be used.
IR信号生成部6では、赤外算出手段として、上述のように、赤R、緑G、青B、白Wの出力信号を用いて赤外IR成分の出力信号を算出しているので、赤外IRの信号にモアレが生じる虞がある。本実施例では、モアレを予防するために、レンズ1と固体撮像素子3との間に、赤外モアレ低減手段としてのローパスフィルタ21が配置されている。ローパスフィルタ21は、例えば、水晶(SiO2)の複屈折性を利用したものであり、空間周波数の高い高周波成分を遮断し、空間周波数の低い低周波成分を透過する。本実施の形態では、固体撮像素子3における単位長さ当たりの画素数(または画素ピッチ)に対応するサンプリング周波数(fs)に対応して設定されたローパスフィルタ21を用いるようになっており、サンプリング周波数の1/2、1/4を含む周波数成分をぼかして遮断するようになっている。
As described above, the IR signal generation unit 6 calculates the output signal of the infrared IR component using the output signals of red R, green G, blue B, and white W as the infrared calculation means. There is a possibility that moire occurs in the external IR signal. In the present embodiment, in order to prevent moiré, a low-pass filter 21 as an infrared moiré reducing means is disposed between the
図4に示すグラフは、水平(H)と垂直(V)の空間周波数を示すものであり、上述のサンプリング周波数の1/2・1/4となる位置が示されている。ここで、固体撮像素子3における画素が正方画素の場合に、水平方向および垂直方向における目盛が等間隔となり、1/2および1/4のサンプリング周波数の位置は、水平方向の軸と、垂直方向の軸とで同じとなり、これらのサンプ周波数の1/2および1/4を結ぶ線分は、図4に示すように45度となる。ここでは、横軸の水平方向(H)を0度とし、垂直方向(V)を90度としている。サンプ周波数の1/2および1/4を結ぶ線分は右から左に45度の角度で上り傾斜している。 The graph shown in FIG. 4 shows horizontal (H) and vertical (V) spatial frequencies, and positions where the sampling frequency is 1/2 · 1/4 are shown. Here, when the pixels in the solid-state imaging device 3 are square pixels, the graduations in the horizontal direction and the vertical direction are equally spaced, and the positions of the sampling frequencies of 1/2 and 1/4 are the horizontal axis and the vertical direction. The line segment connecting 1/2 and 1/4 of these sump frequencies is 45 degrees as shown in FIG. Here, the horizontal direction (H) of the horizontal axis is 0 degree, and the vertical direction (V) is 90 degrees. A line segment connecting 1/2 and 1/4 of the sump frequency is inclined upward at an angle of 45 degrees from right to left.
これに対して、ローパスフィルタ21の光学軸が固体撮像素子3の撮像面上の水平方向および垂直方向に対して45度の角度となるようにローパスフィルタ21が設定されている。このようなローパスフィルタ21により、上述のように赤外IR成分の出力に生じるモアレを抑制することができる。これにより、赤R、緑G、青Bおよび輝度Yから赤外IR成分を減算した際に、赤R、緑G、青Bおよび輝度Yにモアレが発生するのを抑制することができる。 On the other hand, the low-pass filter 21 is set so that the optical axis of the low-pass filter 21 is at an angle of 45 degrees with respect to the horizontal and vertical directions on the imaging surface of the solid-state imaging device 3. Such a low-pass filter 21 can suppress moire generated in the output of the infrared IR component as described above. Thereby, when the infrared IR component is subtracted from red R, green G, blue B and luminance Y, it is possible to suppress the occurrence of moire in red R, green G, blue B and luminance Y.
また、本実施の形態のIR信号生成部6において、IR信号を生成する場合に、例えば、図6における色配列において、2×2=4画素に含まれる赤R、緑G、青Bおよび白Wに対応する出力信号から上述のように赤外IR成分を算出するようになっている。したがって、固体撮像素子3は、4画素ずつの赤外算出領域に分けられて、各赤外算出領域の4つの出力信号からIR信号が算出される。ここで、撮像される画像中にエッジ検出で検出されるエッジがあり、このエッジが赤外算出領域を横切る場合に、算出されるIR信号にモアレが発生する要因となる。エッジは、明るさが不連続的に変化する部分であり、例えば、エッジの一方側は明るく、他方側は暗くなっている。図5(a)に示すように、エッジとなる明るさが不連続に変化する部分を繋いだ線分51が水平方向に存在する場合に、赤外算出領域が線分51と重なると、白Wおよび赤Rと、緑Gおよび青Bとの間に線分51が配置されることになる。この場合に、例えば、白Wおよび赤Rが明るく、緑Gおよび青Bが暗くなり、これらの間相関性がなく、これら赤R、緑G、青B、白Wの出力から赤外IR成分を算出すると実際の赤外IR成分と異なる誤差信号となり、これがモアレ発生の要因となる。 Further, when the IR signal is generated in the IR signal generation unit 6 of the present embodiment, for example, red R, green G, blue B and white included in 2 × 2 = 4 pixels in the color arrangement in FIG. The infrared IR component is calculated from the output signal corresponding to W as described above. Therefore, the solid-state imaging device 3 is divided into four pixels of infrared calculation areas, and IR signals are calculated from the four output signals of each infrared calculation area. Here, when there is an edge detected by edge detection in the captured image, and this edge crosses the infrared calculation region, it causes moire in the calculated IR signal. The edge is a portion where the brightness changes discontinuously. For example, one side of the edge is bright and the other side is dark. As shown in FIG. 5A, when the line segment 51 connecting the portions where the brightness of the edge changes discontinuously exists in the horizontal direction, when the infrared calculation region overlaps the line segment 51, white A line segment 51 is arranged between W and red R and green G and blue B. In this case, for example, white W and red R are bright, green G and blue B are dark, there is no correlation between them, and infrared IR components are output from the outputs of red R, green G, blue B, and white W. Is calculated, it becomes an error signal different from the actual infrared IR component, and this causes moire.
そこで、赤外モアレ低減手段としてのIR信号生成部6には、エッジ検知部が設けられており、エッジとなる画素間の明るさが不連続的に違う部分(線分51)を検出する。なお、エッジ検出は、周知のエッジ検出方法を用いることができる。前記エッジの線分51が上下の画素の間に水平に配置されている状況で、上下左右2個ずつの画素からなる赤外算出領域の上下の中央にエッジとなる線分51が位置してしまう場合に、赤外算出領域を構成する赤R、緑G、青B、白Wの画素領域を変更し、赤外算出領域がエッジとなる線分51と重なることなく、線分51の上側、または下側に配置されるように変更後の赤外算出領域52を設定する。このようにすることで、エッジの一方側の光強度が強い方の画素領域の出力と、境界の他方側の光強度の弱い方の画素領域の出力とを組合せて赤外IR成分が計算されるのを防止できる。 Therefore, the IR signal generation unit 6 serving as an infrared moire reduction unit is provided with an edge detection unit, and detects a portion (line segment 51) where the brightness between pixels serving as edges is discontinuously different. For edge detection, a known edge detection method can be used. In a situation where the edge line segment 51 is horizontally disposed between the upper and lower pixels, the edge line segment 51 is located at the upper and lower centers of the infrared calculation region composed of two pixels each of the upper, lower, left and right pixels. In this case, the red R, green G, blue B, and white W pixel areas constituting the infrared calculation area are changed so that the infrared calculation area does not overlap with the line segment 51 that is an edge, and the upper side of the line segment 51 Or, the changed infrared calculation area 52 is set so as to be arranged on the lower side. In this way, the infrared IR component is calculated by combining the output of the pixel region with the higher light intensity on one side of the edge and the output of the pixel region with the lower light intensity on the other side of the boundary. Can be prevented.
また、図5(b)に示すようにエッジの上述の線分51が画素を左右に分離するように垂直に配置される状況で、赤外算出領域の左右の中央に垂直に線分51が重なる場合には、赤外算出領域の赤R、緑G、青B、白Wを変更して、変更後の赤外算出領域52が線分51の右側または左側に配置されるように位置を変更する。また、図5(c)に示すように、エッジの上述の線分51が斜めに配置される状況で、赤外算出領域に斜めに線分51が重なる場合には、赤外算出領域の赤R、緑G、青B、白Wを変更して、変更後の赤外算出領域52が線分51と重ならないように位置を変更する。 Also, as shown in FIG. 5B, in the situation where the above-described line segment 51 of the edge is arranged vertically so as to separate the pixels left and right, the line segment 51 is perpendicular to the center of the left and right of the infrared calculation region. In the case of overlapping, the red R, green G, blue B, and white W in the infrared calculation area are changed, and the position is set so that the changed infrared calculation area 52 is arranged on the right or left side of the line segment 51. change. Further, as shown in FIG. 5C, when the above-described line segment 51 of the edge is arranged obliquely, when the line segment 51 overlaps obliquely with the infrared calculation area, the red color of the infrared calculation area R, green G, blue B, and white W are changed, and the position is changed so that the infrared calculation area 52 after the change does not overlap the line segment 51.
これにより、明るさが不連続に変化して相関性のない白W、赤R、緑G、青Bの組合せでIR信号を生成することがなくなり、モアレを抑制することができる。なお、この実施の形態において、IR信号の生成を、同時化処理前の各色の画素領域に対応する画素出力からIR信号を生成しており、同時化処理前の4色の画素出力からIR信号を算出している。 Thereby, the brightness changes discontinuously and no IR signal is generated by a combination of white W, red R, green G, and blue B having no correlation, and moire can be suppressed. In this embodiment, the IR signal is generated from the pixel output corresponding to the pixel area of each color before the synchronization process, and the IR signal is generated from the pixel output of the four colors before the synchronization process. Is calculated.
本実施の形態では、白W、赤R、緑G、青Bのカラーフィルタと、DBPF2を用いて可視画層と、赤外画像を同時に出力する場合に、上述の白W、赤R、緑G、青Bの出力からIR信号を算出することで、IR信号にモアレが生じるのを、ローパスフィルタ21と、上述のようにエッジに適応してIR信号を生成する際に用いる画素を変更することとにより防止することができる。また、これにより、各色の出力信号に含まれる赤外成分を各色の出力信号から算出された赤外信号を減算して取り除く際に、各色にモアレが生じるのを防止することができる。なお、本実施例では、ローパスフィルタの設置と、赤外信号算出に使用する画素のエッジに対応した変更との両方を行ったがどちらか一方だけを行うようにしてもよい。 In the present embodiment, when the white W, red R, green G, and blue B color filters and the DBPF2 are used to simultaneously output the visible image layer and the infrared image, the above-described white W, red R, and green are output. By calculating the IR signal from the G and blue B outputs, the moiré is generated in the IR signal, and the pixels used when generating the IR signal by adapting to the edge as described above are changed. Can be prevented. This also prevents moiré from occurring in each color when the infrared component contained in the output signal of each color is subtracted from the infrared signal calculated from the output signal of each color. In this embodiment, both the low-pass filter installation and the change corresponding to the edge of the pixel used for infrared signal calculation are performed, but only one of them may be performed.
1 レンズ
2 DBPF(ダブルバンドパスフィルタ)
3 固体撮像素子
6 IR信号生成部(赤外算出手段、赤外モアレ低減手段)
21 ローパスフィルタ(赤外モアレ低減手段)
1
3 Solid-state image sensor 6 IR signal generator (infrared calculation means, infrared moire reduction means)
21 Low-pass filter (infrared moire reduction means)
Claims (3)
赤、緑、青、白の各画素領域が所定パターンで配置されるとともに、各画素領域が第2の波長帯域に透過特性を有するカラーフィルタと、
前記カラーフィルタの前記画素領域毎にセンサを備える固体撮像素子と、
前記固体撮像素子上に被写体の像を結像させるレンズと、
前記カラーフィルタ上で互いに近接する赤、緑、青、白の前記画素領域を組み合わせて設定される各赤外算出領域に対応する前記固体撮像素子の出力信号から第2の波長帯域に対応する赤外光成分の出力信号を算出する赤外算出手段と、
前記赤外算出手段により算出された赤外光成分の出力信号に生じるモアレを低減する赤外モアレ低減手段とを備えたことを特徴とする可視近赤外同時撮像装置。 It has a transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a transmission characteristic in the second wavelength band that is a part of the first wavelength band A double band pass filter that is an optical filter having
A color filter in which each pixel region of red, green, blue, and white is arranged in a predetermined pattern, and each pixel region has transmission characteristics in the second wavelength band;
A solid-state imaging device including a sensor for each pixel region of the color filter;
A lens that forms an image of a subject on the solid-state image sensor;
Red corresponding to the second wavelength band from the output signal of the solid-state imaging device corresponding to each infrared calculation region set by combining the pixel regions of red, green, blue, and white adjacent to each other on the color filter Infrared calculation means for calculating an output signal of the external light component;
An infrared and near-infrared simultaneous imaging apparatus comprising: an infrared moire reducing unit that reduces moire generated in an output signal of an infrared light component calculated by the infrared calculating unit.
前記固体撮像素子からの出力信号からエッジを検出するエッジ検出手段と、
前記エッジ検出手段に検出された前記エッジが前記赤外算出領域と重なる場合に、前記赤外算出領域が前記エッジと重ならにように、前記赤外算出領域に含まれる前記画素領域を変更して前記赤外算出領域の位置を変更することを特徴とする請求項1または2に記載の可視近赤外同時撮像装置。 The infrared moire reducing means is
Edge detection means for detecting an edge from an output signal from the solid-state imaging device;
When the edge detected by the edge detection unit overlaps the infrared calculation region, the pixel region included in the infrared calculation region is changed so that the infrared calculation region overlaps the edge. The visible and near infrared simultaneous imaging apparatus according to claim 1, wherein the position of the infrared calculation region is changed.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016232991A JP2018093284A (en) | 2016-11-30 | 2016-11-30 | Visible and near infrared simultaneous imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016232991A JP2018093284A (en) | 2016-11-30 | 2016-11-30 | Visible and near infrared simultaneous imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018093284A true JP2018093284A (en) | 2018-06-14 |
Family
ID=62564696
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016232991A Pending JP2018093284A (en) | 2016-11-30 | 2016-11-30 | Visible and near infrared simultaneous imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018093284A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108965665A (en) * | 2018-07-19 | 2018-12-07 | 维沃移动通信有限公司 | A kind of imaging sensor and mobile terminal |
| CN113038046A (en) * | 2021-03-23 | 2021-06-25 | 北京灵汐科技有限公司 | Pixel sensing array and vision sensor |
| CN113691735A (en) * | 2020-05-18 | 2021-11-23 | 浙江宇视科技有限公司 | A camera and infrared light supplementary light method and device |
| JP2022503764A (en) * | 2019-09-09 | 2022-01-12 | オッポ広東移動通信有限公司 | Image sensor, camera module, mobile terminal and image collection method |
| WO2022030367A1 (en) * | 2020-08-05 | 2022-02-10 | パナソニックIpマネジメント株式会社 | Imaging device |
| CN114485926A (en) * | 2021-12-27 | 2022-05-13 | 深圳市汇顶科技股份有限公司 | Ambient light sensor and electronic device |
| JP2023516410A (en) * | 2020-03-03 | 2023-04-19 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Image sensor and image light sensing method |
| US11808625B2 (en) | 2021-12-27 | 2023-11-07 | Shenzhen GOODIX Technology Co., Ltd. | Ambient light sensor and electronic device wherein a detected signal amount of infrared light in the ambient light is configured to correct a pixel value of a pixel unit corresponding to a color light filtering unit |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007288549A (en) * | 2006-04-18 | 2007-11-01 | Sony Corp | Physical information acquisition method and physical information acquisition device |
| JP2008187274A (en) * | 2007-01-26 | 2008-08-14 | Toshiba Corp | Solid-state imaging device |
| JP2011199798A (en) * | 2010-03-24 | 2011-10-06 | Sony Corp | Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method |
| US20150042816A1 (en) * | 2013-08-07 | 2015-02-12 | Steven N. KARELS | Methods of extracting 4-band data from a single ccd; methods of generating 4x4 or 3x3 color correction matrices using a single ccd |
| JP2015053578A (en) * | 2013-09-06 | 2015-03-19 | パナソニック株式会社 | Color image pickup device and color image pickup method |
-
2016
- 2016-11-30 JP JP2016232991A patent/JP2018093284A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007288549A (en) * | 2006-04-18 | 2007-11-01 | Sony Corp | Physical information acquisition method and physical information acquisition device |
| JP2008187274A (en) * | 2007-01-26 | 2008-08-14 | Toshiba Corp | Solid-state imaging device |
| JP2011199798A (en) * | 2010-03-24 | 2011-10-06 | Sony Corp | Physical information obtaining apparatus, solid-state imaging apparatus, and physical information obtaining method |
| US20150042816A1 (en) * | 2013-08-07 | 2015-02-12 | Steven N. KARELS | Methods of extracting 4-band data from a single ccd; methods of generating 4x4 or 3x3 color correction matrices using a single ccd |
| JP2015053578A (en) * | 2013-09-06 | 2015-03-19 | パナソニック株式会社 | Color image pickup device and color image pickup method |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108965665A (en) * | 2018-07-19 | 2018-12-07 | 维沃移动通信有限公司 | A kind of imaging sensor and mobile terminal |
| US11463642B2 (en) | 2018-07-19 | 2022-10-04 | Vivo Mobile Communication Co., Ltd. | Image sensor including pixel array and mobile terminal |
| JP7144604B2 (en) | 2019-09-09 | 2022-09-29 | オッポ広東移動通信有限公司 | Image sensor, camera module, mobile terminal and image acquisition method |
| JP2022503764A (en) * | 2019-09-09 | 2022-01-12 | オッポ広東移動通信有限公司 | Image sensor, camera module, mobile terminal and image collection method |
| JP2023516410A (en) * | 2020-03-03 | 2023-04-19 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Image sensor and image light sensing method |
| CN113691735A (en) * | 2020-05-18 | 2021-11-23 | 浙江宇视科技有限公司 | A camera and infrared light supplementary light method and device |
| JP2022029867A (en) * | 2020-08-05 | 2022-02-18 | パナソニックIpマネジメント株式会社 | Imaging apparatus |
| WO2022030367A1 (en) * | 2020-08-05 | 2022-02-10 | パナソニックIpマネジメント株式会社 | Imaging device |
| JP7496183B2 (en) | 2020-08-05 | 2024-06-06 | パナソニックオートモーティブシステムズ株式会社 | Imaging device |
| US12184984B2 (en) | 2020-08-05 | 2024-12-31 | Panasonic Automotive Systems Co., Ltd. | Image capturing apparatus |
| CN113038046A (en) * | 2021-03-23 | 2021-06-25 | 北京灵汐科技有限公司 | Pixel sensing array and vision sensor |
| CN113038046B (en) * | 2021-03-23 | 2023-07-25 | 北京灵汐科技有限公司 | Pixel sensing array and vision sensor |
| CN114485926A (en) * | 2021-12-27 | 2022-05-13 | 深圳市汇顶科技股份有限公司 | Ambient light sensor and electronic device |
| CN114485926B (en) * | 2021-12-27 | 2023-07-21 | 深圳市汇顶科技股份有限公司 | Ambient light sensor and electronic device |
| US11808625B2 (en) | 2021-12-27 | 2023-11-07 | Shenzhen GOODIX Technology Co., Ltd. | Ambient light sensor and electronic device wherein a detected signal amount of infrared light in the ambient light is configured to correct a pixel value of a pixel unit corresponding to a color light filtering unit |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018093284A (en) | Visible and near infrared simultaneous imaging device | |
| JP6725613B2 (en) | Imaging device and imaging processing method | |
| US9055181B2 (en) | Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information | |
| CN1177467C (en) | Color imaging system with infrared correction function and its imaging method | |
| JP5398346B2 (en) | Imaging apparatus and signal processing apparatus | |
| JP4603011B2 (en) | Image capturing apparatus and operation method thereof | |
| JP5701785B2 (en) | The camera module | |
| CN104041009B (en) | Camera element and camera device | |
| JP5901935B2 (en) | Solid-state imaging device and camera module | |
| EP2133238A1 (en) | Imaging apparatus and image correction method | |
| WO2013183378A1 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
| KR101733309B1 (en) | Dual isp based camera system for 4 color image sensor | |
| JP6692749B2 (en) | Multispectral camera | |
| WO2013099917A1 (en) | Imaging device | |
| JP2017158123A (en) | Signal processing apparatus and imaging apparatus | |
| JP2011114473A (en) | Pixel defect correction device | |
| US20230102607A1 (en) | Electronic device | |
| JP7237164B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND VIDEO PROCESSING PROGRAM | |
| US9906744B2 (en) | Image sensor having phase difference detection pixels for focus detection, and image pick-up apparatus including the image sensor | |
| JP4284960B2 (en) | Image signal processing device | |
| JP7379217B2 (en) | Imaging system | |
| JP6570122B2 (en) | Imaging device | |
| JP2010093336A (en) | Image capturing apparatus and interpolation processing method | |
| JP3515585B2 (en) | Two-chip imaging device | |
| US20120062763A1 (en) | Image processing apparatus, image processing method, and camera module |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20171110 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191114 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200522 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200807 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210105 |