[go: up one dir, main page]

JP3988457B2 - Imaging apparatus and signal processing method for solid-state imaging device - Google Patents

Imaging apparatus and signal processing method for solid-state imaging device Download PDF

Info

Publication number
JP3988457B2
JP3988457B2 JP2001392548A JP2001392548A JP3988457B2 JP 3988457 B2 JP3988457 B2 JP 3988457B2 JP 2001392548 A JP2001392548 A JP 2001392548A JP 2001392548 A JP2001392548 A JP 2001392548A JP 3988457 B2 JP3988457 B2 JP 3988457B2
Authority
JP
Japan
Prior art keywords
gray
pixel
signal
filter
output signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001392548A
Other languages
Japanese (ja)
Other versions
JP2003199117A (en
Inventor
新一郎 斉藤
武志 正和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001392548A priority Critical patent/JP3988457B2/en
Publication of JP2003199117A publication Critical patent/JP2003199117A/en
Application granted granted Critical
Publication of JP3988457B2 publication Critical patent/JP3988457B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、原色系のカラーフィルタ配列を持つ単板式の固体撮像素子を備えた撮像装置及びその固体撮像素子の信号処理方法に関する。更に詳しくは、特定の位置のグリーンフィルタをグレイフィルタに置き換え、そのグレイフィルタが配置された画素からの出力信号を利用することで、ダイナミックレンジの拡大を図った撮像装置及び固体撮像素子の信号処理方法に関する。
【0002】
【従来の技術】
例えば、CCD( Charge Coupled Device)型固体撮像素子を用いたカラーカメラの撮像方式としては、CCD1個でカラー情報が得られる単板式と、CCD3個で得られる3板式に大別できる。単板式にはさらに2方式がある。その1つとして、カラー情報が同時に得られる同時式がある。これは、各画素(センサ部)に対応してカラーフィルタ(オンチップカラーフィルタ)が設けられている。
【0003】
カラーフィルタのカラーコーディング(色配列)には多数の種類がある。そのうち、R(赤)、G(緑)、B(青)の原色系のカラーフィルタを用いた配列で、例えば米国特許第3971065号に開示されているベイヤー配列と呼ばれる配列がある。
【0004】
このベイヤー配列を図7に示す。グリーン(緑)フィルタGを市松状に配置し、残りの部分にレッド(赤)フィルタRと、ブルー(青)フィルタBをさらに市松状に配列したものである。すなわち、縦2画素×横2画素の4画素で見ると、グリーンフィルタGが対角位置の2箇所に配置され、残りの2箇所の一方にレッドフィルタRが、他方にブルーフィルタBが配置されている。全体として見るとグリーンフィルタGが斜め方向に連続して並ぶ配列となっている。
【0005】
このベイヤー配列の特徴は、輝度信号の合成に寄与する割合の大きいグリーンフィルタGの配置されたG画素が水平方向でみると各行ごとに存在し、また垂直方向で見ても各列ごとに存在することで、水平及び垂直の空間周波数特性が等方的で高い解像度が得られることにある。しかし、以下のような問題点がある。
【0006】
【発明が解決しようとする課題】
図9は、グリーンフィルタG、レッドフィルタR、ブルーフィルタBそれぞれについての、可視光領域における光の透過特性を示す。グリーンフィルタGは大きな感度(感度は各特性曲線R、G、Bの積分値で与えられる)を有するので、グリーンフィルタGが配置されたG画素の出力信号が最初に飽和することになる。
【0007】
すなわち、図8に示すように、先ず、露光時間Sgの時点でG画素の出力信号が飽和し、次に感度の大きいレッドフィルタRが配置されたR画素の出力信号がSrの時点で飽和し、最後に最も感度の小さいブルーフィルタBが配置されたB画素の出力信号がSbの時点で飽和する。なお、露光時間は(各画素への)入射光量と比例関係にあるので入射光量と置き換えてもよい。
【0008】
G画素の出力信号が飽和してしまうと、G画素はそれ以上の光量を受けても飽和点より大きな信号を出力することはできず、緑の色情報が欠落することになり、R画素やB画素の信号量が飽和していなくとも正しい色再現が行えなくなる。すなわち、原色系ベイヤー配列の場合、ダイナミックレンジがG画素の飽和特性で決まってしまい、Sg以降の光量では、輝度信号に関しては光量依存性に対する直線性が低下し、色差信号に関しては白色被写体に対して色付きが発生するなどの問題が生じる。
【0009】
本発明は上述の問題に鑑みてなされ、その目的とするところは、輝度のダイナミックレンジの拡大を実現する撮像装置及び固体撮像素子の信号処理方法を提供することにある。
【0010】
【課題を解決するための手段】
本発明の撮像装置は、レッドフィルタが配置されたR画素と、グリーンフィルタが配置されたG画素と、ブルーフィルタが配置されたB画素と、可視光領域での感度がブルーフィルタよりも小さいグレイフィルタが配置されたGray画素とが2次元的に配列された固体撮像素子と、注目されるGray画素の周囲に存在するR画素、G画素又はB画素の飽和していない出力信号に基づいて算出される出力値と、注目されるGray画素自身の出力信号、及び注目されるGray画素の周囲に存在する他のGray画素の出力信号に基づいて算出される出力値との比に基づいて、注目されるGray画素の出力信号にゲインを与えて、R(Gray)信号、G(Gray)信号又はB(Gray)信号算出するキャリアバランス手段と、
R(Gray)信号、G(Gray)信号又はB(Gray)信号基づいて、出力信号が飽和後のR画素、G画素又はB画素の出力信号を算出する補間手段と、を備えている。
【0011】
本発明の固体撮像素子の信号処理方法は、レッドフィルタが配置されたR画素と、グリーンフィルタが配置されたG画素と、ブルーフィルタが配置されたB画素と、可視光領域での感度がブルーフィルタよりも小さいグレイフィルタが配置されたGray画素とが2次元的に配列された固体撮像素子の信号処理方法であって、注目されるGray画素の周囲に存在するR画素、G画素又はB画素の飽和していない出力信号に基づいて算出される出力値と、注目されるGray画素自身の出力信号、及び注目されるGray画素の周囲に存在する他のGray画素の出力信号に基づいて算出される出力値との比に基づいて、注目されるGray画素の出力信号にゲインを与えて、R(Gray)信号、G(Gray)信号又はB(Gray)信号算出し、R(Gray)信号、G(Gray)信号又はB(Gray)信号基づいて、出力信号が飽和後のR画素、G画素又はB画素の出力信号を算出する。
【0012】
グレイフィルタは、赤、緑、青の各色の全てに対して広い範囲で感度を有する。また、RGB各画素の出力信号が飽和していない領域では、RGB各画素の出力信号とGray画素の出力信号は、露光時間に対して、共に原点を一致させて直線的に変化するので、RGB各画素の出力信号とGray画素の出力信号との間には一定の相関関係がある。更にグレイフィルタは他のRGBのカラーフィルタに比べて高い飽和特性をもっている。
【0013】
従って、RGBのうちのあるカラーフィルタが配置された画素の出力信号が飽和しても、まだ飽和していないGray画素の出力信号から、その飽和した画素の出力信号を算出できる。この算出は、飽和していないときのRGB各画素の出力信号とGray画素の出力信号との相関関係に基づいて行われる。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0015】
本実施の形態による固体撮像素子のカラーフィルタの配列を図1に示す。本実施の形態では、図7に示した従来の原色系ベイヤー配列において、2画素×2画素の単位区画で見ると、対角して位置していた2つのグリーンフィルタGのうちの一方をグレイフィルタGrayに置き換えている。具体的には、レッドフィルタRに水平方向で隣接するグリーンフィルタGをグレイフィルタGrayに置き換えた配列となっている。
【0016】
グレイフィルタGrayは、図9に示すように、可視光領域で比較的波長依存性の少ないほぼフラットな透過特性を有している。そして、他のカラーフィルタと同様に、グレイ(灰色)の染料や顔料の含有量を変更することにより、透過率を調整でき、所望の感度に設定することが可能である。本実施の形態では、可視光領域における感度(積分値)が、ブルーフィルタBより小さいグレイフィルタGrayを用いている。
【0017】
以上のようなカラーフィルタ配列を有する固体撮像素子(CCD)の出力信号は、図2に示す信号処理回路にて処理される。レッドフィルタRが配置されたR画素、グリーンフィルタGが配置されたG画素、ブルーフィルタBが配置されたB画素、及びグレイフィルタGrayが配置されたGray画素からの各出力信号は、信号処理回路にて各種処理が行われ、各画素ごとに輝度信号と色差信号が求められる。
【0018】
以下、各処理ブロックごとに説明していく。
【0019】
キャリアバランス手段1では、CCDからの出力信号(R、G、B、Grayの各画素の出力信号)を受け以下のような処理を行う。
グレイフィルタGrayは、図9に示すように、可視光領域の全ての色相の光に対して応答をもつ。従って、RGB各画素の感度と同等の出力信号となるように、Gray画素の出力信号に所定のゲイン(利得)を与えることによって、Gray画素の信号を、RGB各画素の出力信号として代用可能である。すなわち、Gray画素から、新たにR信号、G信号、B信号をそれぞれ生成できる。このような処理をキャリアバランスと呼ぶ。以下、キャリアバランスについて具体的に説明する。
【0020】
例えば、図1において、アドレス(3、2)に位置するGray(3、2)画素についてキャリアバランスを行う場合を例として説明する。先ず、Gray(3、2)画素からG信号を生成する場合を考える。
【0021】
そのG信号を、Gray画素から生成されたという意味で、G(Gray)信号と表記すると、G(Gray)信号=α×{Gray(3、2)画素の出力信号}で与えられる。αは、飽和する前のG画素の出力信号とGray画素の出力信号との相関関係に基づいて得られる。すなわち、図3に示すように、飽和する前のG画素の出力信号とGray画素の出力信号との比が一定であることを利用する。具体的には以下のようにして求められる。
【0022】
Gray(3、2)画素自身の出力信号、及びGray(3、2)画素の周囲に存在する他のGray画素の出力信号の平均値をGray(Av.)とする。Gray(3、2)画素の周囲とは、Gray(3、2)画素を中心とするm行×n列の範囲である。その同じm行×n列の範囲内に存在するG画素の出力信号の平均値をG(Av.)とする。
【0023】
これらGray(Av.)とG(Av.)との比から、αは、α=G(Av.)/Gray(Av.)で求められる。
【0024】
なお、G(Av.)の算出に際しては、飽和していないG画素の出力信号のみが用いられる。すなわち、G(Av.)は、m行×n列の範囲内に存在する全てのG画素のうち、出力信号が飽和していないG画素のみのその出力信号の平均として求められる。出力信号が飽和しているかしていないかの判断は、CCDの製造時に、このCCDについては例えば飽和点が500mVというように既知の値として与えられているので、出力された信号がその飽和点に達したかどうかの判断で容易に行える。
【0025】
次に、Gray(3、2)画素からR信号を生成する場合について説明する。そのR信号を、R(Gray)信号とすると、R(Gray)信号=β×{Gray(3、2)画素の出力信号}で与えられる。βは、飽和する前のR画素の出力信号とGray画素の出力信号との相関関係に基づいて得られる。すなわち、図3に示すように、飽和する前のR画素の出力信号とGray画素の出力信号との比が一定であることを利用する。具体的には以下のようにして求められる。
【0026】
Gray(3、2)画素自身の出力信号、及びGray(3、2)画素の周囲に存在する他のGray画素の出力信号の平均値をGray(Av.)とする。Gray(3、2)画素の周囲とは、Gray(3、2)画素を中心とするm行×n列の範囲である。その同じm行×n列の範囲内に存在するR画素の出力信号の平均値をR(Av.)とする。
【0027】
これらGray(Av.)とR(Av.)との比から、βは、β=R(Av.)/Gray(Av.)で求められる。上述したG(Av.)の場合と同様、R(Av.)は、m行×n列の範囲内に存在する全てのR画素のうち、出力信号が飽和していないR画素のみのその出力信号の平均として求められる。出力信号が飽和しているかしていないかの判断は、G(Av.)の場合と同様、既知の飽和点(例えば500mV)に達したかどうかの判断で行われる。
【0028】
Gray(3、2)画素からB信号を生成する場合についても同様に、そのB信号を、B(Gray)信号とすると、B(Gray)信号=γ×{Gray(3、2)画素の出力信号}で与えられる。γは、飽和する前のB画素の出力信号とGray画素の出力信号との相関関係に基づいて得られる。すなわち、図3に示すように、飽和する前のB画素の出力信号とGray画素の出力信号との比が一定であることを利用する。具体的には以下のようにして求められる。
【0029】
Gray(3、2)画素自身の出力信号、及びGray(3、2)画素の周囲に存在する他のGray画素の出力信号の平均値をGray(Av.)とする。Gray(3、2)画素の周囲とは、Gray(3、2)画素を中心とするm行×n列の範囲である。その同じm行×n列の範囲内に存在するB画素の出力信号の平均値をB(Av.)とする。
【0030】
これらGray(Av.)とB(Av.)との比から、γは、γ=B(Av.)/Gray(Av.)で求められる。この場合にも、B(Av.)は、m行×n列の範囲内に存在する全てのB画素のうち、出力信号が飽和していないB画素のみのその出力信号の平均として求められる。出力信号が飽和しているかしていないかの判断についても、やはり既知の飽和点(例えば500mV)に達したかどうかの判断で行われる。
【0031】
以上のことにより、図3に示すように、G画素がSgで、R画素がSrで、B画素がsbでそれぞれ飽和した後でも、感度の小さいグレイフィルタを用いたGray画素は飽和しておらず、よって、そのときのGray画素の出力信号(例えばS)に上述したようなゲイン(×α、×β、×γ)を与えて、G、R、B各画素の飽和後の出力信号(図3で一点鎖線で示す)を得ることができる。
【0032】
なお、αを求めるにあたっては、G(Av.)とGray(Av.)との比ではなく、上述したm行×n列の範囲内に存在するGray画素の出力信号の和と、その同じm行×n列の範囲内に存在するG画素の出力信号の和との比で算出してもよい。ただし、この場合には、和をとるべきGray画素とG画素の数を一致させる必要がある。βとγについても同様のことが言える。
【0033】
次に、キャリアバランスの後に行われる、ホワイトバランス手段2でのホワイトバランス処理について説明する。
【0034】
例えば白い被写体を撮像した場合、本来R、G、B各画素からの出力信号は同じレベル(R信号:G信号:B信号=1:1:1)になるはずだが、RGBの各カラーフィルタの分光特性の違いにより、必ずしも同一レベルとはならない。このとき、R信号、G信号、B信号のそれぞれに利得を与えることにより、白を撮像した時に(R信号:G信号:B信号=1:1:1)になるようにする。これにより、RGBの各画素ごとの感度差を補正して白い被写体は白く見えるようにすることができる。これをホワイトバランスと呼び、グレイフィルタを用いていない通常のカラーフィルタ配列を有する撮像装置でも行われる処理である。
【0035】
通常は、図4に示すように、R信号とB信号をG信号に合わせることでホワイトバランスをとる。図において、ホワイトバランスされたR信号をR’、B信号をB’で表す。なお、R’信号とB’信号を明示するために、図では原点0からずらして示している。この図4から明らかなように、従来通りのホワイトバランスでは、ホワイトバランス後のG信号、R’信号、B’信号それぞれの最大レベルが異なる。すなわち、G信号が飽和するまでの段階でしかホワイトバランスがとれないことになる。
【0036】
そこで、本実施の形態では、図5に示すように、上述のキャリアバランスでGray画素から生成されたG(Gray)信号、R(Gray)信号、B(Gray)信号のホワイトバランスをとる。ホワイトバランスされた信号をそれぞれR”、G”、B”で示す(この場合も図示状わかりやすくするため原点0からずらしている)。このことにより、飽和後の領域でも各信号の最大レベルは変わらず同じ値をとらせることができる。
【0037】
次に、画素補間処理について説明する。
【0038】
単板式の撮像装置では、RGBの各画素からは、その画素に配置されたフィルタの色に対応する信号のみが出力される。すなわち、レッドフィルタRが配置されたR画素からはR成分のR信号は出力されるが、G成分のG信号とB成分のB信号は出力されない。同様に、G画素からはG信号のみが出力され、R信号及びB信号は出力されず、B画素からはB信号のみが出力され、R信号及びG信号は出力されない。
【0039】
しかし、後段において各画素の出力信号を処理する際、各画素ごとにRGBの3つの信号が必要となる。すなわち、輝度信号と色差信号は、各画素ごとに求められるが、その演算に際してはRGBの3つの信号を必要とする。このため、各画素が持っている色信号以外の色信号を生成して補間する必要がある。これを画素補間と呼ぶ。
【0040】
画素補間は従来より様々な方法があるが、要は、補間対象画素の周囲の画素の出力信号を利用して行う。例えばR画素にG信号を生成したい場合には、その補間対象であるR画素の周囲に位置するG画素の出力信号から推定して得られた値を、その補間対象R画素のG信号とする。なお、G画素に限らず、周囲のRGB画素全てを利用する方法もある。
【0041】
このとき、補間演算に使われる画素(上記例ではG画素)の出力信号が飽和していなければ、そのままG画素の出力を利用して通常の補間処理が行われる。この処理は、図2における、Green標準領域補間手段3Gで行われる。なお、ここで標準領域とは、出力信号が飽和する前の領域、すなわちG画素については、図3において0〜Sgの範囲を意味する。なお、Green標準領域補間手段3Gでは、B画素にG信号を補間する処理も行われる。
【0042】
同様に、Red標準領域補間手段3Rでは、G、B画素にR信号を補間する処理が、Blue標準領域補間手段3Bでは、R、G画素にB信号を補間する処理が行われる。これら、Green標準領域補間手段3G、Red標準領域補間手段3R、Blue標準領域補間手段3Bで行われる処理は、補間演算に使う画素の出力信号が飽和していない場合に行われる処理である。
【0043】
補間演算に使う画素の出力信号が飽和していた場合には(この判断は上述したキャリアバランスのときと同様にして既知の飽和点に達したかどうかで行われる)、Green飽和領域補間手段4G、Red飽和領域補間手段4R、Blue飽和領域補間手段4Bで、画素補間が行われる。
【0044】
例えば、Red飽和領域補間手段4Rにて、G画素にR信号を補間する場合を考える。ここで、補間演算に使うべきR画素が飽和していた場合には、そのR画素の水平方向に関しての両隣のGray画素の出力信号を用いて、飽和後のR画素の出力信号を求める。
【0045】
すなわち、R画素が飽和してしまうレベルでも、感度の小さいGray画素は飽和せず、その飽和していないGray画素の出力信号から、上述のキャリアバランスにて生成されたR(Gray)信号を用いて飽和後のR画素の出力信号を求める。具体的には、R画素の水平方向に関しての両隣のGray画素それぞれのR(Gray)信号の平均値をR画素の出力信号とする。これにより、R画素が飽和していても、R画素が受けた光量を正確に反映した出力信号が得られることになり、このR画素の出力信号を使うことで、補間対象画素であるG画素に対する画素補間も正確に行える。
【0046】
B画素が飽和していた場合には、例えば、その垂直方向に関しての両隣のGray画素それぞれのB(Gray)信号の平均値を、飽和後のB画素の出力信号とする。G画素が飽和していた場合には、例えば、そのG画素の対角位置の4つのGray画素それぞれのG(Gray)信号の平均値を、飽和後のG画素の出力信号とする。
【0047】
なお、補間演算にはGray画素も使われ、Gray画素の場合には、上述のキャリアバランスにて、RGB各成分の信号、R(Gray)信号、G(Gray)信号、B(Gray)信号が得られるので、これらをそのまま画素補間の演算に使う。もちろん、Gray画素自身は、上述のキャリアバランスにて単独でRGBの各信号が得られるので、周囲の画素を使った画素補間を行う必要はない。
【0048】
上述したように、Red標準領域補間手段3R、Green標準領域補間手段3G、Blue標準領域補間手段3Bで、RGBの各信号が得られればそれをそのまま後段の処理に使う。飽和している画素があって、Red標準領域補間手段3R、Green標準領域補間手段3G、Blue標準領域補間手段3Bでの演算が行えない場合には、Red飽和領域補間手段4R、Green飽和領域補間手段4G、Blue飽和領域補間手段4Bで得られたRGBの各信号を後段の処理に使う。その選択制御を、輝度信号領域制御手段5と、色差信号領域制御手段6で行う。
【0049】
その後、輝度信号領域制御手段5から出力されたRGBの各信号は輪郭補正手段7を介してガンマ補正手段8に、色差信号領域制御手段6から出力されたRGBの各信号はガンマ補正手段8に供給される。
【0050】
輪郭補正手段7では、画像のエッジ検出が行われ、検出されたそのエッジを強調し、くっきり見せるための処理が行われる。
【0051】
ガンマ補正手段8では、以下のような処理が行われる。CRTディスプレイ(ブラウン管表示器)は、非線形な入出力特性を持っており、低輝度側の発光が入力信号に比例せず、小さく出る傾向がある。従って、RGBの各信号を直接CRTディスプレイに表示した場合、低輝度側がつぶれたような、言い換えると暗く見える。これをCRTディスプレイのガンマ特性と呼ぶ。このとき、入力されるRGBの各信号にCRTディスプレイのガンマ特性と逆の特性を有する非線形処理をすることで、CRTディスプレイで見たときには自然なコントラストにすることができる。これをガンマ補正と呼ぶ。
【0052】
ガンマ補正が行われたRGBの各信号は、それぞれ輝度信号合成手段9と、色差信号合成手段10に送られ、輝度信号合成手段では輝度信号が生成され、色差信号合成手段10では色差信号が生成される。
【0053】
以上述べたように、RGBの各画素が飽和した後でも、Gray画素からRGBの各信号を生成することができる。そして、そのGray画素から生成されたR(Gray)信号、G(Gray)信号、B(Gray)信号を用いて、輝度信号を求めることで、従来、G信号の飽和特性で決まっていた輝度信号のダイナミックレンジを拡大させることができる。Gray画素に配置されるグレイフィルタとして、例えば白色光源下でブルーフィルタの1/N(Nは整数)になるような感度特性に設定した場合、Gray画素はB画素に対してN倍のダイナミックレンジの拡大を実現できる。
【0054】
更に、Gray画素から生成されたR(Gray)信号、G(Gray)信号、B(Gray)信号を用いて、色差信号を求めることで色再現性も向上させることができる。
【0055】
以上、本発明の実施の形態について説明したが、勿論、本発明はこれに限定されることなく、本発明の技術的思想に基づいて種々の変形が可能である。
【0056】
図7に示すベイヤー配列において、ブルーフィルタBの水平隣のグリーンフィルタGをグレイフィルタGrayに置き換えてもよい。更には、カラーフィルタの配列はベイヤー配列には限定されず、その他の原色系の色配列にも、本発明を適用することができる。
【0057】
本発明が適用される他の色配列の例を図6に示す。図6は、いわゆるGストライプと呼ばれる色配列である。グリーンフィルタGを1列おきに縦一列に配置し、グリーンフィルタGの各列の間の列にレッドフィルタR及びブルーフィルタBが配置されている。レッドフィルタR及びブルーフィルタBは市松配置となっている。この色配列に本発明を適用する場合には、例えば図中*印を付したグリーンフィルタG、すなわちレッドフィルタRの左隣のグリーンフィルタGをグレイフィルタに置き換えればよい。あるいは、*印を付していないグリーンフィルタG、すなわちレッドフィルタRの右隣のグリーンフィルタGをグレイフィルタに置き換えてもよい。なお、Gストライプの色配列としては、レッドフィルタR、ブルーフィルタBの他の配置も考えられる。
【0058】
また、本発明は、CCD型固体撮像素子に限らず、MOS型の固体撮像素子にも適用することができる。
【0059】
【発明の効果】
以上述べたように、本発明では、赤、緑、青の各色の全てに対して広い範囲で感度を有し、またRGBのカラーフィルタに比べて高い飽和特性をもっているグレイフィルタを用いることで、RGBのうちのあるカラーフィルタが配置された画素の出力信号が飽和しても、まだ飽和していないグレイフィルタが配置されたGray画素の出力信号から、その飽和した画素の出力信号を算出できる。これにより、従来はG信号の飽和特性で決まっていた輝度信号のダイナミックレンジを拡大させることができる。
更に、Gray画素から生成されたR(Gray)信号、G(Gray)信号、B(Gray)信号を用いてホワイトバランスをとることで、元から備わっているRGBの各画素が飽和した後でも正確にホワイトバランスがとれる。
【図面の簡単な説明】
【図1】本発明の実施の形態による固体撮像素子のカラーフィルタ配列を示す図である。
【図2】本発明の実施の形態による撮像装置の構成を示すブロック図である。
【図3】露光時間(入射光量)に対する、飽和前のG画素、R画素、B画素、Gray画素の出力特性、及びG画素、R画素、B画素の飽和後に、Gray画素から生成されたG(Gray)信号、R(Gray)信号、B(Gray)信号を示す図である。
【図4】従来の方法によるRGB各信号のホワイトバランス出力特性図である。
【図5】Gray画素から生成されたG(Gray)信号、R(Gray)信号、B(Gray)信号のホワイトバランス出力特性図である。
【図6】本発明が適用されるカラーフィルタ配列の変形例を示す図である。
【図7】ベイヤー配列を示す図である。
【図8】露光時間(入射光量)に対する、G画素、R画素、B画素の出力特性図である。
【図9】図1に示す4色の各カラーフィルタの可視光領域における透過特性を示す図である。
【符号の説明】
1……キャリアバランス手段、2……ホワイトバランス手段、3R……Red標準領域補間手段、3G……Green標準領域補間手段、3B……Blue標準領域補間手段、4R……Red飽和領域補間手段、4G……Green飽和領域補間手段、4B……Blue飽和領域補間手段、5……輝度信号領域制御手段、6……色差信号領域制御手段、7……輪郭補正手段、8……ガンマ補正手段、9……輝度信号合成手段、10……色差信号合成手段。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus including a single-plate solid-state imaging device having a primary color filter array and a signal processing method for the solid-state imaging device. More specifically, the signal processing of an imaging device and a solid-state imaging device that expands the dynamic range by replacing a green filter at a specific position with a gray filter and using an output signal from a pixel in which the gray filter is arranged Regarding the method.
[0002]
[Prior art]
For example, the imaging method of a color camera using a CCD (Charge Coupled Device) type solid-state imaging device can be broadly divided into a single plate type in which color information can be obtained with one CCD and a three plate type with three CCDs. There are two more types of single plate type. As one of them, there is a simultaneous type in which color information can be obtained simultaneously. This is provided with a color filter (on-chip color filter) corresponding to each pixel (sensor unit).
[0003]
There are many types of color coding (color arrangement) of the color filter. Among them, there is an array called a Bayer array disclosed in US Pat. No. 3,971,065, for example, using an R (red), G (green), and B (blue) primary color filter.
[0004]
This Bayer arrangement is shown in FIG. A green filter G is arranged in a checkered pattern, and a red (red) filter R and a blue (blue) filter B are further arranged in a checkered pattern in the remaining part. That is, when viewed in 4 pixels of 2 vertical pixels × 2 horizontal pixels, the green filter G is arranged at two diagonal positions, the red filter R is arranged at one of the remaining two places, and the blue filter B is arranged at the other. ing. When viewed as a whole, the green filters G are arrayed continuously in an oblique direction.
[0005]
The feature of this Bayer arrangement is that each G pixel in which the green filter G having a large contribution to the synthesis of the luminance signal is arranged is present in each row when viewed in the horizontal direction, and is also present for each column when viewed in the vertical direction. By doing so, the horizontal and vertical spatial frequency characteristics are isotropic and high resolution can be obtained. However, there are the following problems.
[0006]
[Problems to be solved by the invention]
FIG. 9 shows light transmission characteristics in the visible light region for the green filter G, the red filter R, and the blue filter B, respectively. Since the green filter G has a large sensitivity (sensitivity is given by an integral value of each characteristic curve R, G, B), the output signal of the G pixel in which the green filter G is disposed is saturated first.
[0007]
That is, as shown in FIG. 8, first, the output signal of the G pixel is saturated at the time of the exposure time Sg, and the output signal of the R pixel in which the red filter R having the next highest sensitivity is saturated is saturated at the time of Sr. Finally, the output signal of the B pixel where the least sensitive blue filter B is arranged is saturated at the time of Sb. Since the exposure time is proportional to the amount of incident light (to each pixel), it may be replaced with the amount of incident light.
[0008]
If the output signal of the G pixel is saturated, the G pixel cannot output a signal larger than the saturation point even if it receives a larger amount of light, and the green color information is lost. Even if the signal amount of the B pixel is not saturated, correct color reproduction cannot be performed. That is, in the case of the primary color Bayer arrangement, the dynamic range is determined by the saturation characteristic of the G pixel, and with the light quantity after Sg, the linearity with respect to the light quantity dependency is reduced with respect to the luminance signal, and with respect to the white object with respect to the color difference signal. This causes problems such as coloring.
[0009]
The present invention has been made in view of the above-described problems, and an object thereof is to provide an image pickup apparatus and a signal processing method for a solid-state image pickup device that realize an expansion of a dynamic range of luminance.
[0010]
[Means for Solving the Problems]
The imaging device according to the present invention includes an R pixel in which a red filter is disposed, a G pixel in which a green filter is disposed, a B pixel in which a blue filter is disposed, and a gray color whose sensitivity in the visible light region is smaller than that of the blue filter. A solid-state imaging device in which Gray pixels on which filters are arranged are two-dimensionally arranged; R pixel, G pixel, or B pixel that exists around the noticed Gray pixel Unsaturated output signal Output value calculated based on When, The output signal of the noticed Gray pixel itself and other signals present around the noticed Gray pixel. Gray pixel output signal Output value calculated based on Based on the ratio with Attention A gain is given to the output signal of the Gray pixel, and an R (Gray) signal and a G (Gray) signal Or B (Gray) signal The A carrier balance means to calculate,
R (Gray) signal, G (Gray) signal Or B (Gray) signal In Output signal after saturation R pixel, G pixel or B pixel Interpolation means for calculating an output signal.
[0011]
The signal processing method of the solid-state imaging device according to the present invention has an R pixel in which a red filter is arranged, a G pixel in which a green filter is arranged, a B pixel in which a blue filter is arranged, and a sensitivity in the visible light region is blue. A signal processing method of a solid-state imaging device in which Gray pixels in which a gray filter smaller than the filter is arranged are two-dimensionally arranged, R pixel, G pixel, or B pixel that exists around the noticed Gray pixel Unsaturated output signal Output value calculated based on When, The output signal of the noticed Gray pixel itself and other signals present around the noticed Gray pixel. Gray pixel output signal Output value calculated based on Based on the ratio with Attention A gain is given to the output signal of the Gray pixel, and an R (Gray) signal and a G (Gray) signal Or B (Gray) signal The Calculate R (Gray) signal, G (Gray) signal Or B (Gray) signal In Output signal after saturation R pixel, G pixel or B pixel Calculate the output signal.
[0012]
The gray filter has a wide range of sensitivity with respect to all the colors of red, green, and blue. Also, in the region where the output signal of each RGB pixel is not saturated, the output signal of each RGB pixel and the output signal of the Gray pixel both change linearly with the origin coincided with the exposure time. There is a certain correlation between the output signal of each pixel and the output signal of the Gray pixel. Furthermore, the gray filter has higher saturation characteristics than other RGB color filters.
[0013]
Therefore, even if the output signal of a pixel where a certain color filter of RGB is arranged is saturated, the output signal of the saturated pixel can be calculated from the output signal of the Gray pixel that is not yet saturated. This calculation is performed based on the correlation between the output signal of each RGB pixel and the output signal of the Gray pixel when not saturated.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0015]
The arrangement of the color filters of the solid-state image sensor according to this embodiment is shown in FIG. In the present embodiment, in the conventional primary color Bayer arrangement shown in FIG. 7, when viewed in a unit block of 2 pixels × 2 pixels, one of the two green filters G located diagonally is gray. It is replaced with the filter Gray. Specifically, the green filter G adjacent to the red filter R in the horizontal direction is replaced with a gray filter Gray.
[0016]
As shown in FIG. 9, the gray filter Gray has a substantially flat transmission characteristic with relatively little wavelength dependency in the visible light region. As in the case of other color filters, the transmittance can be adjusted by changing the content of a gray (gray) dye or pigment, and a desired sensitivity can be set. In the present embodiment, a gray filter Gray whose sensitivity (integrated value) in the visible light region is smaller than that of the blue filter B is used.
[0017]
The output signal of the solid-state imaging device (CCD) having the above color filter array is processed by the signal processing circuit shown in FIG. Each output signal from the R pixel in which the red filter R is arranged, the G pixel in which the green filter G is arranged, the B pixel in which the blue filter B is arranged, and the Gray pixel in which the gray filter Gray is arranged is a signal processing circuit. Various processes are performed at, and a luminance signal and a color difference signal are obtained for each pixel.
[0018]
Hereinafter, each processing block will be described.
[0019]
The carrier balance means 1 receives the output signals from the CCD (output signals of R, G, B, and Gray pixels) and performs the following processing.
As shown in FIG. 9, the gray filter Gray has a response to light of all hues in the visible light region. Therefore, by giving a predetermined gain to the output signal of the Gray pixel so that the output signal is equivalent to the sensitivity of each RGB pixel, the signal of the Gray pixel can be substituted as the output signal of each RGB pixel. is there. That is, R signal, G signal, and B signal can be newly generated from the Gray pixel. Such processing is called carrier balance. Hereinafter, the carrier balance will be specifically described.
[0020]
For example, a case where carrier balance is performed for Gray (3, 2) pixel located at address (3, 2) in FIG. 1 will be described as an example. First, consider a case where a G signal is generated from Gray (3, 2) pixels.
[0021]
When the G signal is expressed as a G (Gray) signal in the sense that it is generated from the Gray pixel, it is given by G (Gray) signal = α × {Gray (3, 2) pixel output signal}. α is obtained based on the correlation between the output signal of the G pixel and the output signal of the Gray pixel before saturation. That is, as shown in FIG. 3, the fact that the ratio of the output signal of the G pixel before saturation and the output signal of the Gray pixel is constant is used. Specifically, it is obtained as follows.
[0022]
The average value of the output signal of the Gray (3, 2) pixel itself and the output signal of other Gray pixels existing around the Gray (3, 2) pixel is defined as Gray (Av.). The periphery of the Gray (3, 2) pixel is a range of m rows × n columns centering on the Gray (3, 2) pixel. The average value of the output signals of the G pixels existing within the same m rows × n columns is defined as G (Av.).
[0023]
From the ratio of these Gray (Av.) And G (Av.), Α is obtained by α = G (Av.) / Gray (Av.).
[0024]
In calculating G (Av.), Only the output signal of the G pixel that is not saturated is used. That is, G (Av.) Is obtained as an average of the output signals of only the G pixels in which the output signal is not saturated among all the G pixels existing in the range of m rows × n columns. Whether the output signal is saturated or not is determined when the CCD is manufactured because the CCD is given a known value, for example, a saturation point of 500 mV. It can be easily done by judging whether or not.
[0025]
Next, a case where an R signal is generated from Gray (3, 2) pixels will be described. When the R signal is an R (Gray) signal, R (Gray) signal = β × {Gray (3, 2) pixel output signal}. β is obtained based on the correlation between the output signal of the R pixel before saturation and the output signal of the Gray pixel. That is, as shown in FIG. 3, the fact that the ratio between the output signal of the R pixel before saturation and the output signal of the Gray pixel is constant is used. Specifically, it is obtained as follows.
[0026]
The average value of the output signal of the Gray (3, 2) pixel itself and the output signal of other Gray pixels existing around the Gray (3, 2) pixel is defined as Gray (Av.). The periphery of the Gray (3, 2) pixel is a range of m rows × n columns centering on the Gray (3, 2) pixel. Let R (Av.) Be the average value of the output signals of the R pixels existing within the same m rows × n columns.
[0027]
From the ratio of Gray (Av.) And R (Av.), Β is obtained by β = R (Av.) / Gray (Av.). As in the case of G (Av.) Described above, R (Av.) Is the output of only R pixels in which the output signal is not saturated among all the R pixels existing in the range of m rows × n columns. Obtained as the average of the signal. Whether the output signal is saturated or not is determined by determining whether a known saturation point (for example, 500 mV) has been reached as in the case of G (Av.).
[0028]
Similarly, when the B signal is generated from the Gray (3, 2) pixel, if the B signal is a B (Gray) signal, the output of B (Gray) signal = γ × {Gray (3, 2) pixel. Signal}. γ is obtained based on the correlation between the output signal of the B pixel and the output signal of the Gray pixel before saturation. That is, as shown in FIG. 3, the fact that the ratio between the output signal of the B pixel before saturation and the output signal of the Gray pixel is constant is used. Specifically, it is obtained as follows.
[0029]
The average value of the output signal of the Gray (3, 2) pixel itself and the output signal of other Gray pixels existing around the Gray (3, 2) pixel is defined as Gray (Av.). The periphery of the Gray (3, 2) pixel is a range of m rows × n columns centering on the Gray (3, 2) pixel. Let B (Av.) Be the average value of the output signals of the B pixels existing within the same m rows × n columns.
[0030]
From the ratio of Gray (Av.) And B (Av.), Γ is obtained by γ = B (Av.) / Gray (Av.). Also in this case, B (Av.) Is obtained as an average of the output signals of only the B pixels in which the output signal is not saturated among all the B pixels existing in the range of m rows × n columns. Whether the output signal is saturated or not is also determined by determining whether a known saturation point (for example, 500 mV) has been reached.
[0031]
As described above, as shown in FIG. 3, even after the G pixel is saturated with Sg, the R pixel is Sr, and the B pixel is saturated with sb, the Gray pixel using the gray filter with low sensitivity is not saturated. Therefore, the gain (× α, × β, × γ) as described above is given to the output signal (for example, S) of the Gray pixel at that time, and the output signal after saturation of the G, R, and B pixels ( (Shown by a one-dot chain line in FIG. 3).
[0032]
In determining α, the ratio of G (Av.) And Gray (Av.) Is not the ratio, but the sum of output signals of Gray pixels existing in the range of m rows × n columns described above, and the same m You may calculate by ratio with the sum of the output signal of G pixel which exists in the range of a row xn column. However, in this case, it is necessary to match the number of Gray pixels and G pixels to be summed. The same is true for β and γ.
[0033]
Next, the white balance process performed by the white balance unit 2 after the carrier balance will be described.
[0034]
For example, when a white object is imaged, the output signals from the R, G, and B pixels should be at the same level (R signal: G signal: B signal = 1: 1: 1). Due to the difference in spectral characteristics, the level is not always the same. At this time, a gain is given to each of the R signal, the G signal, and the B signal so that the white image is obtained (R signal: G signal: B signal = 1: 1: 1). Thereby, the sensitivity difference for each pixel of RGB can be corrected so that a white subject appears white. This is called white balance, and is a process performed even in an imaging apparatus having a normal color filter array that does not use a gray filter.
[0035]
Normally, as shown in FIG. 4, white balance is achieved by matching the R and B signals to the G signal. In the figure, the white balanced R signal is represented by R ′ and the B signal is represented by B ′. In order to clearly show the R ′ signal and the B ′ signal, the drawing is shifted from the origin 0 in the figure. As apparent from FIG. 4, in the conventional white balance, the maximum levels of the G signal, the R ′ signal, and the B ′ signal after the white balance are different. That is, white balance can be achieved only at the stage until the G signal is saturated.
[0036]
Therefore, in the present embodiment, as shown in FIG. 5, the white balance of the G (Gray) signal, the R (Gray) signal, and the B (Gray) signal generated from the Gray pixel with the carrier balance described above is obtained. The white balanced signals are indicated by R ″, G ″, and B ″, respectively (in this case, they are also shifted from the origin 0 for the sake of clarity of illustration). The same value can be taken without change.
[0037]
Next, pixel interpolation processing will be described.
[0038]
In the single-plate imaging device, only signals corresponding to the colors of the filters arranged in the pixels are output from the RGB pixels. That is, an R component R signal is output from the R pixel in which the red filter R is arranged, but a G component G signal and a B component B signal are not output. Similarly, only the G signal is output from the G pixel, the R signal and the B signal are not output, only the B signal is output from the B pixel, and the R signal and the G signal are not output.
[0039]
However, when the output signal of each pixel is processed in the subsequent stage, three RGB signals are required for each pixel. That is, the luminance signal and the color difference signal are obtained for each pixel, but three signals of RGB are required for the calculation. For this reason, it is necessary to generate and interpolate color signals other than the color signals possessed by each pixel. This is called pixel interpolation.
[0040]
There are various methods of pixel interpolation than before, but the main point is to use output signals of pixels around the interpolation target pixel. For example, when it is desired to generate a G signal for the R pixel, a value obtained by estimation from the output signal of the G pixel located around the R pixel that is the interpolation target is set as the G signal of the R pixel to be interpolated. . In addition, there is a method that uses not only G pixels but also all surrounding RGB pixels.
[0041]
At this time, if the output signal of the pixel used for the interpolation calculation (G pixel in the above example) is not saturated, normal interpolation processing is performed using the output of the G pixel as it is. This processing is performed by the Green standard area interpolation means 3G in FIG. Here, the standard region means a range from 0 to Sg in FIG. 3 for a region before the output signal is saturated, that is, a G pixel. In the Green standard area interpolation means 3G, a process of interpolating the G signal to the B pixel is also performed.
[0042]
Similarly, the Red standard region interpolation unit 3R performs a process of interpolating R signals into G and B pixels, and the Blue standard region interpolation unit 3B performs a process of interpolating B signals into R and G pixels. The processing performed by the Green standard region interpolation unit 3G, the Red standard region interpolation unit 3R, and the Blue standard region interpolation unit 3B is performed when the output signal of the pixel used for the interpolation calculation is not saturated.
[0043]
When the output signal of the pixel used for the interpolation calculation is saturated (this determination is made based on whether or not a known saturation point has been reached in the same manner as in the carrier balance described above), the Green saturation region interpolation means 4G Pixel interpolation is performed by the Red saturation region interpolation unit 4R and the Blue saturation region interpolation unit 4B.
[0044]
For example, let us consider a case where an R signal is interpolated to a G pixel by the Red saturation region interpolation unit 4R. Here, when the R pixel to be used for the interpolation calculation is saturated, the output signal of the R pixel after saturation is obtained using the output signal of the adjacent Gray pixel in the horizontal direction of the R pixel.
[0045]
That is, even at a level at which the R pixel is saturated, the gray pixel with low sensitivity is not saturated, and the R (Gray) signal generated by the carrier balance described above is used from the output signal of the gray pixel that is not saturated. Thus, the output signal of the R pixel after saturation is obtained. Specifically, the average value of the R (Gray) signals of the adjacent Gray pixels on the horizontal direction of the R pixel is used as the output signal of the R pixel. As a result, even if the R pixel is saturated, an output signal that accurately reflects the amount of light received by the R pixel can be obtained. By using the output signal of the R pixel, the G pixel that is the interpolation target pixel is obtained. Pixel interpolation can be performed accurately.
[0046]
If the B pixel is saturated, for example, the average value of the B (Gray) signals of the adjacent Gray pixels in the vertical direction is used as the output signal of the B pixel after saturation. When the G pixel is saturated, for example, the average value of the G (Gray) signals of the four Gray pixels at the diagonal position of the G pixel is used as the output signal of the G pixel after saturation.
[0047]
Note that Gray pixels are also used in the interpolation calculation. In the case of Gray pixels, RGB component signals, R (Gray) signals, G (Gray) signals, and B (Gray) signals are transmitted with the carrier balance described above. Since these are obtained, these are used as they are for pixel interpolation. Of course, the Gray pixel itself can obtain RGB signals independently by the above-described carrier balance, so that it is not necessary to perform pixel interpolation using surrounding pixels.
[0048]
As described above, if each of the RGB signals is obtained by the Red standard region interpolation unit 3R, the Green standard region interpolation unit 3G, and the Blue standard region interpolation unit 3B, it is used as it is for subsequent processing. If there is a saturated pixel and the operation cannot be performed by the Red standard region interpolation unit 3R, the Green standard region interpolation unit 3G, and the Blue standard region interpolation unit 3B, the Red saturation region interpolation unit 4R and the Green saturation region interpolation are performed. The RGB signals obtained by the means 4G and the blue saturation area interpolation means 4B are used for subsequent processing. The selection control is performed by the luminance signal area control means 5 and the color difference signal area control means 6.
[0049]
Thereafter, the RGB signals output from the luminance signal area control means 5 are sent to the gamma correction means 8 via the contour correction means 7, and the RGB signals output from the color difference signal area control means 6 are sent to the gamma correction means 8. Supplied.
[0050]
The contour correcting means 7 detects an edge of the image, and performs a process for enhancing the detected edge and showing it clearly.
[0051]
The gamma correction unit 8 performs the following processing. A CRT display (CRT display) has non-linear input / output characteristics, and light emission on the low luminance side is not proportional to the input signal and tends to be small. Therefore, when the RGB signals are directly displayed on the CRT display, the low luminance side appears to be crushed, in other words, it looks dark. This is called the gamma characteristic of a CRT display. At this time, the input RGB signals are subjected to non-linear processing having characteristics opposite to the gamma characteristics of the CRT display, so that a natural contrast can be obtained when viewed on the CRT display. This is called gamma correction.
[0052]
The RGB signals subjected to the gamma correction are sent to the luminance signal synthesizing unit 9 and the color difference signal synthesizing unit 10, respectively. The luminance signal synthesizing unit generates a luminance signal, and the color difference signal synthesizing unit 10 generates a color difference signal. Is done.
[0053]
As described above, RGB signals can be generated from Gray pixels even after RGB pixels are saturated. A luminance signal that is conventionally determined by the saturation characteristic of the G signal is obtained by using the R (Gray) signal, G (Gray) signal, and B (Gray) signal generated from the Gray pixel. The dynamic range of can be expanded. For example, when the gray filter disposed in the Gray pixel is set to a sensitivity characteristic that is 1 / N (N is an integer) of the blue filter under a white light source, the Gray pixel has a dynamic range N times that of the B pixel. Can be expanded.
[0054]
Furthermore, color reproducibility can be improved by obtaining a color difference signal using an R (Gray) signal, a G (Gray) signal, and a B (Gray) signal generated from Gray pixels.
[0055]
The embodiment of the present invention has been described above. Of course, the present invention is not limited to this, and various modifications can be made based on the technical idea of the present invention.
[0056]
In the Bayer arrangement shown in FIG. 7, the green filter G horizontally adjacent to the blue filter B may be replaced with a gray filter Gray. Furthermore, the arrangement of the color filters is not limited to the Bayer arrangement, and the present invention can be applied to other primary color arrangements.
[0057]
An example of another color arrangement to which the present invention is applied is shown in FIG. FIG. 6 shows a color arrangement called a so-called G stripe. Green filters G are arranged in a vertical row every other row, and red filters R and blue filters B are arranged in rows between the green filters G. The red filter R and the blue filter B are in a checkered arrangement. When the present invention is applied to this color arrangement, for example, the green filter G marked with * in the figure, that is, the green filter G adjacent to the left of the red filter R may be replaced with a gray filter. Alternatively, the green filter G not marked with *, that is, the green filter G on the right side of the red filter R may be replaced with a gray filter. Note that other arrangements of the red filter R and the blue filter B are also conceivable as the color arrangement of the G stripe.
[0058]
The present invention can be applied not only to a CCD solid-state image sensor but also to a MOS solid-state image sensor.
[0059]
【The invention's effect】
As described above, in the present invention, by using a gray filter that has sensitivity in a wide range with respect to all the colors of red, green, and blue, and has higher saturation characteristics than RGB color filters, Even if an output signal of a pixel in which a certain color filter of RGB is arranged is saturated, an output signal of the saturated pixel can be calculated from an output signal of a Gray pixel in which a gray filter that is not yet saturated is arranged. As a result, the dynamic range of the luminance signal, which is conventionally determined by the saturation characteristics of the G signal, can be expanded.
Furthermore, by using the R (Gray) signal, G (Gray) signal, and B (Gray) signal generated from Gray pixels, white balance is used, so that even after each RGB pixel originally provided is saturated, it is accurate. White balance can be taken.
[Brief description of the drawings]
FIG. 1 is a diagram showing a color filter array of a solid-state imaging device according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention.
FIG. 3 shows output characteristics of G pixels, R pixels, B pixels, and Gray pixels before saturation with respect to exposure time (incident light amount), and G generated from Gray pixels after saturation of G pixels, R pixels, and B pixels. It is a figure which shows (Gray) signal, R (Gray) signal, and B (Gray) signal.
FIG. 4 is a white balance output characteristic diagram of RGB signals according to a conventional method.
FIG. 5 is a white balance output characteristic diagram of a G (Gray) signal, an R (Gray) signal, and a B (Gray) signal generated from Gray pixels.
FIG. 6 is a diagram showing a modification of the color filter array to which the present invention is applied.
FIG. 7 shows a Bayer array.
FIG. 8 is an output characteristic diagram of G pixels, R pixels, and B pixels with respect to exposure time (incident light amount).
FIG. 9 is a diagram illustrating transmission characteristics in the visible light region of the four color filters illustrated in FIG. 1;
[Explanation of symbols]
1 ... carrier balance means, 2 ... white balance means, 3R ... Red standard area interpolation means, 3G ... Green standard area interpolation means, 3B ... Blue standard area interpolation means, 4R ... Red saturated area interpolation means, 4G... Green saturated area interpolation means, 4B... Blue saturation area interpolation means, 5... Luminance signal area control means, 6... Color difference signal area control means, 7. 9: Luminance signal synthesis means, 10 ... Color difference signal synthesis means.

Claims (5)

レッドフィルタが配置されたR画素と、グリーンフィルタが配置されたG画素と、ブルーフィルタが配置されたB画素と、可視光領域での感度が前記ブルーフィルタよりも小さいグレイフィルタが配置されたGray画素とが2次元的に配列された固体撮像素子と、
注目されるGray画素の周囲に存在するR画素、G画素又はB画素の飽和していない出力信号に基づいて算出される出力値と、前記注目されるGray画素自身の出力信号、及び前記注目されるGray画素の周囲に存在する他のGray画素の出力信号に基づいて算出される出力値との比に基づいて、前記注目されるGray画素の出力信号にゲインを与えて、R(Gray)信号、G(Gray)信号又はB(Gray)信号算出するキャリアバランス手段と、
前記R(Gray)信号、前記G(Gray)信号又は前記B(Gray)信号基づいて、前記出力信号が飽和後の前記R画素、前記G画素又は前記B画素出力信号を算出する補間手段と、を備えている
ことを特徴とする撮像装置。
Gray in which an R pixel in which a red filter is arranged, a G pixel in which a green filter is arranged, a B pixel in which a blue filter is arranged, and a gray filter whose sensitivity in the visible light region is smaller than that of the blue filter is arranged. A solid-state imaging device in which pixels are two-dimensionally arranged;
An output value calculated based on an unsaturated output signal of an R pixel, a G pixel, or a B pixel existing around the noticed Gray pixel, an output signal of the noticed Gray pixel itself, and the noticed Based on a ratio with an output value calculated based on an output signal of another Gray pixel existing around the Gray pixel, a gain is given to the output signal of the noticed Gray pixel, and an R (Gray) signal Carrier balance means for calculating a G (Gray) signal or a B (Gray) signal;
Wherein R (Gray) signal, on the basis of the G (Gray) signal or the B (Gray) signal, the R pixels after the output signal is saturated, interpolation means for calculating an output signal of the G pixel or the B pixel An imaging apparatus comprising:
ベイヤー方式で配列された前記レッドフィルタの水平隣の前記グリーンフィルタ、あるいは前記ブルーフィルタの水平隣の前記グリーンフィルタが前記グレイフィルタに置き換えられている
ことを特徴とする請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the green filter horizontally adjacent to the red filter or the green filter horizontally adjacent to the blue filter arranged in a Bayer manner is replaced with the gray filter. .
前記R(Gray)信号、前記G(Gray)信号、前記B(Gray)信号を用いてホワイトバランス処理を行うホワイトバランス手段を備えている
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a white balance unit that performs white balance processing using the R (Gray) signal, the G (Gray) signal, and the B (Gray) signal.
レッドフィルタが配置されたR画素と、グリーンフィルタが配置されたG画素と、ブルーフィルタが配置されたB画素と、可視光領域での感度が前記ブルーフィルタよりも小さいグレイフィルタが配置されたGray画素とが2次元的に配列された固体撮像素子の信号処理方法であって、
注目されるGray画素の周囲に存在するR画素、G画素又はB画素の飽和していない出力信号に基づいて算出される出力値と、前記注目されるGray画素自身の出力信号、及び前記注目されるGray画素の周囲に存在する他のGray画素の出力信号に基づいて算出される出力値との比に基づいて、前記注目されるGray画素の出力信号にゲインを与えて、R(Gray)信号、G(Gray)信号又はB(Gray)信号算出し、
前記R(Gray)信号、前記G(Gray)信号又は前記B(Gray)信号基づいて、前記出力信号が飽和後の前記R画素、前記G画素又は前記B画素出力信号を算出する
ことを特徴とする固体撮像素子の信号処理方法。
Gray in which an R pixel in which a red filter is arranged, a G pixel in which a green filter is arranged, a B pixel in which a blue filter is arranged, and a gray filter whose sensitivity in the visible light region is smaller than that of the blue filter is arranged. A signal processing method for a solid-state imaging device in which pixels are two-dimensionally arranged,
An output value calculated based on an unsaturated output signal of an R pixel, a G pixel, or a B pixel existing around the noticed Gray pixel, an output signal of the noticed Gray pixel itself, and the noticed Based on a ratio with an output value calculated based on an output signal of another Gray pixel existing around the Gray pixel, a gain is given to the output signal of the noticed Gray pixel, and an R (Gray) signal calculates the G (Gray) signal or B (Gray) signal,
Wherein R (Gray) signal, on the basis of the G (Gray) signal or the B (Gray) signal, the R pixels after the output signal is saturated, to calculate the output signal of the G pixel or the B pixel A signal processing method for a solid-state imaging device.
前記R(Gray)信号、前記G(Gray)信号、前記B(Gray)信号を用いてホワイトバランス処理を行う
ことを特徴とする請求項4に記載の固体撮像素子の信号処理方法。
5. The signal processing method for a solid-state imaging device according to claim 4, wherein white balance processing is performed using the R (Gray) signal, the G (Gray) signal, and the B (Gray) signal.
JP2001392548A 2001-12-25 2001-12-25 Imaging apparatus and signal processing method for solid-state imaging device Expired - Fee Related JP3988457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001392548A JP3988457B2 (en) 2001-12-25 2001-12-25 Imaging apparatus and signal processing method for solid-state imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001392548A JP3988457B2 (en) 2001-12-25 2001-12-25 Imaging apparatus and signal processing method for solid-state imaging device

Publications (2)

Publication Number Publication Date
JP2003199117A JP2003199117A (en) 2003-07-11
JP3988457B2 true JP3988457B2 (en) 2007-10-10

Family

ID=27599828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001392548A Expired - Fee Related JP3988457B2 (en) 2001-12-25 2001-12-25 Imaging apparatus and signal processing method for solid-state imaging device

Country Status (1)

Country Link
JP (1) JP3988457B2 (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006064564A1 (en) 2004-12-16 2006-06-22 Fujitsu Limited Imaging device, imaging element, and image processing method
JP4666681B2 (en) * 2006-01-20 2011-04-06 株式会社日立国際電気 Image processing apparatus and image processing method
JP4967424B2 (en) * 2006-04-05 2012-07-04 凸版印刷株式会社 Image sensor
JP4187004B2 (en) 2006-04-17 2008-11-26 ソニー株式会社 Imaging apparatus and exposure control method for imaging apparatus
JP5106870B2 (en) * 2006-06-14 2012-12-26 株式会社東芝 Solid-state image sensor
JP5085140B2 (en) * 2007-01-05 2012-11-28 株式会社東芝 Solid-state imaging device
JP4846608B2 (en) * 2007-01-26 2011-12-28 株式会社東芝 Solid-state imaging device
US7844127B2 (en) * 2007-03-30 2010-11-30 Eastman Kodak Company Edge mapping using panchromatic pixels
JP5222625B2 (en) * 2007-06-01 2013-06-26 富士フイルム株式会社 Imaging device
JP5250315B2 (en) * 2007-06-28 2013-07-31 富士フイルム株式会社 Signal processing device, imaging device, and synchronization processing program
JP5169540B2 (en) * 2007-09-14 2013-03-27 株式会社リコー Imaging apparatus and imaging method
JP5091781B2 (en) * 2007-09-14 2012-12-05 株式会社リコー Imaging apparatus and imaging method
JP5145876B2 (en) * 2007-11-06 2013-02-20 株式会社リコー Imaging apparatus and imaging method
CN101766032B (en) * 2007-09-14 2012-06-13 株式会社理光 Imaging apparatus and imaging method
JP5123137B2 (en) * 2008-01-22 2013-01-16 株式会社リコー Imaging apparatus and imaging method
JP5262180B2 (en) 2008-02-26 2013-08-14 ソニー株式会社 Solid-state imaging device and camera
JP5091734B2 (en) * 2008-03-18 2012-12-05 株式会社リコー Imaging apparatus and imaging method
JP5347707B2 (en) * 2008-08-20 2013-11-20 株式会社リコー Imaging apparatus and imaging method
JP5310331B2 (en) * 2008-09-11 2013-10-09 株式会社リコー Imaging apparatus and imaging method
JP5223686B2 (en) * 2009-01-07 2013-06-26 株式会社リコー Imaging apparatus and imaging method
JP5526673B2 (en) 2009-09-16 2014-06-18 ソニー株式会社 Solid-state imaging device and electronic device
KR101652722B1 (en) * 2010-01-15 2016-09-01 삼성전자주식회사 Image interpolating method by bayer-pattern-converting signal and program recording medium
WO2013089036A1 (en) * 2011-12-16 2013-06-20 ソニー株式会社 Image pickup device
JP5703279B2 (en) * 2012-11-30 2015-04-15 本田技研工業株式会社 Vehicle periphery monitoring device
TW201503051A (en) 2013-07-02 2015-01-16 Novatek Microelectronics Corp Image processing method and anti-saturation method for image data and image processing device
CN104299596A (en) * 2013-07-15 2015-01-21 联咏科技股份有限公司 Image processing method, method for desaturating image data, and image processing device
TWI552594B (en) 2014-10-27 2016-10-01 聯詠科技股份有限公司 Color filter array for image sensing device and manufacturing method thereof
CN105635699B (en) * 2014-11-06 2019-10-18 联咏科技股份有限公司 Color filter array and its manufacturing method for image sensing device

Also Published As

Publication number Publication date
JP2003199117A (en) 2003-07-11

Similar Documents

Publication Publication Date Title
JP3988457B2 (en) Imaging apparatus and signal processing method for solid-state imaging device
JP4161295B2 (en) Color imaging system that expands the dynamic range of image sensors
US7126633B2 (en) Solid-state image-pickup device having primary color and gray color filters and processing means thereof
US8723995B2 (en) Extended dynamic range in color imagers
CN101467444B (en) Solid State Image Sensor
US7256828B2 (en) Weighted gradient based and color corrected interpolation
US20040085458A1 (en) Digital imaging system
US20060146064A1 (en) Hexagonal color pixel structure with white pixels
CN101494795B (en) Image sensor and method using unit pixel groups with overlapping green spectral ranges
WO2011132618A1 (en) Imaging device, captured image processing method, and captured image processing program
US8274585B2 (en) Imaging device with brightness correction
US20100066857A1 (en) Methods, systems and apparatuses for white balance calibration
JPH1175109A (en) Solid-state imaging device
US8045022B2 (en) Imaging apparatus for correcting a luminance signal
US20110234844A1 (en) Image sensing apparatus and method of controlling the apparatus
KR100731812B1 (en) Color deviation correction device and its correction method, image processor, recording medium using the same
US7146040B2 (en) Automatic white balance technique
JP2002112276A (en) Color solid-state image pickup device
JPH0879773A (en) Shading correction device
JP4309505B2 (en) Imaging device and imaging apparatus
JP4334150B2 (en) Image interpolation device
JP4309506B2 (en) Imaging device and imaging apparatus
JP4334151B2 (en) Image interpolation device
JP2005086630A (en) Imaging apparatus
JP4334152B2 (en) Image interpolation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees