[go: up one dir, main page]

JP3397755B2 - Imaging device - Google Patents

Imaging device

Info

Publication number
JP3397755B2
JP3397755B2 JP2000198684A JP2000198684A JP3397755B2 JP 3397755 B2 JP3397755 B2 JP 3397755B2 JP 2000198684 A JP2000198684 A JP 2000198684A JP 2000198684 A JP2000198684 A JP 2000198684A JP 3397755 B2 JP3397755 B2 JP 3397755B2
Authority
JP
Japan
Prior art keywords
image
image pickup
imaging
light
pickup device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000198684A
Other languages
Japanese (ja)
Other versions
JP2001078213A (en
Inventor
康夫 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000198684A priority Critical patent/JP3397755B2/en
Publication of JP2001078213A publication Critical patent/JP2001078213A/en
Application granted granted Critical
Publication of JP3397755B2 publication Critical patent/JP3397755B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Cameras In General (AREA)
  • Color Television Image Signal Generators (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、動画、又は、静止
画を撮像可能なビデオカメラ等の撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup device such as a video camera capable of picking up a moving image or a still image.

【0002】[0002]

【従来の技術】デジタルカラーカメラでは、レリーズボ
タンの押下に応動して、CCDやCMOSセンサなどの固体撮
像素子に被写界像を所望の時間露光し、これより得られ
た1つの画面の静止画像を表わす画像信号をデジタル信
号に変換して、YC処理などの所定の処理を施して、所定
の形式の画像信号を得る。撮像された画像を表わすデジ
タルの画像信号は、それぞれの画像毎に、半導体メモリ
に記録される。記録された画像信号は、随時読み出され
て表示または印刷可能な信号に再生され、モニタなどに
出力されて表示される。
2. Description of the Related Art In a digital color camera, in response to a release button being pressed, a solid-state image sensor such as a CCD or a CMOS sensor is exposed with a field image for a desired period of time, and the resulting one screen is frozen. An image signal representing an image is converted into a digital signal and subjected to predetermined processing such as YC processing to obtain an image signal in a predetermined format. A digital image signal representing the captured image is recorded in the semiconductor memory for each image. The recorded image signal is read out at any time and reproduced as a signal that can be displayed or printed, and is output to a monitor or the like for display.

【0003】デジタルカラーカメラの技術の一つとし
て、特開平7-123418号公報の開示例が知られている。特
開平7-123418号公報は予定結像面上の物体像を複数の再
結像光学系で再結像し、それぞれの物体像を異なる分光
透過率特性を有した光学フィルターを介して撮像するも
のである。限られた画素数の撮像素子を用いて高解像度
のカラー画像を得るのに都合がよい。
As one of the technologies of digital color cameras, a disclosed example of Japanese Patent Laid-Open No. 7-12318 is known. Japanese Laid-Open Patent Publication No. 7-12318 reimages an object image on a planned imaging surface with a plurality of reimaging optical systems, and images each object image through optical filters having different spectral transmittance characteristics. It is a thing. This is convenient for obtaining a high-resolution color image by using an image sensor having a limited number of pixels.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この構
成は、物体の結像状態に依存した物体像の色ズレを生じ
させるという欠点がある。複数の再結像光学系の光束が
撮影レンズの瞳上で分離されていることがこの原因であ
る。
However, this configuration has a drawback in that the color shift of the object image is caused depending on the image formation state of the object. This is because the light beams of the plurality of re-imaging optical systems are separated on the pupil of the taking lens.

【0005】本発明の目的は、物体像の色ズレを解消で
きる撮像装置を提供しようとするものである。
An object of the present invention is to provide an image pickup apparatus capable of eliminating color shift of an object image.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に本発明は、複数の撮像領域を備えた撮像素子と、該撮
像素子上に物体像を形成する撮影光学系と、前記撮像素
子の出力信号を処理する画像処理手段とを有する撮像装
置において、前記撮影光学系は複数の結像系を備えてな
り、該複数の結像系は前記複数の撮像領域上に物体像を
各々形成し、前記撮像素子より、視感度が最も高い波長
を含むスペクトル分布の物体光成分による基準画像信号
と、これとは異なるスペクトル分布の物体光成分による
他の画像信号とを前記複数の撮像領域のそれぞれに対応
して得るとともに、所定被写体距離D[m]を前記複数
の結像系の撮影画角θ[°]の関数として次式のように
定義したときに、
In order to achieve the above object, the present invention provides an image pickup device having a plurality of image pickup regions, a photographing optical system for forming an object image on the image pickup device, and an image pickup device of the image pickup device. in the image pickup apparatus and an image processing means for processing the output signal, the photographing optical system becomes provided with a plurality of the imaging system, the object image to the plurality of imaging system prior Symbol plurality of imaging regions
Each of the plurality of imaging devices forms a reference image signal of an object light component of a spectral distribution including a wavelength having the highest luminosity factor and another image signal of an object light component of a spectral distribution different from that of the imaging element. Corresponding to each area
In addition, when the predetermined subject distance D [m] is defined as a function of the photographing field angle θ [°] of the plurality of imaging systems as follows,

【0007】[0007]

【外4】 物体距離の変動によって生じる、前記基準画像信号を得
た物体像から前記他の画像信号を得た物体像のまでの
応する個所の間隔変化が、物体が前記所定被写体距離D
[m]にあるときと無限遠にあるときとの差として、前
記基準画像信号を出力する撮像領域の画素ピッチの2倍
よりも小さくなるように、前記複数の結像系の光軸間隔
を設定した撮像装置とするものである。
[Outside 4] A pair from the object image having the reference image signal to the object image having the other image signal, which is caused by a change in the object distance .
The change in the spacing of the corresponding parts is such that the object is the predetermined subject distance D.
As a difference between [m] and infinity, the optical axis intervals of the plurality of imaging systems are set so as to be smaller than twice the pixel pitch of the image pickup area that outputs the reference image signal. This is the set imaging device.

【0008】また、本発明は、複数の撮像領域を備えた
撮像素子と、該撮像素子上に物体像を形成する撮影光学
系と、前記撮像素子の出力信号を処理する画像処理手段
とを有した撮像装置において、前記撮影光学系は複数の
結像系を備えてなり、該複数の結像系は前記複数の撮像
領域上に物体像を各々形成し、前記撮像素子より、同一
のスペクトル分布の物体光成分による2つの画像信号を
前記複数の撮像領域のそれぞれに対応して得るととも
に、所定被写体距離D[m]を前記複数の結像系の撮影
画角θ[°]の関数として次式のように定義したとき
に、
Further, the present invention has an image pickup device having a plurality of image pickup areas, a photographing optical system for forming an object image on the image pickup device, and an image processing means for processing an output signal of the image pickup device. in an imaging apparatus, said imaging optical system comprises a plurality of imaging systems, the imaging system and the plurality of each form an object image before Symbol plurality of imaging regions, from the image sensor, the same spectrum Two image signals due to the object light component of the distribution
When the predetermined subject distance D [m] is obtained as a function of the photographing field angle θ [°] of the plurality of image forming systems and is obtained corresponding to each of the plurality of imaging regions ,

【0009】[0009]

【外5】 物体距離の変動によって生じる、前記2つの画像信号を
得た2つの物体像の対応する個所の間隔変化が、物体が
前記所定被写体距離D[m]にあるときと無限遠にある
ときとの差として、前記画像信号を出力する撮像領域の
画素ピッチの2倍よりも小さくなるように、前記複数の
結像系の光軸間隔を設定した撮像装置とするものであ
る。
[Outside 5] The change in the distance between the corresponding portions of the two object images obtained from the two image signals caused by the change in the object distance is
The difference between the predetermined subject distance D [m] and the infinite distance is smaller than twice the pixel pitch of the image pickup area that outputs the image signal. The image pickup device has an optical axis interval set.

【0010】また、本発明は、被写体光の異なる波長成
分をそれぞれ受光するための平面状に構成される複数の
撮像部と、前記複数の撮像部に被写体光をそれぞれ案内
するための複数の光学系とを有し、該複数の光学系は、
所定被写体距離D[m]を該複数の光学系の撮像画角θ
[°]の関数として
Further, according to the present invention, a plurality of plane-shaped image pickup units for respectively receiving different wavelength components of the subject light, and a plurality of optical units for guiding the subject light to the plurality of image pickup units, respectively. And a plurality of optical systems,
The predetermined object distance D [m] is set to the imaging field angle θ of the plurality of optical systems.
As a function of [°]

【0011】[0011]

【外6】 と定義したとき、被写体が前記所定被写体距離にあると
きと無限遠にあるときとで、前記複数の撮像部のうちの
1つの第1の撮像部が受光する被写体像と前記複数の撮
像部のうちの他の1つの第2の撮像部が受光する被写体
像との対応する個所の間隔の変化が前記複数の撮像部の
画素ピッチの2倍よりも小さくなるように、前記複数の
光学系の光軸間隔を設定する撮像装置とするものであ
る。
[Outside 6] When the subject is at the predetermined subject distance and when the subject is at infinity, one of the plurality of image capturing units receives a subject image received by the first image capturing unit and the plurality of image capturing units. One of the plurality of optical systems is configured such that the change in the interval between the corresponding portions with the subject image received by the other second image capturing unit is smaller than twice the pixel pitch of the plurality of image capturing units. The image pickup device sets an optical axis interval.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0013】(第1の実施の形態)図17(a)、
(b)、(c)は本発明によるデジタルカラーカメラの全
体構成を表す図である。図17(a)は正面図、図17
(c)は裏面図、図17(b)は図17(c)の裏面図に
示した矢印Aの位置での断面図である。
(First Embodiment) FIG. 17 (a),
(B), (c) is a figure showing the whole digital color camera structure by this invention. 17 (a) is a front view, FIG.
17C is a back view, and FIG. 17B is a cross-sectional view at the position of arrow A shown in the back view of FIG. 17C.

【0014】図17(a)、(b)、(c)において、1は
カメラ本体、2はカラー液晶モニタ4の背後に位置し、白
色拡散板よりなる照明光取り込み窓である。5はメイン
スイッチ、6はレリーズ釦、7,8,9は使用者がカメラの
状態をセットするためのスイッチで、特に9は再生ボタ
ン、13は撮影可能な残り枚数の表示である。11はファイ
ンダー接眼窓であって、ファインダー前枠3からプリズ
ム12に入射した物体光がここから射出する。10は撮像
系、14は外部のコンピュータ等に接続して、データの送
受信をするため接続端子である。
In FIGS. 17 (a), 17 (b) and 17 (c), reference numeral 1 is a camera body, and 2 is a window located behind the color liquid crystal monitor 4 and made of a white diffuser plate. 5 is a main switch, 6 is a release button, 7, 8 and 9 are switches for the user to set the state of the camera, in particular 9 is a play button and 13 is a display of the number of remaining shots. Reference numeral 11 is a viewfinder eyepiece window through which the object light incident on the prism 12 from the viewfinder front frame 3 exits. Reference numeral 10 is an imaging system, and 14 is a connection terminal for connecting to an external computer or the like for transmitting and receiving data.

【0015】信号処理系の概略構成を説明する。図14
は、信号処理系のブロック図である。本カメラは、CCD
あるいはCMOSセンサなどの固体撮像素子120 を用いた単
板式のデジタルカラーカメラであり、固体撮像素子120
を連続的または単発的に駆動して動画像または静止画像
を表わす画像信号を得る。ここで、固体撮像素子120
は、露光した光を各画素毎に電気信号に変換してその光
量に応じた電荷をそれぞれ蓄積し、その電荷を読み出す
タイプの撮像デバイスである。
A schematic configuration of the signal processing system will be described. 14
FIG. 3 is a block diagram of a signal processing system. This camera is a CCD
Alternatively, it is a single-panel digital color camera using a solid-state image sensor 120 such as a CMOS sensor.
Are driven continuously or in a single shot to obtain an image signal representing a moving image or a still image. Here, the solid-state image sensor 120
Is an image pickup device of a type that converts exposed light into an electric signal for each pixel, accumulates electric charges according to the amount of light, and reads the electric charges.

【0016】なお、図14には本発明に直接関係ある部
分のみが示されており、本発明に直接関係ない部分は図
示とその説明を省略している。
It should be noted that FIG. 14 shows only the portions directly related to the present invention, and the illustration and description of the portions not directly related to the present invention are omitted.

【0017】図14に示すように、撮像装置は、撮像系
10と、画像処理手段であるところの画像処理系20と、記
録再生系30と、制御系40とを有する。さらに、撮像系10
は、撮影レンズ100 、絞り110および固体撮像素子120を
含み、画像処理系20は、A/D変換器500、RGB画像処理回
路210 およびYC処理回路230を含み、記録再生系30は、
記録処理回路300および再生処理回路310 を含み、制御
系40は、システム制御部400、操作検出部410および固体
撮像素子の駆動回路420を含む。
As shown in FIG. 14, the image pickup apparatus includes an image pickup system.
An image processing system 20, which is an image processing means, a recording / reproducing system 30, and a control system 40 are provided. Furthermore, the imaging system 10
Includes a photographing lens 100, a diaphragm 110 and a solid-state image sensor 120, the image processing system 20 includes an A / D converter 500, an RGB image processing circuit 210 and a YC processing circuit 230, and the recording / reproducing system 30 includes:
The control system 40 includes a recording processing circuit 300 and a reproduction processing circuit 310, and a system control unit 400, an operation detection unit 410, and a drive circuit 420 for the solid-state imaging device.

【0018】撮像系10は、物体からの光を絞り110と撮
影レンズ100を介して固体撮像素子120 の撮像面に結像
する光学処理系であり、撮影レンズ100の光透過率を
調節して、適切な光量の被写体像を固体撮像素子120 に
露光する。前述のように、固体撮像素子120 は、CCDやC
MOSセンサなどの撮像デバイスが適用され、固体撮像素
子120 の露光時間および露光間隔を制御することによ
り、連続した動画像を表わす画像信号、または一回の露
光による静止画像を表わす画像信号を得ることができ
る。
The image pickup system 10 is an optical processing system that forms an image of light from an object on the image pickup surface of the solid-state image pickup device 120 through the aperture 110 and the image pickup lens 100, and adjusts the light transmittance of the image pickup lens 100. The solid-state image sensor 120 is exposed with a subject image having an appropriate light amount. As described above, the solid-state image sensor 120 is a CCD or C
An image pickup device such as a MOS sensor is applied, and by controlling the exposure time and the exposure interval of the solid-state image pickup device 120, an image signal showing a continuous moving image or an image signal showing a still image by one exposure is obtained. You can

【0019】図1は撮像系10の詳細図である。まず、絞
り110は図3に示すような3つの円形開口110a、110b、11
0cを有し、この各々から撮影レンズ100の光入射面100e
に入射した物体光は、撮影レンズ100の3つのレンズ部10
0a、100b、100cから射出して固体撮像素子120の撮像面
上に3つの物体像を形成する。絞り110と光入射面100eお
よび固体撮像素子120の撮像面は平行に配置されてい
る。このように、入射側のパワーを弱く、射出側のパワ
ーを強くし、入射側に絞りを設けることで、像面の湾曲
を少なくすることができる。なお、ここでは、撮影レン
ズ100の光入射面100eを平面としたが、3つの球面あるい
は3つの回転対称非球面で構成しても良い。
FIG. 1 is a detailed view of the image pickup system 10. First, the diaphragm 110 has three circular openings 110a, 110b, 11 as shown in FIG.
0c, from each of which the light entrance surface 100e of the taking lens 100
The object light incident on the three lens parts 10 of the taking lens 100 is
Three object images are formed on the image pickup surface of the solid-state image pickup device 120 after being emitted from 0a, 100b, and 100c. The diaphragm 110, the light incident surface 100e, and the imaging surface of the solid-state imaging device 120 are arranged in parallel. In this way, the power on the incident side is weakened, the power on the exit side is increased, and the diaphragm is provided on the incident side, whereby the curvature of the image plane can be reduced. Although the light incident surface 100e of the taking lens 100 is a flat surface here, it may be formed of three spherical surfaces or three rotationally symmetric aspherical surfaces.

【0020】3つのレンズ部100a、100b、100cは、撮影
レンズ100を光射出側から見た図5に示すように円径の
球面部を持ち、この球面部には670nm以上の波長域につ
いて低い透過率を持たせた赤外線カットフィルターが、
また、ハッチングをかけて示した平面部100dには遮光性
膜が形成されている。すなわち、撮影光学系は撮影レン
ズ100と絞り110より成り、3つのレンズ部100a、100b、1
00cのそれぞれが結像系である。
Each of the three lens portions 100a, 100b, 100c has a spherical spherical portion having a circular diameter as shown in FIG. 5 when the photographing lens 100 is viewed from the light emitting side, and this spherical portion has a low wavelength region of 670 nm or more. Infrared cut filter with transmittance
Further, a light-shielding film is formed on the plane portion 100d shown by hatching. That is, the photographing optical system is composed of a photographing lens 100 and an aperture 110, and three lens units 100a, 100b, 1
Each of 00c is an imaging system.

【0021】撮影レンズ100をガラス製とする場合には
ガラスモールド製法、樹脂製とする場合には射出成形を
用いると製作上容易である。
When the taking lens 100 is made of glass, a glass molding method is used, and when it is made of resin, injection molding is used.

【0022】図2は固体撮像素子120の正面図で、形成
される3つの物体像に対応させて3つの撮像領域120a、12
0b、120cを備えている。撮像領域120a、120b、120cの各
々は、縦横のピッチが2.8μmの画素を800×600個配列し
てなる2.24mm×1.68mmの領域であって、撮像領域全体の
寸法は2.24mm×5.04mm、また、各撮像領域の対角寸法は
2.80mmとなる。図において、51a、51b、51cは内部に物
体像が形成されるイメージサークルである。イメージサ
ークル51a、51b、51cは絞りの開口と撮影レンズ100の射
出側球面部の大きさで決定される円形であり、イメージ
サークル51aと51b、および、イメージサークル51bと51c
には互いに重なり合う部分が生じる。
FIG. 2 is a front view of the solid-state image pickup device 120. The three image pickup areas 120a and 12 are made to correspond to the three object images formed.
It is equipped with 0b and 120c. Each of the imaging areas 120a, 120b, and 120c is a 2.24 mm × 1.68 mm area formed by arranging 800 × 600 pixels with a vertical and horizontal pitch of 2.8 μm, and the overall size of the imaging area is 2.24 mm × 5.04 mm. , And the diagonal dimension of each imaging area is
2.80mm. In the figure, 51a, 51b and 51c are image circles in which an object image is formed. The image circles 51a, 51b and 51c are circular shapes determined by the aperture of the diaphragm and the size of the spherical surface on the exit side of the taking lens 100, and the image circles 51a and 51b and the image circles 51b and 51c.
Have overlapping parts.

【0023】図1において、絞り110と撮影レンズ100に
挟まれた領域のハッチングで示した部分52a、52b、52c
は撮影レンズ100の光入射面100e上に形成された光学フ
ィルターである。光学フィルター52a、52b、52cは撮影
レンズ100を光入射側から見た図4で示すように、絞り
開口110a、110b、110cを完全に含む範囲に形成されてい
る。
In FIG. 1, portions 52a, 52b and 52c indicated by hatching are shown in a region sandwiched between the diaphragm 110 and the taking lens 100.
Is an optical filter formed on the light incident surface 100e of the taking lens 100. The optical filters 52a, 52b, and 52c are formed in a range that completely includes the aperture openings 110a, 110b, and 110c, as shown in FIG. 4 when the photographing lens 100 is viewed from the light incident side.

【0024】光学フィルター52aは図6にGで示した主に
緑色を透過する分光透過率特性を有し、光学フィルター
52bはRで示した主に赤色を透過する分光透過率特性を有
し、さらに、光学フィルター52cはBで示した主に青色を
透過する分光透過率特性を有している。すなわち、これ
らは原色フィルターである。レンズ部100a、100b、100c
に形成されている赤外線カットフィルターの特性との積
として、イメージサークル51aに形成されている物体像
は緑色光成分、イメージサークル51bに形成されている
物体像は赤色光成分、イメージサークル51cに形成され
ている物体像は青色光成分によるものとなる。
The optical filter 52a has a spectral transmittance characteristic for transmitting mainly green light shown by G in FIG.
52b has a spectral transmittance characteristic indicated by R that mainly transmits red, and the optical filter 52c has a spectral transmittance characteristic indicated by B that mainly transmits blue. That is, these are primary color filters. Lens part 100a, 100b, 100c
As the product of the characteristics of the infrared cut filter formed on the image circle 51a, the object image formed on the image circle 51a is the green light component, the object image formed on the image circle 51b is the red light component, the image circle 51c is formed. The image of the object being formed is due to the blue light component.

【0025】一方、固体撮像素子120の3つの撮像領域12
0a、120b、120c上にもまた光学フィルター53a、53b、53
cが形成され、これらの分光透過率特性もまた図6に示
したものと同等である。つまり、撮像領域120aは緑色光
(G)に対して、撮像領域120bは赤色光(R)に対して、
撮像領域120cは青色光(B)に対して感度を持つ。
On the other hand, the three imaging regions 12 of the solid-state imaging device 120
Optical filters 53a, 53b, 53 also on 0a, 120b, 120c
c is formed, and their spectral transmittance characteristics are also equivalent to those shown in FIG. That is, the imaging area 120a is for green light (G), the imaging area 120b is for red light (R),
The imaging region 120c is sensitive to blue light (B).

【0026】各撮像領域の受光スペクトル分布は瞳と撮
像領域の分光透過率の積として与えられるため、瞳と撮
像領域の組み合わせは波長域によって選択される。つま
り、絞りの開口110aを通過した物体光は主に撮像領域12
0aで光電変換され、絞りの開口110bを通過した物体光は
主に撮像領域120bで光電変換され、さらに、絞りの開口
110cを通過した物体光は主に撮像領域120cで光電変換さ
れる。すなわち、撮像領域120aはG画像を、撮像領域120
bはR画像を、撮像領域120cはB画像を出力することにな
る。このように、撮像光学系の瞳と撮像素子に色分解の
ための光学フィルターを多重に使用すると、色純度を高
めることができる。これは、同種の光学フィルターを2
回通すと、透過特性が鋭く立ち上がるようになって赤色
(R)と青色(B)のオーバーラップが無くなるためであ
る。なお、各撮像領域での信号レベルが同一の蓄積時間
でそれぞれ適切になるように、光学フィルター52a、52
b、52cあるいは光学フィルター53a、53b、53cの透過率
を設定すると良い。
Since the light reception spectrum distribution of each image pickup region is given as the product of the spectral transmittance of the pupil and the image pickup region, the combination of the pupil and the image pickup region is selected according to the wavelength region. In other words, the object light that has passed through the aperture 110a of the diaphragm is mainly focused on the imaging area 12
The object light that is photoelectrically converted at 0a and has passed through the aperture 110b of the diaphragm is mainly photoelectrically converted at the imaging area 120b, and the aperture of the diaphragm is further
Object light that has passed through 110c is mainly photoelectrically converted in the imaging region 120c. That is, the imaging area 120a displays the G image and the imaging area 120a
b outputs the R image, and the imaging area 120c outputs the B image. As described above, when an optical filter for color separation is multiply used in the pupil of the image pickup optical system and the image pickup element, color purity can be increased. It has 2 optical filters of the same kind.
This is because the transmission characteristics rise sharply when the material is rotated, and the red (R) and blue (B) overlaps disappear. It should be noted that the optical filters 52a and 52a are arranged so that the signal levels in the respective imaging regions are appropriate in the same accumulation time.
It is preferable to set the transmittance of b, 52c or the optical filters 53a, 53b, 53c.

【0027】画像処理系20は、固体撮像素子120の複数
の撮像領域が、各々、前記複数の画像の一つから得た選
択的光電変換出力に基づいてカラー画像を形成する。こ
の際、比視感度のピーク波長は555nmであるので、この
波長を含むG画像信号を基準画像信号として信号処理を
行う。
The image processing system 20 forms a color image in each of the plurality of image pickup regions of the solid-state image pickup device 120 based on the selective photoelectric conversion output obtained from one of the plurality of images. At this time, since the peak wavelength of the relative luminous efficiency is 555 nm, signal processing is performed using the G image signal including this wavelength as the reference image signal.

【0028】固体撮像素子の画素ピッチを固定して考え
ると、固体撮像素子上に例えば2×2画素を一組としたRG
Bカラーフィルターを形成して画素の一つ一つに波長選
択性を付与し、これによって物体像をRGBの各画像に分
離する一般のデジタルカラーカメラに採用されている方
式に比較して、物体像の大きさが1/√3になり、これに
伴って撮影レンズの焦点距離はおおよそ1/√3となる。
したがって、カメラの薄型化に対して極めて有利であ
る。
When the pixel pitch of the solid-state image sensor is fixed, for example, RG in which a set of 2 × 2 pixels is formed on the solid-state image sensor is used.
Compared with the method adopted in general digital color cameras that form a B color filter to give wavelength selectivity to each pixel and separate the object image into RGB images, The image size becomes 1 / √3, and the focal length of the taking lens becomes approximately 1 / √3 accordingly.
Therefore, it is extremely advantageous for thinning the camera.

【0029】なお、光学フィルター52a、52b、52cと、
光学フィルター53a、53b、53cの分光透過率特性は、図
6に示したように、RとBはほぼ分離されているものの、
RとGおよびGとBは互いにオーバーラップしている。
The optical filters 52a, 52b and 52c,
Regarding the spectral transmittance characteristics of the optical filters 53a, 53b, 53c, although R and B are almost separated as shown in FIG. 6,
R and G and G and B overlap each other.

【0030】したがって、赤色光のイメージサークル51
bが青色光を光電変換する撮像領域120cにかかっていて
も、逆に、青色光のイメージサークル51cが赤色光を光
電変換する撮像領域120bにかかっていても、これらの画
像が撮像領域の出力となることはない。ところが、赤色
光のイメージサークル51bが緑色光を光電変換する撮像
領域120aにかかっている部分と、緑色光のイメージサー
クル51aが赤色光を光電変換する撮像領域120bにかかっ
ている部分では、本来遮断すべき異なる波長の画像が僅
かではあるが重畳してしまう。つまり、物体像の選択性
は光学フィルター52aと光学フィルター53bの分光透過率
特性の積と、光学フィルター52bと光学フィルター53aの
分光透過率特性の積で与えられるため、R画像信号とG画
像信号のクロストークは小さいものの、完全にはゼロに
ならない。
Therefore, the red light image circle 51
Even if b is on the imaging area 120c that photoelectrically converts blue light, conversely, even if the image circle 51c of blue light is on the imaging area 120b that photoelectrically converts red light, these images are output from the imaging area. It never becomes. However, in the part where the image circle 51b of red light overlaps the imaging region 120a that photoelectrically converts green light, and in the part where the image circle 51a of green light overlaps the imaging region 120b that photoelectrically converts red light, it is originally blocked. The images of different wavelengths to be superimposed are slightly overlapped. That is, since the selectivity of the object image is given by the product of the spectral transmittance characteristics of the optical filter 52a and the optical filter 53b and the spectral transmittance characteristic of the optical filter 52b and the optical filter 53a, the R image signal and the G image signal Crosstalk is small, but does not completely reach zero.

【0031】そこで、撮影レンズ100にはRとGのオーバ
ーラップ部の波長域の透過率を低下させる特性をさらに
持たせてある。これは色純度補正フィルタと呼ばれる光
学フィルター技術を用いればよい。
Therefore, the taking lens 100 is further provided with the characteristic of reducing the transmittance in the wavelength region of the overlapping portion of R and G. For this, an optical filter technology called a color purity correction filter may be used.

【0032】この色純度補正フィルタは、透明合成樹脂
またはガラスから成る母材中に希土類の金属イオンを所
定量含有させた光学フィルターである。
This color purity correction filter is an optical filter in which a predetermined amount of rare earth metal ions are contained in a base material made of transparent synthetic resin or glass.

【0033】希土類の金属イオンとしては、ネオジムイ
オン、プラセオジムイオン、エルビウムイオン、ホルミ
ウムイオン等の1種または2種以上が挙げられるが、少
なくとも、ネオジムイオンを必須イオンとして使用する
のが好ましい。なお、これらのイオンとしては、通常3
価のイオンが使用される。そして、金属イオンの含有量
は、撮影レンズ100の母材の100質量部に対し、通常0.01
〜40質量部、好ましくは0.04〜30質量部の範囲から選択
される。
Examples of rare earth metal ions include one or more of neodymium ions, praseodymium ions, erbium ions, and holmium ions. At least neodymium ions are preferably used as essential ions. Note that these ions are usually 3
Valuable ions are used. The content of metal ions is usually 0.01 with respect to 100 parts by mass of the base material of the photographing lens 100.
To 40 parts by mass, preferably 0.04 to 30 parts by mass.

【0034】図7に示すように、色純度補正フィルタ
は、RGBの各色成分のうちピーク波長間の所定波長範囲
の光を選択的に吸収してその透過量を低減する特性を有
する。この作用によって、赤色光のイメージサークル51
bが緑色光を光電変換する撮像領域120aにかかること、
それから、緑色光のイメージサークル51aが赤色光を光
電変換する撮像領域120bにかかることによるクロストー
クはほとんど生じなくなる。
As shown in FIG. 7, the color purity correction filter has a characteristic that it selectively absorbs light in a predetermined wavelength range between peak wavelengths of the RGB color components and reduces the amount of transmission. By this action, the red light image circle 51
b is applied to the imaging area 120a that photoelectrically converts green light,
Then, crosstalk due to the image circle 51a of green light being applied to the imaging region 120b for photoelectrically converting red light hardly occurs.

【0035】さらに、撮影レンズ100には光により暗化
し、光の照射をやめると可逆的に無色状態にもどる現象
であるフォトクロミック特性を併せ持たせる。これは、
固体撮像素子120の蓄積時間制御範囲が限られているこ
とから、極めて被写界が明るい場合に固体撮像素子に到
達する光量を抑え、撮影可能な輝度範囲を拡大するため
である。
Further, the photographing lens 100 is also provided with a photochromic characteristic which is a phenomenon that reversibly returns to a colorless state when light is darkened and the irradiation of light is stopped. this is,
This is because the storage time control range of the solid-state image sensor 120 is limited, so that when the field is extremely bright, the amount of light reaching the solid-state image sensor is suppressed and the brightness range that can be captured is expanded.

【0036】フォトクロミックガラスとしては、例え
ば、眼鏡用として実用化されているチャンス−ピルキン
トン社製のリン酸塩系のフォトクロミックガラス(商品
名:Reactolite Rapide)を用いるとよい。
As the photochromic glass, for example, phosphate-based photochromic glass (trade name: Reactolite Rapide) manufactured by Chance-Pilkinton Co., which is practically used for spectacles, may be used.

【0037】図8は、撮影レンズ100に用いたフォトク
ロミックガラスの分光透過率特性を示す図であり、図8
において実線が太陽光を20分照射した後の特性であ
り、破線が未照射の場合の特性を示したものである。晴
天時の屋外等でカメラを持ち歩くと、絞り110から撮影
レンズ100に入射した光束によって撮影レンズ100そのも
のが暗化し、固体撮像素子120に入射する光量を約1/2に
抑えることができる。この結果、蓄積時間を2倍に伸ば
すことが可能であって、高輝度側の制御限界を引き上げ
ることになる。
FIG. 8 is a diagram showing the spectral transmittance characteristics of the photochromic glass used in the taking lens 100.
In the figure, the solid line shows the characteristics after irradiation with sunlight for 20 minutes, and the broken line shows the characteristics when there is no irradiation. When the camera is carried around outdoors in fine weather, the photographing lens 100 itself is darkened by the light flux incident on the photographing lens 100 from the diaphragm 110, and the amount of light incident on the solid-state image sensor 120 can be suppressed to about 1/2. As a result, the storage time can be doubled and the control limit on the high brightness side is raised.

【0038】各撮像領域120a、120b、120cの画面サイズ
は、前述のように画素ピッチ2.8μm、画素数800×600よ
り、2.24mm×1.68mmであって、画面の対角寸法は2.80mm
となる。一般に、小型カメラの撮影画角θは対角方向に
70°程度とするのが最も使いやすい。撮影画角を70°と
すると、画面の対角寸法から焦点距離が決定され、この
場合は2.0mmとなる。
The screen size of each imaging area 120a, 120b, 120c is 2.24 mm × 1.68 mm from the pixel pitch of 2.8 μm and the number of pixels of 800 × 600 as described above, and the diagonal size of the screen is 2.80 mm.
Becomes Generally, the shooting angle of view θ of a small camera is in the diagonal direction.
The easiest setting is 70 °. When the shooting angle of view is 70 °, the focal length is determined from the diagonal dimension of the screen, which is 2.0 mm in this case.

【0039】人物等を撮影対象とする場合は、ヒトの身
長が170cm前後であることや、1から3人を一緒に写すこ
とが多いことを根拠として、仮想被写体距離D[m]を撮影
画角θ[°]の関数として式(1)のように定義すること
ができる。
When a person or the like is to be photographed, the virtual subject distance D [m] is taken based on the fact that the height of a person is around 170 cm and that 1 to 3 people are often photographed together. It can be defined as a function of the angle θ [°] as shown in equation (1).

【0040】[0040]

【外7】 式(1)のθに70°を代入すると、D=2.0mを得る。そこ
で、被写体距離2mの時に最良のピントを結ぶように撮像
系10を構成するとすれば、無限遠位置からのレンズの繰
り出しは0.002mmであり、後述する許容錯乱円径との関
係からレンズ繰り出し機構のない固定焦点撮像光学系と
しても実用上全く問題はない。
[Outside 7] Substituting 70 ° for θ in equation (1) gives D = 2.0m. Therefore, if the imaging system 10 is configured so that the best focus is achieved when the subject distance is 2 m, the lens extension from the infinity position is 0.002 mm, and the lens extension mechanism is described in relation to the permissible circle of confusion diameter described later. There is no problem in practical use even as a fixed-focus imaging optical system that does not have any.

【0041】また、空気中に置かれた平凸レンズの焦点
距離fは、屈折率をn、球面の半径をrとして、
The focal length f of a plano-convex lens placed in the air is represented by the refractive index n and the radius of the spherical surface r.

【0042】[0042]

【外8】 で表すことができる。したがって、仮に、撮影レンズ10
0の屈折率nを1.5とすれば、2.0mmの焦点距離を得るrは
1.0mmとなる。
[Outside 8] Can be expressed as Therefore, tentatively, the photographing lens 10
If the refractive index n of 0 is 1.5, the focal length of 2.0mm is r
It will be 1.0 mm.

【0043】赤色、緑色、青色の各物体像について、像
の大きさを揃えておくと後の信号処理で像倍率補正を行
う必要がないので処理時間を伸ばすことがなく都合がよ
い。このため、RGB光学フィルターの透過光のピーク波
長530nm 、620nm 、450nmについてレンズ部100a、100
b、100cを最適化し、各像倍率を一定に設定する。これ
は各レンズ部の主点位置から固体撮像素子までの距離を
一律にすることで、近軸的には実現できる。
If the image sizes of the red, green, and blue object images are made uniform, it is not necessary to correct the image magnification in the subsequent signal processing, which is convenient because it does not extend the processing time. For this reason, the lens parts 100a, 100 for the peak wavelengths 530 nm, 620 nm, and 450 nm of the transmitted light of the RGB optical filter
b, 100c are optimized and each image magnification is set constant. This can be achieved paraxially by making the distance from the principal point position of each lens unit to the solid-state image sensor uniform.

【0044】d線(587.6nm)の屈折率nd=1.5、アッベ
数νd=60のガラスの場合、波長530nm 、620nm 、450nm
における屈折率は、それぞれ1.503、1.499、1.509程度
である。仮に、レンズ部100a、100b、100cの球面の半径
rが均一に-1.0mmとすると、これらの波長における焦点
距離は式(2)により次のようになる。
In the case of glass having a d -line (587.6 nm) refractive index n d = 1.5 and an Abbe number ν d = 60, the wavelengths are 530 nm, 620 nm and 450 nm.
The refractive indices in are about 1.503, 1.499, and 1.509, respectively. Assuming that the radius of the spherical surface of the lens parts 100a, 100b, 100c
When r is uniformly set to -1.0 mm, the focal lengths at these wavelengths are given by the equation (2) as follows.

【0045】 レンズ部100a 代表波長530nm: 1.988mm レンズ部100b 代表波長620nm: 2.004mm レンズ部100c 代表波長450nm: 1.965mm 画素ピッチから許容錯乱円径を3.0μmとし、さらに、撮
影レンズのFナンバーをF5.6と仮定すれば、これらの積
で表される焦点深度は16.8μmとなり、620nmと450nmの
焦点距離の差0.039mmはすでにこれを越えていることが
分かる。すなわち、近軸的な像倍率だけはそろっている
が、被写体の色によってはピントが合わない。通常、物
体の分光反射率は、広い波長域にまたがっているので、
一般にシャープなピントが得られることは極めて稀であ
る。
Lens part 100a Representative wavelength 530nm: 1.988mm Lens part 100b Representative wavelength 620nm: 2.004mm Lens part 100c Representative wavelength 450nm: 1.965mm The permissible circle of confusion diameter is 3.0μm from the pixel pitch, and the F number of the taking lens Assuming F5.6, the depth of focus represented by these products is 16.8 μm, and it can be seen that the difference in focal length between 620 nm and 450 nm of 0.039 mm has already exceeded this. That is, although the paraxial image magnification is the same, the image may not be in focus depending on the color of the subject. Normally, the spectral reflectance of an object spans a wide wavelength range, so
In general, it is extremely rare to obtain a sharp focus.

【0046】そこで、レンズ部100a、100b、100cの球面
の半径rを各代表波長毎に最適化する。すなわち、ここ
では可視域全体の色収差を除去する色消しを行わず、レ
ンズ毎に波長別の設計を適用する。まず、式(2)を変
形して、式(3)を得る。
Therefore, the radius r of the spherical surface of the lens portions 100a, 100b, 100c is optimized for each representative wavelength. That is, here, achromatic design for removing chromatic aberration in the entire visible region is not performed, and a design for each wavelength is applied for each lens. First, the formula (2) is transformed to obtain the formula (3).

【0047】 r=(1-n)f …………(3) 式(3)にf=2.0と順次n=1.503、n=1.499、n=1.509
を代入し、各半径を算出すると、次のようになる。
R = (1-n) f (3) In equation (3), f = 2.0 and then n = 1.503, n = 1.499, n = 1.509
Substituting and calculating each radius, it becomes as follows.

【0048】 レンズ部100a 代表波長530nm: r=-1.006mm レンズ部100b 代表波長620nm: r=-0.998mm レンズ部100c 代表波長450nm: r=-1.018mm 像高の高い位置での像倍率差のバランスを取るために、
レンズ部100a、100b、100cの頂点高さを僅かに調整すれ
ば、シャープネスと像倍率の両者に関して理想的な形態
となる。さらには、各レンズ部に非球面を用いて、像面
湾曲を良好に補正する。像の歪曲については後の信号処
理で補正すればよい。
Lens part 100a Representative wavelength 530nm: r = -1.006mm Lens part 100b Representative wavelength 620nm: r = -0.998mm Lens part 100c Representative wavelength 450nm: r = -1.018mm Image magnification difference at a high image height position To balance
By slightly adjusting the heights of the vertices of the lens units 100a, 100b, 100c, an ideal form can be obtained with respect to both sharpness and image magnification. Furthermore, an aspherical surface is used for each lens portion, and the field curvature is corrected well. The image distortion may be corrected in the subsequent signal processing.

【0049】このように、視感度が最も高い緑色555nm
の波長を含む物体光による基準G画像信号と、赤色と青
色の物体光による画像信号とをそれぞれ得て、結像系に
単一の波長については異なる焦点距離を、各スペクトル
分布の代表波長については略同一の焦点距離を設定すれ
ば、これらの画像信号を合成することにより良好に色収
差の補正されたカラー画像を得ることができる。各結像
系は1枚構成であるので、撮像系を薄型化する効果もあ
る。また、通常、色消しは分散の異なる2枚のレンズの
組み合わせが必要であるのに対し、1枚構成であること
によるコストダウンの効果もある。
Thus, the green color with the highest luminosity is 555 nm.
Of the reference G image signal by the object light including the wavelength of, and the image signal by the red and blue object light respectively, different focal lengths for a single wavelength in the imaging system, for the representative wavelength of each spectral distribution By setting substantially the same focal length, it is possible to obtain a color image in which the chromatic aberration is favorably corrected by combining these image signals. Since each image forming system is composed of one sheet, there is also an effect that the imaging system is made thin. Further, in general, achromatization requires a combination of two lenses having different dispersions, but the single-lens configuration also has an effect of cost reduction.

【0050】撮影レンズ100には画素ピッチと同レベル
までの高い空間周波数帯域まで高コントラストの解像が
求められる。撮像系10は波長域別の3つの物体像を取り
込むことから、ベイヤー配列等のモザイク状光学フィル
ターを備えた同一画素数の撮像系と比較したとき、前述
のように約1/√3の焦点距離で同じ撮影画角となる。し
たがって、より高い空間周波数成分の高コントラストな
解像を実現しなくてはならない。前述した各レンズ部の
波長別最適化はこのための色収差抑制技術である。
The taking lens 100 is required to have a high contrast resolution up to a high spatial frequency band up to the same level as the pixel pitch. Since the imaging system 10 captures three object images for each wavelength range, when compared with an imaging system with the same number of pixels equipped with a mosaic optical filter such as a Bayer array, the focus of about 1 / √3 as described above. The same shooting angle of view is obtained at a distance. Therefore, high-contrast resolution of higher spatial frequency components must be realized. The wavelength-dependent optimization of each lens unit described above is a technique for suppressing chromatic aberration for this purpose.

【0051】一般に、撮影光学系の収差特性を改善して
偽解像を生じ難くし、問題を軽減する方法には、構成
レンズの枚数を増やす、非球面化する、異常分散ガラス
を用いる、回折光学素子を複合的に用いる、といった幾
つかの手法を用いて設計自由度を増す、結像光束を絞
る、という2通りがある。
In general, as a method of improving the aberration characteristics of the photographing optical system to make it difficult to cause false resolution and reducing the problem, the number of constituent lenses is increased, aspherical surface is used, and anomalous dispersion glass is used. There are two methods: increasing the degree of freedom in design by using several methods such as using multiple optical elements, and narrowing down the image forming light beam.

【0052】上記の設計自由度を増やす方向性は、焦
点距離が1/√3になったにもかかわらず撮影光学系の構
成を複雑化することになって、撮影装置の薄型化に逆行
することになるので適切でない。一方、上記の細い光
束を用いる方向性は薄型の撮影装置との整合性が良い。
The above-mentioned direction of increasing the degree of freedom in designing complicates the structure of the photographing optical system even though the focal length becomes 1 / √3, and goes against the thinning of the photographing apparatus. It will not be appropriate. On the other hand, the directivity using the thin luminous flux has good compatibility with a thin imaging device.

【0053】結像光束を絞ると、OTFと呼ばれるレスポ
ンス関数は図10の実線(b)で示すように低周波成分
において緩やかに単調減少し、その後僅かに負の値をと
ったあと再び僅かに正の値をとる特性となる。一方、結
像光束を絞らずに太い光束を用いる場合は図10の波線
(a)で示すように低周波成分において急速に減少した
あと、いったん負の値をとり、また正の値をとる特性と
なる。
When the image-forming light flux is narrowed down, the response function called OTF gradually and monotonously decreases in the low frequency component as shown by the solid line (b) in FIG. 10, and then takes a slightly negative value and then slightly again. It is a characteristic that takes a positive value. On the other hand, when a thick light beam is used without narrowing down the image-forming light beam, the characteristic of taking a negative value and then a positive value after being rapidly decreased in the low frequency component as shown by the broken line (a) in FIG. Becomes

【0054】OTFが負の値をとる状態が偽解像の発生を
表し、実際の画像では白い部分が黒くなり反対に黒い部
分が白くなる、ネガポジ反転現象が発生している状態に
相当する。したがって、結像光束を絞った方が自然な画
像が得られることが分かる。
The state in which the OTF takes a negative value represents the occurrence of false resolution, and corresponds to the state in which the negative-positive inversion phenomenon occurs in which the white portion becomes black and the black portion becomes white in the actual image. Therefore, it can be seen that a more natural image can be obtained by narrowing the image-forming light flux.

【0055】ところが、極端に光束を絞り込むと、今度
は光の回折の影響によって逆に高周波域のコントラスト
の低下が発生する。このような状況では、点像は中心の
輝点とその周りを何重かに取り囲む回折縞とで構成され
ている。この原因はよく知られているように、絞り開口
の縁から発する周辺波による回折縞の強度が相対的に増
すためである。
However, when the light flux is extremely narrowed down, the contrast of the high frequency region is lowered due to the influence of light diffraction. In such a situation, the point image is composed of a central bright spot and diffraction fringes surrounding the bright spot. This is because, as is well known, the intensity of diffraction fringes due to the peripheral wave emitted from the edge of the aperture is relatively increased.

【0056】回折縞を減らすには、中央部が透明で周辺
に行くにしたがって濃度が大きくなるフィルターを撮影
レンズに付加すればよい。この手法はアポダイゼイショ
ンと呼ばれ、光学技術ハンドブック増補版(昭和50年、
朝倉書店)の172ページから174ページに詳しく述べられ
ている。
In order to reduce the diffraction fringes, a filter having a transparent central portion and a density increasing toward the periphery may be added to the taking lens. This method is called apodization, and is a supplementary version of the Optical Technology Handbook (1975,
(Asakura Shoten), pages 172 to 174.

【0057】図9は撮影レンズ100の光入射面100e上で
あって、絞り開口110a、110b、110cに対向する位置に設
けた透過率分布型フィルターの透過率分布を表す図であ
る。透過率分布型フィルターは図1の54a、54b、54cで
示され、透過率が最も高い位置は絞り開口110a、110b、
110cの中心に一致し、透過率がゼロになる位置は絞り開
口110a、110b、110cの縁に一致させてある。すなわち、
透過率分布は絞りの中心で最も高く、中心から離れるほ
ど単調に減少する。
FIG. 9 is a diagram showing the transmittance distribution of a transmittance distribution type filter provided on the light incident surface 100e of the taking lens 100 at a position facing the aperture openings 110a, 110b and 110c. The transmittance distribution type filters are indicated by 54a, 54b and 54c in FIG. 1, and the positions where the transmittance is highest are the diaphragm apertures 110a and 110b,
The position where the transmittance is zero, which coincides with the center of 110c, is coincident with the edges of the aperture openings 110a, 110b, 110c. That is,
The transmittance distribution is highest at the center of the diaphragm, and decreases monotonically with distance from the center.

【0058】透過率分布型フィルターは撮影レンズ100
の光入射側に、インコネル、クロメル、クローム等の薄
膜を蒸着またはスパッタリングすることによって形成す
る。薄膜の厚さを中央部が最も薄く、周辺部が最も厚く
なるようにすることによって、図9に示した特性を得る
ことが可能である。なお、こういった薄膜の形成には蒸
着またはスパッタリング過程における遮蔽物の位置制御
を連続的に行う。
The transmittance distribution type filter is a photographing lens 100.
On the light incident side of, a thin film of Inconel, chromel, chrome or the like is formed by vapor deposition or sputtering. It is possible to obtain the characteristics shown in FIG. 9 by making the thickness of the thin film thin in the central portion and thickest in the peripheral portion. In addition, in forming such a thin film, the position control of the shield in the vapor deposition or sputtering process is continuously performed.

【0059】ここでは、透過率分布型フィルター54a、5
4b、54cを撮影レンズ上に形成したが、ガラス板上に形
成して、撮影レンズ100の光入射側、あるいは光射出側
に配置する構成であってもよい。
Here, the transmittance distribution type filters 54a, 5
Although 4b and 54c are formed on the taking lens, they may be formed on a glass plate and arranged on the light incident side or the light emitting side of the taking lens 100.

【0060】図11は点像の輝度分布を示す図である。
図において波線(a)は絞り開口の透過率が一定の場
合、実線(b)は絞り開口の透過率を中心から周辺にか
けて低下させた場合である。(a)の特性に対し(b)の
特性は点像の裾部分での跳ね返りが無く、明らかに良好
な画像となっていることを示している。これが、アポダ
イゼイションで周辺光束を減ずることによる回折縞低減
効果の現れである。
FIG. 11 is a diagram showing the luminance distribution of a point image.
In the figure, the wavy line (a) shows the case where the transmissivity of the diaphragm aperture is constant, and the solid line (b) shows the case where the transmissivity of the diaphragm aperture is decreased from the center to the periphery. In contrast to the characteristics of (a), the characteristics of (b) show that there is no rebound at the skirt of the point image, and the image is clearly good. This is a manifestation of the diffraction fringe reduction effect by reducing the peripheral light flux by apodization.

【0061】次に、撮影レンズと撮像領域の位置関係に
ついて述べる。撮像系は3つのレンズ部を有するため
に、被写体距離に応じて3つの物体像の位置が相対的に
変化する。前述のように各撮像領域は2.24mm×1.68mmで
あって、これらは長辺を接するように隣接して配置され
ている。したがって、隣り合う撮像領域の中心間隔は1.
68mmである。後述するYC処理回路230では、物体像の中
心と撮像領域の中心が一致しているものとして信号処理
を行う。仮想被写体距離2mにある物体像をこれと同じ間
隔で撮像部上に形成するとすれば、図12に示すように
撮影レンズ100のレンズ部100a、100b、100cの間隔を1.6
783mmに設定することになる。図において矢印55a、55
b、55cは、撮影レンズ100の3つのレンズ部100a、100b、
100cによる正のパワーを有する結像系を表す記号、矩形
56a、56b、56cは撮像領域120a、120b、120cの範囲を表
す記号、L1、L2、L3は結像系55a、55b、55cの光軸であ
る。撮影レンズ100の光入射面は平面、光射出面となる
レンズ部100a、100b、100cは球面であるので、各球心を
通って光入射面100eに垂直な直線が光軸となる。
Next, the positional relationship between the taking lens and the image pickup area will be described. Since the imaging system has three lens portions, the positions of the three object images relatively change according to the subject distance. As described above, each imaging region is 2.24 mm × 1.68 mm, and these are arranged adjacent to each other so that their long sides are in contact with each other. Therefore, the center interval between adjacent imaging areas is 1.
It is 68 mm. A YC processing circuit 230, which will be described later, performs signal processing on the assumption that the center of the object image and the center of the imaging area are coincident with each other. Assuming that an object image at a virtual subject distance of 2 m is formed on the imaging unit at the same interval as this, as shown in FIG. 12, the interval between the lens units 100a, 100b, and 100c of the taking lens 100 is 1.6.
It will be set to 783 mm. In the figure, arrows 55a, 55
b and 55c are three lens parts 100a, 100b of the taking lens 100,
Symbol representing a 100c imaging system with positive power, rectangle
56a, 56b and 56c are symbols representing the ranges of the imaging regions 120a, 120b and 120c, and L1, L2 and L3 are optical axes of the image forming systems 55a, 55b and 55c. Since the light incident surface of the photographing lens 100 is a flat surface and the lens portions 100a, 100b, 100c which are light emitting surfaces are spherical surfaces, a straight line passing through each spherical center and perpendicular to the light incident surface 100e is the optical axis.

【0062】このとき、無限遠物体の像は図13に示す
ようにレンズ部100a、100b、100cと同一の間隔で形成さ
れるため、G物体像とR物体像の間隔、および、R物体像
とB物体像の間隔は1.6783mmである。したがって、撮像
領域の中心間隔1.68mmよりも若干狭く、この差ΔYは0.0
017mmすなわち1.7μm である。また、最も視感度の高い
G物体像を基準としてB物体像の移動を考えると、差ΔY
は2倍となり、3.4μmである。撮影画面の中央には人物
等の近距離物体が位置し、画面の周辺に遠距離の物体が
位置することが多いこと、さらに、画面の周辺では撮影
レンズの収差が増大して画像性能が低下することから、
最大像間隔変化が画素ピッチの2倍よりも小さければ、
実用上の問題はないと言える。前述のように固体撮像素
子120の画素ピッチPは2.8μmであるので、ΔY<2×P と
なり、この程度の無限遠像の色ズレは許容可能なレベル
である。
At this time, since the image of the object at infinity is formed at the same interval as the lens portions 100a, 100b, 100c as shown in FIG. 13, the interval between the G object image and the R object image, and the R object image. The distance between the B and B object images is 1.6783 mm. Therefore, the center interval of the imaging area is slightly narrower than 1.68 mm, and this difference ΔY is 0.0
017 mm or 1.7 μm. It also has the highest visibility
Considering the movement of the B object image with the G object image as the reference, the difference ΔY
Is doubled to 3.4 μm. A short-distance object such as a person is located in the center of the shooting screen, and a long-distance object is often located in the periphery of the screen.Furthermore, in the periphery of the screen, the aberration of the shooting lens increases and the image performance deteriorates. From doing
If the maximum image spacing change is less than twice the pixel pitch,
It can be said that there are no practical problems. As described above, since the pixel pitch P of the solid-state image sensor 120 is 2.8 μm, ΔY <2 × P, and the color shift of the infinity image at this level is at an allowable level.

【0063】さらに、撮像系10の温度変化によっても像
間隔は変動する。固体撮像素子120の線膨張係数をαS
撮影レンズ100の線膨張係数をαL、温度変化をΔTとす
ると、撮像系10は結像倍率が極めて小さいために、像間
隔変化量ΔZは撮影レンズの伸びと固体撮像素子の伸び
の差として、式(4)で表すことができる。
Further, the image interval also changes depending on the temperature change of the image pickup system 10. The linear expansion coefficient of the solid-state image sensor 120 is α S ,
Assuming that the linear expansion coefficient of the taking lens 100 is α L and the temperature change is ΔT, the imaging system 10 has an extremely small imaging magnification, so the image interval change amount ΔZ is the difference between the extension of the taking lens and the extension of the solid-state image sensor. , Can be expressed by equation (4).

【0064】ΔZ=1.68×(αL−αS)×ΔT ここで、αS=0.26×10-5、ΔT=20[°] 、さらに、撮
影レンズ100を低融点ガラスで作成するとしてαL=1.2
×10-5とすると、ΔZは0.00032[mm]と算出される。これ
はG物体像とR物体像の間隔変化、および、R物体像とB物
体像の間隔変化量である。
ΔZ = 1.68 × (α L −α S ) × ΔT Here, α S = 0.26 × 10 −5 , ΔT = 20 [°], and the taking lens 100 is made of low melting point glass. α L = 1.2
Assuming × 10 −5 , ΔZ is calculated as 0.00032 [mm]. This is the change in the distance between the G and R object images, and the change in the distance between the R and B object images.

【0065】基準画像信号であるG物体像に対する変化
としてB物体像を考えると、像の間隔は1.68×2であるた
め、像間隔変化量もΔZ×2=0.00063[mm]となる。カメ
ラの使用温度範囲を0〜40°とすれば、基準温度20°か
らの偏差ΔTは20°であって、このとき、ΔZ×2が画素
ピッチの1/2よりも小さければ、実用上問題はない。一
般に、固体撮像素子120の線膨張係数αSは0.26×10-5
度の小さい値をとるので、撮影レンズ100の線膨張係数
αLを式(5)を満たすように選択する必要がある。
Considering the B object image as a change with respect to the G object image which is the reference image signal, the image interval is 1.68 × 2, so the image interval change amount is also ΔZ × 2 = 0.00063 [mm]. If the operating temperature range of the camera is 0 to 40 °, the deviation ΔT from the reference temperature of 20 ° is 20 °. At this time, if ΔZ × 2 is smaller than 1/2 of the pixel pitch, there is a practical problem. There is no. Generally, the linear expansion coefficient α S of the solid-state imaging device 120 has a small value of about 0.26 × 10 −5, and therefore the linear expansion coefficient α L of the taking lens 100 needs to be selected so as to satisfy the expression (5).

【0066】[0066]

【外9】 なお、AはR像、G像、B像のいずれか2像の基準像間
隔、Pは画素ピッチである。
[Outside 9] In addition, A is a reference image interval of any two images of R image, G image, and B image, and P is a pixel pitch.

【0067】先程使用した撮影レンズ100の線膨張係数
αL=1.2×10-5は式(5)の関係を満足しているので、
本カメラに好適な材料と言える。
Since the linear expansion coefficient α L = 1.2 × 10 −5 of the taking lens 100 used above satisfies the relationship of the equation (5),
It can be said that the material is suitable for this camera.

【0068】また、物体距離や温度変化による像間隔の
変動とは別に、固体撮像素子の撮像領域120a、120b、12
0cを相互に1/2 画素ずらすことにより、少ない画素数で
解像度を上げる画素ずらしという手法を用いる。1/2画
素ずらし量は仮想被写体距離2mに対して設定する。
Further, in addition to the fluctuation of the image interval due to the change of the object distance or the temperature, the imaging areas 120a, 120b, 12 of the solid-state imaging device are
By shifting 0c by 1/2 pixel with respect to each other, a pixel shift method is used to increase the resolution with a small number of pixels. The 1/2 pixel shift amount is set for a virtual subject distance of 2 m.

【0069】図15に示すようにG画像信号用の撮像領
域120aに対してR画素出力用の撮像領域120bとB画素出
力用の撮像領域120cは水平方向および垂直方向に1/2 画
素ずつずらして配置されている。
As shown in FIG. 15, the image pickup area 120b for R pixel output and the image pickup area 120c for B pixel output are shifted by 1/2 pixel in the horizontal and vertical directions with respect to the image pickup area 120a for G image signal. Are arranged.

【0070】この画素ずらしは、撮影レンズ100のレン
ズ部100bと100cをレンズ部100aに対して僅かに偏心させ
ることで実現しても、固体撮像素子120の撮像領域120b
と120cを撮像領域120aに対して僅かに偏心させることで
実現してもよい。
Even if this pixel shift is realized by slightly decentering the lens portions 100b and 100c of the photographing lens 100 with respect to the lens portion 100a, the image pickup area 120b of the solid-state image pickup element 120 is obtained.
And 120c may be slightly eccentric with respect to the imaging region 120a.

【0071】ベイヤー配列等の光学フィルター配列で
は、例えば緑色の光学フィルターを備えた画素の間には
赤色の光学フィルターを備えた画素や青色の光学フィル
ターを備えた画素が入り込むために、折り返し歪みを抑
制する光学ローパスフィルターが必要である。ところ
が、このようにスペクトル分布の異なる画像を撮像領域
別に取り込むように構成すると、それぞれの光学フィル
ターを備えた画素を密に配列することができ、その結
果、折り返し歪みの影響は小さく光学ローパスフィルタ
ーを必要とせずに高精細な画像を得ることができる。し
たがって、撮像系の小型化とコストの大幅な削減が可能
である。
In an optical filter array such as a Bayer array, for example, a pixel provided with a red optical filter or a pixel provided with a blue optical filter is inserted between pixels provided with a green optical filter, so that aliasing distortion occurs. An optical low pass filter that suppresses is needed. However, by configuring so as to capture images having different spectral distributions for each imaging region in this way, it is possible to arrange pixels equipped with respective optical filters densely, and as a result, the effect of aliasing distortion is small and an optical low-pass filter is used. High-definition images can be obtained without the need. Therefore, it is possible to reduce the size of the imaging system and significantly reduce the cost.

【0072】次に、信号処理について説明する。Next, the signal processing will be described.

【0073】前述のように固体撮像素子120 は、長辺方
向に1800画素、短辺方向にそれぞれ800画素の合計144万
の画素数を有する撮像デバイスが有効に適用されて、そ
の前面には赤色(R) 、緑色(G) 、青色(B) の3原色の光
学フィルターが所定の領域毎に配置されている。
As described above, as the solid-state image pickup device 120, an image pickup device having a total of 1.44 million pixels, which is 1800 pixels in the long side direction and 800 pixels in the short side direction, is effectively applied, and a red color is provided on the front surface thereof. Optical filters of three primary colors of (R), green (G), and blue (B) are arranged in each predetermined area.

【0074】図14に表すように、固体撮像素子120 か
ら読み出された画像信号は、それぞれ画像処理系20のA/
D変換器500に供給される。A/D 変換器500 は、たとえ
ば、露光した各画素の信号の振幅に応じた、たとえば10
ビットのデジタル信号に変換して出力する信号変換回路
であり、以降の画像信号処理はデジタル処理にて実行さ
れる。
As shown in FIG. 14, the image signals read from the solid-state image pickup device 120 are A /
It is supplied to the D converter 500. The A / D converter 500 is provided with, for example, 10 A according to the amplitude of the signal of each exposed pixel.
This is a signal conversion circuit for converting into a bit digital signal and outputting it, and subsequent image signal processing is executed by digital processing.

【0075】画像処理系20は、R,G,B のデジタル信号か
ら所望の形式の画像信号を得る信号処理回路を有し、R,
G,B の色信号を輝度信号Yおよび色差信号(R-Y),(B-Y)
にて表わされるYC信号などに変換する。
The image processing system 20 has a signal processing circuit for obtaining an image signal of a desired format from R, G, B digital signals.
G, B color signals are luminance signals Y and color difference signals (RY), (BY)
Convert to YC signal etc.

【0076】RGB画像処理回路210 は、A/D 変換器500を
介して固体撮像素子120 から受けた1800×800画素の画
像信号を処理する信号処理回路であり、ホワイトバラン
ス回路、ガンマ補正回路、補間演算による高解像度化を
行う補間演算回路を有する。
The RGB image processing circuit 210 is a signal processing circuit for processing an image signal of 1800 × 800 pixels received from the solid-state image sensor 120 via the A / D converter 500, and includes a white balance circuit, a gamma correction circuit, It has an interpolation calculation circuit for increasing the resolution by interpolation calculation.

【0077】YC処理回路230 は、輝度信号Yおよび色差
信号R-Y,B-Y を生成する信号処理回路である。高域輝度
信号YHを生成する高域輝度信号発生回路、低域輝度信号
YLを生成する低域輝度信号発生回路、および、色差信号
R-Y,B-Y を生成する色差信号発生回路で構成されてい
る。輝度信号Yは高域輝度信号YHと低域輝度信号YLを合
成することによって形成される。
The YC processing circuit 230 is a signal processing circuit for generating the luminance signal Y and the color difference signals RY, BY. High-frequency luminance signal generation circuit that generates high-frequency luminance signal YH, low-frequency luminance signal
Low-frequency luminance signal generation circuit for generating YL and color difference signal
It is composed of a color difference signal generation circuit that generates RY and BY. The luminance signal Y is formed by combining the high frequency luminance signal YH and the low frequency luminance signal YL.

【0078】RGB画像処理回路210の詳細を説明する。Details of the RGB image processing circuit 210 will be described.

【0079】A/D 変換器500 を介してR,G,B領域毎に出
力されたRGB 信号は、まず、RGB画像処理回路210内のホ
ワイトバランス回路にてそれぞれ所定の白バランス調整
が行なわれ、さらに、ガンマ補正回路にて所定のガンマ
補正が行なわれる。
The RGB signals output from the A / D converter 500 for each of the R, G, and B areas are first subjected to predetermined white balance adjustment by the white balance circuit in the RGB image processing circuit 210. Further, a predetermined gamma correction is performed by the gamma correction circuit.

【0080】RGB画像処理回路210 内の補間演算回路
は、600×800画素の4倍の解像度を画像信号を補間処理
によって生成し、固体撮像素子120からの画像信号を高
精細画質の信号に変換して、後段の高域輝度信号発生回
路、低域輝度信号発生回路、色差信号発生回路に供給す
る。
An interpolation calculation circuit in the RGB image processing circuit 210 generates an image signal having a resolution four times 600 × 800 pixels by interpolation processing, and converts the image signal from the solid-state image sensor 120 into a signal of high definition image quality. Then, the high-frequency luminance signal generating circuit, the low-frequency luminance signal generating circuit, and the color difference signal generating circuit in the subsequent stage are supplied.

【0081】RGB各物体像の大きさは撮影レンズ100の設
定によって、すでに同一になっているので、まず、公知
の手法によって撮影光学系の歪曲収差を補正する演算処
理を各画像信号について行う。その後の、補間処理や輝
度信号処理、色差信号処理は通常のデジタルカラーカメ
ラでの処理に準じたものとなる。補間処理は次に示すと
おりである。
Since the size of each RGB object image has already become the same depending on the setting of the taking lens 100, first, a calculation process for correcting the distortion aberration of the taking optical system is performed for each image signal by a known method. Subsequent interpolation processing, luminance signal processing, and color difference signal processing are based on the processing in a normal digital color camera. The interpolation process is as follows.

【0082】まず、基準画像信号である撮像領域120aか
らのG画像信号を、次式(6)〜(9)にてそれぞれ補間
演算する。
First, the G image signal from the image pickup area 120a, which is the reference image signal, is interpolated by the following equations (6) to (9).

【0083】 G2i2j=Gij …………(6) G2i(2j+1)=Gij・1/2+Gi(j+1)・1/2 …………(7) G(2i+1)2j=Gij・1/2+G(i+1)j・1/2 …………(8) G(2i+1)(2j+1)=Gij・1/4+Gi(j+1)・1/4+G(i+1)j・1/4+G(i+1)(j+1)・1/4 …………(9) これにより、図16に示すようにそれぞれ4個のG画素
から16個のG画素が生成されて、撮像領域120aからの60
0×800 画素のG画像信号が1200×1600画素に変換され
る。
G2i2j = Gij ………… (6) G2i (2j + 1) = Gij ・ 1/2 + Gi (j + 1) ・ 1/2 ………… (7) G (2i + 1) 2j = Gij ・ 1/2 + G (i + 1) j ・ 1/2 ………… (8) G (2i + 1) (2j + 1) = Gij ・ 1/4 + Gi (j + 1) ・1/4 + G (i + 1) j ・ 1/4 + G (i + 1) (j + 1) ・ 1/4 ………… (9) As a result, as shown in FIG. 16 G pixels are generated from the G pixels of
The G image signal of 0x800 pixels is converted into 1200x1600 pixels.

【0084】次に、上式(6)〜(9)にて求めたG画像
信号のそれぞれの位置に対応して撮像領域120bからのR
画素出力を次式(10)〜(13)にて補間演算する。
Next, the R from the image pickup area 120b corresponding to each position of the G image signal obtained by the above equations (6) to (9).
The pixel output is interpolated by the following equations (10) to (13).

【0085】 R2i2j=R(i-1)(j-1)・1/4+R(i-1)j・1/4+Ri(j-1)・1/4+Rij・1/4 …………(10) R2i(2j+1)=R(i-1)j・1/2+Rij・1/2 …………(11) R(2i+1)2j=Ri(j-1)・1/2+Rij・1/2 …………(12) R(2i+1)(2j+1)=Rij …………(13) 前述のようにR物体像の撮像領域とB物体像の撮像領域は
G物体像の撮像領域に対して1/2画素だけずらした配置に
なっているため、式(13)のようにij番地の元出力を(2
i+1)(2j+1)番地に適用している。
R2i2j = R (i-1) (j-1) ・ 1/4 + R (i-1) j ・ 1/4 + Ri (j-1) ・ 1/4 + Rij ・ 1/4 ... ……… (10) R2i (2j + 1) = R (i-1) j ・ 1/2 + Rij ・ 1/2 ………… (11) R (2i + 1) 2j = Ri (j-1 ) ・ 1/2 + Rij ・ 1/2 ………… (12) R (2i + 1) (2j + 1) = Rij ………… (13) As mentioned above, the imaging area of the R object image and B The imaging area of the object image is
Since the layout is shifted by 1/2 pixel with respect to the G object image capturing area, the original output at address ij is (2
It is applied to i + 1) (2j + 1).

【0086】同様に、R画素と同様に撮像領域120cから
のB画素を上式(6)〜(9)にて求めたG画像信号のそ
れぞれの位置に対応して次式(14)〜(17)にて補間演
算する。
Similarly, in the same manner as the R pixel, the B pixel from the image pickup area 120c corresponds to the respective positions of the G image signal obtained by the above equations (6) to (9), and the following equations (14) to (14) Perform interpolation calculation in 17).

【0087】 B2i2j=B(i-1)(j-1)・1/4+B(i-1)j・1/4+Bi(j-1)・1/4+Bij・1/4 …………(14) B2i(2j+1)=B(i-1)j・1/2+Bij・1/2 …………(15) B(2i+1)2j=Bi(j-1)・1/2+Bij・1/2 …………(16) B(2i+1)(2j+1)=Bij …………(17) 以上の処理により、撮像領域120a、120b、120cからの各
600×800画素のRGB 信号が高精細画質の1200×1600画素
のRGB 信号に変換される。
B2i2j = B (i-1) (j-1) ・ 1/4 + B (i-1) j ・ 1/4 + Bi (j-1) ・ 1/4 + Bij ・ 1/4 ... ……… (14) B2i (2j + 1) = B (i-1) j ・ 1/2 + Bij ・ 1/2 ………… (15) B (2i + 1) 2j = Bi (j-1 ) ・ 1/2 + Bij ・ 1/2 ………… (16) B (2i + 1) (2j + 1) = Bij ………… (17) With the above processing, the imaging areas 120a, 120b, 120c From each
The RGB signal of 600 × 800 pixels is converted to the RGB signal of 1200 × 1600 pixels with high definition.

【0088】YC処理回路230内の高域輝度信号発生回路
は、色成分信号の中で最も高い空間周波数成分を有する
色信号から高域輝度信号YHを形成する公知の信号形成回
路である。低域輝度信号発生回路は、R,G,B すべての色
成分を含む信号から低域周波数の輝度信号YLを形成する
公知の信号形成回路である。また、色差信号発生回路
は、高精細のRGB 信号から色差信号R-Y,B-Y を演算する
公知の演算回路である。
The high-frequency luminance signal generating circuit in the YC processing circuit 230 is a known signal forming circuit for forming the high-frequency luminance signal YH from the color signal having the highest spatial frequency component among the color component signals. The low-frequency luminance signal generating circuit is a known signal forming circuit that forms a low-frequency luminance signal YL from a signal containing all R, G, B color components. The color difference signal generation circuit is a known calculation circuit that calculates the color difference signals RY and BY from high definition RGB signals.

【0089】記録再生系30は、メモリへの画像信号の出
力と、液晶モニタ4への画像信号の出力とを行う処理系
であり、メモリへの画像信号の書き込みおよび読み出し
処理を行なう記録処理回路300 と、メモリから読み出し
た画像信号を再生して、モニタ出力とする再生処理回路
310 とを含む。より詳細には、記録処理回路300 は、静
止画像および動画像を表わすYC信号を所定の圧縮形式に
て圧縮し、また、圧縮データを読み出した際に伸張する
圧縮伸張回路を含む。圧縮伸張回路は、信号処理のため
のフレームメモリなどを含み、このフレームメモリに画
像処理系20からのYC信号をフレーム毎に蓄積して、それ
ぞれ複数のブロック毎に読み出して圧縮符号化する。圧
縮符号化は、たとえば、ブロック毎の画像信号を2次元
直交変換、正規化およびハフマン符号化することにより
行なわれる。
The recording / reproducing system 30 is a processing system for outputting the image signal to the memory and outputting the image signal to the liquid crystal monitor 4, and is a recording processing circuit for writing and reading the image signal to and from the memory. 300 and playback processing circuit that plays back the image signal read from the memory and outputs it as a monitor
Including 310 and. More specifically, the recording processing circuit 300 includes a compression / expansion circuit that compresses YC signals representing a still image and a moving image in a predetermined compression format, and expands when compressed data is read. The compression / expansion circuit includes a frame memory and the like for signal processing. The YC signal from the image processing system 20 is stored in this frame memory for each frame, and each block is read out and compressed and encoded for each of a plurality of blocks. The compression coding is performed by, for example, performing two-dimensional orthogonal transformation, normalization, and Huffman coding on the image signal for each block.

【0090】再生処理回路310 は、輝度信号Y および色
差信号R-Y,B-Y をマトリックス変換してたとえばRGB 信
号に変換する回路である。再生処理回路310 によって変
換された信号は液晶モニタ4に出力され、可視画像が表
示再生される。
The reproduction processing circuit 310 is a circuit for converting the luminance signal Y and the color difference signals RY, BY into a matrix, for example, into an RGB signal. The signal converted by the reproduction processing circuit 310 is output to the liquid crystal monitor 4, and a visible image is displayed and reproduced.

【0091】一方、制御系40は、外部操作に応動して撮
像系10、画像処理系20、記録再生系30をそれぞれ制御す
る各部の制御回路を含み、レリーズボタン6の押下を検
出して、固体撮像素子120 の駆動、RGB画像処理回路210
の動作、記録処理回路300の圧縮処理などを制御する。
具体的には、レリーズボタン6の操作を検出する操作検
出回路410 と、その検出信号に応動して各部を制御し、
撮像の際のタイミング信号などを生成して出力するシス
テム制御部400 と、このシステム制御部400 の制御の下
に固体撮像素子120 を駆動する駆動信号を生成する固体
撮像素子の駆動回路420 とを含む。
On the other hand, the control system 40 includes a control circuit of each part for controlling the image pickup system 10, the image processing system 20, and the recording / reproducing system 30 in response to an external operation, and detects the pressing of the release button 6, Driving the solid-state image sensor 120, RGB image processing circuit 210
And the compression processing of the recording processing circuit 300 are controlled.
Specifically, the operation detection circuit 410 for detecting the operation of the release button 6, and controlling each part in response to the detection signal,
A system control unit 400 that generates and outputs a timing signal at the time of imaging, and a drive circuit 420 for the solid-state image sensor that generates a drive signal that drives the solid-state image sensor 120 under the control of the system control unit 400. Including.

【0092】次に、本実施の形態による撮像装置の動作
を図14及び図17を用いて説明する。まず、メインス
イッチ5をオンとすると、各部に電源電圧が供給されて
動作可能状態となる。次に、メモリに画像信号を記録可
能か否かが判定される。この際に、残り容量に応じて撮
影可能記録枚数が液晶モニタ4の残り枚数表示13に表示
される。その表示を見た操作者は、撮影可能であれば、
被写界にカメラを向けて、レリーズボタン6を押下す
る。
Next, the operation of the image pickup apparatus according to this embodiment will be described with reference to FIGS. First, when the main switch 5 is turned on, the power supply voltage is supplied to the respective parts to bring them into an operable state. Next, it is determined whether the image signal can be recorded in the memory. At this time, the number of recordable images that can be photographed is displayed on the remaining number display 13 of the liquid crystal monitor 4 according to the remaining capacity. If the operator who saw the display can shoot,
Aim the camera at the field and press the release button 6.

【0093】レリーズボタン6を半分だけ押下すると、
露光時間の算出が行なわれる。すべての撮影準備処理が
終了すると、撮影可能となり、その表示が撮影者に報じ
られる。これにより、レリーズボタン6が終端まで押下
されると、操作検出回路410はシステム制御回路400 に
その検出信号を送出する。その際に、あらかじめ算出さ
れた露光時間の経過をタイムカウントして、所定の露光
時間が経過すると、駆動回路420 にタイミング信号を供
給する。これにより、駆動回路420 は水平および垂直駆
動信号を生成して露光された1600×800画素のそれぞれ
を水平および垂直方向に順次読み出す。
When the release button 6 is pressed halfway,
The exposure time is calculated. When all the shooting preparation processing is completed, shooting is possible and the display is reported to the photographer. As a result, when the release button 6 is pressed to the end, the operation detection circuit 410 sends the detection signal to the system control circuit 400. At that time, the elapsed time of the exposure time calculated in advance is time-counted, and when the predetermined exposure time elapses, the timing signal is supplied to the drive circuit 420. As a result, the drive circuit 420 generates horizontal and vertical drive signals and sequentially reads each of the exposed 1600 × 800 pixels in the horizontal and vertical directions.

【0094】読み出されたそれぞれの画素は、A/D 変換
器500 にて所定のビット値のデジタル信号に変換され
て、画像処理系20のRGB画像処理回路210 に順次供給さ
れる。RGB画像処理回路210 では、これらをそれぞれホ
ワイトバランス、ガンマ補正を施した状態にて画素の解
像度を4倍にする補間処理を行なって、YC処理回路230
に供給する。
Each pixel read out is converted into a digital signal having a predetermined bit value by the A / D converter 500, and is sequentially supplied to the RGB image processing circuit 210 of the image processing system 20. The RGB image processing circuit 210 performs interpolation processing for quadrupling the pixel resolution while performing white balance and gamma correction on each of these, and the YC processing circuit 230
Supply to.

【0095】YC処理回路230 では、その高域輝度信号発
生回路にて、RGBそれぞれの画素の高域輝度信号YHを生
成し、同様に、低域輝度信号発生回路にて低域輝度信号
YLをそれぞれ演算する。演算した結果の高域輝度信号YH
は、ローパス・フィルタを介して加算器に出力される。
同様に、低域輝度信号YLは、高域輝度信号YHが減算され
てローパス・フィルタを通って加算器に出力される。こ
れにより、高域輝度信号YHとその低域輝度信号との差YL
-YH が加算されて輝度信号Yが得られる。同様に、色差
信号発生回路では、色差信号R-Y,B-Y を求めて出力す
る。出力された色差信号R-Y,B-Y は、それぞれローパス
・フィルタを通った成分が記録処理回路300 に供給され
る。
In the YC processing circuit 230, the high-frequency luminance signal generation circuit generates the high-frequency luminance signal YH of each pixel of RGB, and similarly, the low-frequency luminance signal generation circuit generates the low-frequency luminance signal.
Calculate YL respectively. High-frequency luminance signal YH as a result of calculation
Is output to the adder through the low pass filter.
Similarly, the low-frequency luminance signal YL is subtracted from the high-frequency luminance signal YH, passes through the low-pass filter, and is output to the adder. As a result, the difference YL between the high frequency luminance signal YH and the low frequency luminance signal YL
-YH is added to obtain the luminance signal Y. Similarly, the color difference signal generating circuit obtains and outputs the color difference signals RY and BY. The output color difference signals RY and BY are supplied to the recording processing circuit 300 as components that have passed through the low-pass filters.

【0096】次に、YC信号を受けた記録処理回路300
は、それぞれの輝度信号Yおよび色差信号R-Y,B-Y を所
定の静止画圧縮方式にて圧縮して、順次メモリに記録す
る。
Next, the recording processing circuit 300 which receives the YC signal
Compresses the respective luminance signal Y and color difference signals RY, BY by a predetermined still image compression method and sequentially records them in the memory.

【0097】メモリに記録された静止画像または動画像
を表わす画像信号からそれぞれの画像を再生する場合に
は、再生ボタン9を押下すると操作検出回路410 にてそ
の操作を検出して、システム制御部400 に検出信号を供
給する。これにより記録処理回路300 が駆動される。駆
動された記録処理回路300 は、メモリから記録内容を読
み取って、液晶モニタ4に画像を表示する。操作者は、
所望の画像を選択ボタンなどの押下により選択する。
When the respective images are reproduced from the image signals representing the still image or the moving image recorded in the memory, when the reproduction button 9 is pressed, the operation detecting circuit 410 detects the operation and the system control unit Supply detection signal to 400. As a result, the recording processing circuit 300 is driven. The driven recording processing circuit 300 reads the recorded contents from the memory and displays an image on the liquid crystal monitor 4. The operator
A desired image is selected by pressing a selection button or the like.

【0098】(第2の実施の形態)本実施の形態は第1
の実施の形態とは、撮影レンズと撮像領域の位置関係を
異ならせた他の撮像系を用いたものである。図18は撮
像系890の詳細図である。まず、絞り810は図21に示す
ような4つの円形開口810a、810b、810c、810dを有し、
この各々から撮影レンズ800の光入射面800eに入射した
物体光は、撮影レンズ800の4つのレンズ部800a、800b、
800c、800dから射出して固体撮像素子820の撮像面上に4
つの物体像を形成する。絞り810と光入射面800eおよび
固体撮像素子820の撮像面は平行に配置されている。こ
こでは、撮影レンズ800の光入射面800eを平面とした
が、4つの球面あるいは4つの回転対称非球面で構成して
も良い。
(Second Embodiment) This embodiment is the first
This embodiment uses another image pickup system in which the positional relationship between the photographing lens and the image pickup area is different. FIG. 18 is a detailed diagram of the image pickup system 890. First, the diaphragm 810 has four circular openings 810a, 810b, 810c, 810d as shown in FIG.
The object light incident on the light incident surface 800e of the taking lens 800 from each of these is the four lens portions 800a, 800b of the taking lens 800,
It is emitted from 800c and 800d, and 4 on the image pickup surface of the solid-state image pickup device 820.
Form two object images. The diaphragm 810, the light incident surface 800e, and the imaging surface of the solid-state imaging device 820 are arranged in parallel. Although the light incident surface 800e of the taking lens 800 is a flat surface here, it may be formed of four spherical surfaces or four rotationally symmetric aspherical surfaces.

【0099】4つのレンズ部800a、800b、800c、800d
は、撮影レンズ800を光射出側から見た図20に示すよ
うに円径の球面部を持ち、この球面部には670nm以上の
波長域について低い透過率を持たせた赤外線カットフィ
ルターが、また、ハッチングをかけて示した平面部800f
には遮光性膜が形成されている。すなわち、撮影光学系
は撮影レンズ800と絞り810より成り、4つのレンズ部800
a、800b、800c、800dのそれぞれが結像系である。
Four lens parts 800a, 800b, 800c, 800d
20 has a spherical spherical portion with a circular diameter as shown in FIG. 20 when the photographing lens 800 is viewed from the light exit side, and this spherical portion is provided with an infrared cut filter having a low transmittance in a wavelength range of 670 nm or more, , Plane part 800f hatched
A light-shielding film is formed on. That is, the photographing optical system is composed of a photographing lens 800 and an aperture 810, and four lens units 800
Each of a, 800b, 800c, and 800d is an imaging system.

【0100】図22は固体撮像素子820の正面図で、形
成される4つの物体像に対応させて4つの撮像領域820a、
820b、820c、820dを備えている。撮像領域820a、820b、
820c、820dの各々は、縦横のピッチが2.8μmの画素を80
0×600個配列してなる2.24mm×1.68mmの領域であって、
撮像領域全体の寸法は中央にある撮像領域の分離帯の寸
法0.3mmを含んで4.78mm×3.36mm、また、各撮像領域の
対角寸法は2.80mmとなる。図において、851a、851b、85
1c、851dは内部に物体像が形成されるイメージサークル
である。イメージサークル851a、851b、851c、851dの形
状は絞りの開口と撮影レンズ800の射出側球面部の大き
さで決定される円形であり、イメージサークル851a、85
1b、851b、851cには互いに重なり合う部分が生じる。
FIG. 22 is a front view of the solid-state image pickup element 820, which shows four image pickup areas 820a corresponding to the four object images formed,
It has 820b, 820c, and 820d. Imaging areas 820a, 820b,
Each of the 820c and 820d has 80 pixels with a vertical and horizontal pitch of 2.8 μm.
It is an area of 2.24 mm × 1.68 mm arranged by 0 × 600 pieces,
The size of the entire imaging area is 4.78 mm × 3.36 mm including the 0.3 mm of the separation band in the central imaging area, and the diagonal size of each imaging area is 2.80 mm. In the figure, 851a, 851b, 85
1c and 851d are image circles in which an object image is formed. The shape of the image circles 851a, 851b, 851c, 851d is a circle determined by the aperture of the diaphragm and the size of the spherical surface on the exit side of the taking lens 800, and the image circles 851a, 85
1b, 851b, and 851c have overlapping portions.

【0101】図18において、絞り810と撮影レンズ800
に挟まれた領域のハッチングで示した部分852a、852bは
撮影レンズ800の光入射面800e上に形成された光学フィ
ルターである。撮影レンズ800を光入射側から見た図1
9で示すように、光学フィルター852a、852b、852c、85
2dが絞り開口810a、810b、810c、810dを完全に含む範囲
に形成されている。
In FIG. 18, the diaphragm 810 and the taking lens 800 are shown.
The hatched portions 852a and 852b of the region sandwiched by are optical filters formed on the light incident surface 800e of the taking lens 800. Figure 1 of the shooting lens 800 seen from the light incident side
As shown in 9, optical filters 852a, 852b, 852c, 85
2d is formed in a range that completely includes the diaphragm openings 810a, 810b, 810c, 810d.

【0102】光学フィルター852aと852dは図6にGで示
した主に緑色を透過する分光透過率特性を有し、光学フ
ィルター852bはRで示した主に赤色を透過する分光透過
率特性を有し、さらに、光学フィルター852cはBで示し
た主に青色を透過する分光透過率特性を有している。す
なわち、これらは原色フィルターである。レンズ部800
a、800b、800c、800dに形成されている赤外線カットフ
ィルターの特性との積として、イメージサークル851aと
851dに形成されている物体像は緑色光成分、イメージサ
ークル851bに形成されている物体像は赤色光成分、イメ
ージサークル851cに形成されている物体像は青色光成分
によるものとなる。
The optical filters 852a and 852d have the spectral transmittance characteristics shown by G in FIG. 6 for mainly transmitting green, and the optical filter 852b has the spectral transmittance characteristics shown by R for mainly transmitting red. In addition, the optical filter 852c has a spectral transmittance characteristic indicated by B that mainly transmits blue light. That is, these are primary color filters. Lens part 800
As the product of the characteristics of the infrared cut filter formed on a, 800b, 800c, and 800d, the image circle 851a and
The object image formed on 851d has a green light component, the object image formed on image circle 851b has a red light component, and the object image formed on image circle 851c has a blue light component.

【0103】一方、固体撮像素子820の4つの撮像領域82
0a、820b、820c、820d上にもまた光学フィルター853a、
853b、853c、853dが形成され、これらの分光透過率特性
もまた図6に示したものと同等である。つまり、撮像領
域820aと820dは緑色光(G)に対して、撮像領域820bは
赤色光(R)に対して、撮像領域820cは青色光(B)に対
して感度を持つ。
On the other hand, the four image pickup areas 82 of the solid-state image pickup device 820
Also on the 0a, 820b, 820c, 820d optical filter 853a,
853b, 853c, 853d are formed, and their spectral transmittance characteristics are also similar to those shown in FIG. That is, the imaging areas 820a and 820d have sensitivity to green light (G), the imaging area 820b to red light (R), and the imaging area 820c has sensitivity to blue light (B).

【0104】各撮像領域の受光スペクトル分布は瞳と撮
像領域の分光透過率の積として与えられるため、瞳と撮
像領域の組み合わせは波長域によって選択される。つま
り、絞りの開口810aを通過した物体光は主に撮像領域82
0aで光電変換され、絞りの開口810bを通過した物体光は
主に撮像領域820bで光電変換され、絞りの開口810cを通
過した物体光は主に撮像領域820cで光電変換され、さら
に、絞りの開口810dを通過した物体光は主に撮像領域82
0dで光電変換される。すなわち、撮像領域820aと820dは
G画像を、撮像領域820bはR画像を、撮像領域820cはB画
像を出力することになる。このように、撮像光学系の瞳
と撮像素子に色分解のための光学フィルターを多重使用
すると、色純度を高めることができる。
Since the light reception spectrum distribution of each image pickup region is given as the product of the spectral transmittance of the pupil and the image pickup region, the combination of the pupil and the image pickup region is selected according to the wavelength region. That is, the object light that has passed through the aperture 810a of the diaphragm is mainly focused on the imaging area 82.
The object light photoelectrically converted by 0a and passing through the aperture 810b of the diaphragm is mainly photoelectrically converted in the imaging area 820b, and the object light passing through aperture 810c of the diaphragm is mainly photoelectrically converted by the imaging area 820c. The object light that has passed through the aperture 810d is mainly in the imaging area 82.
It is photoelectrically converted at 0d. That is, the imaging areas 820a and 820d are
The G image, the imaging region 820b outputs the R image, and the imaging region 820c outputs the B image. As described above, when the optical filter for color separation is multiply used in the pupil of the image pickup optical system and the image pickup element, the color purity can be improved.

【0105】なお、撮像領域間の分離帯は撮像領域820a
と820dが何れもG画像信号を得ているので、この間にイ
メージサークルのオーバーラップが生じないようにする
ためのものである。
The separation band between the imaging areas is the imaging area 820a.
Since 820d and 820d both obtain the G image signal, this is for preventing the overlap of the image circles during this period.

【0106】画像処理系20は、固体撮像素子820の複数
の撮像領域が、各々、前記複数の画像の一つから得た選
択的光電変換出力に基づいてカラー画像を形成する。こ
の際、比視感度のピーク波長は555nmであるので、この
波長を含むG画像信号を基準として信号処理を行う。G物
体像は2つの撮像領域820aと820dに形成されるため、そ
の画素数はR画像信号やB画像信号に比べて2倍となり、
視感度の高い波長域で特に高精細な画像を得ることがで
きるようになっている。
The image processing system 20 forms a color image in each of the plurality of image pickup areas of the solid-state image pickup device 820 based on the selective photoelectric conversion output obtained from one of the plurality of images. At this time, since the peak wavelength of the relative luminous efficiency is 555 nm, signal processing is performed with the G image signal including this wavelength as a reference. Since the G object image is formed in the two imaging areas 820a and 820d, the number of pixels thereof is twice that of the R image signal and the B image signal,
It has become possible to obtain a particularly high-definition image in a wavelength range with high visibility.

【0107】なお、この際、後述する物体距離や温度変
化による像間隔の変動とは別に、固体撮像素子の撮像領
域820aと820dを相互に上下左右に1/2 画素ずらすことに
より、少ない画素数で解像度を上げる画素ずらしという
手法を用いる。1/2画素ずらし量は仮想被写体距離2mに
対して設定する。
At this time, in addition to the fluctuation of the image interval due to the change of the object distance and the temperature which will be described later, by shifting the imaging areas 820a and 820d of the solid-state imaging device from each other by 1/2 pixel vertically and horizontally, a small number of pixels can be obtained. A method called pixel shift for increasing the resolution is used. The 1/2 pixel shift amount is set for a virtual subject distance of 2 m.

【0108】この画素ずらしは、撮影レンズ800のレン
ズ部800dをレンズ部800aに対して僅かに偏心させること
で実現しても、固体撮像素子820の撮像領域820dを撮像
領域820aに対して僅かに偏心させることで実現してもよ
い。
Even if this pixel shift is realized by slightly decentering the lens portion 800d of the taking lens 800 with respect to the lens portion 800a, the image pickup area 820d of the solid-state image pickup element 820 is slightly moved with respect to the image pickup area 820a. It may be realized by eccentricity.

【0109】撮像系は4つのレンズ部を有するために、
被写体距離に応じて4つの物体像の位置が相対的に変化
する。前述のように各撮像領域は2.24mm×1.68mmであっ
て、これらのうち2つずつは長辺を接するように隣接し
て配置され、この2組はさらに0.3mmの分離帯を隔てて並
列している。したがって、隣り合う撮像領域の中心間隔
は縦方向に1.68mm、横方向に2.54mmである。また、最も
離れた撮像領域は対角方向に位置する撮像領域820aと82
0d、および、撮像領域820bと820cとなり、この距離は何
れも3.045mmである。
Since the image pickup system has four lens parts,
The positions of the four object images change relative to the subject distance. As mentioned above, each imaging area is 2.24 mm × 1.68 mm, and two of them are arranged adjacent to each other with their long sides in contact, and the two pairs are arranged in parallel with a separation band of 0.3 mm. is doing. Therefore, the center-to-center spacing between adjacent imaging regions is 1.68 mm in the vertical direction and 2.54 mm in the horizontal direction. Further, the farthest imaging regions are the imaging regions 820a and
0d and image pickup areas 820b and 820c, both of which are 3.045 mm.

【0110】後述するYC処理回路230では、物体像の中
心と撮像領域の中心が一致しているものとして信号処理
を行う。撮像領域820aと820dに注目して、仮想被写体距
離2mにある物体像を撮像領域間隔と同じ3.045mmで撮像
部上に形成するとすれば、図23に示すように撮影レン
ズ800のレンズ部800a、800dの間隔を3.0420mmに設定す
ることになる。図において矢印855a、855dは、撮影レン
ズ800のレンズ部800a、800dによる正のパワーを有する
結像系を表す記号、矩形856a、856dは撮像領域820a、82
0dの範囲を表す記号、L801、L802は結像系855a、855dの
光軸である。撮影レンズ800の光入射面800eは平面、光
射出面であるところのレンズ部800a、800dは球面である
ので、各球心を通って光入射面に垂直な直線が光軸とな
る。
In the YC processing circuit 230, which will be described later, the signal processing is performed assuming that the center of the object image and the center of the image pickup area coincide. Focusing on the imaging regions 820a and 820d, if an object image at a virtual subject distance of 2 m is formed on the imaging unit at 3.045 mm, which is the same as the imaging region interval, as shown in FIG. 23, the lens unit 800a of the taking lens 800, The 800d spacing will be set to 3.0420mm. In the figure, arrows 855a and 855d are symbols representing an imaging system having a positive power by the lens units 800a and 800d of the taking lens 800, and rectangles 856a and 856d are imaging areas 820a and 82d.
Symbols L801 and L802 representing the range of 0d are optical axes of the imaging systems 855a and 855d. Since the light incident surface 800e of the taking lens 800 is a plane and the lens portions 800a and 800d, which are light emitting surfaces, are spherical surfaces, a straight line passing through each spherical center and perpendicular to the light incident surface is the optical axis.

【0111】このとき、無限遠物体の像は図24に示す
ようにレンズ部800a、800dと同一の間隔で形成されるた
め、G物体像同士の間隔は3.0420mmである。したがっ
て、撮像領域の中心間隔3.045mmよりも若干狭く、この
差ΔYは0.0030mmすなわち3.0μmである。このようなG物
体像同士の間隔変化は、解像度の低下として現れる。
At this time, since the image of the object at infinity is formed at the same interval as the lens portions 800a and 800d as shown in FIG. 24, the interval between the G object images is 3.0420 mm. Therefore, the center interval of the imaging region is slightly narrower than 3.045 mm, and the difference ΔY is 0.0030 mm, that is, 3.0 μm. Such a change in the interval between G object images appears as a reduction in resolution.

【0112】また、撮像領域820bと820cに注目すれば、
同様にΔYは3.0μmとなって、この寸法だけ無限遠物体
では色ズレが発生することになる。したがって、G物体
像同士の間隔変化とR物体像とB物体像のズレという2つ
の問題について考慮しなければならない。
Further, focusing on the imaging areas 820b and 820c,
Similarly, ΔY becomes 3.0 μm, and color shift will occur in an object at infinity by this size. Therefore, it is necessary to consider two problems, that is, the change in interval between G object images and the deviation between R object image and B object image.

【0113】ただし、G物体像に対しては比視感度が高
く僅かな解像度の低下でも認識可能であるため、まず、
G物体像同士の間隔変化に注目して、これが許容できる
レベルであれば、R物体像とB物体像のズレが問題になる
ことはないと言える。
However, since the G object image has a high relative visibility and can be recognized even with a slight decrease in resolution, first of all,
Paying attention to the change in spacing between G object images, if this is an acceptable level, it can be said that the deviation between the R object image and the B object image does not pose a problem.

【0114】一般に、撮影画面の中央には人物等の近距
離物体が位置し、画面の周辺に遠距離の物体が位置する
ことが多いこと、さらに、画面の周辺では撮影レンズの
収差が増大して画像性能が低下することから、G物体像
同士の最大像間隔変化が画素ピッチの2倍よりも小さけ
れば、実用上の問題はない。固体撮像素子820の画素ピ
ッチPは2.8μmであるので、ΔY<2×P となり、この程
度の無限遠像の像間隔変化は許容可能なレベルであるこ
とが分かる。
Generally, a short-distance object such as a person is located in the center of the photographic screen, and a distant object is often located in the periphery of the screen. Further, the aberration of the photographic lens increases around the screen. As a result, the image performance deteriorates, so that there is no practical problem as long as the change in the maximum image distance between G object images is smaller than twice the pixel pitch. Since the pixel pitch P of the solid-state image pickup device 820 is 2.8 μm, ΔY <2 × P, and it can be seen that such a change in the image distance of the image at infinity is at an allowable level.

【0115】したがって、R物体像とB物体像のズレも許
容可能なレベルであって、この撮像系は実用上十分な性
能を備えていると判定できる。
Therefore, the deviation between the R object image and the B object image is at an allowable level, and it can be determined that this imaging system has practically sufficient performance.

【0116】以上が本発明の実施の形態の説明である
が、本発明は、これら実施の形態の構成に限られるもの
ではなく、特許請求の範囲の記載で示した機能、また
は、実施の形態の構成が持つ機能が達成できる構成であ
ればどのようなものであっても適用できるものである。
The above is a description of the embodiments of the present invention, but the present invention is not limited to the configurations of these embodiments, and the functions or embodiments described in the claims or the embodiments Any structure can be applied as long as the function of the structure can be achieved.

【0117】例えば、以上の実施の形態では、色分解の
ための光学フィルタは、赤、緑、青の原色フィルタを用
いているが、本発明は、これらに代えてシアン、マゼン
タ、イエローの補色フィルタを用いるようにても適用で
きるものである。
For example, in the above embodiments, the optical filters for color separation are the primary color filters of red, green, and blue, but the present invention replaces them with complementary colors of cyan, magenta, and yellow. It is also applicable by using a filter.

【0118】また、以上の実施の形態では、最も視感度
の高い(緑色)物体像を基準として、その他の視感度
(色)の物体像との物体距離の変化による間隔の変化つ
いてれを説明しているが、これは、最も視感度の高い
(緑色)物体像を基準としない場合であっても本発明は
適用できるものである。
Further, in the above embodiments, the change in the interval due to the change in the object distance from the object image of the other luminosity (color) is described with reference to the object image of the highest luminosity (green). However, this is applicable to the present invention even when the object image with the highest visibility (green) is not used as a reference.

【0119】なお、本発明は、以上の各実施の形態、ま
たは、それら技術要素を必要に応じて組み合わせるよう
にしてもよい。
The present invention may be made by combining the above-described embodiments or their technical elements as needed.

【0120】また、本発明は、特許請求の範囲、また
は、実施の形態の構成の全体若しくは一部が、1つの装
置を形成するものであっても、他の装置と結合するよう
なものであっても、装置を構成する要素となるようなも
のであってもよい。
Further, the present invention is such that the scope of the claims or the whole or part of the configuration of the embodiment forms one device, but is combined with another device. Alternatively, it may be a component of the device.

【0121】[0121]

【発明の効果】以上説明したように、本発明によれば、
物体像の色ズレを解消できる撮像装置を提供できるもの
である。
As described above, according to the present invention,
It is possible to provide an image pickup apparatus capable of eliminating color shift of an object image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係るデジタルカラーカメ
ラの撮像系の断面図である。
FIG. 1 is a sectional view of an image pickup system of a digital color camera according to an embodiment of the present invention.

【図2】図1の撮像系の固体撮像素子の正面図である。FIG. 2 is a front view of a solid-state image pickup device of the image pickup system of FIG.

【図3】図1の撮像系の絞りの平面図である。FIG. 3 is a plan view of a diaphragm of the image pickup system of FIG.

【図4】図1の撮像系の光学フィルターの形成範囲を表
す図である。
FIG. 4 is a diagram showing a formation range of an optical filter of the image pickup system of FIG.

【図5】図1の撮像系の撮影レンズを光射出側から見た
図である。
5 is a view of the taking lens of the image pickup system of FIG. 1 viewed from the light exit side.

【図6】図1の撮像系の光学フィルターの分光透過率特
性を表す図である。
6 is a diagram showing a spectral transmittance characteristic of an optical filter of the image pickup system of FIG.

【図7】図1の撮像系の色純度補正フィルタの分光透過
率特性を表す図である。
7 is a diagram showing a spectral transmittance characteristic of a color purity correction filter of the image pickup system of FIG.

【図8】図1の撮像系のフォトクロミックガラスの分光
透過率特性を表す図である。
8 is a diagram showing a spectral transmittance characteristic of the photochromic glass of the image pickup system of FIG. 1. FIG.

【図9】図1の撮像系の透過率分布型フィルターの透過
率分布を表す図である。
9 is a diagram showing a transmittance distribution of a transmittance distribution type filter of the image pickup system of FIG.

【図10】図1の撮像系の撮影レンズのOTF特性を表
す図である。
10 is a diagram showing OTF characteristics of the taking lens of the image pickup system of FIG. 1. FIG.

【図11】図1の撮像系の点像の輝度分布を表す図であ
る。
11 is a diagram showing a luminance distribution of a point image of the image pickup system of FIG.

【図12】図1の撮像系のレンズ部の間隔設定を説明す
るための図である。
12A and 12B are diagrams for explaining the interval setting of the lens units of the image pickup system in FIG.

【図13】図1の撮像系の無限遠物体の像の位置を説明
するための図である。
13 is a diagram for explaining the position of an image of an object at infinity in the image pickup system of FIG.

【図14】図1のデジタルカラーカメラの信号処理系の
ブロック図である。
14 is a block diagram of a signal processing system of the digital color camera of FIG.

【図15】図1の撮像系のG画像用の撮像領域に対する
R画素用の撮像領域とB画素用の撮像領域の位置関係を
示す図である。
15 is a diagram showing a positional relationship between an image pickup area for R image and an image pickup area for B pixel with respect to an image pickup area for G image in the image pickup system of FIG. 1;

【図16】図1のデジタルカラーカメラの補間処理の説
明図である。
16 is an explanatory diagram of an interpolation process of the digital color camera of FIG.

【図17】図1のデジタルカラーカメラの全体構成を表
す図である。
FIG. 17 is a diagram showing an overall configuration of the digital color camera of FIG.

【図18】本発明の第2の実施形態に係るデジタルカラ
ーカメラの撮像系の詳細図である。
FIG. 18 is a detailed diagram of an image pickup system of a digital color camera according to a second embodiment of the present invention.

【図19】図18の撮像系の撮影レンズを光入射側から
見た図である。
19 is a view of the taking lens of the image pickup system of FIG. 18 as viewed from the light incident side.

【図20】図19の撮影レンズを光射出側から見た図で
ある。
20 is a view of the taking lens of FIG. 19 viewed from the light exit side.

【図21】図18の撮像系の絞りの平面図である。21 is a plan view of a diaphragm of the image pickup system in FIG. 18. FIG.

【図22】図18の撮像系の固体撮像素子820の正面
図である。
22 is a front view of a solid-state imaging device 820 of the imaging system in FIG.

【図23】図18の撮像系のレンズ部の間隔設定を説明
するための図である。
FIG. 23 is a diagram for explaining the interval setting of the lens units of the imaging system in FIG.

【図24】図18の撮像系の無限遠物体の像の位置を説
明するための図である。
FIG. 24 is a diagram for explaining the position of an image of an object at infinity in the image pickup system of FIG.

【符号の説明】[Explanation of symbols]

1 カメラ本体 2 照明光取り込み窓 3 ファインダー前枠 4 カラー液晶モニタ 5 メインスイッチ 6 レリーズ釦 7、8、9 スイッチ 10 撮像系 11 ファインダー接眼窓 12 プリズム 13 撮影可能な残り枚数の表示 14 接続端子 51a、51b、51c イメージサークル 52a、52b、52c 撮影レンズ上に形成された光
学フィルター 53a、53b、53c 固体撮像素子上に形成された
光学フィルター 54a、54b、54c 透過率分布型フィルター 100 撮影レンズ 100a、100b、100c 撮影レンズのレンズ部 110 絞り 120 固体撮像素子
1 Camera Main Body 2 Illumination Light Capture Window 3 Viewfinder Front Frame 4 Color LCD Monitor 5 Main Switch 6 Release Buttons 7, 8, 9 Switch 10 Imaging System 11 Viewfinder Eyepiece Window 12 Prism 13 Display of Remaining Number of Photographable 14 Connection Terminal 51a, 51b, 51c Image circles 52a, 52b, 52c Optical filters 53a, 53b, 53c formed on a taking lens Optical filters 54a, 54b, 54c formed on a solid-state image sensor Transmissivity distribution type filter 100 Taking lenses 100a, 100b , 100c Lens section 110 of photographing lens Aperture 120 Solid-state image sensor

Claims (14)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の撮像領域を備えた撮像素子と、該
撮像素子上に物体像を形成する撮影光学系と、前記撮像
素子の出力信号を処理する画像処理手段とを有する撮像
装置において、 前記撮影光学系は複数の結像系を備えてなり、該複数の
結像系は前記複数の撮像領域上に物体像を各々形成し、
前記撮像素子より、視感度が最も高い波長を含むスペク
トル分布の物体光成分による基準画像信号と、これとは
異なるスペクトル分布の物体光成分による他の画像信号
とを前記複数の撮像領域のそれぞれに対応して得るとと
もに、所定被写体距離D[m]を前記複数の結像系の撮
影画角θ[°]の関数として次式のように定義したとき
に、 【外1】 物体距離の変動によって生じる、前記基準画像信号を得
た物体像から前記他の画像信号を得た物体像のまでの
応する個所の間隔変化が、物体が前記所定被写体距離D
[m]にあるときと無限遠にあるときとの差として、前
記基準画像信号を出力する撮像領域の画素ピッチの2倍
よりも小さくなるように、前記複数の結像系の光軸間隔
を設定したことを特徴とする撮像装置。
1. An image pickup apparatus comprising: an image pickup device having a plurality of image pickup areas; a photographing optical system for forming an object image on the image pickup device; and an image processing means for processing an output signal of the image pickup device. the imaging optical system comprises a plurality of imaging systems, the imaging system and the plurality of each form an object image before Symbol plurality of imaging regions,
From the image pickup device, a reference image signal based on an object light component having a spectral distribution including a wavelength having the highest luminosity factor and another image signal based on an object light component having a spectral distribution different from the reference image signal are provided to each of the plurality of imaging regions. When the predetermined subject distance D [m] is obtained as a function of the photographing field angles θ [°] of the plurality of image forming systems as shown below, A pair from the object image having the reference image signal to the object image having the other image signal, which is caused by a change in the object distance .
The change in the spacing of the corresponding parts is such that the object is the predetermined subject distance D.
As a difference between [m] and infinity, the optical axis intervals of the plurality of imaging systems are set so as to be smaller than twice the pixel pitch of the image pickup area that outputs the reference image signal. An imaging device characterized by being set.
【請求項2】 複数の撮像領域を備えた撮像素子と、該
撮像素子上に物体像を形成する撮影光学系と、前記撮像
素子の出力信号を処理する画像処理手段とを有した撮像
装置において、 前記撮影光学系は複数の結像系を備えてなり、該複数の
結像系は前記複数の撮像領域上に物体像を各々形成し、
前記撮像素子より、同一のスペクトル分布の物体光成分
による2つの画像信号を前記複数の撮像領域のそれぞれ
に対応して得るとともに、所定被写体距離D[m]を前
記複数の結像系の撮影画角θ[°]の関数として次式の
ように定義したときに、 【外2】 物体距離の変動によって生じる、前記2つの画像信号を
得た2つの物体像の対応する個所の間隔変化が、物体が
前記所定被写体距離D[m]にあるときと無限遠にある
ときとの差として、前記画像信号を出力する撮像領域の
画素ピッチの2倍よりも小さくなるように、前記複数の
結像系の光軸間隔を設定したことを特徴とする撮像装
置。
2. An image pickup apparatus comprising: an image pickup device having a plurality of image pickup areas; a photographing optical system for forming an object image on the image pickup device; and an image processing means for processing an output signal of the image pickup device. the imaging optical system comprises a plurality of imaging systems, the imaging system and the plurality of each form an object image before Symbol plurality of imaging regions,
From the image pickup device, two image signals with object light components having the same spectral distribution are provided in each of the plurality of image pickup regions.
When the predetermined subject distance D [m] is defined as a function of the photographing field angle θ [°] of the plurality of imaging systems as follows, The change in the distance between the corresponding portions of the two object images obtained from the two image signals caused by the change in the object distance is
The difference between the predetermined subject distance D [m] and the infinite distance is smaller than twice the pixel pitch of the image pickup area that outputs the image signal. An imaging device having an optical axis interval set.
【請求項3】 請求項1又は2に記載の撮像装置におい
て、前記結像系の光入射側に、それぞれ色フィルタを配
置したことを特徴とする撮像装置。
3. The image pickup device according to claim 1, wherein color filters are arranged on a light incident side of the image forming system.
【請求項4】 請求項3に記載の撮像装置において、前
記色フィルタと同色の色フィルタを、前記結像系に対応
する前記撮像素子の撮像領域上に配置したことを特徴と
する撮像装置。
4. The image pickup device according to claim 3, wherein a color filter having the same color as the color filter is arranged on an image pickup area of the image pickup device corresponding to the image forming system.
【請求項5】 請求項1に記載の撮像装置において、前
記視感度が最も高い波長を含むスペクトル分布の物体光
は緑(G)色光であり、該緑光色とは異なるスペクトル
分布の物体光は赤(R)色又は青(B)色光であること
を特徴とする撮像装置。
5. The image pickup device according to claim 1, wherein the object light having a spectral distribution including a wavelength having the highest luminosity is green (G) color light, and the object light having a spectral distribution different from the green light color is An image pickup device characterized by being red (R) color or blue (B) color light.
【請求項6】 請求項2に記載の撮像装置において、前
記同一のスペクトル分布の物体光は緑(G)色光である
ことを特徴とする撮像装置。
6. The image pickup device according to claim 2, wherein the object light having the same spectral distribution is green (G) color light.
【請求項7】 請求項1〜6のいずれか1項に記載の撮
像装置において、前記結像系はフォトクロミックガラス
を有することを特徴とする撮像装置。
7. The image pickup device according to claim 1, wherein the image forming system is a photochromic glass.
An image pickup apparatus comprising:
【請求項8】 被写体光の異なる波長成分をそれぞれ受
光するための平面状に構成される複数の撮像部と、前記
複数の撮像部に被写体光をそれぞれ案内するための複数
の光学系とを有し、該複数の光学系は、所定被写体距離
D[m]を該複数の光学系の撮像画角θ[°]の関数と
して 【外3】 と定義したとき、 被写体が前記所定被写体距離にあるときと無限遠にある
ときとで、前記複数の撮像部のうちの1つの第1の撮像
部が受光する被写体像と前記複数の撮像部のうちの他の
1つの第2の撮像部が受光する被写体像との対応する個
所の間隔の変化が前記複数の撮像部の画素ピッチの2倍
よりも小さくなるように、前記複数の光学系の光軸間隔
を設定することを特徴とする撮像装置。
8. A plurality of imaging units configured in a plane for receiving different wavelength components of the subject light, and a plurality of optical systems for guiding the subject light to the plurality of imaging units, respectively. Then, the plurality of optical systems use the predetermined subject distance D [m] as a function of the imaging angle of view θ [°] of the plurality of optical systems. When the subject is at the predetermined subject distance and at infinity, one of the plurality of image capturing units receives a subject image received by the first image capturing unit and the plurality of image capturing units. The other one corresponding to the subject image received by the other one of the second imaging units
An image pickup apparatus, characterized in that the optical axis intervals of the plurality of optical systems are set such that the change in the distance between the plurality of image pickup units is smaller than twice the pixel pitch of the plurality of image pickup units.
【請求項9】 請求項8に記載の撮像装置において、前
記第1の撮像部が受光する前記所定の波長成分は緑色で
あり、前記第2の撮像部が受光する前記所定の波長成分
は赤色及び青色の少なくともいずれか一方であることを
特徴とする撮像装置。
9. The imaging device according to claim 8, wherein the predetermined wavelength component received by the first imaging unit is green, and the predetermined wavelength component received by the second imaging unit is red. And at least one of blue and blue.
【請求項10】 請求項8に記載の撮像装置において、
前記第1の撮像部が受光する前記所定の波長成分は最も
視感度の高い波長成分であり、前記第2の撮像部が受光
する前記所定の波長成分は前記最も視感度の高い波長成
分とは異なる波長成分であることを特徴とする撮像装
置。
10. The imaging device according to claim 8, wherein
The predetermined wavelength component received by the first imaging unit is the wavelength component with the highest luminosity, and the predetermined wavelength component received by the second imaging unit is the wavelength component with the highest luminosity. An imaging device having different wavelength components.
【請求項11】 請求項8に記載の撮像装置において、
前記第1、第2の撮像部が受光する前記所定の波長成分
は、同一の波長成分であることを特徴とする撮像装置。
11. The imaging device according to claim 8,
The imaging device, wherein the predetermined wavelength components received by the first and second imaging units are the same wavelength component.
【請求項12】 請求項8に記載の撮像装置において、
前記第1、第2の撮像部が受光する前記所定の波長成分
は、緑色であることを特徴とする撮像装置。
12. The image pickup device according to claim 8, wherein
The imaging device, wherein the predetermined wavelength component received by the first and second imaging units is green.
【請求項13】 請求項8に記載の撮像装置において、
前記第1、第2の撮像部が受光する前記所定の波長成分
は、最も視感度の高い波長成分であることを特徴とする
撮像装置。
13. The image pickup device according to claim 8,
The imaging device, wherein the predetermined wavelength component received by the first and second imaging units is a wavelength component having the highest luminosity.
【請求項14】 請求項8〜13のいずれか1項に記載
の撮像装置において、前記複数の撮像部は、一体的に構
成されることを特徴とする撮像装置。
14. The image pickup apparatus according to claim 8, wherein the plurality of image pickup units are integrally formed.
JP2000198684A 1999-06-30 2000-06-30 Imaging device Expired - Fee Related JP3397755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000198684A JP3397755B2 (en) 1999-06-30 2000-06-30 Imaging device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-185661 1999-06-30
JP18566199 1999-06-30
JP2000198684A JP3397755B2 (en) 1999-06-30 2000-06-30 Imaging device

Publications (2)

Publication Number Publication Date
JP2001078213A JP2001078213A (en) 2001-03-23
JP3397755B2 true JP3397755B2 (en) 2003-04-21

Family

ID=26503249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000198684A Expired - Fee Related JP3397755B2 (en) 1999-06-30 2000-06-30 Imaging device

Country Status (1)

Country Link
JP (1) JP3397755B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP4652634B2 (en) 2001-08-31 2011-03-16 キヤノン株式会社 Imaging device
US7286168B2 (en) 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
JP4071793B2 (en) 2003-10-22 2008-04-02 松下電器産業株式会社 IMAGING DEVICE, MANUFACTURING METHOD THEREOF, AND PORTABLE DEVICE
WO2006035778A1 (en) 2004-09-27 2006-04-06 Matsushita Electric Industrial Co., Ltd. Camera module and electronic apparatus provided with it
US7483065B2 (en) * 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US8023016B2 (en) 2004-12-22 2011-09-20 Panasonic Corporation Imaging device and manufacturing method thereof
US7718940B2 (en) 2005-07-26 2010-05-18 Panasonic Corporation Compound-eye imaging apparatus
JP2008153997A (en) * 2006-12-18 2008-07-03 Matsushita Electric Ind Co Ltd Solid-state imaging device, camera, vehicle, monitoring device, and driving method of solid-state imaging device
JP5172584B2 (en) 2008-10-07 2013-03-27 株式会社東芝 Imaging device
JP2011044801A (en) * 2009-08-19 2011-03-03 Toshiba Corp Image processor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338392A (en) 1999-05-27 2000-12-08 Olympus Optical Co Ltd Focus detector

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338392A (en) 1999-05-27 2000-12-08 Olympus Optical Co Ltd Focus detector

Also Published As

Publication number Publication date
JP2001078213A (en) 2001-03-23

Similar Documents

Publication Publication Date Title
US6859229B1 (en) Image pickup apparatus
US6882368B1 (en) Image pickup apparatus
US6833873B1 (en) Image pickup apparatus
JP4961993B2 (en) Imaging device, focus detection device, and imaging device
KR100508068B1 (en) Image pickup apparatus
US7112779B2 (en) Optical apparatus and beam splitter
JP2002209226A (en) Imaging device
JP2002135796A (en) Imaging device
JP3703424B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND STORAGE MEDIUM
KR20030071577A (en) Image pickup apparatus
JP2003078917A (en) Imaging device
JPWO2008032820A1 (en) Imaging device and imaging apparatus
JP2011197080A (en) Image pickup apparatus and camera
US6980248B1 (en) Image pickup apparatus
JP3397758B2 (en) Imaging device
JP3397754B2 (en) Imaging device
JP3397755B2 (en) Imaging device
JP2008177903A (en) Imaging device
US6885404B1 (en) Image pickup apparatus
JP4083355B2 (en) Imaging device
JP5133533B2 (en) Imaging device
JP3397757B2 (en) Imaging device
JP3397756B2 (en) Imaging device
US7665912B2 (en) Image-taking apparatus and control method thereof
JP2002158913A (en) Imaging device and imaging method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090214

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110214

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120214

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130214

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140214

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees