[go: up one dir, main page]

JP2006080838A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2006080838A
JP2006080838A JP2004262110A JP2004262110A JP2006080838A JP 2006080838 A JP2006080838 A JP 2006080838A JP 2004262110 A JP2004262110 A JP 2004262110A JP 2004262110 A JP2004262110 A JP 2004262110A JP 2006080838 A JP2006080838 A JP 2006080838A
Authority
JP
Japan
Prior art keywords
image
imaging
output
signal
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004262110A
Other languages
Japanese (ja)
Inventor
Takeshi Morofuji
剛 諸藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004262110A priority Critical patent/JP2006080838A/en
Publication of JP2006080838A publication Critical patent/JP2006080838A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】薄型の撮像系を実現するため4眼の光学系を用いてRGBの画像を生成し、合成して映像信号を得る技術がある。しかし、前記方法では視差に起因して、被写体距離に応じたRGBの画像のずれが生じてしまう。本発明では近接撮影時の画像の色ずれや鮮鋭度の低下を防ぐことを目的にする。
【解決手段】同一平面上に複数の撮像領域を備えた撮像素子上に像を形成する撮影光学系を持ち、前記撮像素子は同一のスペクトル分布で形成された同一視野の第1及び第2の出力画像とを有し、前記第1及び第2の画像の間隔変化に基づいて近接撮影を検知し、複数の撮像領域の何れかの単一画像を出力する。
【選択図】図1
In order to realize a thin imaging system, there is a technology for generating an RGB image using a four-lens optical system and combining it to obtain a video signal. However, in the above method, due to the parallax, the RGB image shifts according to the subject distance. An object of the present invention is to prevent image color shift and sharpness degradation during close-up photography.
An imaging optical system for forming an image on an imaging device having a plurality of imaging regions on the same plane, wherein the imaging device has first and second visual fields formed with the same spectral distribution. An output image, and detects close-up imaging based on a change in the interval between the first and second images, and outputs a single image of any of a plurality of imaging regions.
[Selection] Figure 1

Description

本発明は、デジタルスチルカメラ、ビデオムービー等の撮像装置に関するものである。   The present invention relates to an imaging apparatus such as a digital still camera and a video movie.

デジタルカメラでは、CCDやCMOSセンサ等の撮像素子に被写界像を所望の時間露光し、これより得られた1画面の画像信号をデジタル信号に変換して、YC処理等の所定の処理を施し、所定の形式の画像信号を得ている。撮像された画像を表わすデジタルの画像信号は、それぞれの画像毎に、半導体メモリ、テープ媒体、HDD等に記録される。   In a digital camera, an object scene image is exposed to an image sensor such as a CCD or CMOS sensor for a desired time, and an image signal of one screen obtained thereby is converted into a digital signal, and predetermined processing such as YC processing is performed. The image signal of a predetermined format is obtained. A digital image signal representing a captured image is recorded in a semiconductor memory, a tape medium, an HDD, or the like for each image.

記録された画像信号は、単独に、或は連続的に、随時読み出されて表示又は印刷可能な信号に再生され、モニタ等の出力装置に表示される。   The recorded image signal is read out at any time, alone or continuously, and reproduced as a displayable or printable signal, and displayed on an output device such as a monitor.

又、4眼の光学系を用いてRGBの画像を生成し、これらを合成して映像信号を得る技術があるが、この技術は薄型の撮像系を実現する上で極めて有効である。   In addition, there is a technique for generating an RGB image using a four-lens optical system and synthesizing these to obtain a video signal. This technique is extremely effective in realizing a thin imaging system.

特開2002−43555号公報JP 2002-43555 A

しかしながら、上記の3眼光学系或は4眼光学系を用いる方法では、光学系の持つ視差に起因して、被写体距離に応じたRGBの画像のずれが生じてしまう。このRGBの画像のずれは、出力画像の色ずれや鮮鋭度の低下を招き、好ましくない。   However, in the method using the above-described trinocular optical system or quadruple optical system, the RGB image shifts according to the subject distance due to the parallax of the optical system. This RGB image misalignment is not preferable because it causes a color misalignment of the output image and a decrease in sharpness.

本発明は上述した課題に鑑みてなされたものであり、その目的は、近接撮影時の画像の色ずれや鮮鋭度の低下を防ぐことができる撮像装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus capable of preventing image color shift and sharpness reduction during close-up photography.

上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、同一平面上に複数の撮像領域を備えた撮像素子と、該複数の撮像領域上に各々物体像を形成する撮影光学系と、前記撮像素子の出力信号を処理する画像処理手段とを具備し、前記撮像素子は同一のスペクトル分布で形成された略同一視野の第1及び第2の出力画像とを有し、前記出力信号の処理過程において、前記第1及び第2の画像の間隔変化に基づいて被写体距離を検出し、前記被写体検出距離が近接撮影と判断し得る所定値以上の場合、複数の撮像領域の何れかの単一画像を出力する手段を有することを特徴としている。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention forms an image with an imaging element having a plurality of imaging areas on the same plane, and an object image on each of the plurality of imaging areas. A photographing optical system; and image processing means for processing an output signal of the image pickup device, wherein the image pickup device has first and second output images having substantially the same field of view formed with the same spectral distribution. In the process of processing the output signal, when a subject distance is detected based on a change in the interval between the first and second images and the subject detection distance is greater than or equal to a predetermined value that can be determined as close-up photography, a plurality of imaging regions It has the means to output any single image of these.

本発明によれば、近接撮影時に、単一チャネル(モノクロモード)での画像出力に切り替えることで、色ずれを防止でき、解像度の低下を抑制することができる。   According to the present invention, during close-up shooting, switching to image output in a single channel (monochrome mode) can prevent color misregistration and suppress a reduction in resolution.

以下に本発明の実施の形態を添付図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

<実施の形態1>
図2は本発明の実施の形態1に係るデジタルカメラの外観を示す図、図2(a)はカメラの表面図、図2(b)はカメラの裏面図である。
<Embodiment 1>
2A and 2B are views showing the appearance of the digital camera according to Embodiment 1 of the present invention, FIG. 2A is a front view of the camera, and FIG. 2B is a rear view of the camera.

図2において、201はカード型のカメラ本体、202は撮像画像を表示する液晶モニタ、203は使用者がカメラの状態をセットするためのスイッチ類、204は使用者がカメラを保持するグリップ部、205はレリーズボタンである。   In FIG. 2, 201 is a card-type camera body, 202 is a liquid crystal monitor for displaying a captured image, 203 is a switch for the user to set the camera state, 204 is a grip unit for the user to hold the camera, Reference numeral 205 denotes a release button.

206は撮像系であり、207の断面図で示す構造を持つ。撮像系207は、保護ガラス209、絞り208、光学フィルター210、撮影レンズ102、撮像素子103により構成される。   Reference numeral 206 denotes an imaging system, which has a structure shown by a sectional view 207. The imaging system 207 includes a protective glass 209, a diaphragm 208, an optical filter 210, a photographing lens 102, and an imaging element 103.

ここで、撮影光学系の基本要素は撮影レンズ102、絞り208、固体撮像素子103であり、撮像系207は緑色(G)画像信号、赤色(R)画像信号、青色(B)画像信号を別々に得るための4つの光学系を備えている。   Here, the basic elements of the photographic optical system are the photographic lens 102, the diaphragm 208, and the solid-state image sensor 103. The imaging system 207 separates the green (G) image signal, the red (R) image signal, and the blue (B) image signal. Four optical systems for obtaining the above are provided.

このシステムで想定している物体距離は数mと結像系の光路長に比して極めて大きいので、想定物体距離に対して入射面をアプラナチックとすると入射面は極めて小さな曲率を持つ凹面であり、ここでは平面で置き換えている。この撮影レンズ102は、4つのレンズ部102a,102b,102c,102dを有し、これらは輪帯状の球面で構成されている。このレンズ部102a,102b,102c,102d上には670nm以上の波長域について低い透過率を持たせた赤外線カットフィルターが形成されている。   The object distance assumed in this system is several meters, which is very large compared to the optical path length of the imaging system. Therefore, if the incident surface is aplanatic with respect to the assumed object distance, the incident surface is a concave surface with a very small curvature. Here, the plane is replaced. The photographic lens 102 has four lens portions 102a, 102b, 102c, and 102d, each of which is constituted by a ring-shaped spherical surface. On this lens part 102a, 102b, 102c, 102d, the infrared cut filter which gave the low transmittance | permeability about the wavelength range of 670 nm or more is formed.

4つのレンズ部102a,102b,102c,102dのそれぞれが結像系であって、後述するように、レンズ部012aと102dが緑色(G)画像信号用、レンズ部102bが赤色(R)画像信号用、レンズ部102cが青色(B)画像信号用となる。又、RGBの各代表波長における焦点距離は全て1.45mmとする。   Each of the four lens portions 102a, 102b, 102c, and 102d is an imaging system, and as will be described later, the lens portions 012a and 102d are for a green (G) image signal, and the lens portion 102b is a red (R) image signal. The lens portion 102c is for blue (B) image signals. Further, the focal lengths at the respective representative wavelengths of RGB are all 1.45 mm.

次に、絞り208は4つの円形開口208a,208b,208c,208dを有する。この各々から撮影レンズ102の光入射面に入射した物体光は、4つのレンズ部102a,102b,102c,102dから射出して、固体撮像素子103の撮像面上に4つの物体像を形成する。絞り208と光入射面及び固体撮像素子103の撮像面は平行に配置されている。絞り208と4つのレンズ部102a,102b,102c,102dとは、ツィンケン・ゾンマーの条件を満たす位置関係、即ち、コマ収差と非点収差を同時に除く位置関係に設定されている。
Next, the diaphragm 208 has four circular openings 208a, 208b, 208c, 208d. The object light incident on the light incident surface of the photographing lens 102 from each of these is emitted from the four lens portions 102 a, 102 b, 102 c, and 102 d to form four object images on the imaging surface of the solid-state image sensor 103. The diaphragm 208, the light incident surface, and the imaging surface of the solid-state imaging device 103 are arranged in parallel. The diaphragm 208 and the four lens portions 102a, 102b, 102c, and 102d are set in a positional relationship that satisfies the condition of Zinken-Sommer, that is, a positional relationship that simultaneously removes coma and astigmatism.

光学フィルター210aと210dは図3にGで示した主に緑色を透過する分光透過率特性を有し、光学フィルター210bはBで示した主に青色を透過する分光透過率特性を有し、更に、光学フィルター210cはRで示した主に赤色を透過する分光透過率特性を有している。即ち、これらは原色フィルターである。レンズ部102a,102b,102c,102dに形成されている赤外線カットフィルターの特性との積として、イメージサークルに形成されている物体像はそれぞれ、緑色光成分、緑色光成分、赤色光成分によるものとなる。   The optical filters 210a and 210d have a spectral transmittance characteristic that mainly transmits green as indicated by G in FIG. 3, the optical filter 210b has a spectral transmittance characteristic that mainly transmits blue, indicated by B, and The optical filter 210c has a spectral transmittance characteristic indicated by R, which mainly transmits red. That is, these are primary color filters. As a product of the characteristics of the infrared cut filters formed on the lens portions 102a, 102b, 102c, and 102d, the object images formed on the image circle are respectively formed of a green light component, a green light component, and a red light component. Become.

各結像系に各スペクトル分布の代表波長について略同一の焦点距離を設定すれば、これらの画像信号を合成することにより良好に色収差の補正されたカラー画像を得ることができる。通常、色収差を除去する色消しは、分散の異なる少なくとも2枚のレンズの組み合わせが必要である。これに対して、各結像系が1枚構成であることによるコストダウン効果がある。更に、撮像系の薄型化への効果が大きくなる。   If substantially the same focal length is set for each wavelength of the representative wavelength of each spectral distribution in each imaging system, a color image in which chromatic aberration is corrected can be obtained by combining these image signals. Ordinarily, achromatism for removing chromatic aberration requires a combination of at least two lenses having different dispersions. On the other hand, there is a cost reduction effect due to the fact that each imaging system has a single structure. Further, the effect of thinning the imaging system is increased.

一方、固体撮像素子103の4つの撮像領域103a,103b,103c,103d上にも又光学フィルターが形成されている。尚、撮像領域103aと103dの分光透過率特性は図3にGで示したもの、撮像領域103bの分光透過率特性は図3にBで示したもの、撮像領域103cの分光透過率特性は図10にRで示したものである。つまり、撮像領域103aと103dは緑色光(G)に対して、撮像領域103bは青色光(B)に対して、撮像領域820cは赤色光(R)に対して感度を持つ。   On the other hand, optical filters are also formed on the four imaging regions 103a, 103b, 103c, and 103d of the solid-state imaging device 103. The spectral transmittance characteristics of the imaging regions 103a and 103d are indicated by G in FIG. 3, the spectral transmittance characteristic of the imaging region 103b is indicated by B in FIG. 3, and the spectral transmittance characteristics of the imaging region 103c are shown in FIG. This is indicated by R in FIG. That is, the imaging regions 103a and 103d are sensitive to green light (G), the imaging region 103b is sensitive to blue light (B), and the imaging region 820c is sensitive to red light (R).

各撮像領域の受光スペクトル分布は瞳と撮像領域の分光透過率の積として与えられるため、イメージサークルの重なりがあっても、結像系の瞳と撮像領域の組み合わせは波長域によってほぼ選択される。   Since the received light spectrum distribution of each imaging region is given as the product of the spectral transmittance of the pupil and the imaging region, the combination of the imaging system pupil and the imaging region is almost selected by the wavelength region even if there are overlapping image circles. .

更に、撮像領域103a,103b,103c,103dの上にはマイクロレンズが各画素の受光部毎に形成されている。マイクロレンズは固体撮像素子103の受光部に対して偏心した配置をとり、その偏心量は各撮像領域103a,103b,103c,103dの中央でゼロ、周辺に行くほど大きくなるように設定されている。又、偏心方向は各撮像領域103a,103b,103c,103dの中央の点と各受光部を結ぶ線分の方向である。   Furthermore, a microlens is formed for each light receiving portion of each pixel on the imaging regions 103a, 103b, 103c, and 103d. The microlens is arranged eccentrically with respect to the light receiving portion of the solid-state imaging device 103, and the amount of eccentricity is set to be zero at the center of each imaging region 103a, 103b, 103c, 103d and to increase toward the periphery. . The eccentric direction is the direction of the line segment connecting the center point of each imaging region 103a, 103b, 103c, 103d and each light receiving unit.

先に説明した、波長域を利用して各撮像領域に対して選択的に瞳を割り当てる手法に加えて、マイクロレンズを利用して各撮像領域に対して選択的に瞳を割り当てる手法をも適用し、絞りの開口208aを通過した物体光は撮像領域103aで光電変換され、絞りの開口208bを通過した物体光は撮像領域103bで光電変換され、絞りの開口208cを通過した物体光は撮像領域103cで光電変換され、更に、絞りの開口208dを通過した物体光は撮像領域103dで光電変換される。従って、撮像領域103aと103dはG画像信号を、撮像領域103bはB画像信号を、撮像領域103cはR画像信号を出力することになる。   In addition to the method for selectively assigning pupils to each imaging region using the wavelength range described above, the method for selectively assigning pupils to each imaging region using a microlens is also applied. The object light that has passed through the aperture opening 208a is photoelectrically converted in the imaging area 103a, the object light that has passed through the aperture opening 208b is photoelectrically converted in the imaging area 103b, and the object light that has passed through the aperture opening 208c is captured in the imaging area. The object light that has undergone photoelectric conversion at 103c and has passed through the aperture 208d of the diaphragm is photoelectrically converted by the imaging region 103d. Therefore, the imaging areas 103a and 103d output a G image signal, the imaging area 103b outputs a B image signal, and the imaging area 103c outputs an R image signal.

不図示の画像処理系は、固体撮像素子103の複数の撮像領域が、各々複数の物体像の1つから得た選択的光電変換出力に基づいてカラー画像を形成する。この際、各結像系の歪曲を演算上で補正し、比視感度のピーク波長555nmを含むG画像信号を基準としてカラー画像を形成するための信号処理を行う。G物体像は2つの撮像領域103aと103dに形成されるため、その画素数はR画像信号やB画像信号に比べて2倍となり、視感度の高い波長域で特に高精細な画像を得ることができるようになっている。この際、固体撮像素子の撮像領域103aと103d上の物体像を相互に上下左右1/2画素分ずらすことにより、少ない画素数で解像度を上げる画素ずらしという手法を用いることができる。   In an image processing system (not shown), a plurality of imaging regions of the solid-state imaging device 103 form color images based on selective photoelectric conversion outputs obtained from one of a plurality of object images. At this time, distortion of each imaging system is corrected in calculation, and signal processing for forming a color image is performed on the basis of the G image signal including the peak wavelength 555 nm of the relative visibility. Since the G object image is formed in the two imaging regions 103a and 103d, the number of pixels is twice that of the R image signal and the B image signal, and a particularly high-definition image can be obtained in a wavelength region with high visibility. Can be done. At this time, by shifting the object images on the imaging regions 103a and 103d of the solid-state imaging device by ½ pixel in the vertical and horizontal directions, it is possible to use a method of pixel shifting that increases the resolution with a small number of pixels.

ここで、単一の撮影レンズを用いる撮像系との比較において、固体撮像素子の画素ピッチを固定して考えると、固体撮像素子上に2×2画素を一組としてRGBカラーフィルターを形成したベイヤー配列方式に比較し、この方式は物体像の大きさが1/√4になる。これに伴って撮影レンズの焦点距離はおおよそ1/√4=1/2にまで短くなる。従って、カメラの薄型化に対して極めて有利となる。   Here, in comparison with an imaging system using a single photographic lens, when the pixel pitch of the solid-state imaging device is fixed, a Bayer in which an RGB color filter is formed on a solid-state imaging device with 2 × 2 pixels as a set. Compared to the arrangement method, this method has an object image size of 1 / √4. As a result, the focal length of the photographic lens is reduced to approximately 1 / √4 = 1/2. Therefore, it is extremely advantageous for making the camera thinner.

次に、信号処理系の概略構成を説明する。   Next, a schematic configuration of the signal processing system will be described.

図1は本発明の信号処理系のブロック図である。本カメラは、CCD或はCMOSセンサ等の固体撮像素子103を用いたシステムであり、固体撮像素子103を連続的又は単発的に駆動して動画像又は静止画像を形成し得る画像信号を得る。ここで、固体撮像素子103とは、露光した光を各画素毎に電気信号に変換してその光量に応じた電荷をそれぞれ蓄積し、その電荷を読み出すタイブの撮像デバイスである。   FIG. 1 is a block diagram of a signal processing system of the present invention. This camera is a system using a solid-state image sensor 103 such as a CCD or CMOS sensor, and obtains an image signal that can form a moving image or a still image by driving the solid-state image sensor 103 continuously or once. Here, the solid-state imaging device 103 is a type of imaging device that converts exposed light into an electrical signal for each pixel, accumulates charges according to the amount of light, and reads the charges.

尚、図面には本発明に直接関係する部分のみが示されており、本発明に直接関係しない部分は図示とその説明を省略する。   In the drawings, only the portions directly related to the present invention are shown, and the portions not directly related to the present invention are not shown and described.

図1に示すように、本カメラシステムは、撮像レンズ102と、撮像素子103と、A/D変換器104、RGB画像形成処理回路107と、複数の撮像領域のうちの単一の領域の出力信号より画像を形成する単一エリア画像形成処理回路、YC処理回路110、RGB画像形成処理回路の出力信号と単一エリア画像形成処理回路の出力信号とを切り替える出力信号切り替え回路108と、被写体との距離を検出する被写体距離検出回路109とを有する。   As shown in FIG. 1, the camera system includes an imaging lens 102, an imaging element 103, an A / D converter 104, an RGB image formation processing circuit 107, and an output of a single area among a plurality of imaging areas. A single area image forming processing circuit for forming an image from the signal, a YC processing circuit 110, an output signal switching circuit for switching an output signal of the RGB image forming processing circuit and an output signal of the single area image forming processing circuit, A subject distance detection circuit 109 for detecting the distance of the subject.

物体からの光束101は、絞り208、撮影レンズ102を介して固体撮像素子103の撮像面に結像され、被写体像は固体撮像素子103に露光される。前述のように、固体撮像素子103は、CCDやCMOSセンサ等の撮像デバイスが有効に適用され、固体撮像素子103の露光時間及び露光間隔を制御することにより、連続した動画像を表わす画像信号、又は1回の露光による静止画像を表わす画像信号を得ることができる。   The light beam 101 from the object is imaged on the imaging surface of the solid-state image sensor 103 through the diaphragm 208 and the photographing lens 102, and the subject image is exposed to the solid-state image sensor 103. As described above, an imaging device such as a CCD or CMOS sensor is effectively applied to the solid-state imaging device 103, and an image signal representing a continuous moving image by controlling the exposure time and the exposure interval of the solid-state imaging device 103, Alternatively, an image signal representing a still image by one exposure can be obtained.

前述のように撮像素子103は、例えば、各撮像領域毎に長辺方向に800画素、短辺方向に600画素を有し、合計192万の画素数を有する撮像デバイスであり、その前面には赤色(R)、緑色(G)、青色(B)の3原色の光学フィルターが所定の領域毎に配置されている。   As described above, the imaging device 103 is an imaging device having, for example, 800 pixels in the long side direction and 600 pixels in the short side direction for each imaging region, and has a total of 19.2 million pixels. Optical filters of the three primary colors of red (R), green (G), and blue (B) are arranged for each predetermined region.

固体撮像素子103から読み出された画像信号は、それぞれA/D変換器104を介して画像処理系106,107に供給される。A/D変換器104は、露光した各画素の信号の振幅に応じて、例えば、10ビットのデジタル信号に変換して出力する信号変換回路であり、以降の画像信号処理はデジタル処理にて実現される。   Image signals read from the solid-state image sensor 103 are supplied to the image processing systems 106 and 107 via the A / D converter 104, respectively. The A / D converter 104 is a signal conversion circuit that converts and outputs, for example, a 10-bit digital signal according to the amplitude of the signal of each exposed pixel, and subsequent image signal processing is realized by digital processing. Is done.

RGB画像形成処理回路107は、R,G,Bのデジタル信号から所望の形式の画像信号を得る信号処理回路であり、YC処理回路110と合わせて、R,G,Bの色信号を輝度信号Y及び色差信号(R−Y),(B−Y)にて表わされるYC信号等に変換する。   The RGB image formation processing circuit 107 is a signal processing circuit that obtains an image signal in a desired format from R, G, and B digital signals. Together with the YC processing circuit 110, the RGB image formation processing circuit 107 converts the R, G, and B color signals into luminance signals. Y and YC signals represented by color difference signals (R−Y) and (B−Y) are converted.

RGB画像形成処理回路107は、A/D変換器104を介して固体撮像素子103から受けた800×600×4画素の画像信号を処理する信号処理回路であり、ホワイトバランス回路、ガンマ補正回路、補間演算による高解像度化を行う補間演算回路を有する。   The RGB image formation processing circuit 107 is a signal processing circuit that processes an image signal of 800 × 600 × 4 pixels received from the solid-state imaging device 103 via the A / D converter 104, and includes a white balance circuit, a gamma correction circuit, It has an interpolation calculation circuit for increasing the resolution by interpolation calculation.

YC処理回路110は、輝度信号Yおよび色差信号R−Y,B−Yを生成する信号処理回路である。高域輝度信号YHを生成する高域輝度信号発生回路、低域輝度信号YLを生成する低域輝度信号発生回路及び色差信号R−Y,B−Yを生成する色差信号発生回路で構成されている。輝度信号Yは、高域輝度信号YHと低域輝度信号YLを合成することによって形成される。   The YC processing circuit 110 is a signal processing circuit that generates a luminance signal Y and color difference signals RY and BY. A high-frequency luminance signal generation circuit that generates a high-frequency luminance signal YH, a low-frequency luminance signal generation circuit that generates a low-frequency luminance signal YL, and a color difference signal generation circuit that generates color difference signals RY and BY. Yes. The luminance signal Y is formed by combining the high frequency luminance signal YH and the low frequency luminance signal YL.

不図示の記録再生回路では、メモリへの画像信号の出力と、液晶モニタ202への画像信号の出力とを行う処理系を有し、メモリへの画像信号の書き込み及び読み出し処理を行う記録処理回路と、メモリから読み出した画像信号を再生して、モニタ等への出力信号を形成する再生処理回路とを含む。より詳細には、記録処理回路は、静止画像及び動画像を表わすYC信号を所定の圧縮形式にて圧縮し、又、圧縮データを読み出した際に伸張する圧縮伸張回路を含んでいる。圧縮伸張回路は、信号処理のためのフレームメモリ等を有し、このフレームメモリに画像処理回路からのYC信号をフレーム毎に蓄積して、それぞれ複数のブロック毎に読み出して圧縮符号化する。圧縮符号化は、例えば、ブロック毎の画像信号を2次元直交変換、正規化及びハフマン符号化することにより行う。   A recording / reproducing circuit (not shown) has a processing system for outputting an image signal to the memory and outputting the image signal to the liquid crystal monitor 202, and performs a process for writing and reading the image signal to and from the memory. And a reproduction processing circuit for reproducing an image signal read from the memory and forming an output signal to a monitor or the like. More specifically, the recording processing circuit includes a compression / expansion circuit that compresses YC signals representing still images and moving images in a predetermined compression format, and expands the compressed data when it is read out. The compression / decompression circuit has a frame memory or the like for signal processing. The YC signal from the image processing circuit is stored in the frame memory for each frame, and is read and compressed and encoded for each of a plurality of blocks. The compression coding is performed by, for example, performing two-dimensional orthogonal transformation, normalization, and Huffman coding on the image signal for each block.

再生処理回路は、輝度信号Y及び色差信号R−Y,B−Yをマトリックス変換し、例えば、RGB信号に変換する回路である。再生処理回路によって変換された信号は液晶モニタ202に出力され、可視画像が表示再生される。   The reproduction processing circuit is a circuit that performs matrix conversion of the luminance signal Y and the color difference signals RY and BY, for example, into RGB signals. The signal converted by the reproduction processing circuit is output to the liquid crystal monitor 202, and a visible image is displayed and reproduced.

不図示の制御系では、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する各部の制御回路を含み、レリーズボタン205の押下を検出して、撮像素子103の駆動、RGB画像処理回路106の動作、単一エリア画像形成回路107の動作、それらの切り替え回路108の制御、記録処理回路の圧縮処理等を制御する。   A control system (not shown) includes a control circuit for each part that controls the imaging system, the image processing system, and the recording / reproducing system in response to an external operation, detects the depression of the release button 205, and drives the imaging device 103. It controls the operation of the RGB image processing circuit 106, the operation of the single area image forming circuit 107, the control of the switching circuit 108, the compression processing of the recording processing circuit, and the like.

RGB画像処理回路107での処理は次のようなものである。   The processing in the RGB image processing circuit 107 is as follows.

即ち、A/D変換器104を介してR,G,B領域毎に出力されたRGB信号に対して、先ず、RGB画像処理回路内のホワイトバランス回路にてそれぞれ所定の白バランス調整を行い、更に、ガンマ補正回路にて所定のガンマ補正を行う。RGB画像処理回路107内の補間演算回路は、固体撮像素子103の画像信号に補間処理と歪曲補正を施すことによって1200×1600の解像度の画像信号をRGB毎に生成し、後段の高域輝度信号発生回路、低域輝度信号発生回路、色差信号発生回路に供給する。又、106は複数の撮像領域のうちの1つの出力信号に基づいて映像を形成する単一エリア映像形成回路であり、前記RGB処理回路に準じるホワイトバランス回路、ガンマ補正回路、高域輝度信号発生回路、低域輝度信号発生回路、色差信号発生回路等の処理回路を有する。   That is, with respect to the RGB signal output for each of the R, G, and B regions via the A / D converter 104, first, a predetermined white balance adjustment is performed by the white balance circuit in the RGB image processing circuit, Further, predetermined gamma correction is performed by a gamma correction circuit. An interpolation operation circuit in the RGB image processing circuit 107 generates an image signal having a resolution of 1200 × 1600 for each RGB by performing interpolation processing and distortion correction on the image signal of the solid-state imaging device 103, and the subsequent high-frequency luminance signal This is supplied to a generation circuit, a low luminance signal generation circuit, and a color difference signal generation circuit. Reference numeral 106 denotes a single area image forming circuit that forms an image based on an output signal of one of a plurality of image pickup areas. A white balance circuit, a gamma correction circuit, and a high luminance signal generation according to the RGB processing circuit. And a processing circuit such as a circuit, a low-frequency luminance signal generation circuit, and a color difference signal generation circuit.

ここで、図4に示すように、RGB画像処理回路107を使用し、近接撮影を行った場合、図4に示すように各領域の画像が一致せず(401)、解像度、鮮鋭度の低下を生じてしまう。そこで、或る所定量の画像ずれが生じた場合、複数の撮像領域のうちの1つの出力信号に基づいて映像を形成することにより、解像度煮の低下を防ぐことが可能となる(402)。   Here, as shown in FIG. 4, when close-up shooting is performed using the RGB image processing circuit 107, the images of the respective areas do not match as shown in FIG. 4 (401), and the resolution and sharpness are lowered. Will occur. Therefore, when a certain amount of image shift occurs, it is possible to prevent a decrease in resolution by forming an image based on one output signal of the plurality of imaging regions (402).

図5は像ずれ(被写体距離)を検出するために用いる撮像素子像の検出エリア設定を説明するための図である。   FIG. 5 is a diagram for explaining detection area setting of an image sensor image used for detecting image shift (subject distance).

図5において、501a,501b,501c,501dは固体撮像素子103の4つの撮像領域である。ここでは説明のため、撮像領域501a,501b,501c,501dの各々は8×6の領域の配列で構成している。撮像領域501a,501dはG画像信号を、撮像領域501bはB画像信号を、501cはR画像信号を出力する。撮像領域501a,501dは何れもG画像を出力するため、線分L502は撮像領域501aと501dとの光学中心503,504とを結ぶ線分であり、線分L502の下に位置する撮像領域501a,501dの画素領域の信号は類似した形となり、これらの相関を取ることにより撮像領域501a,501d間の画像ずれを検出することができる。   In FIG. 5, reference numerals 501 a, 501 b, 501 c, and 501 d denote four imaging regions of the solid-state imaging device 103. Here, for the sake of explanation, each of the imaging areas 501a, 501b, 501c, and 501d is configured by an array of 8 × 6 areas. The imaging areas 501a and 501d output G image signals, the imaging area 501b outputs B image signals, and 501c outputs R image signals. Since both the imaging areas 501a and 501d output a G image, the line segment L502 is a line segment connecting the optical centers 503 and 504 of the imaging areas 501a and 501d, and the imaging area 501a located below the line segment L502. , 501d pixel region signals have similar shapes, and by taking these correlations, it is possible to detect an image shift between the imaging regions 501a and 501d.

このような色特性において同一のスペクトル分布を有する1対の信号間の相対的変化量は、相関演算を用いた公知の手法を用いて検出することが可能である。   A relative change amount between a pair of signals having the same spectral distribution in such color characteristics can be detected using a known method using a correlation calculation.

図6は撮像領域501a,501dの画像ずれを検出法を示したもので、センサ605a,605bは、図5の線分L502の下に位置する画像領域を並べて構成されたものに相当する。被写体距離Aのとき、図7に示すように、センサ605a,605bの出力は一致する。しかし、被写体距離B,Cのとき、センサ出力は図8のように像ずれが生じる。このずれ量mを検出することにより、被写体距離を検出できる。   FIG. 6 shows a method for detecting image shifts in the imaging regions 501a and 501d. The sensors 605a and 605b correspond to a configuration in which image regions located below the line segment L502 in FIG. 5 are arranged. When the subject distance is A, the outputs of the sensors 605a and 605b match as shown in FIG. However, when the subject distances are B and C, the sensor output causes an image shift as shown in FIG. By detecting this deviation amount m, the subject distance can be detected.

次に、本カメラの動作を説明する。   Next, the operation of this camera will be described.

先ず、メインスイッチ211をオンとすると、各部に電源電圧が供給され、動作可能状態となる。   First, when the main switch 211 is turned on, a power supply voltage is supplied to each part, and an operation is enabled.

続いて、メモリに画像信号を記録可能かどうかが判定される。この際の残り容量、撮影可能枚数は、液晶モニタ202に表示される。   Subsequently, it is determined whether an image signal can be recorded in the memory. The remaining capacity and the number of images that can be taken at this time are displayed on the liquid crystal monitor 202.

その表示を見て、撮影者は撮影可能であれば、被写体にカメラを向け、レリーズボタン205を押下する。レリーズボタン205が押下されると、露光時間の算出を行うとともに、測距演算回路109により、被写体距離の演算が行われる。そこで検出された被写体距離が所定値以下の場合、近接撮影と判断し、液晶モニターに近接撮影モード(名刺撮影モード)切替の表示と、スイッチ108での出力信号の切り替えが行われ、単一エリア画像形成回路106により、単一エリアのみの画像を形成し、モノクロでの画像出力が行われる。   Looking at the display, if the photographer can shoot, the camera is pointed at the subject and the release button 205 is pressed. When the release button 205 is pressed, the exposure time is calculated and the distance calculation circuit 109 calculates the subject distance. If the detected object distance is equal to or smaller than the predetermined value, it is determined that the close-up shooting is performed, the close-up shooting mode (business card shooting mode) switching is displayed on the liquid crystal monitor, and the output signal is switched with the switch 108, and a single area is displayed. The image forming circuit 106 forms an image of only a single area and outputs a monochrome image.

又、スイッチ203は、近接撮影モード(名刺撮影モード)への切替を行うスイッチであり、強制的に前述の近接撮影モードへと切り替える。又は、近接撮影モード(名刺撮影モード)への通常モードへと強制的に切り替える。   The switch 203 is a switch for switching to the close-up shooting mode (business card shooting mode), and forcibly switches to the above-described close-up shooting mode. Alternatively, the mode is forcibly switched to the normal mode to the close-up mode (business card mode).

<実施の形態2>
図10は画像全体の露光評価値を得るための演算回路の画面分割を示したものであるが、この分割のうち、図5に示すように、G1,G2のそれぞれの光学中心位置を結ぶ直線上に位置する分割エリアの信号を使用することで、実施の形態1に相当する信号を得ることができる。この場合、検出ユニットには、G1,G2を時系列入力していくことで、検出を行う。
<Embodiment 2>
FIG. 10 shows the screen division of the arithmetic circuit for obtaining the exposure evaluation value of the entire image. Of these divisions, straight lines connecting the optical center positions of G1 and G2 as shown in FIG. A signal corresponding to the first embodiment can be obtained by using the signal of the divided area located above. In this case, detection is performed by inputting G1 and G2 to the detection unit in time series.

次に、本カメラの動作を説明する。   Next, the operation of this camera will be described.

先ず、メインスイッチ211をオンとすると、各部に電源電圧が供給され、動作可能状態となる。   First, when the main switch 211 is turned on, a power supply voltage is supplied to each part, and an operation is enabled.

続いて、メモリに画像信号を記録可能かどうかが判定される。この際の残り容量、撮影可能枚数は、液晶モニター202に表示される。   Subsequently, it is determined whether an image signal can be recorded in the memory. The remaining capacity and the number of images that can be taken at this time are displayed on the liquid crystal monitor 202.

その表示を見て、撮影者は撮影可能であれば、被写体にカメラを向け、レリーズボタンを押下する。レリーズボタンが押されると、測光処理・測距処理回路1101により、露光時間の算出を行うとともに、被写体距離の演算が行われる。その検出された被写体距離が、所定値以下の場合、近接撮影と判断し、液晶モニターに近接撮影モード(名刺撮影モード)切替の表示が行われ、単一エリアのみの画像により画像を形成し、モノクロでの画像出力が行われる。   Looking at the display, if the photographer can shoot, the camera is pointed at the subject and the release button is pressed. When the release button is pressed, the exposure time is calculated and the subject distance is calculated by the photometric processing / ranging processing circuit 1101. When the detected subject distance is less than or equal to the predetermined value, it is determined that the close-up shooting is performed, the close-up shooting mode (business card shooting mode) switching is displayed on the liquid crystal monitor, and an image is formed with an image of only a single area. Monochrome image output is performed.

又、スイッチ203は、近接撮影モード(名刺撮影モード)への切替を行うスイッチであり、強制的に前述の近接撮影モードへと切り替える。又は、近接撮影モード(名刺撮影モード)への通常モードへと強制的に切り替える。   The switch 203 is a switch for switching to the close-up shooting mode (business card shooting mode), and forcibly switches to the above-described close-up shooting mode. Alternatively, the mode is forcibly switched to the normal mode to the close-up mode (business card mode).

<実施の形態3>
図9は広く知られている測距センサの一例であるが、このような、外部センサ、例えば、超音波やLED光を被写体に投射して距離を検出するアクティブ型側距センサを使用し、被写体距離を検出し、近接撮影モード(名刺撮影モード)への切替を行う手法も考えられる。この場合のシステムの基本的な構成は図1に示すものと同等である。
<Embodiment 3>
FIG. 9 shows an example of a well-known distance measuring sensor. Such an external sensor, for example, an active side distance sensor that detects a distance by projecting ultrasonic waves or LED light onto a subject is used. A method of detecting the subject distance and switching to the close-up shooting mode (business card shooting mode) is also conceivable. The basic configuration of the system in this case is the same as that shown in FIG.

ここで、撮像レンズを通過した光束は、被写体の距離に応じて相対的な位置関係が変化し、センサ出力に反映される。センサユニット901は、センサ列902a,902bとを有し、異なる瞳領域を通過した光束による2像がセンサ列902a,902bの受光面上に形成され、センサ駆動装置903からの制御信号により像の光量分布に応じた電荷の蓄積及び転送を行う。センサ駆動装置903からの信号により時系列的に蓄積された電荷に基づいた光電変換信号をA/D変換器904でデジタル信号に変換し、被写体距路演算手段905により被写体距離を検出している。   Here, the relative positional relationship of the light flux that has passed through the imaging lens changes according to the distance of the subject, and is reflected in the sensor output. The sensor unit 901 includes sensor rows 902a and 902b. Two images of light beams that have passed through different pupil regions are formed on the light receiving surfaces of the sensor rows 902a and 902b. Accumulation and transfer of charges according to the light quantity distribution are performed. A photoelectric conversion signal based on the electric charge accumulated in time series by the signal from the sensor driving device 903 is converted into a digital signal by the A / D converter 904, and the object distance calculation means 905 detects the object distance. .

本発明を説明するためのブロック図である。It is a block diagram for demonstrating this invention. 本発明を説明するためのデジタルカメラの図である。It is a figure of the digital camera for demonstrating this invention. 光学フィルターの分光透過率特性を表す図である。It is a figure showing the spectral transmittance characteristic of an optical filter. 視差による像ずれを表す図である。It is a figure showing the image shift by parallax. 視差による像ずれの方向を表す図である。It is a figure showing the direction of the image shift by parallax. 被写体距離に応じた視差による像ずれを表す図である。It is a figure showing the image shift by the parallax according to a to-be-photographed object distance. 合焦時のセンサー出力を示す図である。It is a figure which shows the sensor output at the time of focusing. 非合焦時のセンサー出力を示す図である。It is a figure which shows the sensor output at the time of a non-focusing. 位相差式測距センサーのブロック図である。It is a block diagram of a phase difference type distance measuring sensor. 本発明を説明するための露光量検出ユニットの検出枠設定を表す図である。It is a figure showing the detection frame setting of the exposure amount detection unit for demonstrating this invention. 本発明を説明するためのブロック図である。It is a block diagram for demonstrating this invention.

符号の説明Explanation of symbols

101 光束
102 撮像レンズ
103 撮像素子
104 A/D変換器
107 RGB画像形成処理回路
108 出力信号切り替え回路
109 被写体距離検出回路
110 YC処理回路
201 カメラ本体
202 液晶モニタ
203 スイッチ類
204 グリップ部
205 レリーズボタン
206 撮像系
207 撮像系
208 絞り
209 保護ガラス
210 光学フィルター
DESCRIPTION OF SYMBOLS 101 Light beam 102 Imaging lens 103 Image pick-up element 104 A / D converter 107 RGB image formation processing circuit 108 Output signal switching circuit 109 Subject distance detection circuit 110 YC processing circuit 201 Camera main body 202 Liquid crystal monitor 203 Switches 204 Grip part 205 Release button 206 Imaging system 207 Imaging system 208 Aperture 209 Protective glass 210 Optical filter

Claims (5)

被写体像を異なる位置から取り込むための複数の開口と、該複数の開口より取り込んだ外光をそれぞれ別個に受光し、該別個に受光する外光毎に所定の色成分を抽出する複数の撮像手段と、該撮像手段の出力信号を処理する画像処理手段とを備え、
該画像処理手段は、前記複数の撮像手段の出力信号に基づく合成映像を形成する合成映像形成手段と、前記複数の撮像手段のうちの1つの出力信号に基づいて映像を形成する単一映像形成手段を有し、出力画像として、合成映像形成手段の出力画像と単一映像形成手段の出力画像とを切り替える機能を有することを特徴とする撮像装置。
A plurality of apertures for capturing subject images from different positions and a plurality of imaging means for separately receiving external light captured from the plurality of apertures and extracting a predetermined color component for each external light received separately And image processing means for processing the output signal of the imaging means,
The image processing means includes a composite video forming means for forming a composite video based on output signals of the plurality of imaging means, and a single video formation for forming a video based on one output signal of the plurality of imaging means. An image pickup apparatus having a function of switching between an output image of a composite video forming unit and an output image of a single video forming unit as an output image.
被写体像までの距離を検出する被写体距離検出手段を備え、前記被写体距離検出手段の出力に応じて、合成映像形成手段の出力画像と単一映像形成手段の出力画像とを切り替える機能を有することを特徴とする請求項1記載の撮像装置。   A subject distance detecting unit that detects a distance to the subject image, and having a function of switching between an output image of the composite video forming unit and an output image of the single video forming unit according to the output of the subject distance detecting unit; The imaging apparatus according to claim 1, wherein: 前記被写体距離検出手段は、前記複数の撮像手段の同一の色成分を抽出した複数の撮像手段からの映像信号を比較することにより前記被写体距離を検出することを特徴とする請求項2記載の撮像装置。   3. The imaging according to claim 2, wherein the subject distance detection unit detects the subject distance by comparing video signals from a plurality of imaging units that have extracted the same color component of the plurality of imaging units. apparatus. 被写体の露光量を制御する露光制御手段と、露光量を検出する露光量検出手段とを有し、前記被写体距離検出手段と露光量検出手段とは同一検出手段を共有することを特徴とする請求項3記載の撮像装置。   An exposure control means for controlling the exposure amount of the subject and an exposure amount detection means for detecting the exposure amount, wherein the subject distance detection means and the exposure amount detection means share the same detection means. Item 4. The imaging device according to Item 3. 近接撮影を指示する近接撮影指示手段を有し、該近接撮影指示手段の状態により、合成映像形成手段の出力画像と単一映像形成手段の出力画像とを切り替える機能を有することを特徴とする請求項1記載の撮像装置。   And a function of switching between an output image of the composite video forming unit and an output image of the single video forming unit according to a state of the close-up shooting instruction unit. Item 2. The imaging device according to Item 1.
JP2004262110A 2004-09-09 2004-09-09 Imaging device Withdrawn JP2006080838A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262110A JP2006080838A (en) 2004-09-09 2004-09-09 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262110A JP2006080838A (en) 2004-09-09 2004-09-09 Imaging device

Publications (1)

Publication Number Publication Date
JP2006080838A true JP2006080838A (en) 2006-03-23

Family

ID=36159935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262110A Withdrawn JP2006080838A (en) 2004-09-09 2004-09-09 Imaging device

Country Status (1)

Country Link
JP (1) JP2006080838A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3015892A4 (en) * 2013-06-26 2017-01-25 Olympus Corporation Image pickup device and image pickup method
JP2017506459A (en) * 2014-02-07 2017-03-02 ソニー株式会社 Method and apparatus for reducing color fringes in composite images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3015892A4 (en) * 2013-06-26 2017-01-25 Olympus Corporation Image pickup device and image pickup method
JP2017506459A (en) * 2014-02-07 2017-03-02 ソニー株式会社 Method and apparatus for reducing color fringes in composite images

Similar Documents

Publication Publication Date Title
US7262799B2 (en) Image sensing apparatus and its control method, control program, and storage medium
US9172862B2 (en) Information processing device, information processing method, and program
US6882368B1 (en) Image pickup apparatus
US7112779B2 (en) Optical apparatus and beam splitter
JP2002209226A (en) Imaging device
US8564686B2 (en) Imaging apparatus, imaging apparatus body, and shading correcting method
JP5133533B2 (en) Imaging device
JP5504874B2 (en) Imaging device and imaging apparatus
JP2004191893A (en) Imaging apparatus
JP4253634B2 (en) Digital camera
JP3703424B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND STORAGE MEDIUM
US12075169B2 (en) Image sensor and imaging device
JP5781021B2 (en) LENS DEVICE AND IMAGING DEVICE
JP3397754B2 (en) Imaging device
JP2001078212A (en) Image pickup device
JP2001078213A (en) Imaging device
JPWO2013047141A1 (en) Imaging device and imaging apparatus
JP2002158913A (en) Imaging device and imaging method
JP3397397B2 (en) Imaging device
JP2006080838A (en) Imaging device
JP2023105766A (en) Image processing device, image processing method, and program
US8842203B2 (en) Solid-state imaging device and imaging apparatus
JP3397756B2 (en) Imaging device
US20250287114A1 (en) Imaging apparatus, imaging method, and storage medium
JP2001078215A (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060201

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204