JP2011227388A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2011227388A JP2011227388A JP2010098895A JP2010098895A JP2011227388A JP 2011227388 A JP2011227388 A JP 2011227388A JP 2010098895 A JP2010098895 A JP 2010098895A JP 2010098895 A JP2010098895 A JP 2010098895A JP 2011227388 A JP2011227388 A JP 2011227388A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- image
- pixel
- pixels
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
Description
本発明は、複数の焦点検出用画素を有する撮像素子を備えた撮像装置に関する。 The present invention relates to an imaging apparatus including an imaging device having a plurality of focus detection pixels.
撮影レンズの焦点状態を検出する方式の一つとして、センサの各画素にマイクロレンズが形成された2次元のセンサを用いて瞳分割方式の焦点検出を行う装置が、特許文献1に開示されている。また本出願人は、デジタルスチルカメラに用いられるCMOS型イメージセンサ(固体撮像装置)を用いて瞳分割方式の焦点検出を行う固体撮像装置を特許文献2に開示している。瞳分割方式の焦点検出方法では、撮影レンズの瞳の異なる領域を透過して生成された2つの像に対して相関演算を行うことにより、撮影レンズの焦点状態を検出している。 As one of methods for detecting the focus state of the photographing lens, Patent Document 1 discloses an apparatus that performs pupil division type focus detection using a two-dimensional sensor in which a microlens is formed in each pixel of the sensor. Yes. Further, the present applicant discloses a solid-state imaging device that performs pupil division type focus detection using a CMOS image sensor (solid-state imaging device) used in a digital still camera. In the focus detection method of the pupil division method, the focus state of the photographic lens is detected by performing a correlation operation on two images that are transmitted through different areas of the pupil of the photographic lens.
瞳ケラレによって2つの像の相関方向の光量分布が異なってくると、2つの像の対応する被写体像の出力波形に非対称性が生じ、相関演算に誤差が生じる。このような現象を回避するため、2つの像の相関方向の光量分布を予め予測し、得られた像をシェーディング補正する方法が用いられる。また、基線長を予め計算してピントズレ量を算出する方法が用いられる。特許文献3では、瞳ケラレの形状をレンズの種類や像高などのパラメータから予測する方法が取られている。また、特許文献4では、カメラに格納された特定のフィルタを口径比(F値)、射出瞳位置、像ズレ量によって変形し、該変形フィルタ(像修正フィルタ)を被写体像に適応したのち結像状態を検出する技術が開示されている。 When the light quantity distribution in the correlation direction of the two images differs due to pupil vignetting, an asymmetry occurs in the output waveform of the corresponding subject image of the two images, and an error occurs in the correlation calculation. In order to avoid such a phenomenon, a method is used in which the light quantity distribution in the correlation direction between two images is predicted in advance, and the obtained image is subjected to shading correction. Further, a method of calculating the amount of focus shift by calculating the baseline length in advance is used. In Patent Document 3, a method for predicting the shape of pupil vignetting from parameters such as the type of lens and image height is taken. In Patent Document 4, a specific filter stored in a camera is deformed by an aperture ratio (F value), an exit pupil position, and an image shift amount, and the deformation filter (image correction filter) is applied to a subject image. A technique for detecting an image state is disclosed.
特許文献5では、レンズ内の絞り位置において、通常絞り開口以外に、2つの開口となる特殊開口を切り替え可能にし、瞳ケラレの形状をレンズの瞳開口形状に合わせる方法が開示されている。また特許文献6では、レンズの絞り羽根によって絞り開口を2つの開口に形状変更して、瞳ケラレの形状をレンズの瞳開口形状に合わせる方法が開示されている。 Patent Document 5 discloses a method in which two apertures other than the normal aperture can be switched at the aperture position in the lens so that the pupil vignetting shape matches the pupil aperture shape of the lens. Patent Document 6 discloses a method of changing the shape of the aperture opening into two apertures by using the aperture blades of the lens so that the shape of pupil vignetting matches the shape of the pupil aperture of the lens.
レンズ交換が可能なカメラでは、レンズの種類や像高に対して瞳ケラレの形状が多種多様であり、シェーディング補正を行うためのデータ量やパラメータ数が多く、多大な演算能力が必要となる。また、複雑なケラレ形状の場合には予測値と実際の光量値との間に誤差が生じやすく、所望のシェーディング補正の精度を確保することが困難となる。 A camera capable of exchanging lenses has a wide variety of pupil vignetting shapes with respect to lens types and image heights, requires a large amount of data and a large number of parameters for shading correction, and requires a great amount of computing power. Further, in the case of a complicated vignetting shape, an error is likely to occur between the predicted value and the actual light amount value, and it becomes difficult to ensure the accuracy of desired shading correction.
この点、特許文献5、6には、レンズ毎に特殊なレンズ開口(2つの開口)となる絞り機構を設ける内容が開示されている。しかしながら、特許文献5、6では、特殊レンズに対してはケラレ形状が簡略化されるが、一般的に市販されている光軸中心の丸に近い絞り開口によって撮影画像を取得するレンズでは、特許文献5、6のような2つの開口を構成できない。このため、特許文献5、6では、一般的に市販されているレンズに対してケラレ形状を簡略化することができない。 In this regard, Patent Documents 5 and 6 disclose the contents of providing a diaphragm mechanism that becomes a special lens opening (two openings) for each lens. However, in Patent Documents 5 and 6, the vignetting shape is simplified for a special lens, but in a lens that acquires a photographed image by a diaphragm aperture that is generally close to a circle at the center of the optical axis, it is patented. Two openings as in References 5 and 6 cannot be configured. For this reason, in Patent Documents 5 and 6, the vignetting shape cannot be simplified with respect to a generally commercially available lens.
本発明は、簡易な演算で高精度なシェーディング補正が可能な撮像装置を提供する。 The present invention provides an imaging apparatus capable of performing highly accurate shading correction with a simple calculation.
本発明の一側面としての撮像装置は、絞りおよび結像光学系を有するレンズユニットを通過した光束のうち射出瞳を分割して形成された像を光電変換する複数の焦点検出用画素を有する撮像手段と、前記複数の焦点検出用画素から一対の像信号を取得して前記結像光学系の焦点状態を検出する焦点検出手段と、前記焦点検出手段による前記焦点状態の検出の際に、前記焦点検出用画素の位置での射出瞳の開口の形状が前記絞りの開口の形状に依存するように前記絞りを制御する制御手段とを有する。 An image pickup apparatus according to an aspect of the present invention includes an image pickup device having a plurality of focus detection pixels that photoelectrically convert an image formed by dividing an exit pupil of a light beam that has passed through a lens unit having a diaphragm and an imaging optical system. A focus detection unit that acquires a pair of image signals from the plurality of focus detection pixels to detect a focus state of the imaging optical system, and the focus detection unit detects the focus state by the focus detection unit. Control means for controlling the diaphragm so that the shape of the exit pupil opening at the position of the focus detection pixel depends on the shape of the aperture of the diaphragm.
本発明の他の側面としての撮像方法は、絞りおよび結像光学系を有するレンズユニットを通過した光束のうち射出瞳を分割して形成された像を複数の焦点検出用画素により光電変換する工程と、前記複数の焦点検出用画素から一対の像信号を取得して前記結像光学系の焦点状態を検出する工程と、前記焦点状態の検出の際に、前記焦点検出用画素の位置での射出瞳の開口の形状が前記絞りの開口の形状に依存するように前記絞りを制御する工程とを有する。 An imaging method according to another aspect of the present invention includes a step of photoelectrically converting an image formed by dividing an exit pupil out of a light beam that has passed through a lens unit having a diaphragm and an imaging optical system, using a plurality of focus detection pixels. Obtaining a pair of image signals from the plurality of focus detection pixels and detecting a focus state of the imaging optical system; and at the time of detecting the focus state, at the position of the focus detection pixel And controlling the aperture so that the shape of the exit pupil aperture depends on the aperture aperture shape.
本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the present invention are illustrated in the following examples.
本発明によれば、簡易な演算で高精度なシェーディング補正が可能な撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus capable of highly accurate shading correction with a simple calculation.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.
図1は、本実施例における焦点検出装置を備えたカメラ200(撮像装置)の構成図である。図1において、100は絞りおよび結像光学系(撮影光学系)を有するレンズユニットである。レンズユニット100は、カメラ本体に着脱可能なものであっても着脱可能でないものであってもよい。101は撮影光学系の先端に配置された第1レンズ群であり、光軸方向に進退可能に保持される。102は絞り兼用シャッタ(絞り)であり、その開口径を調節することで撮影時の光量調節を行い、また、静止画撮影時に露光秒時調節用シャッタとして機能する。103は第2レンズ群である。絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍機能(ズーム機能)を有する。 FIG. 1 is a configuration diagram of a camera 200 (imaging device) provided with a focus detection device in the present embodiment. In FIG. 1, reference numeral 100 denotes a lens unit having a stop and an imaging optical system (imaging optical system). The lens unit 100 may be detachable from the camera body or not. Reference numeral 101 denotes a first lens group disposed at the tip of the photographing optical system, and is held so as to be able to advance and retract in the optical axis direction. Reference numeral 102 denotes an aperture / shutter (aperture), which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and functions as an exposure time adjustment shutter at the time of still image shooting. Reference numeral 103 denotes a second lens group. The diaphragm / shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and have a zooming function in conjunction with the forward / backward movement of the first lens group 101.
105は第3レンズ群であり、光軸方向の進退により焦点調節を行う。106は光学的ローパスフィルタであり、撮影画像の偽色やモアレを軽減するための光学素子である。107はC−MOSセンサとその周辺回路で構成された撮像素子(撮像手段)である。撮像素子107は、横方向にm画素、縦方向にn画素の受光ピクセル上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。撮像素子107は、後述のように、結像光学系からの光束により形成された像を光電変換する複数の撮像用画素および撮像光学系からの光束のうち分割された光束により形成された像を光電変換する複数の焦点検出用画素を有する。 Reference numeral 105 denotes a third lens group, which performs focus adjustment by moving back and forth in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 107 denotes an image sensor (imaging means) composed of a C-MOS sensor and its peripheral circuits. The image sensor 107 is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction. As will be described later, the image sensor 107 photoelectrically converts an image formed by the light beam from the imaging optical system, and an image formed by the divided light beam among the light beams from the imaging optical system. It has a plurality of focus detection pixels for photoelectric conversion.
111はズームアクチュエータであり、不図示のカム筒を回動することで、第1レンズ群101乃至第3レンズ群103を光軸方向に進退駆動し、変倍操作を行う。112は絞りアクチュエータ(制御手段)である。絞りアクチュエータ112は、焦点検出手段(CPU121)による焦点検出の際に、焦点検出用画素の位置での射出瞳の開口の形状が絞り(絞り兼用シャッタ102)の開口の形状に依存するように絞りを制御する。114はフォーカスアクチュエータであり、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。115は撮影時の被写体照明用電子フラッシュであり、キセノン管を用いた閃光照明装置が好適に用いられるが、連続発光するLEDを備えた照明装置を用いてもよい。 Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 101 to the third lens group 103 forward and backward in the optical axis direction to perform a zooming operation. Reference numeral 112 denotes a diaphragm actuator (control means). When the focus is detected by the focus detection unit (CPU 121), the aperture actuator 112 stops the aperture so that the shape of the exit pupil opening at the position of the focus detection pixel depends on the shape of the aperture of the aperture (the aperture / shutter 102). To control. Reference numeral 114 denotes a focus actuator, which performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 115 denotes an electronic flash for illuminating a subject at the time of photographing. A flash illumination device using a xenon tube is preferably used, but an illumination device including an LED that emits light continuously may be used.
121はCPUであり、カメラ本体の種々の制御を行う。CPU121は、演算部、データ格納手段ROM、RAM、A/Dコンバータ、D/Aコンバータ、及び、通信インターフェイス回路等を有する。CPU121は、ROMに記憶された所定のプログラムに基づいて、カメラ200の各種回路を駆動し、AF、撮影、画像処理及び記録等の一連の動作を実行する。CPU121は、本発明の演算手段、焦点検出手段、データ格納手段に相当する。焦点検出手段としてのCPU121は、焦点検出用画素(画素SHA、SHB)から一対の像信号を取得して結像光学系の焦点状態を検出する。また焦点検出手段としてのCPU121は、複数の焦点検出用画素から得られた一対の像信号から焦点ズレ量を計算する焦点ズレ量演算手段を有する。 Reference numeral 121 denotes a CPU that performs various controls of the camera body. The CPU 121 includes a calculation unit, data storage means ROM, RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 drives various circuits of the camera 200 based on a predetermined program stored in the ROM, and executes a series of operations such as AF, shooting, image processing, and recording. The CPU 121 corresponds to the calculation means, focus detection means, and data storage means of the present invention. The CPU 121 as focus detection means acquires a pair of image signals from the focus detection pixels (pixels SHA and SHB) and detects the focus state of the imaging optical system. The CPU 121 as a focus detection unit includes a focus shift amount calculation unit that calculates a focus shift amount from a pair of image signals obtained from a plurality of focus detection pixels.
122は電子フラッシュ制御回路であり、撮影動作に同期して照明手段115を点灯制御する。124は撮像素子駆動回路であり、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路であり、撮像素子107が取得した画像のγ変換、カラー補間、及び、JPEG圧縮等の各処理を行う。 An electronic flash control circuit 122 controls lighting of the illumination unit 115 in synchronization with the photographing operation. Reference numeral 124 denotes an image sensor drive circuit that controls the image capturing operation of the image sensor 107 and A / D-converts the acquired image signal and transmits it to the CPU 121. An image processing circuit 125 performs various processes such as γ conversion, color interpolation, and JPEG compression of an image acquired by the image sensor 107.
126はフォーカス駆動回路であり、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。128は絞りシャッタ駆動回路であり、絞りアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。129はズーム駆動回路であり、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。 A focus driving circuit 126 controls the focus actuator 114 based on the focus detection result, and performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes an aperture shutter drive circuit that controls the aperture of the aperture / shutter 102 by drivingly controlling the aperture actuator 112. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.
131はLCD等の表示器であり、カメラ200の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、及び、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群であり、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、及び、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリであり、撮影済み画像を記録する。 Reference numeral 131 denotes a display device such as an LCD, which displays information related to the shooting mode of the camera 200, a preview image before shooting and a confirmation image after shooting, a focus state display image when focus is detected, and the like. An operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, and a shooting mode selection switch. Reference numeral 133 denotes a detachable flash memory that records a photographed image.
図2は、本実施例における撮像素子の回路構成図である。図2は2次元C−MOSエリアセンサの2列×4行画素の範囲を示しているが、撮像素子として利用する場合には、図2に示される画素を多数配置することで高解像度画像の取得が可能となる。図2において、1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、2はフォトゲート、3は転送スイッチMOSトランジスタ、4はリセット用MOSトランジスタ、5はソースフォロワアンプMOSトランジスタである。また、6は水平選択スイッチMOSトランジスタ、7はソースフォロワの負荷MOSトランジスタ、8は暗出力転送MOSトランジスタ、9は明出力転送MOSトランジスタ、10は暗出力の蓄積容量CTN、11は明出力の蓄積容量CTSである。また、12は水平転送MOSトランジスタ、13は水平出力線リセットMOSトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。 FIG. 2 is a circuit configuration diagram of the image sensor in the present embodiment. FIG. 2 shows a range of 2 columns × 4 rows of pixels of a two-dimensional C-MOS area sensor. However, when used as an image sensor, a large number of pixels shown in FIG. Acquisition is possible. In FIG. 2, 1 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 2 is a photogate, 3 is a transfer switch MOS transistor, 4 is a reset MOS transistor, and 5 is a source follower amplifier MOS. It is a transistor. Also, 6 is a horizontal selection switch MOS transistor, 7 is a source follower load MOS transistor, 8 is a dark output transfer MOS transistor, 9 is a light output transfer MOS transistor, 10 is a dark output storage capacitor CTN, and 11 is a light output storage. Capacitance CTS. Further, 12 is a horizontal transfer MOS transistor, 13 is a horizontal output line reset MOS transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is a vertical scanning circuit.
図3は、本実施例における撮像素子の画素部の断面図である。図3において、17はP型ウェル、18はゲート酸化膜、19は一層目ポリSi、20は二層目ポリSi、21はn+ フローティングディフュージョン部(FD部)である。FD部21は、別の転送MOSトランジスタを介して別の光電変換部と接続される。図3において、2つの転送スイッチMOSトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al配線でFD部21を接続してもよい。 FIG. 3 is a cross-sectional view of the pixel portion of the image sensor in the present embodiment. In FIG. 3, 17 is a P-type well, 18 is a gate oxide film, 19 is a first-layer poly-Si, 20 is a second-layer poly-Si, and 21 is an n + floating diffusion portion (FD portion). The FD unit 21 is connected to another photoelectric conversion unit via another transfer MOS transistor. In FIG. 3, the drain of the two transfer switch MOS transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 21, but even if the FD portion 21 is connected by Al wiring. Good.
次に、図4のタイミングチャートを用いて撮像素子の動作について説明する。図4は、本実施例における撮像素子のタイミングチャートであり、このタイミングチャートは全画素独立出力の場合を示す。まず、垂直走査回路16からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また、制御パルスφR0,φPG00,φPGe0をハイとし、リセット用MOSトランジスタ4をオンとし、フォトゲート2の一層目ポリSi19をハイとする。時刻T0において、制御パルスφS0をハイとし、選択スイッチMOSトランジスタ6をオンさせ、第1,第2ラインの画素部を選択する。次に、制御パルスφR0をローとし、FD部21のリセットを止めてFD部21をフローティング状態とし、ソースフォロワアンプMOSトランジスタ5のゲート・ソース間をスルーとする。その後、時刻T1において、制御パルスφTNをハイとし、FD部21の暗電圧をソースフォロワ動作で蓄積容量CTN10に出力させる。 Next, the operation of the image sensor will be described using the timing chart of FIG. FIG. 4 is a timing chart of the image sensor in the present embodiment, and this timing chart shows a case of all pixel independent output. First, according to the timing output from the vertical scanning circuit 16, the control pulse φL is set high to reset the vertical output line. Further, the control pulses φR0, φPG00, and φPGe0 are set high, the reset MOS transistor 4 is turned on, and the first-layer poly Si 19 of the photogate 2 is set high. At time T0, the control pulse φS0 is set high, the selection switch MOS transistor 6 is turned on, and the pixel portions of the first and second lines are selected. Next, the control pulse φR0 is set to low, the reset of the FD unit 21 is stopped, the FD unit 21 is brought into a floating state, and the source-follower amplifier MOS transistor 5 is made through between the gate and the source. Thereafter, at time T1, the control pulse φTN is set to high, and the dark voltage of the FD unit 21 is output to the storage capacitor CTN10 by the source follower operation.
次に、第1ラインの画素の光電変換出力を行うため、第1ラインの制御パルスφTX00をハイとして転送スイッチMOSトランジスタ3を導通した後、時刻T2において制御パルスφPG00をローとして下げる。このとき、フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部21に完全転送させることが可能な電圧関係であることが好ましい。従って完全転送が可能であれば、制御パルスφTXは、パルスではなく所定の固定電位でもよい。 Next, in order to perform photoelectric conversion output of the pixels of the first line, the control pulse φTX00 of the first line is set high, the transfer switch MOS transistor 3 is turned on, and then the control pulse φPG00 is lowered low at time T2. At this time, it is preferable that the potential well that has spread under the photogate 2 is raised to have a voltage relationship that allows the photogenerated carriers to be completely transferred to the FD portion 21. Therefore, if complete transfer is possible, the control pulse φTX may be a predetermined fixed potential instead of a pulse.
時刻T2において、フォトダイオードの光電変換部1からの電荷がFD部21に転送されることにより、FD部21の電位が光に応じて変化する。このとき、ソースフォロワアンプMOSトランジスタ5がフローティング状態であるため、FD部21の電位を時刻T3において制御パルスφTsをハイとして蓄積容量CTS11に出力する。この時点で、第1ラインの画素の暗出力と光出力はそれぞれ蓄積容量CTN10とCTS11に蓄積されている。時刻T4の制御パルスφHCを一時ハイとして水平出力線リセットMOSトランジスタ13を導通して水平出力線をリセットし、水平転送期間において水平走査回路15の走査タイミング信号により水平出力線に画素の暗出力と光出力を出力する。このとき、蓄積容量CTN10、CTS11の差動増幅器14によって、差動出力VOUTを取れば、画素のランダムノイズ及び固定パターンノイズを除去したS/Nの良好な信号を得ることができる。また、画素30−12、30−22の光電荷は、画素30−11、30−21と同時に夫々の蓄積容量CTN10、CTS11に蓄積される。そして、水平走査回路15からのタイミングパルスを1画素分遅らして水平出力線に読み出され、差動増幅器14から出力される。なお本実施例では、差動出力VOUTをチップ内で行う構成を示しているが、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いても同様の効果が得られる。 At time T2, the electric charge from the photoelectric conversion unit 1 of the photodiode is transferred to the FD unit 21, so that the potential of the FD unit 21 changes according to light. At this time, since the source follower amplifier MOS transistor 5 is in a floating state, the potential of the FD portion 21 is output to the storage capacitor CTS11 with the control pulse φTs being high at time T3. At this time, the dark output and the light output of the pixels on the first line are stored in the storage capacitors CTN10 and CTS11, respectively. The horizontal output line reset MOS transistor 13 is turned on by setting the control pulse φHC at time T4 to be temporarily high to reset the horizontal output line. Outputs light output. At this time, if the differential output VOUT is obtained by the differential amplifier 14 of the storage capacitors CTN10 and CTS11, a signal having a good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained. Further, the photoelectric charges of the pixels 30-12 and 30-22 are accumulated in the respective storage capacitors CTN10 and CTS11 simultaneously with the pixels 30-11 and 30-21. The timing pulse from the horizontal scanning circuit 15 is delayed by one pixel, read out to the horizontal output line, and output from the differential amplifier 14. In the present embodiment, a configuration in which the differential output VOUT is performed in the chip is shown. However, the same is true even if a conventional CDS (Correlated Double Sampling) circuit is used outside without being included in the chip. An effect is obtained.
蓄積容量CTS11に明出力を出力した後、制御パルスφR0をハイとしてリセット用MOSトランジスタ4を導通させ、FD部21を電源VDDにリセットする。第1ラインの水平転送が終了した後、第2ラインの読み出しを行う。第2ラインの読み出しは、制御パルスφTXe0、φPGe0を同様に駆動させ、制御パルスφTN、φTSに夫々ハイパルスを供給し、蓄積容量CTN10、CTS11に夫々光電荷を蓄積して暗出力及び明出力を取り出す。以上の駆動により、第1、第2ラインの読み出しを夫々独立に行うことができる。この後、垂直走査回路を走査させ、同様に第2n+1、第2n+2(n=1,2,…)の読み出しを行えば全画素独立出力を行うことができる。即ち、n=1の場合は、まず制御パルスφS1をハイとし、次にφR1をローとする。続いて、制御パルスφTN、φTX01をハイとし、制御パルスφPG01をロー、制御パルスφTSをハイ、制御パルスφHCを一時ハイとして画素30−31、30−32の画素信号を読み出す。続いて、制御パルスφTXe1,φPGe1及び上記と同様に制御パルスを印加して、画素30−41、30−42の画素信号を読み出す。 After outputting a bright output to the storage capacitor CTS11, the control pulse φR0 is set to high to make the reset MOS transistor 4 conductive, and the FD portion 21 is reset to the power supply VDD. After the horizontal transfer of the first line is completed, the second line is read. In reading the second line, the control pulses φTXe0 and φPGe0 are driven in the same manner, and high pulses are supplied to the control pulses φTN and φTS, respectively. . With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit and reading out the second n + 1 and second n + 2 (n = 1, 2,...) In the same manner, all pixel independent outputs can be performed. That is, when n = 1, first, the control pulse φS1 is set to high, and then φR1 is set to low. Subsequently, the pixel signals of the pixels 30-31 and 30-32 are read with the control pulses φTN and φTX01 being high, the control pulse φPG01 being low, the control pulse φTS being high, and the control pulse φHC being temporarily high. Subsequently, the control pulses φTXe1 and φPGe1 and the control pulses are applied in the same manner as described above, and the pixel signals of the pixels 30-41 and 30-42 are read out.
図5は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施例においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用される。ベイヤー配列の間には、後述する焦点検出用画素が所定の規則にて分散配置される。 FIG. 5 is a diagram illustrating the structure of the imaging pixels and the focus detection pixels. In this embodiment, out of 4 pixels in 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having a spectral sensitivity of 1 is arranged is employed. Focus detection pixels, which will be described later, are distributed in a predetermined rule between the Bayer arrays.
図5(1)は、撮像用画素の平面図と断面図である。図5(1)(a)は撮像素子中央に位置する2行×2列の撮像用画素の平面図である。ベイヤー配列では、対角方向にG画素が、また、他の2画素にRとBの画素が配置される。そして、この2行×2列の構造が繰り返し配置される。図5(1)(b)は、図5(1)(a)中のA−A断面図である。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFGはG(Green)のカラーフィルタである。PDは、図3で説明したC−MOSセンサの光電変換部を模式的に示したものであり、CLはC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。 FIG. 5A is a plan view and a cross-sectional view of the imaging pixel. FIGS. 5A and 5A are plan views of 2 × 2 imaging pixels located in the center of the imaging device. In the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. The 2 rows × 2 columns structure is repeatedly arranged. 5 (1) and 5 (b) are cross-sectional views taken along line AA in FIGS. 5 (1) and 5 (a). ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG is a G (Green) color filter. PD schematically shows the photoelectric conversion unit of the C-MOS sensor described in FIG. 3, and CL is a wiring layer for forming signal lines for transmitting various signals in the C-MOS sensor. . TL schematically shows the photographing optical system.
ここで、撮像用画素のオンチップマイクロレンズ(マイクロレンズML)と光電変換部PDは、撮影光学系(撮影レンズTL)を通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影レンズTLの射出瞳EPと光電変換部PDは、マイクロレンズMLにより略共役関係にあり、かつ光電変換部PDの有効面積は大面積に設計される。また、図5(1)(b)では、R画素の入射光束について説明しているが、G画素及びB(Blue)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。 Here, the on-chip microlens (microlens ML) of the imaging pixel and the photoelectric conversion unit PD are configured to capture the light beam that has passed through the imaging optical system (imaging lens TL) as effectively as possible. In other words, the exit pupil EP of the photographing lens TL and the photoelectric conversion unit PD are substantially conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion unit PD is designed to be large. 5 (1) and 5 (b) describe the incident light beam of the R pixel, the G pixel and the B (Blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.
図5(2)は、撮影レンズのx方向に瞳分割を行うための焦点検出用画素の平面図と断面図である。図5(2)(a)は、撮像素子の中央に位置する焦点検出用画素を含む2行×2列の画素の平面図である。撮像信号を得る場合、G画素は輝度情報の主成分をなす。人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方、R画素又はB画素は、色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。そこで本実施例においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBに相当する位置の画素にある割合で焦点検出用画素(画素SHA、SHB)を配列している。 FIG. 5B is a plan view and a cross-sectional view of focus detection pixels for performing pupil division in the x direction of the photographing lens. FIGS. 5A and 5A are plan views of pixels of 2 rows × 2 columns including focus detection pixels located at the center of the image sensor. When obtaining an imaging signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be noticed when G pixels are missing. On the other hand, the R pixel or the B pixel is a pixel that acquires color information, but since humans are insensitive to color information, the pixel that acquires color information is less likely to notice deterioration in image quality even if some loss occurs. Therefore, in this embodiment, among the pixels in 2 rows × 2 columns, the G pixel is left as an imaging pixel, and focus detection pixels (pixels SHA and SHB) are provided at a ratio of pixels in positions corresponding to R and B. Arranged.
図5(2)(b)は、図5(2)(a)中のB−B断面図である。マイクロレンズMLと光電変換部PDは、図5(1)(b)に示した撮像用画素のものと同一構造である。本実施例では、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行うため、配線層CLの開口部は、マイクロレンズMLの中心線に対してx方向に偏倚している。具体的には、画素SHAの開口部OPHAは−x方向に偏倚しているため、撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは+x方向に偏倚しているため、撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。本実施例では、画素SHAをx方向規則的に配列して、これらの画素群で取得した被写体像をA像とする。また、画素SHBもx方向規則的に配列して、これらの画素群で取得した被写体像をB像とする。このとき、A像とB像の相対位置を検出することで、被写体像のピントズレ量(デフォーカス量)を検出することができる。 FIGS. 5 (2) and 5 (b) are cross-sectional views taken along line BB in FIGS. 5 (2) and 5 (a). The microlens ML and the photoelectric conversion unit PD have the same structure as that of the imaging pixel shown in FIGS. In this embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Further, since pupil division is performed by the image sensor, the opening of the wiring layer CL is deviated in the x direction with respect to the center line of the microlens ML. Specifically, since the opening OPHA of the pixel SHA is deviated in the −x direction, the light beam that has passed through the exit pupil EPHA on the left side of the photographing lens TL is received. Similarly, since the opening OPHB of the pixel SHB is biased in the + x direction, the light beam that has passed through the right exit pupil EPHB of the photographic lens TL is received. In this embodiment, the pixels SHA are regularly arranged in the x direction, and the subject image acquired by these pixel groups is defined as an A image. Further, the pixels SHB are also regularly arranged in the x direction, and the subject image acquired by these pixel groups is defined as a B image. At this time, by detecting the relative positions of the A image and the B image, it is possible to detect the focus shift amount (defocus amount) of the subject image.
なお、画素SHA及びSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えばy方向の線に対しては焦点検出が可能である。しかし、y方向に輝度分布を有するx方向の線については焦点検出ができない。そこで本実施例では、後者についても焦点検出できるように、撮影レンズのy方向にも瞳分割を行う画素を備える。 In the pixels SHA and SHB, focus detection is possible for a subject having a luminance distribution in the x direction on the photographing screen, for example, a line in the y direction. However, focus detection cannot be performed on a line in the x direction having a luminance distribution in the y direction. Therefore, in the present embodiment, pixels that perform pupil division are also provided in the y direction of the photographing lens so that the focus can be detected for the latter.
図5(3)は、撮影レンズのy方向に瞳分割を行うための焦点検出用画素の平面図と断面図である。図5(3)(a)は、撮像素子の中央に位置する焦点検出用画素を含む2行×2列の画素の平面図である。図5(2)(a)と同様に、G画素は撮像用画素として残し、R、B画素に相当する位置の画素に一定の割合で焦点検出用画素(画素SVC、SVD)を配列している。 FIG. 5C is a plan view and a cross-sectional view of focus detection pixels for performing pupil division in the y direction of the photographing lens. 5A and 5A are plan views of pixels of 2 rows × 2 columns including focus detection pixels located in the center of the image sensor. As in FIG. 5 (2) (a), the G pixel is left as an image pickup pixel, and focus detection pixels (pixels SVC and SVD) are arranged at a fixed ratio to pixels at positions corresponding to the R and B pixels. Yes.
図5(3)(b)は、図5(3)(a)中のC−C断面図である。図5(2)(b)の画素がx方向に瞳分離する構造であるのに対して、図5(3)(b)の画素は瞳分離方向がy方向になっているが、画素の構造は同じである。すなわち、画素SVCの開口部OPVCは−y方向に偏倚しているため、撮影レンズTLの+y方向の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは+y方向に偏倚しているため、撮影レンズTLの−y方向の射出瞳EPVDを通過した光束を受光する。本実施例では、画素SVCをy方向規則的に配列して、これらの画素群で取得した被写体像をC像とする。また、画素SVDもy方向規則的に配列し、これらの画素群で取得した被写体像をD像とする。このとき、C像とD像の相対位置を検出することで、y方向に輝度分布を有する被写体像のピントズレ量(デフォーカス量)を検出することができる。 FIGS. 5 (3) and 5 (b) are CC cross-sectional views in FIGS. 5 (3) and 5 (a). 5 (2) and 5 (b) have a structure in which the pupil is separated in the x direction, whereas the pixels in FIGS. 5 (3) and 5 (b) have the y direction in the pupil separation direction. The structure is the same. That is, since the opening OPVC of the pixel SVC is biased in the −y direction, the light beam that has passed through the exit pupil EPVC in the + y direction of the photographic lens TL is received. Similarly, since the opening OPVD of the pixel SVD is biased in the + y direction, the light beam that has passed through the exit pupil EPVD of the photographing lens TL in the −y direction is received. In the present embodiment, the pixels SVC are regularly arranged in the y direction, and the subject image acquired by these pixel groups is defined as a C image. The pixels SVD are also regularly arranged in the y direction, and the subject image acquired by these pixel groups is defined as a D image. At this time, by detecting the relative positions of the C image and the D image, it is possible to detect the focus shift amount (defocus amount) of the subject image having the luminance distribution in the y direction.
図6は、本実施例における撮像素子の瞳分割の説明図である。TLは撮影レンズ、107は撮像素子、OBJは被写体、IMGは被写体像である。撮像用画素は、図5(1)を参照して説明したように、撮影レンズTLの射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は、図5(2)及び図5(3)を参照して説明したように、瞳分割機能を有する。具体的には、図5(2)の画素SHAは+X方向の側の瞳を通過した光束、すなわち図6の瞳EPHAを通過した光束LHAを受光する。同様に、画素SHB、SVC及びSVDは、それぞれ、瞳EPHB、EPVC及びEPVDを通過した光束LHB、LVC及びLVDを受光する。そして、焦点検出用画素を、撮像素子107の全領域に渡って分布させることで、撮像領域全域において焦点検出が可能となる。 FIG. 6 is an explanatory diagram of pupil division of the image sensor in the present embodiment. TL is a photographing lens, 107 is an image sensor, OBJ is a subject, and IMG is a subject image. As described with reference to FIG. 5A, the imaging pixel receives the light beam that has passed through the entire exit pupil EP of the photographing lens TL. On the other hand, the focus detection pixel has a pupil division function as described with reference to FIGS. 5 (2) and 5 (3). Specifically, the pixel SHA in FIG. 5B receives the light beam that has passed through the pupil on the + X direction side, that is, the light beam LHA that has passed through the pupil EPHA in FIG. Similarly, the pixels SHB, SVC, and SVD receive the light beams LHB, LVC, and LVD that have passed through the pupils EPHB, EPVC, and EPVD, respectively. Then, by distributing the focus detection pixels over the entire area of the imaging element 107, it is possible to detect the focus in the entire imaging area.
図7は、焦点検出時に取得した画像と焦点検出領域の説明図である。図7において、撮像面に形成された被写体像には、中央に人物、左側に近景の樹木、右側に遠景の山並みが写っている。本実施例において、焦点検出用画素は、x方向ズレ検出用の画素ペア(画素SHA、SHB)と、y方向ズレ検出用の画素ペア(画素SVC、SVD)が、撮像領域全域に渡って均等な密度で配置されている。そして、x方向ズレ検出の際には、x方向ズレ検出用の画素SHA、SHBから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。また、y方向ズレ検出の際には、y方向ズレ検出用の画素SVC、SVDから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。このため、撮像領域の任意の位置において、x方向ズレ検出及びy方向ズレ検出のための焦点検出領域を設定することができる。 FIG. 7 is an explanatory diagram of an image acquired during focus detection and a focus detection area. In FIG. 7, the subject image formed on the imaging surface includes a person at the center, a close-up tree on the left side, and a distant mountain range on the right side. In the present embodiment, the pixel for focus detection includes a pixel pair for detecting x-direction misalignment (pixels SHA and SHB) and a pixel pair for detecting y-direction misalignment (pixels SVC and SVD) over the entire imaging region. Are arranged at a high density. When detecting the x-direction deviation, a pair of image signals obtained from the pixels SHA and SHB for detecting the x-direction deviation are used as AF pixel signals for phase difference calculation. When detecting the y-direction deviation, a pair of image signals obtained from the pixels SVC and SVD for detecting the y-direction deviation are used as AF pixel signals for phase difference calculation. Therefore, it is possible to set a focus detection area for detecting an x-direction shift and a y-direction shift at an arbitrary position in the imaging area.
図7では、画面中央に人物の顔が存在している。公知の顔認識技術によって顔の存在が検出されると、顔領域を中心にx方向ズレ検知のための焦点検出領域AFARh(x1,y1)と、y方向ズレ検知のための焦点検出領域AFARv(x3,y3)が設定される。ここで、hはx方向を表し、(x1,y1)及び(x3,y3)は焦点検出領域の左上隅の座標を表す。そして、焦点検出領域AFARh(x1,y1)の各セクション内に含まれるx方向ズレ検出用の画素SHAを30セクションに渡って連結した位相差検出用のA像信号が、AFSIGh(A1)である。同様に、各セクションのx方向ズレ検出用の画素SHBを30セクションに渡って連結した位相差検出用のB像信号が、AFSIGh(B1)である。A像信号AFSIGh(A1)とB像信号AFSIGh(B1)の相対的なx方向ズレ量を公知の相関演算によって計算することで、撮影レンズの焦点ズレ量(デフォーカス量)を求めることができる。 In FIG. 7, a human face exists in the center of the screen. When the presence of a face is detected by a known face recognition technique, a focus detection area AFARh (x1, y1) for detecting an x-direction shift around the face area, and a focus detection area AFARv (for detecting a y-direction shift) x3, y3) are set. Here, h represents the x direction, and (x1, y1) and (x3, y3) represent the coordinates of the upper left corner of the focus detection area. The A image signal for phase difference detection obtained by connecting the pixels SHA for detecting the x-direction deviation included in each section of the focus detection area AFARh (x1, y1) over 30 sections is AFSIGh (A1). . Similarly, a B image signal for phase difference detection obtained by connecting the pixels SHB for detecting x-direction misalignment of each section over 30 sections is AFSIGh (B1). By calculating a relative x-direction shift amount between the A image signal AFSIGh (A1) and the B image signal AFSIGh (B1) by a known correlation calculation, a focus shift amount (defocus amount) of the photographing lens can be obtained. .
焦点検出領域AFARv(x3,y3)についても、同様に、y方向ズレ検出用の画素SVCを連結した位相差検出用のC像信号が、AFSIGv(C3)である。また、y方向ズレ検出用の画素SVDを連結した位相差検出用のD像信号が、AFSIGv(D3)である。C像信号AFSIGv(C3)とD像信号AFSIGv(D3)の相対的なy方向ズレ量を相関演算によって計算することで、撮影レンズの焦点ズレ量(デフォーカス量)を求めることができる。そして、x方向ズレ及びy方向ズレの焦点検出領域で検出した2つの焦点ズレ量を比較し、信頼性の高い値を採用すればよい。 Similarly, for the focus detection area AFARv (x3, y3), the C image signal for phase difference detection obtained by connecting the pixels SVC for detecting the y-direction deviation is AFSIGv (C3). Further, the D image signal for phase difference detection obtained by connecting the pixels SVD for y direction deviation detection is AFSIGv (D3). By calculating the relative y-direction shift amount between the C image signal AFSIGv (C3) and the D image signal AFSIGv (D3) by correlation calculation, the focus shift amount (defocus amount) of the photographing lens can be obtained. Then, two focus shift amounts detected in the focus detection areas of the x-direction shift and the y-direction shift may be compared and a highly reliable value may be adopted.
一方、画面左側の樹木の幹部は、y方向成分が主体、すなわちx方向に輝度分布を有しているため、x方向ズレ検知に適した被写体と判断され、x方向ズレ検知のための焦点検出領域AFARh(x2,y2)が設定される。また、画面右側の山並み稜線部は、x方向成分が主体、すなわちy方向に輝度分布を有しているため、y方向ズレ検知に適した被写体と判断され、y方向ズレ検知のための焦点検出領域AFARv(x4,y4)が設定される。 On the other hand, since the tree trunk on the left side of the screen is mainly composed of the y-direction component, that is, has a luminance distribution in the x-direction, it is determined as a subject suitable for x-direction deviation detection, and focus detection for x-direction deviation detection An area AFARh (x2, y2) is set. Further, the mountain ridge portion on the right side of the screen is mainly composed of the x-direction component, that is, has a luminance distribution in the y-direction, so that it is determined as a subject suitable for y-direction deviation detection, and focus detection for y-direction deviation detection An area AFARv (x4, y4) is set.
本実施例では、x方向ズレ及びy方向ズレ検出のための焦点検出領域を画面の任意の位置に設定可能なため、被写体の投影位置や輝度分布の方向性が様々であっても、常に焦点検出が可能となる。なお、原理はx方向ズレとy方向ズレとでは方向が異なること以外は同じである。このため、以下においてはx方向ズレの検出に関して説明し、y方向ズレ検出の説明は省略する。 In this embodiment, since the focus detection area for detecting the x-direction shift and the y-direction shift can be set at any position on the screen, the focus is always maintained even if the projection position of the subject and the directionality of the luminance distribution are various. Detection is possible. The principle is the same except that the x-direction deviation and the y-direction deviation are different in direction. For this reason, in the following, detection of the x-direction deviation will be described, and description of the y-direction deviation detection will be omitted.
図8(1)は、撮像素子の中央の焦点検出用画素の入射角特性を示す模式図である。図8(1)(a)は画素SHA、図8(1)(b)は画素SHBの入射角特性を示している。図8(1)中のx軸、y軸はそれぞれ画素のx方向、y方向の入射角度を表している。図8(1)では、色が濃くなるほど受光強度が高いことを示している。図5(2)では説明を容易にするため、画素SHAの射出瞳をEPHA、画素SHBの射出瞳をEPHBと、それぞれ分離して表した。しかし図8(1)に示されるように、実際には、開口部OPHA及び開口部OPHBの開口部による回折の影響や、SNを向上させるため、画素SHAと画素SHBの射出瞳は一部領域の重なる部分がある。 FIG. 8A is a schematic diagram illustrating the incident angle characteristic of the focus detection pixel at the center of the image sensor. 8A and 8B show the incident angle characteristics of the pixel SHA, and FIGS. 8A and 8B show the incident angle characteristics of the pixel SHB. The x-axis and y-axis in FIG. 8A represent the incident angles of the pixel in the x-direction and y-direction, respectively. FIG. 8 (1) shows that the received light intensity is higher as the color is darker. In FIG. 5 (2), for ease of explanation, the exit pupil of the pixel SHA is shown separately as EPHA, and the exit pupil of the pixel SHB is shown separately as EPHB. However, as shown in FIG. 8 (1), the exit pupils of the pixel SHA and the pixel SHB are actually a partial region in order to improve the influence of diffraction due to the openings of the opening OPHA and the opening OPHB and SN. There are overlapping parts.
図9は、1次元で表された焦点検出用画素の入射角特性である。横軸は入射角を、縦軸は図8(1)のθy方向の受光感度を加算したものを表しており、原点が光軸である。画素SHAの特性を実線、画素SHBの特性を破線にて示している。図9に示されるように、撮像素子の中央の焦点検出用画素では、画素SHAと画素SHBの入射角特性は感度重心に対して略対称となっている。 FIG. 9 shows the incident angle characteristic of the focus detection pixel represented in one dimension. The horizontal axis represents the incident angle, and the vertical axis represents the sum of the light receiving sensitivities in the θy direction of FIG. 8A, and the origin is the optical axis. The characteristic of the pixel SHA is indicated by a solid line, and the characteristic of the pixel SHB is indicated by a broken line. As shown in FIG. 9, in the focus detection pixel at the center of the image sensor, the incident angle characteristics of the pixel SHA and the pixel SHB are substantially symmetric with respect to the sensitivity centroid.
図10は、光束のケラレの説明図である。図10(a)は撮像素子107の中央の画素に入射する光束を示し、図10(b)は撮像素子107の中央から像高を持った位置の画素に入射する光束を示す。撮像素子107には撮影レンズ(第1レンズ群101)のレンズ保持枠や絞り兼用シャッタ102等の幾つかの構成部材によって制限された光束が入射する。ここでは説明を簡単にするため、あらゆる像高において光束を制限する部材が2つあるとして説明する。Iw1、Iw2は光束を制限する部材を窓であり、光束はこの内側を通過する。MeはマイクロレンズMLの構成によって設定された瞳面(ML瞳)を表す。 FIG. 10 is an explanatory diagram of vignetting of light flux. 10A shows a light beam incident on the central pixel of the image sensor 107, and FIG. 10B shows a light beam incident on a pixel at a position having an image height from the center of the image sensor 107. FIG. A light beam limited by several components such as a lens holding frame of the photographing lens (first lens group 101) and a diaphragm / shutter 102 is incident on the image sensor 107. Here, in order to simplify the description, it is assumed that there are two members that limit the luminous flux at any image height. Iw1 and Iw2 are windows that restrict the light flux, and the light flux passes through the inside. Me represents a pupil plane (ML pupil) set by the configuration of the microlens ML.
図10(a)を参照して、撮像素子107の中央の画素に入射する光束のケラレについて説明する。L1rc、L1lcは窓Iw1の射出光束の外周を表し、L1rcは図10中右端、L1lcは図10中の左端を示す。L2rc、L2lcは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表し、L2rcは図10中右端、L2lcは図10中左端を示す。図10(a)に示されるように、撮像素子107の中央の画素に入射する光束の瞳面Meでの瞳領域は、L2lcとL2rcを外周とする光束、すなわち矢印Area1で示される。 With reference to FIG. 10A, vignetting of the light beam incident on the center pixel of the image sensor 107 will be described. L1rc and L1lc represent the outer periphery of the light beam emitted from the window Iw1, L1rc represents the right end in FIG. 10, and L1lc represents the left end in FIG. L2rc and L2lc represent the outer periphery of the projected light beam from the window Iw2 up to the pupil position of the microlens ML, L2rc represents the right end in FIG. 10, and L2lc represents the left end in FIG. As shown in FIG. 10A, the pupil region on the pupil plane Me of the light beam incident on the center pixel of the image sensor 107 is indicated by a light beam having L2lc and L2rc as outer circumferences, that is, an arrow Area1.
次に、図10(b)を参照して、撮像素子107の中央から像高を持った位置の画素に入射する光束のケラレについて説明する。L1rh、L1lhは窓Iw1の射出光束の外周を表し、L1rhは図10中の右端、L1lhは図10中の左端を示す。L2rh、L2lhは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表し、L2rhは図10中の右端、L2lhは図10中の左端を示す。図10(b)に示されるように、撮像素子107の中央から像高を持った位置の画素に入射する光束の瞳面Me上での瞳領域は、L1lhとL2rhを外周とする光束、すなわち矢印Area2で示される。 Next, with reference to FIG. 10B, vignetting of the light beam incident on the pixel at the position having the image height from the center of the image sensor 107 will be described. L1rh and L1lh represent the outer periphery of the luminous flux emitted from the window Iw1, L1rh represents the right end in FIG. 10, and L1lh represents the left end in FIG. L2rh and L2lh represent the outer periphery of the projected light beam of the window Iw2 up to the pupil position of the microlens ML, L2rh represents the right end in FIG. 10, and L2lh represents the left end in FIG. As shown in FIG. 10B, the pupil region on the pupil plane Me of the light beam incident on the pixel at the image height position from the center of the image sensor 107 is a light beam having L1lh and L2rh as outer circumferences, This is indicated by an arrow Area2.
図11は、瞳面Me上での瞳領域を示す図である。図11(a)は撮像素子の中央の画素の瞳領域を示し、図11(b)は撮像素子の中央から像高を持った位置の画素の瞳領域を示す。図10を参照して説明したように、撮像素子の中央の画素は同一窓Iw2のみによって制限された光束が入射するため、図11(a)に示されるように、瞳領域Area1は窓Iw2の形状がそのまま投影される。光束を制限する窓は円形状であるため、瞳領域Area1の形状も円形状となる。一方、撮像素子の中央から像高を持った位置の画素はIw1とIw2によって制限された光束が入射するため、瞳領域Area2は図11(b)に示されるような形状となる。 FIG. 11 is a diagram illustrating a pupil region on the pupil plane Me. FIG. 11A shows a pupil region of a pixel at the center of the image sensor, and FIG. 11B shows a pupil region of a pixel at a position having an image height from the center of the image sensor. As described with reference to FIG. 10, since the light beam limited by the same window Iw2 is incident on the central pixel of the image sensor, as shown in FIG. 11A, the pupil area Area1 has the window Iw2. The shape is projected as it is. Since the window for limiting the luminous flux is circular, the shape of the pupil area Area1 is also circular. On the other hand, since the light beam limited by Iw1 and Iw2 is incident on the pixel at the image height from the center of the image sensor, the pupil area Area2 has a shape as shown in FIG.
図8(2)は、焦点検出用画素の瞳強度分布図である。図8(2)(a)は画素SHA、図8(2)(b)は画素SHBの特性を示す。撮像素子の中央から像高を持った位置の画素のマイクロレンズMLは、光軸中心が所定の瞳(ML瞳)距離の光軸中心を通過するように偏心して作製されている。そのため、図8(1)に示される撮像素子の中央の焦点検出用画素の入射角特性をML瞳上に投影したものに等しく、図8(2)の縦軸及び横軸は瞳上の座標に展開したものである。この瞳強度分布は、撮像素子の中央から像高を持った位置の画素についても同じ特性を有する。なお、以上説明したレンズ保持枠や絞りの位置寸法は、レンズの種類によってそれぞれ異なるため、同じ像高の位置でもレンズの種類によって瞳領域の形状は異なる。 FIG. 8B is a pupil intensity distribution diagram of focus detection pixels. 8A and 8B show the characteristics of the pixel SHA, and FIGS. 8B and 8B show the characteristics of the pixel SHB. The microlens ML of the pixel at a position having an image height from the center of the image sensor is made eccentric so that the optical axis center passes through the optical axis center at a predetermined pupil (ML pupil) distance. Therefore, the incident angle characteristic of the focus detection pixel at the center of the image sensor shown in FIG. 8 (1) is equivalent to the projection onto the ML pupil, and the vertical and horizontal axes in FIG. 8 (2) are the coordinates on the pupil. It is developed. This pupil intensity distribution has the same characteristics for pixels at positions having an image height from the center of the image sensor. Note that the position dimensions of the lens holding frame and the diaphragm described above differ depending on the type of lens, and thus the shape of the pupil region differs depending on the type of lens even at the same image height position.
図12は、撮像素子内の焦点検出位置の説明図であり、撮像素子107の像高を示す。図12において、Img0は中央像高、Img1は水平4割像高、Img2は対角4割像高の位置を示す。図8(3)は、レンズを装着した際の焦点検出用画素の瞳強度分布図である。図8(3)(a)は画素SHA、図8(3)(b)は画素SHBの瞳強度分布特性を示す。図8(3)は、図11(a)で説明した瞳ケラレ形状と図8(2)の焦点検出用画素単体の瞳強度分布図を重ね合わせたものであり、画素SHA及び画素SHBには、Area1で示される形状の内側を透過した光束が図示した瞳強度分布で入射する。図13は、撮像素子の中央像高Img0の焦点検出用画素の瞳面Me上での入射光束の瞳強度分布を1次元で表した図である。横軸は瞳面Me上のx方向の座標を表し、縦軸は各座標の強度を表す。各座標の強度は、図8(3)のy方向の瞳強度を加算したものである。画素SHAの特性を実線、画素SHBの特性を破線にて示している。 FIG. 12 is an explanatory diagram of the focus detection position in the image sensor and shows the image height of the image sensor 107. In FIG. 12, Img0 indicates the center image height, Img1 indicates the horizontal 40% image height, and Img2 indicates the diagonal 40% image height. FIG. 8 (3) is a pupil intensity distribution diagram of focus detection pixels when a lens is attached. 8 (3) and (a) show the pupil intensity distribution characteristics of the pixel SHA, and FIGS. 8 (3) and (b) show the pupil intensity distribution characteristics of the pixel SHB. FIG. 8 (3) is an overlay of the pupil vignetting shape described in FIG. 11 (a) and the pupil intensity distribution diagram of the focus detection pixel in FIG. 8 (2). , A light beam that has passed through the inside of the shape indicated by Area 1 is incident in the illustrated pupil intensity distribution. FIG. 13 is a one-dimensional representation of the pupil intensity distribution of the incident light beam on the pupil plane Me of the focus detection pixel having the central image height Img0 of the image sensor. The horizontal axis represents coordinates in the x direction on the pupil plane Me, and the vertical axis represents the intensity of each coordinate. The intensity of each coordinate is obtained by adding the pupil intensity in the y direction in FIG. The characteristic of the pixel SHA is indicated by a solid line, and the characteristic of the pixel SHB is indicated by a broken line.
図14は、中央像高Img0での焦点検出範囲のケラレの状態である。図14(a)、(b)、(c)は、それぞれ焦点検出領域の左端、中央、右端でのケラレの状態を示している。図14に示されるように、中央(図14(b))では、ケラレが丸形状であるのに対し、焦点検出領域の左端(図14(a))及び右端(図14(c))では、別のレンズ枠が出現し、ケラレの丸形状が崩れている。図15は、中央像高Img0での画素SHA、SHBの焦点検出範囲内の光量変化を示す図である。画素SHA、SHBのいずれにおいても、光量は測距領域に応じて変化する。このような光量ズレを補正しないと、ピントが合っている状態でも被写体の状態に応じて相関演算に誤差が生じる。 FIG. 14 shows the vignetting state of the focus detection range at the central image height Img0. FIGS. 14A, 14B, and 14C show vignetting states at the left end, center, and right end of the focus detection region, respectively. As shown in FIG. 14, the vignetting is round at the center (FIG. 14B), whereas at the left end (FIG. 14A) and the right end (FIG. 14C) of the focus detection area. Another lens frame appears, and the round shape of the vignetting is broken. FIG. 15 is a diagram illustrating a light amount change within the focus detection range of the pixels SHA and SHB at the central image height Img0. In both the pixels SHA and SHB, the amount of light changes according to the distance measurement area. If such a light amount deviation is not corrected, an error occurs in the correlation calculation in accordance with the state of the subject even in a focused state.
図16(a)は、図12に示される各像高Img0、Img1、Img2の中央位置での通常画像撮影時の瞳ケラレ形状である。図16(a)に示されるように、各像高での瞳ケラレは焦点検出位置により大きく変動し、特に像高が高いところでは瞳ケラレの影響でA像信号とB像信号との間で光量の相違が大きく、焦点検出誤差を引き起こす要因が増える。本実施例では、焦点検出動作を行う際に絞りを制御することにより、絞りの形状のみでケラレ形状が決定される。 FIG. 16A shows a pupil vignetting shape at the time of normal image shooting at the center positions of the image heights Img0, Img1, and Img2 shown in FIG. As shown in FIG. 16 (a), the pupil vignetting at each image height varies greatly depending on the focus detection position. Particularly, when the image height is high, the pupil vignetting affects between the A image signal and the B image signal. The difference in the amount of light is large, and factors that cause focus detection errors increase. In this embodiment, the vignetting shape is determined only by the shape of the diaphragm by controlling the diaphragm when performing the focus detection operation.
図16(b)は、本実施例において焦点検出を行う際の各像高Img0、Img1、Img2での瞳ケラレ形状である。図16(b)に示されるように、像高Img0、Img1、Img2でのそれぞれの焦点検出領域内では、絞りで形成された丸の絞り形状で統一されており、他のレンズ枠によるケラレの影響を受けない。このため、レンズ枠の製造誤差やカメラ側の光軸の製造誤差によるレンズ枠の出現の誤差を無くすことができる。また、絞り枠のみで光量変化を引き起こしているため、焦点検出領域内での急激な光量変化は生じない。このため、補正曲線が比較的なだらかな特性となり、補正誤差が生じにくい。 FIG. 16B shows pupil vignetting shapes at image heights Img0, Img1, and Img2 when focus detection is performed in this embodiment. As shown in FIG. 16 (b), in each focus detection region at image heights Img0, Img1, and Img2, the circular aperture shape formed by the aperture is unified, and vignetting caused by other lens frames is caused. Not affected. For this reason, it is possible to eliminate the appearance error of the lens frame due to the manufacturing error of the lens frame and the manufacturing error of the optical axis on the camera side. In addition, since the light quantity change is caused only by the aperture frame, no sudden light quantity change occurs in the focus detection area. For this reason, the correction curve has comparatively gentle characteristics, and correction errors are unlikely to occur.
図17は、焦点検出手段における瞳面位置Meでのレンズの絞り位置と焦点検出位置との関係図である。図17(a)は画素SHAでの瞳面上での瞳ケラレの形状を示す図であり、図17(b)は焦点検出位置により絞り形状の円の中心のズレ方を示す図である。撮像素子107とレンズの絞り位置との間の距離をP1、撮像素子107とML瞳面Meとの間の距離をPme、絞り値をFnoとすると、ML瞳面Meでの開口形状は円形で、その直径は式(1)で表される。 FIG. 17 is a relationship diagram between the lens aperture position and the focus detection position at the pupil plane position Me in the focus detection means. FIG. 17A is a diagram showing the shape of the pupil vignetting on the pupil plane in the pixel SHA, and FIG. 17B is a diagram showing how the center of the aperture-shaped circle is shifted depending on the focus detection position. When the distance between the imaging element 107 and the aperture position of the lens is P1, the distance between the imaging element 107 and the ML pupil plane Me is Pme, and the aperture value is Fno, the aperture shape on the ML pupil plane Me is circular. The diameter is represented by the formula (1).
D1=Pme/Fno (1)
一方、円の中心のズレ位置(dx、dy)は、焦点検出位置の像高を(xs、ys)とすると、式(2)、(3)のように表すことができる。
D1 = Pme / Fno (1)
On the other hand, the misalignment position (dx, dy) at the center of the circle can be expressed as in equations (2) and (3), where the image height at the focus detection position is (xs, ys).
dx=(P1−Pme)×xs/P1 (2)
dy=(P1−Pme)×ys/P1 (3)
図18(1)は、特定の絞り値Fnoにおける光量を元に光量の補正(シェーディング補正)を行ったゲインマップ曲線の一例である。図18(1)において、水平方向、垂直方向は、絞り形状の円の中心ズレを表す。前述の式(2)、(3)のdx、dyと水平、垂直がそれぞれ対応している。図18(1)のゲイン特性は、各像高での光量に対して逆数を取ったものに相当する。図18(1)のようなゲインマップデータ(ゲインマップ曲線)を予めカメラ内のメモリに格納することにより、どのようなレンズが装着されても、焦点検出の際に絞りを制御するだけで、ゲイン特性を統一することができる。この際、複数のレンズ枠ケラレによる急激な光量変化がなくなるため、光量補正誤差も少なくなる。
dx = (P1-Pme) × xs / P1 (2)
dy = (P1-Pme) * ys / P1 (3)
FIG. 18A is an example of a gain map curve obtained by performing light amount correction (shading correction) based on the light amount at a specific aperture value Fno. In FIG. 18 (1), the horizontal direction and the vertical direction represent the center shift of the aperture-shaped circle. The dx and dy in the above formulas (2) and (3) correspond to horizontal and vertical, respectively. The gain characteristic shown in FIG. 18A corresponds to a gain obtained by taking the reciprocal of the amount of light at each image height. By storing the gain map data (gain map curve) as shown in FIG. 18 (1) in the memory in the camera in advance, no matter what lens is mounted, it is only necessary to control the aperture at the time of focus detection. Gain characteristics can be unified. At this time, since a sudden light quantity change due to a plurality of lens frame vignetting is eliminated, a light quantity correction error is also reduced.
ここでは光量の補正について説明したが、ケラレ形状は、レンズによらず、図17に示される焦点検出手段の瞳面位置Meでのレンズの絞り値と焦点検出位置との関係により統一的に算出される。このため、ケラレ形状の決定により特定される焦点検出に関するパラメータ(補正値)を予めデータ化すれば、レンズ毎に焦点検出に関するパラメータ(補正値)を持つ必要はない。このような焦点検出に関する補正値は、結像光学系の射出瞳面上での絞り中心ズレに対応し、データ格納手段に格納されている。ここで焦点検出に関する補正値は、焦点検出画素の出力を補正するゲイン補正値に相当する値である。また、焦点検出に関する補正値は、焦点検出用画素から得られた一対の像信号の像ズレ変換係数に相当する値としてもよい。さらに焦点検出に係わる補正値は、焦点検出用画素から得られた一対の像信号の像修正フィルタに相当する値でもよい。 Although the light amount correction has been described here, the vignetting shape is uniformly calculated from the relationship between the lens aperture value and the focus detection position at the pupil plane position Me of the focus detection unit shown in FIG. 17 regardless of the lens. Is done. For this reason, if the parameter (correction value) related to focus detection specified by determining the vignetting shape is converted into data beforehand, it is not necessary to have a parameter (correction value) related to focus detection for each lens. Such a correction value relating to focus detection corresponds to the deviation of the aperture center on the exit pupil plane of the imaging optical system and is stored in the data storage means. Here, the correction value related to focus detection is a value corresponding to a gain correction value for correcting the output of the focus detection pixel. The correction value related to focus detection may be a value corresponding to an image shift conversion coefficient of a pair of image signals obtained from the focus detection pixels. Further, the correction value related to focus detection may be a value corresponding to an image correction filter of a pair of image signals obtained from the focus detection pixels.
図18(2)は、焦点検出位置における画素SHA、SHBの瞳強度分布の重心ズレ量(基線長)の逆数(像ズレ換算係数)についてのグラフの一例である。焦点検出位置での相関演算より得られた像ズレ値に図18(2)の像ズレ換算係数を掛けたものが、焦点検出位置でのピントズレ量に相当する。図18(2)において、水平方向、垂直方向は、絞り形状の円の中心ズレを表し、前述の式(2)、(3)のdx、dyと水平、垂直が対応している。図18(2)に示されるデータを予めカメラ内のメモリに格納することにより、どのようなレンズが装着されても、焦点検出手段による焦点検出の際に、絞り値(Fナンバー)を制御して焦点検出位置と像ズレ換算係数のデータを統一することができる。具体的には、絞り値制御手段は、焦点検出手段による焦点状態の検出の際に、焦点検出用画素の位置での射出瞳の開口が丸形状になるように制御する。ここで、「丸形状」とは、厳密な丸に限定されるものではなく、実質的に丸の単一形状であると評価できる形状を含む。本実施例によれば、絞り形状のみでケラレ形状が決定されるため、レンズの射出瞳位置によらずにフィルタ形状を決定することができる。その結果、複数の条件のレンズに対してフィルタ形状のデータを統一的に使用することが可能となる。 FIG. 18B is an example of a graph regarding the reciprocal number (image shift conversion coefficient) of the center-of-gravity shift amount (baseline length) of the pupil intensity distribution of the pixels SHA and SHB at the focus detection position. A value obtained by multiplying the image shift value obtained by the correlation calculation at the focus detection position by the image shift conversion coefficient in FIG. 18B corresponds to the amount of focus shift at the focus detection position. In FIG. 18 (2), the horizontal direction and the vertical direction represent the misalignment of the center of the aperture-shaped circle, and dx and dy in the above formulas (2) and (3) correspond to the horizontal and vertical directions. By storing the data shown in FIG. 18 (2) in the memory in the camera in advance, the aperture value (F number) is controlled at the time of focus detection by the focus detection means no matter what lens is mounted. Thus, the data of the focus detection position and the image shift conversion coefficient can be unified. Specifically, the aperture value control means performs control so that the opening of the exit pupil at the position of the focus detection pixel has a round shape when the focus state is detected by the focus detection means. Here, the “round shape” is not limited to a strict circle, but includes a shape that can be evaluated as a substantially round single shape. According to the present embodiment, since the vignetting shape is determined only by the aperture shape, the filter shape can be determined regardless of the exit pupil position of the lens. As a result, the filter shape data can be used in a unified manner for a plurality of lens conditions.
図19は、オートフォーカスの一部である本実施例の焦点検出に関わるフローチャートを示す。メインフローは、一般的なカメラのフローと同一であるため、ここでの説明を省略する。なお、図19のフローにおける動作は、本実施例の演算手段及び焦点検出手段であるCPU121によって実行される。 FIG. 19 shows a flowchart relating to focus detection of this embodiment, which is part of autofocus. Since the main flow is the same as the flow of a general camera, description here is omitted. Note that the operation in the flow of FIG. 19 is executed by the CPU 121 which is a calculation unit and a focus detection unit of the present embodiment.
まずステップS001では、レンズの種類やズーム位置、絞り値などのレンズ情報から各焦点検出位置での絞り値、及び、絞りの位置(撮像素子と絞りとの間の距離P1)が読み出され、ステップS002へと進む。ステップS002では、使用者により設定された焦点検出位置が読み出される。ここでは、使用者が焦点検出位置を選択するが、画像処理により顔を検出して自動的に焦点検出位置を選択する等の方法を採用してもよい。選択が完了した後、ステップS003へ進む。 First, in step S001, the aperture value at each focus detection position and the aperture position (distance P1 between the image sensor and the aperture) are read from lens information such as the lens type, zoom position, aperture value, and the like. Proceed to step S002. In step S002, the focus detection position set by the user is read. Here, the user selects the focus detection position, but a method such as detecting the face by image processing and automatically selecting the focus detection position may be employed. After selection is completed, the process proceeds to step S003.
ステップS003では、焦点検出位置に対応した各焦点検出用画素のML瞳上の丸絞り形状の中心ズレ(dx、dy)がCPU121により算出される。ステップS004では、ステップS003で算出した丸絞り形状の中心ズレ(dx、dy)と絞り値Fnoを元に、ゲイン補正係数を保管されているCPU121内のROMから読み出す。 In step S <b> 003, the CPU 121 calculates the center deviation (dx, dy) of the circular diaphragm shape on the ML pupil of each focus detection pixel corresponding to the focus detection position. In step S004, the gain correction coefficient is read from the stored ROM in the CPU 121 based on the center deviation (dx, dy) of the round diaphragm shape calculated in step S003 and the diaphragm value Fno.
ステップS005では、ステップS003で算出された丸絞り形状を元に、CPU121内のROMから適正な像修正フィルタを読み込む。像修正フィルタについては、例えば特許文献4に開示されている既知の方式を採用する。また、ステップS006では、ステップS003で算出した丸絞り形状の中心ズレ(dx、dy)と絞り値Fnoを元に、基線長データを保管されているCPU121内のROMから読み出す。また、ステップS007では、ステップS001、S002より得られた情報を元に絞り値を決定し、絞り駆動回路128により所定の絞り値に制御する。 In step S005, an appropriate image correction filter is read from the ROM in the CPU 121 based on the round diaphragm shape calculated in step S003. For the image correction filter, for example, a known method disclosed in Patent Document 4 is adopted. In step S006, based on the center deviation (dx, dy) and the aperture value Fno of the round aperture shape calculated in step S003, the baseline length data is read from the ROM in the CPU 121 where it is stored. In step S007, an aperture value is determined based on the information obtained in steps S001 and S002, and the aperture drive circuit 128 controls the aperture value to a predetermined value.
ステップS008では、焦点検出位置での焦点検出用画素の画像信号を読み出す。ステップS009では、ステップS004で取り込まれたゲイン補正データにより、被写体A像、被写体B像がそれぞれ補正される。また、ステップS010では、ステップS005で取り込まれた像修正フィルタにより、被写体A像、被写体B像がそれぞれ補正される。 In step S008, the image signal of the focus detection pixel at the focus detection position is read. In step S009, the subject A image and the subject B image are each corrected by the gain correction data captured in step S004. In step S010, the subject A image and the subject B image are corrected by the image correction filter captured in step S005.
ステップS011では、ステップS006で得られた基線長データを元に、画像補正後の被写体像A像、被写体像B像を用いて公知の相関演算方法により像ズレ量を求め、デフォーカス量を算出する。デフォーカス量の算出が完了した後、ステップS012へ進む。ステップS012では、算出されたデフォーカス量から、合焦しているか否かの判定が行われる。合焦していないと判定された場合には、ステップS013へ進む。ステップS013では、算出されたデフォーカス量に応じて第3レンズ群105を進退させ、ステップS008へと戻る。一方、合焦していると判定された場合には、ステップS014へ進む。ステップS014では、一連の焦点検出フローが終了し、合焦表示を行ってメインフローへ戻る。 In step S011, based on the baseline length data obtained in step S006, the image shift amount is obtained by a known correlation calculation method using the subject image A image and the subject image B image after image correction, and the defocus amount is calculated. To do. After the calculation of the defocus amount is completed, the process proceeds to step S012. In step S012, it is determined from the calculated defocus amount whether or not it is in focus. If it is determined that the subject is not in focus, the process proceeds to step S013. In step S013, the third lens group 105 is advanced or retracted according to the calculated defocus amount, and the process returns to step S008. On the other hand, if it is determined that the subject is in focus, the process proceeds to step S014. In step S014, a series of focus detection flow ends, focus display is performed, and the process returns to the main flow.
以上のような構成により、焦点検出位置Img1、2、3の光束のケラレ状態に対応した補正係数を読み出して、簡単な演算での像の修復を行い、合焦精度を向上させることができる。従って、簡易な演算処理回路による処理が可能となり、低コストや省スペースを確保することが可能となる。なお、本実施例では絞り形状を円形と見なして説明した。一般的に市販されている交換レンズは、実際には六枚羽根による六角絞りなど複数の形状があるが、予め円形と見なしても誤差が少ないことを確認できるため、本実施例をそのまま適用可能である。実際の絞り形状で誤差が大きいレンズについては、予め特殊レンズとしてデータを格納しておけばよい。 With the configuration as described above, the correction coefficient corresponding to the vignetting state of the light fluxes at the focus detection positions Img1, 2 and 3 can be read, the image can be restored by simple calculation, and the focusing accuracy can be improved. Accordingly, processing by a simple arithmetic processing circuit is possible, and low cost and space saving can be ensured. In the present embodiment, the diaphragm shape is described as being circular. In general, interchangeable lenses on the market actually have multiple shapes such as a hexagonal diaphragm with six blades, but it can be confirmed that there are few errors even if it is assumed to be circular in advance, so this example can be applied as it is It is. For a lens with an actual aperture shape and a large error, data may be stored in advance as a special lens.
本実施例によれば、一般的に市販されている交換レンズに対しても、共通のシェーディング補正データより、個々のシェーディング補正係数を簡単な演算処理により算出することができる。このため、小規模な演算処理にも関わらず所望のシェーディング補正の精度を確保することが可能となる。また、簡易な演算処理回路による処理が可能となり、低コストで、焦点検出スピードを確保することが可能となる。 According to the present embodiment, individual shading correction coefficients can be calculated from a common shading correction data by a simple calculation process even for a commercially available interchangeable lens. For this reason, it is possible to ensure the desired accuracy of shading correction in spite of small-scale arithmetic processing. Further, processing by a simple arithmetic processing circuit is possible, and the focus detection speed can be secured at low cost.
以上、本発明の実施例について具体的に説明した。ただし、本発明は上記実施例として記載された事項に限定されるものではなく、本発明の技術思想を逸脱しない範囲内で適宜変更が可能である。 The embodiment of the present invention has been specifically described above. However, the present invention is not limited to the matters described as the above-described embodiments, and can be appropriately changed without departing from the technical idea of the present invention.
101 第1レンズ群
102 絞り兼用シャッタ
103 第2レンズ群
105 第3レンズ群
107 撮像素子
121 CPU
101 First Lens Group 102 Shutter / Shutter 103 Second Lens Group 105 Third Lens Group 107 Image Sensor 121 CPU
Claims (6)
前記複数の焦点検出用画素から一対の像信号を取得して前記結像光学系の焦点状態を検出する焦点検出手段と、
前記焦点検出手段による前記焦点状態の検出の際に、前記焦点検出用画素の位置での射出瞳の開口の形状が前記絞りの開口の形状に依存するように前記絞りを制御する制御手段と、を有することを特徴とする撮像装置。 An imaging unit having a plurality of focus detection pixels for photoelectrically converting an image formed by dividing an exit pupil of a light beam that has passed through a lens unit having a diaphragm and an imaging optical system;
Focus detection means for acquiring a pair of image signals from the plurality of focus detection pixels and detecting a focus state of the imaging optical system;
Control means for controlling the diaphragm so that the shape of the exit pupil opening at the position of the focus detection pixel depends on the shape of the aperture of the diaphragm when the focus state is detected by the focus detection means; An imaging device comprising:
前記データ格納手段は、前記結像光学系の射出瞳面上での絞り中心ズレに対応する焦点検出に関する補正値を格納していることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus further includes data storage means,
The imaging apparatus according to claim 1, wherein the data storage unit stores a correction value related to focus detection corresponding to an aperture center shift on an exit pupil plane of the imaging optical system.
前記複数の焦点検出用画素から一対の像信号を取得して前記結像光学系の焦点状態を検出する工程と、
前記焦点状態の検出の際に、前記焦点検出用画素の位置での射出瞳の開口の形状が前記絞りの開口の形状に依存するように前記絞りを制御する工程と、を有することを特徴とする撮像方法。 A step of photoelectrically converting an image formed by dividing an exit pupil of a light beam that has passed through a lens unit having an aperture and an imaging optical system by a plurality of focus detection pixels;
Obtaining a pair of image signals from the plurality of focus detection pixels and detecting a focus state of the imaging optical system;
And controlling the stop so that the shape of the opening of the exit pupil at the position of the focus detection pixel depends on the shape of the opening of the stop when the focus state is detected. Imaging method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010098895A JP2011227388A (en) | 2010-04-22 | 2010-04-22 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010098895A JP2011227388A (en) | 2010-04-22 | 2010-04-22 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011227388A true JP2011227388A (en) | 2011-11-10 |
Family
ID=45042762
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010098895A Abandoned JP2011227388A (en) | 2010-04-22 | 2010-04-22 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011227388A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012182332A (en) * | 2011-03-02 | 2012-09-20 | Sony Corp | Imaging element and imaging device |
| JP2017054052A (en) * | 2015-09-11 | 2017-03-16 | キヤノン株式会社 | Control device, imaging device, control method, program, and storage medium |
| JP2017219782A (en) * | 2016-06-10 | 2017-12-14 | キヤノン株式会社 | Control device, imaging device, control method, program, and storage medium |
| JP2019028142A (en) * | 2017-07-26 | 2019-02-21 | キヤノン株式会社 | Imaging apparatus and control method thereof |
-
2010
- 2010-04-22 JP JP2010098895A patent/JP2011227388A/en not_active Abandoned
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012182332A (en) * | 2011-03-02 | 2012-09-20 | Sony Corp | Imaging element and imaging device |
| JP2017054052A (en) * | 2015-09-11 | 2017-03-16 | キヤノン株式会社 | Control device, imaging device, control method, program, and storage medium |
| JP2017219782A (en) * | 2016-06-10 | 2017-12-14 | キヤノン株式会社 | Control device, imaging device, control method, program, and storage medium |
| JP2019028142A (en) * | 2017-07-26 | 2019-02-21 | キヤノン株式会社 | Imaging apparatus and control method thereof |
| JP7005209B2 (en) | 2017-07-26 | 2022-01-21 | キヤノン株式会社 | Image pickup device and its control method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5675157B2 (en) | Focus detection device | |
| JP5237059B2 (en) | Focus detection apparatus and method, and imaging apparatus | |
| JP5276374B2 (en) | Focus detection device | |
| JP5147645B2 (en) | Imaging device | |
| JP5322561B2 (en) | Imaging apparatus and control method thereof | |
| JP5028154B2 (en) | Imaging apparatus and control method thereof | |
| JP5606208B2 (en) | Focus detection apparatus and imaging apparatus | |
| JP5746496B2 (en) | Imaging device | |
| JP5455397B2 (en) | Optical equipment | |
| US8159599B2 (en) | Focus detection apparatus, focus detection method, and image sensing apparatus | |
| CN102318335B (en) | Image capturing apparatus | |
| JP5319347B2 (en) | Imaging apparatus and control method thereof | |
| JP5276371B2 (en) | Imaging device | |
| JP5552214B2 (en) | Focus detection device | |
| JP5503209B2 (en) | Imaging device and imaging apparatus | |
| JP2010020015A (en) | Image pick up apparatus | |
| JP2012220925A (en) | Imaging apparatus and camera system | |
| JP2012220790A (en) | Imaging apparatus | |
| JP2011227388A (en) | Imaging device | |
| JP2014235417A (en) | Image-capturing device and control method therefor | |
| JP5735784B2 (en) | Imaging device and control method thereof, lens device and control method thereof | |
| JP5864989B2 (en) | Imaging device and imaging apparatus | |
| JP5748826B2 (en) | Imaging apparatus and camera system | |
| JP6254780B2 (en) | Focus detection apparatus and method, and imaging apparatus | |
| JP2014013392A (en) | Imaging apparatus and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130415 |
|
| A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20130729 |