[go: up one dir, main page]

JP2012128101A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012128101A
JP2012128101A JP2010278380A JP2010278380A JP2012128101A JP 2012128101 A JP2012128101 A JP 2012128101A JP 2010278380 A JP2010278380 A JP 2010278380A JP 2010278380 A JP2010278380 A JP 2010278380A JP 2012128101 A JP2012128101 A JP 2012128101A
Authority
JP
Japan
Prior art keywords
signal
pixel
image
imaging
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010278380A
Other languages
Japanese (ja)
Inventor
Keigo Matsuo
圭悟 松尾
Hisashi Goto
尚志 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010278380A priority Critical patent/JP2012128101A/en
Publication of JP2012128101A publication Critical patent/JP2012128101A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus using a phase difference distance measuring method, capable of consistently achieving highly accurate distance measurement, with a compact size and a small release time lag.SOLUTION: An imaging apparatus comprises: an imaging device which outputs a first subject image signal, and second and third subject image signals which are respectively photo-electrically converted from a second subject image and a third subject image formed by a pupil division method; a correlation calculation part which calculates a distance between the two images based on the second and the third subject image signals outputted from the imaging device identical to the imaging device to output the first subject image signal; a recognition part which recognizes the best image surface position, a correction value storage part which stores a correction value of the distance between the two images based on the information of the recognition result by the recognition part and the calculation result by the correlation calculation part; an imaging signal acquisition part which acquires the first subject image signal as an imaging signal; and an image construction part which creates image data based on the acquired imaging signal.

Description

本発明は、撮像装置に関するものである。   The present invention relates to an imaging apparatus.

一般的に位相差オートフォーカス(以下、適宜「AF」という。)の測距精度は、AFセンサーが取り込める重心Fnoと焦点検出用画素の間隔とで決まっている。
従来例の撮像用画素と焦点検出用画素が2次元的に配列された素子を用いた撮像装置としては、以下の特許文献1に開示された構成が知られている。
In general, the distance measurement accuracy of phase difference autofocus (hereinafter referred to as “AF” as appropriate) is determined by the center of gravity Fno that can be captured by the AF sensor and the interval between focus detection pixels.
As an imaging apparatus using an element in which imaging pixels and focus detection pixels of a conventional example are two-dimensionally arranged, a configuration disclosed in Patent Document 1 below is known.

特許第3592147号明細書Patent No. 3592147

従来の撮像装置には、主に以下の2つの測距方式がある。
(1)コントラスト方式
(2)位相差方式
(1)のコントラスト方式では、フォーカシング状態を変えてウォブリングを行いながらコントラスト値を評価する、いわゆる山登り方式を採用している。このため、合焦時間が長い。
Conventional imaging apparatuses mainly have the following two distance measuring methods.
(1) Contrast method (2) Phase difference method The contrast method (1) employs a so-called hill-climbing method in which the contrast value is evaluated while changing the focusing state and performing wobbling. For this reason, the focusing time is long.

また(2)の位相差方式では、原理的に1回の測距でデフォーカス量を検出できる。このため、合焦時間は短い。
位相差方式は、コンパクトでレリーズタイムラグが少ない、という利点を有している。
In the phase difference method (2), in principle, the defocus amount can be detected by one distance measurement. For this reason, the focusing time is short.
The phase difference method has an advantage of being compact and having a small release time lag.

位相差方式を採用している撮像装置において、レンズ交換をするとき、レンズデータが既知であり取得可能な場合、位相差AF時の補正値を算出することが可能である。これに対して、レンズ自体からデータを取得することができない場合、位相差AFの補正値を算出することが出来ない。
そこで、上述したコンパクトでありレリーズタイムラグが少ない、という利点を損なうことなく、さらに、高精度な位相差AFを行えることが望まれている。
In an imaging apparatus that employs a phase difference method, when exchanging lenses, if lens data is known and can be acquired, a correction value at the time of phase difference AF can be calculated. On the other hand, when data cannot be acquired from the lens itself, a correction value for phase difference AF cannot be calculated.
Therefore, it is desired that the phase difference AF can be performed with higher accuracy without impairing the advantages of the above-described compact and small release time lag.

本発明は、上記に鑑みてなされたものであって、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる撮像装置を提供することを目的とする。   The present invention has been made in view of the above, and is an imaging apparatus that employs a phase difference ranging method, which is compact, has a small release time lag, and can always perform highly accurate focusing. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明の撮像装置は、
2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、及び、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像並びに第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する撮像素子と、
第1の被写体像信号を出力する撮像素子と同一の撮像素子が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
ベスト像面位置であることを認識する認識部と、
認識部の認識結果の情報と、相関演算部の演算結果とに基づいて、2像間隔を補正値として格納する補正値格納部と、
第1の被写体像信号を撮像信号として取得する撮像信号取得部と、
取得した撮像信号に基づいて画像データを生成する画像構成部と、
を有する。
In order to solve the above-described problems and achieve the object, the imaging apparatus of the present invention includes:
The first subject image signal formed by the light beam from the imaging optical system and the second light beam formed by dividing the pupil among the light beam from the imaging optical system, having a plurality of pixels arranged two-dimensionally. An image sensor that photoelectrically converts each of the subject image and the third subject image, and outputs a second subject image signal and a third subject image signal;
A correlation calculation unit that calculates an interval between two images based on a second subject image signal and a third subject image signal output from the same image sensor as the image sensor that outputs the first subject image signal;
A recognition unit that recognizes the best image plane position;
A correction value storage unit that stores a two-image interval as a correction value based on the recognition result information of the recognition unit and the calculation result of the correlation calculation unit;
An imaging signal acquisition unit that acquires a first subject image signal as an imaging signal;
An image constructing unit that generates image data based on the acquired imaging signal;
Have

また、本発明の好ましい態様によれば、認識部は、撮像素子の同じ画素からの信号に基づいたコントラスト方式による測距結果と位相差方式による測距結果とを比較して、ベスト像面位置であることを認識することが望ましい。   Further, according to a preferred aspect of the present invention, the recognition unit compares the distance measurement result by the contrast method and the distance measurement result by the phase difference method based on the signal from the same pixel of the image sensor to determine the best image plane position. It is desirable to recognize that.

また、本発明の好ましい態様によれば、補正値格納部は、認識部がベスト像面位置と認識しているときの相関演算部の結果を補正値として格納することが望ましい。   According to a preferred aspect of the present invention, it is desirable that the correction value storage unit stores the result of the correlation calculation unit when the recognition unit recognizes the best image plane position as a correction value.

また、本発明の好ましい態様によれば、補正値格納部は、相関演算部の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠と推測されるときの補正値と、距離が至近端と推測されるときの補正値と、距離が無限遠でも至近端でもないと推測されるときの補正値とを、それぞれ別々に格納することが望ましい。   Further, according to a preferred aspect of the present invention, the correction value storage unit corrects the correction value when the distance to the subject corresponding to the first subject image signal is estimated to be infinite based on the calculation result of the correlation calculation unit. It is desirable to store separately the correction value when the distance is estimated to be the closest end and the correction value when the distance is estimated to be neither infinity nor the close end.

本発明によれば、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus that employs a phase difference ranging method, is compact, has a small release time lag, and can always perform highly accurate focusing.

本発明の実施形態に係るデジタルカメラの内部構成を示す図である。It is a figure which shows the internal structure of the digital camera which concerns on embodiment of this invention. 本実施形態に係るデジタルカメラの射出瞳の構成を示す図である。It is a figure which shows the structure of the exit pupil of the digital camera which concerns on this embodiment. 本実施形態における撮像素子の光電変換部の構成を示す図である。It is a figure which shows the structure of the photoelectric conversion part of the image pick-up element in this embodiment. 本実施形態における撮像素子の隣り合う二つの画素の構造を示す断面図である。It is sectional drawing which shows the structure of two adjacent pixels of the image pick-up element in this embodiment. 本実施形態における撮像素子の内部構成を示す図である。It is a figure which shows the internal structure of the image pick-up element in this embodiment. 本実施形態における撮像素子の内部構成を示す図である。It is a figure which shows the internal structure of the image pick-up element in this embodiment. 撮像素子の構成(バリエーション1)を示す平面図である。It is a top view which shows the structure (variation 1) of an image pick-up element. 撮像素子の構成(バリエーション2)を示す平面図である。It is a top view which shows the structure (variation 2) of an image pick-up element. 撮像素子の構成(バリエーション3)を示す平面図である。It is a top view which shows the structure (variation 3) of an image pick-up element. 撮像素子の構成(バリエーション4)を示す平面図である。It is a top view which shows the structure (variation 4) of an image pick-up element. 本実施形態に係るデジタルカメラの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the digital camera which concerns on this embodiment. 本実施形態に係るデジタルカメラの構成を示す他の機能ブロック図である。It is another functional block diagram which shows the structure of the digital camera which concerns on this embodiment. エレメントカーブを説明する図である。It is a figure explaining an element curve. 補正値を算出する手順を示すフローチャートである。It is a flowchart which shows the procedure which calculates a correction value. 補正値を算出する手順を示す他のフローチャートである。It is another flowchart which shows the procedure which calculates a correction value. 補正値を算出する手順を示す別のフローチャートである。It is another flowchart which shows the procedure which calculates a correction value.

以下に、本発明に係る撮像装置の実施形態を図面に基づいて詳細に説明する。なお、以下の実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the following embodiment.

(デジタルカメラ)
まず、本発明の実施形態に係る撮像装置を備えたカメラについて説明する。
図1は、本発明の実施形態に係るデジタルカメラ11の内部構成を示す図である。
デジタルカメラ11は、交換レンズ12と、カメラボディ13と、から構成され、交換レンズ12はマウント部14によりカメラボディ13に装着される。
(Digital camera)
First, a camera including an imaging device according to an embodiment of the present invention will be described.
FIG. 1 is a diagram showing an internal configuration of a digital camera 11 according to an embodiment of the present invention.
The digital camera 11 includes an interchangeable lens 12 and a camera body 13, and the interchangeable lens 12 is attached to the camera body 13 by a mount unit 14.

交換レンズ12は、レンズ制御部30、レンズ駆動部16、絞り駆動部15、ズーミング用レンズ18、レンズ19、フォーカシング用レンズ20、及び、絞り21を備えている。レンズ制御部30は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ20と絞り21の駆動制御、絞り21、ズーミング用レンズ18およびフォーカシング用レンズ20の状態検出、並びに、ボディ制御部24に対するレンズ情報の送信とカメラ情報の受信などを行う。
また、レンズの状態の他に、レンズデータそのものに関する諸元値は、レンズデータ格納部32に格納されている。
The interchangeable lens 12 includes a lens control unit 30, a lens driving unit 16, a diaphragm driving unit 15, a zooming lens 18, a lens 19, a focusing lens 20, and a diaphragm 21. The lens control unit 30 includes peripheral components such as a microcomputer and a memory. The lens control unit 30 controls driving of the focusing lens 20 and the aperture 21, detects the state of the aperture 21, the zooming lens 18 and the focusing lens 20, and the body control unit 24. Lens information and camera information are received.
In addition to the lens state, specification values relating to the lens data itself are stored in the lens data storage unit 32.

絞り駆動部15は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、絞り21の開口径を制御する。また、レンズ駆動部16は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、ズーミング用レンズ18、フォーカシング用レンズ20を駆動する。   The aperture driving unit 15 controls the aperture diameter of the aperture 21 via the lens control unit 30 based on the signal from the body control unit 24. Further, the lens driving unit 16 drives the zooming lens 18 and the focusing lens 20 via the lens control unit 30 based on the signal from the body control unit 24.

カメラボディ13は撮像素子22、ボディ制御部24、液晶表示素子駆動回路25、液晶表示素子26、接眼レンズ27、メモリーカード29などを備えている。撮像素子22には後述する画素が二次元状に配列されており、交換レンズ12の予定結像面に配置されて交換レンズ12により結像される被写体像を撮像する。撮像素子22の所定の焦点検出位置には焦点検出用画素(以下、適宜「AF用画素」という)が配列される。   The camera body 13 includes an image sensor 22, a body control unit 24, a liquid crystal display element drive circuit 25, a liquid crystal display element 26, an eyepiece lens 27, a memory card 29, and the like. Pixels to be described later are arrayed two-dimensionally on the image sensor 22, and the subject image formed by the interchangeable lens 12 is captured by being arranged on the planned image formation surface of the interchangeable lens 12. Focus detection pixels (hereinafter referred to as “AF pixels” where appropriate) are arranged at predetermined focus detection positions of the image sensor 22.

ここで、交換レンズ12は撮像光学系に対応し、撮像素子22は撮像素子に対応する。   Here, the interchangeable lens 12 corresponds to an imaging optical system, and the imaging element 22 corresponds to an imaging element.

ボディ制御部24はマイクロコンピューターとメモリなどの周辺部品から構成され、撮像素子駆動回路28を介して、撮像素子22からの画像信号の読み出し、画像信号の補正、交換レンズ12の焦点調節状態の検出、レンズ制御部30からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルカメラ全体の動作制御などを行う。ボディ制御部24とレンズ制御部30は、マウント部14の電気接点部23を介して通信を行い、各種情報の授受を行う。   The body control unit 24 includes peripheral components such as a microcomputer and a memory, and reads out an image signal from the image sensor 22, corrects the image signal, and detects the focus adjustment state of the interchangeable lens 12 via the image sensor drive circuit 28. In addition, it receives lens information from the lens control unit 30, transmits camera information (defocus amount), and controls the operation of the entire digital camera. The body control unit 24 and the lens control unit 30 communicate via the electrical contact unit 23 of the mount unit 14 to exchange various information.

液晶表示素子駆動回路25は、液晶ビューファインダーの液晶表示素子26を駆動する。撮影者は接眼レンズ27を介して液晶表示素子26に表示された像を観察する。メモリーカード29はカメラボディ13に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display element driving circuit 25 drives the liquid crystal display element 26 of the liquid crystal viewfinder. The photographer observes an image displayed on the liquid crystal display element 26 through the eyepiece lens 27. The memory card 29 is removable from the camera body 13 and is a portable storage medium for storing and storing image signals.

交換レンズ12を通過して撮像素子22上に形成された被写体像は、撮像素子22により光電変換され、その出力はボディ制御部24へ送られる。ボディ制御部24は、撮像素子22上のAF用画素の出力データ(第1像信号、第2像信号)に基づいて所定の焦点検出位置におけるデフォーカス量に基づきレンズ駆動量を算出し、このレンズ駆動量をレンズ制御部30を介して、レンズ駆動部16へ送る。また、ボディ制御部24は、撮像素子22の出力に基づいて生成した画像信号をメモリーカード29に格納するとともに、画像信号を液晶表示素子駆動回路25へ送り、液晶表示素子26に画像を表示させる。   The subject image formed on the image sensor 22 through the interchangeable lens 12 is photoelectrically converted by the image sensor 22, and the output is sent to the body controller 24. The body control unit 24 calculates the lens drive amount based on the defocus amount at a predetermined focus detection position based on the output data (first image signal, second image signal) of the AF pixels on the image sensor 22. The lens driving amount is sent to the lens driving unit 16 via the lens control unit 30. The body control unit 24 stores the image signal generated based on the output of the image sensor 22 in the memory card 29 and sends the image signal to the liquid crystal display element driving circuit 25 to display the image on the liquid crystal display element 26. .

カメラボディ13には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられており、これらの操作部材からの操作状態信号をボディ制御部24が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。   The camera body 13 is provided with operation members (not shown) (shutter buttons, focus detection position setting members, etc.), and the body control unit 24 detects operation state signals from these operation members, and according to the detection results. The following operations (imaging operation, focus detection position setting operation, image processing operation) are controlled.

レンズ制御部30は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ制御部30は、レンズ18及びフォーカシング用レンズ20の位置と絞り21の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算すること、あるいは予め用意されたルックアップテーブル、例えばレンズデータ格納部32からモニター情報に応じたレンズ情報を選択する。レンズ制御部30は、受信したレンズ駆動量に基づいてフォーカシング用レンズ20を不図示のモーター等の駆動源により合焦点へと駆動する。   The lens control unit 30 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens control unit 30 monitors the positions of the lens 18 and the focusing lens 20 and the aperture position of the aperture 21 and calculates lens information according to the monitor information, or a lookup table prepared in advance. For example, lens information corresponding to the monitor information is selected from the lens data storage unit 32. The lens control unit 30 drives the focusing lens 20 to a focal point by a driving source such as a motor (not shown) based on the received lens driving amount.

(撮像素子の構成)
上述したデジタルカメラ11の構成は、同一の符号を用いる構成は、以下の全ての実施例において共通する。次に、デジタルカメラ11が有する撮像装置の撮像素子22の構成について説明する。
(Configuration of image sensor)
As for the configuration of the digital camera 11 described above, the configuration using the same reference numerals is common to all the following embodiments. Next, the configuration of the imaging element 22 of the imaging device included in the digital camera 11 will be described.

図2(a)〜(e)は、本発明の実施形態に係る撮像装置の射出瞳の構成を示す図である。デジタルスチルカメラ11における射出瞳Pは、図2(a)〜(e)に示すように、左右上下のうちの少なくとも2種類の瞳領域に対応する焦点検出用画素を有する。
具体例としては次の(1)〜(5)のとおりである。
2A to 2E are diagrams illustrating the configuration of the exit pupil of the imaging apparatus according to the embodiment of the present invention. As shown in FIGS. 2A to 2E, the exit pupil P in the digital still camera 11 has focus detection pixels corresponding to at least two types of pupil regions of left, right, upper and lower.
Specific examples are as follows (1) to (5).

(1)射出瞳Pを縦に2分割して、左側瞳検出用画素Lと右側瞳検出用画素Rを配置したもの(図2(a))
(2)射出瞳Pを横に2分割して、上側瞳検出用画素Uと下側瞳検出用画素Dを配置したもの(図2(b))
(3)左側瞳検出用画素Lと右側瞳検出用画素Rを左右に配置して、その一部を重ねたもの(図2(c))
(4)上側瞳検出用画素Uと下側瞳検出用画素Dを上下に配置して、その一部を重ねたもの(図2(d))
(5)左側瞳検出用画素Lと下側瞳検出用画素Dを任意の位置に配置して、その一部を重ねたもの(図2(e))
(1) The exit pupil P is vertically divided into two, and the left pupil detection pixel L and the right pupil detection pixel R are arranged (FIG. 2A).
(2) The exit pupil P is horizontally divided into two, and the upper pupil detection pixel U and the lower pupil detection pixel D are arranged (FIG. 2B)
(3) The left pupil detection pixel L and the right pupil detection pixel R are arranged on the left and right, and a part of them is overlapped (FIG. 2C).
(4) Upper pupil detection pixel U and lower pupil detection pixel D are arranged one above the other and partially overlapped (FIG. 2D)
(5) The left pupil detection pixel L and the lower pupil detection pixel D are arranged at arbitrary positions and a part thereof is overlapped (FIG. 2 (e)).

なお、測距用瞳の形状は、半円形状、楕円形状としたが、これに限定されず、他の形状、例えば矩形状、多角形状にすることもできる。
また、図2(a)と(b)を組み合わせて上下左右の焦点検出用画素を配置してもよい、図2(c)と(d)を組み合わせて上下左右の焦点検出用画素を配置してもよい、さらに、図2(c)と(e)を組み合わせて左右、斜め線検出の焦点検出用画素を配置してもよいが、これに限定されるものではない。
The shape of the distance measuring pupil is a semicircular shape or an elliptical shape. However, the shape is not limited to this, and other shapes such as a rectangular shape or a polygonal shape may be used.
2 (a) and 2 (b) may be combined to arrange the vertical and horizontal focus detection pixels, or FIG. 2 (c) and 2 (d) may be combined to arrange the vertical and horizontal focus detection pixels. Further, the focus detection pixels for detecting left and right and diagonal lines may be arranged by combining FIGS. 2C and 2E, but the present invention is not limited to this.

本実施形態の撮像装置では、瞳が異なる領域を有し、その領域の1つを透過した光束を受光する光電変換部の出力から得られる第1像信号と、もう1つの領域を透過した光束を受光する光電変換部の出力から得られる第2像信号と、に基づいて位相差を検出し、撮影レンズの焦点状態を検出する。
以下、図3〜図6を参照して、具体的な射出瞳の分割例について説明する。
In the imaging apparatus according to the present embodiment, the first image signal obtained from the output of the photoelectric conversion unit that receives a light beam having a different pupil area and transmitted through one of the regions, and the light beam transmitted through the other region. The phase difference is detected based on the second image signal obtained from the output of the photoelectric conversion unit that receives the light, and the focus state of the photographing lens is detected.
A specific example of exit pupil division will be described below with reference to FIGS.

(光電変換部の分割)
まず、図3を参照して、撮像素子22の光電変換部を分割することによって射出瞳を分割する例を説明する。
図3は、撮像素子22の光電変換部の構成を示す図である。
撮像素子22は、基板内に形成されたP型ウエル31、P型ウエル31と共に光電荷を発生させ蓄積するn型領域32α、32β、n型領域32α、32βに蓄積されている光電荷が転送される不図示のフローティングディフュージョン部(以下、「FD部」と称する。)、n型領域32α、32βに蓄積された光電荷をFD部へ効率よく転送するために光電荷を収集する表面p+層33α、33β、FD部へ光電荷を転送するための転送ゲート(不図示)、ゲート絶縁膜であるSiO膜34、ベイヤ配列のカラーフィルタ35、及び、被写体からの光を集めるマイクロレンズ36、を備える。
(Division of photoelectric conversion part)
First, an example in which the exit pupil is divided by dividing the photoelectric conversion unit of the image sensor 22 will be described with reference to FIG.
FIG. 3 is a diagram illustrating a configuration of the photoelectric conversion unit of the image sensor 22.
The imaging device 22 transfers the photocharges accumulated in the n-type regions 32α and 32β and the n-type regions 32α and 32β that generate and accumulate photocharges together with the p-type well 31 and the p-type well 31 formed in the substrate. Floating diffusion portion (not shown) (hereinafter referred to as “FD portion”), a surface p + layer that collects photocharges in order to efficiently transfer the photocharges accumulated in the n-type regions 32α and 32β to the FD portion. 33α, 33β, a transfer gate (not shown) for transferring photoelectric charges to the FD portion, a SiO 2 film 34 as a gate insulating film, a Bayer array color filter 35, and a microlens 36 for collecting light from a subject, Is provided.

マイクロレンズ36は、交換レンズ12(図1)の瞳と表面p+層33α、33βとが、概略共役になるような形状及び位置に形成されている。光電荷は、模式的には、領域37で発生する。   The microlens 36 is formed in a shape and position so that the pupil of the interchangeable lens 12 (FIG. 1) and the surface p + layers 33α and 33β are substantially conjugate. Photoelectric charges are typically generated in the region 37.

図3に示す例では、光電変換部が、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、に分割されており、これにより射出瞳が分割される。光線L31、L32は、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、にそれぞれ入射する。   In the example shown in FIG. 3, the photoelectric conversion unit is divided into an n-type region 32α and a surface p + layer 33α, and an n-type region 32β and a surface p + layer 33β, thereby dividing the exit pupil. Light rays L31 and L32 enter the n-type region 32α and the surface p + layer 33α, and the n-type region 32β and the surface p + layer 33β, respectively.

(開口部を偏心)
次に、図4を参照して、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させることによって射出瞳を分割する例を説明する。
図4は、撮像素子22の隣り合う二つの画素の構造を示す断面図である。
(Eccentric opening)
Next, an example in which the exit pupil is divided by decentering the opening of the pixel of the image sensor 22 with respect to the center of the photoelectric conversion element will be described with reference to FIG.
FIG. 4 is a cross-sectional view showing the structure of two adjacent pixels of the image sensor 22.

画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換素子46が配置されている。画素51も画素41と同様に、最上部から、順に、マイクロレンズ52、平滑層53、遮光膜54、平滑層55、及び、光電変換素子56が配置されている。   The pixel 41 has a microlens 42, a smooth layer 43 for forming a plane for forming the microlens 42, a light shielding film 44 for preventing color mixture of color pixels, and a color filter layer in order from the top. A smoothing layer 45 for flattening the surface and a photoelectric conversion element 46 are arranged. Similarly to the pixel 41, the pixel 51 also includes a micro lens 52, a smooth layer 53, a light shielding film 54, a smooth layer 55, and a photoelectric conversion element 56 in order from the top.

さらに、これらの画素41、51においては、遮光膜44、54が、光電変換素子46、56中心部47、57から外側に偏心した開口部48、58をそれぞれ有している。   Further, in these pixels 41 and 51, the light shielding films 44 and 54 have openings 48 and 58 that are eccentric to the outside from the central portions 47 and 57 of the photoelectric conversion elements 46 and 56, respectively.

図4に示す例では、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させている。このため、光線L41、L51は、光電変換素子46、56にそれぞれ入射することから、射出瞳が分割される。   In the example shown in FIG. 4, the opening of the pixel of the image sensor 22 is decentered with respect to the center of the photoelectric conversion element. For this reason, since the light rays L41 and L51 are incident on the photoelectric conversion elements 46 and 56, respectively, the exit pupil is divided.

つづいて、図5を参照して、レンズを偏心させることによって射出瞳を分割する例を説明する。図5は、撮像素子の内部構成を示す図である。
図5の撮像素子においては、それぞれの画素の上のオンチップレンズ61、62、63、64が独立して構成されている。
図5においては、画素集合Aの画素のオンチップレンズ61、63の光軸61a、63aは、画素の中心から左側にずれている。また、画素集合Bの画素のオンチップレンズ62、64の光軸62a、64aは画素の中心から右側にずれている。
2つの画素集合A、Bからの出力を比較することで、レンズ18のフォーカス量を算出することができる。
Next, an example in which the exit pupil is divided by decentering the lens will be described with reference to FIG. FIG. 5 is a diagram illustrating an internal configuration of the image sensor.
In the image sensor of FIG. 5, on-chip lenses 61, 62, 63, and 64 on each pixel are configured independently.
In FIG. 5, the optical axes 61a and 63a of the on-chip lenses 61 and 63 of the pixels in the pixel set A are shifted to the left from the center of the pixels. Further, the optical axes 62a and 64a of the on-chip lenses 62 and 64 of the pixels in the pixel set B are shifted to the right from the center of the pixels.
By comparing the outputs from the two pixel sets A and B, the focus amount of the lens 18 can be calculated.

オンチップレンズ61、62、63、64では、屈折力と光軸61a、62a、63a、64aの位置等の形状という2つのパラメータを独立してコントロールすることができる。画素数が十分多ければ、画素集合Aと画素集合Bは、同様の光の強度分布を得ることができ、これを利用して位相差AFを行うことができる。この時、画面全体でのデフォーカス量を検出できるので、被写体の3次元情報を取得することができる。   In the on-chip lenses 61, 62, 63, and 64, two parameters such as the refractive power and the shapes of the optical axes 61a, 62a, 63a, and 64a can be controlled independently. If the number of pixels is sufficiently large, the pixel set A and the pixel set B can obtain the same light intensity distribution, and the phase difference AF can be performed using this. At this time, since the defocus amount in the entire screen can be detected, the three-dimensional information of the subject can be acquired.

図5に示す例では、撮像素子22のオンチップレンズを画素の中心に対して偏心させている。このため、光線L61、L62は、オンチップレンズ61、62にそれぞれ入射し、これにより射出瞳が分割される。   In the example shown in FIG. 5, the on-chip lens of the image sensor 22 is decentered with respect to the center of the pixel. For this reason, the light rays L61 and L62 are incident on the on-chip lenses 61 and 62, respectively, thereby dividing the exit pupil.

次に、図6を参照しつつ、DML(デジタルマイクロレンズ)を用いて射出瞳を分割する例を説明する。図6は、撮像素子の内部構造を示す断面図である。
図6に示す撮像素子では、オンチップレンズをDMLで構成している。画素70と画素80はそれぞれ異なる領域からの光束を受光する隣り合った画素である。
Next, an example of dividing the exit pupil using DML (digital microlens) will be described with reference to FIG. FIG. 6 is a cross-sectional view showing the internal structure of the image sensor.
In the imaging device shown in FIG. 6, the on-chip lens is configured by DML. The pixel 70 and the pixel 80 are adjacent pixels that receive light beams from different regions.

図6において、撮像素子は、DML71、81、カラーフィルタ72、アルミニウム配線73、信号伝送部74、平坦化層75、受光素子76、86(例えばSiフォトダイオード)、及び、Si基板77を備える。図6に示すように、アルミニウム配線73、信号伝送部74、平滑化層75、受光素子76、86、及び、Si基板77は、半導体集積回路78を構成する。ここで、画素70と画素80の構成は、DML71、81以外は同様である。   In FIG. 6, the imaging device includes DMLs 71 and 81, a color filter 72, an aluminum wiring 73, a signal transmission unit 74, a planarization layer 75, light receiving elements 76 and 86 (for example, Si photodiodes), and a Si substrate 77. As shown in FIG. 6, the aluminum wiring 73, the signal transmission unit 74, the smoothing layer 75, the light receiving elements 76 and 86, and the Si substrate 77 constitute a semiconductor integrated circuit 78. Here, the configurations of the pixel 70 and the pixel 80 are the same except for the DMLs 71 and 81.

図6は、入射光束全体のうち、受光素子76、86にそれぞれ入射する光束の様子を示している。DML71、81を用いることにより、光束L71、L81は、画素70の受光素子76と画素80の受光素子86にそれぞれ入射し、射出瞳が分割される。   FIG. 6 shows a state of light beams incident on the light receiving elements 76 and 86, respectively, out of the entire incident light beam. By using the DMLs 71 and 81, the light beams L71 and L81 enter the light receiving element 76 of the pixel 70 and the light receiving element 86 of the pixel 80, respectively, and the exit pupil is divided.

撮像素子(イメージャ)としては、例えば、CCD(charge coupled device)、CMOS(Complementary Metal Oxide Semiconductor)、裏面照射型CMOS、1画素中でR、G、B全色を3層で取り込むことのできるセンサー(Forveon X3)を用いることができる。   As an imaging device (imager), for example, a CCD (charge coupled device), a CMOS (Complementary Metal Oxide Semiconductor), a back-illuminated CMOS, a sensor that can capture all three colors of R, G, and B in one pixel. (Forveon X3) can be used.

以下の実施例では、焦点検出用画素は、光電変換部の撮影レンズ側に形成されたオンチップレンズを画素の中心から偏心させることによって、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成されている。瞳分割の手段としては、上述のように、画素中心に対して遮光部材を用いて開口部を偏心させたものや、DMLを用いたもの、1画素中に光電変換部を2つ設けたものでもよい。   In the following embodiments, the focus detection pixel receives a light beam transmitted through a different position of the pupil of the photographing lens by decentering an on-chip lens formed on the photographing lens side of the photoelectric conversion unit from the center of the pixel. It is configured as follows. As described above, pupil division means uses a light shielding member for the center of the pixel to decenter the opening, uses DML, or provides two photoelectric conversion units in one pixel. But you can.

焦点検出用画素は、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成している。このため、焦点検出用画素からの信号レベルは、焦点検出用画素近傍の撮像用画素から出力される信号レベルと異なってしまうおそれがある。焦点検出用画素の位置における画像用の信号を得る為には、以下の(1)又は(2)の方法をとることが好ましい。
(1)焦点検出用画素の信号を周囲の撮像用画素の信号レベルと同等となるようにゲインを調整し、焦点検出用画素の位置における画像用信号とする。
(2)焦点検出用画素の信号および焦点検出用画素近傍の撮像用画素の信号に基づいて画素補間を行い、焦点検出用画素の位置における画像用信号とする。
The focus detection pixels are configured to receive light beams transmitted through different positions of the pupil of the photographing lens. For this reason, the signal level from the focus detection pixel may be different from the signal level output from the imaging pixel in the vicinity of the focus detection pixel. In order to obtain an image signal at the position of the focus detection pixel, it is preferable to adopt the following method (1) or (2).
(1) The gain is adjusted so that the signal of the focus detection pixel is equivalent to the signal level of the surrounding imaging pixels, and the signal is used as the image signal at the position of the focus detection pixel.
(2) Pixel interpolation is performed based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel to obtain an image signal at the position of the focus detection pixel.

ゲイン調整の方法については、次のように行う。
まず、焦点検出用画素から出力されたままの信号レベルと、焦点検出用画素近傍の撮像用画素から出力されたままの信号レベルと、を比較する。つづいて、焦点検出用画素から出力される信号レベルを近傍の撮像用画素から出力される信号レベルに近づけるようにゲインを調整する。その後、焦点検出用画素の信号をゲイン調整し得られた信号を画像信号としてデモザイキングを行い、最終画像を得る。
The gain adjustment method is performed as follows.
First, the signal level output from the focus detection pixel is compared with the signal level output from the imaging pixel in the vicinity of the focus detection pixel. Subsequently, the gain is adjusted so that the signal level output from the focus detection pixel approaches the signal level output from a nearby imaging pixel. Thereafter, demosaicing is performed by using the signal obtained by adjusting the gain of the focus detection pixel signal as an image signal to obtain a final image.

画素補間の方法については、以下の(a)〜(c)のいずれかが好ましいが、これらに限定されず、単純平均演算(重み付きも含む)だけでなく、線形補間、2次以上の多項式で補間、メディアン処理などで求めてもよい。
(a)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(b)焦点検出用画素の位置における信号を、焦点検出用画素の信号と焦点検出用画素近傍の撮像用画素の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(c)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号と焦点検出用画素の位置の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
The pixel interpolation method is preferably any one of the following (a) to (c), but is not limited to these, and is not limited to simple average calculation (including weighting), but also linear interpolation, quadratic or higher order polynomials It may be obtained by interpolation or median processing.
(A) The signal at the position of the focus detection pixel is interpolated based on the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used as the image signal at the position of the focus detection pixel. Perform mosaicing to get the final image.
(B) The signal at the position of the focus detection pixel is interpolated based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used for focus detection. Demosaicing is performed as an image signal at the pixel position to obtain a final image.
(C) Interpolate the signal at the position of the focus detection pixel based on the signal of the imaging pixel near the focus detection pixel, and based on the signal obtained by the interpolation and the signal of the position of the focus detection pixel Then, the signal obtained by the interpolation is demosaiced as an image signal at the position of the focus detection pixel to obtain a final image.

撮像素子の複数の画素には、複数の色フィルタがそれぞれ配置されている。後述する実施例3、4では、複数の色フィルタの透過特性は、R(赤)、G(緑)、B(青)の3通りとしている。
Bフィルタは、R、G、Bの異なる透過特性のうち、最も短波長側の透過特性をもつ色フィルタであり、Rフィルタは、最も長波長側の透過特性を持つ色フィルタであり、Gフィルタは、それ以外の透過特性を持つものである。
なお、複数の色フィルタは、少なくとも可視域の一部を含み、異なる透過特性を少なくとも3通り有していれば、ほかの組合せでも良い。
A plurality of color filters are respectively disposed in the plurality of pixels of the image sensor. In Examples 3 and 4 to be described later, the transmission characteristics of the plurality of color filters are R (red), G (green), and B (blue).
The B filter is a color filter having the transmission characteristic on the shortest wavelength side among the transmission characteristics having different R, G, and B, and the R filter is a color filter having the transmission characteristic on the longest wavelength side. Has other transmission characteristics.
The plurality of color filters may include other combinations as long as they include at least a part of the visible region and have at least three different transmission characteristics.

焦点検出用画素は、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタとして、Gフィルタを用いて、入射する光束の入射方向を制限している。
なお、焦点検出用画素は、Gフィルタに限らず、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタ、又は、最も透過率が高い色フィルタが配置される画素のうち少なくとも1部が、入射する光束の入射方向を制限するよう構成することができる。
The focus detection pixel uses the G filter as a color filter that weights the luminance signal most among the plurality of color filters, and restricts the incident direction of the incident light beam.
Note that the focus detection pixel is not limited to the G filter, and at least a part of the color filter that weights the luminance signal most among the plurality of color filters or the pixel in which the color filter having the highest transmittance is arranged. The incident direction of the incident light beam can be limited.

(画素配列のバリエーション1)
図7は、第1実施形態のイメージャにおける画素配置を概念的に示す平面図である。
図7に示すイメージャ(撮像装置)は、図3、図4、図5、図6で示した画素において、各画素中心と各光電変換領域の瞳の中心、または面積重心とを上方向、下方向、右側方向、左側方向にずらした画素、の組合せで構成されている。
(Pixel array variation 1)
FIG. 7 is a plan view conceptually showing a pixel arrangement in the imager of the first embodiment.
The imager (imaging device) illustrated in FIG. 7 has the pixel center illustrated in FIGS. 3, 4, 5, and 6 with the center of each pixel and the center of the pupil or the area center of gravity of each photoelectric conversion region in the upward direction and the downward direction. It is composed of a combination of pixels shifted in the direction, right direction, and left direction.

図7は、各画素の光軸方向から望んだときの光電変換領域を示したものである。
図7では、縦10画素(L01〜L10)、横10画素(F01〜F10)で合計100画素の例を示している。しかしながら、画素数はこれに限るものでなく、例えば合計画素が1000万画素を超えるものでも構わない。
FIG. 7 shows a photoelectric conversion region as desired from the optical axis direction of each pixel.
FIG. 7 shows an example of 10 pixels in the vertical direction (L01 to L10) and 10 pixels in the horizontal direction (F01 to F10), for a total of 100 pixels. However, the number of pixels is not limited to this. For example, the total number of pixels may exceed 10 million pixels.

図7に示す例では、画素中心に対し光電変換領域の面積中心のずれている方向が右側と左側と上側と下側の4種類がある。以下の説明では、それぞれを右画素120R、左画素120L、上画素120U、下画素120Dと称することとする。   In the example shown in FIG. 7, there are four types of directions in which the area center of the photoelectric conversion region is shifted with respect to the pixel center: right side, left side, upper side, and lower side. In the following description, they are referred to as a right pixel 120R, a left pixel 120L, an upper pixel 120U, and a lower pixel 120D, respectively.

図7において、L01の行では、左から(F01から)順に、左画素120L、撮像用画素121、左画素120L、撮像用画素121、が繰り返し配置されている。
L02の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L03の行では、左から順に、右画素120R、撮像用画素121、右画素120R、撮像用画素121、が繰り返し配置されている。
L04の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L05以降の行は、L01、L02、L03、L04のパターンを繰り返す配置になっている。
In FIG. 7, in the row L01, the left pixel 120L, the imaging pixel 121, the left pixel 120L, and the imaging pixel 121 are repeatedly arranged in order from the left (from F01).
In the row L02, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the lower pixel 120D are repeatedly arranged in order from the left.
In the row L03, the right pixel 120R, the imaging pixel 121, the right pixel 120R, and the imaging pixel 121 are repeatedly arranged in order from the left.
In the row L04, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the lower pixel 120D are repeatedly arranged in order from the left.
The rows after L05 are arranged to repeat the patterns of L01, L02, L03, and L04.

図7の配置をF01〜10の列から見ると次のようになる。
F01の列では、上から(L01から)順に、左画素120L、撮影用画素121、右画素120R、撮影用画素121、が繰り返し配置されている。
F02の列では、上から順に、撮影用画素121、上画素120U、撮影用画素121、上画素120U、が繰り返し配置されている。
F03以降の列は、F01、F02のパターンを繰り返す配置になっている。
The arrangement in FIG. 7 is viewed as follows from the columns F01 to F10.
In the column F01, the left pixel 120L, the shooting pixel 121, the right pixel 120R, and the shooting pixel 121 are repeatedly arranged in order from the top (from L01).
In the column F02, the imaging pixel 121, the upper pixel 120U, the imaging pixel 121, and the upper pixel 120U are repeatedly arranged in order from the top.
The columns after F03 are arranged to repeat the patterns F01 and F02.

以下の説明においては、特定の画素を示すときに、行番号L01〜L10と列番号F01〜F10を並べて表す。例えば、L01の行のうち、F01の列に対応する画素を「L01F01」で表す。   In the following description, row numbers L01 to L10 and column numbers F01 to F10 are shown side by side when a specific pixel is shown. For example, the pixel corresponding to the column F01 in the L01 row is represented by “L01F01”.

図7に示す例では、例えば、L01F01(左画素120L)と、L02F02(上画素120U)とL03F01(右画素120R)とL02F04(下画素120D)とのいずれかの画素とは、画素ピッチから算出される画素間距離より、瞳の中心間距離または重心間距離が狭い構成となる。   In the example illustrated in FIG. 7, for example, one of L01F01 (left pixel 120L), L02F02 (upper pixel 120U), L03F01 (right pixel 120R), and L02F04 (lower pixel 120D) is calculated from the pixel pitch. The distance between the centers of the pupils or the distance between the centers of gravity is smaller than the distance between the pixels.

第1実施形態の撮像装置では、左画素120Lから構成されるセル群と、右画素120Rから構成される別のセル群と、のそれぞれの出力信号(測距のための信号)から、位相差情報を算出して光学系のフォーカスを調整させることができる。   In the imaging apparatus according to the first embodiment, the phase difference is determined from the output signals (signals for ranging) of the cell group including the left pixel 120L and another cell group including the right pixel 120R. Information can be calculated to adjust the focus of the optical system.

例えば、L01の行の左画素120LであるL01F01、L01F03、L01F05、L01F07、L01F09から得られる出力波形と、L03の行の右画素120Rである、L03F01、L03F03、L03F05、L03F07、L03F09から得られる出力波形と、を比較することで、所謂位相差検出式によりデフォーカス情報や合焦点位置情報が取得できる。   For example, the output waveform obtained from L01F01, L01F03, L01F05, L01F07, and L01F09, which are the left pixels 120L in the L01 row, and the output obtained from L03F01, L03F03, L03F05, L03F07, and L03F09 that are the right pixels 120R in the L03 row By comparing the waveforms with each other, defocus information and in-focus position information can be acquired by a so-called phase difference detection formula.

(画素配列のバリエーション2)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 2)
Next, another configuration example of the imaging element included in the imaging device will be described.

図8の配置において、L05F01画素とL05F05画素とは、左側瞳検出用画素である。また、L05F03画素は、右側瞳検出用画素である。   In the arrangement of FIG. 8, the L05F01 pixel and the L05F05 pixel are left pupil detection pixels. The L05F03 pixel is a right pupil detection pixel.

これにより、精度の高い焦点検出を行うことができる。   Thereby, focus detection with high accuracy can be performed.

(画素配列のバリエーション3)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 3)
Next, another configuration example of the imaging element included in the imaging device will be described.

図9のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。   The arrangement of the color filters in FIG. 9 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.

また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.

ここで、緑色のフィルタGが配置されている、L05F01画素とL05F09画素とは、左側瞳検出用画素である。また、L05F05画素は、右側瞳検出用画素である。   Here, the L05F01 pixel and the L05F09 pixel in which the green filter G is disposed are the left pupil detection pixels. The L05F05 pixel is a right pupil detection pixel.

これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要ない。   This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.

(画素配列のバリエーション4)
次に、撮像装置が備える撮像素子のさらに他の構成例について説明する。
(Pixel array variation 4)
Next, still another configuration example of the imaging element included in the imaging device will be described.

図10のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。   The arrangement of the color filters in FIG. 10 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.

また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.

ここで、緑色のフィルタGが配置されている、L01F01画素と、L01F09画素と、L09F01画素と、L09F09画素とは、左側瞳検出用画素である。
また、L05F01画素と、L05F09画素とは、右側瞳検出用画素である。
また、L01F05画素と、L09F05画素とは、上側瞳検出用画素である。
さらに、L05F05画素は、下側瞳検出用画素である。
Here, the L01F01 pixel, the L01F09 pixel, the L09F01 pixel, and the L09F09 pixel in which the green filter G is arranged are left pupil detection pixels.
The L05F01 pixel and the L05F09 pixel are right pupil detection pixels.
The L01F05 pixel and the L09F05 pixel are upper pupil detection pixels.
Further, the L05F05 pixel is a lower pupil detection pixel.

これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要はない。   This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.

(機能ブロックの説明)
本実施形態では、認識部138(図11、図12)は、後述するように、ベスト像面位置を認識する。この認識に関して、以下の2通りの手順(a)、(b)がある。
(a)撮影者がマニュアルフォーカス(以下、適宜「MF」)モードを用いてベスト像面位置、つまり最もピントが合っている状態を認識する。
(b)コントラストAF方式を用いてベスト像面位置を認識する。
(Description of functional block)
In the present embodiment, the recognition unit 138 (FIGS. 11 and 12) recognizes the best image plane position, as will be described later. Regarding this recognition, there are the following two procedures (a) and (b).
(A) The photographer recognizes the best image plane position, that is, the most focused state using the manual focus (hereinafter referred to as “MF” as appropriate) mode.
(B) The best image plane position is recognized using the contrast AF method.

図11は、交換レンズ12がAFに対応していないAF不可レンズの場合に、MFモードを用いて、ベスト像面を認識する撮像装置11のボディ制御部24の機能ブロックを示す図である。なお、図1で示す構成と同一の構成には、同じ参照番号を付し、重複する説明は省略する。   FIG. 11 is a diagram illustrating functional blocks of the body control unit 24 of the imaging apparatus 11 that recognizes the best image plane using the MF mode when the interchangeable lens 12 is an AF non-AF lens that does not support AF. In addition, the same reference number is attached | subjected to the structure same as the structure shown in FIG. 1, and the overlapping description is abbreviate | omitted.

撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がラインaを経由してA/D変換部131へ入力する。   From the image sensor 22, a signal for identifying which signal is a signal from the imaging pixel, a signal from the focus detection pixel, the first image signal, or the second image signal passes through the line a. To the A / D converter 131.

撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がA/D変換部131へ入力する。   From the image sensor 22, a signal for identifying which signal is a signal from the imaging pixel, a signal from the focus detection pixel, the first image signal, or the second image signal is an A / D converter. Input to 131.

像信号取得部(撮像信号取得部)133は、A/D信号処理部131と信号処理部132を経由した信号を取得する。撮影用画素からの信号は、表示画像構成部135により、液晶表示素子駆動回路25へ出力される。液晶表示素子(表示部)26は、撮影用の画像を表示する。撮影者は、接眼レンズ27を通して撮影用の画像を観察できる。   The image signal acquisition unit (imaging signal acquisition unit) 133 acquires a signal that has passed through the A / D signal processing unit 131 and the signal processing unit 132. A signal from the imaging pixel is output to the liquid crystal display element driving circuit 25 by the display image forming unit 135. The liquid crystal display element (display unit) 26 displays an image for photographing. The photographer can observe an image for photographing through the eyepiece lens 27.

記録画像構成部134は、撮影用画素からの信号に基づいて記録画像データを構成する。記録画像データは、メモリーカード29に格納される。
記録画像構成部134と表示画像構成部135とは、取得した撮像信号に基づいて画像データを生成する画像構成部に対応する。
The recorded image configuration unit 134 configures recorded image data based on signals from the imaging pixels. The recorded image data is stored in the memory card 29.
The recorded image configuration unit 134 and the display image configuration unit 135 correspond to an image configuration unit that generates image data based on the acquired imaging signal.

また、焦点検出用画素からの信号は、像信号取得部133から相関演算部136へ出力される。   A signal from the focus detection pixel is output from the image signal acquisition unit 133 to the correlation calculation unit 136.

撮像素子22は、2次元に配列された複数の画素を有し、撮像光学系であるレンズ18、19、20からの光束により形成された第1の被写体像信号、並びに、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する。詳細は後述する。   The imaging element 22 has a plurality of pixels arranged two-dimensionally, and includes a first subject image signal formed by light beams from lenses 18, 19, and 20 that are imaging optical systems, and an imaging optical system. Of the luminous flux, the second subject image and the third subject image formed by pupil division are photoelectrically converted, and the second subject image signal and the third subject image signal are output. Details will be described later.

相関演算部136は、第1像信号、及び第2像信号に基づいて相関演算を行う。つまり、相関演算部136は、第1の被写体像信号を出力する撮像素子22と同一の撮像素子22が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する。   The correlation calculation unit 136 performs a correlation calculation based on the first image signal and the second image signal. That is, the correlation calculation unit 136 determines the interval between the two images based on the second subject image signal and the third subject image signal output from the same image sensor 22 that outputs the first subject image signal. Is calculated.

また、補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する   Further, the correction value storage unit 137 stores the two-image interval as a correction value based on the recognition result information of the recognition unit 138 and the calculation result of the correlation calculation unit 137.

補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。   The correction value storage unit 137 stores the two-image interval as a correction value based on the recognition result information of the recognition unit 138 and the calculation result of the correlation calculation unit 137.

ここでは、補正値格納部137は、認識部138がベスト像面位置と認識しているときの相関演算部137の結果を補正値として格納する。
これにより、位相差AFとの結果を補正して、マニュアルフォーカスモードによるピント合わせの結果に一致させることができる。
Here, the correction value storage unit 137 stores the result of the correlation calculation unit 137 when the recognition unit 138 recognizes the best image plane position as a correction value.
As a result, the result of the phase difference AF can be corrected and matched with the result of focusing in the manual focus mode.

図12は、交換レンズ12がAFに対応しているAFレンズの場合に、コントラストAFモードを用いて、ベスト像面を認識する撮像装置11のボディ制御部24の機能ブロックを示す図である。なお、図1で示す構成と同一の構成には、同じ参照番号を付し、重複する説明は省略する。   FIG. 12 is a diagram illustrating functional blocks of the body control unit 24 of the imaging apparatus 11 that recognizes the best image plane using the contrast AF mode when the interchangeable lens 12 is an AF lens that supports AF. In addition, the same reference number is attached | subjected to the structure same as the structure shown in FIG. 1, and the overlapping description is abbreviate | omitted.

撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がラインaを経由してA/D変換部131へ入力する。   From the image sensor 22, a signal for identifying which signal is a signal from the imaging pixel, a signal from the focus detection pixel, the first image signal, or the second image signal passes through the line a. To the A / D converter 131.

撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がA/D変換部131へ入力する。   From the image sensor 22, a signal for identifying which signal is a signal from the imaging pixel, a signal from the focus detection pixel, the first image signal, or the second image signal is an A / D converter. Input to 131.

像信号取得部(撮像信号取得部)133は、A/D信号処理部131と信号処理部132を経由した信号を取得する。撮影用画素からの信号は、表示画像構成部135により、液晶表示素子駆動回路25へ出力される。液晶表示素子(表示部)26は、撮影用の画像を表示する。撮影者は、接眼レンズ27を通して撮影用の画像を観察できる。   The image signal acquisition unit (imaging signal acquisition unit) 133 acquires a signal that has passed through the A / D signal processing unit 131 and the signal processing unit 132. A signal from the imaging pixel is output to the liquid crystal display element driving circuit 25 by the display image forming unit 135. The liquid crystal display element (display unit) 26 displays an image for photographing. The photographer can observe an image for photographing through the eyepiece lens 27.

記録画像構成部134は、撮影用画素からの信号に基づいて記録画像データを構成する。記録画像データは、メモリーカード29に格納される。
記録画像構成部134と表示画像構成部135とは、取得した撮像信号に基づいて画像データを生成する画像構成部に対応する。
The recorded image configuration unit 134 configures recorded image data based on signals from the imaging pixels. The recorded image data is stored in the memory card 29.
The recorded image configuration unit 134 and the display image configuration unit 135 correspond to an image configuration unit that generates image data based on the acquired imaging signal.

また、焦点検出用画素からの信号は、像信号取得部133から相関演算部136へ出力される。   A signal from the focus detection pixel is output from the image signal acquisition unit 133 to the correlation calculation unit 136.

撮像素子22は、2次元に配列された複数の画素を有し、撮像光学系であるレンズ18、19、20からの光束により形成された第1の被写体像信号、並びに、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する。   The imaging element 22 has a plurality of pixels arranged two-dimensionally, and includes a first subject image signal formed by light beams from lenses 18, 19, and 20 that are imaging optical systems, and an imaging optical system. Of the luminous flux, the second subject image and the third subject image formed by pupil division are photoelectrically converted, and the second subject image signal and the third subject image signal are output.

相関演算部136は、第1像信号、及び第2像信号に基づいて相関演算を行う。つまり、相関演算部136は、第1の被写体像信号を出力する撮像素子22と同一の撮像素子22が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する。   The correlation calculation unit 136 performs a correlation calculation based on the first image signal and the second image signal. That is, the correlation calculation unit 136 determines the interval between the two images based on the second subject image signal and the third subject image signal output from the same image sensor 22 that outputs the first subject image signal. Is calculated.

また、補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。   Further, the correction value storage unit 137 stores the two-image interval as a correction value based on the recognition result information of the recognition unit 138 and the calculation result of the correlation calculation unit 137.

ここで、コントラストAFモードにより、ベスト像面位置となるようにフォーカシングする。
コントラストAF制御部141は、制御部140を介して、フォーカスレンズ駆動部16、絞り制御部15を制御する。コントラスト方式では、フォーカシング状態を変えながらコントラスト値を評価する、いわゆる山登り方式を採用している。これにより、撮像した画像のコントラストが最も高い状態を検出する。
この状態を、認識部138は、ベスト像面位置であることを認識する。
補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。
Here, focusing is performed so that the best image plane position is obtained in the contrast AF mode.
The contrast AF control unit 141 controls the focus lens driving unit 16 and the aperture control unit 15 via the control unit 140. The contrast method employs a so-called hill-climbing method in which the contrast value is evaluated while changing the focusing state. Thereby, the state where the contrast of the captured image is the highest is detected.
In this state, the recognition unit 138 recognizes that it is the best image plane position.
The correction value storage unit 137 stores the two-image interval as a correction value based on the recognition result information of the recognition unit 138 and the calculation result of the correlation calculation unit 137.

認識部138は、撮像素子22の同じ前記画素からの信号に基づいたコントラストAF方式による測距結果と位相差AF方式による測距結果とを比較して、ベスト像面位置であることを認識する。   The recognizing unit 138 compares the distance measurement result by the contrast AF method and the distance measurement result by the phase difference AF method based on the signal from the same pixel of the image sensor 22, and recognizes the best image plane position. .

補正値格納部137は、ベスト像面位置から所定距離ずれた位置における2像間隔を推定し、所定距離であるずれ量と、推定された2像間隔と、所定距離ずれた位置における相関演算結果と、に基づいて補正値を算出し、補正値として格納する。
これにより、位相差AFとの結果を補正して、コントラストAFモードによるピント合わせの結果に一致させることができる。
The correction value storage unit 137 estimates a two-image interval at a position that is deviated by a predetermined distance from the best image plane position, and a correlation calculation result at a position that deviates from the predetermined distance, the estimated two-image interval, and a predetermined distance. The correction value is calculated based on the above and stored as a correction value.
As a result, the result of the phase difference AF can be corrected and matched with the result of focusing in the contrast AF mode.

次に、補正値による補正の内容を説明する。図13(a)、(b)、(c)は、デフォーカス量(横軸)と、2像間隔(縦軸)との比例関係(以下、適宜、「デフォーカスエレメントカーブ」という。)を示す図である。   Next, the content of correction using correction values will be described. FIGS. 13A, 13B, and 13C show the proportional relationship between the defocus amount (horizontal axis) and the interval between two images (vertical axis) (hereinafter referred to as “defocus element curve” as appropriate). FIG.

図13(a)は、従来の位相差AFについてデフォーカスエレメントが既知の場合を示している。
相関演算により2像間隔(EL)が算出される。例えば、2像間隔は所定の距離aである。また、2像間隔に対応するデフォーカス量bが得られる。
このデフォーカス量に基づき、レンズ駆動量を算出し、レンズを駆動する。
FIG. 13A shows a case where the defocus element is known for the conventional phase difference AF.
A two-image interval (EL) is calculated by correlation calculation. For example, the interval between two images is a predetermined distance a. Further, a defocus amount b corresponding to the interval between two images is obtained.
Based on this defocus amount, a lens drive amount is calculated to drive the lens.

ここで、相関演算から得られるデフォーカスエレメントカーブの切片は0(ゼロ)を通らない。そのため、補正値を用いて、切片が0(ゼロ)を通るように補正している。
一般的にこの補正値は、撮影時に演算して求めるものではなく、データとして格納されている。
Here, the intercept of the defocus element curve obtained from the correlation calculation does not pass 0 (zero). Therefore, correction is performed so that the intercept passes through 0 (zero) using the correction value.
In general, this correction value is not obtained by calculation at the time of photographing, but is stored as data.

図13(b)は、従来構成において、デフォーカスエレメントが未知の場合を示している。
デフォーカスエレメントカーブが未知のため、傾き、切片が未知である。1ポイントの相関演算結果では、傾きと切片は、算出できない。つまり、補正値が算出できない。
なお、1点鎖線、2点鎖線で示す直線を、未知のデフォーカスエレメントカーブの参考として示している。
FIG. 13B shows a case where the defocus element is unknown in the conventional configuration.
Since the defocus element curve is unknown, the slope and intercept are unknown. The slope and intercept cannot be calculated from the one-point correlation calculation result. That is, the correction value cannot be calculated.
A straight line indicated by a one-dot chain line and a two-dot chain line is shown as a reference for an unknown defocus element curve.

図13(c)は、本実施形態において、デフォーカスエレメントが未知の場合を示している。
デフォーカスエレメントカーブが未知のため、傾きと切片とは、未知である。上述したように、1ポイントの相関演算結果では、傾きと切片は算出できない。つまり、補正値が算出できない。
本実施形態では、認識部138より、ベスト像面位置を認識することで、デフォーカス量0(ゼロ)が定義できる。ベスト像面の認識は、上述した2つの機能ブロック図のように、MFモードや、コントラストAFモードを用いて行う。
このデフォーカス量0(ゼロ)の位置における相関演算結果から、切片が算出可能となる。つまり、補正値βを算出可能となる。
FIG. 13C shows a case where the defocus element is unknown in this embodiment.
Since the defocus element curve is unknown, the slope and intercept are unknown. As described above, the slope and the intercept cannot be calculated from the one-point correlation calculation result. That is, the correction value cannot be calculated.
In the present embodiment, the recognition unit 138 can define the defocus amount 0 (zero) by recognizing the best image plane position. The best image plane is recognized using the MF mode and the contrast AF mode as shown in the two functional block diagrams described above.
The intercept can be calculated from the correlation calculation result at the position of the defocus amount 0 (zero). That is, the correction value β can be calculated.

切片が算出できれば、デフォーカスエレメントカーブの傾きは未知であっても、ベスト像面位置での2像間隔ELは、必ず0(ゼロ)となる。
なお、1点鎖線、2点鎖線で示す直線を、未知のデフォーカスエレメントカーブの参考として示している。
If the intercept can be calculated, the two-image interval EL at the best image plane position is always 0 (zero) even if the inclination of the defocus element curve is unknown.
A straight line indicated by a one-dot chain line and a two-dot chain line is shown as a reference for an unknown defocus element curve.

次に、フローチャートを用いて、本実施例におけるフォーカシングの補正動作をさらに詳細に説明する。
図14は、補正値算出の大まかな流れを示すフローチャートである。ステップS101において、補正値算出が開始される。ステップS102において、撮影者はマニュアルフォーカスモードか、コントラストAFモードかが判断される。
Next, the focusing correction operation in the present embodiment will be described in more detail using a flowchart.
FIG. 14 is a flowchart showing a rough flow of correction value calculation. In step S101, correction value calculation is started. In step S102, it is determined whether the photographer is in the manual focus mode or the contrast AF mode.

マニュアルフォーカスモードの場合、ステップS103において、補正値算出サブルーチン1が実行される。
これに対して、コントラストAFモードの場合、ステップS104において、補正値算出サブルーチン2が実行される。
In the manual focus mode, the correction value calculation subroutine 1 is executed in step S103.
On the other hand, in the contrast AF mode, the correction value calculation subroutine 2 is executed in step S104.

ステップS202において、像信号取得部133は、瞳分割された撮像素子22の画素から2つの被写体像信号(2像の信号)を読み出す。   In step S <b> 202, the image signal acquisition unit 133 reads out two subject image signals (two image signals) from the pixels of the imaging element 22 that are divided into pupils.

ステップS203において、相関演算部136は、2像信号の相関演算を行う。ステップS204において、相関演算の結果、2像の間隔が算出される。
ステップS205において、補正値格納部137は、2像間隔を補正値として格納する。
In step S203, the correlation calculation unit 136 performs a correlation calculation of the two image signals. In step S204, the interval between the two images is calculated as a result of the correlation calculation.
In step S205, the correction value storage unit 137 stores the interval between two images as a correction value.

図16は、補正値算出サブルーチン2の手順を示すフローチャートである。ステップS301において、像信号取得部133は、瞳分割されていない撮像素子22の画素から第1の被写体像信号を読み出す。   FIG. 16 is a flowchart showing the procedure of the correction value calculation subroutine 2. In step S <b> 301, the image signal acquisition unit 133 reads the first subject image signal from the pixels of the image sensor 22 that are not pupil-divided.

ステップS302において、コントラストAFが実行され、コントラストAF制御部141(図12)は、コントラストAF評価値のピーク値(最大値)を算出する。ステップS303において、認識部138は、ベスト像面位置(ジャストピント位置)であると認識する。   In step S302, contrast AF is executed, and the contrast AF control unit 141 (FIG. 12) calculates the peak value (maximum value) of the contrast AF evaluation value. In step S303, the recognition unit 138 recognizes the best image plane position (just focus position).

ステップS304において、像信号取得部133は、瞳分割された撮像素子22の画素から2つの被写体像信号(2像の信号)を読み出す。   In step S <b> 304, the image signal acquisition unit 133 reads out two subject image signals (two image signals) from the pixels of the imaging element 22 that are divided into pupils.

ステップS305において、相関演算部136は、2像信号の相関演算を行う。ステップS306において、相関演算の結果、2像の間隔が算出される。
ステップS307において、補正値格納部137は、2像間隔を補正値として格納する。
In step S305, the correlation calculation unit 136 performs a correlation calculation of the two image signals. In step S306, the interval between the two images is calculated as a result of the correlation calculation.
In step S307, the correction value storage unit 137 stores the interval between two images as a correction value.

なお、画素読出しは、全画素読出し、間引き読出しの処理を行うように構成してもよい。画像構成には、欠陥画素の補間処理が含まれている。また、画素加算や画素補間により、焦点検出対象画素の位置の画素信号を求めるようにしてもよい。   The pixel readout may be configured to perform all pixel readout and thinning readout processing. The image configuration includes interpolation processing of defective pixels. Alternatively, the pixel signal at the position of the focus detection target pixel may be obtained by pixel addition or pixel interpolation.

また、上記図のフローに限定されない。
例えば、電源ON後、初期状態検出、撮像素子駆動、プレビュー画像表示などをおこなってもよい。また、撮影開始をシャッターボタン半押し後、焦点検出サブルーチンに移り、合焦後、確認画像を表示し、シャッターボタン全押し後に、撮影サブルーチンに移るフローでもよい。
Moreover, it is not limited to the flow of the said figure.
For example, after the power is turned on, initial state detection, image sensor driving, preview image display, and the like may be performed. Alternatively, the flow of starting shooting may be shifted to the focus detection subroutine after half-pressing the shutter button, the confirmation image may be displayed after focusing, and the flow may be shifted to the shooting subroutine after the shutter button is fully pressed.

また、上記実施形態において、補正値を算出する状態は、物点(被写体)が無限遠から至近距離までの間のいずれの撮影状態で算出してもよい。
さらに、無限遠物点の状態において第1の補正値を算出し、至近距離物点の状態において第2の補正値を算出するなど、撮影状態に応じて補正値を算出し、格納することで、測距性能を良くすることが可能となる。
このように、上述した補正値のほか、(至近端)第1の補正値、(無限遠)第2の補正値を算出しておき、撮影状況に応じて使い分けることも可能である。
In the above embodiment, the state for calculating the correction value may be calculated in any shooting state in which the object point (subject) is between infinity and a close distance.
Further, the first correction value is calculated in the state of the object point at infinity, the second correction value is calculated in the state of the closest object point, and the correction value is calculated according to the shooting state and stored. It becomes possible to improve the ranging performance.
In this way, in addition to the correction values described above, the first correction value (closest end) and the second correction value (infinity) can be calculated and used in accordance with the shooting situation.

例えば、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠と推測されるときの補正値を格納する。
また、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が至近端(至近距離)と推測されるときの補正値を格納する。
さらに、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠でも至近端でもないと推測されるときの補正値を格納する。
このとき、補正値格納部137は、それぞれの被写体距離における補正値を別々に格納する。
これにより、新たに撮影する際の被写体距離が無限遠や至近端のとき、それぞれに応じた補正値を選択することで、少なくとも無限遠や至近端といった状況の違いに応じた補正値を使用することができる。
For example, the correction value storage unit 137 stores a correction value when the distance to the subject corresponding to the first subject image signal is estimated to be infinite based on the calculation result of the correlation calculation unit 136.
Further, the correction value storage unit 137 stores a correction value when the distance to the subject corresponding to the first subject image signal is estimated as the closest end (closest distance) based on the calculation result of the correlation calculation unit 136. To do.
Further, the correction value storage unit 137 calculates a correction value when it is estimated that the distance to the subject corresponding to the first subject image signal is neither infinity nor the closest end based on the calculation result of the correlation calculation unit 136. Store.
At this time, the correction value storage unit 137 stores the correction value for each subject distance separately.
As a result, when the subject distance at the time of new shooting is infinity or the close end, by selecting a correction value corresponding to each, a correction value corresponding to at least the difference in the situation such as infinity or the close end can be obtained. Can be used.

本実施形態は、光路中にメカ機構(ハーフミラー、サブミラー)が存在しない。この、メカ機構による収差の影響がない。したがって、上述した補正は1度行えば良い。他方、光路中にメカ機構(ハーフミラー、サブミラー)が存在するような撮像装置では、収差の影響により、補正を複数回行う必要がある。
このように、本実施形態は、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる。
In this embodiment, there is no mechanical mechanism (half mirror, sub mirror) in the optical path. There is no influence of aberration due to this mechanical mechanism. Therefore, the correction described above may be performed once. On the other hand, in an imaging apparatus in which a mechanical mechanism (half mirror, sub mirror) exists in the optical path, correction needs to be performed multiple times due to the influence of aberration.
As described above, the present embodiment is an imaging apparatus that employs a phase difference ranging method, is compact, has a small release time lag, and can always perform highly accurate focusing.

以上のように、本発明は、位相差AF方式の撮像装置に適している。   As described above, the present invention is suitable for a phase difference AF type imaging apparatus.

11 デジタルスチルカメラ
12 交換レンズ
13 カメラボディ
15 絞り駆動部
16 レンズ駆動部
18 ズーミング用レンズ
19 レンズ
20 フォーカシング用レンズ
21 可変絞り
22 撮像素子
24 ボディ制御部
25 液晶表示素子駆動回路
26 液晶表示素子
27 接眼レンズ
28 撮像素子駆動回路
29 メモリーカード
30 レンズ制御部
31a 外部入力部
31 p形ウエル
32α、32β n形領域
33α、33β 表面p+層
35 カラーフィルタ
36 マイクロレンズ
41 画素
42、52 マイクロレンズ
44、54 遮光膜
48、58 開口部
61、62、63、64 オンチップレンズ
61a、62a、63a、64a 光軸
70、80 画素
71、81 屈折率分布レンズ
72 カラーフィルタ
76、86 受光素子
90 移動・駆動部
91 減光素子
120L 左側瞳検出用画素
120R 右側瞳検出用画素
120U 上側瞳検出用画素
120D 下側瞳検出用画素
121 撮影用画素
131 A/D変換部
132 信号処理部
133 像信号取得部
134 記録画像構成部
135 表示画像構成部
136 相関演算部
137 補正値格納部
138 認識部
139 位相差AF制御部
140 制御部
141 コントラストAF制御部
DESCRIPTION OF SYMBOLS 11 Digital still camera 12 Interchangeable lens 13 Camera body 15 Aperture drive part 16 Lens drive part 18 Zooming lens 19 Lens 20 Focusing lens 21 Variable aperture 22 Imaging element 24 Body control part 25 Liquid crystal display element drive circuit 26 Liquid crystal display element
27 eyepiece 28 image pickup device drive circuit 29 memory card 30 lens control unit 31a external input unit 31 p-type well 32α, 32β n-type region 33α, 33β surface p + layer 35 color filter 36 micro lens 41 pixel 42, 52 micro lens 44, 54 Light shielding film 48, 58 Aperture 61, 62, 63, 64 On-chip lens 61a, 62a, 63a, 64a Optical axis 70, 80 Pixel 71, 81 Refractive index distribution lens 72 Color filter 76, 86 Light receiving element 90 Moving / driving Unit 91 Dimming element 120L Left pupil detection pixel 120R Right pupil detection pixel 120U Upper pupil detection pixel 120D Lower pupil detection pixel 121 Imaging pixel 131 A / D conversion unit 132 Signal processing unit 133 Image signal acquisition unit 134 Recorded image configuration unit 135 Display image configuration unit 1 6 correlation calculator 137 correction value storage unit 138 recognition unit 139 phase difference AF control section 140 control section 141 contrast AF controller

Claims (4)

2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、及び、前記撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像並びに第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する撮像素子と、
前記第1の被写体像信号を出力する前記撮像素子と同一の前記撮像素子が出力する前記第2の被写体像信号及び前記第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
ベスト像面位置であることを認識する認識部と、
前記認識部の認識結果の情報と、前記相関演算部の演算結果とに基づいて、2像間隔を補正値として格納する補正値格納部と、
前記第1の被写体像信号を撮像信号として取得する撮像信号取得部と、
取得した前記撮像信号に基づいて画像データを生成する画像構成部と、
を有することを特徴とするの撮像装置。
A first subject image signal formed by a light beam from the imaging optical system and a light beam from the imaging optical system, which has a plurality of pixels arranged two-dimensionally, and is formed by pupil division. An image sensor that photoelectrically converts each of the two subject images and the third subject image, and outputs a second subject image signal and a third subject image signal;
Correlation calculation for calculating an interval between two images based on the second subject image signal and the third subject image signal output from the same image pickup device that outputs the first subject image signal. And
A recognition unit that recognizes the best image plane position;
A correction value storage unit that stores a two-image interval as a correction value based on the recognition result information of the recognition unit and the calculation result of the correlation calculation unit;
An imaging signal acquisition unit that acquires the first subject image signal as an imaging signal;
An image constructing unit that generates image data based on the acquired imaging signal;
An image pickup apparatus comprising:
前記認識部は、前記撮像素子の同じ前記画素からの信号に基づいたコントラスト方式による測距結果と位相差方式による測距結果とを比較して、ベスト像面位置であることを認識することを特徴とする請求項1に記載の撮像装置。   The recognition unit recognizes that the position is the best image plane position by comparing a distance measurement result by a contrast method and a distance measurement result by a phase difference method based on a signal from the same pixel of the image sensor. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記補正値格納部は、前記認識部がベスト像面位置と認識しているときの前記相関演算部の結果を補正値として格納することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the correction value storage unit stores a result of the correlation calculation unit when the recognition unit recognizes the best image plane position as a correction value. 前記補正値格納部は、前記相関演算部の演算結果に基づいて前記第1の被写体像信号に対応する被写体迄の距離が無限遠と推測されるときの前記補正値と、前記距離が至近端と推測されるときの前記補正値と、前記距離が無限遠でも至近端でもないと推測されるときの前記補正値とを、それぞれ別々に格納することを特徴とする請求項1または2に記載の撮像装置。   The correction value storage is close to the correction value when the distance to the subject corresponding to the first subject image signal is estimated to be infinite based on the calculation result of the correlation calculation unit. 3. The correction value at the time of being estimated as an end and the correction value at the time of being estimated that the distance is neither infinity nor the closest end are stored separately. The imaging device described in 1.
JP2010278380A 2010-12-14 2010-12-14 Imaging apparatus Withdrawn JP2012128101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278380A JP2012128101A (en) 2010-12-14 2010-12-14 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278380A JP2012128101A (en) 2010-12-14 2010-12-14 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012128101A true JP2012128101A (en) 2012-07-05

Family

ID=46645220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278380A Withdrawn JP2012128101A (en) 2010-12-14 2010-12-14 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012128101A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108076266A (en) * 2016-11-11 2018-05-25 株式会社东芝 Processing device and camera device
WO2020045202A1 (en) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 Imaging device, correction method, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108076266A (en) * 2016-11-11 2018-05-25 株式会社东芝 Processing device and camera device
WO2020045202A1 (en) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 Imaging device, correction method, and computer program
US11838656B2 (en) 2018-08-31 2023-12-05 Sony Semiconductor Solutions Corporation Imaging device and correction method for reducing image height dependency of a depth

Similar Documents

Publication Publication Date Title
JP5677800B2 (en) Imaging device
JP5176959B2 (en) Imaging device and imaging apparatus
US8218017B2 (en) Image pickup apparatus and camera
JP4961993B2 (en) Imaging device, focus detection device, and imaging device
JP6264284B2 (en) Imaging device
JP5619294B2 (en) Imaging apparatus and focusing parameter value calculation method
JP6317548B2 (en) Imaging apparatus and control method thereof
JP2012027390A (en) Imaging apparatus
JP4983271B2 (en) Imaging device
JP2013025144A (en) Focus adjustment device and imaging apparatus
JP2014153509A (en) Imaging device and imaging method
JP5829018B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP6642628B2 (en) Imaging device and imaging device
JP5866760B2 (en) Imaging device
JP2012128101A (en) Imaging apparatus
JP2013003486A (en) Focus detector and imaging apparatus
JP5685892B2 (en) Focus detection device, focus adjustment device, and imaging device
JP5907668B2 (en) Imaging device and imaging device
JP2010139624A (en) Imaging element and imaging apparatus
JP2012042863A (en) Imaging device
JP6349624B2 (en) Image sensor and focus detection apparatus
JP2012063456A (en) Imaging apparatus
JP2018046563A (en) Image sensor
JP2012042857A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304