JP2012128101A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2012128101A JP2012128101A JP2010278380A JP2010278380A JP2012128101A JP 2012128101 A JP2012128101 A JP 2012128101A JP 2010278380 A JP2010278380 A JP 2010278380A JP 2010278380 A JP2010278380 A JP 2010278380A JP 2012128101 A JP2012128101 A JP 2012128101A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- pixel
- image
- imaging
- correction value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 98
- 238000012937 correction Methods 0.000 claims abstract description 74
- 238000004364 calculation method Methods 0.000 claims abstract description 57
- 210000001747 pupil Anatomy 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000005259 measurement Methods 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims description 17
- 238000010276 construction Methods 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 74
- 238000006243 chemical reaction Methods 0.000 description 21
- 239000004973 liquid crystal related substance Substances 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000001454 recorded image Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 229910052782 aluminium Inorganic materials 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 229910004298 SiO 2 Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関するものである。 The present invention relates to an imaging apparatus.
一般的に位相差オートフォーカス(以下、適宜「AF」という。)の測距精度は、AFセンサーが取り込める重心Fnoと焦点検出用画素の間隔とで決まっている。
従来例の撮像用画素と焦点検出用画素が2次元的に配列された素子を用いた撮像装置としては、以下の特許文献1に開示された構成が知られている。
In general, the distance measurement accuracy of phase difference autofocus (hereinafter referred to as “AF” as appropriate) is determined by the center of gravity Fno that can be captured by the AF sensor and the interval between focus detection pixels.
As an imaging apparatus using an element in which imaging pixels and focus detection pixels of a conventional example are two-dimensionally arranged, a configuration disclosed in
従来の撮像装置には、主に以下の2つの測距方式がある。
(1)コントラスト方式
(2)位相差方式
(1)のコントラスト方式では、フォーカシング状態を変えてウォブリングを行いながらコントラスト値を評価する、いわゆる山登り方式を採用している。このため、合焦時間が長い。
Conventional imaging apparatuses mainly have the following two distance measuring methods.
(1) Contrast method (2) Phase difference method The contrast method (1) employs a so-called hill-climbing method in which the contrast value is evaluated while changing the focusing state and performing wobbling. For this reason, the focusing time is long.
また(2)の位相差方式では、原理的に1回の測距でデフォーカス量を検出できる。このため、合焦時間は短い。
位相差方式は、コンパクトでレリーズタイムラグが少ない、という利点を有している。
In the phase difference method (2), in principle, the defocus amount can be detected by one distance measurement. For this reason, the focusing time is short.
The phase difference method has an advantage of being compact and having a small release time lag.
位相差方式を採用している撮像装置において、レンズ交換をするとき、レンズデータが既知であり取得可能な場合、位相差AF時の補正値を算出することが可能である。これに対して、レンズ自体からデータを取得することができない場合、位相差AFの補正値を算出することが出来ない。
そこで、上述したコンパクトでありレリーズタイムラグが少ない、という利点を損なうことなく、さらに、高精度な位相差AFを行えることが望まれている。
In an imaging apparatus that employs a phase difference method, when exchanging lenses, if lens data is known and can be acquired, a correction value at the time of phase difference AF can be calculated. On the other hand, when data cannot be acquired from the lens itself, a correction value for phase difference AF cannot be calculated.
Therefore, it is desired that the phase difference AF can be performed with higher accuracy without impairing the advantages of the above-described compact and small release time lag.
本発明は、上記に鑑みてなされたものであって、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる撮像装置を提供することを目的とする。 The present invention has been made in view of the above, and is an imaging apparatus that employs a phase difference ranging method, which is compact, has a small release time lag, and can always perform highly accurate focusing. The purpose is to provide.
上述した課題を解決し、目的を達成するために、本発明の撮像装置は、
2次元に配列された複数の画素を有し、撮像光学系からの光束により形成された第1の被写体像信号、及び、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像並びに第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する撮像素子と、
第1の被写体像信号を出力する撮像素子と同一の撮像素子が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
ベスト像面位置であることを認識する認識部と、
認識部の認識結果の情報と、相関演算部の演算結果とに基づいて、2像間隔を補正値として格納する補正値格納部と、
第1の被写体像信号を撮像信号として取得する撮像信号取得部と、
取得した撮像信号に基づいて画像データを生成する画像構成部と、
を有する。
In order to solve the above-described problems and achieve the object, the imaging apparatus of the present invention includes:
The first subject image signal formed by the light beam from the imaging optical system and the second light beam formed by dividing the pupil among the light beam from the imaging optical system, having a plurality of pixels arranged two-dimensionally. An image sensor that photoelectrically converts each of the subject image and the third subject image, and outputs a second subject image signal and a third subject image signal;
A correlation calculation unit that calculates an interval between two images based on a second subject image signal and a third subject image signal output from the same image sensor as the image sensor that outputs the first subject image signal;
A recognition unit that recognizes the best image plane position;
A correction value storage unit that stores a two-image interval as a correction value based on the recognition result information of the recognition unit and the calculation result of the correlation calculation unit;
An imaging signal acquisition unit that acquires a first subject image signal as an imaging signal;
An image constructing unit that generates image data based on the acquired imaging signal;
Have
また、本発明の好ましい態様によれば、認識部は、撮像素子の同じ画素からの信号に基づいたコントラスト方式による測距結果と位相差方式による測距結果とを比較して、ベスト像面位置であることを認識することが望ましい。 Further, according to a preferred aspect of the present invention, the recognition unit compares the distance measurement result by the contrast method and the distance measurement result by the phase difference method based on the signal from the same pixel of the image sensor to determine the best image plane position. It is desirable to recognize that.
また、本発明の好ましい態様によれば、補正値格納部は、認識部がベスト像面位置と認識しているときの相関演算部の結果を補正値として格納することが望ましい。 According to a preferred aspect of the present invention, it is desirable that the correction value storage unit stores the result of the correlation calculation unit when the recognition unit recognizes the best image plane position as a correction value.
また、本発明の好ましい態様によれば、補正値格納部は、相関演算部の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠と推測されるときの補正値と、距離が至近端と推測されるときの補正値と、距離が無限遠でも至近端でもないと推測されるときの補正値とを、それぞれ別々に格納することが望ましい。 Further, according to a preferred aspect of the present invention, the correction value storage unit corrects the correction value when the distance to the subject corresponding to the first subject image signal is estimated to be infinite based on the calculation result of the correlation calculation unit. It is desirable to store separately the correction value when the distance is estimated to be the closest end and the correction value when the distance is estimated to be neither infinity nor the close end.
本発明によれば、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus that employs a phase difference ranging method, is compact, has a small release time lag, and can always perform highly accurate focusing.
以下に、本発明に係る撮像装置の実施形態を図面に基づいて詳細に説明する。なお、以下の実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the following embodiment.
(デジタルカメラ)
まず、本発明の実施形態に係る撮像装置を備えたカメラについて説明する。
図1は、本発明の実施形態に係るデジタルカメラ11の内部構成を示す図である。
デジタルカメラ11は、交換レンズ12と、カメラボディ13と、から構成され、交換レンズ12はマウント部14によりカメラボディ13に装着される。
(Digital camera)
First, a camera including an imaging device according to an embodiment of the present invention will be described.
FIG. 1 is a diagram showing an internal configuration of a
The
交換レンズ12は、レンズ制御部30、レンズ駆動部16、絞り駆動部15、ズーミング用レンズ18、レンズ19、フォーカシング用レンズ20、及び、絞り21を備えている。レンズ制御部30は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ20と絞り21の駆動制御、絞り21、ズーミング用レンズ18およびフォーカシング用レンズ20の状態検出、並びに、ボディ制御部24に対するレンズ情報の送信とカメラ情報の受信などを行う。
また、レンズの状態の他に、レンズデータそのものに関する諸元値は、レンズデータ格納部32に格納されている。
The
In addition to the lens state, specification values relating to the lens data itself are stored in the lens
絞り駆動部15は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、絞り21の開口径を制御する。また、レンズ駆動部16は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、ズーミング用レンズ18、フォーカシング用レンズ20を駆動する。
The
カメラボディ13は撮像素子22、ボディ制御部24、液晶表示素子駆動回路25、液晶表示素子26、接眼レンズ27、メモリーカード29などを備えている。撮像素子22には後述する画素が二次元状に配列されており、交換レンズ12の予定結像面に配置されて交換レンズ12により結像される被写体像を撮像する。撮像素子22の所定の焦点検出位置には焦点検出用画素(以下、適宜「AF用画素」という)が配列される。
The
ここで、交換レンズ12は撮像光学系に対応し、撮像素子22は撮像素子に対応する。
Here, the
ボディ制御部24はマイクロコンピューターとメモリなどの周辺部品から構成され、撮像素子駆動回路28を介して、撮像素子22からの画像信号の読み出し、画像信号の補正、交換レンズ12の焦点調節状態の検出、レンズ制御部30からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルカメラ全体の動作制御などを行う。ボディ制御部24とレンズ制御部30は、マウント部14の電気接点部23を介して通信を行い、各種情報の授受を行う。
The
液晶表示素子駆動回路25は、液晶ビューファインダーの液晶表示素子26を駆動する。撮影者は接眼レンズ27を介して液晶表示素子26に表示された像を観察する。メモリーカード29はカメラボディ13に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。
The liquid crystal display element driving circuit 25 drives the liquid
交換レンズ12を通過して撮像素子22上に形成された被写体像は、撮像素子22により光電変換され、その出力はボディ制御部24へ送られる。ボディ制御部24は、撮像素子22上のAF用画素の出力データ(第1像信号、第2像信号)に基づいて所定の焦点検出位置におけるデフォーカス量に基づきレンズ駆動量を算出し、このレンズ駆動量をレンズ制御部30を介して、レンズ駆動部16へ送る。また、ボディ制御部24は、撮像素子22の出力に基づいて生成した画像信号をメモリーカード29に格納するとともに、画像信号を液晶表示素子駆動回路25へ送り、液晶表示素子26に画像を表示させる。
The subject image formed on the
カメラボディ13には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられており、これらの操作部材からの操作状態信号をボディ制御部24が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。
The
レンズ制御部30は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ制御部30は、レンズ18及びフォーカシング用レンズ20の位置と絞り21の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算すること、あるいは予め用意されたルックアップテーブル、例えばレンズデータ格納部32からモニター情報に応じたレンズ情報を選択する。レンズ制御部30は、受信したレンズ駆動量に基づいてフォーカシング用レンズ20を不図示のモーター等の駆動源により合焦点へと駆動する。
The
(撮像素子の構成)
上述したデジタルカメラ11の構成は、同一の符号を用いる構成は、以下の全ての実施例において共通する。次に、デジタルカメラ11が有する撮像装置の撮像素子22の構成について説明する。
(Configuration of image sensor)
As for the configuration of the
図2(a)〜(e)は、本発明の実施形態に係る撮像装置の射出瞳の構成を示す図である。デジタルスチルカメラ11における射出瞳Pは、図2(a)〜(e)に示すように、左右上下のうちの少なくとも2種類の瞳領域に対応する焦点検出用画素を有する。
具体例としては次の(1)〜(5)のとおりである。
2A to 2E are diagrams illustrating the configuration of the exit pupil of the imaging apparatus according to the embodiment of the present invention. As shown in FIGS. 2A to 2E, the exit pupil P in the digital
Specific examples are as follows (1) to (5).
(1)射出瞳Pを縦に2分割して、左側瞳検出用画素Lと右側瞳検出用画素Rを配置したもの(図2(a))
(2)射出瞳Pを横に2分割して、上側瞳検出用画素Uと下側瞳検出用画素Dを配置したもの(図2(b))
(3)左側瞳検出用画素Lと右側瞳検出用画素Rを左右に配置して、その一部を重ねたもの(図2(c))
(4)上側瞳検出用画素Uと下側瞳検出用画素Dを上下に配置して、その一部を重ねたもの(図2(d))
(5)左側瞳検出用画素Lと下側瞳検出用画素Dを任意の位置に配置して、その一部を重ねたもの(図2(e))
(1) The exit pupil P is vertically divided into two, and the left pupil detection pixel L and the right pupil detection pixel R are arranged (FIG. 2A).
(2) The exit pupil P is horizontally divided into two, and the upper pupil detection pixel U and the lower pupil detection pixel D are arranged (FIG. 2B)
(3) The left pupil detection pixel L and the right pupil detection pixel R are arranged on the left and right, and a part of them is overlapped (FIG. 2C).
(4) Upper pupil detection pixel U and lower pupil detection pixel D are arranged one above the other and partially overlapped (FIG. 2D)
(5) The left pupil detection pixel L and the lower pupil detection pixel D are arranged at arbitrary positions and a part thereof is overlapped (FIG. 2 (e)).
なお、測距用瞳の形状は、半円形状、楕円形状としたが、これに限定されず、他の形状、例えば矩形状、多角形状にすることもできる。
また、図2(a)と(b)を組み合わせて上下左右の焦点検出用画素を配置してもよい、図2(c)と(d)を組み合わせて上下左右の焦点検出用画素を配置してもよい、さらに、図2(c)と(e)を組み合わせて左右、斜め線検出の焦点検出用画素を配置してもよいが、これに限定されるものではない。
The shape of the distance measuring pupil is a semicircular shape or an elliptical shape. However, the shape is not limited to this, and other shapes such as a rectangular shape or a polygonal shape may be used.
2 (a) and 2 (b) may be combined to arrange the vertical and horizontal focus detection pixels, or FIG. 2 (c) and 2 (d) may be combined to arrange the vertical and horizontal focus detection pixels. Further, the focus detection pixels for detecting left and right and diagonal lines may be arranged by combining FIGS. 2C and 2E, but the present invention is not limited to this.
本実施形態の撮像装置では、瞳が異なる領域を有し、その領域の1つを透過した光束を受光する光電変換部の出力から得られる第1像信号と、もう1つの領域を透過した光束を受光する光電変換部の出力から得られる第2像信号と、に基づいて位相差を検出し、撮影レンズの焦点状態を検出する。
以下、図3〜図6を参照して、具体的な射出瞳の分割例について説明する。
In the imaging apparatus according to the present embodiment, the first image signal obtained from the output of the photoelectric conversion unit that receives a light beam having a different pupil area and transmitted through one of the regions, and the light beam transmitted through the other region. The phase difference is detected based on the second image signal obtained from the output of the photoelectric conversion unit that receives the light, and the focus state of the photographing lens is detected.
A specific example of exit pupil division will be described below with reference to FIGS.
(光電変換部の分割)
まず、図3を参照して、撮像素子22の光電変換部を分割することによって射出瞳を分割する例を説明する。
図3は、撮像素子22の光電変換部の構成を示す図である。
撮像素子22は、基板内に形成されたP型ウエル31、P型ウエル31と共に光電荷を発生させ蓄積するn型領域32α、32β、n型領域32α、32βに蓄積されている光電荷が転送される不図示のフローティングディフュージョン部(以下、「FD部」と称する。)、n型領域32α、32βに蓄積された光電荷をFD部へ効率よく転送するために光電荷を収集する表面p+層33α、33β、FD部へ光電荷を転送するための転送ゲート(不図示)、ゲート絶縁膜であるSiO2膜34、ベイヤ配列のカラーフィルタ35、及び、被写体からの光を集めるマイクロレンズ36、を備える。
(Division of photoelectric conversion part)
First, an example in which the exit pupil is divided by dividing the photoelectric conversion unit of the
FIG. 3 is a diagram illustrating a configuration of the photoelectric conversion unit of the
The
マイクロレンズ36は、交換レンズ12(図1)の瞳と表面p+層33α、33βとが、概略共役になるような形状及び位置に形成されている。光電荷は、模式的には、領域37で発生する。
The
図3に示す例では、光電変換部が、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、に分割されており、これにより射出瞳が分割される。光線L31、L32は、n形領域32α及び表面p+層33αと、n形領域32β及び表面p+層33βと、にそれぞれ入射する。 In the example shown in FIG. 3, the photoelectric conversion unit is divided into an n-type region 32α and a surface p + layer 33α, and an n-type region 32β and a surface p + layer 33β, thereby dividing the exit pupil. Light rays L31 and L32 enter the n-type region 32α and the surface p + layer 33α, and the n-type region 32β and the surface p + layer 33β, respectively.
(開口部を偏心)
次に、図4を参照して、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させることによって射出瞳を分割する例を説明する。
図4は、撮像素子22の隣り合う二つの画素の構造を示す断面図である。
(Eccentric opening)
Next, an example in which the exit pupil is divided by decentering the opening of the pixel of the
FIG. 4 is a cross-sectional view showing the structure of two adjacent pixels of the
画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換素子46が配置されている。画素51も画素41と同様に、最上部から、順に、マイクロレンズ52、平滑層53、遮光膜54、平滑層55、及び、光電変換素子56が配置されている。
The
さらに、これらの画素41、51においては、遮光膜44、54が、光電変換素子46、56中心部47、57から外側に偏心した開口部48、58をそれぞれ有している。
Further, in these
図4に示す例では、撮像素子22の画素の開口部を光電変換素子の中心に対して偏心させている。このため、光線L41、L51は、光電変換素子46、56にそれぞれ入射することから、射出瞳が分割される。
In the example shown in FIG. 4, the opening of the pixel of the
つづいて、図5を参照して、レンズを偏心させることによって射出瞳を分割する例を説明する。図5は、撮像素子の内部構成を示す図である。
図5の撮像素子においては、それぞれの画素の上のオンチップレンズ61、62、63、64が独立して構成されている。
図5においては、画素集合Aの画素のオンチップレンズ61、63の光軸61a、63aは、画素の中心から左側にずれている。また、画素集合Bの画素のオンチップレンズ62、64の光軸62a、64aは画素の中心から右側にずれている。
2つの画素集合A、Bからの出力を比較することで、レンズ18のフォーカス量を算出することができる。
Next, an example in which the exit pupil is divided by decentering the lens will be described with reference to FIG. FIG. 5 is a diagram illustrating an internal configuration of the image sensor.
In the image sensor of FIG. 5, on-
In FIG. 5, the
By comparing the outputs from the two pixel sets A and B, the focus amount of the
オンチップレンズ61、62、63、64では、屈折力と光軸61a、62a、63a、64aの位置等の形状という2つのパラメータを独立してコントロールすることができる。画素数が十分多ければ、画素集合Aと画素集合Bは、同様の光の強度分布を得ることができ、これを利用して位相差AFを行うことができる。この時、画面全体でのデフォーカス量を検出できるので、被写体の3次元情報を取得することができる。
In the on-
図5に示す例では、撮像素子22のオンチップレンズを画素の中心に対して偏心させている。このため、光線L61、L62は、オンチップレンズ61、62にそれぞれ入射し、これにより射出瞳が分割される。
In the example shown in FIG. 5, the on-chip lens of the
次に、図6を参照しつつ、DML(デジタルマイクロレンズ)を用いて射出瞳を分割する例を説明する。図6は、撮像素子の内部構造を示す断面図である。
図6に示す撮像素子では、オンチップレンズをDMLで構成している。画素70と画素80はそれぞれ異なる領域からの光束を受光する隣り合った画素である。
Next, an example of dividing the exit pupil using DML (digital microlens) will be described with reference to FIG. FIG. 6 is a cross-sectional view showing the internal structure of the image sensor.
In the imaging device shown in FIG. 6, the on-chip lens is configured by DML. The
図6において、撮像素子は、DML71、81、カラーフィルタ72、アルミニウム配線73、信号伝送部74、平坦化層75、受光素子76、86(例えばSiフォトダイオード)、及び、Si基板77を備える。図6に示すように、アルミニウム配線73、信号伝送部74、平滑化層75、受光素子76、86、及び、Si基板77は、半導体集積回路78を構成する。ここで、画素70と画素80の構成は、DML71、81以外は同様である。
In FIG. 6, the imaging device includes DMLs 71 and 81, a
図6は、入射光束全体のうち、受光素子76、86にそれぞれ入射する光束の様子を示している。DML71、81を用いることにより、光束L71、L81は、画素70の受光素子76と画素80の受光素子86にそれぞれ入射し、射出瞳が分割される。
FIG. 6 shows a state of light beams incident on the
撮像素子(イメージャ)としては、例えば、CCD(charge coupled device)、CMOS(Complementary Metal Oxide Semiconductor)、裏面照射型CMOS、1画素中でR、G、B全色を3層で取り込むことのできるセンサー(Forveon X3)を用いることができる。 As an imaging device (imager), for example, a CCD (charge coupled device), a CMOS (Complementary Metal Oxide Semiconductor), a back-illuminated CMOS, a sensor that can capture all three colors of R, G, and B in one pixel. (Forveon X3) can be used.
以下の実施例では、焦点検出用画素は、光電変換部の撮影レンズ側に形成されたオンチップレンズを画素の中心から偏心させることによって、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成されている。瞳分割の手段としては、上述のように、画素中心に対して遮光部材を用いて開口部を偏心させたものや、DMLを用いたもの、1画素中に光電変換部を2つ設けたものでもよい。 In the following embodiments, the focus detection pixel receives a light beam transmitted through a different position of the pupil of the photographing lens by decentering an on-chip lens formed on the photographing lens side of the photoelectric conversion unit from the center of the pixel. It is configured as follows. As described above, pupil division means uses a light shielding member for the center of the pixel to decenter the opening, uses DML, or provides two photoelectric conversion units in one pixel. But you can.
焦点検出用画素は、撮影レンズの瞳の異なる位置を透過した光束を受光するように構成している。このため、焦点検出用画素からの信号レベルは、焦点検出用画素近傍の撮像用画素から出力される信号レベルと異なってしまうおそれがある。焦点検出用画素の位置における画像用の信号を得る為には、以下の(1)又は(2)の方法をとることが好ましい。
(1)焦点検出用画素の信号を周囲の撮像用画素の信号レベルと同等となるようにゲインを調整し、焦点検出用画素の位置における画像用信号とする。
(2)焦点検出用画素の信号および焦点検出用画素近傍の撮像用画素の信号に基づいて画素補間を行い、焦点検出用画素の位置における画像用信号とする。
The focus detection pixels are configured to receive light beams transmitted through different positions of the pupil of the photographing lens. For this reason, the signal level from the focus detection pixel may be different from the signal level output from the imaging pixel in the vicinity of the focus detection pixel. In order to obtain an image signal at the position of the focus detection pixel, it is preferable to adopt the following method (1) or (2).
(1) The gain is adjusted so that the signal of the focus detection pixel is equivalent to the signal level of the surrounding imaging pixels, and the signal is used as the image signal at the position of the focus detection pixel.
(2) Pixel interpolation is performed based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel to obtain an image signal at the position of the focus detection pixel.
ゲイン調整の方法については、次のように行う。
まず、焦点検出用画素から出力されたままの信号レベルと、焦点検出用画素近傍の撮像用画素から出力されたままの信号レベルと、を比較する。つづいて、焦点検出用画素から出力される信号レベルを近傍の撮像用画素から出力される信号レベルに近づけるようにゲインを調整する。その後、焦点検出用画素の信号をゲイン調整し得られた信号を画像信号としてデモザイキングを行い、最終画像を得る。
The gain adjustment method is performed as follows.
First, the signal level output from the focus detection pixel is compared with the signal level output from the imaging pixel in the vicinity of the focus detection pixel. Subsequently, the gain is adjusted so that the signal level output from the focus detection pixel approaches the signal level output from a nearby imaging pixel. Thereafter, demosaicing is performed by using the signal obtained by adjusting the gain of the focus detection pixel signal as an image signal to obtain a final image.
画素補間の方法については、以下の(a)〜(c)のいずれかが好ましいが、これらに限定されず、単純平均演算(重み付きも含む)だけでなく、線形補間、2次以上の多項式で補間、メディアン処理などで求めてもよい。
(a)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(b)焦点検出用画素の位置における信号を、焦点検出用画素の信号と焦点検出用画素近傍の撮像用画素の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
(c)焦点検出用画素の位置における信号を、焦点検出用画素近傍の撮像用画素の信号に基づいて補間し、補間することで得られた信号と焦点検出用画素の位置の信号とに基づいて補間し、補間することで得られた信号を焦点検出用画素の位置の画像信号としてデモザイキングを行い、最終画像を得る。
The pixel interpolation method is preferably any one of the following (a) to (c), but is not limited to these, and is not limited to simple average calculation (including weighting), but also linear interpolation, quadratic or higher order polynomials It may be obtained by interpolation or median processing.
(A) The signal at the position of the focus detection pixel is interpolated based on the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used as the image signal at the position of the focus detection pixel. Perform mosaicing to get the final image.
(B) The signal at the position of the focus detection pixel is interpolated based on the signal of the focus detection pixel and the signal of the imaging pixel in the vicinity of the focus detection pixel, and the signal obtained by the interpolation is used for focus detection. Demosaicing is performed as an image signal at the pixel position to obtain a final image.
(C) Interpolate the signal at the position of the focus detection pixel based on the signal of the imaging pixel near the focus detection pixel, and based on the signal obtained by the interpolation and the signal of the position of the focus detection pixel Then, the signal obtained by the interpolation is demosaiced as an image signal at the position of the focus detection pixel to obtain a final image.
撮像素子の複数の画素には、複数の色フィルタがそれぞれ配置されている。後述する実施例3、4では、複数の色フィルタの透過特性は、R(赤)、G(緑)、B(青)の3通りとしている。
Bフィルタは、R、G、Bの異なる透過特性のうち、最も短波長側の透過特性をもつ色フィルタであり、Rフィルタは、最も長波長側の透過特性を持つ色フィルタであり、Gフィルタは、それ以外の透過特性を持つものである。
なお、複数の色フィルタは、少なくとも可視域の一部を含み、異なる透過特性を少なくとも3通り有していれば、ほかの組合せでも良い。
A plurality of color filters are respectively disposed in the plurality of pixels of the image sensor. In Examples 3 and 4 to be described later, the transmission characteristics of the plurality of color filters are R (red), G (green), and B (blue).
The B filter is a color filter having the transmission characteristic on the shortest wavelength side among the transmission characteristics having different R, G, and B, and the R filter is a color filter having the transmission characteristic on the longest wavelength side. Has other transmission characteristics.
The plurality of color filters may include other combinations as long as they include at least a part of the visible region and have at least three different transmission characteristics.
焦点検出用画素は、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタとして、Gフィルタを用いて、入射する光束の入射方向を制限している。
なお、焦点検出用画素は、Gフィルタに限らず、複数の色フィルタのうち最も輝度信号に重み付けを行う色フィルタ、又は、最も透過率が高い色フィルタが配置される画素のうち少なくとも1部が、入射する光束の入射方向を制限するよう構成することができる。
The focus detection pixel uses the G filter as a color filter that weights the luminance signal most among the plurality of color filters, and restricts the incident direction of the incident light beam.
Note that the focus detection pixel is not limited to the G filter, and at least a part of the color filter that weights the luminance signal most among the plurality of color filters or the pixel in which the color filter having the highest transmittance is arranged. The incident direction of the incident light beam can be limited.
(画素配列のバリエーション1)
図7は、第1実施形態のイメージャにおける画素配置を概念的に示す平面図である。
図7に示すイメージャ(撮像装置)は、図3、図4、図5、図6で示した画素において、各画素中心と各光電変換領域の瞳の中心、または面積重心とを上方向、下方向、右側方向、左側方向にずらした画素、の組合せで構成されている。
(Pixel array variation 1)
FIG. 7 is a plan view conceptually showing a pixel arrangement in the imager of the first embodiment.
The imager (imaging device) illustrated in FIG. 7 has the pixel center illustrated in FIGS. 3, 4, 5, and 6 with the center of each pixel and the center of the pupil or the area center of gravity of each photoelectric conversion region in the upward direction and the downward direction. It is composed of a combination of pixels shifted in the direction, right direction, and left direction.
図7は、各画素の光軸方向から望んだときの光電変換領域を示したものである。
図7では、縦10画素(L01〜L10)、横10画素(F01〜F10)で合計100画素の例を示している。しかしながら、画素数はこれに限るものでなく、例えば合計画素が1000万画素を超えるものでも構わない。
FIG. 7 shows a photoelectric conversion region as desired from the optical axis direction of each pixel.
FIG. 7 shows an example of 10 pixels in the vertical direction (L01 to L10) and 10 pixels in the horizontal direction (F01 to F10), for a total of 100 pixels. However, the number of pixels is not limited to this. For example, the total number of pixels may exceed 10 million pixels.
図7に示す例では、画素中心に対し光電変換領域の面積中心のずれている方向が右側と左側と上側と下側の4種類がある。以下の説明では、それぞれを右画素120R、左画素120L、上画素120U、下画素120Dと称することとする。
In the example shown in FIG. 7, there are four types of directions in which the area center of the photoelectric conversion region is shifted with respect to the pixel center: right side, left side, upper side, and lower side. In the following description, they are referred to as a
図7において、L01の行では、左から(F01から)順に、左画素120L、撮像用画素121、左画素120L、撮像用画素121、が繰り返し配置されている。
L02の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L03の行では、左から順に、右画素120R、撮像用画素121、右画素120R、撮像用画素121、が繰り返し配置されている。
L04の行では、左から順に、撮像用画素121、上画素120U、撮像用画素121、下画素120D、が繰り返し配置されている。
L05以降の行は、L01、L02、L03、L04のパターンを繰り返す配置になっている。
In FIG. 7, in the row L01, the
In the row L02, the
In the row L03, the
In the row L04, the
The rows after L05 are arranged to repeat the patterns of L01, L02, L03, and L04.
図7の配置をF01〜10の列から見ると次のようになる。
F01の列では、上から(L01から)順に、左画素120L、撮影用画素121、右画素120R、撮影用画素121、が繰り返し配置されている。
F02の列では、上から順に、撮影用画素121、上画素120U、撮影用画素121、上画素120U、が繰り返し配置されている。
F03以降の列は、F01、F02のパターンを繰り返す配置になっている。
The arrangement in FIG. 7 is viewed as follows from the columns F01 to F10.
In the column F01, the
In the column F02, the
The columns after F03 are arranged to repeat the patterns F01 and F02.
以下の説明においては、特定の画素を示すときに、行番号L01〜L10と列番号F01〜F10を並べて表す。例えば、L01の行のうち、F01の列に対応する画素を「L01F01」で表す。 In the following description, row numbers L01 to L10 and column numbers F01 to F10 are shown side by side when a specific pixel is shown. For example, the pixel corresponding to the column F01 in the L01 row is represented by “L01F01”.
図7に示す例では、例えば、L01F01(左画素120L)と、L02F02(上画素120U)とL03F01(右画素120R)とL02F04(下画素120D)とのいずれかの画素とは、画素ピッチから算出される画素間距離より、瞳の中心間距離または重心間距離が狭い構成となる。
In the example illustrated in FIG. 7, for example, one of L01F01 (
第1実施形態の撮像装置では、左画素120Lから構成されるセル群と、右画素120Rから構成される別のセル群と、のそれぞれの出力信号(測距のための信号)から、位相差情報を算出して光学系のフォーカスを調整させることができる。
In the imaging apparatus according to the first embodiment, the phase difference is determined from the output signals (signals for ranging) of the cell group including the
例えば、L01の行の左画素120LであるL01F01、L01F03、L01F05、L01F07、L01F09から得られる出力波形と、L03の行の右画素120Rである、L03F01、L03F03、L03F05、L03F07、L03F09から得られる出力波形と、を比較することで、所謂位相差検出式によりデフォーカス情報や合焦点位置情報が取得できる。
For example, the output waveform obtained from L01F01, L01F03, L01F05, L01F07, and L01F09, which are the
(画素配列のバリエーション2)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 2)
Next, another configuration example of the imaging element included in the imaging device will be described.
図8の配置において、L05F01画素とL05F05画素とは、左側瞳検出用画素である。また、L05F03画素は、右側瞳検出用画素である。 In the arrangement of FIG. 8, the L05F01 pixel and the L05F05 pixel are left pupil detection pixels. The L05F03 pixel is a right pupil detection pixel.
これにより、精度の高い焦点検出を行うことができる。 Thereby, focus detection with high accuracy can be performed.
(画素配列のバリエーション3)
次に、撮像装置が備える撮像素子の他の構成例について説明する。
(Pixel array variation 3)
Next, another configuration example of the imaging element included in the imaging device will be described.
図9のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。 The arrangement of the color filters in FIG. 9 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.
また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.
ここで、緑色のフィルタGが配置されている、L05F01画素とL05F09画素とは、左側瞳検出用画素である。また、L05F05画素は、右側瞳検出用画素である。 Here, the L05F01 pixel and the L05F09 pixel in which the green filter G is disposed are the left pupil detection pixels. The L05F05 pixel is a right pupil detection pixel.
これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要ない。 This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.
(画素配列のバリエーション4)
次に、撮像装置が備える撮像素子のさらに他の構成例について説明する。
(Pixel array variation 4)
Next, still another configuration example of the imaging element included in the imaging device will be described.
図10のカラーフィルタの配置は、L01F01画素を緑色のフィルタG、L01F02画素を赤色のフィルタRとして、横方向に、これらの組合せパターンを繰り返している。 The arrangement of the color filters in FIG. 10 repeats these combination patterns in the horizontal direction, with the L01F01 pixel as the green filter G and the L01F02 pixel as the red filter R.
また、L02F01画素を青色のフィルタB、L02F02画素を緑色のフィルタGとして、横方向に、これらの組合せパターンを繰り返している。
そして、L01列のパターンと、L02列のパターンとを、縦方向に、繰り返している。
Further, the L02F01 pixel is a blue filter B and the L02F02 pixel is a green filter G, and these combination patterns are repeated in the horizontal direction.
Then, the pattern of the L01 column and the pattern of the L02 column are repeated in the vertical direction.
ここで、緑色のフィルタGが配置されている、L01F01画素と、L01F09画素と、L09F01画素と、L09F09画素とは、左側瞳検出用画素である。
また、L05F01画素と、L05F09画素とは、右側瞳検出用画素である。
また、L01F05画素と、L09F05画素とは、上側瞳検出用画素である。
さらに、L05F05画素は、下側瞳検出用画素である。
Here, the L01F01 pixel, the L01F09 pixel, the L09F01 pixel, and the L09F09 pixel in which the green filter G is arranged are left pupil detection pixels.
The L05F01 pixel and the L05F09 pixel are right pupil detection pixels.
The L01F05 pixel and the L09F05 pixel are upper pupil detection pixels.
Further, the L05F05 pixel is a lower pupil detection pixel.
これにより、被写体の色に関わらず精度の高い焦点検出を行うことができる。尚、カラーフィルタと光電変換領域の画素中心からのズレ方向の組み合わせはこれに限る必要はない。 This makes it possible to perform focus detection with high accuracy regardless of the color of the subject. Note that the combination of the color filter and the photoelectric conversion region in the direction of deviation from the pixel center is not limited to this.
(機能ブロックの説明)
本実施形態では、認識部138(図11、図12)は、後述するように、ベスト像面位置を認識する。この認識に関して、以下の2通りの手順(a)、(b)がある。
(a)撮影者がマニュアルフォーカス(以下、適宜「MF」)モードを用いてベスト像面位置、つまり最もピントが合っている状態を認識する。
(b)コントラストAF方式を用いてベスト像面位置を認識する。
(Description of functional block)
In the present embodiment, the recognition unit 138 (FIGS. 11 and 12) recognizes the best image plane position, as will be described later. Regarding this recognition, there are the following two procedures (a) and (b).
(A) The photographer recognizes the best image plane position, that is, the most focused state using the manual focus (hereinafter referred to as “MF” as appropriate) mode.
(B) The best image plane position is recognized using the contrast AF method.
図11は、交換レンズ12がAFに対応していないAF不可レンズの場合に、MFモードを用いて、ベスト像面を認識する撮像装置11のボディ制御部24の機能ブロックを示す図である。なお、図1で示す構成と同一の構成には、同じ参照番号を付し、重複する説明は省略する。
FIG. 11 is a diagram illustrating functional blocks of the
撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がラインaを経由してA/D変換部131へ入力する。
From the
撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がA/D変換部131へ入力する。
From the
像信号取得部(撮像信号取得部)133は、A/D信号処理部131と信号処理部132を経由した信号を取得する。撮影用画素からの信号は、表示画像構成部135により、液晶表示素子駆動回路25へ出力される。液晶表示素子(表示部)26は、撮影用の画像を表示する。撮影者は、接眼レンズ27を通して撮影用の画像を観察できる。
The image signal acquisition unit (imaging signal acquisition unit) 133 acquires a signal that has passed through the A / D
記録画像構成部134は、撮影用画素からの信号に基づいて記録画像データを構成する。記録画像データは、メモリーカード29に格納される。
記録画像構成部134と表示画像構成部135とは、取得した撮像信号に基づいて画像データを生成する画像構成部に対応する。
The recorded
The recorded
また、焦点検出用画素からの信号は、像信号取得部133から相関演算部136へ出力される。
A signal from the focus detection pixel is output from the image
撮像素子22は、2次元に配列された複数の画素を有し、撮像光学系であるレンズ18、19、20からの光束により形成された第1の被写体像信号、並びに、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する。詳細は後述する。
The
相関演算部136は、第1像信号、及び第2像信号に基づいて相関演算を行う。つまり、相関演算部136は、第1の被写体像信号を出力する撮像素子22と同一の撮像素子22が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する。
The
また、補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する
Further, the correction
補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。
The correction
ここでは、補正値格納部137は、認識部138がベスト像面位置と認識しているときの相関演算部137の結果を補正値として格納する。
これにより、位相差AFとの結果を補正して、マニュアルフォーカスモードによるピント合わせの結果に一致させることができる。
Here, the correction
As a result, the result of the phase difference AF can be corrected and matched with the result of focusing in the manual focus mode.
図12は、交換レンズ12がAFに対応しているAFレンズの場合に、コントラストAFモードを用いて、ベスト像面を認識する撮像装置11のボディ制御部24の機能ブロックを示す図である。なお、図1で示す構成と同一の構成には、同じ参照番号を付し、重複する説明は省略する。
FIG. 12 is a diagram illustrating functional blocks of the
撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がラインaを経由してA/D変換部131へ入力する。
From the
撮像素子22からは、撮影用画素からの信号、焦点検出用画素からの信号、第1像信号、及び第2像信号のいずれの信号であるかを識別するための信号がA/D変換部131へ入力する。
From the
像信号取得部(撮像信号取得部)133は、A/D信号処理部131と信号処理部132を経由した信号を取得する。撮影用画素からの信号は、表示画像構成部135により、液晶表示素子駆動回路25へ出力される。液晶表示素子(表示部)26は、撮影用の画像を表示する。撮影者は、接眼レンズ27を通して撮影用の画像を観察できる。
The image signal acquisition unit (imaging signal acquisition unit) 133 acquires a signal that has passed through the A / D
記録画像構成部134は、撮影用画素からの信号に基づいて記録画像データを構成する。記録画像データは、メモリーカード29に格納される。
記録画像構成部134と表示画像構成部135とは、取得した撮像信号に基づいて画像データを生成する画像構成部に対応する。
The recorded
The recorded
また、焦点検出用画素からの信号は、像信号取得部133から相関演算部136へ出力される。
A signal from the focus detection pixel is output from the image
撮像素子22は、2次元に配列された複数の画素を有し、撮像光学系であるレンズ18、19、20からの光束により形成された第1の被写体像信号、並びに、撮像光学系からの光束のうち、瞳分割されて形成された第2の被写体像及び第3の被写体像をそれぞれ光電変換し、第2の被写体像信号及び第3の被写体像信号を出力する。
The
相関演算部136は、第1像信号、及び第2像信号に基づいて相関演算を行う。つまり、相関演算部136は、第1の被写体像信号を出力する撮像素子22と同一の撮像素子22が出力する第2の被写体像信号及び第3の被写体像信号に基づいて、2像の間隔を演算する。
The
また、補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。
Further, the correction
ここで、コントラストAFモードにより、ベスト像面位置となるようにフォーカシングする。
コントラストAF制御部141は、制御部140を介して、フォーカスレンズ駆動部16、絞り制御部15を制御する。コントラスト方式では、フォーカシング状態を変えながらコントラスト値を評価する、いわゆる山登り方式を採用している。これにより、撮像した画像のコントラストが最も高い状態を検出する。
この状態を、認識部138は、ベスト像面位置であることを認識する。
補正値格納部137は、認識部138の認識結果の情報と、相関演算部137の演算結果とに基づいて、2像間隔を補正値として格納する。
Here, focusing is performed so that the best image plane position is obtained in the contrast AF mode.
The contrast
In this state, the
The correction
認識部138は、撮像素子22の同じ前記画素からの信号に基づいたコントラストAF方式による測距結果と位相差AF方式による測距結果とを比較して、ベスト像面位置であることを認識する。
The recognizing
補正値格納部137は、ベスト像面位置から所定距離ずれた位置における2像間隔を推定し、所定距離であるずれ量と、推定された2像間隔と、所定距離ずれた位置における相関演算結果と、に基づいて補正値を算出し、補正値として格納する。
これにより、位相差AFとの結果を補正して、コントラストAFモードによるピント合わせの結果に一致させることができる。
The correction
As a result, the result of the phase difference AF can be corrected and matched with the result of focusing in the contrast AF mode.
次に、補正値による補正の内容を説明する。図13(a)、(b)、(c)は、デフォーカス量(横軸)と、2像間隔(縦軸)との比例関係(以下、適宜、「デフォーカスエレメントカーブ」という。)を示す図である。 Next, the content of correction using correction values will be described. FIGS. 13A, 13B, and 13C show the proportional relationship between the defocus amount (horizontal axis) and the interval between two images (vertical axis) (hereinafter referred to as “defocus element curve” as appropriate). FIG.
図13(a)は、従来の位相差AFについてデフォーカスエレメントが既知の場合を示している。
相関演算により2像間隔(EL)が算出される。例えば、2像間隔は所定の距離aである。また、2像間隔に対応するデフォーカス量bが得られる。
このデフォーカス量に基づき、レンズ駆動量を算出し、レンズを駆動する。
FIG. 13A shows a case where the defocus element is known for the conventional phase difference AF.
A two-image interval (EL) is calculated by correlation calculation. For example, the interval between two images is a predetermined distance a. Further, a defocus amount b corresponding to the interval between two images is obtained.
Based on this defocus amount, a lens drive amount is calculated to drive the lens.
ここで、相関演算から得られるデフォーカスエレメントカーブの切片は0(ゼロ)を通らない。そのため、補正値を用いて、切片が0(ゼロ)を通るように補正している。
一般的にこの補正値は、撮影時に演算して求めるものではなく、データとして格納されている。
Here, the intercept of the defocus element curve obtained from the correlation calculation does not pass 0 (zero). Therefore, correction is performed so that the intercept passes through 0 (zero) using the correction value.
In general, this correction value is not obtained by calculation at the time of photographing, but is stored as data.
図13(b)は、従来構成において、デフォーカスエレメントが未知の場合を示している。
デフォーカスエレメントカーブが未知のため、傾き、切片が未知である。1ポイントの相関演算結果では、傾きと切片は、算出できない。つまり、補正値が算出できない。
なお、1点鎖線、2点鎖線で示す直線を、未知のデフォーカスエレメントカーブの参考として示している。
FIG. 13B shows a case where the defocus element is unknown in the conventional configuration.
Since the defocus element curve is unknown, the slope and intercept are unknown. The slope and intercept cannot be calculated from the one-point correlation calculation result. That is, the correction value cannot be calculated.
A straight line indicated by a one-dot chain line and a two-dot chain line is shown as a reference for an unknown defocus element curve.
図13(c)は、本実施形態において、デフォーカスエレメントが未知の場合を示している。
デフォーカスエレメントカーブが未知のため、傾きと切片とは、未知である。上述したように、1ポイントの相関演算結果では、傾きと切片は算出できない。つまり、補正値が算出できない。
本実施形態では、認識部138より、ベスト像面位置を認識することで、デフォーカス量0(ゼロ)が定義できる。ベスト像面の認識は、上述した2つの機能ブロック図のように、MFモードや、コントラストAFモードを用いて行う。
このデフォーカス量0(ゼロ)の位置における相関演算結果から、切片が算出可能となる。つまり、補正値βを算出可能となる。
FIG. 13C shows a case where the defocus element is unknown in this embodiment.
Since the defocus element curve is unknown, the slope and intercept are unknown. As described above, the slope and the intercept cannot be calculated from the one-point correlation calculation result. That is, the correction value cannot be calculated.
In the present embodiment, the
The intercept can be calculated from the correlation calculation result at the position of the defocus amount 0 (zero). That is, the correction value β can be calculated.
切片が算出できれば、デフォーカスエレメントカーブの傾きは未知であっても、ベスト像面位置での2像間隔ELは、必ず0(ゼロ)となる。
なお、1点鎖線、2点鎖線で示す直線を、未知のデフォーカスエレメントカーブの参考として示している。
If the intercept can be calculated, the two-image interval EL at the best image plane position is always 0 (zero) even if the inclination of the defocus element curve is unknown.
A straight line indicated by a one-dot chain line and a two-dot chain line is shown as a reference for an unknown defocus element curve.
次に、フローチャートを用いて、本実施例におけるフォーカシングの補正動作をさらに詳細に説明する。
図14は、補正値算出の大まかな流れを示すフローチャートである。ステップS101において、補正値算出が開始される。ステップS102において、撮影者はマニュアルフォーカスモードか、コントラストAFモードかが判断される。
Next, the focusing correction operation in the present embodiment will be described in more detail using a flowchart.
FIG. 14 is a flowchart showing a rough flow of correction value calculation. In step S101, correction value calculation is started. In step S102, it is determined whether the photographer is in the manual focus mode or the contrast AF mode.
マニュアルフォーカスモードの場合、ステップS103において、補正値算出サブルーチン1が実行される。
これに対して、コントラストAFモードの場合、ステップS104において、補正値算出サブルーチン2が実行される。
In the manual focus mode, the correction
On the other hand, in the contrast AF mode, the correction value calculation subroutine 2 is executed in step S104.
ステップS202において、像信号取得部133は、瞳分割された撮像素子22の画素から2つの被写体像信号(2像の信号)を読み出す。
In step S <b> 202, the image
ステップS203において、相関演算部136は、2像信号の相関演算を行う。ステップS204において、相関演算の結果、2像の間隔が算出される。
ステップS205において、補正値格納部137は、2像間隔を補正値として格納する。
In step S203, the
In step S205, the correction
図16は、補正値算出サブルーチン2の手順を示すフローチャートである。ステップS301において、像信号取得部133は、瞳分割されていない撮像素子22の画素から第1の被写体像信号を読み出す。
FIG. 16 is a flowchart showing the procedure of the correction value calculation subroutine 2. In step S <b> 301, the image
ステップS302において、コントラストAFが実行され、コントラストAF制御部141(図12)は、コントラストAF評価値のピーク値(最大値)を算出する。ステップS303において、認識部138は、ベスト像面位置(ジャストピント位置)であると認識する。
In step S302, contrast AF is executed, and the contrast AF control unit 141 (FIG. 12) calculates the peak value (maximum value) of the contrast AF evaluation value. In step S303, the
ステップS304において、像信号取得部133は、瞳分割された撮像素子22の画素から2つの被写体像信号(2像の信号)を読み出す。
In step S <b> 304, the image
ステップS305において、相関演算部136は、2像信号の相関演算を行う。ステップS306において、相関演算の結果、2像の間隔が算出される。
ステップS307において、補正値格納部137は、2像間隔を補正値として格納する。
In step S305, the
In step S307, the correction
なお、画素読出しは、全画素読出し、間引き読出しの処理を行うように構成してもよい。画像構成には、欠陥画素の補間処理が含まれている。また、画素加算や画素補間により、焦点検出対象画素の位置の画素信号を求めるようにしてもよい。 The pixel readout may be configured to perform all pixel readout and thinning readout processing. The image configuration includes interpolation processing of defective pixels. Alternatively, the pixel signal at the position of the focus detection target pixel may be obtained by pixel addition or pixel interpolation.
また、上記図のフローに限定されない。
例えば、電源ON後、初期状態検出、撮像素子駆動、プレビュー画像表示などをおこなってもよい。また、撮影開始をシャッターボタン半押し後、焦点検出サブルーチンに移り、合焦後、確認画像を表示し、シャッターボタン全押し後に、撮影サブルーチンに移るフローでもよい。
Moreover, it is not limited to the flow of the said figure.
For example, after the power is turned on, initial state detection, image sensor driving, preview image display, and the like may be performed. Alternatively, the flow of starting shooting may be shifted to the focus detection subroutine after half-pressing the shutter button, the confirmation image may be displayed after focusing, and the flow may be shifted to the shooting subroutine after the shutter button is fully pressed.
また、上記実施形態において、補正値を算出する状態は、物点(被写体)が無限遠から至近距離までの間のいずれの撮影状態で算出してもよい。
さらに、無限遠物点の状態において第1の補正値を算出し、至近距離物点の状態において第2の補正値を算出するなど、撮影状態に応じて補正値を算出し、格納することで、測距性能を良くすることが可能となる。
このように、上述した補正値のほか、(至近端)第1の補正値、(無限遠)第2の補正値を算出しておき、撮影状況に応じて使い分けることも可能である。
In the above embodiment, the state for calculating the correction value may be calculated in any shooting state in which the object point (subject) is between infinity and a close distance.
Further, the first correction value is calculated in the state of the object point at infinity, the second correction value is calculated in the state of the closest object point, and the correction value is calculated according to the shooting state and stored. It becomes possible to improve the ranging performance.
In this way, in addition to the correction values described above, the first correction value (closest end) and the second correction value (infinity) can be calculated and used in accordance with the shooting situation.
例えば、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠と推測されるときの補正値を格納する。
また、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が至近端(至近距離)と推測されるときの補正値を格納する。
さらに、補正値格納部137は、相関演算部136の演算結果に基づいて第1の被写体像信号に対応する被写体迄の距離が無限遠でも至近端でもないと推測されるときの補正値を格納する。
このとき、補正値格納部137は、それぞれの被写体距離における補正値を別々に格納する。
これにより、新たに撮影する際の被写体距離が無限遠や至近端のとき、それぞれに応じた補正値を選択することで、少なくとも無限遠や至近端といった状況の違いに応じた補正値を使用することができる。
For example, the correction
Further, the correction
Further, the correction
At this time, the correction
As a result, when the subject distance at the time of new shooting is infinity or the close end, by selecting a correction value corresponding to each, a correction value corresponding to at least the difference in the situation such as infinity or the close end can be obtained. Can be used.
本実施形態は、光路中にメカ機構(ハーフミラー、サブミラー)が存在しない。この、メカ機構による収差の影響がない。したがって、上述した補正は1度行えば良い。他方、光路中にメカ機構(ハーフミラー、サブミラー)が存在するような撮像装置では、収差の影響により、補正を複数回行う必要がある。
このように、本実施形態は、位相差測距方式を採用する撮像装置であって、コンパクトでレリーズタイムラグが少なく、さらに、常に高精度なフォーカシングを行うことができる。
In this embodiment, there is no mechanical mechanism (half mirror, sub mirror) in the optical path. There is no influence of aberration due to this mechanical mechanism. Therefore, the correction described above may be performed once. On the other hand, in an imaging apparatus in which a mechanical mechanism (half mirror, sub mirror) exists in the optical path, correction needs to be performed multiple times due to the influence of aberration.
As described above, the present embodiment is an imaging apparatus that employs a phase difference ranging method, is compact, has a small release time lag, and can always perform highly accurate focusing.
以上のように、本発明は、位相差AF方式の撮像装置に適している。 As described above, the present invention is suitable for a phase difference AF type imaging apparatus.
11 デジタルスチルカメラ
12 交換レンズ
13 カメラボディ
15 絞り駆動部
16 レンズ駆動部
18 ズーミング用レンズ
19 レンズ
20 フォーカシング用レンズ
21 可変絞り
22 撮像素子
24 ボディ制御部
25 液晶表示素子駆動回路
26 液晶表示素子
27 接眼レンズ
28 撮像素子駆動回路
29 メモリーカード
30 レンズ制御部
31a 外部入力部
31 p形ウエル
32α、32β n形領域
33α、33β 表面p+層
35 カラーフィルタ
36 マイクロレンズ
41 画素
42、52 マイクロレンズ
44、54 遮光膜
48、58 開口部
61、62、63、64 オンチップレンズ
61a、62a、63a、64a 光軸
70、80 画素
71、81 屈折率分布レンズ
72 カラーフィルタ
76、86 受光素子
90 移動・駆動部
91 減光素子
120L 左側瞳検出用画素
120R 右側瞳検出用画素
120U 上側瞳検出用画素
120D 下側瞳検出用画素
121 撮影用画素
131 A/D変換部
132 信号処理部
133 像信号取得部
134 記録画像構成部
135 表示画像構成部
136 相関演算部
137 補正値格納部
138 認識部
139 位相差AF制御部
140 制御部
141 コントラストAF制御部
DESCRIPTION OF
27
Claims (4)
前記第1の被写体像信号を出力する前記撮像素子と同一の前記撮像素子が出力する前記第2の被写体像信号及び前記第3の被写体像信号に基づいて、2像の間隔を演算する相関演算部と、
ベスト像面位置であることを認識する認識部と、
前記認識部の認識結果の情報と、前記相関演算部の演算結果とに基づいて、2像間隔を補正値として格納する補正値格納部と、
前記第1の被写体像信号を撮像信号として取得する撮像信号取得部と、
取得した前記撮像信号に基づいて画像データを生成する画像構成部と、
を有することを特徴とするの撮像装置。 A first subject image signal formed by a light beam from the imaging optical system and a light beam from the imaging optical system, which has a plurality of pixels arranged two-dimensionally, and is formed by pupil division. An image sensor that photoelectrically converts each of the two subject images and the third subject image, and outputs a second subject image signal and a third subject image signal;
Correlation calculation for calculating an interval between two images based on the second subject image signal and the third subject image signal output from the same image pickup device that outputs the first subject image signal. And
A recognition unit that recognizes the best image plane position;
A correction value storage unit that stores a two-image interval as a correction value based on the recognition result information of the recognition unit and the calculation result of the correlation calculation unit;
An imaging signal acquisition unit that acquires the first subject image signal as an imaging signal;
An image constructing unit that generates image data based on the acquired imaging signal;
An image pickup apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010278380A JP2012128101A (en) | 2010-12-14 | 2010-12-14 | Imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010278380A JP2012128101A (en) | 2010-12-14 | 2010-12-14 | Imaging apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012128101A true JP2012128101A (en) | 2012-07-05 |
Family
ID=46645220
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010278380A Withdrawn JP2012128101A (en) | 2010-12-14 | 2010-12-14 | Imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012128101A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108076266A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Processing device and camera device |
| WO2020045202A1 (en) * | 2018-08-31 | 2020-03-05 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, correction method, and computer program |
-
2010
- 2010-12-14 JP JP2010278380A patent/JP2012128101A/en not_active Withdrawn
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108076266A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Processing device and camera device |
| WO2020045202A1 (en) * | 2018-08-31 | 2020-03-05 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, correction method, and computer program |
| US11838656B2 (en) | 2018-08-31 | 2023-12-05 | Sony Semiconductor Solutions Corporation | Imaging device and correction method for reducing image height dependency of a depth |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5677800B2 (en) | Imaging device | |
| JP5176959B2 (en) | Imaging device and imaging apparatus | |
| US8218017B2 (en) | Image pickup apparatus and camera | |
| JP4961993B2 (en) | Imaging device, focus detection device, and imaging device | |
| JP6264284B2 (en) | Imaging device | |
| JP5619294B2 (en) | Imaging apparatus and focusing parameter value calculation method | |
| JP6317548B2 (en) | Imaging apparatus and control method thereof | |
| JP2012027390A (en) | Imaging apparatus | |
| JP4983271B2 (en) | Imaging device | |
| JP2013025144A (en) | Focus adjustment device and imaging apparatus | |
| JP2014153509A (en) | Imaging device and imaging method | |
| JP5829018B2 (en) | Imaging device | |
| JP4858179B2 (en) | Focus detection apparatus and imaging apparatus | |
| JP6642628B2 (en) | Imaging device and imaging device | |
| JP5866760B2 (en) | Imaging device | |
| JP2012128101A (en) | Imaging apparatus | |
| JP2013003486A (en) | Focus detector and imaging apparatus | |
| JP5685892B2 (en) | Focus detection device, focus adjustment device, and imaging device | |
| JP5907668B2 (en) | Imaging device and imaging device | |
| JP2010139624A (en) | Imaging element and imaging apparatus | |
| JP2012042863A (en) | Imaging device | |
| JP6349624B2 (en) | Image sensor and focus detection apparatus | |
| JP2012063456A (en) | Imaging apparatus | |
| JP2018046563A (en) | Image sensor | |
| JP2012042857A (en) | Imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140304 |