[go: up one dir, main page]

JP2014149460A - Imaging apparatus and method for controlling the same - Google Patents

Imaging apparatus and method for controlling the same Download PDF

Info

Publication number
JP2014149460A
JP2014149460A JP2013018963A JP2013018963A JP2014149460A JP 2014149460 A JP2014149460 A JP 2014149460A JP 2013018963 A JP2013018963 A JP 2013018963A JP 2013018963 A JP2013018963 A JP 2013018963A JP 2014149460 A JP2014149460 A JP 2014149460A
Authority
JP
Japan
Prior art keywords
image
pupil
light beam
passed
pupil region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013018963A
Other languages
Japanese (ja)
Inventor
Tomomi Watanabe
友美 渡邉
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013018963A priority Critical patent/JP2014149460A/en
Publication of JP2014149460A publication Critical patent/JP2014149460A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】高速なAFを行うことを可能にした撮像装置を提供する。
【解決手段】撮影光学系を介して入射される被写体の光学像を光電変換して電気信号を出力する撮像素子と、撮像素子上の各画素に入射する被写体の光学像の光束を撮影光学系の特定の瞳領域からの光束のみに制限する瞳分割部と、瞳分割部により制限された特定の瞳領域のみを通過した光束により得られる電気信号に基づいて、焦点位置の演算範囲を設定する測距枠決定部と、測距枠決定部が設定する演算範囲において特定の瞳領域とは異なる複数の瞳領域を通過した光束により得られる電気信号に対して通過した瞳領域ごとに異なるシフトを与える像シフト部と、像シフト部によりシフトされた電気信号を加算して像を生成する像生成部と、像生成部で得られた像の焦点評価を行う焦点評価部とを備える。
【選択図】 図3
An imaging apparatus capable of performing high-speed AF is provided.
An imaging device that photoelectrically converts an optical image of a subject incident through a photographing optical system and outputs an electrical signal, and a light flux of the optical image of the subject incident on each pixel on the imaging device The focus division calculation range is set based on the pupil division unit that restricts only the light beam from the specific pupil region and the electrical signal obtained from the light beam that has passed through only the specific pupil region restricted by the pupil division unit. A range shift determination unit and a shift different for each pupil region passed with respect to an electric signal obtained by a light beam that has passed through a plurality of pupil regions different from a specific pupil region in a calculation range set by the range determination frame determination unit. An image shift unit that applies the electric signal shifted by the image shift unit to generate an image; and a focus evaluation unit that performs focus evaluation of the image obtained by the image generation unit.
[Selection] Figure 3

Description

本発明は、デジタルカメラに代表される撮像装置におけるオートフォーカス技術に関するものである。   The present invention relates to an autofocus technique in an imaging apparatus typified by a digital camera.

従来より、デジタルカメラ等においてはピント調整のためのオートフォーカス装置を搭載しているが、デジタル一眼レフカメラではいわゆる位相差AF(オートフォーカス)を、デジタルコンパクトカメラではコントラストAFを用いることが一般的である。これらのAFの特徴として、コントラストAFは厳密なピント合わせが可能であるが、像の取得の際にレンズ駆動を必要とするため、AF処理が位相差AFに比べて遅いという欠点があった。   Conventionally, digital cameras and the like have been equipped with an autofocus device for focus adjustment, but digital single-lens reflex cameras generally use so-called phase difference AF (autofocus), and digital compact cameras typically use contrast AF. It is. As a feature of these AFs, contrast AF enables precise focusing, but has a drawback that AF processing is slower than phase difference AF because lens driving is required for image acquisition.

ところで、近年は「Light Field Photography」と呼ばれる手法を用いた撮像装置(Light Field Camera)が提案されている。この撮像装置では、従来の撮影光学系に加えてマイクロレンズアレイを有することで、撮像素子から得られるデータが、受光面における光の強度分布に加えて光線の角度情報をも含む。この情報を基に任意の視点や方向の画像を再構成できるようになっている。   Incidentally, in recent years, an imaging apparatus (Light Field Camera) using a technique called “Light Field Photography” has been proposed. In this imaging apparatus, by having a microlens array in addition to the conventional imaging optical system, data obtained from the imaging element includes angle information of light rays in addition to the light intensity distribution on the light receiving surface. Based on this information, an image of an arbitrary viewpoint and direction can be reconstructed.

これらのAF技術の中で、顔検出を行ってから測距枠を決定することで、高速にユーザーの望む画像を取得できる技術が提案されている。例えば、特許文献1では、異なる瞳領域を通過した光束を個別に受光可能な撮像素子において、像の再構成を生成する際にAF測距枠を複数設けてそれぞれの枠内の評価値を得る。これにより、複数の被写体に対してピントの合った画像を連続的に出力することができる。特許文献2では、同様に異なる瞳領域を通過した光束を個別に受光可能な撮像素子において、ユーザーがAF測距枠の設定を行ってから像の再構成によるピント検出をすることができる方法が開示されている。   Among these AF techniques, a technique is proposed in which an image desired by a user can be acquired at high speed by determining a distance measurement frame after performing face detection. For example, in Patent Document 1, in an image sensor that can individually receive light beams that have passed through different pupil regions, a plurality of AF distance measurement frames are provided when an image reconstruction is generated, and an evaluation value in each frame is obtained. . Accordingly, it is possible to continuously output images in focus with respect to a plurality of subjects. Similarly, in Japanese Patent Laid-Open No. 2004-260260, there is a method capable of performing focus detection by image reconstruction after a user sets an AF range frame in an image sensor that can individually receive light beams that have passed through different pupil regions. It is disclosed.

特開2009−258610号公報JP 2009-258610 A 特開2011−113174号公報JP 2011-113174 A

しかしながら、上述の特許文献に開示された従来技術では、ピント合わせの速度が遅くなる場合がある。すなわち特許文献1では、複数のAF測距枠を設定することで所望の被写体にピント合わせをすることが出来るが、多数の像を再構成により取得する必要があるので計算負荷が大きく、ピント合わせの速度が遅くなってしまう場合がある。特許文献2では、ユーザーがあらかじめAF測距枠を設定するのでリアルタイムのAFが出来ず、ピント調節に時間がかかる場合がある。   However, in the conventional technique disclosed in the above-mentioned patent document, the focusing speed may be slow. That is, in Patent Document 1, it is possible to focus on a desired subject by setting a plurality of AF distance measurement frames. However, since it is necessary to acquire a large number of images by reconstruction, the calculation load is large, and focusing is performed. May slow down. In Patent Document 2, since a user sets an AF distance measurement frame in advance, real-time AF cannot be performed, and focus adjustment may take time.

本発明は上述した課題に鑑みてなされたものであり、その目的は、高速なAFを行うことを可能にした撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging apparatus capable of performing high-speed AF.

本発明に係わる撮像装置は、撮影光学系を介して入射される被写体の光学像を光電変換して電気信号を出力する撮像素子と、前記撮像素子上の各画素に入射する前記被写体の光学像の光束を前記撮影光学系の特定の瞳領域からの光束のみに制限する瞳分割手段と、前記瞳分割手段により制限された特定の瞳領域のみを通過した光束により得られる前記電気信号に基づいて、焦点位置の演算範囲を設定する測距枠決定手段と、前記測距枠決定手段が設定する前記演算範囲において前記特定の瞳領域とは異なる複数の瞳領域を通過した光束により得られる前記電気信号に対して通過した瞳領域ごとに異なるシフトを与える像シフト手段と、前記像シフト手段によりシフトされた前記電気信号を加算して像を生成する像生成手段と、前記像生成手段で得られた像の焦点評価を行う焦点評価手段と、を備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup device that photoelectrically converts an optical image of a subject incident through a photographing optical system and outputs an electrical signal, and an optical image of the subject incident on each pixel on the image pickup device. Based on the electric signal obtained by the pupil dividing means for restricting only the light flux from the specific pupil area of the photographing optical system and the light flux that has passed through only the specific pupil area restricted by the pupil dividing means A distance measurement frame determining means for setting a calculation range of a focal position; and the electric power obtained by a light beam that has passed through a plurality of pupil areas different from the specific pupil area in the calculation range set by the distance measurement frame determination means Image shift means for giving a different shift to each pupil region that has passed through the signal, image generation means for generating an image by adding the electrical signals shifted by the image shift means, and the image generation means A focus evaluation means for performing focus evaluation of the image obtained, characterized in that it comprises a.

本発明によれば、高速なAFを行うことを可能にした撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus capable of performing high-speed AF.

本発明の撮像装置の一実施形態であるデジタルカメラおよびレンズの電気的構成を示すブロック図。1 is a block diagram showing an electrical configuration of a digital camera and a lens that are an embodiment of an imaging apparatus of the present invention. 本発明の一実施形態における撮像装置の光学系の模式図。1 is a schematic diagram of an optical system of an imaging apparatus according to an embodiment of the present invention. 一実施形態の撮像装置の動作を示すフローチャート。6 is a flowchart illustrating an operation of the imaging apparatus according to the embodiment. 瞳選択方法を示す模式図。The schematic diagram which shows the pupil selection method. シフト量と瞳選択位置の関係を示した模式図。The schematic diagram which showed the relationship between shift amount and a pupil selection position. 瞳選択位置と測距枠の位置関係を示した模式図。The schematic diagram which showed the positional relationship of a pupil selection position and a ranging frame. 測距枠の設定を示す模式図。The schematic diagram which shows the setting of a ranging frame. 本発明に適用可能な光学系の模式図。1 is a schematic diagram of an optical system applicable to the present invention.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の撮像装置の一実施形態であるデジタルカメラおよびレンズの電気的構成を示すブロック図である。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing an electrical configuration of a digital camera and a lens which are an embodiment of an imaging apparatus of the present invention.

図1において、カメラ1およびレンズ2は、撮像光学系、画像処理系、記録再生系、制御系を有する。撮像光学系は、撮影レンズ3 、撮像素子6を含み、画像処理系は、画像処理部7を含む。また、記録再生系は、メモリ部8、表示部9を含み、制御系は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動部13を含む。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。   In FIG. 1, a camera 1 and a lens 2 have an imaging optical system, an image processing system, a recording / reproducing system, and a control system. The imaging optical system includes a photographing lens 3 and an imaging element 6, and the image processing system includes an image processing unit 7. The recording / reproducing system includes a memory unit 8 and a display unit 9, and the control system includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, and a lens driving unit 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like.

撮像系は、物体からの光を、撮影レンズ3を介して撮像素子6の撮像面に結像させる光学処理系である。撮像素子6は、撮像光学系により結像された光学像を電気信号に変換する。撮影素子6の表面にはマイクロレンズが格子状に配置されており、いわゆるマイクロレンズアレイ(以下 MLA)を形成している。MLAは本実施形態において、瞳分割手段を構成する。MLAの機能や配置の詳細については図3を用いて後述する。後述するように、撮影素子6からピント評価量/適当な露光量が得られるので、この信号に基づいて撮影レンズ3が調整されることで、適切な光量の物体光を撮像素子6に露光するとともに、撮像素子6近傍で被写体像が結像される。   The imaging system is an optical processing system that forms an image of light from an object on the imaging surface of the imaging element 6 via the photographing lens 3. The imaging element 6 converts an optical image formed by the imaging optical system into an electrical signal. Microlenses are arranged in a lattice pattern on the surface of the imaging element 6 to form a so-called microlens array (hereinafter referred to as MLA). In this embodiment, the MLA constitutes pupil dividing means. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount can be obtained from the imaging element 6, the imaging lens 3 is adjusted based on this signal, so that an appropriate amount of object light is exposed to the imaging element 6. At the same time, a subject image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、ホワイトバランス回路、ガンマ補正回路、補間演算回路等を有しており、記録用の画像を生成することができる。また、本実施形態の要部である、像シフト部、像生成部、コントラスト評価部、相関計算部等を含めることもできる。なお、本実施形態ではこれらの要素はカメラシステム制御回路5内に配置される場合を想定して記載する。   The image processing unit 7 includes an A / D converter, a white balance circuit, a gamma correction circuit, an interpolation calculation circuit, and the like, and can generate a recording image. In addition, an image shift unit, an image generation unit, a contrast evaluation unit, a correlation calculation unit, and the like, which are main parts of the present embodiment, can be included. In the present embodiment, these elements are described assuming that they are arranged in the camera system control circuit 5.

メモリ部8は実際の記憶部に加えて記録に必要な処理回路を備えている。メモリ部8は、記録部へ出力を行うとともに、表示部9に出力する像を生成し、保存する。また、メモリ部8は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。   The memory unit 8 includes a processing circuit necessary for recording in addition to an actual storage unit. The memory unit 8 outputs to the recording unit and generates and stores an image to be output to the display unit 9. In addition, the memory unit 8 compresses images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。また、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズボタンの押下を操作検出部10が検出した信号を受けて、撮像素子6の駆動、画像処理部7の動作、メモリ部8の圧縮処理などを制御する。さらに表示部9によって液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. In addition, the imaging system, the image processing system, and the recording / reproducing system are controlled in response to external operations. For example, in response to a signal detected by the operation detection unit 10 that a shutter release button (not shown) is pressed, the driving of the image sensor 6, the operation of the image processing unit 7, the compression processing of the memory unit 8, and the like are controlled. Further, the display unit 9 controls the state of each segment of the information display device that displays information on a liquid crystal monitor or the like.

制御系による光学系の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの信号を元に適切な焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動部13を制御する。さらにレンズシステム制御回路12には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号を元にレンズ駆動部13を介してブレ補正レンズを制御する。   The adjustment operation of the optical system by the control system will be described. An image processing unit 7 is connected to the camera system control circuit 5 and an appropriate focal position and aperture position are obtained based on a signal from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 controls the lens driving unit 13. Further, a camera shake detection sensor (not shown) is connected to the lens system control circuit 12, and in a mode for performing camera shake correction, the camera shake correction lens is controlled via the lens driving unit 13 based on a signal from the camera shake detection sensor.

図2は、本実施形態における撮影光学系の要部を説明する図である。本実施形態では、いわゆる光線空間情報等といわれる光線の位置に加えて角度の情報を取得する必要がある。本実施形態では、角度情報の取得のために撮影レンズ3の結像面近傍にMLAを配置するとともに、MLAを構成する1つのレンズに対して複数の画素を対応させている。   FIG. 2 is a diagram for explaining a main part of the photographing optical system in the present embodiment. In the present embodiment, it is necessary to acquire angle information in addition to the position of the light beam, which is so-called light space information. In the present embodiment, an MLA is disposed in the vicinity of the imaging plane of the photographic lens 3 in order to acquire angle information, and a plurality of pixels are associated with one lens constituting the MLA.

図2(a)は撮像素子6とMLA20の関係を模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を示す模式図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically illustrating the relationship between the image sensor 6 and the MLA 20. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影レンズ3の結像面近傍になるように配置されている。図2(a)は撮像装置の横からと、正面からMLAを見た状態を示しており、撮像装置正面から見るとMLAのレンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素の数倍程度の大きさしかない。なお、実際の大きさについては図2(b)を用いて説明する。   As shown in FIG. 2A, the MLA 20 is provided on the image sensor 6, and the front principal point of the MLA 20 is arranged in the vicinity of the imaging plane of the photographing lens 3. FIG. 2A shows a state where the MLA is viewed from the side and from the front of the imaging device, and the lens of the MLA is disposed so as to cover the pixels on the imaging device 6 when viewed from the front of the imaging device. In FIG. 2A, the microlenses constituting the MLA are illustrated in large size so that the microlenses are easy to see, but each microlens is actually only about several times as large as a pixel. The actual size will be described with reference to FIG.

図2(b)は図2(a)の装置正面からの図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方MLA20を構成する各マイクロレンズは円20a,20b,20c,20dで示した。図2(b)から明らかなようにマイクロレンズ1つに対して複数の画素が割り当てられており、図2(b)の例では、5行×5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである。このとき、画像として出力する際には5×5の画素を加算して(角度情報を積分した形で)出力時の一画素を形成する。この時の画素を本実施形態中では出力一画素と呼ぶ。   FIG. 2B is a partially enlarged view from the front of the apparatus of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA 20 is indicated by circles 20a, 20b, 20c, and 20d. As apparent from FIG. 2B, a plurality of pixels are assigned to one microlens. In the example of FIG. 2B, 5 rows × 5 columns = 25 pixels are one microlens. Is provided against. That is, the size of each microlens is 5 × 5 times the size of the pixel. At this time, when outputting as an image, 5 × 5 pixels are added (angle information is integrated) to form one pixel at the time of output. The pixel at this time is referred to as one output pixel in this embodiment.

図2(c)は撮像素子6を、マイクロレンズの光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の21、22、23、24、25は撮像素子6の画素(1つの光電変換部)を示している。一方図2(c)の上方に示した図は撮影レンズ3の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向になるが、説明を分かりやすくするために投影方向を変化させている。また、図2(c)においては説明を分かりやすくするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image pickup element 6 is cut so that the longitudinal direction of the sensor includes the optical axis of the microlens and the horizontal direction of the drawing. 2, 21, 22, 23, 24, and 25 in FIG. 2C indicate pixels (one photoelectric conversion unit) of the image sensor 6. On the other hand, the upper part of FIG. 2C shows the exit pupil plane of the photographic lens 3. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2 (c), the exit pupil plane is in the direction perpendicular to the paper plane of FIG. 2 (c). It is changing. In FIG. 2C, one-dimensional projection / signal processing will be described for easy understanding. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素21、22、23、24、25は図2(b)の21a、22a、23a、24a、25aとそれぞれ対応する位置関係にある。図2(c)に示すように、マイクロレンズ20によって各画素は撮影レンズ3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素21と領域31が、画素22と領域32が、画素23と領域33が、画素24と領域34が、画素25と領域35がそれぞれ対応している。すなわち画素21には撮影レンズ3の射出瞳面上の領域31を通過した光束のみが入射する。他の画素も同様である。結果として、瞳面上での通過領域と撮像素子6上の位置関係から角度の情報を取得することが可能となる。   The pixels 21, 22, 23, 24, and 25 in FIG. 2C are in a positional relationship corresponding to 21a, 22a, 23a, 24a, and 25a in FIG. As shown in FIG. 2C, each pixel is designed to be conjugate with a specific region on the exit pupil plane of the photographing lens 3 by the microlens 20. In the example of FIG. 2C, the pixel 21 and the region 31 correspond to the pixel 22 and the region 32, the pixel 23 and the region 33, the pixel 24 and the region 34, and the pixel 25 and the region 35, respectively. That is, only the light beam that has passed through the region 31 on the exit pupil plane of the photographing lens 3 enters the pixel 21. The same applies to the other pixels. As a result, it is possible to obtain angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6.

本実施形態に示した撮影光学系を利用して、撮像素子6の信号からピント評価値(焦点評価値)を得る処理について図3を用いて説明する。   Processing for obtaining a focus evaluation value (focus evaluation value) from a signal from the image sensor 6 using the imaging optical system shown in the present embodiment will be described with reference to FIG.

図3は、本実施形態の撮像装置においてピント評価値を得るためのフローチャートである。図3(a)はピント評価値を得る全体の動作を、図3(b)は測距枠決定部の動作を、図3(c)は像シフト部の動作を、図3(d)は像生成部の動作を、図3(e)はピント評価部の動作を、図3(f)は顔検出部の動作をそれぞれ示している。   FIG. 3 is a flowchart for obtaining a focus evaluation value in the imaging apparatus of the present embodiment. 3A shows the overall operation for obtaining the focus evaluation value, FIG. 3B shows the operation of the distance measurement frame determination unit, FIG. 3C shows the operation of the image shift unit, and FIG. FIG. 3E shows the operation of the image generation unit, FIG. 3E shows the operation of the focus evaluation unit, and FIG. 3F shows the operation of the face detection unit.

図3(a)から各ステップ順に説明する。ステップS1はピント評価値取得動作の開始を示している。例えば、図1の操作検出部10が撮影者からの特定の動作を検出した時(例えばレリーズボタンの押下)などが該当する。   Description will be given in order of each step from FIG. Step S1 indicates the start of the focus evaluation value acquisition operation. For example, this is the case when the operation detection unit 10 in FIG. 1 detects a specific operation from the photographer (for example, pressing the release button).

ステップS2は撮像素子6を所定の時間露光して読み出す(A/D変換する)ことにより画像データを取得することに対応する。この時の露光時間と露光量から撮影において適切な露出量を計算することもできる。ただし本実施形態の要部ではないので説明は省略する。   Step S2 corresponds to acquiring image data by exposing and reading (A / D conversion) the image sensor 6 for a predetermined time. An appropriate exposure amount in photographing can be calculated from the exposure time and the exposure amount at this time. However, since it is not the main part of this embodiment, description is abbreviate | omitted.

ステップS3では、測距枠決定部を動作させて結果を得る。測距枠決定部の動作の詳細は図3(b)を用いて後述する。   In step S3, the distance measurement frame determining unit is operated to obtain a result. Details of the operation of the ranging frame determination unit will be described later with reference to FIG.

ステップS4からステップS7はループを形成している。ステップS4ではAF動作を行う上で必要な再構成位置での再構成像を複数回取得するためのループを形成している。この時、粗スキャンの後に密スキャン動作をすることで像の再構成の演算量を最小限にすることができ、より高速なAFを行うことができる。本実施形態では粗くピント調整を行って大まかなピント位置を検出する動作を粗スキャン、粗スキャンで検出したピント位置付近で精密にピント検出を行う動作を密スキャンと呼ぶことにする。また、再構成像の計算をステップS3で定められた測距枠内(演算範囲内)でのみ行うことで、演算負荷を最小限にすることが出来る。   Steps S4 to S7 form a loop. In step S4, a loop for acquiring a reconstructed image at a reconstructed position necessary for performing the AF operation a plurality of times is formed. At this time, the amount of calculation for image reconstruction can be minimized by performing the fine scan operation after the coarse scan, and higher-speed AF can be performed. In the present embodiment, an operation for performing rough focus adjustment to detect a rough focus position is referred to as a coarse scan, and an operation for performing precise focus detection near the focus position detected by the coarse scan is referred to as a fine scan. Further, the calculation load can be minimized by performing the calculation of the reconstructed image only within the distance measurement frame (in the calculation range) determined in step S3.

ステップS5では像シフト部を動作させて結果を得る。像シフト部の動作の詳細は図3(c)を用いて後述する。ステップS6では像生成部を動作させて結果を得る。像生成部の動作の詳細は図3(e)を用いて後述する。ステップS7で一連の動作を終了する。   In step S5, the image shift unit is operated to obtain a result. Details of the operation of the image shift unit will be described later with reference to FIG. In step S6, the image generation unit is operated to obtain a result. Details of the operation of the image generation unit will be described later with reference to FIG. A series of operation | movement is complete | finished by step S7.

ステップS8ではステップS4からステップS7で得られた再構成画像を基にピント評価部を動作させて結果を得る。ここでのピント評価はコントラストAF方式を用いても良いし、位相差AF方式を用いても良い。ピント評価部の動作の詳細は図3(e)を用いて後述する。   In step S8, the focus evaluation unit is operated based on the reconstructed image obtained in steps S4 to S7 to obtain a result. The focus evaluation here may use a contrast AF method or a phase difference AF method. Details of the operation of the focus evaluation unit will be described later with reference to FIG.

ステップS9で一連のピント評価の動作を終了する。結果として、撮像素子6の読み出しはステップS2で1回行われるのみで、ピント評価値を得ることが可能である。   In step S9, a series of focus evaluation operations are terminated. As a result, the reading of the image sensor 6 is performed only once in step S2, and the focus evaluation value can be obtained.

次に図3(b)を用いて測距枠決定部の動作の詳細を説明する。ステップS11は測距枠決定部の動作開始を示している。測距枠とは、一般的に画面中央部や主要被写体を含むように構成されるAFを行うエリアを差す。例えば図7中に四角で示したように構成される。本実施形態では、この測距枠設定をLight Field Cameraに適した形で最小限の演算量で行い、測距枠内のみで再構成画像の生成を行いながらピント検出を行うことで高速なAFを実現する。   Next, details of the operation of the distance measurement frame determination unit will be described with reference to FIG. Step S11 indicates the start of the operation of the distance measurement frame determination unit. A distance measurement frame generally refers to an area for AF that is configured to include the center of the screen and the main subject. For example, it is configured as shown by a square in FIG. In the present embodiment, this AF frame setting is performed in a form suitable for the Light Field Camera with a minimum amount of calculation, and by performing focus detection while generating a reconstructed image only within the AF frame, high-speed AF is performed. To realize.

ステップS12では選択する瞳位置の設定を行う。瞳位置の設定方法に関して図4を用いて説明する。図4はマイクロレンズ20と撮像素子6を図2中の+Z方向から見た時の瞳位置の選択方法を示した模式図である。図4(a)は瞳を5×5=25分割した時の瞳選択方法の模式図、図4(b−1)から図4(d)は瞳を4×4=16分割した時の瞳選択方法の模式図である。   In step S12, the pupil position to be selected is set. A method for setting the pupil position will be described with reference to FIG. FIG. 4 is a schematic diagram showing a method for selecting a pupil position when the microlens 20 and the image sensor 6 are viewed from the + Z direction in FIG. 4A is a schematic diagram of a pupil selection method when the pupil is divided by 5 × 5 = 25, and FIGS. 4B-1 to 4D are pupils when the pupil is divided by 4 × 4 = 16. It is a schematic diagram of a selection method.

瞳位置設定では、画角内から主要被写体の抽出を行うのでパンフォーカスに近い画像を生成することが望ましい。つまり、図4(a)のような分割がなされている場合、各マイクロレンズ下で任意の一画素を選択して出力一画素の構成を行う。一画素の選択の際は、周辺部の一画素(例えば、(1,1)座標)を選択すると、全画素加算の際の再構成画像の瞳中心位置とズレが生じるので図4(a)のように瞳の中心位置である(3,3)座標の一画素を選択すると良い。   In the pupil position setting, since the main subject is extracted from the angle of view, it is desirable to generate an image close to pan focus. That is, when division is performed as shown in FIG. 4A, an arbitrary pixel is selected under each microlens to form an output pixel. When selecting one pixel, if one pixel (for example, (1, 1) coordinates) in the peripheral portion is selected, a deviation from the pupil center position of the reconstructed image at the time of all pixel addition occurs, so that FIG. It is preferable to select one pixel of the (3, 3) coordinate that is the center position of the pupil.

ここで瞳位置の中心とは光軸と瞳平面が交差する位置を指す。また前述の中心位置とは、瞳位置の中心を含むような瞳領域のことを指している。マイクロレンズ下が偶数分割になっており中心位置に対応する領域が無い場合には、図4(b−1)、(b−2)のように中心位置に近い一画素を選択すると良い。また、図4(c)のように中心付近の二画素を選択して、0.5×(3,3)+0.5×(2,2)などとして重みづけすることで重心位置が中心またはその近傍になるようにしても良い。ここで近傍というのは、後程行うAF動作(図3(a)のステップS4からステップS7に対応)において、測距枠の大きさに対して像シフト部でのシフト量が支配的ではない範囲を指す。   Here, the center of the pupil position refers to the position where the optical axis and the pupil plane intersect. The above-mentioned center position refers to a pupil region that includes the center of the pupil position. If the area under the microlens is even-numbered and there is no region corresponding to the center position, one pixel close to the center position may be selected as shown in FIGS. 4B-1 and 4B-2. Further, as shown in FIG. 4C, two pixels near the center are selected and weighted as 0.5 × (3, 3) + 0.5 × (2, 2), etc. You may make it become the vicinity. Here, the neighborhood is a range where the shift amount in the image shift unit is not dominant with respect to the size of the distance measurement frame in the AF operation (corresponding to steps S4 to S7 in FIG. 3A) to be performed later. Point to.

図5を用いて瞳の中心近傍の選択方法の一例を説明する。瞳分割数をn(図5中では4分割)、FナンバーをF、最も瞳中心近傍(図5中では瞳領域3)を通った光線と光軸のなす角をφ、最も瞳周辺領域(図5中では瞳領域4)を通った光線と光軸のなす角をθ、撮像面とリフォーカス面までの距離をyFδ(δ:許容錯乱円の大きさ)、その時に設定された測距枠の大きさをFRとする。すると、θ、φの大きさは、
tanφ=1/2nF,tanθ=(n−1)/2nF
と表すことができる。但し、nが奇数の場合にはφ=0となる。この時、リフォーカス面でのセンサシフト量Xc、Xnは、
Xc=yδ/2n,Xn=(n−1)×yδ/2n
と表すことができる。上式の通り、瞳周辺領域の受光画素は瞳中心近傍の受光画素よりも(n−1)倍シフト量が大きくなる。この時、シフト量が測距枠の大きさFRの10%以下の移動に抑えられる程度の範囲を近傍と呼ぶと、
Xc≦0.1FR
を満たす瞳領域を近傍とすれば良い。
An example of a method for selecting the vicinity of the center of the pupil will be described with reference to FIG. The number of pupil divisions is n (four divisions in FIG. 5), the F number is F, the angle between the light axis passing through the vicinity of the center of the pupil (pupil region 3 in FIG. 5) and the optical axis is φ, and the pupil peripheral region ( In FIG. 5, the angle formed by the light beam passing through the pupil region 4) and the optical axis is θ, the distance between the imaging surface and the refocus surface is yFδ (δ: size of allowable circle of confusion), and the distance measurement set at that time Let the size of the frame be FR. Then, the magnitudes of θ and φ are
tan φ = ½ nF, tan θ = (n−1) / 2 nF
It can be expressed as. However, when n is an odd number, φ = 0. At this time, the sensor shift amounts Xc and Xn on the refocus plane are:
Xc = yδ / 2n, Xn = (n−1) × yδ / 2n
It can be expressed as. As described above, the light receiving pixels in the pupil peripheral region have a (n−1) times larger shift amount than the light receiving pixels in the vicinity of the pupil center. At this time, if a range in which the shift amount is suppressed to 10% or less of the distance measurement frame size FR is referred to as a neighborhood,
Xc ≦ 0.1FR
The pupil region that satisfies the above may be set as the vicinity.

さらに、被写体の輝度が足りない場合には図4(d)のように(2,2)+(2,3)+(3,2)+(3,3)などとして複数画素加算を行うことで出力一画素を形成しても良い。   Further, when the luminance of the subject is insufficient, a plurality of pixels are added as (2, 2) + (2, 3) + (3, 2) + (3, 3), etc. as shown in FIG. Thus, one output pixel may be formed.

瞳の中心位置やその近傍または出力一画素中の重心が瞳中心となるように画素を選択することで、測距枠決定部での検出にボケがあった場合にも、その後の像の再構成において像の移動(シフト)を防ぐことができる。つまり、測距枠として設定した範囲から主被写体が外れてしまうことを防止することが可能となる。図6のような画像がステップS2で得られていた場合、瞳中心の(3,3)と瞳端位置(5,1)を選択した場合の測距枠の設定位置を図6に示した。合焦位置付近では通過瞳領域による測距枠の設定範囲にズレが生じないが、被写体のボケが大きくなるにしたがって実際の被写体位置と測距枠の位置ズレが大きくなる。このようにピントのボケによって測距枠が被写体から外れてしまうことを防ぐために、選択する瞳重心を中央部に設定する必要がある。   By selecting a pixel so that the center position of the pupil, its vicinity, or the center of gravity of one output pixel is the center of the pupil, even if there is a blur in the detection by the distance measurement frame determination unit, the subsequent image is In the configuration, movement (shift) of the image can be prevented. That is, it is possible to prevent the main subject from being out of the range set as the distance measurement frame. When the image as shown in FIG. 6 is obtained in step S2, the setting position of the distance measurement frame when the pupil center (3, 3) and the pupil end position (5, 1) are selected is shown in FIG. . In the vicinity of the in-focus position, there is no deviation in the setting range of the distance measurement frame due to the passing pupil region, but the actual object position and the distance measurement frame position deviation increase as the subject blur increases. Thus, in order to prevent the distance measurement frame from being removed from the subject due to out-of-focus, it is necessary to set the pupil center of gravity to be selected at the center.

ステップS13では、ステップS12で設定された瞳位置での画素情報をマイクロレンズごとに足し合わせることで出力一画素を構成し、パンフォーカス画像を生成する。ステップS14では測距枠設定が「顔優先」であるか否かを判断する。顔優先でなければステップS17に進み、顔優先であればステップS15に進む。   In step S13, pixel information at the pupil position set in step S12 is added for each microlens to constitute one output pixel, and a pan-focus image is generated. In step S14, it is determined whether or not the distance measurement frame setting is “face priority”. If it is not face priority, the process proceeds to step S17. If face priority is selected, the process proceeds to step S15.

ステップS15ではステップS13で得られた画像データから被写体の一例として人の顔(顔領域)があるか否かを検知する顔検出処理を行う。顔検出処理の動作の詳細は図3(f)を用いて後述する。   In step S15, face detection processing is performed to detect whether there is a human face (face area) as an example of the subject from the image data obtained in step S13. Details of the operation of the face detection process will be described later with reference to FIG.

ステップS16では、ステップS15で得られた被写体の顔情報から、主被写体の一例として主顔領域を選択する。顔が一つもなければ測距枠=中央とし、顔が一つの場合には唯一検出された顔を主顔として主顔が検出されたエリアを測距枠として設定する。顔の検出が複数の場合には、位置が画面中央に近いほど、サイズが大きいほど主顔としての優先度を高くするなどとして主顔検知を行い図7(a)のように測距枠を設定する。本実施形態では、位置や大きさで主顔検知を行う方法を述べたが、信頼度など他の情報を考慮して主顔を検知しても良い。   In step S16, a main face area is selected as an example of the main subject from the face information of the subject obtained in step S15. If there is no face, the distance measurement frame is set to the center. If there is only one face, the only detected face is set as the main face, and the area where the main face is detected is set as the distance measurement frame. When there are a plurality of face detections, the main face detection is performed by increasing the priority as the main face as the position is closer to the center of the screen and the size is larger, and the distance measurement frame is set as shown in FIG. Set. In the present embodiment, the method of detecting the main face based on the position and size has been described. However, the main face may be detected in consideration of other information such as reliability.

ステップS17ではステップS15で主要被写体が無いと判断されたので図7(b)のように測距枠を中央エリアに設定する。ステップS18で全てのAF測距枠の設定を終了する。ステップS19で呼び出し元のステップS3へ戻る。   In step S17, since it is determined in step S15 that there is no main subject, the distance measuring frame is set in the center area as shown in FIG. 7B. In step S18, the setting of all AF distance measurement frames is completed. In step S19, the process returns to the caller step S3.

なお、本実施形態においては顔優先でかつ存在しない場合は中央部に測距枠を設定する場合について説明したが、その他の顔検出を伴う測距枠設定方法も適用可能である。本実施形態の要部はよりパンフォーカスに近い像から顔検出を行う処理にあるためである。   In the present embodiment, a case has been described in which a face detection priority is set and a distance measurement frame is set at the center when it does not exist. However, other distance measurement frame setting methods involving face detection are also applicable. This is because the main part of the present embodiment is in the process of performing face detection from an image closer to pan focus.

次に図3(f)を用いて顔検出の動作の詳細を説明する。ステップS111は顔検出の動作開始を示している。   Next, details of the face detection operation will be described with reference to FIG. Step S111 indicates the start of the face detection operation.

ステップS112ではステップS13で得られた画像データに水平バンドパスフィルタを作用させる。ステップS113ではステップS112で処理された画像データに垂直方向バンドパスフィルタを作用させる。ステップS112、S113の動作により画像データからエッジ成分が抽出される。   In step S112, a horizontal bandpass filter is applied to the image data obtained in step S13. In step S113, a vertical band pass filter is applied to the image data processed in step S112. Edge components are extracted from the image data by the operations in steps S112 and S113.

ステップS114では、ステップS113で得られたエッジ成分に対してパターンマッチングを行い、顔の特徴(目、鼻、口等)を抽出する。   In step S114, pattern matching is performed on the edge component obtained in step S113, and facial features (eyes, nose, mouth, etc.) are extracted.

ステップS115では、ステップS114で抽出された目の候補群の中から、あらかじめ設定された条件(例えば2つの目の距離や傾き等)を満たす一対の候補を、目と判断する目検出処理を行う。そして、目を形成しない候補を取り除いて目の候補群を絞り込む。   In step S115, an eye detection process is performed in which a pair of candidates satisfying a preset condition (for example, the distance between two eyes or inclination) is selected as an eye from the eye candidate group extracted in step S114. . Then, candidates that do not form eyes are removed to narrow down the eye candidate group.

ステップS116では、ステップS115で絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口等)を対応付け、また予め設定した非開条件フィルタを通すことで、顔を検出する。   In step S116, the eye candidate group narrowed down in step S115 is associated with other parts (nose, mouth, etc.) that form the corresponding face, and the face is filtered by passing through a preset non-open condition filter. To detect.

ステップS117では、ステップS116で検出した顔領域について、被写体情報の一例としての顔情報(顔の位置座標、サイズ、検出個数、信頼性係数等)を算出し、処理を終了する。ステップS118で一連の顔検出の動作を終了し、呼び出し元のステップS15に戻る。   In step S117, face information (face position coordinates, size, detected number, reliability coefficient, etc.) as an example of subject information is calculated for the face area detected in step S116, and the process ends. In step S118, the series of face detection operations is terminated, and the process returns to the caller step S15.

なお、ここでは画像データの特徴量を抽出して顔情報を得る方法を例に挙げたが、画像データから顔検出をすることが出来る方法であれば置き換え可能である。   Here, the method of obtaining the face information by extracting the feature amount of the image data has been described as an example, but any method that can detect the face from the image data can be replaced.

次に図3(c)を用いて像シフト部の動作の詳細を説明する。   Next, details of the operation of the image shift unit will be described with reference to FIG.

ステップS21は像シフト部の動作開始を示している。ステップS22からステップS27はループを形成している。ステップS22では瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置に応じた計算がなされる。図8を用いて後述するように、像の再構成を考えると同じ再構成面であっても入射角度が異なると(射出瞳が十分遠い場合には、通過する瞳領域が異なることとほぼ同義)像をシフトさせる量が異なる。これを適切に反映させるためのループである。   Step S21 indicates the start of the operation of the image shift unit. Steps S22 to S27 form a loop. In step S22, loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 25, calculation according to each pupil position of 25 is performed. As will be described later with reference to FIG. 8, considering the image reconstruction, if the incident angle is different even on the same reconstruction plane (if the exit pupil is sufficiently far away, it is almost synonymous with the different pupil areas passing through. ) The amount of image shift is different. This is a loop for appropriately reflecting this.

ステップS23ではステップS24からのデータをもとに、評価位置に対応する各瞳領域での像シフト量を計算する。ステップS24とステップS25には、各画素とMLAとの対応関係が保存されており、各画素がどの瞳領域の光線を受光しているかが分かる情報が格納されている。   In step S23, the image shift amount in each pupil region corresponding to the evaluation position is calculated based on the data from step S24. In step S24 and step S25, the correspondence relationship between each pixel and MLA is stored, and information indicating which pupil region of each pixel is receiving light is stored.

ステップS26ではステップS23の情報をもとに同じ入射角の光線を得ている(同じ瞳領域からの光線を得ている)画素をシフトさせる。同じ入射角の光線を得ている画素は例えば図2の25aと25bが該当する。このような画素がMLAを構成するマイクロレンズの数だけ存在している。   In step S26, pixels that have obtained light rays having the same incident angle (obtained light rays from the same pupil region) are shifted based on the information in step S23. For example, pixels 25a and 25b in FIG. 2 correspond to pixels that obtain light rays having the same incident angle. There are as many such pixels as the number of microlenses constituting the MLA.

ステップS27で一連の動作を終了する。ステップS28において、呼び出し元のステップS6に戻る。   A series of operation | movement is complete | finished by step S27. In step S28, the process returns to the caller step S6.

次に図3(d)を用いて像生成部の動作の詳細を説明する。ステップS31は像生成部の動作開始を示している。   Next, details of the operation of the image generation unit will be described with reference to FIG. Step S31 indicates the start of the operation of the image generation unit.

ステップS32では、ステップS35での加算のための領域のデータを初期化(0で埋める)する。この時のデータ領域の大きさはMLAの数分あれば良く、データの階調は元のデータの階調と瞳分割数の積を格納できるだけあれば都合がよい。例えば元のデータが8bitで25分割の場合、13bit(>8bit+log225)あればデータの桁あふれを考慮する必要が無い。 In step S32, the area data for addition in step S35 is initialized (filled with 0). The size of the data area at this time may be as many as the number of MLA, and it is convenient if the data gradation can store the product of the original data gradation and the number of pupil divisions. For example, if the original data is 8 bits and divided into 25, if 13 bits (> 8 bits + log 2 25), it is not necessary to consider overflow of data.

ステップS33からステップS37はループを形成している。ステップS33ではMLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図2に示した例では、元の撮像素子の画素数÷25(瞳分割数)がマイクロレンズの数となる。   Steps S33 to S37 form a loop. In step S33, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example illustrated in FIG. 2, the number of microlens is the number of pixels of the original image sensor ÷ 25 (number of pupil divisions).

ステップS34からステップS37はループを形成している。ステップS34では、瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置からの光束が存在する。   Steps S34 to S37 form a loop. In step S34, the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since the light is divided into 25, there are light fluxes from 25 pupil positions.

ステップS35では加算を行う領域か否かの判断がなされる。図3(c)で説明した様にステップS5の像シフト部の処理によって、加算すべき瞳が指示されている。加算すべき瞳に該当するときはステップS36に進み加算される。その他の場合はステップS37に進む。シフト量が画素の整数倍でない場合は、加算ステップS36において、内分されながら加算される。具体的には、重なっている面積に応じて加算すればよい。ステップS39において、呼び出し元のステップS6に戻る。   In step S35, it is determined whether or not the region is to be added. As described with reference to FIG. 3C, the pupil to be added is instructed by the processing of the image shift unit in step S5. When it corresponds to the pupil to be added, the process proceeds to step S36 and is added. In other cases, the process proceeds to step S37. If the shift amount is not an integer multiple of the pixel, the addition is performed while being internally divided in addition step S36. Specifically, it may be added according to the overlapping area. In step S39, the process returns to the caller step S6.

図3(e)を用いてピント評価部の動作の詳細を説明する。ステップS41はピント評価部の動作開始を示している。   Details of the operation of the focus evaluation unit will be described with reference to FIG. Step S41 indicates the start of the operation of the focus evaluation unit.

ステップS42からステップS44はループを形成している。ステップS42ではステップS4で得られた再構成画像の枚数分ループ計算が実行される。ステップS43ではピントを評価する評価値を計算する。この時のピント評価方法としては物体のコントラスト(明暗差)を評価する方法であっても良いし、異なる瞳を通過した2像の一致度でピントを検出する方法でも良い。ピント変動に伴う評価値であれば他の計算方法も活用することができる。ステップS44で各再構成画像のピント評価値を得る一連の動作を終了する。   Steps S42 to S44 form a loop. In step S42, a loop calculation is executed for the number of reconstructed images obtained in step S4. In step S43, an evaluation value for evaluating the focus is calculated. As a focus evaluation method at this time, a method of evaluating the contrast (brightness / darkness difference) of the object may be used, or a method of detecting the focus with the degree of coincidence of two images passing through different pupils may be used. Other calculation methods can be used as long as the evaluation value is associated with the focus fluctuation. In step S44, a series of operations for obtaining the focus evaluation value of each reconstructed image is terminated.

ステップS45で合焦位置の検出を行う。この時、コントラストを評価していれば、最大値をとるレンズ位置を検出すれば良いし、2像の一致度を評価していれば完全に一致したレンズ位置を合焦位置とすれば良い。ステップS46で一連の動作を終了し、呼び出し元のステップS8に戻る。   In step S45, the in-focus position is detected. At this time, if the contrast is evaluated, the lens position having the maximum value may be detected. If the degree of coincidence between the two images is evaluated, the completely matched lens position may be set as the in-focus position. In step S46, the series of operations is terminated, and the process returns to the caller step S8.

図8を用いて本実施形態に適用可能な別の光学系の例について説明する。図8は物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。図8(a)は図2で説明した光学系と対応しており、撮影レンズ3の結像面近傍にMLA20を配置した例である。図8(b)は撮影レンズ3の結像面よりも物体寄りにMLA20を配置した例である。図8(c)は撮影レンズ3の結像面よりも物体から遠い側にMLA20を配置した例である。   An example of another optical system applicable to this embodiment will be described with reference to FIG. FIG. 8 is a diagram schematically showing a state in which light rays from an object (subject) are imaged on the image sensor 6. FIG. 8A corresponds to the optical system described in FIG. 2, and is an example in which the MLA 20 is disposed in the vicinity of the imaging surface of the photographing lens 3. FIG. 8B shows an example in which the MLA 20 is arranged closer to the object than the imaging plane of the photographic lens 3. FIG. 8C shows an example in which the MLA 20 is arranged on the side farther from the object than the imaging surface of the photographing lens 3.

図8において、6は撮像素子を、20はMLAを、31から35は図2で用いた瞳領域を、51は物体平面を、51a,51bは物体上の点を、52は撮影光学系の瞳平面を示している。また、61,62,71,72,73,81,82,83,84はMLA上の特定のマイクロレンズをそれぞれ示している。図8(b)および(c)に示した6aは仮想的な撮像素子を、20aは仮想的なMLAを示している。これらは、図8(a)との対応関係を明確にするために参考に示した。また、物体上の点51aから出て瞳平面上の領域31および33を通過する光束を実線で、物体上の点51bから出て瞳平面上の領域31および33を通過する光束を破線で図示した。   In FIG. 8, 6 is an image sensor, 20 is an MLA, 31 to 35 are pupil areas used in FIG. 2, 51 is an object plane, 51a and 51b are points on the object, and 52 is an imaging optical system. The pupil plane is shown. Reference numerals 61, 62, 71, 72, 73, 81, 82, 83, and 84 denote specific microlenses on the MLA, respectively. In FIGS. 8B and 8C, 6a represents a virtual image sensor, and 20a represents a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. Also, a light beam that passes from the point 51a on the object and passes through the regions 31 and 33 on the pupil plane is indicated by a solid line, and a light beam that passes from the point 51b on the object and passes through the regions 31 and 33 on the pupil plane is indicated by a broken line. did.

図8(a)の例では、図2でも説明したように、撮影レンズ3の結像面近傍にMLA20を配置することで、撮像素子6と撮影光学系の瞳平面52が共役の関係にある。さらに、物体平面51とMLA20が共役の関係にある。このため物体上の点51aから出た光束はマイクロレンズ61に、51bを出た光束はマイクロレンズ62に到達し、領域31から35それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   In the example of FIG. 8A, as described with reference to FIG. 2, the MLA 20 is disposed in the vicinity of the imaging surface of the photographing lens 3, so that the imaging element 6 and the pupil plane 52 of the photographing optical system have a conjugate relationship. . Furthermore, the object plane 51 and the MLA 20 are in a conjugate relationship. Therefore, the light beam emitted from the point 51a on the object reaches the microlens 61, the light beam emitted from the point 51b reaches the microlens 62, and the light beams that have passed through the regions 31 to 35 respectively correspond to those provided below the microlens. Reach the pixel.

図8(b)の例では、マイクロレンズ20で撮影レンズ3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ71に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ72に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ72に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面6a上の位置に並べなおせば、図8(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 8B, the light beam from the photographing lens 3 is imaged by the microlens 20, and the imaging element 6 is provided on the imaging surface. By arranging in this way, the object plane 51 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 51a on the object and passed through the region 31 on the pupil plane reaches the microlens 71, and the light beam that has exited from the point 51a on the object and passed through the region 33 on the pupil plane reaches the microlens 72. To do. The light beam that has exited from the point 51b on the object and passed through the region 31 on the pupil plane reaches the microlens 72, and the light beam that has exited from the point 51b on the object and passed through the region 33 on the pupil plane reaches the microlens 73. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. If these are rearranged at positions on the virtual imaging surface 6a, the same information as in FIG. 8A can be obtained. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図8(c)の例では、マイクロレンズ20で撮影レンズ3からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ82に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ81に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ84に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図8(b)と同様に、仮想的な撮像面6a上の位置に並べなおせば、図8(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 8C, the microlens 20 re-images the light beam from the photographic lens 3 (referred to as re-image because the light beam once imaged is diffused). The image sensor 6 is provided on the image plane. By arranging in this way, the object plane 51 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 51a on the object and passed through the region 31 on the pupil plane reaches the micro lens 82, and the light beam that has exited from the point 51a on the object and passed through the region 33 on the pupil plane reaches the micro lens 81. To do. The light beam that has exited from the point 51b on the object and passed through the region 31 on the pupil plane reaches the microlens 84, and the light beam that has exited from the point 51b on the object and passed through the region 33 on the pupil plane reaches the microlens 83. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 8B, information similar to that in FIG. 8A can be obtained by rearranging the positions on the virtual imaging surface 6a. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図8ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、所定のパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。   FIG. 8 shows an example in which position information and angle information can be acquired using MLA (phase modulation element) as pupil dividing means. However, position information and angle information (equivalent to restricting the passing region of the pupil) are shown. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) having a predetermined pattern into the optical path of the photographing optical system can be used.

以上説明したように、本実施形態では、撮像素子において異なる瞳領域を通過した光束の情報をもとに、パンフォーカス画像から測距枠を設定し、その枠内のみの再構成画像を生成してピント評価を行う。これにより、高速にAFを行うことを可能にした撮像装置を提供することが出来る。   As described above, in the present embodiment, a range-finding frame is set from a pan-focus image based on information on a light beam that has passed through different pupil regions in the image sensor, and a reconstructed image only within that frame is generated. To evaluate the focus. Accordingly, it is possible to provide an imaging apparatus that can perform AF at high speed.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (5)

撮影光学系を介して入射される被写体の光学像を光電変換して電気信号を出力する撮像素子と、
前記撮像素子上の各画素に入射する前記被写体の光学像の光束を前記撮影光学系の特定の瞳領域からの光束のみに制限する瞳分割手段と、
前記瞳分割手段により制限された特定の瞳領域のみを通過した光束により得られる前記電気信号に基づいて、焦点位置の演算範囲を設定する測距枠決定手段と、
前記測距枠決定手段が設定する前記演算範囲において前記特定の瞳領域とは異なる複数の瞳領域を通過した光束により得られる前記電気信号に対して通過した瞳領域ごとに異なるシフトを与える像シフト手段と、
前記像シフト手段によりシフトされた前記電気信号を加算して像を生成する像生成手段と、
前記像生成手段で得られた像の焦点評価を行う焦点評価手段と、
を備えることを特徴とする撮像装置。
An image sensor that photoelectrically converts an optical image of a subject incident through a photographing optical system and outputs an electrical signal;
Pupil dividing means for restricting a light beam of the optical image of the subject incident on each pixel on the image sensor to only a light beam from a specific pupil region of the photographing optical system;
A range-finding frame determining unit that sets a calculation range of a focal position based on the electric signal obtained by a light beam that has passed through only a specific pupil region limited by the pupil dividing unit;
An image shift that gives a different shift for each of the pupil regions that have passed through the electrical signal obtained by the light flux that has passed through a plurality of pupil regions different from the specific pupil region in the calculation range set by the distance measuring frame determining means. Means,
Image generating means for generating an image by adding the electrical signals shifted by the image shifting means;
Focus evaluation means for performing focus evaluation of an image obtained by the image generation means;
An imaging apparatus comprising:
前記測距枠決定手段は、前記特定の瞳領域を前記撮影光学系の瞳領域の中央部に設定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the distance measurement frame determining unit sets the specific pupil region at a central portion of the pupil region of the photographing optical system. 前記測距枠決定手段は、複数の前記特定の瞳領域の重みづけ加算された重心が前記撮影光学系の瞳領域の中心またはその近傍となるように前記特定の瞳領域を選択することを特徴とする請求項1に記載の撮像装置。   The ranging frame determining means selects the specific pupil region so that the weighted and added center of gravity of the plurality of specific pupil regions is at or near the center of the pupil region of the photographing optical system. The imaging apparatus according to claim 1. 前記測距枠決定手段は、前記演算範囲の信号が所定の値より小さい場合は、選択する瞳領域を広くすることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the range-finding frame determination unit widens a pupil region to be selected when the signal in the calculation range is smaller than a predetermined value. 撮影光学系を介して入射される被写体の光学像を光電変換して電気信号を出力する撮像素子を備える撮像装置を制御する方法であって、
前記撮像素子上の各画素に入射する前記被写体の光学像の光束を前記撮影光学系の特定の瞳領域からの光束のみに制限する瞳分割工程と、
前記瞳分割工程により制限された特定の瞳領域のみを通過した光束により得られる前記電気信号に基づいて、焦点位置の演算範囲を設定する測距枠決定工程と、
前記測距枠決定工程において設定された前記演算範囲において前記特定の瞳領域とは異なる複数の瞳領域を通過した光束により得られる前記電気信号に対して通過した瞳領域ごとに異なるシフトを与える像シフト工程と、
前記像シフト工程によりシフトされた前記電気信号を加算して像を生成する像生成工程と、
前記像生成工程で得られた像の焦点評価を行う焦点評価工程と、
を備えることを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus including an imaging device that photoelectrically converts an optical image of a subject incident through a photographing optical system and outputs an electrical signal,
A pupil division step of restricting a light beam of the optical image of the subject incident on each pixel on the image sensor to only a light beam from a specific pupil region of the photographing optical system;
A range-finding frame determining step for setting a calculation range of a focal position based on the electric signal obtained by a light beam that has passed through only a specific pupil region limited by the pupil dividing step;
An image that gives different shifts to each of the pupil regions that have passed through the electrical signal obtained by a light beam that has passed through a plurality of pupil regions different from the specific pupil region in the calculation range set in the ranging frame determining step. Shift process;
An image generating step of generating an image by adding the electric signals shifted by the image shifting step;
A focus evaluation step for performing focus evaluation of the image obtained in the image generation step;
An image pickup apparatus control method comprising:
JP2013018963A 2013-02-01 2013-02-01 Imaging apparatus and method for controlling the same Pending JP2014149460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013018963A JP2014149460A (en) 2013-02-01 2013-02-01 Imaging apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013018963A JP2014149460A (en) 2013-02-01 2013-02-01 Imaging apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2014149460A true JP2014149460A (en) 2014-08-21

Family

ID=51572467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013018963A Pending JP2014149460A (en) 2013-02-01 2013-02-01 Imaging apparatus and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2014149460A (en)

Similar Documents

Publication Publication Date Title
US9019424B2 (en) Image pickup apparatus, control method thereof, and program
JP6429546B2 (en) Imaging apparatus, control method, program, and storage medium
JP6555857B2 (en) Imaging apparatus and control method thereof
US9681042B2 (en) Image pickup apparatus, image pickup system, image processing device, and method of controlling image pickup apparatus
RU2593689C2 (en) Image capturing device and control method thereof
JP5914192B2 (en) Imaging apparatus and control method thereof
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
JP2012234152A (en) Imaging apparatus and control method thereof
JP2014215551A (en) Image-capturing device and control method therefor
JP2017107204A (en) Information processing apparatus and information processing method
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
JP2009258610A (en) Focal length detecting device, imaging apparatus, imaging method, camera, focusing device, and focusing method
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
US9921454B2 (en) Imaging apparatus capable of generating an image with a weight of a signal corresponding to each type of spectral sensitivity characteristics and method of controlling the apparatus
JP2017032646A (en) Imaging apparatus and control method thereof
JP6997295B2 (en) Imaging device, imaging method, and program
JP5893412B2 (en) Imaging apparatus and control method thereof
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP2016099416A (en) Imaging device
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2012108281A (en) Focus detector and imaging apparatus
JP2005140851A (en) Autofocus camera
JP5968081B2 (en) Imaging apparatus and control method thereof
JP2014149460A (en) Imaging apparatus and method for controlling the same