[go: up one dir, main page]

JP2018018032A - FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM - Google Patents

FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM Download PDF

Info

Publication number
JP2018018032A
JP2018018032A JP2016150548A JP2016150548A JP2018018032A JP 2018018032 A JP2018018032 A JP 2018018032A JP 2016150548 A JP2016150548 A JP 2016150548A JP 2016150548 A JP2016150548 A JP 2016150548A JP 2018018032 A JP2018018032 A JP 2018018032A
Authority
JP
Japan
Prior art keywords
focus detection
color
image
signal
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016150548A
Other languages
Japanese (ja)
Other versions
JP7037271B2 (en
Inventor
信貴 水野
Nobutaka Mizuno
信貴 水野
嘉人 玉木
Yoshito Tamaki
嘉人 玉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016150548A priority Critical patent/JP7037271B2/en
Publication of JP2018018032A publication Critical patent/JP2018018032A/en
Application granted granted Critical
Publication of JP7037271B2 publication Critical patent/JP7037271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮影光学系の倍率色収差に起因する焦点検出誤差を精度良く補正する技術を実現する。【解決手段】焦点検出装置は、撮影光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有する撮像素子における、第1の焦点検出画素から色毎の第1の焦点検出信号を取得し、第2の焦点検出画素から色毎の第2の焦点検出信号を取得する取得手段と、前記第1の焦点検出信号および前記第2の焦点検出信号を用いて焦点検出を行う焦点検出手段と、前記撮影光学系の倍率色収差に起因する焦点検出誤差を補正する補正手段と、を有し、前記補正手段は、前記焦点検出手段が焦点検出を行う際に用いる前記第1および第2の焦点検出信号に対して色毎に信号補正を行う第1の補正処理手段と、前記焦点検出手段が前記第1および第2の焦点検出信号を用いて焦点検出を行い得られた焦点ずれ量を前記撮影光学系の倍率色収差に応じて補正する第2の補正処理手段の少なくともいずれかを有する。【選択図】図4A technique for accurately correcting a focus detection error caused by lateral chromatic aberration of a photographing optical system is realized. A focus detection apparatus includes: a first focus for each color from a first focus detection pixel in an imaging device having a plurality of focus detection pixels that receive light beams respectively passing through different pupil partial regions of an imaging optical system; An acquisition means for acquiring a detection signal and acquiring a second focus detection signal for each color from the second focus detection pixel; and focus detection using the first focus detection signal and the second focus detection signal. A focus detection unit that performs the focus detection error caused by the chromatic aberration of magnification of the imaging optical system, and the correction unit is used when the focus detection unit performs focus detection. And first correction processing means for correcting the signal for each color with respect to the second focus detection signal, and the focus detection means obtained by performing focus detection using the first and second focus detection signals. The amount of defocus At least one of the second correction processing means for correcting in accordance with the magnification chromatic aberration. [Selection] Figure 4

Description

本発明は、撮影光学系の倍率色収差に起因する焦点検出誤差を補正する技術に関する。   The present invention relates to a technique for correcting a focus detection error caused by lateral chromatic aberration of a photographing optical system.

撮影レンズの焦点状態を検出する方式の一つとして、各画素にマイクロレンズが形成された2次元の撮像素子を用いて瞳分割方式の焦点検出を行う撮像面位相差方式の自動焦点検出方法(撮像面位相差AF)が知られている。特許文献1には、瞳分割方式の焦点検出を行うために、撮像素子を構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を通過した光束を受光するように構成されている。   As one method for detecting the focus state of the photographing lens, an imaging surface phase difference type automatic focus detection method that performs pupil division type focus detection using a two-dimensional image sensor in which a microlens is formed in each pixel ( Imaging surface phase difference AF) is known. In Patent Document 1, in order to perform focus detection of the pupil division method, the photoelectric conversion unit of each pixel constituting the imaging device is divided into a plurality of parts, and the divided photoelectric conversion unit is a photographic lens via a microlens. Are configured to receive light beams that have passed through different regions of the pupil.

撮像面位相差AFは、撮像素子に設けられた焦点検出画素から得られた一対の像信号に基づいて焦点ずれ方向(デフォーカス方向)と焦点ずれ量(デフォーカス量)を同時に検出可能であり、焦点調節動作を高速に行うことができる。一方で、撮像面位相差AFは光学像を撮像して得られる像信号を用いて焦点検出を行うため、光学像を結像するレンズの収差が焦点検出結果に誤差を生じさせる場合があり、この焦点検出誤差を低減するための方法が提案されている。   The imaging plane phase difference AF can simultaneously detect the defocus direction (defocus direction) and defocus amount (defocus amount) based on a pair of image signals obtained from focus detection pixels provided in the image sensor. The focus adjustment operation can be performed at high speed. On the other hand, since the imaging surface phase difference AF performs focus detection using an image signal obtained by imaging an optical image, the aberration of the lens that forms the optical image may cause an error in the focus detection result. A method for reducing the focus detection error has been proposed.

特許文献2には、合焦状態において一対の焦点検出用の光束が形成する一対の光学像の形状が、光学系の収差に起因して一致しなくなることによる焦点検出誤差を補正する方法が開示されている。特許文献3には光束のケラレ状態に応じた像信号の修復が可能な撮像装置が開示されている。特許文献4には撮影レンズの状態に関する情報と、撮像素子の状態に関する情報と、像高との組み合わせに応じた補正値で焦点検出誤差を補正する方法が開示されている。   Patent Document 2 discloses a method for correcting a focus detection error caused by a shape of a pair of optical images formed by a pair of focus detection light beams in an in-focus state being not matched due to an aberration of an optical system. Has been. Patent Document 3 discloses an imaging apparatus capable of restoring an image signal in accordance with the vignetting state of a light beam. Patent Document 4 discloses a method of correcting a focus detection error with a correction value corresponding to a combination of information regarding the state of the photographing lens, information regarding the state of the image sensor, and image height.

特開2008−52009号公報JP 2008-52009 A 特開2013−171251公報JP 2013-171251 A 特開2010−117679公報JP 2010-117679 A 特開2014―222291公報JP 2014-222291 A

従来、撮像面位相差AFにおいて撮影光学系の倍率色収差に起因する焦点検出誤差のメカニズムは詳しく知られておらず、特に焦点検出誤差が撮像素子の特性の影響を強く受けることは知られていない。また、カメラなどの製品に搭載された撮像素子の特性は、撮像素子固有の特性ばらつきと組み付け誤差により設計値とは少なからず乖離がある。そして、撮影光学系の倍率色収差に起因する焦点検出誤差の補正値は、撮像素子の設計値を前提として算出されるため、実使用時において焦点検出誤差を精度良く補正できないことがあるという課題がある。   Conventionally, in the imaging plane phase difference AF, the mechanism of the focus detection error due to the chromatic aberration of magnification of the photographing optical system has not been known in detail, and it is not known that the focus detection error is particularly strongly influenced by the characteristics of the image sensor. . In addition, the characteristics of an image sensor mounted on a product such as a camera are not far from the design value due to characteristic variations inherent to the image sensor and assembly errors. Since the correction value of the focus detection error caused by the chromatic aberration of magnification of the photographing optical system is calculated on the assumption of the design value of the image sensor, there is a problem that the focus detection error may not be accurately corrected during actual use. is there.

本発明は、上記課題に鑑みてなされ、その目的は、撮影光学系の倍率色収差に起因する焦点検出誤差を精度良く補正する技術を実現することである。   The present invention has been made in view of the above problems, and an object thereof is to realize a technique for accurately correcting a focus detection error caused by lateral chromatic aberration of a photographing optical system.

上記課題を解決し、目的を達成するために、本発明の焦点検出装置は、撮影光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有する撮像素子における、第1の焦点検出画素から色毎の第1の焦点検出信号を取得し、第2の焦点検出画素から色毎の第2の焦点検出信号を取得する取得手段と、前記第1の焦点検出信号および前記第2の焦点検出信号を用いて焦点検出を行う焦点検出手段と、前記撮影光学系の倍率色収差に起因する焦点検出誤差を補正する補正手段と、を有し、前記補正手段は、前記焦点検出手段が焦点検出を行う際に用いる前記第1および第2の焦点検出信号に対して色毎に信号補正を行う第1の補正処理手段と、前記焦点検出手段が前記第1および第2の焦点検出信号を用いて焦点検出を行い得られた焦点ずれ量を前記撮影光学系の倍率色収差に応じて補正する第2の補正処理手段の少なくともいずれかを有する。   In order to solve the above-described problems and achieve the object, a focus detection apparatus according to the present invention is a first imaging device having a plurality of focus detection pixels that receive light beams respectively passing through different pupil partial regions of a photographing optical system. Acquisition means for acquiring a first focus detection signal for each color from the focus detection pixels and acquiring a second focus detection signal for each color from the second focus detection pixels; the first focus detection signal; and A focus detection unit that performs focus detection using a second focus detection signal; and a correction unit that corrects a focus detection error caused by lateral chromatic aberration of the imaging optical system. The correction unit includes the focus detection unit. First correction processing means for performing signal correction for each color with respect to the first and second focus detection signals used when the means performs focus detection; and the focus detection means for the first and second focus Focus detection using detection signal At least one of the second correction processing means for correcting the focal shift amount obtained was in the magnification chromatic aberration of the imaging optical system.

本発明によれば、撮影光学系の倍率色収差に起因する焦点検出誤差を精度良く補正することができる。   According to the present invention, it is possible to accurately correct a focus detection error caused by lateral chromatic aberration of a photographing optical system.

本実施形態の装置構成を示すブロック図。The block diagram which shows the apparatus structure of this embodiment. 本実施形態の撮像素子の画素の構成を示す図。FIG. 3 is a diagram illustrating a configuration of a pixel of an image sensor of the present embodiment. 本実施形態の撮影光学系の射出瞳面と撮像素子の光電変換部の共役関係を示す図。FIG. 3 is a diagram illustrating a conjugate relationship between an exit pupil plane of the imaging optical system of the present embodiment and a photoelectric conversion unit of an image sensor. 実施形態1の撮像面位相差AFによる焦点検出処理を示すフローチャート。5 is a flowchart illustrating focus detection processing based on imaging surface phase difference AF according to the first embodiment. 図4の色毎の信号補正フィルタ算出処理を示すフローチャート。5 is a flowchart illustrating signal correction filter calculation processing for each color in FIG. 4. 実施形態1の色毎の信号補正フィルタの重心合せ方法の説明図。FIG. 4 is an explanatory diagram of a method for adjusting the center of gravity of a signal correction filter for each color according to the first embodiment. 実施形態1における信号補正フィルタの重心合せ方法の説明図。FIG. 3 is an explanatory diagram of a method for adjusting the center of gravity of a signal correction filter according to the first embodiment. 合焦状態での各色の焦点検出信号の信号強度を例示する図。The figure which illustrates the signal strength of the focus detection signal of each color in an in-focus state. 焦点検出信号の瞳強度分布を例示する図。The figure which illustrates pupil intensity distribution of a focus detection signal. 周辺像高における瞳部分領域と撮影光学系の射出瞳の関係を示す図。The figure which shows the relationship between the pupil partial area | region in peripheral image height, and the exit pupil of an imaging optical system. 本実施形態の撮像素子における焦点検出領域を例示する図。FIG. 4 is a diagram illustrating a focus detection area in the image sensor according to the embodiment. 実施形態2の撮像面位相差AFによる焦点検出処理を示すフローチャート。9 is a flowchart illustrating focus detection processing by imaging surface phase difference AF according to the second embodiment. 図12の焦点検出結果補正値算出処理を示すフローチャート。13 is a flowchart showing focus detection result correction value calculation processing of FIG.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

[実施形態1]
本実施形態では、焦点検出装置を搭載する撮像装置の一例として、コントラスト方式(TVAF方式)および撮像面位相差方式の自動焦点調節(オートフォーカス:AF)機能を有するレンズ交換式の一眼レフデジタルカメラにより実現した例について説明するが、レンズ交換式ではないデジタルカメラやデジタルビデオカメラ、パーソナルコンピュータやその一種であるタブレット、携帯電話やその一種であるスマートフォン、PDA(携帯情報端末)、ゲーム機、医療機器などに適用可能である。
[Embodiment 1]
In this embodiment, as an example of an imaging apparatus equipped with a focus detection apparatus, a single-lens reflex digital camera with an interchangeable lens having an automatic focus adjustment (autofocus: AF) function of a contrast method (TVAF method) and an imaging surface phase difference method However, digital cameras and digital video cameras that are not interchangeable lenses, personal computers and their types of tablets, mobile phones and their types of smartphones, PDAs (personal digital assistants), game consoles, medical devices It can be applied to equipment.

<装置構成>図1を参照して、本実施形態の撮像装置の構成および機能について説明する。   <Apparatus Configuration> With reference to FIG. 1, the configuration and functions of the imaging apparatus of this embodiment will be described.

本実施形態のデジタルカメラ(以下、カメラ)はレンズユニット100とカメラ本体120とを有する。レンズユニット100は図の中央の点線で示されるマウントMを介して、カメラ本体120に対して着脱可能に接続される。   The digital camera (hereinafter referred to as a camera) according to the present embodiment includes a lens unit 100 and a camera body 120. The lens unit 100 is detachably connected to the camera body 120 via a mount M indicated by a dotted line in the center of the drawing.

被写体像を結像させるレンズユニット100は、第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ群(以下、フォーカスレンズ)104、および後述する駆動/制御系を有する。レンズユニット100は、フォーカスレンズ104を含み且つ被写体の光学像を形成する撮影光学系をなす。   A lens unit 100 that forms a subject image includes a first lens group 101, a diaphragm 102, a second lens group 103, a focus lens group (hereinafter referred to as a focus lens) 104, and a drive / control system described later. The lens unit 100 includes a focus lens 104 and forms a photographing optical system that forms an optical image of a subject.

第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。以下では、光軸方向OAをZ方向とし、カメラから被写体側を見る方向を正方向とする。また、本実施形態において、Z方向の軸の原点0は、後述するカメラ本体120の撮像素子122の位置に対応するものとする。   The first lens group 101 is disposed at the tip of the lens unit 100 and is held so as to be able to advance and retreat in the optical axis direction OA. In the following, the optical axis direction OA is the Z direction, and the direction of viewing the subject side from the camera is the positive direction. In the present embodiment, the origin 0 of the axis in the Z direction corresponds to the position of the image sensor 122 of the camera body 120 described later.

絞り102は、その開口径を調節することで撮影時の光量調節を行う。また、絞り102は、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。絞り102および第2レンズ群103は一体として光軸方向OAに進退可能であり、第1レンズ群101と連動して移動することによりズーム機能を実現する。   The diaphragm 102 adjusts the light amount at the time of photographing by adjusting the aperture diameter. The aperture 102 also functions as a mechanical shutter that controls the exposure time during still image shooting. The aperture 102 and the second lens group 103 can move forward and backward in the optical axis direction OA as a unit, and realize a zoom function by moving in conjunction with the first lens group 101.

フォーカスレンズ104は、光軸方向OAに進退可能であり、その位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。本実施形態では、フォーカスレンズ104の光軸方向OAの位置を制御することにより、被写体距離の検出(焦点検出)および合焦距離を調節するオートフォーカス機能を実現する。   The focus lens 104 can advance and retreat in the optical axis direction OA, and the subject distance (focus distance) at which the lens unit 100 is focused changes according to the position. In the present embodiment, by controlling the position of the focus lens 104 in the optical axis direction OA, an object focus detection (focus detection) and an autofocus function for adjusting the focus distance are realized.

レンズユニット100の駆動/制御系は、駆動系としてズームアクチュエータ111、絞り/シャッターアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動部114、絞り/シャッター駆動部115、フォーカス駆動部116を有する。また、駆動系を制御する制御系として、レンズMPU117とレンズメモリ118を有する。   The drive / control system of the lens unit 100 includes a zoom actuator 111, an aperture / shutter actuator 112, a focus actuator 113, a zoom drive unit 114, an aperture / shutter drive unit 115, and a focus drive unit 116 as a drive system. In addition, a lens MPU 117 and a lens memory 118 are provided as a control system for controlling the drive system.

ズームアクチュエータ111は、第1レンズ群101や第2レンズ群103を光軸方向OAに進退駆動し、撮影光学系の画角を変更するズーム制御を行う。絞り/シャッターアクチュエータ112は、絞り102の開口径を制御して撮影光量を調節すると共に、絞り102の開閉動作を制御して撮影時の露光時間制御を行う。フォーカスアクチュエータ113は、フォーカスレンズ104を光軸方向OAに進退駆動してオートフォーカス動作を行うと共に、フォーカスレンズ104の現在位置を検出する機能も有している。   The zoom actuator 111 performs zoom control to drive the first lens group 101 and the second lens group 103 forward and backward in the optical axis direction OA and change the angle of view of the photographing optical system. The aperture / shutter actuator 112 controls the aperture diameter of the aperture 102 to adjust the amount of photographing light, and controls the opening / closing operation of the aperture 102 to control the exposure time during photographing. The focus actuator 113 performs an autofocus operation by driving the focus lens 104 back and forth in the optical axis direction OA, and also has a function of detecting the current position of the focus lens 104.

ズーム駆動部114は、撮影者のズーム操作またはレンズMPU117の制御値に応じて、ズームアクチュエータ111を駆動する。絞り/シャッター駆動部115は、絞り/シャッターアクチュエータ112を駆動して絞り102の開口径または開閉動作を制御する。フォーカス駆動部116は、フォーカスアクチュエータ113を駆動し、フォーカスレンズ104を光軸方向OAに進退駆動してオートフォーカス動作を行う。   The zoom drive unit 114 drives the zoom actuator 111 according to the zoom operation of the photographer or the control value of the lens MPU 117. The aperture / shutter driver 115 drives the aperture / shutter actuator 112 to control the aperture diameter or opening / closing operation of the aperture 102. The focus driving unit 116 drives the focus actuator 113 to drive the focus lens 104 forward and backward in the optical axis direction OA to perform an autofocus operation.

レンズMPU117は、撮影光学系に係る全ての演算、制御を行い、ズーム駆動部114、絞り/シャッター駆動部115、フォーカス駆動部116、レンズメモリ118を制御する。レンズMPU117は、マウントMを介してカメラMPU125との間でコマンドやデータの通信が可能に接続される。例えば、レンズMPU117は、フォーカスレンズ104の現在の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。また、レンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動部114、絞り/シャッター駆動部115、フォーカス駆動部116を制御する。レンズメモリ118には、本実施形態の撮像面位相差AFに必要な光学情報が予め記憶されている。また、レンズメモリ118には、例えば、フォーカスレンズ104の位置や移動量とデフォーカス量との対応関係を示すデフォーカスマップが格納されている。なお、デフォーカスマップは、後述するように第1の焦点検出信号(AF用A像)と第2の焦点検出信号(AF用B像)の各画素位置での像ずれ量を相関演算により算出し、像ずれ量をデフォーカス量に換算することで生成される。これにより、レンズMPU117は、カメラMPU125からデフォーカス量を所定量だけ変更する要求を受けた場合に、レンズメモリ118に記憶されたデフォーカスマップを参照し、所定のデフォーカス量に対応する距離だけフォーカスレンズ104を移動するようにフォーカスアクチュエータ113を制御することが可能である。カメラMPU125は、例えばROM125aやレンズメモリ118に格納されているプログラムを実行することで、レンズユニット100の動作を制御する。また、レンズメモリ118には、本実施形態の撮影光学系の倍率色収差に関する情報等も格納されている。   The lens MPU 117 performs all calculations and control related to the photographing optical system, and controls the zoom driving unit 114, the aperture / shutter driving unit 115, the focus driving unit 116, and the lens memory 118. The lens MPU 117 is connected to the camera MPU 125 via the mount M so that commands and data can be communicated. For example, the lens MPU 117 detects the current position of the focus lens 104 and notifies lens position information in response to a request from the camera MPU 125. This lens position information includes the position of the focus lens 104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the optical axis of the lens frame that restricts the luminous flux of the exit pupil. Contains information such as position and diameter in direction OA. The lens MPU 117 controls the zoom driving unit 114, the aperture / shutter driving unit 115, and the focus driving unit 116 in response to a request from the camera MPU 125. The lens memory 118 stores in advance optical information necessary for the imaging plane phase difference AF of the present embodiment. Further, the lens memory 118 stores, for example, a defocus map indicating a correspondence relationship between the position and movement amount of the focus lens 104 and the defocus amount. As will be described later, the defocus map calculates an image shift amount at each pixel position of the first focus detection signal (AF A image) and the second focus detection signal (AF B image) by correlation calculation. However, it is generated by converting the image shift amount into a defocus amount. Accordingly, when the lens MPU 117 receives a request to change the defocus amount by a predetermined amount from the camera MPU 125, the lens MPU 117 refers to the defocus map stored in the lens memory 118 and only the distance corresponding to the predetermined defocus amount. It is possible to control the focus actuator 113 so as to move the focus lens 104. The camera MPU 125 controls the operation of the lens unit 100 by executing a program stored in the ROM 125a or the lens memory 118, for example. The lens memory 118 also stores information on the chromatic aberration of magnification of the photographing optical system of the present embodiment.

カメラ本体120は、光学的ローパスフィルタ121、撮像素子122、後述する駆動/制御系を有する。光学的ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。   The camera body 120 includes an optical low-pass filter 121, an image sensor 122, and a drive / control system described later. The optical low-pass filter 121 reduces false colors and moire in the captured image.

撮像素子122は、例えばCMOSイメージセンサとその周辺回路で構成されている。CMOSイメージセンサは、光を受光する各画素に光電変換素子が設けられており、各画素を単位画素として複数の単位画素が二次元状に配列された画素群(撮像面)を有する。撮像素子122は、撮像光学系の異なる瞳領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有し、画素ごとに独立した信号出力が可能である。これにより、撮像面位相差AFによるデフォーカス量の算出が可能である。また、撮像素子122は、被写体の像を形成する撮影光学系の射出瞳の全域を通る光束を各画素で受光して被写体の像信号(画像信号)を生成する複数の撮像用画素を有する。   The image sensor 122 is composed of, for example, a CMOS image sensor and its peripheral circuits. The CMOS image sensor has a photoelectric conversion element provided in each pixel that receives light, and has a pixel group (imaging surface) in which a plurality of unit pixels are arranged two-dimensionally with each pixel as a unit pixel. The imaging element 122 has a plurality of focus detection pixels that receive light beams that pass through different pupil regions of the imaging optical system, and can output independent signals for each pixel. Thereby, it is possible to calculate the defocus amount by the imaging surface phase difference AF. In addition, the imaging element 122 includes a plurality of imaging pixels that generate a subject image signal (image signal) by receiving light beams passing through the entire exit pupil of the photographing optical system that forms the subject image.

カメラ本体120の駆動/制御系は、撮像素子駆動部123、画像処理部124、カメラ本体120全体を制御するカメラMPU125、表示部126、操作スイッチ127、メモリ128、第1焦点検出部129、第2焦点検出部130を有する。撮像素子駆動部123は、撮像素子122の電荷蓄積動作を制御すると共に、撮像素子122から読み出した画像信号をデジタル信号に変換してカメラMPU125に送出する。画像処理部124は、撮像素子122から読み出された画像信号にガンマ変換、色補間、JPEG圧縮等の各種画像処理を行う。また、画像処理部124は、後述する撮像面位相差方式による焦点検出用の画像信号やコントラスト方式によるTVAF用評価値も生成する。   The drive / control system of the camera body 120 includes an image sensor drive unit 123, an image processing unit 124, a camera MPU 125 that controls the entire camera body 120, a display unit 126, an operation switch 127, a memory 128, a first focus detection unit 129, and a first focus detection unit 129. A bifocal detection unit 130 is included. The image sensor driving unit 123 controls the charge accumulation operation of the image sensor 122, converts the image signal read from the image sensor 122 into a digital signal, and sends the digital signal to the camera MPU 125. The image processing unit 124 performs various image processes such as gamma conversion, color interpolation, and JPEG compression on the image signal read from the image sensor 122. The image processing unit 124 also generates an image signal for focus detection using an imaging surface phase difference method, which will be described later, and an evaluation value for TVAF using a contrast method.

カメラMPU125はマイクロプロセッサを有し、カメラ本体120に係る全ての演算、制御を行う。これにより、撮像素子駆動部123、画像処理部124、表示部126、操作スイッチ127、メモリ128、第1焦点検出部129、第2焦点検出部130を制御する。カメラMPU125はマウントMに配置された信号線を介してレンズMPU117と接続されている。これにより、レンズMPU117に対して、レンズ位置を取得する要求を発行したり、所定の駆動量でのズーム駆動や絞り駆動やレンズ駆動の要求を発行したり、レンズユニット100に固有の光学情報を取得する要求を発行する。   The camera MPU 125 includes a microprocessor and performs all calculations and controls related to the camera body 120. Thus, the image sensor driving unit 123, the image processing unit 124, the display unit 126, the operation switch 127, the memory 128, the first focus detection unit 129, and the second focus detection unit 130 are controlled. The camera MPU 125 is connected to the lens MPU 117 via a signal line arranged on the mount M. As a result, a request for acquiring the lens position is issued to the lens MPU 117, a request for zoom driving, aperture driving, and lens driving with a predetermined driving amount is issued, and optical information specific to the lens unit 100 is provided. Issue a request to get.

カメラMPU125には、カメラの動作を制御するためのプログラムを格納したROM125a、変数を記憶するRAM125b、各種パラメータを記憶するEEPROM125cが内蔵されている。カメラMPU125は、ROM125aに格納されたプログラムを読み出してRAM125bに展開して実行することで、後述する焦点検出処理を実行する。また、EEPROM125cには、後述するRGB各色の感度情報等が格納されている。   The camera MPU 125 includes a ROM 125a that stores a program for controlling the operation of the camera, a RAM 125b that stores variables, and an EEPROM 125c that stores various parameters. The camera MPU 125 reads a program stored in the ROM 125a, develops it in the RAM 125b, and executes it, thereby executing a focus detection process described later. The EEPROM 125c stores sensitivity information of RGB colors described later.

表示部126はLCD(液晶)パネルや有機ELなどの表示デバイスを有し、カメラの各動作モードに関する各種の情報を表示する。カメラの動作モードは、例えば、静止画や動画を撮影する撮影モード、メモリ128に格納されている撮影済みの画像を再生する再生モードを含む。撮影モードの場合は、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態画像などを表示する。また、撮影中の動画を逐次表示する。   The display unit 126 includes a display device such as an LCD (liquid crystal) panel or an organic EL, and displays various types of information regarding each operation mode of the camera. The operation mode of the camera includes, for example, a shooting mode for shooting a still image or a moving image, and a playback mode for playing back a captured image stored in the memory 128. In the case of the shooting mode, information on the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state image at the time of focus detection, and the like are displayed. In addition, the moving images being shot are sequentially displayed.

操作スイッチ127は、シャッタースイッチ、電源スイッチ、ズームスイッチ、モード切替スイッチなどを含む。メモリ128は、カメラに着脱可能なフラッシュメモリであり、撮影済み画像を記録する。   The operation switch 127 includes a shutter switch, a power switch, a zoom switch, a mode switch, and the like. The memory 128 is a flash memory that can be attached to and detached from the camera, and records captured images.

第1焦点検出部129は、画像処理部124により得られた焦点検出用の画像信号を用いて位相差方式の焦点検出を行う(位相差AF)。具体的には、画像処理部124が撮影光学系の一対の瞳領域を通過する光束で形成される一対の焦点検出用の画像信号を生成し、第1焦点検出部129が、一対の焦点検出用の画像信号の像ずれ量に基づいて焦点ずれ(ピントずれ)量を検出する。このように、本実施形態の第1焦点検出部129は、AF専用のセンサを用いず、撮像素子122の出力に基づく位相差AF(撮像面位相差AF)を行う。   The first focus detection unit 129 performs phase difference type focus detection using the image signal for focus detection obtained by the image processing unit 124 (phase difference AF). Specifically, the image processing unit 124 generates a pair of focus detection image signals formed by light beams passing through the pair of pupil regions of the photographing optical system, and the first focus detection unit 129 detects the pair of focus detections. A defocus amount is detected based on the image shift amount of the image signal for use. As described above, the first focus detection unit 129 of the present embodiment performs phase difference AF (imaging surface phase difference AF) based on the output of the image sensor 122 without using a sensor dedicated to AF.

第2焦点検出部130は、画像処理部124により生成されるTVAF用評価値(画像データのコントラスト情報)に基づいてコントラスト方式の焦点検出処理を行う(コントラストAF)。コントラストAFは、フォーカスレンズ104を移動させて評価値がピークとなるフォーカスレンズ位置を合焦位置として検出する、公知の技術であるため、詳細な説明は省略する。   The second focus detection unit 130 performs a contrast type focus detection process (contrast AF) based on the TVAF evaluation value (contrast information of the image data) generated by the image processing unit 124. Since the contrast AF is a known technique for moving the focus lens 104 and detecting the focus lens position where the evaluation value reaches a peak as the in-focus position, a detailed description is omitted.

図11(a)は、撮像素子122に設定される焦点検出領域を例示している。焦点検出領域内で撮像素子122から得られた画像信号に基づいて撮像面位相差AFおよびコントラストAFが行われる。図11において、点線で示す長方形は撮像素子122の撮像面1110を示している。撮像面1110内には撮像面位相差AFを行う3つの横方向の焦点検出領域1111ah、1111bh、1111chが形成されている。本実施形態では、撮像面位相差AF用の焦点検出領域を撮像面1110の中央部と左右2箇所の計3箇所を備える構成とした。また、3つの撮像面位相差AF用の焦点検出領域1111ah、1111bh、1111chのそれぞれを包含する形で、コントラストAFを行う焦点検出領域112a、1112b、1112cが形成されている。なお、図11では、大きくわけて3つの領域に焦点検出領域を配置した構成を示しているが、これに限られるものではなく、任意の位置に複数の領域を配置してもよい。   FIG. 11A illustrates a focus detection area set in the image sensor 122. Imaging surface phase difference AF and contrast AF are performed based on the image signal obtained from the image sensor 122 within the focus detection region. In FIG. 11, a rectangle indicated by a dotted line indicates the imaging surface 1110 of the imaging element 122. In the imaging surface 1110, three lateral focus detection areas 1111ah, 1111bh, and 1111ch for performing imaging surface phase difference AF are formed. In the present embodiment, the focus detection area for the imaging surface phase difference AF is configured to have a total of three locations, that is, the central portion of the imaging surface 1110 and the left and right two locations. Further, focus detection areas 112a, 1112b, and 1112c for performing contrast AF are formed so as to include each of the three focus detection areas 1111ah, 1111bh, and 1111ch for the imaging surface phase difference AF. Note that FIG. 11 shows a configuration in which focus detection areas are arranged roughly in three areas. However, the present invention is not limited to this, and a plurality of areas may be arranged at arbitrary positions.

このように、本実施形態のカメラには位相差方式とコントラスト方式のAF機能が搭載されており、撮影状況などに応じていずれかを選択的に実行したり、両方を組み合わせて実行することができる。   As described above, the camera of the present embodiment is equipped with the phase difference type and contrast type AF functions, and either one can be selectively executed according to the shooting situation or the like, and both can be executed in combination. it can.

<撮像面位相差方式による焦点検出動作の説明>次に、図2を参照して、本実施形態の第1焦点検出部129による焦点検出動作について説明する。   <Description of Focus Detection Operation Using Imaging Surface Phase Difference Method> Next, the focus detection operation by the first focus detection unit 129 of the present embodiment will be described with reference to FIG.

図2(a)は本実施形態の撮像素子122の画素配列を示し、2次元C−MOSエリアセンサの縦(Y方向)6行と横(X方向)8列の範囲を、レンズユニット100側から見た状態を示している。撮像素子122にはベイヤー配列のカラーフィルタが設けられている。本実施形態のベイヤー配列は、例えば、奇数行の画素には、左から順に緑(G)と赤(R)のカラーフィルタがX方向に交互に配置され、偶数行の画素には、左から順に青(B)と緑(G)のカラーフィルタがX方向に交互に配置されている。画素211において、円211iはオンチップマイクロレンズを表し、オンチップマイクロレンズの内側に配置された複数の矩形211a,211bはそれぞれ光電変換部を示している。   FIG. 2A shows a pixel arrangement of the image sensor 122 of the present embodiment, and the range of 6 rows and 8 columns in the horizontal (X direction) of the two-dimensional C-MOS area sensor is shown on the lens unit 100 side. The state seen from. The image sensor 122 is provided with a Bayer color filter. In the Bayer arrangement according to the present embodiment, for example, green (G) and red (R) color filters are alternately arranged in the X direction from the left for pixels in odd rows, and from the left for pixels in even rows. In order, blue (B) and green (G) color filters are alternately arranged in the X direction. In the pixel 211, a circle 211i represents an on-chip microlens, and a plurality of rectangles 211a and 211b arranged inside the on-chip microlens represent photoelectric conversion units, respectively.

本実施形態の撮像素子122は、撮影光学系の異なる瞳部分領域を通過する光束を受光する第1の焦点検出画素と第2の焦点検出画素を有する。なお、本実施形態では、撮像素子の全ての画素の光電変換部はX方向に2分割され、分割された一方の領域の光電変換信号と2つの光電変換信号の和は独立して読み出しできるが、X方向、Y方向に複数分割された構成であってもよい。また、2つの光電変換信号の和から分割された一方の領域の光電変換信号を減算することにより、もう一方の領域の光電変換信号に相当する信号を得ることができる。これらの分割された領域の光電変換信号は、後述する位相差方式の焦点検出に用いられるほか、視差情報を有した複数画像から構成される3D(3−Dimensional)画像を生成することもできる。一方で、2つの光電変換信号の和は、通常の撮影画像として用いられる。   The image sensor 122 of the present embodiment includes a first focus detection pixel and a second focus detection pixel that receive light beams that pass through different pupil partial regions of the photographing optical system. In this embodiment, the photoelectric conversion units of all the pixels of the image sensor are divided into two in the X direction, and the sum of the photoelectric conversion signal of one divided region and the two photoelectric conversion signals can be read independently. The configuration may be divided into a plurality of sections in the X direction and the Y direction. Further, by subtracting the photoelectric conversion signal of one region divided from the sum of two photoelectric conversion signals, a signal corresponding to the photoelectric conversion signal of the other region can be obtained. The photoelectric conversion signals of these divided regions can be used for phase difference focus detection described later, and can also generate a 3D (3-Dimensional) image composed of a plurality of images having parallax information. On the other hand, the sum of two photoelectric conversion signals is used as a normal captured image.

ここで、焦点検出用の画像信号(焦点検出信号)について説明する。本実施形態においては、図2(a)のマイクロレンズ211iと、分割された光電変換部211a,211bで撮影光学系の射出光束を瞳分割する。そして、同一画素行に配置された所定範囲内の複数の画素211について、光電変換部211aの出力をつなぎ合わせて編成したものをAF用A像とし、光電変換部211bの出力をつなぎ合わせて編成したものをAF用B像とする。光電変換部211a、211bの出力は、カラーフィルタの単位配列に含まれる緑(G)、赤(R)、青(B)、緑(G)の出力を加算して算出した疑似的な輝度(Y)信号を用いる。但し、赤、青、緑の色ごとに、AF用A像、AF用B像を編成してもよい。このように生成したAF用A像とAF用B像の相対的な像ずれ量を相関演算により求めることで、所定領域の焦点ずれ量(デフォーカス量)を検出することができる。本実施形態では、一方の光電変換部の出力と全光電変換部の出力の和を撮像素子122から読み出すものとする。例えば光電変換部211aの出力と、光電変換部211a,211bの出力の和とが読み出される場合、光電変換部211bの出力は光電変換部211a,211bの出力の和から光電変換部211aの出力を減算することで取得される。このようにしてAF用A像とAF用B像の両方を取得することで撮像面位相差AFが実現される。なお、本実施形態の撮像素子を用いた撮像面位相差AFは、例えば、特開2004−134867号公報に開示されているように公知であるため、詳細な説明は省略する。   Here, the image signal for focus detection (focus detection signal) will be described. In this embodiment, the microlens 211i in FIG. 2A and the divided photoelectric conversion units 211a and 211b divide the emitted light beam of the photographing optical system into pupils. Then, for a plurality of pixels 211 within a predetermined range arranged in the same pixel row, an A image for AF is formed by joining the outputs of the photoelectric conversion unit 211a, and the output of the photoelectric conversion unit 211b is joined. This is used as an AF B image. The outputs of the photoelectric conversion units 211a and 211b are pseudo luminances calculated by adding the outputs of green (G), red (R), blue (B), and green (G) included in the unit array of the color filter. Y) Use the signal. However, an AF A image and an AF B image may be knitted for each of red, blue, and green colors. By obtaining the relative image shift amount between the AF A image and the AF B image generated in this way by correlation calculation, the defocus amount (defocus amount) of the predetermined region can be detected. In the present embodiment, the sum of the output of one photoelectric conversion unit and the output of all the photoelectric conversion units is read from the image sensor 122. For example, when the output of the photoelectric conversion unit 211a and the sum of the outputs of the photoelectric conversion units 211a and 211b are read, the output of the photoelectric conversion unit 211b is obtained by changing the output of the photoelectric conversion unit 211a from the sum of the outputs of the photoelectric conversion units 211a and 211b. Obtained by subtraction. In this way, the imaging plane phase difference AF is realized by acquiring both the AF A image and the AF B image. Note that the imaging surface phase difference AF using the imaging device of the present embodiment is known as disclosed in, for example, Japanese Patent Application Laid-Open No. 2004-134867, and thus detailed description thereof is omitted.

図2(b)は本実施形態の撮像素子122の読み出し回路の構成を例示している。151は水平走査回路、153は垂直走査回路である。そして各画素の境界部には、水平走査ライン152a、152bと、垂直走査ライン154a、154bが配線され、各光電変換部はこれらの走査ラインを介して信号が外部に読み出される。   FIG. 2B illustrates the configuration of the readout circuit of the image sensor 122 of this embodiment. Reference numeral 151 denotes a horizontal scanning circuit, and 153 denotes a vertical scanning circuit. Horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired at the boundary between the pixels, and signals are read out to the photoelectric conversion units through these scanning lines.

なお、本実施形態の撮像素子は上述の画素内の読み出し方法に加え、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、高精細静止画を撮像するためのモードである。この場合は、全画素の信号が読み出される。   Note that the imaging device of the present embodiment has the following two types of readout modes in addition to the readout method in the pixel described above. The first readout mode is called an all-pixel readout mode and is a mode for capturing a high-definition still image. In this case, signals of all pixels are read out.

第2の読み出しモードは間引き読み出しモードと呼ばれ、動画記録、もしくはプレビュー画像の表示のみを行なうためのモードである。この場合に必要な画素数は全画素よりも少ないため、画素群はX方向およびY方向ともに所定比率に間引いた画素のみ読み出す。また、高速に読み出す必要がある場合にも、同様に間引き読み出しモードを用いる。X方向に間引く際には、信号の加算を行いS/Nの改善を図り、Y方向に対する間引きは、間引かれる行の信号出力を無視する。撮像面位相差AFおよびコントラストAFも、通常、第2の読み出しモードで読み出された信号に基づいて行われる。   The second readout mode is called a thinning readout mode and is a mode for performing only moving image recording or display of a preview image. In this case, since the number of pixels required is smaller than that of all the pixels, the pixel group reads out only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction. Also, when it is necessary to read at high speed, the thinning-out reading mode is used in the same manner. When thinning out in the X direction, signals are added to improve the S / N ratio, and thinning out in the Y direction ignores the signal output of the thinned out rows. The imaging plane phase difference AF and contrast AF are also usually performed based on the signal read in the second readout mode.

<撮影光学系の射出瞳面と撮像素子の光電変換部の共役関係>次に、図3を参照して、本実施形態のカメラにおける、撮影光学系の射出瞳面と、像高ゼロすなわち像面中央近傍に配置された撮像素子の光電変換部の共役関係について説明する。撮像素子の光電変換部と撮影光学系の射出瞳面は、オンチップマイクロレンズによって共役関係となるように設計される。そして撮影光学系の射出瞳は、一般的に光量調節用の虹彩絞りが置かれる面とほぼ一致する。一方、本実施形態の撮影光学系はズーム機能を有したズームレンズであるが、光学タイプによってはズーム操作を行うと、射出瞳の像面からの距離や大きさが変化する。図3では、レンズユニット100の焦点距離が広角端と望遠端の中央にある状態を示している。この状態における射出瞳距離Zepを標準値として、オンチップマイクロレンズの形状や、像高(X,Y座標)に応じた偏心パラメータの最適設計がなされる。射出瞳距離Zepに合わせて設計された撮像素子122の設定瞳距離をDsとする。   <Conjugate relationship between exit pupil plane of photographic optical system and photoelectric conversion unit of image pickup device> Next, referring to FIG. 3, the exit pupil plane of the photographic optical system and the image height zero, that is, the image in the camera of this embodiment. The conjugate relationship of the photoelectric conversion units of the image sensor arranged near the center of the surface will be described. The photoelectric conversion unit of the image sensor and the exit pupil plane of the imaging optical system are designed to have a conjugate relationship by an on-chip microlens. The exit pupil of the photographic optical system generally coincides with the surface on which the iris diaphragm for adjusting the amount of light is placed. On the other hand, the photographing optical system of the present embodiment is a zoom lens having a zoom function. However, depending on the optical type, when the zoom operation is performed, the distance and size of the exit pupil from the image plane change. FIG. 3 shows a state where the focal length of the lens unit 100 is at the center between the wide-angle end and the telephoto end. Using the exit pupil distance Zep in this state as a standard value, the optimum design of the eccentricity parameter according to the shape of the on-chip microlens and the image height (X, Y coordinates) is made. A set pupil distance of the image sensor 122 designed in accordance with the exit pupil distance Zep is defined as Ds.

図3(a)において、101は第1レンズ群、101bは第1レンズ群を保持する鏡筒部材、104はフォーカスレンズ、104bはフォーカスレンズ104を保持する鏡筒部材である。102は絞りで、102aは絞り開放時の開口径を規定する開口板、102bは絞り込み時の開口径を調節するための絞り羽根である。なお、撮影光学系を通過する光束の制限部材として作用する101b、102a、102b、104bは、像面から観察した場合の光学的な虚像を示している。また、絞り102の近傍における合成開口をレンズの射出瞳と定義し、前述したように像面からの距離をZepとしている。   In FIG. 3A, 101 is a first lens group, 101 b is a lens barrel member that holds the first lens group, 104 is a focus lens, and 104 b is a lens barrel member that holds the focus lens 104. Reference numeral 102 denotes an aperture, reference numeral 102a denotes an aperture plate that defines an aperture diameter when the aperture is opened, and reference numeral 102b denotes an aperture blade for adjusting the aperture diameter when the aperture is closed. Note that reference numerals 101b, 102a, 102b, and 104b that act as limiting members for the light flux passing through the photographing optical system indicate optical virtual images when observed from the image plane. Further, the synthetic aperture in the vicinity of the stop 102 is defined as the exit pupil of the lens, and the distance from the image plane is Zep as described above.

図3(a)の画素2110は像面中央近傍に配置されており、本実施形態では、中央画素と呼ぶ。中央画素2110は、最下層より、光電変換部2110a,2110b、配線層2110e〜2110g、カラーフィルタ2110h、およびオンチップマイクロレンズ2110iの各部材で構成される。そして2つの光電変換部はオンチップマイクロレンズ2110iによって撮影光学系の射出瞳面に投影される。換言すれば、撮影光学系の射出瞳が、オンチップマイクロレンズ2110iを介して、光電変換部の表面に投影される。   The pixel 2110 in FIG. 3A is disposed in the vicinity of the center of the image plane, and is referred to as a center pixel in this embodiment. The center pixel 2110 is composed of photoelectric conversion units 2110a and 2110b, wiring layers 2110e to 2110g, a color filter 2110h, and an on-chip microlens 2110i from the bottom layer. The two photoelectric conversion units are projected onto the exit pupil plane of the photographing optical system by the on-chip microlens 2110i. In other words, the exit pupil of the imaging optical system is projected onto the surface of the photoelectric conversion unit via the on-chip microlens 2110i.

図3(b)は、撮影光学系の射出瞳面上における、光電変換部の投影像を示し、図3(a)の光電変換部2110a、2110bに対する投影像は各々EP1a、EP1bとなる。また本実施形態では、撮像素子は、2つの光電変換部2110aと2110bのいずれか一方の出力と、両方の和の出力を得ることができる画素を有している。両方の和の出力は、撮影光学系のほぼ全瞳領域である投影像EP1a、EP1bの両方の領域を通過した光束を光電変換したものである。   FIG. 3B shows a projected image of the photoelectric conversion unit on the exit pupil plane of the photographing optical system, and the projected images on the photoelectric conversion units 2110a and 2110b in FIG. 3A are EP1a and EP1b, respectively. In the present embodiment, the imaging device has a pixel that can obtain the output of either one of the two photoelectric conversion units 2110a and 2110b and the sum of both. The sum of both outputs is a photoelectric conversion of the light beam that has passed through both regions of the projection images EP1a and EP1b, which are almost the entire pupil region of the photographing optical system.

図3(a)で、撮影光学系を通過する光束の最外部をLで示すと、光束Lは、絞りの開口板102aで規制されており、投影像EP1a、EP1bは撮影光学系でケラレがほぼ発生していない。図3(b)では、図3(a)の光束Lを、TLで示している。TLで示す円の内部に、光電変換部の投影像EP1a、EP1bの大部分が含まれていることからも、ケラレがほぼ発生していないことがわかる。光束Lは、絞りの開口板102aでのみ制限されているため、TLは、102aと言い換えることができる。この際、像面中央では各投影像EP1aないしEP1bのけられ状態は光軸に対して対称となり、各光電変換部2110a、2110bが受光する光量は等しい。   In FIG. 3A, when the outermost part of the light beam passing through the photographing optical system is denoted by L, the light beam L is regulated by the aperture plate 102a of the diaphragm, and the projected images EP1a and EP1b are vignetted by the photographing optical system. Almost no occurrence. In FIG.3 (b), the light beam L of Fig.3 (a) is shown by TL. Since most of the projected images EP1a and EP1b of the photoelectric conversion unit are included in the circle indicated by TL, it can be seen that almost no vignetting occurs. Since the light beam L is limited only by the aperture plate 102a of the diaphragm, TL can be restated as 102a. At this time, at the center of the image plane, the projected states EP1a to EP1b are symmetrical with respect to the optical axis, and the light amounts received by the photoelectric conversion units 2110a and 2110b are equal.

撮像面位相差AFを行う場合、カメラMPU125は撮像素子122から上述した2種類の出力を読み出すように撮像素子駆動部123を制御する。そして、カメラMPU125は、画像処理部124に焦点検出領域に関する情報を与え、焦点検出領域内の画素の出力からAF用A像およびAF用B像を生成して第1焦点検出部129に供給するように画像処理部124を制御する。画像処理部124はカメラMPU125の制御に従ってAF用A像およびAF用B像を生成して第1焦点検出部129に出力する。   When performing imaging surface phase difference AF, the camera MPU 125 controls the imaging device driving unit 123 so as to read the above-described two types of outputs from the imaging device 122. Then, the camera MPU 125 gives information related to the focus detection area to the image processing unit 124, generates an AF A image and an AF B image from the output of the pixels in the focus detection area, and supplies them to the first focus detection unit 129. In this manner, the image processing unit 124 is controlled. The image processing unit 124 generates an AF A image and an AF B image according to the control of the camera MPU 125 and outputs them to the first focus detection unit 129.

なお、本実施形態では水平方向に射出瞳を2分割する構成を例示したが、撮像素子中の一部の画素については垂直方向に射出瞳を2分割する構成としてもよい。また、水平および垂直の両方向に射出瞳を分割する構成としてもよい。垂直方向に射出瞳を分割する画素を設けることにより、水平だけでなく垂直方向の被写体のコントラストに対応した撮像面位相差AFが可能となる。   In the present embodiment, the configuration in which the exit pupil is divided into two in the horizontal direction is illustrated. However, for some pixels in the image sensor, the exit pupil may be split in two in the vertical direction. Further, the exit pupil may be divided in both the horizontal and vertical directions. By providing pixels that divide the exit pupil in the vertical direction, it is possible to perform imaging plane phase difference AF corresponding to the subject contrast in the vertical direction as well as in the horizontal direction.

上述したように、本実施形態の撮像素子122は画像を撮像する機能のみだけではなく焦点検出装置としての機能も有している。なお、焦点検出方法としては、射出瞳を分割した光束を受光する焦点検出画素を備えているため、撮像面位相差AFを行うことが可能である。   As described above, the image sensor 122 of the present embodiment has not only a function of capturing an image but also a function as a focus detection device. In addition, as a focus detection method, since the focus detection pixel which receives the light beam which divided | segmented the exit pupil is provided, it is possible to perform imaging surface phase difference AF.

<撮像面位相差AF処理シーケンス>次に、図4および図5を参照して、本実施形態の撮像面位相差AF処理について説明する。   <Imaging surface phase difference AF processing sequence> Next, the imaging surface phase difference AF processing of this embodiment will be described with reference to FIGS.

まず、AF処理の概要を説明する。カメラMPU125は、後述する撮影条件でAF用A像およびAF用B像を用いてデフォーカス量を取得する。これらAF用A像、AF用B像は、レンズの倍率色収差に応じて、本実施形態の色毎の第1の信号補正フィルタ、色毎の第2の信号補正フィルタで補正された信号である。そして、カメラMPU125はデフォーカス量に基づいてフォーカスレンズ104を駆動する。   First, an outline of AF processing will be described. The camera MPU 125 acquires the defocus amount using the AF A image and the AF B image under the shooting conditions described later. The AF A image and the AF B image are signals corrected by the first signal correction filter for each color and the second signal correction filter for each color according to the present embodiment in accordance with the chromatic aberration of magnification of the lens. . Then, the camera MPU 125 drives the focus lens 104 based on the defocus amount.

次に、上述した撮像面位相差AF処理の詳細について、図4から図11を用いて説明する。なお、図4および図5の処理は、他の主体が明記されている場合を除き、カメラMPU125が主体となって実行される。また、カメラMPU125がレンズMPU117にコマンド等を送信することによってレンズユニット100の駆動や制御を行う場合、説明を簡略化するために動作主体をカメラMPU125として記載する場合がある。図12および図13でも同様である。   Next, details of the imaging surface phase difference AF process described above will be described with reference to FIGS. 4 and FIG. 5 are executed mainly by the camera MPU 125, unless other main entities are specified. When the camera MPU 125 drives and controls the lens unit 100 by transmitting a command or the like to the lens MPU 117, the operation subject may be described as the camera MPU 125 for the sake of simplicity. The same applies to FIGS. 12 and 13.

S401で、カメラMPU125は、シャッター秒時Tv、絞り値F、焦点検出領域などの撮影条件を設定する。設定される焦点検出領域は、主被写体に応じて決定されてもよいし、予め設定されていてもよい。本実施形態では、図11(b)に示すように主被写体1113の顔領域1114に対応する焦点検出領域に対して、代表する座標(x1、y1)を設定し、代表する座標は図11(a)の焦点検出領域1111chの中央の座標として説明する。   In step S401, the camera MPU 125 sets shooting conditions such as a shutter time Tv, an aperture value F, and a focus detection area. The focus detection area to be set may be determined according to the main subject or may be set in advance. In the present embodiment, as shown in FIG. 11B, representative coordinates (x1, y1) are set for the focus detection area corresponding to the face area 1114 of the main subject 1113, and the representative coordinates are shown in FIG. A description will be given as the coordinates of the center of the focus detection area 1111ch of a).

S402で、カメラMPU125は、撮像面位相差AFに用いるAF用信号を取得する。撮像素子122の同一画素行に配置された所定範囲内の複数の画素211について、光電変換部211aの出力をつなぎ合わせて編成したAF用A像(AF_A(i))、光電変換部211bの出力をつなぎ合わせて編成したAF用B像(AF_B(i))を取得する。S402では、AF用像信号は撮像素子122からRGB毎に取得した直後の信号であり、RGBそれぞれの値を個別に有している(AF_A(i)={rA(i)、gA(i)、bA(i)}、AF_B(i)={rB(i)、gB(i)、bB(i)})。   In step S402, the camera MPU 125 acquires an AF signal used for the imaging plane phase difference AF. An A image for AF (AF_A (i)) formed by joining the outputs of the photoelectric conversion unit 211a and the output of the photoelectric conversion unit 211b for a plurality of pixels 211 within a predetermined range arranged in the same pixel row of the image sensor 122. A B image for AF (AF_B (i)) knitted by joining together is acquired. In S402, the AF image signal is a signal immediately after being acquired for each RGB from the image sensor 122, and has each RGB value individually (AF_A (i) = {rA (i), gA (i)). , BA (i)}, AF_B (i) = {rB (i), gB (i), bB (i)}).

S403で、カメラMPU125は、レンズMPU117との通信を行って、S401で設定された撮影条件(レンズの射出瞳距離、絞り値:F、像高:(x1、y1))から色毎信号補正を行うか否かを判定する。なお、レンズの射出瞳距離はレンズのズーム状態やフォーカス状態によって変わる。撮影条件のうち、レンズの射出瞳距離が撮像素子の設定瞳距離以上、もしくは設定絞りが所定の値未満、もしくは設定像高が所定の値未満である場合、色感度補正は行わないと判定してS406へ進む。また、撮影条件のうち、レンズの射出瞳距離が設定瞳距離未満、設定絞りが所定の値以上、かつ設定像高が所定の値以上である場合は、撮影条件を用いてレンズメモリ118に格納されているレンズ情報の中から撮影条件に合致した倍率色収差情報を取得する。そして、取得した倍率色収差情報を用いて、色毎信号補正を行うか否かを判定し、倍率色収差に起因する焦点検出誤差が大きく、色毎信号補正を行うと判定された場合はS404に進む。また、倍率色収差に起因する焦点検出誤差が小さく、色毎信号補正は行わないと判定された場合はS406に進む。   In step S403, the camera MPU 125 communicates with the lens MPU 117, and performs signal correction for each color based on the shooting conditions (lens exit pupil distance, aperture value: F, image height: (x1, y1)) set in step S401. Determine whether to do it. The exit pupil distance of the lens varies depending on the zoom state and focus state of the lens. Among the shooting conditions, if the exit pupil distance of the lens is greater than or equal to the set pupil distance of the image sensor, the set aperture is less than a predetermined value, or the set image height is less than a predetermined value, it is determined that color sensitivity correction is not performed. The process proceeds to S406. Also, among the shooting conditions, if the exit pupil distance of the lens is less than the set pupil distance, the set aperture is greater than or equal to a predetermined value, and the set image height is greater than or equal to a predetermined value, the lens memory 118 is stored using the shooting conditions. The magnification chromatic aberration information that matches the photographing conditions is acquired from the lens information. Then, it is determined whether or not signal correction for each color is performed using the acquired magnification chromatic aberration information. If it is determined that the focus detection error due to the magnification chromatic aberration is large and signal correction for each color is performed, the process proceeds to S404. . If it is determined that the focus detection error due to the chromatic aberration of magnification is small and signal correction for each color is not performed, the process proceeds to S406.

S404では、カメラMPU125は、色毎信号補正を行うための色毎信号補正フィルタを算出する。本実施形態では、AF用A像とAF用B像に対応したRGB感度比を揃える。ここで、本実施形態の色毎信号補正フィルタ算出処理について図5から図7を用いて説明する。   In step S404, the camera MPU 125 calculates a signal correction filter for each color for performing signal correction for each color. In this embodiment, the RGB sensitivity ratios corresponding to the AF A image and the AF B image are made uniform. Here, the signal correction filter calculation processing for each color according to the present embodiment will be described with reference to FIGS.

S501で、カメラMPU125は、EEPROM125cに記憶されているAF用A像とAF用B像の瞳強度分布と、レンズメモリ118に記憶されている撮影光学系に関する情報(レンズのケラレ情報など)と合わせて、焦点検出領域1111chの代表値である座標(x1、y1)のAF用A像とAF用B像各々の色毎の第1の線像分布関数LSF_xA(i)と色毎の第2の線像分布関数LSF_xB(i)(xはRGBの添え字を表す)を算出する。ここで、iは焦点検出範囲内のX座標を表す。
AF用A像:LSF_rA(i)、LSF_gA(i)、LSF_bA(i)
AF用B像:LSF_rB(i)、LSF_gB(i)、LSF_bB(i)
AF用A像、AF用B像は図8(a)のRGBのA像、B像に相当する。
In step S <b> 501, the camera MPU 125 matches the pupil intensity distribution of the AF A image and the AF B image stored in the EEPROM 125 c and information on the photographing optical system (lens vignetting information, etc.) stored in the lens memory 118. Thus, the first line image distribution function LSF_xA (i) for each color of the AF A image and the AF B image at coordinates (x1, y1), which are representative values of the focus detection area 1111ch, and the second color-specific second image distribution function LSF_xA (i). A line image distribution function LSF_xB (i) (x represents an RGB subscript) is calculated. Here, i represents the X coordinate within the focus detection range.
AF A images: LSF_rA (i), LSF_gA (i), LSF_bA (i)
B image for AF: LSF_rB (i), LSF_gB (i), LSF_bB (i)
The A image for AF and the B image for AF correspond to the RGB A and B images in FIG.

S502では、カメラMPU125は、S501で作成したAF用A像とAF用B像各々の色毎の線像分布関数LSF_xA(i)、LSF_xB(i)をEEPROM125cに記憶されている暫定デフォーカス量に応じて、積算光量が変わらないように変形させ、暫定デフォーカス時の線像分布関数LSF_xA‘(i)、LSF_xB‘(i)を算出する。   In S502, the camera MPU 125 sets the line image distribution functions LSF_xA (i) and LSF_xB (i) for each color of the AF A image and the AF B image created in S501 to the provisional defocus amount stored in the EEPROM 125c. Accordingly, the integrated light quantity is changed so as not to change, and line image distribution functions LSF_xA ′ (i) and LSF_xB ′ (i) at the time of provisional defocusing are calculated.

次に、S503からS505の処理の詳細について図6および図7を用いて説明する。S503では、カメラMPU125は、S502で作成した暫定デフォーカス時の線像分布関数LSF_xA‘(i)、LSF_xB‘(i)の重心X座標Cog_xXA’、Cog_xXB’を算出する(図6)。さらに、S502で作成した暫定デフォーカス時の線像分布関数LSF_xA‘(i)、LSF_xB‘(i)をEEPROM125cに記憶されているサンプリングピッチFil_p毎にサンプリングして得られるサンプリング線像LSF_xA’’(i)、LSF_xB’’(i)の重心X座標Cog_xXA’’、Cog_xXB’’を算出する。そして、これら算出した重心Cog_xXA’’、Cog_xXB’’、Cog_xXA’’、Cog_xXB’’から重心差ΔCog_xXA、ΔCog_xXBを算出する。
ΔCog_XA={Cog_rXA’−Cog_rXA’’、Cog_gXA’−Cog_gXA’’、Cog_bXA’−Cog_bXA’’}
ΔCog_XB={Cog_rXB’−Cog_rXB’’、Cog_gXB’−Cog_gXB’’、Cog_bXB’−Cog_bXB’’}
さらに、算出した重心差ΔCog_xXA、ΔCog_xXBを用いて、信号補正フィルタ長を算出する。算出する信号補正フィルタ長は、重心差ΔCog_xXA、ΔCog_xXBを包含するX座標範囲を設定する。
Next, details of the processing from S503 to S505 will be described with reference to FIGS. In S503, the camera MPU 125 calculates the center-of-gravity X coordinates Cog_xXA 'and Cog_xXB' of the line image distribution functions LSF_xA '(i) and LSF_xB' (i) at the time of provisional defocus created in S502 (FIG. 6). Further, the line image distribution functions LSF_xA ′ (i) and LSF_xB ′ (i) at the time of provisional defocus created in S502 are sampled for each sampling pitch Fil_p stored in the EEPROM 125c, and the sampling line images LSF_xA ″ ( i) The centroid X coordinates Cog_xXA ″ and Cog_xXB ″ of LSF_xB ″ (i) are calculated. Then, centroid differences ΔCog_xXA and ΔCog_xXB are calculated from the calculated centroids Cog_xXA ″, Cog_xXB ″, Cog_xXA ″, and Cog_xXB ″.
ΔCog_XA = {Cog_rXA′−Cog_rXA ″, Cog_gXA′−Cog_gXA ″, Cog_bXA′−Cog_bXA ″}
ΔCog_XB = {Cog_rXB′−Cog_rXB ″, Cog_gXB′−Cog_gXB ″, Cog_bXB′−Cog_bXB ″}
Furthermore, the signal correction filter length is calculated using the calculated barycenter differences ΔCog_xXA and ΔCog_xXB. As the signal correction filter length to be calculated, an X coordinate range including the centroid differences ΔCog_xXA and ΔCog_xXB is set.

S504では、カメラMPU125は、信号補正フィルタFil_xA(i)、Fil_xB(i)の重心合わせ後のX座標Fil_xXA(i)、Fil_xXB(i)を算出する。これは、S503で算出したサンプリング線像LSF_xA’’(i)、LSF_xB’’(i)で共通のX座標LSF_xXA(i)、LSF_xXB(i)からS503で算出した重心差ΔCog_xXA、ΔCog_xXBを減算して、信号補正フィルタの重心合わせ後のX座標Fil_xXA(i)、Fil_xXB(i)を算出する。   In S504, the camera MPU 125 calculates the X coordinates Fil_xXA (i) and Fil_xXB (i) after the centroid adjustment of the signal correction filters Fil_xA (i) and Fil_xB (i). This is because the centroid differences ΔCog_xXA and ΔCog_xXB calculated in S503 are subtracted from the common X coordinates LSF_xXA (i) and LSF_xXB (i) in the sampling line images LSF_xA ″ (i) and LSF_xB ″ (i) calculated in S503. Thus, the X coordinates Fil_xXA (i) and Fil_xXB (i) after the center of gravity adjustment of the signal correction filter are calculated.

S505では、カメラMPU125は、重心合わせ後の信号補正フィルタの値Fil_xA(i)、Fil_xB(i)を算出し、色毎信号補正フィルタとするため変形させる。ここで重心合わせ後の信号補正フィルタの値Fil_xA(i)、Fil_xB(i)の算出方法について図7を用いて説明する。カメラMPU125は、S503で算出されたフィルタ長における強度をEEPROM125cに記憶されている信号補正フィルタのサンプリングピッチFil_p毎にS502で変形させた線像分布関数LSF_xA‘(i)、LSF_xB‘(i)の面積を積分して算出する。このとき、信号補正フィルタのサンプリングピッチFil_pと線像分布関数LSF_xA‘(i)、LSF_xB‘(i)のピッチLSF_pとの大小関係で積分範囲が異なる。   In step S <b> 505, the camera MPU 125 calculates signal correction filter values Fil_xA (i) and Fil_xB (i) after the center of gravity adjustment, and deforms them to make the signal correction filters for each color. Here, a method of calculating the signal correction filter values Fil_xA (i) and Fil_xB (i) after the center of gravity adjustment will be described with reference to FIG. The camera MPU 125 uses the line image distribution functions LSF_xA ′ (i) and LSF_xB ′ (i) in which the intensity at the filter length calculated in S503 is transformed in S502 for each sampling pitch Fil_p of the signal correction filter stored in the EEPROM 125c. Calculate by integrating the area. At this time, the integration range differs depending on the magnitude relationship between the sampling pitch Fil_p of the signal correction filter and the pitch LSF_p of the line image distribution functions LSF_xA ′ (i) and LSF_xB ′ (i).

図7はFil_p>LSF_pの場合の説明図である。この場合、算出するj番目の信号補正フィルタFil_xA(j)の値はFil_xA(j)を中心に±Fil_p/2の範囲にある線像分布関数LSF_xA‘(i)、LSF_xB‘(i)の面積を積分して算出される。そして、S503で算出した信号補正フィルタ長だけ面積を計算していき、重心合わせ後の信号補正フィルタFil_xA(i)、Fil_xB(i)の値を算出して、色毎の第1の信号補正フィルタ、色毎の第2の信号補正フィルタとする。このようにして、色毎の第1の信号補正フィルタ、色毎の第2の信号補正フィルタを算出した後、図4のS405へ進む。   FIG. 7 is an explanatory diagram in the case of Fil_p> LSF_p. In this case, the value of the calculated j-th signal correction filter Fil_xA (j) is the area of the line image distribution functions LSF_xA ′ (i) and LSF_xB ′ (i) in the range of ± Fil_p / 2 with respect to Fil_xA (j). Is calculated by integrating. Then, the area is calculated by the signal correction filter length calculated in S503, the values of the signal correction filters Fil_xA (i) and Fil_xB (i) after the centroid adjustment are calculated, and the first signal correction filter for each color is calculated. The second signal correction filter for each color is used. In this way, after calculating the first signal correction filter for each color and the second signal correction filter for each color, the process proceeds to S405 in FIG.

本実施形態では、焦点検出領域1111chの代表値である座標(x1、y1)のAF用A像およびAF用B像に対応したRGB強度をR_Ap(rAp/gAp、1、bAp/gAp)およびR_Bp(rBp/gBp、1、bBp/gBp)の形式として説明するが、G画素で規格化したR_Ap(rAp、gAp、bAp)、R_Bp(rBp、gBp、bBp)の形式としてもよい。   In this embodiment, the RGB intensities corresponding to the AF A image and the AF B image at coordinates (x1, y1), which are representative values of the focus detection area 1111ch, are R_Ap (rAp / gAp, 1, bAp / gAp) and R_Bp. Although described as a format of (rBp / gBp, 1, bBp / gBp), it may be a format of R_Ap (rAp, gAp, bAp) and R_Bp (rBp, gBp, bBp) normalized by G pixels.

図4に戻り、S405では、カメラMPU125は、S404で算出された色毎信号補正フィルタを用いて色毎信号補正を行う。ここで、S405における色毎信号補正の詳細について図8を用いて説明する。図8(a)は色毎信号補正前のAF用A像およびAF用B像のRGB強度であり、図8(b)は色毎信号補正後のAF用A像およびAF用B像のRGB感度である。カメラMPU125は、S404で算出された色毎の第1の信号補正フィルタFil_xA‘(i)、色毎の第2の信号補正フィルタFil_xB‘(i)を、図8(a)に示すS402で取得したAF用A像(AF_A(i))およびAF用B像(AF_B(i))についてRGBそれぞれに畳み込み積分を行って補正し、図8(b)に示す色毎信号補正後のAF用A像(AF_A´(i))およびAF用B像(AF_B´(i))を生成する。
AF_A’(i)={(AF_rA(i) * Fil_rA),(AF_gA(i) * Fil_gA),(AF_bA(i) * Fil_bA)}
AF_B’(i)={(AF_rB(i) * Fil_rB),(AF_gB(i) * Fil_gB),(AF_bB(i) * Fil_bB)}
以上のように、色毎信号補正後のAF用A像(第1の焦点検出信号)に対して、色毎の第2の信号補正フィルタを畳み込み積分し、色毎信号補正後のAF用B像(第2の焦点検出信号)に対して、色毎の第1の信号補正フィルタを畳み込み積分することで、AF用A像およびAF用B像のRGB強度補正を行うことができる。
Returning to FIG. 4, in step S405, the camera MPU 125 performs signal correction for each color using the signal correction filter for each color calculated in step S404. Details of the signal correction for each color in S405 will be described with reference to FIG. FIG. 8A shows the RGB intensities of the AF A image and the AF B image before the color-by-color signal correction, and FIG. 8B shows the RGB intensities of the AF A image and the AF B image after the color-by-color signal correction. Sensitivity. The camera MPU 125 acquires the first signal correction filter Fil_xA ′ (i) for each color and the second signal correction filter Fil_xB ′ (i) for each color calculated in S404 in S402 illustrated in FIG. 8A. The corrected AF A image (AF_A (i)) and AF B image (AF_B (i)) are corrected by performing convolution integration on each of R, G, and B, and the AF A after color-by-color signal correction shown in FIG. An image (AF_A ′ (i)) and an AF B image (AF_B ′ (i)) are generated.
AF_A ′ (i) = {(AF_rA (i) * Fil_rA), (AF_gA (i) * Fil_gA), (AF_bA (i) * Fil_bA)}
AF_B ′ (i) = {(AF_rB (i) * Fil_rB), (AF_gB (i) * Fil_gB), (AF_bB (i) * Fil_bB)}
As described above, the AF A image (first focus detection signal) after the signal correction for each color is convolved with the second signal correction filter for each color, and the AF B after the signal correction for each color is performed. The RGB intensity correction of the AF A image and the AF B image can be performed by convolving and integrating the first signal correction filter for each color with respect to the image (second focus detection signal).

S406では、カメラMPU125は、画像処理部124により色信号補正前または色信号補正後のAF用A像とAF用B像についてベイヤー加算を行う。ここで、S403で色毎信号補正を行うと判定された場合、S405で補正されたAF用A像とAF用B像を用いる。また、S403で色毎信号補正は行わないと判定された場合、S402で取得したAF用A像およびAF用B像を用いる。   In step S406, the camera MPU 125 performs Bayer addition on the AF A image and the AF B image before or after the color signal correction by the image processing unit 124. If it is determined in S403 that signal correction for each color is performed, the AF A image and the AF B image corrected in S405 are used. If it is determined in S403 that the signal correction for each color is not performed, the AF A image and the AF B image acquired in S402 are used.

S407では、カメラMPU125は、第1焦点検出部129によりEEPROM125cに格納されているシフト量に基づいてシフト処理を行い、第1焦点検出部129にて公知の相関演算方法などを用いて像信号の一致度を表す像ずれ量を算出しデフォーカス量に換算する。   In step S407, the camera MPU 125 performs shift processing based on the shift amount stored in the EEPROM 125c by the first focus detection unit 129, and the first focus detection unit 129 uses a known correlation calculation method or the like. An image shift amount representing the degree of coincidence is calculated and converted into a defocus amount.

S408では、カメラMPU125は、S407で求めたデフォーカス量に基づいて、レンズMPU117と通信してフォーカス駆動部116に制御コマンドを送出する。そして、制御コマンドに基づき、フォーカス駆動部116がフォーカスアクチュエータ113を介してフォーカスレンズ104を駆動させ、AF処理を終了する。   In S <b> 408, the camera MPU 125 communicates with the lens MPU 117 based on the defocus amount obtained in S <b> 407 and sends a control command to the focus driving unit 116. Then, based on the control command, the focus driving unit 116 drives the focus lens 104 via the focus actuator 113, and the AF process is ended.

<倍率色収差による焦点検出誤差発生のメカニズム>次に、倍率色収差による焦点検出誤差が発生するメカニズムを説明する。倍率色収差は、波長による屈折率の違いにより、同一被写体から発せられた光が、撮像素子122上において色ずれを生じる現象である。   <Mechanism of generation of focus detection error due to lateral chromatic aberration> Next, a mechanism for generating a focus detection error due to lateral chromatic aberration will be described. The lateral chromatic aberration is a phenomenon in which light emitted from the same subject causes a color shift on the image sensor 122 due to a difference in refractive index depending on a wavelength.

図8は、焦点検出領域を周辺像高とした場合の、合焦位置におけるAF用A像およびAF用B像の各色線像分布関数を例示している。図8(a)は色毎信号補正を行う前の各色線像を示しており、図8(b)は色毎信号補正を行った後の各色線像を示している。図8(a)と図8(b)はいずれも、縦軸は感度で、AF用A像とAF用B像それぞれにおいてGの感度で規格化してある。横軸は倍率色収差に相当し、RGBで線像の重心位置が異なっている。同一色におけるAF用A像とAF用B像の各線像重心位置は、焦点検出合焦位置においてほぼ同等である。なお、焦点検出合焦位置とはAFとしての正しい合焦位置であり、MTFピーク位置である。   FIG. 8 illustrates color line image distribution functions of the AF A image and the AF B image at the in-focus position when the focus detection area is the peripheral image height. FIG. 8A shows each color line image before the signal correction for each color, and FIG. 8B shows each color line image after the signal correction for each color. In both FIG. 8A and FIG. 8B, the vertical axis represents sensitivity, and the AF A image and the AF B image are normalized by G sensitivity. The horizontal axis corresponds to lateral chromatic aberration, and the barycentric position of the line image is different between RGB. Each line image barycenter position of the AF A image and the AF B image in the same color is substantially the same at the focus detection focus position. The focus detection focus position is a correct focus position as AF, and is an MTF peak position.

図8(a)におけるRとGの感度を比較すると、AF用A像においては、RはGよりも信号強度が小さい。一方、AF用B像においては、RはGよりも感度が大きい。なお、Bに関しては、Gとの比較においてはAF用A像とAF用B像でほぼ同じなっている。AF用A像におけるRGB各色感度比とAF用B像におけるRGB各色感度比が異なる理由は、撮像素子122の瞳強度分布(受光率の入射角度分布)が波長によって異なるためである。   Comparing the sensitivities of R and G in FIG. 8A, R has a smaller signal intensity than G in the AF A image. On the other hand, in the AF B image, R is more sensitive than G. Regarding B, in comparison with G, the A image for AF and the B image for AF are almost the same. The reason why the RGB color sensitivity ratio in the AF A image is different from the RGB color sensitivity ratio in the AF B image is that the pupil intensity distribution (incident angle distribution of the light receiving rate) of the image sensor 122 differs depending on the wavelength.

図9はAF用A像とAF用B像のRとGの撮像素子122における瞳強度分布を示している。横軸は入射角度であり、右側が正である。縦軸は受光率に相当する信号強度であり、AF用A像とAF用B像の交点において規格化している。入射角度が負の場合に強度の最大値をとるのがAF用A像であり、入射角度が正の場合に強度の最大値をとるのがAF用B像である。波長による屈折率の違いにより、RとGの瞳強度分布の形状が異なる。   FIG. 9 shows pupil intensity distributions in the R and G image sensors 122 of the AF A image and the AF B image. The horizontal axis is the incident angle, and the right side is positive. The vertical axis represents the signal intensity corresponding to the light reception rate, and is normalized at the intersection of the AF A image and the AF B image. The AF A image takes the maximum intensity when the incident angle is negative, and the AF B image takes the maximum intensity when the incident angle is positive. The shape of the pupil intensity distribution of R and G differs depending on the difference in refractive index depending on the wavelength.

前述したように、設定瞳距離Dsを標準値として、偏心パラメータの設計がなされているため、交点の入射角度θcは射出瞳距離Zepと対応している。射出瞳距離Zepはレンズユニット100の焦点距離が広角端と望遠端の中央にある状態である。したがって、広角端もしくは望遠端にレンズユニット100が近付くほど、焦点検出画素に入射する光の入射角度は、交点の角度から外れることとなる。   As described above, since the eccentric parameter is designed with the set pupil distance Ds as the standard value, the incident angle θc of the intersection corresponds to the exit pupil distance Zep. The exit pupil distance Zep is a state in which the focal length of the lens unit 100 is at the center between the wide-angle end and the telephoto end. Therefore, the closer the lens unit 100 is to the wide-angle end or the telephoto end, the more the incident angle of the light incident on the focus detection pixel deviates from the angle of the intersection.

図9から入射角度に対する信号強度の変化率がRとGで異なるため、交点の角度から外れた領域においては、RとGの信号強度比がAF用A像とAF用B像で異なることが分かる。例えば、交点よりも入射角度が負の場合、AF用A像においては、RはGよりも信号強度が小さい。一方、AF用B像においては、RはGよりも信号強度が大きい。この場合、AF用A像とAF用B像でRとGの信号強度比が異なる。   Since the change rate of the signal intensity with respect to the incident angle is different between R and G in FIG. 9, the signal intensity ratio of R and G is different between the A image for AF and the B image for AF in a region outside the angle of the intersection. I understand. For example, when the incident angle is more negative than the intersection, R has a smaller signal intensity than G in the AF A image. On the other hand, in the B image for AF, R has a higher signal intensity than G. In this case, the signal intensity ratio of R and G is different between the AF A image and the AF B image.

図10は撮像素子の周辺像高における光電変換部211aの第1瞳部分領域1001,光電変換部211bの第2瞳部分領域1002、および撮影光学系の射出瞳1011の関係を示している。図10では、射出瞳1011の水平方向をX軸、瞳の垂直方向をY軸としている。   FIG. 10 shows the relationship between the first pupil partial region 1001 of the photoelectric conversion unit 211a, the second pupil partial region 1002 of the photoelectric conversion unit 211b, and the exit pupil 1011 of the imaging optical system at the peripheral image height of the image sensor. In FIG. 10, the horizontal direction of the exit pupil 1011 is the X axis, and the vertical direction of the pupil is the Y axis.

図10(a)は、撮影光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが同じ場合である。この場合、第1瞳部分領域1001と第2瞳部分領域1002により、撮影光学系の射出瞳1011が、略均等に瞳分割される。瞳強度分布で考えると、各像高への光線入射角度θはAF用A像とAF用B像の交点の入射角度θcにほぼ等しくなるため(θ=θc)、AF用A像とAF用B像におけるRGB信号強度比はほぼ等しくなる。   FIG. 10A shows a case where the exit pupil distance Dl of the photographing optical system and the set pupil distance Ds of the image sensor are the same. In this case, the first pupil partial region 1001 and the second pupil partial region 1002 divide the exit pupil 1011 of the photographing optical system substantially equally. Considering the pupil intensity distribution, the light incident angle θ at each image height is substantially equal to the incident angle θc at the intersection of the AF A image and the AF B image (θ = θc). The RGB signal intensity ratio in the B image is substantially equal.

図10(b)は、撮影光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合である。また、図10(c)は、撮影光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合である。図10(b)と図10(c)のいずれの場合も、撮像素子の周辺像高において撮影光学系の射出瞳と撮像素子の入射瞳の瞳ずれが生じ、撮影光学系の射出瞳1011が、不均一に瞳分割されてしまう。瞳強度分布で考えると、図10(b)、(c)における光線入射角度θは、像高が高くなるほどAF用A像とAF用B像の交点の入射角度θcからずれることになる。したがって、レンズユニット100の射出瞳距離と設定瞳距離Dsのずれが大きく、像高が高くなるほど、AF用A像とAF用B像におけるRGB信号強度の差は大きくなる。   FIG. 10B shows a case where the exit pupil distance Dl of the photographing optical system is shorter than the set pupil distance Ds of the image sensor. FIG. 10C shows a case where the exit pupil distance Dl of the photographing optical system is longer than the set pupil distance Ds of the image sensor. In either case of FIG. 10B or FIG. 10C, a pupil shift between the exit pupil of the imaging optical system and the entrance pupil of the imaging element occurs at the peripheral image height of the imaging element, and the exit pupil 1011 of the imaging optical system is The pupil is divided unevenly. Considering the pupil intensity distribution, the light incident angle θ in FIGS. 10B and 10C is shifted from the incident angle θc at the intersection of the AF A image and the AF B image as the image height increases. Therefore, as the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds increases and the image height increases, the difference in RGB signal intensity between the AF A image and the AF B image increases.

なお、AF用A像とAF用B像の交点の入射角度θcは、撮像素子122の特性のばらつきと組み付け誤差の影響を強く受ける。したがって、レンズユニット100の状態と焦点検出領域が同一であっても、撮像素子122の状態によってAF用A像とAF用B像のRGB信号強度比は異なる。   The incident angle θc at the intersection of the AF A image and the AF B image is strongly affected by variations in characteristics of the image sensor 122 and assembly errors. Therefore, even if the state of the lens unit 100 and the focus detection area are the same, the RGB signal intensity ratio between the AF A image and the AF B image differs depending on the state of the image sensor 122.

撮像面位相差AFでは、焦点検出画素から得られる焦点検出信号を用いて焦点検出処理を行う。前述したように、RGBのAF用A像、RGBのAF用B像の出力を加算して算出した疑似的な輝度(Y)信号の相対的な像ずれ量より焦点ずれ量(デフォーカス量)を検出する。つまり、位相差AFはAF用A像の重心GaとAF用B像の重心Gbが一致したときに合焦と判定することになる。   In the imaging plane phase difference AF, focus detection processing is performed using a focus detection signal obtained from focus detection pixels. As described above, the defocus amount (defocus amount) is based on the relative image shift amount of the pseudo luminance (Y) signal calculated by adding the outputs of the RGB AF A image and the RGB AF B image. Is detected. That is, the phase difference AF is determined to be in focus when the gravity center Ga of the AF A image and the gravity center Gb of the AF B image coincide.

図8(a)を用いて、輝度(Y)信号に関する、AF用A像の重心G(A)とAF用B像の重心G(B)を算出する。まず、図8(a)の横軸に相当するRGB各色の線像の重心位置をXr、Xg、Xb[mm]とする。また、図8(a)の縦軸に相当するRGB各色の信号強度をSr、Sg、Sbとする。輝度(Y)信号作成時のRGBの重みづけより、重心算出時の各色寄与率Piは、下記式1により求められる。
(式1)
Pr(A)=Sr(A)/(Sr(A)+2Sg(A)+Sb(A))
Pg(A)=2Sg(A)/(Sr(A)+2Sg(A)+Sb(A))
Pb(A)=Sb(A)/(Sr(A)+2Sg(A)+Sb(A))
Pr(B)=Sr(B)/(Sr(B)+2Sg(B)+Sb(B))
Pg(B)=2Sg(B)/(Sr(B)+2Sg(B)+Sb(B))
Pb(B)=Sb(B)/(Sr(B)+2Sg(B)+Sb(B))
となる。なお、(A)はAF用A像における値を示しており、(B)はAF用B像における値を示している。AF用A像の重心G(A)とAF用B像の重心G(B)はRGBの線像重心と各色寄与率Piの積和によって下記式2により求められる。
(式2)
G(A)=ΣXi(A)×Pi(A) ただし、i=R,G,B
G(B)=ΣXi(B)×Pi(B) ただし、i=R,G,B
ΔG=G(A)−G(B) [mm]
となる。なお、Xi(A)はAF用A像における線像重心であり、Xi(B)はAF用B像における線像重心である。ΔGは焦点検出合焦位置におけるAF用A像とAF用B像との重心差である。
Using FIG. 8A, the centroid G (A) of the AF A image and the centroid G (B) of the AF B image are calculated with respect to the luminance (Y) signal. First, let Xr, Xg, and Xb [mm] be the centroid positions of RGB line images corresponding to the horizontal axis of FIG. Further, the signal intensities of RGB colors corresponding to the vertical axis in FIG. 8A are Sr, Sg, and Sb. From the RGB weighting at the time of luminance (Y) signal creation, each color contribution ratio Pi at the time of calculating the center of gravity is obtained by the following equation 1.
(Formula 1)
Pr (A) = Sr (A) / (Sr (A) + 2Sg (A) + Sb (A))
Pg (A) = 2Sg (A) / (Sr (A) + 2Sg (A) + Sb (A))
Pb (A) = Sb (A) / (Sr (A) + 2Sg (A) + Sb (A))
Pr (B) = Sr (B) / (Sr (B) + 2Sg (B) + Sb (B))
Pg (B) = 2Sg (B) / (Sr (B) + 2Sg (B) + Sb (B))
Pb (B) = Sb (B) / (Sr (B) + 2Sg (B) + Sb (B))
It becomes. Note that (A) shows the value in the AF A image, and (B) shows the value in the AF B image. The centroid G (A) of the AF A image and the centroid G (B) of the AF B image are obtained by the following equation (2) based on the product sum of the RGB line image centroid and each color contribution ratio Pi.
(Formula 2)
G (A) = ΣXi (A) × Pi (A) where i = R, G, B
G (B) = ΣXi (B) × Pi (B) where i = R, G, B
ΔG = G (A) −G (B) [mm]
It becomes. Xi (A) is the line image centroid in the AF A image, and Xi (B) is the line image centroid in the AF B image. ΔG is the difference in the center of gravity between the AF A image and the AF B image at the focus detection focus position.

同一色におけるAF用A像とAF用B像の線像重心位置は、焦点検出合焦位置においては、ほぼ同等であり、
Xi(A)=Xi(B) ただし、i=R,G,B
として考えられるため、輝度(Y)信号に関するAF用A像の重心G(A)とAF用B像の重心G(B)が一致する条件は、AF用A像とAF用B像の各色寄与率Piが一致することである。したがって、焦点検出領域におけるRGB信号強度比がAF用A像とAF用B像で一致すれば、AF用A像の重心G(A)とAF用B像の重心G(B)が一致するため、撮像面位相差AFの焦点検出結果は焦点検出合焦位置に一致することになる。反対に、焦点検出領域におけるRGB信号強度比がA像とB像で異なる場合は、重心G(A)とAF用B像の重心G(B)とで重心差が生じるため、撮像面位相差AFの焦点検出結果は焦点検出合焦位置に一致せず、焦点検出誤差が発生する。
The line image barycentric positions of the AF A image and the AF B image in the same color are substantially equal at the focus detection focus position.
Xi (A) = Xi (B) where i = R, G, B
Therefore, the condition that the centroid G (A) of the AF A image and the centroid G (B) of the AF B image for the luminance (Y) signal coincide is the contribution of each color of the AF A image and the AF B image. The rate Pi matches. Therefore, if the RGB signal intensity ratio in the focus detection area matches between the AF A image and the AF B image, the centroid G (A) of the AF A image and the centroid G (B) of the AF B image match. The focus detection result of the imaging plane phase difference AF coincides with the focus detection focus position. On the contrary, when the RGB signal intensity ratio in the focus detection region is different between the A image and the B image, a centroid difference occurs between the centroid G (A) and the centroid G (B) of the AF B image. The focus detection result of AF does not coincide with the focus detection focus position, and a focus detection error occurs.

前述したように、撮像素子122の偏心パラメータは射出瞳距離Zepを標準値として設計されているため、レンズユニット100の射出瞳距離が標準値Zepから離れるほど、A像とB像のRGB感度比は異なりやすい。射出瞳距離のずれは像高が高いほど影響が大きいため、倍率色収差に起因する焦点検出誤差は像高が高いほど大きくなる。   As described above, since the eccentricity parameter of the image sensor 122 is designed with the exit pupil distance Zep as a standard value, the RGB sensitivity ratio between the A image and the B image increases as the exit pupil distance of the lens unit 100 becomes farther from the standard value Zep. Are different. Since the deviation of the exit pupil distance has a larger effect as the image height is higher, the focus detection error due to the chromatic aberration of magnification becomes larger as the image height is higher.

以上説明したように、像高が高いほど倍率色収差により一対の焦点検出信号の重心位置がRGB各色で異なる。また、撮影光学系の射出瞳距離Dlと撮像素子122の設定瞳距離Dsが離れている場合、撮像素子122の特性によっては一対の焦点検出信号の強度がRGB各色で異なる。このため、RGB各色の焦点検出信号を加算して得られる一対の焦点検出信号を用いて焦点検出を行うと焦点検出誤差が発生してしまう。   As described above, the higher the image height, the centroid positions of the pair of focus detection signals are different for each RGB color due to lateral chromatic aberration. In addition, when the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor 122 are separated, the intensity of the pair of focus detection signals differs for each RGB color depending on the characteristics of the image sensor 122. For this reason, if focus detection is performed using a pair of focus detection signals obtained by adding the focus detection signals of RGB colors, a focus detection error occurs.

そこで、本実施形態では、撮影光学系の倍率色収差に関する情報に応じてAF用A像およびAF用B像に対して、色毎の信号補正を行う色毎の第2の信号補正フィルタおよび色毎の第1の信号補正フィルタを用いることで、撮影光学系の倍率色収差に起因する焦点検出誤差を高精度に補正することができる。また、AF用A像とAF用B像の撮影光学系の収差等による非対称性が補正され、焦点検出誤差を高精度に補正することができる。   Therefore, in the present embodiment, the second signal correction filter for each color and the color-specific second signal correction filter that performs signal correction for each color on the AF A image and the AF B image according to the information about the chromatic aberration of magnification of the photographing optical system. By using the first signal correction filter, it is possible to correct the focus detection error caused by the chromatic aberration of magnification of the photographing optical system with high accuracy. In addition, asymmetry due to the aberration of the photographing optical system of the AF A image and the AF B image is corrected, and the focus detection error can be corrected with high accuracy.

[実施形態2]次に、実施形態2の撮像面位相差AF処理シーケンスについて説明する。   [Embodiment 2] Next, the imaging surface phase difference AF processing sequence of Embodiment 2 will be described.

実施形態1では、図8で説明した倍率色収差に起因する焦点検出誤差を低減するために、焦点検出前のAF用像信号に対し色毎の信号補正を行っていた。これに対して、本実施形態では、撮影光学系の倍率色収差に応じて求められた倍率色収差に関する焦点ずれ量の補正値(焦点検出結果補正値)を用いて焦点検出結果としての焦点ずれ量を補正する。つまり、実施形態1とは、焦点検出処理における補正を行うタイミングが異なっている。   In the first embodiment, signal correction for each color is performed on the AF image signal before focus detection in order to reduce the focus detection error caused by the lateral chromatic aberration described in FIG. On the other hand, in the present embodiment, the defocus amount as the focus detection result is calculated using the defocus amount correction value (focus detection result correction value) regarding the chromatic aberration of magnification obtained according to the chromatic aberration of magnification of the photographing optical system. to correct. That is, the timing for performing the correction in the focus detection process is different from that of the first embodiment.

そして、本実施形態によれば、撮影光学系の倍率色収差に関する情報や撮像素子固有の各色感度に関する情報を用いて焦点検出誤差の補正値を算出することにより、焦点検出誤差を精度良く補正することができる。   Then, according to the present embodiment, the focus detection error can be accurately corrected by calculating the correction value of the focus detection error using the information regarding the chromatic aberration of magnification of the photographing optical system and the information regarding the color sensitivities specific to the image sensor. Can do.

なお、本実施形態のカメラや撮像素子の構成は、図1から図3と同様である。また、倍率色収差に起因する焦点検出誤差が発生するメカニズムは、図8や図9で説明した通りである。   Note that the configuration of the camera and image sensor of this embodiment is the same as that shown in FIGS. Further, the mechanism for generating the focus detection error due to the lateral chromatic aberration is as described with reference to FIGS.

まず、AF処理の概要を説明する。カメラMPU125は、後述する撮影条件でAF用A像およびAF用B像を用いて焦点ずれ量を取得する。その後、カメラMPU125は、焦点ずれ量を補正するための焦点検出結果補正値を算出し、補正を行う。そして、カメラMPU125は、補正されたデフォーカス量に基づいてフォーカスレンズ104を駆動する。   First, an outline of AF processing will be described. The camera MPU 125 acquires the amount of defocus using the AF A image and the AF B image under shooting conditions described later. Thereafter, the camera MPU 125 calculates and corrects a focus detection result correction value for correcting the defocus amount. Then, the camera MPU 125 drives the focus lens 104 based on the corrected defocus amount.

次に、上述した撮像面位相差AF処理の詳細を、図12および図13のフローチャートを用いて説明する。なお、本実施形態では、撮影光学系の倍率色収差に起因する焦点検出誤差を補正するための補正値を用いた例を説明するが、撮影光学系の他の収差に起因する焦点検出結果補正値と組み合わせてもよい。例えば、撮影光学系の非点収差、コマ収差、球面収差等に起因する焦点検出誤差を補正するための補正値と組み合わせてもよい。また、撮像画像においてユーザが最も良好なピント状態であると感じられる焦点状態と、焦点検出結果が示す焦点状態との差を補正する補正値を組み合わせてもよい。   Next, the details of the imaging surface phase difference AF process described above will be described with reference to the flowcharts of FIGS. In this embodiment, an example using a correction value for correcting the focus detection error caused by the chromatic aberration of magnification of the photographing optical system will be described. However, the focus detection result correction value caused by other aberrations of the photographing optical system is described. And may be combined. For example, it may be combined with a correction value for correcting a focus detection error caused by astigmatism, coma aberration, spherical aberration or the like of the photographing optical system. Further, a correction value for correcting a difference between a focus state that the user feels in the best focus state in the captured image and a focus state indicated by the focus detection result may be combined.

S1201では、カメラMPU125は、撮像素子122の焦点検出領域を設定する。本実施形態では、図11(b)に示すように主被写体1113の顔領域1114に対応する焦点検出領域に対して、代表する座標(x1、y1)を設定し、代表する座標は図11(a)の焦点検出領域1111chの中央の座標として説明する。   In S <b> 1201, the camera MPU 125 sets a focus detection area of the image sensor 122. In the present embodiment, as shown in FIG. 11B, representative coordinates (x1, y1) are set for the focus detection area corresponding to the face area 1114 of the main subject 1113, and the representative coordinates are shown in FIG. A description will be given as the coordinates of the center of the focus detection area 1111ch of a).

S1202では、カメラMPU125は、撮像面位相差AFに用いるAF用信号を取得する。ここでは、同一画素行に配置された所定範囲内の複数の画素211について、検出画素に相当する光電変換部211aの出力をつなぎ合わせて編成したAF用A像、光電変換部211bの出力をつなぎ合わせて編成したAF用B像を取得する。   In S1202, the camera MPU 125 acquires an AF signal used for the imaging plane phase difference AF. Here, for a plurality of pixels 211 within a predetermined range arranged in the same pixel row, the AF A image formed by connecting the outputs of the photoelectric conversion units 211a corresponding to the detection pixels and the output of the photoelectric conversion unit 211b are connected. A B image for AF knitted together is acquired.

S1203では、カメラMPU125は、第1焦点検出部129により撮像面位相差AFに基づいて焦点検出を行う。   In step S1203, the camera MPU 125 performs focus detection based on the imaging surface phase difference AF by the first focus detection unit 129.

S1204では、カメラMPU125は、焦点検出結果補正値の算出に必要な算出条件を取得する。焦点検出結果補正値は、フォーカスレンズ104の位置、ズーム状態を示す第1レンズ群101の位置、焦点検出領域の位置座標(x1、y1)など、撮影光学系の変化や焦点検出光学系の変化に伴い変化する。そのため、カメラMPU125は、S1202で例えばフォーカスレンズ104の位置、ズーム状態を示す第1レンズ群101の位置、および、焦点検出領域の位置座標(x1、y1)などの情報を取得する。   In step S1204, the camera MPU 125 acquires a calculation condition necessary for calculating a focus detection result correction value. The focus detection result correction value includes a change in the photographing optical system and a change in the focus detection optical system, such as the position of the focus lens 104, the position of the first lens group 101 indicating the zoom state, and the position coordinates (x1, y1) of the focus detection area. It changes with. Therefore, the camera MPU 125 acquires information such as the position of the focus lens 104, the position of the first lens group 101 indicating the zoom state, and the position coordinates (x1, y1) of the focus detection region in S1202.

S1205では、カメラMPU125は、S1204で取得した補正値算出条件におけるレンズユニット100の倍率色収差情報と撮像素子122のRGB各色の感度情報から焦点検出結果補正値を算出する。S1205における焦点検出結果補正値算出方法の詳細については、図13を用いて後述する。   In S1205, the camera MPU 125 calculates a focus detection result correction value from the magnification chromatic aberration information of the lens unit 100 and the RGB color sensitivity information of the image sensor 122 in the correction value calculation condition acquired in S1204. Details of the focus detection result correction value calculation method in step S1205 will be described later with reference to FIG.

S1206では、カメラMPU125は、S1205で算出された自動焦点検出の結果を補正するための補正値(BP)を用いて以下の式3により焦点検出結果DEF_0を補正し、補正後の焦点検出結果DEFを算出する。   In S1206, the camera MPU 125 corrects the focus detection result DEF_0 by the following formula 3 using the correction value (BP) for correcting the result of automatic focus detection calculated in S1205, and the corrected focus detection result DEF. Is calculated.

DEF=DEF_0+BP・・・(3)
S1207では、カメラMPU125は、レンズMPU117と通信し、補正後の焦点検出結果DEFの合焦位置へフォーカスレンズ104を駆動するための制御コマンドを、フォーカス駆動部116へ送出する。そして、制御コマンドに基づき、フォーカス駆動部116がフォーカスアクチュエータ113を介してフォーカスレンズ104を駆動させる。
DEF = DEF_0 + BP (3)
In step S <b> 1207, the camera MPU 125 communicates with the lens MPU 117, and sends a control command for driving the focus lens 104 to the focus position of the corrected focus detection result DEF to the focus driving unit 116. Based on the control command, the focus driving unit 116 drives the focus lens 104 via the focus actuator 113.

S1208では、カメラMPU125は合焦判定を行い、合焦でないと判定された場合にはS1201に戻り、合焦と判定された場合には、AF処理を終了する。   In S1208, the camera MPU 125 performs in-focus determination. If it is determined not to be in focus, the process returns to S1201, and if it is determined in-focus, the AF processing is terminated.

<焦点検出結果補正値算出方法の説明>
撮像面位相差AFでは、AF用A像とAF用B像の相対的な像ずれ量に、像ずれ量と焦点ずれ量の換算値Kを乗算することで焦点ずれ量(デフォーカス量)を求める。したがって、倍率色収差に起因する焦点検出誤差量は、焦点検出合焦位置における重心差ΔGに換算値Kを乗算した値となる。なお、換算値Kの算出方法は周知であるため、本実施形態では説明を省略するが、基本的には像高が高く、レンズのF値が大きいほど高くなる。一般的に倍率色収差はF値が大きくなってもほとんど変わらないため、F値が大きくなると、Kの値が大きくなる分だけ、焦点検出誤差量は大きくなる。
<Description of Focus Detection Result Correction Value Calculation Method>
In the imaging plane phase difference AF, the relative image shift amount between the AF A image and the AF B image is multiplied by the conversion value K of the image shift amount and the focus shift amount to obtain the defocus amount (defocus amount). Ask. Therefore, the focus detection error amount resulting from the lateral chromatic aberration is a value obtained by multiplying the gravity center difference ΔG at the focus detection focus position by the conversion value K. Since the calculation method of the conversion value K is well known, the description thereof is omitted in the present embodiment, but basically, the image height is higher, and the higher the F value of the lens, the higher. In general, chromatic aberration of magnification hardly changes even when the F value increases. Therefore, when the F value increases, the amount of focus detection error increases as the value of K increases.

前述したように、レンズユニット100の射出瞳距離と設定瞳距離Dsのずれが大きく、像高が高くなるほど、AF用A像およびAF用B像における各RGB色感度比の差が大きくなる。したがって、倍率色収差に起因する焦点検出誤差量は、レンズユニット100の射出瞳距離と設定瞳距離Dsのずれが大きく高像高ほど大きくなる。   As described above, the difference between the RGB color sensitivity ratios in the AF A image and the AF B image increases as the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds increases and the image height increases. Therefore, the focus detection error amount due to the chromatic aberration of magnification increases as the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds increases and the image height increases.

図13は、図12のS1205における焦点検出結果を補正するための焦点検出結果補正値の算出処理を示している。   FIG. 13 shows a focus detection result correction value calculation process for correcting the focus detection result in S1205 of FIG.

S1301では、カメラMPU125は、S1204で取得したレンズユニット100の状態と焦点検出領域から焦点検出結果補正値が必要であるか否かを判定する。ここでは、例えば、レンズユニット100による倍率色収差が基準値よりも小さく補正が必要ない場合は、焦点検出結果補正値BPをゼロに設定してS1304に進む。一方、焦点検出結果補正値が必要であると判定された場合はS1302に進む。なお、S1301での判定処理は省略してもよい。   In S1301, the camera MPU 125 determines whether or not a focus detection result correction value is necessary from the state of the lens unit 100 acquired in S1204 and the focus detection area. Here, for example, when the chromatic aberration of magnification by the lens unit 100 is smaller than the reference value and correction is not necessary, the focus detection result correction value BP is set to zero and the process proceeds to S1304. On the other hand, if it is determined that the focus detection result correction value is necessary, the process proceeds to S1302. Note that the determination process in S1301 may be omitted.

ステップS1302では、カメラMPU125は、レンズユニット100の倍率色収差情報としてRGB各色の線像重心Xr、Xg、Xbを取得する。この線像重心は焦点検出領域によって値は変化するが、本実施形態においては、焦点検出領域中心(10mm、0mm))における線像重心とする。なお、線像重心は、AF用A像およびAF用B像それぞれの値を取得してもよいし、AF用A像とAF用B像で同一の値としてもよい。なお、線像重心のデータはカメラMPU125のEEPROM125cに格納される。   In step S1302, the camera MPU 125 acquires the line image centroids Xr, Xg, and Xb of each color of RGB as the magnification chromatic aberration information of the lens unit 100. Although the value of the line image centroid varies depending on the focus detection area, in this embodiment, the line image centroid is the line image centroid at the focus detection area center (10 mm, 0 mm). The line image centroid may be acquired for each of the AF A image and the AF B image, or may be the same value for the AF A image and the AF B image. Note that the line image centroid data is stored in the EEPROM 125c of the camera MPU 125.

S1303では、カメラMPU125は、撮像素子122の焦点検出領域におけるAF用A像とAF用B像のRGB各色の感度に関する情報Sr、Sg、Sbを取得する。なお、本実施形態では、AF用A像とAF用B像の感度に関するRGB比が重要であるため、Gの感度で規格化した値を用いる(Sg=1)。また、D65光源下におけるRGB各色の感度情報は、カメラMPU125のEEPROM125cに格納されている。RGB各色の感度情報は撮像素子122に固有の値であり、例えばカメラ本体120に搭載される前に測定された値が記憶される。なお、光源はD65に限らない。精度の観点からは、被写体の色に応じたA像とB像のRGB各色の感度情報を取得するのが望ましいが、処理速度の観点から本実施形態ではカメラMPU125に格納されている特定の光源下での値が使用される。   In S <b> 1303, the camera MPU 125 acquires information Sr, Sg, Sb related to the sensitivity of each RGB color of the AF A image and the AF B image in the focus detection region of the image sensor 122. In the present embodiment, since the RGB ratio related to the sensitivity of the AF A image and the AF B image is important, a value normalized by the sensitivity of G is used (Sg = 1). Further, sensitivity information of each color of RGB under the D65 light source is stored in the EEPROM 125c of the camera MPU 125. The sensitivity information of each color of RGB is a value unique to the image sensor 122, and for example, a value measured before being mounted on the camera body 120 is stored. The light source is not limited to D65. From the viewpoint of accuracy, it is desirable to acquire sensitivity information for each of the RGB colors of the A image and the B image according to the color of the subject, but in this embodiment, a specific light source stored in the camera MPU 125 is considered from the viewpoint of processing speed. The value below is used.

S1304では、カメラMPU125は、焦点検出結果補正値K・ΔGを算出する。焦点検出結果補正値は、S1302とS1303で取得した各色線像重心とA像とB像のRGB各色の感度情報から、上述した式1、2を用いてΔGを算出し、像ずれ量と焦点ずれ量の換算値Kを乗算することで算出される。なお、換算値Kは、カメラMPU125のEEPROM125cに格納され、レンズユニット100の状態と焦点検出領域に応じた適切な値が使用される。なお、像ずれ量と焦点ずれ量の換算値Kもカメラ本体120に搭載される撮像素子122に固有の値として記憶されている。   In S1304, the camera MPU 125 calculates a focus detection result correction value K · ΔG. As the focus detection result correction value, ΔG is calculated from the gravity center of each color line image acquired in S1302 and S1303 and the sensitivity information of each color of RGB of the A image and the B image using the above-described equations 1 and 2, and the image shift amount and the focus. It is calculated by multiplying the conversion value K of the deviation amount. The converted value K is stored in the EEPROM 125c of the camera MPU 125, and an appropriate value corresponding to the state of the lens unit 100 and the focus detection area is used. The converted value K of the image shift amount and the focus shift amount is also stored as a value unique to the image sensor 122 mounted on the camera body 120.

本実施形態における各パラメータを表1に例示する。重心差ΔGに像ずれ量と焦点ずれ量の換算値Kを乗算して焦点検出結果補正値K・ΔGを算出する。なお、Kの値は、レンズユニット100の状態や撮像素子122の状態、撮像素子122における焦点検出領域の位置によって変化し、大きい場合には1000程度になることもある。   Table 1 illustrates each parameter in the present embodiment. The focus detection result correction value K · ΔG is calculated by multiplying the center-of-gravity difference ΔG by the conversion value K of the image shift amount and the focus shift amount. Note that the value of K varies depending on the state of the lens unit 100, the state of the image sensor 122, and the position of the focus detection region in the image sensor 122, and may be about 1000 when it is large.

Figure 2018018032
Figure 2018018032

なお、本実施形態では焦点検出結果補正値を焦点ずれ量としたが、像ずれ量の段階で補正を行ってもよい。   In the present embodiment, the focus detection result correction value is the defocus amount, but the correction may be performed at the stage of the image shift amount.

[実施形態2の変形例1]次に、実施形態2の変形例1について実施形態2と異なる点を中心に説明する。   [Modification 1 of Embodiment 2] Next, Modification 1 of Embodiment 2 will be described focusing on differences from Embodiment 2. FIG.

<倍率色収差に関する情報>
本実施形態では、倍率色収差に関する情報として、焦点検出合焦位置におけるRGB各色の線像重心Xr、Xg、Xbを、カメラMPU125のEEPROM125cに記憶しているが、レンズユニット100のレンズメモリ118など、他の要素に記憶してもよい。
<Information on lateral chromatic aberration>
In this embodiment, the line image centroids Xr, Xg, and Xb of each color of RGB at the focus detection focus position are stored in the EEPROM 125c of the camera MPU 125 as information on the chromatic aberration of magnification, but the lens memory 118 of the lens unit 100, etc. You may memorize | store in another element.

また、実施形態2では線像重心を絶対値で示したが、倍率色収差はRGB各色の相対的な収差量が分かれば十分であるため、例えばGを基準とした場合の差分のみ、つまり、特定の色もしくは波長を基準とした相対的な値が記憶されていればよい。なお、メモリ容量の減少を抑えるためには、パラメータは少ない方がよい。   In the second embodiment, the line image center of gravity is shown as an absolute value. However, since it is sufficient for the chromatic aberration of magnification to know the relative aberration amount of each color of RGB, for example, only the difference when G is used as a reference, that is, specific It is only necessary to store a relative value based on the color or wavelength. In order to suppress a decrease in memory capacity, fewer parameters are better.

以下の表2に示すように、本実施形態では、Gを基準とした時の差分量としてXr、Xb、を記憶する。表2にはXgも示しているが、本実施形態においては、Xgは常に0であるため、Xgに関しては記憶しておく必要はない。   As shown in Table 2 below, in this embodiment, Xr and Xb are stored as the difference amounts with G as a reference. Although Xg is also shown in Table 2, in this embodiment, Xg is always 0, so it is not necessary to store Xg.

また、A像とB像のRGB各色の感度に関する情報Sr、Sg、SbもGで規格化した値として記憶する場合は、Sgは常に0であるため、記憶しておく必要はない。   In addition, when the information Sr, Sg, and Sb related to the sensitivities of the RGB colors of the A image and the B image are also stored as values normalized by G, Sg is always 0, so it is not necessary to store them.

本実施形態では倍率色収差に関する情報として、Gを基準とした場合の差分量Xr、Xb、をレンズメモリ118に記憶しておき、カメラMPU125はレンズユニット100から倍率色収差に関する情報を取得する。本実施形態における、重心差ΔGを表2に示すが、実施形態1と同一の結果を得られる。なお、レンズユニット100に記憶されている倍率色収差情報は設計値でもよいが、実際のレンズ固有の値を測定し、記憶されている方が好適である。   In the present embodiment, the difference amounts Xr and Xb with G as a reference are stored in the lens memory 118 as information on the chromatic aberration of magnification, and the camera MPU 125 acquires information on the chromatic aberration of magnification from the lens unit 100. The center-of-gravity difference ΔG in this embodiment is shown in Table 2, and the same result as in Embodiment 1 can be obtained. Note that the chromatic aberration of magnification information stored in the lens unit 100 may be a design value, but it is preferable to measure and store an actual value unique to the lens.

Figure 2018018032
Figure 2018018032

<撮像素子固有の各色感度に関する情報>
本実施形態では、撮像素子固有の各色感度に関する情報として、カメラ本体120に搭載する前に測定した値をカメラMPU125のEEPROM125cに記憶していたが、各色感度に関する情報は、撮像素子122の瞳強度分布が得られれば算出できる。そこで、カメラ本体への搭載前に撮像素子固有の各色瞳強度分布を測定し、カメラMPU125のEEPROM125cに記憶させてもよい。焦点検出時におけるA像とB像の各色感度比は、各色瞳強度分布からカメラMPU125により算出する。
<Information on each color sensitivity specific to the image sensor>
In this embodiment, values measured before being mounted on the camera main body 120 are stored in the EEPROM 125c of the camera MPU 125 as information relating to each color sensitivity unique to the image sensor, but information relating to each color sensitivity is the pupil intensity of the image sensor 122. If distribution is obtained, it can be calculated. Therefore, the color pupil intensity distribution unique to the image sensor may be measured before being mounted on the camera body, and stored in the EEPROM 125c of the camera MPU 125. Each color sensitivity ratio of the A image and the B image at the time of focus detection is calculated by the camera MPU 125 from each color pupil intensity distribution.

<補正条件>
前述したように、倍率色収差に起因する焦点検出誤差は、レンズユニット100の射出瞳距離と設定瞳距離Dsのずれが大きく、像高が高くなるほど大きくなる。また、レンズのF値が大きいほど大きくなる。そこで、処理速度の観点から、射出瞳距離と設定瞳距離Dsの差が大きい場合にのみ、焦点検出結果の補正を行うようにしてもよい。具体的には、ズーム倍率に応じて補正を行うか否かを切り替え、広角端と望遠端の場合のみ補正を行うようにする。
<Correction conditions>
As described above, the focus detection error due to the chromatic aberration of magnification increases as the deviation between the exit pupil distance of the lens unit 100 and the set pupil distance Ds increases and the image height increases. Moreover, it becomes large, so that the F value of a lens is large. Therefore, from the viewpoint of processing speed, the focus detection result may be corrected only when the difference between the exit pupil distance and the set pupil distance Ds is large. Specifically, whether or not to perform correction is switched according to the zoom magnification, and correction is performed only at the wide-angle end and the telephoto end.

[実施形態2の変形例2]次に、実施形態2の変形例2について実施形態2と異なる点を中心に説明する。   [Modification 2 of Embodiment 2] Next, Modification 2 of Embodiment 2 will be described focusing on differences from Embodiment 2. FIG.

<被写体の色に関する情報>
本実施形態では、処理速度の観点からカメラMPU125のEEPROM125cに記憶されている特定の光源下でのA像とB像のRGB各色の感度に関する情報を取得する構成であった。これに対して、カメラ本体120の画像処理部124で被写体の色を取得し、被写体の色を前提としたRGB各色の感度に関する情報を算出することで、焦点検出結果補正値の精度を高めることができる。
<Information on subject color>
In the present embodiment, from the viewpoint of processing speed, the information regarding the sensitivity of each color of RGB of the A image and the B image under a specific light source stored in the EEPROM 125c of the camera MPU 125 is acquired. On the other hand, the accuracy of the focus detection result correction value is improved by acquiring the color of the subject with the image processing unit 124 of the camera body 120 and calculating information on the sensitivity of each RGB color based on the color of the subject. Can do.

本実施形態では、撮像素子122の焦点検出領域のRGB強度分布から被写体の色を推定し、推定した被写体のRGB各色の強度情報とD65光源下でのRGB各色の強度情報との比較から、被写体の色を前提としたRGB各色の感度比を算出する。例えば、被写体のRとGの強度比R/Gが、D65光源下におけるRとGの強度の比R/Gと比較して0.8倍であったとする。この場合、Rの感度比情報Sr(A)とSr(B)に0.8を乗算した値が、被写体の色情報に沿ったA像とB像のRGB各色の感度比に相当する。   In the present embodiment, the color of the subject is estimated from the RGB intensity distribution of the focus detection area of the image sensor 122, and the subject is determined by comparing the estimated intensity information of each RGB color of the subject with the intensity information of each RGB color under the D65 light source. The sensitivity ratio of each RGB color is calculated on the basis of the colors. For example, it is assumed that the R / G intensity ratio R / G of the subject is 0.8 times the R / G intensity ratio R / G under the D65 light source. In this case, the value obtained by multiplying the R sensitivity ratio information Sr (A) and Sr (B) by 0.8 corresponds to the sensitivity ratio of each of the RGB colors of the A image and the B image along the color information of the subject.

上述した各実施形態によれば、実施形態1の色毎信号補正処理(第1の補正処理)と、実施形態2の焦点検出結果補正処理(第2の補正処理)のうち少なくともいずれかを実行することによって、撮影光学系の倍率色収差に起因する焦点検出誤差を精度よく補正することができる。   According to each of the embodiments described above, at least one of the signal-by-color correction processing (first correction processing) of the first embodiment and the focus detection result correction processing (second correction processing) of the second embodiment is executed. By doing so, it is possible to accurately correct a focus detection error caused by lateral chromatic aberration of the photographing optical system.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…レンズユニット、117…レンズMPU、120…カメラ本体、122…撮像素子、125…カメラMPU、129…第1焦点検出部(撮像面位相差方式)、130…第2焦点検出部(コントラスト方式) DESCRIPTION OF SYMBOLS 100 ... Lens unit, 117 ... Lens MPU, 120 ... Camera body, 122 ... Image sensor, 125 ... Camera MPU, 129 ... 1st focus detection part (imaging surface phase difference system), 130 ... 2nd focus detection part (contrast system) )

Claims (24)

撮影光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有する撮像素子における、第1の焦点検出画素から色毎の第1の焦点検出信号を取得し、第2の焦点検出画素から色毎の第2の焦点検出信号を取得する取得手段と、
前記第1の焦点検出信号および前記第2の焦点検出信号を用いて焦点検出を行う焦点検出手段と、
前記撮影光学系の倍率色収差に起因する焦点検出誤差を補正する補正手段と、を有し、
前記補正手段は、前記焦点検出手段が焦点検出を行う際に用いる前記第1および第2の焦点検出信号に対して色毎に信号補正を行う第1の補正処理手段と、前記焦点検出手段が前記第1および第2の焦点検出信号を用いて焦点検出を行い得られた焦点ずれ量を前記撮影光学系の倍率色収差に応じて補正する第2の補正処理手段の少なくともいずれかを有することを特徴とする焦点検出装置。
A first focus detection signal for each color is acquired from a first focus detection pixel in an imaging device having a plurality of focus detection pixels that receive light beams respectively passing through different pupil partial regions of the photographing optical system, and the second Obtaining means for obtaining a second focus detection signal for each color from the focus detection pixels;
Focus detection means for performing focus detection using the first focus detection signal and the second focus detection signal;
Correction means for correcting a focus detection error caused by lateral chromatic aberration of the photographing optical system,
The correction unit includes a first correction processing unit that performs signal correction for each color on the first and second focus detection signals used when the focus detection unit performs focus detection, and the focus detection unit includes: It has at least one of the 2nd correction process means which correct | amends the amount of focus shift | offset | difference obtained by performing focus detection using the said 1st and 2nd focus detection signal according to the magnification chromatic aberration of the said imaging optical system. Feature focus detection device.
前記第1の補正処理手段は、色毎の第1の信号補正フィルタを用いて前記色毎の第1の焦点検出信号を補正し、色毎の第2の信号補正フィルタを用いて前記色毎の第2の焦点検出信号を補正し、
前記焦点検出手段は、前記補正された第1の焦点検出信号と前記第2の焦点検出信号から像ずれ量を算出し、像ずれ量を焦点ずれ量に換算することを特徴とする請求項1に記載の焦点検出装置。
The first correction processing unit corrects the first focus detection signal for each color using a first signal correction filter for each color, and uses the second signal correction filter for each color for each color. Correcting the second focus detection signal of
The focus detection unit calculates an image shift amount from the corrected first focus detection signal and the second focus detection signal, and converts the image shift amount into a focus shift amount. The focus detection apparatus described in 1.
前記第1の補正処理手段は、
前記色毎の第1の焦点検出信号と前記色毎の第2の焦点検出信号に対応する、色毎の第1の線像分布関数と色毎の第2の線像分布関数から前記色毎の第1の信号補正フィルタと前記色毎の第2の信号補正フィルタを算出するフィルタ算出手段と、
前記色毎の第1の焦点検出信号に前記色毎の第2の信号補正フィルタを畳み込み積分した後、加算することにより第1の焦点検出信号を算出し、前記色毎の第2の焦点検出信号に前記色毎の第1の信号補正フィルタを畳み込み積分した後、加算することにより第2の焦点検出信号を算出する信号補正手段と、を有することを特徴とする請求項2に記載の焦点検出装置。
The first correction processing means includes:
For each color, the first line image distribution function for each color and the second line image distribution function for each color corresponding to the first focus detection signal for each color and the second focus detection signal for each color. Filter calculating means for calculating the first signal correction filter and the second signal correction filter for each color;
The first focus detection signal for each color is convolved with the second signal correction filter for each color, and then added to calculate a first focus detection signal, whereby the second focus detection for each color is calculated. 3. The focus according to claim 2, further comprising: a signal correction unit configured to calculate a second focus detection signal by convolving and integrating the first signal correction filter for each color with the signal and then adding the signal. Detection device.
前記色毎の第1および第2の信号補正フィルタは、前記撮像素子の焦点検出領域における代表値を用いて算出されることを特徴とする請求項3に記載の焦点検出装置。   The focus detection apparatus according to claim 3, wherein the first and second signal correction filters for each color are calculated using a representative value in a focus detection region of the image sensor. 前記焦点検出領域における代表値は、前記焦点検出領域の中央の座標であることを特徴とする請求項4に記載の焦点検出装置。   The focus detection apparatus according to claim 4, wherein the representative value in the focus detection area is a coordinate in the center of the focus detection area. 前記信号補正手段による前記色毎の信号補正を行うか否かを判定する判定手段をさらに有することを特徴とする請求項3に記載の焦点検出装置。   The focus detection apparatus according to claim 3, further comprising a determination unit that determines whether to perform signal correction for each color by the signal correction unit. 前記判定手段は、前記撮影光学系の光学情報から前記色毎の信号補正を行うか否かを判定することを特徴とする請求項6に記載の焦点検出装置。   The focus detection apparatus according to claim 6, wherein the determination unit determines whether or not to perform signal correction for each color from optical information of the photographing optical system. 前記光学情報は、前記撮影光学系の倍率色収差に関する情報であることを特徴とする請求項7に記載の焦点検出装置。   The focus detection apparatus according to claim 7, wherein the optical information is information related to chromatic aberration of magnification of the photographing optical system. 前記判定手段は、前記撮像素子の設定瞳距離とレンズの射出瞳距離の差が所定の値以上の場合に前記色毎の信号補正を行うか否かを判定することを特徴とする請求項6に記載の焦点検出装置。   The determination means determines whether or not to perform signal correction for each color when the difference between the set pupil distance of the image sensor and the exit pupil distance of the lens is a predetermined value or more. The focus detection apparatus described in 1. 前記判定手段は、像高が所定の値以上の場合に前記色毎の信号補正を行うと判定することを特徴とする請求項6に記載の焦点検出装置。   The focus detection apparatus according to claim 6, wherein the determination unit determines to perform signal correction for each color when the image height is equal to or greater than a predetermined value. 前記判定手段は、前記撮影光学系の絞り値が所定の値以上の場合に前記色毎の信号補正を行うと判定することを特徴とする請求項6に記載の焦点検出装置。   The focus detection apparatus according to claim 6, wherein the determination unit determines to perform signal correction for each color when an aperture value of the photographing optical system is equal to or greater than a predetermined value. 前記第2の補正処理手段は、
前記第1および第2の焦点検出信号を用いて前記撮影光学系の焦点ずれ量を取得する第1の取得手段と、
前記撮影光学系の倍率色収差に関する情報と、前記複数の焦点検出画素における前記撮像素子に固有の各色の感度に関する情報とに基づいて焦点ずれ量の補正値を取得する第2の取得手段と、を有し、
前記補正値を用いて前記焦点ずれ量を補正することを特徴とする請求項1に記載の焦点検出装置。
The second correction processing means includes:
First acquisition means for acquiring a defocus amount of the photographing optical system using the first and second focus detection signals;
Second acquisition means for acquiring a correction value of a defocus amount based on information on chromatic aberration of magnification of the photographing optical system and information on sensitivity of each color unique to the image sensor in the plurality of focus detection pixels; Have
The focus detection apparatus according to claim 1, wherein the defocus amount is corrected using the correction value.
前記第2の補正処理手段は、前記撮影光学系のレンズの倍率色収差に応じて、前記焦点ずれ量を補正するか否かを決定することを特徴とする請求項12に記載の焦点検出装置。   The focus detection apparatus according to claim 12, wherein the second correction processing unit determines whether or not to correct the defocus amount according to a chromatic aberration of magnification of a lens of the photographing optical system. 前記撮影光学系は、ズームレンズを含み、
前記第2の補正処理手段は、前記ズームレンズのズーム状態に応じて、前記焦点ずれ量を補正するか否かを決定することを特徴とする請求項13に記載の焦点検出装置。
The photographing optical system includes a zoom lens,
The focus detection apparatus according to claim 13, wherein the second correction processing unit determines whether to correct the defocus amount according to a zoom state of the zoom lens.
前記第2の補正処理手段は、前記ズームレンズが少なくとも望遠端もしくは広角端にある場合には前記焦点ずれ量の補正を行うことを特徴とする請求項14に記載の焦点検出装置。   15. The focus detection apparatus according to claim 14, wherein the second correction processing unit corrects the defocus amount when the zoom lens is at least at a telephoto end or a wide angle end. 前記撮影光学系の倍率色収差に関する情報は、前記撮影光学系が有する記憶手段に記憶されていることを特徴とする請求項1ないし15のいずれか1項に記載の焦点検出装置。   16. The focus detection apparatus according to claim 1, wherein information relating to chromatic aberration of magnification of the photographing optical system is stored in a storage unit included in the photographing optical system. 前記撮影光学系の倍率色収差に関する情報は、特定の色もしくは波長を基準とした相対的な値であることを特徴とする請求項16に記載の焦点検出装置。   The focus detection apparatus according to claim 16, wherein the information regarding the chromatic aberration of magnification of the photographing optical system is a relative value based on a specific color or wavelength. 前記撮影光学系の倍率色収差に関する情報は、前記撮影光学系に含まれるレンズに固有の倍率色収差に関する情報であることを特徴とする請求項17に記載の焦点検出装置。   18. The focus detection apparatus according to claim 17, wherein the information on the chromatic aberration of magnification of the photographing optical system is information on the chromatic aberration of magnification inherent to a lens included in the photographing optical system. 前記撮像素子に固有の各色の感度に関する情報は、特定の光源下における各色の感度に関する情報であり、前記焦点検出装置が有する記憶手段に記憶されていることを特徴とする請求項12に記載の焦点検出装置。   13. The information regarding the sensitivity of each color unique to the image sensor is information regarding the sensitivity of each color under a specific light source, and is stored in a storage unit included in the focus detection device. Focus detection device. 前記撮像素子に固有の各色の感度に関する情報は、被写体の色に応じて前記焦点検出装置において算出されることを特徴とする請求項12に記載の焦点検出装置。   The focus detection apparatus according to claim 12, wherein the information regarding the sensitivity of each color unique to the image sensor is calculated by the focus detection apparatus according to a color of a subject. 前記撮影光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有する撮像素子と、
請求項1ないし20のいずれか1項に記載の焦点検出装置と、
前記焦点検出装置による焦点検出結果を用いて前記撮影光学系の焦点状態を調節する焦点調節手段と、を有することを特徴とする撮像装置。
An imaging device having a plurality of focus detection pixels that receive light beams respectively passing through different pupil partial regions of the imaging optical system;
The focus detection apparatus according to any one of claims 1 to 20,
An image pickup apparatus comprising: a focus adjustment unit that adjusts a focus state of the photographing optical system using a focus detection result obtained by the focus detection apparatus.
取得手段が、撮影光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の焦点検出画素を有する撮像素子における、第1の焦点検出画素から色毎の第1の焦点検出信号を取得し、第2の焦点検出画素から色毎の第2の焦点検出信号を取得するステップと、
焦点検出手段が、前記第1の焦点検出信号および前記第2の焦点検出信号を用いて焦点検出を行うステップと、
補正手段が、前記撮影光学系の倍率色収差に起因する焦点検出誤差を補正するステップと、を有し、
前記補正するステップでは、前記焦点検出を行う際に用いる前記第1および第2の焦点検出信号に対して色毎に信号補正を行う第1の補正処理と、前記焦点検出手段が前記第1および第2の焦点検出信号を用いて焦点検出を行い得られた焦点ずれ量を前記撮影光学系の倍率色収差に応じて補正する第2の補正処理の少なくともいずれかを実行することを特徴とする焦点検出方法。
An acquisition unit acquires a first focus detection signal for each color from a first focus detection pixel in an imaging device having a plurality of focus detection pixels that receive light beams respectively passing through different pupil partial regions of the photographing optical system. Obtaining a second focus detection signal for each color from the second focus detection pixels;
A focus detection unit performing focus detection using the first focus detection signal and the second focus detection signal;
A correcting unit correcting a focus detection error caused by lateral chromatic aberration of the photographing optical system,
In the correcting step, a first correction process for correcting a signal for each color with respect to the first and second focus detection signals used when performing the focus detection; The focus is characterized by executing at least one of a second correction process for correcting a defocus amount obtained by performing focus detection using the second focus detection signal in accordance with the chromatic aberration of magnification of the photographing optical system. Detection method.
請求項22に記載された焦点検出方法を、コンピュータに実行させるためのプログラム。   A program for causing a computer to execute the focus detection method according to claim 22. 請求項22に記載された焦点検出方法を、コンピュータに実行させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute the focus detection method according to claim 22.
JP2016150548A 2016-07-29 2016-07-29 Focus detectors and focus detectors, imaging devices, programs and storage media Active JP7037271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016150548A JP7037271B2 (en) 2016-07-29 2016-07-29 Focus detectors and focus detectors, imaging devices, programs and storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016150548A JP7037271B2 (en) 2016-07-29 2016-07-29 Focus detectors and focus detectors, imaging devices, programs and storage media

Publications (2)

Publication Number Publication Date
JP2018018032A true JP2018018032A (en) 2018-02-01
JP7037271B2 JP7037271B2 (en) 2022-03-16

Family

ID=61076685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016150548A Active JP7037271B2 (en) 2016-07-29 2016-07-29 Focus detectors and focus detectors, imaging devices, programs and storage media

Country Status (1)

Country Link
JP (1) JP7037271B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053959A1 (en) * 2018-09-11 2020-03-19 三菱電機株式会社 Elevator door control device
JP2022036505A (en) * 2020-08-24 2022-03-08 日本放送協会 Imaging device
CN114324423A (en) * 2021-12-24 2022-04-12 武汉联影生命科学仪器有限公司 Focus correction method, apparatus, system, computer device and readable storage medium
JP2022133983A (en) * 2021-03-02 2022-09-14 キヤノン株式会社 Imaging apparatus, computer program, and imaging method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011176714A (en) * 2010-02-25 2011-09-08 Nikon Corp Camera and image processing program
JP2014026050A (en) * 2012-07-25 2014-02-06 Olympus Corp Image capturing device and image processing device
JP2014029393A (en) * 2012-07-31 2014-02-13 Canon Inc Distance detection device
JP2014041202A (en) * 2012-08-21 2014-03-06 Nikon Corp Focus detection device and imaging device
JP2015096965A (en) * 2014-12-26 2015-05-21 株式会社ニコン Imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011176714A (en) * 2010-02-25 2011-09-08 Nikon Corp Camera and image processing program
JP2014026050A (en) * 2012-07-25 2014-02-06 Olympus Corp Image capturing device and image processing device
JP2014029393A (en) * 2012-07-31 2014-02-13 Canon Inc Distance detection device
JP2014041202A (en) * 2012-08-21 2014-03-06 Nikon Corp Focus detection device and imaging device
JP2015096965A (en) * 2014-12-26 2015-05-21 株式会社ニコン Imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053959A1 (en) * 2018-09-11 2020-03-19 三菱電機株式会社 Elevator door control device
JP2022036505A (en) * 2020-08-24 2022-03-08 日本放送協会 Imaging device
JP2022133983A (en) * 2021-03-02 2022-09-14 キヤノン株式会社 Imaging apparatus, computer program, and imaging method
JP7770775B2 (en) 2021-03-02 2025-11-17 キヤノン株式会社 Imaging device, computer program, and imaging method
CN114324423A (en) * 2021-12-24 2022-04-12 武汉联影生命科学仪器有限公司 Focus correction method, apparatus, system, computer device and readable storage medium

Also Published As

Publication number Publication date
JP7037271B2 (en) 2022-03-16

Similar Documents

Publication Publication Date Title
US11099459B2 (en) Focus adjustment device and method capable of executing automatic focus detection, and imaging optical system storing information on aberrations thereof
CN105430257B (en) Control equipment and control method
JP6682310B2 (en) Focus detection apparatus and method, and imaging apparatus
JP6478457B2 (en) Focus adjustment device and focus adjustment method
US9641769B2 (en) Image capture apparatus and method for controlling the same
US9742982B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6486288B2 (en) Imaging apparatus, control method, program, storage medium
JP6843604B2 (en) Information processing device and information processing method
US9407813B2 (en) Image capturing apparatus, control method of image capturing apparatus, and image capturing system
US10630883B2 (en) Image capturing apparatus and focus detection method
US10326924B2 (en) Focus detection apparatus and method, image capturing apparatus, and lens unit
US9485409B2 (en) Image capturing apparatus and control method therefor
JP7037271B2 (en) Focus detectors and focus detectors, imaging devices, programs and storage media
JP6890937B2 (en) Focus detector, image pickup device, and focus detection method
JP6685769B2 (en) Information processing device, imaging device, and information processing method
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP2020003686A (en) Focus detection device, imaging device, and interchangeable lens device
JP6744933B2 (en) Lens part and its control method
JP2019200348A (en) Imaging device and control method for imaging device
JP6686191B2 (en) Focus detection device, imaging device, and focus detection method
JP6548626B2 (en) Image pickup apparatus, control method for image pickup apparatus, and focus control program
JP2017106970A (en) Control device, imaging device, control method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220304

R151 Written notification of patent or utility model registration

Ref document number: 7037271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151