JP2018081289A - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM - Google Patents
IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM Download PDFInfo
- Publication number
- JP2018081289A JP2018081289A JP2016225554A JP2016225554A JP2018081289A JP 2018081289 A JP2018081289 A JP 2018081289A JP 2016225554 A JP2016225554 A JP 2016225554A JP 2016225554 A JP2016225554 A JP 2016225554A JP 2018081289 A JP2018081289 A JP 2018081289A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- imaging
- focus detection
- correction value
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Structure And Mechanism Of Cameras (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
【課題】像振れの影響を受けやすい場合においても、撮像画像の評価において良好な焦点状態が得られるようにする。【解決手段】撮像装置120は、撮像光学系の焦点状態を検出して焦点検出情報を生成する焦点検出手段129と、焦点検出情報を補正するための補正値を取得する補正値取得手段125と、補正値により補正された焦点検出情報を用いてフォーカス制御を行う制御手段125とを有する。補正値は、撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含む。撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の第1の評価帯域は、第1の露光時間が第1の所定時間より短い場合の第1の評価帯域に比べて低い。【選択図】図1An object of the present invention is to provide a favorable focus state in evaluation of a captured image even when it is easily affected by image blur. An imaging apparatus includes a focus detection unit that detects a focus state of an imaging optical system and generates focus detection information, and a correction value acquisition unit that acquires a correction value for correcting the focus detection information. And control means 125 for performing focus control using the focus detection information corrected by the correction value. The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated. The first evaluation band when the first exposure time, which is the exposure time during imaging, is longer than the first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. Low compared. [Selection] Figure 1
Description
本発明は、デジタルカメラやビデオカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera or a video camera.
撮像装置が撮像素子を焦点検出センサとして用いる自動焦点調節(AF)方式として、コントラストAFと撮像面位相差AFとがある。これらコントラストAFおよび撮像面位相差AFのいずれにおいても撮像素子を通じて生成された焦点検出用画像から焦点状態が検出されるため、検出される焦点状態が焦点検出用画像の空間周波数分布に影響を受ける。例えば、被写体の動き、手振れおよび撮像光学系の変倍動作等による像振れがある場合は、空間周波数が全体的に低域に分布する。 As an automatic focus adjustment (AF) system in which the imaging apparatus uses an imaging element as a focus detection sensor, there are contrast AF and imaging plane phase difference AF. In both the contrast AF and the imaging surface phase difference AF, the focus state is detected from the focus detection image generated through the image sensor, so that the detected focus state is affected by the spatial frequency distribution of the focus detection image. . For example, when there is image blur due to subject movement, camera shake, and zooming operation of the imaging optical system, the spatial frequency is distributed in a low range as a whole.
特許文献1には、撮像画像として最適な焦点状態とAFにおいて検出される焦点状態との差分を補正する撮像装置が開示されている。また、特許文献2には、像振れの影響を受けずにAFを行うために、像振れの変化の傾向を検出し、像振れが安定した状態でAFを行う撮像装置が開示されている。 Patent Document 1 discloses an imaging apparatus that corrects a difference between an optimal focus state as a captured image and a focus state detected in AF. Patent Document 2 discloses an imaging apparatus that detects a tendency of a change in image blur and performs AF in a state where the image blur is stable in order to perform AF without being affected by the image blur.
撮像画像として最適な焦点状態とAFにおいて検出される焦点状態との差分が生じる要因の1つとして、撮像画像の焦点状態を評価する空間周波数帯域(評価帯域)と焦点検出用画像の焦点状態を評価する評価数帯との差異が挙げられる。特に上述したように被写体の動き、手振れおよび撮像光学系の変倍動作等による像振れがあると、焦点検出用画像の空間周波数が低下し、これに伴ってAF精度が低下する。この結果、撮像画像の評価帯域と焦点検出時の評価数帯との差異が大きくなる。 The spatial frequency band (evaluation band) for evaluating the focus state of the captured image and the focus state of the focus detection image are one of the factors that cause a difference between the optimum focus state for the captured image and the focus state detected by AF. The difference from the evaluation number band to be evaluated can be mentioned. In particular, as described above, if there is image movement due to subject movement, camera shake, zooming operation of the imaging optical system, or the like, the spatial frequency of the focus detection image is lowered, and the AF accuracy is lowered accordingly. As a result, the difference between the evaluation band of the captured image and the evaluation band at the time of focus detection increases.
本発明は、像振れの影響を受けやすい場合においても、撮像画像の評価において良好な焦点状態が得られるようにした撮像装置を提供する。 The present invention provides an imaging apparatus capable of obtaining a favorable focus state in evaluation of a captured image even when it is easily affected by image blur.
本発明の一側面としての撮像装置は、撮像光学系の焦点状態を検出して焦点検出情報を生成する焦点検出手段と、焦点検出情報を補正するための補正値を取得する補正値取得手段と、補正値により補正された焦点検出情報を用いてフォーカス制御を行う制御手段とを有する。補正値は、撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含む。そして、撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の第1の評価帯域は、第1の露光時間が第1の所定時間より短い場合の第1の評価帯域に比べて低いことを特徴とする。 An imaging apparatus according to an aspect of the present invention includes a focus detection unit that detects a focus state of an imaging optical system and generates focus detection information, and a correction value acquisition unit that acquires a correction value for correcting the focus detection information. And control means for performing focus control using the focus detection information corrected by the correction value. The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated. The first evaluation band when the first exposure time that is the exposure time at the time of imaging is longer than the first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. It is characterized by being lower than the bandwidth.
また、本発明の他の一側面としての撮像装置は、撮像光学系の焦点状態を検出して焦点検出情報を生成する焦点検出手段と、焦点検出情報を補正するための補正値を取得する補正値取得手段と、補正値により補正された焦点検出情報を用いてフォーカス制御を行う制御手段とを有する。補正値は、撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含む。そして、撮像時における像振れ量である第1の像振れ量が第1の所定量より大きい場合の第1の評価帯域は、第1の像振れ量が第1の所定量より小さい場合の第1の評価帯域に比べて低いことを特徴とする。 An imaging apparatus according to another aspect of the present invention includes a focus detection unit that detects a focus state of an imaging optical system and generates focus detection information, and a correction that acquires a correction value for correcting the focus detection information. A value acquisition unit, and a control unit that performs focus control using the focus detection information corrected by the correction value. The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated. The first evaluation band when the first image blur amount, which is the image blur amount at the time of imaging, is larger than the first predetermined amount is the first evaluation band when the first image blur amount is smaller than the first predetermined amount. It is characterized by being lower than the evaluation band of 1.
また、本発明の他の一側面としての制御方法は、撮像光学系の焦点状態を検出して焦点検出情報を生成する焦点検出手段を有する撮像装置に適用される。該制御方法は、焦点検出情報を補正するための補正値を取得するステップと、補正値により補正された焦点検出情報を用いてフォーカス制御を行うステップとを有する。補正値は、撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含む。そして、撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の第1の評価帯域は、第1の露光時間が第1の所定時間より短い場合の第1の評価帯域に比べて低いことを特徴とする。 A control method according to another aspect of the present invention is applied to an imaging apparatus having a focus detection unit that detects a focus state of an imaging optical system and generates focus detection information. The control method includes a step of obtaining a correction value for correcting the focus detection information, and a step of performing focus control using the focus detection information corrected by the correction value. The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated. The first evaluation band when the first exposure time that is the exposure time at the time of imaging is longer than the first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. It is characterized by being lower than the bandwidth.
また、本発明の他の一側面としての制御方法は、撮像光学系の焦点状態を検出して焦点検出情報を生成する焦点検出手段を有する撮像装置に適用される。該制御方法は、焦点検出情報を補正するための補正値を取得するステップと、補正値により補正された焦点検出情報を用いてフォーカス制御を行うステップとを有する。補正値は、撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含む。そして、撮像時における像振れ量である第1の像振れ量が第1の所定量より大きい場合の第1の評価帯域は、第1の像振れ量が第1の所定量より小さい場合の第1の評価帯域に比べて低いことを特徴とする。 A control method according to another aspect of the present invention is applied to an imaging apparatus having a focus detection unit that detects a focus state of an imaging optical system and generates focus detection information. The control method includes a step of obtaining a correction value for correcting the focus detection information, and a step of performing focus control using the focus detection information corrected by the correction value. The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated. The first evaluation band when the first image blur amount, which is the image blur amount at the time of imaging, is larger than the first predetermined amount is the first evaluation band when the first image blur amount is smaller than the first predetermined amount. It is characterized by being lower than the evaluation band of 1.
なお、上記制御方法に応じた処理を撮像装置のコンピュータに実行させるコンピュータプログラムとしてのフォーカス制御プログラムも、本発明の他の一側面を構成する。 Note that a focus control program as a computer program that causes the computer of the imaging apparatus to execute processing according to the control method also constitutes another aspect of the present invention.
本発明によれば、像振れの影響を受けやすい場合でも撮像画像の評価において良好な焦点状態を得ることができる。 According to the present invention, it is possible to obtain a good focus state in evaluation of a captured image even when it is easily affected by image blur.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図2には、本発明の実施例1である撮像装置としてのレンズ交換式一眼レフカメラ(以下、カメラ本体という)120の構成を示している。カメラ本体120には、図中に点線で示すマウントMを介してレンズユニット100が取り外し可能に装着されている。 FIG. 2 shows a configuration of a lens-interchangeable single-lens reflex camera (hereinafter referred to as a camera body) 120 as an image pickup apparatus that is Embodiment 1 of the present invention. The lens unit 100 is detachably mounted on the camera body 120 via a mount M indicated by a dotted line in the drawing.
レンズユニット100は、第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)104により構成される差英光学系と、レンズ駆動/制御系とを有する。撮像光学系は、被写体の光学像を形成する。 The lens unit 100 includes a first optical group 101, an aperture 102, a second lens group 103, a focus lens group (hereinafter simply referred to as “focus lens”) 104, a lens drive / control system, Have The imaging optical system forms an optical image of the subject.
第1レンズ群101は、レンズユニット100のうち最も被写体側に配置され、光軸OAが延びる光軸方向に移動可能に保持されている。絞り102は、光量を調節する機能のほか、静止画撮像時に露出時間を制御するメカニカルシャッタとしても機能する。絞り102および第2レンズ群103は、一体で光軸方向に移動可能であり、第1レンズ群101と連動して移動することにより変倍(ズーム)を行う。フォーカスレンズ104は光軸方向に移動可能であり、その位置に応じて撮像光学系が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向における位置を制御することにより、撮像光学系の合焦距離を調節するフォーカス制御(AF)を行うことができる。 The first lens group 101 is disposed on the most object side of the lens unit 100 and is held so as to be movable in the optical axis direction in which the optical axis OA extends. The diaphragm 102 functions as a mechanical shutter that controls the exposure time when capturing a still image, in addition to the function of adjusting the amount of light. The aperture 102 and the second lens group 103 are integrally movable in the optical axis direction, and perform zooming by moving in conjunction with the first lens group 101. The focus lens 104 is movable in the optical axis direction, and the subject distance (focusing distance) at which the imaging optical system is focused changes according to the position. By controlling the position of the focus lens 104 in the optical axis direction, focus control (AF) for adjusting the in-focus distance of the imaging optical system can be performed.
レンズ駆動/制御系は、ズームアクチュエータ111、絞りアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞り絞り駆動回路115、フォーカス駆動回路116、レンズMPU117およびレンズメモリ118を含む。ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101および第3レンズ群103を光軸方向に駆動して変倍を行わせる。絞り駆動回路115は、絞りアクチュエータ112を用いて絞り102を駆動し、絞り102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向に駆動して焦点調節を行わせる。また、フォーカス駆動回路116は、フォーカスアクチュエータ113の駆動量を検出してフォーカスレンズ104の現在位置を検出する。 The lens driving / control system includes a zoom actuator 111, an aperture actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture stop drive circuit 115, a focus drive circuit 116, a lens MPU 117, and a lens memory 118. The zoom drive circuit 114 uses the zoom actuator 111 to drive the first lens group 101 and the third lens group 103 in the optical axis direction to perform zooming. The diaphragm drive circuit 115 drives the diaphragm 102 using the diaphragm actuator 112 and controls the aperture diameter and opening / closing operation of the diaphragm 102. The focus drive circuit 116 uses the focus actuator 113 to drive the focus lens 104 in the optical axis direction to perform focus adjustment. The focus driving circuit 116 detects the current position of the focus lens 104 by detecting the driving amount of the focus actuator 113.
レンズMPU(マイクロプロセッサ)117は、レンズユニット100に関わる演算および制御を行い、ズーム駆動回路114、絞り駆動回路115およびフォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMを通じてカメラ本体120内のカメラMPU125と電気的に接続され、各種コマンドやデータをカメラMPU125との間で通信する。例えば、レンズMPU117は、カメラMPU125からの要求に応じて、レンズ位置情報をカメラMPU125に送信する。レンズ位置情報は、フォーカスレンズ104の光軸方向での位置、静止状態にある撮像光学系の射出瞳の光軸方向での位置や直径、射出瞳の光束を制限するレンズ保持枠の光軸方向での位置や直径等の情報を含む。また、レンズMPU117は、カメラMPU125からの制御コマンドに応じて、ズーム駆動回路114、絞り駆動回路115およびフォーカス駆動回路116を制御する。 A lens MPU (microprocessor) 117 performs calculation and control related to the lens unit 100 and controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116. The lens MPU 117 is electrically connected to the camera MPU 125 in the camera body 120 through the mount M, and communicates various commands and data with the camera MPU 125. For example, the lens MPU 117 transmits lens position information to the camera MPU 125 in response to a request from the camera MPU 125. The lens position information includes the position of the focus lens 104 in the optical axis direction, the position and diameter of the exit pupil of the imaging optical system in a stationary state in the optical axis direction, and the optical axis direction of the lens holding frame that restricts the luminous flux of the exit pupil. Includes information such as position and diameter. The lens MPU 117 controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116 in accordance with a control command from the camera MPU 125.
レンズメモリ118は、AFに必要な光学情報が予め記憶されている。カメラMPU125は、内蔵する不揮発性メモリやレンズメモリ118等に記憶されているプログラムを実行することでレンズユニット100の動作を制御する。カメラMPU125は、補正値取得手段および制御手段として機能する。 The lens memory 118 stores optical information necessary for AF in advance. The camera MPU 125 controls the operation of the lens unit 100 by executing a program stored in a built-in nonvolatile memory, the lens memory 118, or the like. The camera MPU 125 functions as a correction value acquisition unit and a control unit.
カメラ本体120は、光学ローパスフィルタ121および撮像素子122を含む撮像部と、カメラ駆動/制御系とを有する。レンズユニット100内の撮像光学系とカメラ本体120における撮像部とを併せて撮像光学系として扱ってもよい。光学ローパスフィルタ121は、撮像画像に生ずる偽色やモアレを軽減するためのフィルタである。撮像素子122は、CMOSイメージセンサとその周辺回路により構成され、水平方向に複数画素であるm画素を有するとともに垂直方向に複数画素であるn画素とを有する。撮像素子122は、被写体像を光電変換して、撮像画像やコントラストAF(TVAF)用画像の生成に用いられる電気信号(撮像信号)を出力する。また、撮像素子122は、瞳分割機能を有し、この瞳分割機能を利用して位相差AF用画像の生成に用いられる電気信号(位相差像信号)を出力することができる。撮像素子122の瞳分割機能については後述する。 The camera body 120 includes an imaging unit including an optical low-pass filter 121 and an imaging element 122, and a camera drive / control system. The imaging optical system in the lens unit 100 and the imaging unit in the camera body 120 may be combined and handled as an imaging optical system. The optical low-pass filter 121 is a filter for reducing false colors and moire generated in a captured image. The image sensor 122 includes a CMOS image sensor and its peripheral circuits, and has m pixels that are a plurality of pixels in the horizontal direction and n pixels that are a plurality of pixels in the vertical direction. The image sensor 122 photoelectrically converts the subject image and outputs an electrical signal (imaging signal) used to generate a captured image or a contrast AF (TVAF) image. In addition, the image sensor 122 has a pupil division function, and can output an electrical signal (phase difference image signal) used for generating a phase difference AF image by using the pupil division function. The pupil division function of the image sensor 122 will be described later.
カメラ駆動/制御系は、センサ駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127、メモリ128、位相差AF部129およびTVAF部130を含む。センサ駆動回路123は、撮像素子122の駆動を制御するとともに、撮像素子122から出力されたアナログ電気信号をA/D変換してデジタル信号を生成し、該デジタル信号(画像データ)をカメラMPU125および画像処理回路124に出力する。画像処理部124は、入力された画像データに対して、γ変換、ホワイトバランス、色補間および圧縮符号化等の画像処理を行って撮像画像を生成したり、TVAF)用画像や位相差AF用画像を生成したりする。 The camera drive / control system includes a sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group 127, a memory 128, a phase difference AF unit 129, and a TVAF unit 130. The sensor drive circuit 123 controls the drive of the image sensor 122, A / D converts the analog electric signal output from the image sensor 122, generates a digital signal, and the digital signal (image data) is converted into the camera MPU 125 and The image is output to the image processing circuit 124. The image processing unit 124 performs image processing such as γ conversion, white balance, color interpolation, and compression coding on the input image data to generate a captured image, or a TVAF) image or a phase difference AF. Or generate an image.
カメラMPU(マイクロプロセッサ)125は、カメラ本体120に関わる各種演算を行うとともに、センサ駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、位相差AF部129およびTVAF部130を制御する。カメラMPU125は、前述したようにマウントMを介してレンズMPU117と電気的に接続されてレンズMPU117との間で通信を行う。カメラMPU125は、レンズMPU117に対して、レンズ位置情報の取得要求、絞り、フォーカスおよびズーム駆動要求、光学情報の取得要求等を送信する。カメラMPU125には、プログラムを格納したROM125a、変数を記憶するRAM125bおよび各種パラメータを記憶するEEPROM125cが内蔵されている。 The camera MPU (microprocessor) 125 performs various calculations related to the camera body 120, and also includes a sensor driving circuit 123, an image processing circuit 124, a display 126, an operation switch group 127, a memory 128, a phase difference AF unit 129, and a TVAF unit. 130 is controlled. As described above, the camera MPU 125 is electrically connected to the lens MPU 117 via the mount M and communicates with the lens MPU 117. The camera MPU 125 transmits to the lens MPU 117 an acquisition request for lens position information, an aperture, focus and zoom drive request, an acquisition request for optical information, and the like. The camera MPU 125 includes a ROM 125a that stores programs, a RAM 125b that stores variables, and an EEPROM 125c that stores various parameters.
表示器126は、LCD等により構成され、撮像モードに関する情報、撮像前のライブビュー画像や合焦状態表示画像、さらに撮像後の確認用画像等を表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮像トリガ)スイッチ、ズーム操作スイッチ、撮像モード選択スイッチ等を含む。メモリ128は、カメラ本体120に対して着脱可能なフラッシュメモリであり、撮像済み画像を記録する。 The display 126 is configured by an LCD or the like, and displays information related to the imaging mode, a live view image before focusing, a focused state display image, a confirmation image after imaging, and the like. The operation switch group 127 includes a power switch, a release (imaging trigger) switch, a zoom operation switch, an imaging mode selection switch, and the like. The memory 128 is a flash memory that can be attached to and detached from the camera body 120 and records captured images.
焦点検出手段としての位相差AF部129は、画像処理回路124により生成された位相差AF用画像を用いて位相差AFを行う。具体的には、位相差AF部129は、位相差AF用画像から被写体の同一領域に対応する対の位相差画像を取得し、該対の位相差画像間のずれ量(位相差)に基づいて、撮像光学系の焦点状態を示す焦点検出情報としてのデフォーカス量を算出する。この位相差AF部129の動作については後に詳述する。もう1つの焦点検出手段としてのTVAF部130は、画像処理回路124より生成されたTVAF用画像のコントラスト状態(つまりは撮像光学系の焦点状態)を示す焦点検出情報としてのコントラスト評価値を生成する。そして、該コントラスト評価値を最大に近づけるためのフォーカスレンズ104の移動方向と移動量を算出する。本実施例では、撮像面位相差AFとTVAFを状況に応じて選択的に使用したり組み合わせて使用したりすることができる。 A phase difference AF unit 129 serving as a focus detection unit performs phase difference AF using the phase difference AF image generated by the image processing circuit 124. Specifically, the phase difference AF unit 129 obtains a pair of phase difference images corresponding to the same area of the subject from the phase difference AF image, and based on the shift amount (phase difference) between the pair of phase difference images. Thus, a defocus amount is calculated as focus detection information indicating the focus state of the imaging optical system. The operation of the phase difference AF unit 129 will be described in detail later. The TVAF unit 130 as another focus detection unit generates a contrast evaluation value as focus detection information indicating the contrast state of the TVAF image generated by the image processing circuit 124 (that is, the focus state of the imaging optical system). . Then, a moving direction and a moving amount of the focus lens 104 for making the contrast evaluation value close to the maximum are calculated. In this embodiment, the imaging surface phase difference AF and TVAF can be selectively used or combined in accordance with the situation.
位相差AF部129およびTVAF部130が行う処理についてさらに詳しく説明する。まず撮像素子122の構成について説明する。図3(A)は、2次元C−MOSエリアセンサとしての撮像素子122の垂直(Y方向)6行および水平(X方向)8列の範囲の画素配列を撮像光学系側から見て示している。撮像素子122にはベイヤー配列のカラーフィルタが設けられており、奇数行の画素211には左から順に緑(G)と赤(R)のカラーフィルタが交互に設けられ、偶数行の画素211には左から順に青(B)と緑(G)のカラーフィルタが交互に設けられている。円で描かれた211iはオンチップマイクロレンズ(以下、単にマイクロレンズという)を示す。マイクロレンズ211iの内側に2つの矩形で描かれた211a,211bは光電変換部である。 Processing performed by the phase difference AF unit 129 and the TVAF unit 130 will be described in more detail. First, the configuration of the image sensor 122 will be described. FIG. 3A shows a pixel arrangement in a range of 6 rows in the vertical direction (Y direction) and 8 columns in the horizontal direction (X direction) of the imaging device 122 as a two-dimensional C-MOS area sensor as viewed from the imaging optical system side. Yes. The image sensor 122 is provided with a Bayer array color filter, and the odd-numbered pixels 211 are alternately provided with green (G) and red (R) color filters in order from the left. Are provided with blue (B) and green (G) color filters alternately from the left. 211i drawn in a circle indicates an on-chip microlens (hereinafter simply referred to as a microlens). 211a and 211b drawn in two rectangles inside the micro lens 211i are photoelectric conversion units.
すべての画素211において光電変換部211a,211bがX方向に2分割されており、該2分割された光電変換部211a,211bのうち一方から出力される光電変換信号と両方から出力される光電変換信号の和とを独立して読み出すことができる。両方の光電変換部211a,211bからの光電変換信号の和から一方の光電変換部からの光電変換信号を差し引くことで、他方の光電変換部から出力される光電変換信号に相当する信号を得ることができる。一方および他方の光電変換信号は、撮像面位相差AFにおける対の位相差像信号(位相差AF用画像)の生成に用いられるほか、被写体距離の演算や互いに視差を有する対の視差画像の生成にも用いられる。また、両方の光電変換信号の和は、TVAF用画像および通常の撮像画像を生成するための撮像信号として用いられる。 In all the pixels 211, the photoelectric conversion units 211a and 211b are divided into two in the X direction, and the photoelectric conversion signal output from one of the two divided photoelectric conversion units 211a and 211b and the photoelectric conversion output from both of them. The sum of the signals can be read out independently. By subtracting the photoelectric conversion signal from one photoelectric conversion unit from the sum of the photoelectric conversion signals from both photoelectric conversion units 211a and 211b, a signal corresponding to the photoelectric conversion signal output from the other photoelectric conversion unit is obtained. Can do. The one and the other photoelectric conversion signals are used for generating a pair of phase difference image signals (images for phase difference AF) in imaging plane phase difference AF, as well as calculating a subject distance and generating a pair of parallax images having parallax with each other. Also used for. The sum of both photoelectric conversion signals is used as an imaging signal for generating a TVAF image and a normal captured image.
ここで、位相差AFにおいて用いられる焦点検出用画素としての各画素211の瞳分割機能と対の位相差像信号の生成について説明する。各画素211において、光電変換部211a,211bはそれぞれ、マイクロレンズ211iに対してX方向における互いに異なる側に偏って配置されている。このため、光電変換部211a,211bは、被写体の同一領域からの光束が通過する撮像光学系の射出瞳のうち互いに異なる領域からの光束をマイクロレンズ211iを通して受光する。これにより、瞳分割が行われる。 Here, generation of a phase difference image signal paired with the pupil division function of each pixel 211 as a focus detection pixel used in phase difference AF will be described. In each pixel 211, the photoelectric conversion units 211a and 211b are arranged so as to be biased toward different sides in the X direction with respect to the microlens 211i. For this reason, the photoelectric conversion units 211a and 211b receive light beams from different regions of the exit pupil of the imaging optical system through which light beams from the same region of the subject pass through the microlenses 211i. Thereby, pupil division is performed.
また、同一行に配置された所定範囲内の複数の画素211の光電変換部211aからの光電変換信号を繋ぎ合わせて生成した信号をA像信号とし、光電変換部211bからの光電変換信号を繋ぎ合わせて生成した信号をB像信号とする。前述したように光電変換部211bからの光電変換信号は、光電変換部211a,211bからの光電変換信号の和から光電変換部211aからの光電変換信号を差し引いた信号である。これらA像信号とB像信号が対の位相差像信号である。なお、A像およびB像信号は、カラーフィルタの1ベイヤー配列単位に含まれるRGGBの4画素からの光電変換信号を加算して得られる疑似的な輝度信号を繋ぎ合わせることで生成してもよいし、RGBの色ごとに光電変換信号を繋ぎ合わせることで生成してもよい。 In addition, a signal generated by connecting the photoelectric conversion signals from the photoelectric conversion units 211a of the plurality of pixels 211 within a predetermined range arranged in the same row is used as an A image signal, and the photoelectric conversion signals from the photoelectric conversion unit 211b are connected. The signal generated together is defined as a B image signal. As described above, the photoelectric conversion signal from the photoelectric conversion unit 211b is a signal obtained by subtracting the photoelectric conversion signal from the photoelectric conversion unit 211a from the sum of the photoelectric conversion signals from the photoelectric conversion units 211a and 211b. These A image signal and B image signal are a pair of phase difference image signals. The A image and B image signals may be generated by connecting pseudo luminance signals obtained by adding photoelectric conversion signals from four RGGB pixels included in one Bayer array unit of the color filter. However, it may be generated by connecting photoelectric conversion signals for each RGB color.
このようにして生成されるA像信号とB像信号に対して相関演算を行うことで、該A像信号とB像信号の相対的なずれ量である位相差を算出することができる。そして、該位相差から、撮像素子122上に形成された被写体像(つまりは撮像光学系)のデフォーカス量を算出することで位相差検出方式の焦点検出、つまりは位相差AFを行うことができる。 By performing a correlation operation on the A image signal and the B image signal generated in this way, a phase difference that is a relative shift amount between the A image signal and the B image signal can be calculated. The focus detection of the phase difference detection method, that is, phase difference AF can be performed by calculating the defocus amount of the subject image (that is, the imaging optical system) formed on the image sensor 122 from the phase difference. it can.
本実施例では、演算負荷の軽減、位相差像信号のS/Nの改善および出力画像サイズに合わせること等を目的として、上記所定範囲内の複数の画素からの出力を後述する方法で加算してA像およびB像信号を生成する。 In the present embodiment, the outputs from a plurality of pixels within the predetermined range are added by the method described later for the purpose of reducing the computation load, improving the S / N of the phase difference image signal, and adjusting the output image size. To generate A image and B image signals.
図3(B)は、撮像素子122に設けられた読出し部の構成を示している。151は水平走査回路であり、153は垂直走査回路である。各画素の間には、水平走査ライン152a,152bと垂直走査ライン154a,154bが配線され、各光電変換部からの光電変換信号はこれらの走査ラインを介して水平走査回路151および垂直走査回路153により読み出される。 FIG. 3B illustrates a configuration of a reading unit provided in the image sensor 122. 151 is a horizontal scanning circuit, and 153 is a vertical scanning circuit. Between each pixel, horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired, and photoelectric conversion signals from the respective photoelectric conversion units are passed through these scanning lines through the horizontal scanning circuit 151 and the vertical scanning circuit 153. Is read.
図4(A)は、撮像光学系の射出瞳102と撮像素子122のうち像高0付近(像面の中央近傍)に配置された画素211の光電変換部211a,211bとの共役関係を示している。射出瞳102と光電変換部211a,211bとは、マイクロレンズ211iによって共役な関係となっている。一般に、撮像光学系の射出瞳の位置(射出瞳面)は光量調節用の虹彩絞り(例えば図2に示す絞り102)が配置される面とほぼ一致する。図2に示した交換レンズ100の撮像光学系のように変倍機能を有するズームレンズでは、ズーミングによって像面からの射出瞳102の距離(以下、射出瞳距離という)や射出瞳102の大きさが変化する場合がある。図4(A)に示した撮像光学系は、焦点距離が広角端と望遠端の中間(Middle)である状態を示している。これを標準的な射出瞳距離Zepと仮定して、マイクロレンズ211iの形状や像高(X、Y座標)に応じたマイクロレンズ211iの偏心パラメータが設定される。 FIG. 4A shows the conjugate relationship between the exit pupil 102 of the imaging optical system and the photoelectric conversion units 211a and 211b of the pixel 211 disposed near the image height 0 (near the center of the image plane) of the imaging element 122. ing. The exit pupil 102 and the photoelectric conversion units 211a and 211b have a conjugate relationship by the microlens 211i. In general, the position of the exit pupil (exit pupil plane) of the imaging optical system substantially coincides with the plane on which the iris diaphragm for adjusting the light amount (for example, the diaphragm 102 shown in FIG. 2) is arranged. In a zoom lens having a zooming function like the imaging optical system of the interchangeable lens 100 shown in FIG. 2, the distance of the exit pupil 102 from the image plane (hereinafter referred to as the exit pupil distance) and the size of the exit pupil 102 by zooming. May change. The imaging optical system shown in FIG. 4A shows a state where the focal length is intermediate between the wide angle end and the telephoto end. Assuming this as a standard exit pupil distance Zep, the eccentric parameter of the microlens 211i is set in accordance with the shape and image height (X, Y coordinates) of the microlens 211i.
図4(A)において、101は撮像光学系に含まれる第1レンズ群であり、101bは第1レンズ群101を保持する鏡筒部材である。105は第3レンズ群であり、105bは第3レンズ群105を保持する鏡筒部材である。絞り102において、102aは絞り102の開放開口径を設定する開口板である。102bは絞り102の絞り開口径を調節するための絞り羽根である。撮像光学系を通過する光束を制限する制限部材として作用する鏡筒部材101b、開口板102a、絞り羽根102bおよび鏡筒部材105bは、像面から見た場合の光学的な虚像を示している。また、絞り102の近傍における合成開口を撮像光学系の射出瞳102と定義し、この射出瞳102から像面までの距離を上述した射出瞳距離Zepと定義する。 4A, reference numeral 101 denotes a first lens group included in the imaging optical system, and reference numeral 101b denotes a lens barrel member that holds the first lens group 101. Reference numeral 105 denotes a third lens group, and reference numeral 105 b denotes a lens barrel member that holds the third lens group 105. In the diaphragm 102, 102 a is an aperture plate that sets an open aperture diameter of the diaphragm 102. Reference numeral 102 b denotes a diaphragm blade for adjusting the aperture diameter of the diaphragm 102. The lens barrel member 101b, the aperture plate 102a, the aperture blade 102b, and the lens barrel member 105b, which act as limiting members that limit the light beam passing through the imaging optical system, show optical virtual images when viewed from the image plane. The synthetic aperture in the vicinity of the stop 102 is defined as the exit pupil 102 of the imaging optical system, and the distance from the exit pupil 102 to the image plane is defined as the exit pupil distance Zep described above.
図4(A)に示すように、画素211は、その最下層側から順に、光電変換部211a,211bと、複数の配線層211e〜211gと、カラーフィルタ211hと、マイクロレンズ211iとが配置されて構成されている。2つの光電変換部211a,211bは、マイクロレンズ211iによって撮像光学系の射出瞳面に投影される。言い換えれば、撮像光学系の射出瞳102が、マイクロレンズ211iを介して光電変換部211a,211bの表面に投影される。 As shown in FIG. 4A, in the pixel 211, photoelectric conversion units 211a and 211b, a plurality of wiring layers 211e to 211g, a color filter 211h, and a microlens 211i are arranged in this order from the bottom layer side. Configured. The two photoelectric conversion units 211a and 211b are projected onto the exit pupil plane of the imaging optical system by the microlens 211i. In other words, the exit pupil 102 of the imaging optical system is projected onto the surfaces of the photoelectric conversion units 211a and 211b via the microlens 211i.
図4(B)は、撮像光学系の射出瞳面上における光電変換部211a,211bの投影像EP1a,EP1bを示している。図4(A)において撮像光学系を通過する光束のうち最も外側の光線群をLとすると、該最外光線群Lは絞り102の開口板102aによって制限されている。図4(B)では、最外光線群LをTLで示している。TLで示す円の内側に光電変換部211a,211bの投影像EP1a,EP1bの大部分が含まれていることから、投影像EP1a,EP1bには撮像光学系によるケラレがほとんど発生していないことが分かる。最外光線群TLは絞り102の開口板102aのみによって制限されているため、最外光線群TLの径は開口板102aの開口径に相当する。この際、像面の中央近傍では投影像EP1a,EP1bのわずかなケラレも光軸に対して対称に発生しているため、光電変換部211a,211bが受光する光量は等しい。 FIG. 4B shows projection images EP1a and EP1b of the photoelectric conversion units 211a and 211b on the exit pupil plane of the imaging optical system. In FIG. 4A, if the outermost light beam group among the light beams passing through the imaging optical system is L, the outermost light beam group L is limited by the aperture plate 102 a of the stop 102. In FIG. 4B, the outermost ray group L is indicated by TL. Since most of the projection images EP1a and EP1b of the photoelectric conversion units 211a and 211b are included inside the circle indicated by TL, the projection images EP1a and EP1b may hardly have vignetting due to the imaging optical system. I understand. Since the outermost ray group TL is limited only by the aperture plate 102a of the diaphragm 102, the diameter of the outermost ray group TL corresponds to the aperture diameter of the aperture plate 102a. At this time, slight vignetting of the projected images EP1a and EP1b occurs symmetrically with respect to the optical axis in the vicinity of the center of the image plane, so that the light amounts received by the photoelectric conversion units 211a and 211b are equal.
位相差AFを行うカメラMPU125は、撮像素子122から上述した光電変換部211a,211bのうち一方から出力される光電変換信号と両方から出力される光電変換信号の和とが読み出されるようにセンサ駆動回路123を制御する。カメラMPU125は、撮像範囲内の焦点検出領域の位置や大きさに関する情報を画像処理回路124に与える。そして、画像処理回路124に対して、焦点検出領域内に含まれる画素の光電変換信号を用いてA像およびB像信号(位相差AF用画像)を生成して位相差AF部129に供給するよう指示する。焦点検出領域については後述する。画像処理回路124は、この指示に従ってA像およびB像信号を生成して位相差AF部129に出力する。また、画像処理回路124は、TVAF用画像としてのRAW画像を生成してTVAF部130に供給する。 The camera MPU 125 that performs phase difference AF is sensor-driven so that the photoelectric conversion signal output from one of the photoelectric conversion units 211a and 211b described above from the image sensor 122 and the sum of the photoelectric conversion signals output from both are read out. The circuit 123 is controlled. The camera MPU 125 gives information about the position and size of the focus detection area within the imaging range to the image processing circuit 124. Then, the image processing circuit 124 generates A image and B image signals (phase difference AF images) using the photoelectric conversion signals of the pixels included in the focus detection region, and supplies the A image and B image signals to the phase difference AF unit 129. Instruct. The focus detection area will be described later. In accordance with this instruction, the image processing circuit 124 generates A image and B image signals and outputs them to the phase difference AF unit 129. The image processing circuit 124 generates a RAW image as a TVAF image and supplies the RAW image to the TVAF unit 130.
なお、ここでは例として1画素内の光電変換部を水平方向に2分割して射出瞳を水平方向に2分割する場合を示したが、撮像素子の一部の1画素内の光電変換部を垂直方向に2分割して射出瞳を垂直方向に2分割してもよい。また、1画素内に水平および垂直方向のそれぞれに2分割された4つの光電変換部を設けて射出瞳を水平および垂直方向に分割してもよい。垂直方向にも瞳分割を行うことにより、水平方向だけでなく垂直方向の被写体のコントラストを利用した位相差AFが可能となる。 Here, as an example, the case where the photoelectric conversion unit in one pixel is divided into two in the horizontal direction and the exit pupil is divided into two in the horizontal direction is shown, but the photoelectric conversion unit in one pixel of a part of the imaging element is shown. The exit pupil may be divided into two in the vertical direction by dividing into two in the vertical direction. Further, four photoelectric conversion units divided into two in the horizontal and vertical directions may be provided in one pixel, and the exit pupil may be divided in the horizontal and vertical directions. By performing pupil division also in the vertical direction, phase difference AF using the contrast of the subject in the vertical direction as well as the horizontal direction can be performed.
次に、図5を用いてコントラストAF(TVAF)について説明する。TVAFでは、カメラMPU125とTVAF部130とが連携してフォーカスレンズ104の駆動とコントラスト評価値(以下、AF評価値という)の算出とを繰り返し行う。画像処理回路124からRAW画像がTVAF部130に入力されると、AF評価信号処理回路401は、RAW画像に対して、G信号の抽出と、低輝度成分を強調して高輝度成分を抑圧するガンマ補正処理とを行う。本実施例では、G信号を用いてTVAFを行う場合について説明するが、RGBの全ての信号を用いてもよい。また、RGBの信号を全て加算した信号を用いてもよい。これらいずれの場合も、以下の説明では、AF評価信号処理回路401で生成される信号を輝度信号Yという。 Next, contrast AF (TVAF) will be described with reference to FIG. In TVAF, the camera MPU 125 and the TVAF unit 130 cooperate to repeatedly drive the focus lens 104 and calculate a contrast evaluation value (hereinafter referred to as AF evaluation value). When a RAW image is input from the image processing circuit 124 to the TVAF unit 130, the AF evaluation signal processing circuit 401 suppresses the high luminance component by extracting the G signal and enhancing the low luminance component with respect to the RAW image. Perform gamma correction processing. In this embodiment, the case where TV AF is performed using a G signal will be described, but all RGB signals may be used. Alternatively, a signal obtained by adding all RGB signals may be used. In any of these cases, a signal generated by the AF evaluation signal processing circuit 401 is referred to as a luminance signal Y in the following description.
カメラMPU125は、領域設定回路413に対して焦点検出領域の位置および大きさを設定する。領域設定回路413は、設定された焦点検出領域内の光電変換信号を選択するゲート信号を生成する。ゲート信号は、ラインピーク検出回路402、水平積分回路403、ライン最小値検出回路404、ラインピーク検出回路409、垂直積分回路406、410および垂直ピーク検出回路405,407,411のそれぞれに入力される。また、カメラMPU125は、以下に説明する種々のAF評価値が焦点検出領域内で得られた輝度信号Yを用いて生成されるように、輝度信号Yが上記各回路に入力されるタイミングを制御する。領域設定回路413は、複数の焦点検出領域を設定してもよい。以下、AF評価値としてのYピーク評価値、Y積分評価値、Max−Min評価値、全ライン積分評価値および領域ピーク評価値の生成方法について説明する。まず、Yピーク評価値の算出方法について説明する。ガンマ補正された輝度信号Yはラインピーク検出回路402に入力され、ここで領域設定回路413に設定された焦点検出領域内の水平ラインごとの輝度信号Yのピーク値であるYラインピーク値が求められる。ラインピーク検出回路402の出力が垂直ピーク検出回路405において焦点検出領域内で垂直方向にピークホールドされることで、Yピーク評価値が生成される。Yピーク評価値は、高輝度被写体や低照度被写体の判定に有効な指標となる。 The camera MPU 125 sets the position and size of the focus detection area with respect to the area setting circuit 413. The area setting circuit 413 generates a gate signal for selecting a photoelectric conversion signal in the set focus detection area. The gate signal is input to each of the line peak detection circuit 402, the horizontal integration circuit 403, the line minimum value detection circuit 404, the line peak detection circuit 409, the vertical integration circuits 406 and 410, and the vertical peak detection circuits 405, 407, and 411. . In addition, the camera MPU 125 controls the timing at which the luminance signal Y is input to each circuit so that various AF evaluation values described below are generated using the luminance signal Y obtained in the focus detection area. To do. The area setting circuit 413 may set a plurality of focus detection areas. Hereinafter, a method for generating a Y peak evaluation value, an Y integral evaluation value, a Max-Min evaluation value, an all-line integral evaluation value, and a region peak evaluation value as AF evaluation values will be described. First, a method for calculating the Y peak evaluation value will be described. The gamma-corrected luminance signal Y is input to the line peak detection circuit 402, where the Y line peak value, which is the peak value of the luminance signal Y for each horizontal line in the focus detection area set in the area setting circuit 413, is obtained. It is done. The output of the line peak detection circuit 402 is peak-held in the vertical direction within the focus detection area in the vertical peak detection circuit 405, thereby generating a Y peak evaluation value. The Y peak evaluation value is an effective index for determining a high brightness subject or a low illumination subject.
Y積分評価値の算出方法について説明する。ガンマ補正された輝度信号Yは水平積分回路403に入力され、焦点検出領域内で水平ラインごとに輝度信号Yの積分値が求められる。そして、水平積分回路403の出力が垂直積分回路406において焦点検出領域内で垂直方向に積分されることでY積分評価値が生成される。Y積分評価値は、焦点検出領域全体の明るさを判断する指標として用いられる。 A method for calculating the Y integral evaluation value will be described. The gamma-corrected luminance signal Y is input to the horizontal integration circuit 403, and an integrated value of the luminance signal Y is obtained for each horizontal line in the focus detection area. Then, the output of the horizontal integration circuit 403 is integrated in the vertical direction within the focus detection area by the vertical integration circuit 406, thereby generating a Y integration evaluation value. The Y integral evaluation value is used as an index for determining the brightness of the entire focus detection area.
Max−Min評価値の算出方法について説明する。ガンマ補正された輝度信号Yはラインピーク検出回路402に入力され、ここで焦点検出領域内における水平ラインごとの輝度信号Yのピーク値であるYラインピーク値が求められる。また、ガンマ補正された輝度信号Yはライン最小値検出回路404に入力され、ここで焦点検出領域内における水平ラインごとに輝度信号Yの最小値が検出される。検出された水平ラインごとのYラインピーク値および最小値は減算器(−)に入力され、(Yラインピーク値−最小値)が垂直ピーク検出回路407に入力される。垂直ピーク検出回路407は、焦点検出領域内で垂直方向に(Yラインピーク値−最小値)のピークホールドを行ってMax−Min評価値を生成する。Max−Min評価値は、低コントラストおよび高コントラストの判定に有効な指標となる。 A method for calculating the Max-Min evaluation value will be described. The gamma-corrected luminance signal Y is input to the line peak detection circuit 402, where the Y line peak value, which is the peak value of the luminance signal Y for each horizontal line in the focus detection area, is obtained. Also, the luminance signal Y subjected to gamma correction is input to the line minimum value detection circuit 404, where the minimum value of the luminance signal Y is detected for each horizontal line in the focus detection area. The detected Y line peak value and minimum value for each horizontal line are input to the subtractor (−), and (Y line peak value−minimum value) are input to the vertical peak detection circuit 407. The vertical peak detection circuit 407 generates a Max-Min evaluation value by performing peak holding (Y line peak value−minimum value) in the vertical direction within the focus detection region. The Max-Min evaluation value is an effective index for determining low contrast and high contrast.
領域ピーク評価値の算出方法について説明する。ガンマ補正された輝度信号YがBPF408を通過することで特定の周波数成分が抽出され、コントラスト信号が生成される。このコントラスト信号はラインピーク検出回路409に入力され、ここで焦点検出領域内で水平ラインごとのコントラスト信号のピーク値であるラインピーク値が求められる。ラインピーク値は垂直ピーク検出回路411によって焦点検出領域内でピークホールドされ、これにより領域ピーク評価値が生成される。領域ピーク評価値は、焦点検出領域内で被写体が移動しても変化が少ないので、合焦状態から再度合焦状態が得られるフォーカスレンズ104の位置を探す処理に移行するか否かを判定する再起動判定に有効な指標である。 A method for calculating the region peak evaluation value will be described. The gamma-corrected luminance signal Y passes through the BPF 408, so that a specific frequency component is extracted and a contrast signal is generated. This contrast signal is input to the line peak detection circuit 409, where a line peak value which is the peak value of the contrast signal for each horizontal line in the focus detection area is obtained. The line peak value is peak-held in the focus detection area by the vertical peak detection circuit 411, thereby generating an area peak evaluation value. Since the area peak evaluation value changes little even if the subject moves within the focus detection area, it is determined whether or not to shift from the focused state to the process of searching for the position of the focus lens 104 where the focused state is obtained again. This is an effective index for restart determination.
全ライン積分評価値の算出方法について説明する。領域ピーク評価値と同様に、ラインピーク検出回路409は、焦点検出領域内で水平ラインごとのコントラスト信号のラインピーク値を求める。次に、ラインピーク値は垂直積分回路410に入力され、ここで焦点検出領域内における垂直方向の全水平走査ライン数について積分されて全ライン積分評価値が生成される。高周波全ライン積分評価値は、積分の効果でダイナミックレンジが広く、感度が高いので、主要なAF評価値として用いられる。 A method for calculating the total line integral evaluation value will be described. Similar to the area peak evaluation value, the line peak detection circuit 409 obtains the line peak value of the contrast signal for each horizontal line in the focus detection area. Next, the line peak value is input to the vertical integration circuit 410, where the line peak value is integrated with respect to the total number of horizontal scanning lines in the vertical direction within the focus detection area to generate an all-line integration evaluation value. The high-frequency all-line integral evaluation value is used as a main AF evaluation value because the integration effect has a wide dynamic range and high sensitivity.
TVAF部130は、上述したそれぞれのAF評価値に基づいて、カメラMPU125およびレンズMPU117を通じて、フォーカスレンズ104を光軸方向のうち特定方向に所定量だけ移動させる。そして、新たに得られたTVAF用画像に基づいて上述したAF評価値を取得し、全ライン積分評価値が最大値となるフォーカスレンズ104の位置を検出する。 The TVAF unit 130 moves the focus lens 104 by a predetermined amount in a specific direction in the optical axis direction through the camera MPU 125 and the lens MPU 117 based on the respective AF evaluation values described above. Then, the above-described AF evaluation value is acquired based on the newly obtained TVAF image, and the position of the focus lens 104 at which the total line integration evaluation value becomes the maximum value is detected.
本実施例では、上述した各種AF評価値を水平ライン方向および垂直ライン方向のそれぞれで算出し、これら互いに直交する2方向において被写体のコントラストに基づくTVAFを行う。 In this embodiment, the various AF evaluation values described above are calculated in the horizontal line direction and the vertical line direction, respectively, and TVAF based on the contrast of the subject is performed in these two directions orthogonal to each other.
図6には、撮像範囲のうち被写体220の一部を含むように設定された焦点検出領域219を示す。位相差AFおよびTVAFのいずれも、撮像素子122のうち焦点検出領域219に含まれる画素から得られた光電変換信号に基づいて行われる。なお、撮像範囲内において、焦点検出領域219の位置、大きさおよび数は図6に示した例とは異ならせることもできる。 FIG. 6 shows a focus detection area 219 that is set to include a part of the subject 220 in the imaging range. Both the phase difference AF and TVAF are performed based on a photoelectric conversion signal obtained from a pixel included in the focus detection area 219 in the image sensor 122. Note that the position, size, and number of the focus detection areas 219 in the imaging range can be different from the example shown in FIG.
次に、図1(A),(B)のフローチャートを用いて、カメラMPU125、位相差AF部129およびTVAF部130が行うAF処理について説明する。カメラMPU125、位相差AF部129およびTVAF部130は、コンピュータプログラムであるフォーカス制御プログラムに従って本処理を実行する。 Next, AF processing performed by the camera MPU 125, the phase difference AF unit 129, and the TVAF unit 130 will be described with reference to the flowcharts of FIGS. The camera MPU 125, the phase difference AF unit 129, and the TVAF unit 130 execute this processing according to a focus control program that is a computer program.
図1(A)のステップS1において、カメラMPU125は、図6に示すように人物220の顔等の特定被写体を含むように又はユーザの指示に応じて焦点検出領域219の位置および大きさを設定する。この際、カメラMPU125は、焦点検出領域219の位置として代表座標(x1,y1)を設定する。この代表座標(x1,y1)は、焦点検出領域219の中心または重心の位置等とすればよい。 In step S1 of FIG. 1A, the camera MPU 125 sets the position and size of the focus detection area 219 so as to include a specific subject such as the face of the person 220 as shown in FIG. To do. At this time, the camera MPU 125 sets the representative coordinates (x1, y1) as the position of the focus detection area 219. The representative coordinates (x1, y1) may be the center of the focus detection area 219 or the position of the center of gravity.
次にステップS2では、カメラMPU125は、後述するベストピント(BP)補正値の算出に必要なパラメータ(算出条件)を取得する。BP補正値は、フォーカスレンズ104の位置であるフォーカス位置、第1レンズ群101の位置であるズーム位置、焦点検出領域の代表座標(x1,y1)等、撮像光学系の状態や焦点検出領域の位置に応じて変化する。このため、カメラMPU125は、ステップS2においてフォーカス位置およびズーム位置の情報をレンズMPU117から取得するとともに、焦点検出領域の代表座標(以下、焦点検出領域の位置という)(x1,y1)の情報を取得する。 Next, in step S2, the camera MPU 125 acquires parameters (calculation conditions) necessary for calculating a best focus (BP) correction value described later. The BP correction value includes the focus position, which is the position of the focus lens 104, the zoom position, which is the position of the first lens group 101, the representative coordinates (x1, y1) of the focus detection area, and the state of the imaging optical system and the focus detection area. It changes according to the position. Therefore, the camera MPU 125 acquires information on the focus position and the zoom position from the lens MPU 117 in step S2, and also acquires information on the representative coordinates of the focus detection area (hereinafter referred to as the position of the focus detection area) (x1, y1). To do.
次にステップS3では、カメラMPU125は、レンズMPU117から撮像光学系の収差情報に応じたBP補正情報を取得する。BP補正情報は、具体的には、被写体の色、方向(水平および垂直方向)および空間周波数ごとの合焦状態が得られるフォーカスレンズ104の位置(または撮像光学系の結像位置)を示す情報である。BP補正情報は、レンズメモリ118に予め格納されている。 Next, in step S3, the camera MPU 125 acquires BP correction information corresponding to the aberration information of the imaging optical system from the lens MPU 117. Specifically, the BP correction information is information indicating the position of the focus lens 104 (or the imaging position of the imaging optical system) from which the in-focus state for each color, direction (horizontal and vertical direction) and spatial frequency of the subject is obtained. It is. The BP correction information is stored in the lens memory 118 in advance.
図7(A),(B)を用いてBP補正情報の例を説明する。図7(A)は、撮像光学系のデフォーカスMTFを示している。横軸はフォーカスレンズ104の位置(デフォーカス量)を示し、縦軸はMTFの強度を示している。4つの曲線は空間周波数ごとのデフォーカスMTFを示し、空間周波数が低い側から順にMTF1、MTF2、MTF3およびMTF4である。具体的には、空間周波数F1(lp/mm)でのデフォーカスMTFがMTF1であり、以下同様に、空間周波数F2、F3およびF4(lp/mm)でのデフォーカスMTFがMTF2、MTF3およびMTF4である。また、LP4、LP5、LP5およびLP6はそれぞれ、MTF1、MTF2、MTF3およびMTF4の極大値が得られる、すなわち合焦状態が得られるフォーカスレンズ104の位置(以下、MTFピーク位置という)を示している。 An example of BP correction information will be described with reference to FIGS. FIG. 7A shows the defocus MTF of the imaging optical system. The horizontal axis indicates the position (defocus amount) of the focus lens 104, and the vertical axis indicates the intensity of the MTF. The four curves show the defocus MTF for each spatial frequency, and are MTF1, MTF2, MTF3, and MTF4 in order from the lowest spatial frequency. Specifically, the defocus MTF at the spatial frequency F1 (lp / mm) is MTF1, and similarly, the defocus MTF at the spatial frequencies F2, F3, and F4 (lp / mm) is MTF2, MTF3, and MTF4. It is. LP4, LP5, LP5, and LP6 respectively indicate positions of the focus lens 104 (hereinafter referred to as MTF peak positions) at which the maximum values of MTF1, MTF2, MTF3, and MTF4 are obtained, that is, a focused state is obtained. .
図7(B)は、BP補正情報であるMTFピーク位置MTF_Pの空間周波数に対する変化を被写体の色(R,G,B)と評価方向(H,V)ごとに示している。横軸は空間周波数を示し、Nqは撮像素子の画素ピッチにより決まるナイキスト周波数を示す。縦軸はMTFピーク位置を示す。 FIG. 7B shows changes in the spatial frequency of the MTF peak position MTF_P, which is BP correction information, for each color (R, G, B) and evaluation direction (H, V) of the subject. The horizontal axis represents the spatial frequency, and Nq represents the Nyquist frequency determined by the pixel pitch of the image sensor. The vertical axis represents the MTF peak position.
図に示すように、撮像光学系の色収差が大きい場合には色ごとのMTFピーク位置が乖離し、評価方向のコントラストの差が大きい場合には評価方向ごとのMTFピーク位置が乖離する。このように、本実施例では、色と評価方向の組み合わせごとに空間周波数に対するMTFピーク位置の情報をBP補正情報として有する。 As shown in the figure, when the chromatic aberration of the imaging optical system is large, the MTF peak position for each color deviates, and when the contrast difference in the evaluation direction is large, the MTF peak position for each evaluation direction deviates. As described above, in this embodiment, information on the MTF peak position with respect to the spatial frequency is included as BP correction information for each combination of color and evaluation direction.
MTFピーク位置MTF_Pは、被写体の色(R,G,B)と評価方向(H,V)の6通りの組み合わせのそれぞれについて、空間周波数fと焦点検出領域の位置(x1,y1)(=(x,y))を変数とした以下の式(1)で表現される。ただし、式(1)は、代表として、R色と水平(H)方向についてのMTFピーク位置MTF_P_RHを示している。MTF_Pの後に付加された_RHがR色とH方向を意味し、(f,x,y)がfと(x,y)の関数であることを示す。R色と垂直(V)方向についてのMTFピーク位置MTF_P_RV、G色とH方向についてのMTFピーク位置MTF_P_GHおよびG色とV方向についてのMTFピーク位置MTF_P_GVも同様の式で表される。さらに、B色とH方向についてのMTFピーク位置MTF_P_BHおよびB色とV方向についてのMTFピーク位置MTF_P_BVも同様の式で表される。
MTF_P_RH(f,x,y)
=(rh(0)×x+rh(1)×y+rh(2))×f2+(rh(3)×x+rh(4)×y+rh(5))×f+(rh(6)×x+rh(7)×y+rh(8)) (1)
式(1)中の各周波数項に含まれるrh(n)(0≦n≦8)は、R色とH方向についての係数を示し、レンズメモリ118に予め記憶されている。カメラMPU125は、レンズMPU117に係数rh(n)の送信を要求してこれを取得する。ただし、rh(n)をカメラMPU125内のRAM125bの不揮発性領域に記憶しておき、カメラMPU125がこれを読み出すことで取得してもよい。MTFピーク位置MTF_P_RV、MTF_P_GH、MTF_P_GV、MTF_P_BHおよびMTF_P_BVにもそれぞれ係数rv(n),gh(n),gv(n),bh(n),bv(n)が含まれており、カメラMPU125はこれらの係数についてもrh(n)と同様に取得する。
The MTF peak position MTF_P is the spatial frequency f and the position (x1, y1) of the focus detection area (x (y)) for each of the six combinations of the subject color (R, G, B) and the evaluation direction (H, V). x, y)) is a variable and is expressed by the following equation (1). However, Expression (1) represents the MTF peak position MTF_P_RH for the R color and the horizontal (H) direction as a representative. _RH added after MTF_P means the R color and the H direction, and (f, x, y) indicates a function of f and (x, y). The MTF peak position MTF_P_RV for the R color and the vertical (V) direction, the MTF peak position MTF_P_GH for the G color and the H direction, and the MTF peak position MTF_P_GV for the G color and the V direction are also expressed by the same expression. Further, the MTF peak position MTF_P_BH for the B color and the H direction and the MTF peak position MTF_P_BV for the B color and the V direction are also expressed by the same expression.
MTF_P_RH (f, x, y)
= (rh (0) × x + rh (1) × y + rh (2)) × f 2 + (rh (3) × x + rh (4) × y + rh (5)) × f + (rh ( 6) × x + rh (7) × y + rh (8)) (1)
Rh (n) (0 ≦ n ≦ 8) included in each frequency term in Expression (1) indicates a coefficient for the R color and the H direction, and is stored in the lens memory 118 in advance. The camera MPU 125 requests the lens MPU 117 to transmit the coefficient rh (n) and acquires it. However, rh (n) may be stored in a non-volatile area of the RAM 125b in the camera MPU 125 and acquired by the camera MPU 125 reading it. The MTF peak positions MTF_P_RV, MTF_P_GH, MTF_P_GV, MTF_P_BH and MTF_P_BV also include coefficients rv (n), gh (n), gv (n), bh (n) and bv (n), respectively. Are obtained in the same manner as rh (n).
本実施例では、BP補正情報を関数により表し、該関数における係数をレンズメモリ118またはRAM125bに記憶させる。これにより、レンズメモリ118やRAM125bが記憶するデータ量を削減しつつ、撮像光学系のズーム位置や絞り値に対応したBP補正情報を用意することが可能となる。 In this embodiment, the BP correction information is expressed by a function, and the coefficient in the function is stored in the lens memory 118 or the RAM 125b. This makes it possible to prepare BP correction information corresponding to the zoom position and aperture value of the imaging optical system while reducing the amount of data stored in the lens memory 118 and the RAM 125b.
次にステップS4では、カメラMPU125は、焦点評価情報を取得する。図8(A)は焦点検出(AF)用と撮像画像評価用のそれぞれに対して設定された焦点評価情報(K_AF,K_IMG)の例を示す。焦点評価情報は、評価方向(H,V)、被写体の色(R,G,B)および空間周波数の組み合わせに対するBP補正情報(MTFピーク位置)の重み付けの大きさを示す重み付け係数の情報である。カメラMPU125が本ステップで行う処理の詳細については後述する。 Next, in step S4, the camera MPU 125 acquires focus evaluation information. FIG. 8A shows an example of focus evaluation information (K_AF, K_IMG) set for focus detection (AF) and captured image evaluation. The focus evaluation information is information on a weighting coefficient indicating the weighting level of BP correction information (MTF peak position) for a combination of evaluation direction (H, V), subject color (R, G, B) and spatial frequency. . Details of the processing performed by the camera MPU 125 in this step will be described later.
次にステップS5では、カメラMPU125は、ステップS4で取得した焦点評価情報としての重み付け係数とステップS3で取得したBP補正情報とを用いてBP補正値を算出(取得)する。カメラMPU125は、まず、MTFピーク位置を表す関数である式(1)のx,yに焦点検出領域の位置(x1,y1)を代入し、3つの周波数項の係数をそれぞれArh,Brh,Crhとすることで、式(1)を以下の式(2)で表す。
MTF_P_RH(f)=Arh×f2+Brh×f+Crh (2)
他の色と方向についてのMTFピーク位置の関数MTF_P_RV、MTF_P_GH、MTF_P_GV、MTF_P_BHおよびMTF_P_BVについても同様とする。先に説明した図7(B)は、式(1)に焦点検出領域の位置を代入した後のMTFピーク位置を示している。
Next, in step S5, the camera MPU 125 calculates (acquires) a BP correction value using the weighting coefficient as the focus evaluation information acquired in step S4 and the BP correction information acquired in step S3. First, the camera MPU 125 substitutes the position (x1, y1) of the focus detection region for x, y in Expression (1), which is a function representing the MTF peak position, and sets the coefficients of the three frequency terms as Arh, Brh, Crh, respectively. Therefore, the expression (1) is expressed by the following expression (2).
MTF_P_RH (f) = Arh × f 2 + Brh × f + Crh (2)
The same applies to the MTF peak position functions MTF_P_RV, MTF_P_GH, MTF_P_GV, MTF_P_BH and MTF_P_BV for other colors and directions. FIG. 7B described above shows the MTF peak position after substituting the position of the focus detection area into Equation (1).
さらにカメラMPU125は、ステップS4で取得した焦点評価情報としての重み付け係数によってBP補正情報としてのMTFピーク位置を重み付けする。これにより、焦点検出用と撮像画像評価用のそれぞれに対するMTFピーク位置が評価方向と被写体の色に応じて重み付けされる。具体的には、カメラMPU125は、焦点検出用のMTFピーク位置MTF_P_AFと撮像画像評価用のMTFピーク位置MTF_P_IMGを、式(3)および(4)を用いて算出する。
MTF_P_AF(f)
=K_AF_R×K_AF_H×MTF_P_RH(f)+K_AF_R×K_AF_V×MTF_P_RV(f)
+K_AF_G×K_AF_H×MTF_P_GH(f)+K_AF_G×K_AF_V×MTF_P_GV(f)
+K_AF_B×K_AF_H×MTF_P_BH(f)+K_AF_B×K_AF_V×MTF_P_BV(f) (3)
MTF_P_IMG(f)
=K_IMG_R×K_IMG_H×MTF_P_RH(f)+K_IMG_R×K_IMG_V×MTF_P_RV(f)
+K_IMG_G×K_IMG_H×MTF_P_GH(f)+K_IMG_G×K_IMG_V×MTF_P_GV(f)
+K_IMG_B×K_IMG_H×MTF_P_BH(f)+K_IMG_B×K_IMG_V×MTF_P_BV(f) (4)
式(3)において、K_AF_R、K_AF_GおよびK_AF_Bは焦点検出時の色(R,G,B)ごとの重み付け係数を示し、K_IMG_R、K_IMG_GおよびK_IMG_Bは撮像画像評価時の色ごとの重み付け係数を示す。また、式(4)において、K_AF_HおよびK_AF_Vは焦点検出時の評価方向(H,V)ごとの重み付け係数を示し、K_IMG_HおよびK_IMG_Vは撮像画像評価時の評価方向ごとの重み付け係数を示す。
Further, the camera MPU 125 weights the MTF peak position as the BP correction information by the weighting coefficient as the focus evaluation information acquired in step S4. As a result, the MTF peak positions for focus detection and captured image evaluation are weighted according to the evaluation direction and the color of the subject. Specifically, camera MPU 125 calculates MTF peak position MTF_P_AF for focus detection and MTF peak position MTF_P_IMG for captured image evaluation using equations (3) and (4).
MTF_P_AF (f)
= K_AF_R × K_AF_H × MTF_P_RH (f) + K_AF_R × K_AF_V × MTF_P_RV (f)
+ K_AF_G × K_AF_H × MTF_P_GH (f) + K_AF_G × K_AF_V × MTF_P_GV (f)
+ K_AF_B × K_AF_H × MTF_P_BH (f) + K_AF_B × K_AF_V × MTF_P_BV (f) (3)
MTF_P_IMG (f)
= K_IMG_R × K_IMG_H × MTF_P_RH (f) + K_IMG_R × K_IMG_V × MTF_P_RV (f)
+ K_IMG_G × K_IMG_H × MTF_P_GH (f) + K_IMG_G × K_IMG_V × MTF_P_GV (f)
+ K_IMG_B × K_IMG_H × MTF_P_BH (f) + K_IMG_B × K_IMG_V × MTF_P_BV (f) (4)
In Expression (3), K_AF_R, K_AF_G, and K_AF_B indicate weighting coefficients for each color (R, G, B) at the time of focus detection, and K_IMG_R, K_IMG_G, and K_IMG_B indicate weighting coefficients for each color at the time of evaluation of the captured image. In Equation (4), K_AF_H and K_AF_V indicate weighting coefficients for each evaluation direction (H, V) at the time of focus detection, and K_IMG_H and K_IMG_V indicate weighting coefficients for each evaluation direction at the time of captured image evaluation.
図8(B)には、離散的な空間周波数(横軸)F1〜F4について、式(3),(4)から得られる焦点検出用のMTFピーク位置(縦軸)LP4_AF、LP5_AF、LP6_AFおよびLP7_AFを示している。 続いてカメラMPU125は、合焦状態の撮像画像が得られるフォーカスレンズ104の位置である撮像画像用合焦位置P_IMGを以下の式(5)を用いて算出する。また、カメラMPU125は、AFにおいて合焦状態が得られるフォーカスレンズ104の位置であるAF用合焦位置P_AFを、以下の式(6)を用いて算出する。これらの計算には、ステップS3で得たMTFピーク位置MTF_P_IMGおよびMTF_P_AFとステップS4で得た重み付け係数K_IMG_FQおよびK_AF_FQとを用いる。
P_IMG
=MTF_P_IMG(1)×K_IMG_FQ1+MTF_P_IMG(2)×K_IMG_FQ2
+MTF_P_IMG(3)×K_IMG_FQ3+MTF_P_IMG(4)×K_IMG_FQ4 (5)
P_AF
=MTF_P_AF(1)×K_AF_FQ1+MTF_P_AF(2)×K_AF_FQ2
+MTF_P_AF(3)×K_AF_FQ3+MTF_P_AF(4)×K_AF_FQ4 (6)
つまりカメラMPU125は、図8(B)に示した撮像画像評価用の空間周波数ごとのMTFピーク位置MTF_P_IMGを、図8(A)に示した撮像画像評価用の空間周波数ごとの重み付け係数K_IMG_FQを用いて重み付け加算する。同様に、カメラMPU125は、図8(B)に示した焦点検出用の空間周波数ごとのMTF_P_AFを、図8(A)に示した焦点検出用の空間周波数ごとの重み付け係数K_AF_FQを用いて重み付け加算する。これにより、撮像画像合焦位置(P_IMG)とAF合焦位置(P_AF)とを算出する。
FIG. 8B shows focus detection MTF peak positions (vertical axes) LP4_AF, LP5_AF, LP6_AF obtained from equations (3) and (4) for discrete spatial frequencies (horizontal axes) F1 to F4. LP7_AF is shown. Subsequently, the camera MPU 125 calculates the captured image focus position P_IMG, which is the position of the focus lens 104 from which the captured image in the focused state is obtained, using the following equation (5). Further, the camera MPU 125 calculates an AF in-focus position P_AF, which is the position of the focus lens 104 at which an in-focus state is obtained in AF, using the following formula (6). For these calculations, the MTF peak positions MTF_P_IMG and MTF_P_AF obtained in step S3 and the weighting coefficients K_IMG_FQ and K_AF_FQ obtained in step S4 are used.
P_IMG
= MTF_P_IMG (1) × K_IMG_FQ1 + MTF_P_IMG (2) × K_IMG_FQ2
+ MTF_P_IMG (3) × K_IMG_FQ3 + MTF_P_IMG (4) × K_IMG_FQ4 (5)
P_AF
= MTF_P_AF (1) × K_AF_FQ1 + MTF_P_AF (2) × K_AF_FQ2
+ MTF_P_AF (3) × K_AF_FQ3 + MTF_P_AF (4) × K_AF_FQ4 (6)
That is, the camera MPU 125 uses the MTF peak position MTF_P_IMG for each captured image evaluation spatial frequency shown in FIG. 8B and the weighted coefficient K_IMG_FQ for each captured image evaluation spatial frequency shown in FIG. To add weights. Similarly, the camera MPU 125 weights and adds MTF_P_AF for each spatial frequency for focus detection shown in FIG. 8B using the weighting coefficient K_AF_FQ for each spatial frequency for focus detection shown in FIG. 8A. To do. Thereby, the captured image focus position (P_IMG) and the AF focus position (P_AF) are calculated.
次にカメラMPU125は、BP補正値(BP)を、以下の式(7)により算出する。 Next, the camera MPU 125 calculates a BP correction value (BP) by the following equation (7).
BP=P_AF−P_IMG (7)
P_AFは焦点検出時に焦点状態が評価される空間周波数であるAF評価帯域(第2の評価帯域)を変数FQ1〜FQ4として有する。また、P_IMGは撮像画像評価時に焦点状態が評価される空間周波数である画像評価帯域(第1の評価帯域)を変数FQ1〜FQ4として有する。つまり、BP補正値は、AF評価帯域と画像評価帯域を変数として含む。
BP = P_AF−P_IMG (7)
P_AF has, as variables FQ1 to FQ4, an AF evaluation band (second evaluation band) that is a spatial frequency at which the focus state is evaluated during focus detection. P_IMG has an image evaluation band (first evaluation band), which is a spatial frequency at which the focus state is evaluated during evaluation of the captured image, as variables FQ1 to FQ4. That is, the BP correction value includes the AF evaluation band and the image evaluation band as variables.
次に、図1(B)に示すフローチャートを用いて、ステップS4での焦点評価情報の取得処理について説明する。先に説明したように、図8(A)には、評価方向、色および空間周波数に対する焦点評価情報(重み付け係数)を示している。 Next, the focus evaluation information acquisition process in step S4 will be described using the flowchart shown in FIG. As described above, FIG. 8A shows the focus evaluation information (weighting coefficient) for the evaluation direction, color, and spatial frequency.
合焦精度の観点からは、被写体に関する各種情報に応じて最適な焦点評価情報を用いることが望ましいが、被写体に関する各種情報を解析するためには多くの処理時間が必要となる。簡易にBP補正値を算出する方法としては、特定のシーンを撮像した際の最適な焦点評価情報を常に用いて被写体に依存しないBP補正値を算出する方法がある。しかし、撮像画像もしくは焦点検出用画像には、被写体の動き、手振れ、交換レンズ100のズーム動作等による像振れが存在することがあり、該像振れに起因する空間周波数の低下は焦点検出誤差を生じさせる。本実施例では、このような像振れの影響が出やすい露光時間が長い場合においてBP補正値の算出時の空間周波数をより低くすることで焦点検出精度を向上させる。 From the viewpoint of focusing accuracy, it is desirable to use optimum focus evaluation information in accordance with various information related to the subject. However, in order to analyze various information related to the subject, a lot of processing time is required. As a method for easily calculating a BP correction value, there is a method for calculating a BP correction value that does not depend on a subject by always using optimum focus evaluation information when a specific scene is imaged. However, there may be image blur due to subject movement, camera shake, zoom operation of the interchangeable lens 100, or the like in the captured image or focus detection image, and a decrease in spatial frequency caused by the image blur causes a focus detection error. Cause it to occur. In the present embodiment, the focus detection accuracy is improved by lowering the spatial frequency at the time of calculating the BP correction value when the exposure time in which such an image blur is likely to occur is long.
前述したように、焦点評価情報としての重み付け係数は、焦点状態の評価方向、被写体の色および空間周波数の組み合わせごとに異なるが、ここでは空間周波数に着目して説明する。図8(A)では、焦点検出および撮像画像ともに4つの空間周波数に対する重み付け係数を示しているが、本実施例では該4つの空間周波数の重み付け平均によりBP補正値を算出する。 As described above, the weighting coefficient as the focus evaluation information differs depending on the combination of the evaluation state of the focus state, the color of the subject, and the spatial frequency. FIG. 8A shows the weighting coefficients for the four spatial frequencies for both the focus detection and the captured image. In this embodiment, the BP correction value is calculated by the weighted average of the four spatial frequencies.
図9は、焦点検出時の空間周波数における重み付け係数K_AF_FQおよび撮像画像の空間周波数における重み付け係数K_IMG_FQと4つの空間周波数FQ1〜FQ4との関係を示す。縦軸の強度は重み付け係数の大きさを示す。焦点検出時と撮像画像とでは焦点状態を評価する空間周波数である評価帯域が異なるために、空間周波数FQ1〜FQ4におけるK_AF_FQとK_IMG_FQとが異なる。 図1(B)において、ステップS101では、カメラMPU125は、焦点検出(AF)用に設定された露光時間(以下、AF露光時間という)を取得する。 FIG. 9 shows the relationship between the weighting coefficient K_AF_FQ at the spatial frequency at the time of focus detection, the weighting coefficient K_IMG_FQ at the spatial frequency of the captured image, and the four spatial frequencies FQ1 to FQ4. The intensity on the vertical axis indicates the magnitude of the weighting coefficient. Since the evaluation band which is a spatial frequency for evaluating the focus state is different between the focus detection and the captured image, K_AF_FQ and K_IMG_FQ at the spatial frequencies FQ1 to FQ4 are different. In FIG. 1B, in step S101, the camera MPU 125 acquires an exposure time set for focus detection (AF) (hereinafter referred to as AF exposure time).
次にステップS102では、カメラMPU125は、AF露光時間が所定値(第2の所定時間)TV0より長いか否かを判定する。AF露光時間が所定値TV0より長い場合は、ステップS103にてK_AF_FQとしてK_AF_FQ_0を取得する。AF露光時間が所定値TV0より短い場合は、ステップS104にてK_AF_FQとしてK_AF_FQ_1を取得する。K_AF_FQ_0とK_AF_FQ_1はそれぞれ上記4つの空間周波数FQ1〜FQ4における重み付け係数からなる。 In step S102, the camera MPU 125 determines whether or not the AF exposure time is longer than a predetermined value (second predetermined time) TV0. If the AF exposure time is longer than the predetermined value TV0, K_AF_FQ_0 is acquired as K_AF_FQ in step S103. If the AF exposure time is shorter than the predetermined value TV0, K_AF_FQ_1 is acquired as K_AF_FQ in step S104. K_AF_FQ_0 and K_AF_FQ_1 are each composed of weighting coefficients at the four spatial frequencies FQ1 to FQ4.
本実施例では、AF露光時間が長い場合にAF評価帯域をより低域にすることを特徴とする。したがって、K_AF_FQ_0が示す重み付け係数を空間周波数FQ1〜FQ4に乗じて得られる重み付け平均空間周波数は、K_AF_FQ_1が示す重み付け係数を空間周波数FQ1〜FQ2に乗じて得られる重み付け平均空間周波数よりも低い。 In this embodiment, when the AF exposure time is long, the AF evaluation band is lowered. Therefore, the weighted average spatial frequency obtained by multiplying the spatial frequency FQ1 to FQ4 by the weighting coefficient indicated by K_AF_FQ_0 is lower than the weighted average spatial frequency obtained by multiplying the spatial frequency FQ1 to FQ2 by the weighting coefficient indicated by K_AF_FQ_1.
次にステップS105では、カメラMPU125は、撮像用(撮像画像用)に設定された第1の露光時間(以下、撮像露光時間という)を取得する。撮像露光時間が所定値(第1の所定時間)TV0よりも長い場合はステップS106にてK_IMG_FQとしてK_IMG_FQ_0を取得する。撮像露光時間が所定値TV0よりも短い場合はステップS107にてK_IMG_FQとしてK_IMG_FQ_1を取得する。K_IMG_FQ_0とK_IMG_FQ_1はそれぞれ上記4つの空間周波数FQ1〜FQ4における重み付け係数からなる。 Next, in step S105, the camera MPU 125 acquires a first exposure time (hereinafter referred to as an imaging exposure time) set for imaging (for a captured image). If the imaging exposure time is longer than the predetermined value (first predetermined time) TV0, K_IMG_FQ_0 is acquired as K_IMG_FQ in step S106. If the imaging exposure time is shorter than the predetermined value TV0, K_IMG_FQ_1 is acquired as K_IMG_FQ in step S107. K_IMG_FQ_0 and K_IMG_FQ_1 are each composed of weighting coefficients in the four spatial frequencies FQ1 to FQ4.
本実施例では、撮像露光時間が長い場合に画像評価帯域をより低域にすることを特徴とする。したがって、K_IMG_FQ_0が示す重み付け係数を空間周波数FQ1〜FQ4に乗じて得られる重み付け平均空間周波数は、K_IMG_FQ_1が示す重み付け係数を空間周波数FQ1〜FQ2に乗じて得られる重み付け平均空間周波数よりも低い。 The present embodiment is characterized in that the image evaluation band is made lower when the imaging exposure time is long. Therefore, the weighted average spatial frequency obtained by multiplying the spatial frequency FQ1 to FQ4 by the weighting coefficient indicated by K_IMG_FQ_0 is lower than the weighted average spatial frequency obtained by multiplying the spatial frequency FQ1 to FQ2 by the weighting coefficient indicated by K_IMG_FQ_1.
なお、AF時にBPを算出するためには、AF実施時にAF用のAEと撮影用のAEを同時に実施し、AF用の露光条件と撮影用の露光条件を同時に決定しておくのが望ましい。 In order to calculate BP at the time of AF, it is desirable that AF AE and photographing AE are performed at the same time when AF is performed, and AF exposure conditions and photographing exposure conditions are determined simultaneously.
また、所定値TV0は固定の値としてもよいが、上述した像振れは撮像光学系の焦点距離が長いほど大きく発生するため、例えば所定値TV0を焦点距離FLに対して、
TV0=1/FL[sec]
と設定してもよい。
Further, the predetermined value TV0 may be a fixed value, but the above-described image blur occurs more greatly as the focal length of the imaging optical system is longer.
TV0 = 1 / FL [sec]
May be set.
こうしてK_AF_FQおよびK_IMG_FQを取得したカメラMPU125は、上述したように空間周波数を変数としたBP補正値(BP)を式(5)〜(7)を用いて算出する。 The camera MPU 125 that has acquired K_AF_FQ and K_IMG_FQ in this way calculates the BP correction value (BP) using the spatial frequency as a variable using the equations (5) to (7) as described above.
焦点評価情報を、空間周波数以外にも評価方向と被写体の色によって異ならせることもできるが、ここでは評価方向と色に対する焦点評価情報は固定値として、被写体に依存しないものとする。固定値の例としては、評価方向に対する重み付け係数K_AF_H、K_AF_V、K_IMG_HおよびK_IMG_Vは、瞳分割の方向が図4(B)に示すように水平方向のみである場合は、
K_AF_H=1
K_AF_V=0
K_IMG_H=1
K_IMG_V=1
と設定してもよい。これは、焦点検出(AF)は水平方向での収差に大きく影響され、撮像画像は水平方向の収差と垂直方向の収差を1:1で平均した収差状態でピント状態を判断することが一般的であるためである。
In addition to the spatial frequency, the focus evaluation information can be made different depending on the evaluation direction and the color of the subject, but here, the focus evaluation information for the evaluation direction and the color is a fixed value and does not depend on the subject. As an example of the fixed value, the weighting coefficients K_AF_H, K_AF_V, K_IMG_H, and K_IMG_V for the evaluation direction are as follows when the pupil division direction is only the horizontal direction as shown in FIG.
K_AF_H = 1
K_AF_V = 0
K_IMG_H = 1
K_IMG_V = 1
May be set. This is because focus detection (AF) is greatly influenced by aberrations in the horizontal direction, and the captured image is generally judged to be in a focus state based on an aberration state in which horizontal aberrations and vertical aberrations are averaged by 1: 1. This is because.
色に対する重み付け係数K_AF_R、K_AF_G、K_AF_B、K_IMG_R、K_IMG_GおよびK_IMG_Bは、例えば焦点検出用画素がベイヤー配列中のGのみである場合は、
K_AF_R=0
K_AF_G=1
K_AF_B=0
K_IMG_R=0.3
K_IMG_G=0.5
K_IMG_B=0.2
と設定してもよい。これは、焦点検出に対してGの色収差のみが影響し、撮像画像においては所望のホワイトバランス係数によって重み付けされた色ごとの色収差の影響でピント状態が変動するためである。
The weighting coefficients K_AF_R, K_AF_G, K_AF_B, K_IMG_R, K_IMG_G, and K_IMG_B for colors are, for example, when the focus detection pixel is only G in the Bayer array,
K_AF_R = 0
K_AF_G = 1
K_AF_B = 0
K_IMG_R = 0.3
K_IMG_G = 0.5
K_IMG_B = 0.2
May be set. This is because only the chromatic aberration of G influences the focus detection, and the focus state fluctuates in the captured image due to the influence of chromatic aberration for each color weighted by a desired white balance coefficient.
本実施例のように露光時間に応じて焦点状態を評価する空間周波数帯域(評価帯域)を分けることで、像振れの影響による焦点検出誤差の発生を抑え、焦点検出精度を向上させることができる。なお、本実施例では、撮像時とAF時とともに所定値TV0を境界として空間周波数帯域を分けているが、撮像時とAF時とで異なる所定値として第1および第2の所定時間を用いてもよい。また、本実施例では、1つの露光時間(所定値TV0)を境界として空間周波数帯域を2つに分けているが、2つ以上の露光時間を境界として空間周波数帯域を3つ以上に分けてもよい。 By dividing the spatial frequency band (evaluation band) for evaluating the focus state according to the exposure time as in this embodiment, it is possible to suppress the occurrence of focus detection error due to the influence of image blur and improve the focus detection accuracy. . In this embodiment, the spatial frequency band is divided with the predetermined value TV0 as a boundary at the time of imaging and at the time of AF, but the first and second predetermined times are used as predetermined values different at the time of imaging and at the time of AF. Also good. In this embodiment, the spatial frequency band is divided into two with one exposure time (predetermined value TV0) as a boundary. However, the spatial frequency band is divided into three or more with two or more exposure times as a boundary. Also good.
実施例1では、撮像露光時間に応じて撮像画像評価時に焦点状態を評価する画像評価帯域を変更する場合について説明した。これに対して本発明の実施例2では、撮像光学系(撮像装置)の振れ量、言い換えれば像面での像振れ量に基づいて画像評価帯域を変更することでAF評価帯域との関係を調節する。画像評価帯域の決定方法以外は実施例1と共通するため、ここでは共通する説明は省略する。また、実施例1と共通する構成要素には、実施例1と同符号を付す。 In the first embodiment, the case has been described in which the image evaluation band for evaluating the focus state is changed during the evaluation of the captured image according to the imaging exposure time. On the other hand, in the second embodiment of the present invention, the relationship with the AF evaluation band is obtained by changing the image evaluation band based on the shake amount of the image pickup optical system (image pickup apparatus), in other words, the image shake amount on the image plane. Adjust. Since the method other than the method for determining the image evaluation band is the same as that of the first embodiment, the common description is omitted here. In addition, constituent elements common to the first embodiment are denoted by the same reference numerals as in the first embodiment.
像振れを検出する方法としては、振動ジャイロ(角速度センサ)等の振れセンサを用いる方法や動画撮像において順次生成されるフレーム画像間で動きベクトルを検出する方法等がある。本実施例では、これらのうちいずれかの方法を用いて検出した像振れ量に応じて画像評価帯域、言い換えれば第1の焦点評価情報としての重み付け係数を決定する。 As a method for detecting image shake, there are a method using a shake sensor such as a vibration gyroscope (angular velocity sensor), a method for detecting a motion vector between frame images sequentially generated in moving image capturing, and the like. In the present embodiment, the image evaluation band, in other words, the weighting coefficient as the first focus evaluation information is determined according to the image blur amount detected using any one of these methods.
図10のフローチャートを用いて、本実施例におけるカメラMPU125が行う焦点評価情報の取得処理について説明する。ステップS201において、カメラMPU125は、撮像露光時間を取得する。そして、ステップS202において、撮像露光時間が所定値TV0より長いか否かを判定する。 The focus evaluation information acquisition process performed by the camera MPU 125 in this embodiment will be described with reference to the flowchart of FIG. In step S201, the camera MPU 125 acquires an imaging exposure time. In step S202, it is determined whether the imaging exposure time is longer than a predetermined value TV0.
撮像露光時間が所定値TV0より短い場合は、カメラMPU125は、ステップS206においてK_IMG_FQとしてK_IMG_FQ_1を取得する。撮像露光時間が所定値TV0より長い場合は、カメラMPU125は、ステップS203に進んで、検出した撮像時の像振れ量(第1の像振れ量)が所定値Xより大きいか否かを判定する。 If the imaging exposure time is shorter than the predetermined value TV0, the camera MPU 125 acquires K_IMG_FQ_1 as K_IMG_FQ in step S206. When the imaging exposure time is longer than the predetermined value TV0, the camera MPU 125 proceeds to step S203, and determines whether or not the detected image blur amount (first image blur amount) at the time of imaging is larger than the predetermined value X. .
カメラMPU125は、像振れ量が所定値(第1の所定量)Xより大きい場合はステップS204にてK_IMG_FQとしてK_IMG_FQ_00を取得する。また、像振れ量が所定値Xより小さい場合はステップS205にてK_IMG_FQとしてK_IMG_FQ_01を取得する。 If the image blur amount is larger than the predetermined value (first predetermined amount) X, the camera MPU 125 acquires K_IMG_FQ_00 as K_IMG_FQ in step S204. If the image blur amount is smaller than the predetermined value X, K_IMG_FQ_01 is acquired as K_IMG_FQ in step S205.
K_IMG_FQ_00、K_IMG_FQ_01およびK_IMG_FQ_1はそれぞれ上記4つの空間周波数FQ1〜FQ4における重み付け係数からなるK_IMG_FQ_00、K_IMG_FQ_01およびK_IMG_FQ_1が示す重み付け係数を空間周波数FQ1〜FQ4に乗じて得られる重み付け平均空間周波数で比較すると以下の関係がある。
K_IMG_FQ_00<K_IMG_FQ_01<K_IMG_FQ_1
このことは、撮像露光時間が短い場合は、像振れの影響が小さいために画像評価帯域が高いことを意味する。また、撮像露光時間が長くて像振れ量が大きい場合は被写体の空間周波数が低域側に偏っていると考えられるため、画像評価帯域をより低域側に設定することを意味する。
K_IMG_FQ_00, K_IMG_FQ_01 and K_IMG_FQ_1 are respectively obtained by multiplying the weighting coefficients indicated by K_IMG_FQ_00, K_IMG_FQ_01 and K_IMG_FQ_1, which are weighting coefficients at the above four spatial frequencies FQ1 to FQ4, by the spatial frequency FQ1 to FQ4 and the weighted average frequency. There is.
K_IMG_FQ_00 <K_IMG_FQ_01 <K_IMG_FQ_1
This means that when the imaging exposure time is short, the image evaluation band is high because the influence of image blur is small. Further, when the imaging exposure time is long and the image blur amount is large, it is considered that the spatial frequency of the subject is biased toward the low frequency side, which means that the image evaluation band is set to the low frequency side.
本実施例では、像振れ量に応じて画像評価帯域を変更する場合について説明したが、同様に焦点検出時の像振れ量(第2の像振れ量)に応じてAF評価帯域を変更してもよい。すなわち、カメラMPU125は、像振れ量が所定値(第2の所定量)Xより大きい場合はK_AF_FQとしてK_AF_FQ_00を取得する。また、像振れ量が所定値Xより小さい場合はK_AF_FQとしてK_AF_FQ_01を取得する。K_AF_FQ_00、K_AF_FQ_01およびK_AF_FQ_1はそれぞれ上記4つの空間周波数FQ1〜FQ4における重み付け係数かならる。K_AF_FQ_00、K_AF_FQ_01およびK_AF_FQ_1が示す重み付け係数を空間周波数FQ1〜FQ4に乗じて得られる重み付け平均空間周波数で比較すると以下の関係がある。
K_AF_FQ_00<K_AF_FQ_01<K_AF_FQ_1
このことは、AF露光時間が短い場合は、像振れの影響が小さいためにAF評価帯域が高いことを意味する。また、AF露光時間が長くて像振れ量が大きい場合は被写体の空間周波数が低域側に偏っていると考えられるため、AF評価帯域をより低域側に設定することを意味する。
In the present embodiment, the case where the image evaluation band is changed according to the image blur amount has been described. Similarly, the AF evaluation band is changed according to the image blur amount (second image blur amount) at the time of focus detection. Also good. That is, the camera MPU 125 acquires K_AF_FQ_00 as K_AF_FQ when the image blur amount is larger than the predetermined value (second predetermined amount) X. When the image blur amount is smaller than the predetermined value X, K_AF_FQ_01 is acquired as K_AF_FQ. K_AF_FQ_00, K_AF_FQ_01, and K_AF_FQ_1 are weighting coefficients for the four spatial frequencies FQ1 to FQ4, respectively. When the weighted average spatial frequencies obtained by multiplying the weighting coefficients indicated by K_AF_FQ_00, K_AF_FQ_01, and K_AF_FQ_1 by the spatial frequencies FQ1 to FQ4 are compared, there is the following relationship.
K_AF_FQ_00 <K_AF_FQ_01 <K_AF_FQ_1
This means that when the AF exposure time is short, the influence of image blur is small and the AF evaluation band is high. Further, when the AF exposure time is long and the image blur amount is large, it is considered that the spatial frequency of the subject is biased toward the low frequency side, which means that the AF evaluation band is set to the low frequency side.
また、本実施例では1つの像振れ量(所定値X)を境界として評価帯域を2つの周波数帯域間で変更するが、2以上の像振れ量を境界として評価帯域を3つ以上の周波数帯域間で変更してもよい。さらに、撮像画像についての所定値Xと焦点検出についての所定値とを互いに同じ値にしてもよいし、互いに異なる値にしてもよい。さらに、公知の予測方法により撮像画像についての像振れ量を予測(推定)してもよい。 In this embodiment, the evaluation band is changed between two frequency bands with one image blur amount (predetermined value X) as a boundary, but the evaluation band is three or more frequency bands with two or more image blur amounts as a boundary. You may change between. Further, the predetermined value X for the captured image and the predetermined value for focus detection may be the same value or different values. Furthermore, the image shake amount for the captured image may be predicted (estimated) by a known prediction method.
上記各実施例では、レンズ交換型デジタルカメラについて説明したが、本発明は、レンズ一体型デジタルカメラやビデオカメラも実施例として含む。また、カメラを備えた携帯電話機、パーソナルコンピュータ、ゲーム機等の広義の撮像装置も本発明の実施例に含まれる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
In each of the above embodiments, the interchangeable lens digital camera has been described. However, the present invention includes a lens integrated digital camera and a video camera as embodiments. An imaging device in a broad sense such as a mobile phone equipped with a camera, a personal computer, or a game machine is also included in the embodiments of the present invention.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.
120 撮像装置
125 カメラMPU
129 位相差AF部
120 imaging device 125 camera MPU
129 Phase difference AF unit
Claims (9)
前記焦点検出情報を補正するための補正値を取得する補正値取得手段と、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行う制御手段とを有し、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の前記第1の評価帯域は、前記第1の露光時間が前記第1の所定時間より短い場合の前記第1の評価帯域に比べて低いことを特徴とする撮像装置。 Focus detection means for generating focus detection information by detecting the focus state of the imaging optical system;
Correction value acquisition means for acquiring a correction value for correcting the focus detection information;
Control means for performing focus control using the focus detection information corrected by the correction value;
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first exposure time that is the exposure time at the time of imaging is longer than a first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. An imaging apparatus characterized by being lower than an evaluation band of 1.
前記焦点状態の検出時の露光時間である第2の露光時間が第2の所定時間より長い場合の前記第2の評価帯域は、前記第2の露光時間が前記第2の所定時間より短い場合の前記第2の評価帯域に比べて低いことを特徴とする請求項1に記載の撮像装置。 The correction value includes, as a variable, a second evaluation band that is a spatial frequency at which the focus state of the imaging optical system is evaluated by the focus detection unit,
The second evaluation band when the second exposure time that is the exposure time at the time of detecting the focus state is longer than a second predetermined time is when the second exposure time is shorter than the second predetermined time The imaging apparatus according to claim 1, wherein the imaging apparatus is lower than the second evaluation band.
前記焦点検出情報を補正するための補正値を取得する補正値取得手段と、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行う制御手段とを有し、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時における像振れ量である第1の像振れ量が第1の所定量より大きい場合の第1の評価帯域は、前記第1の像振れ量が前記第1の所定量より小さい場合の前記第1の評価帯域に比べて低いことを特徴とする撮像装置。 Focus detection means for generating focus detection information by detecting the focus state of the imaging optical system;
Correction value acquisition means for acquiring a correction value for correcting the focus detection information;
Control means for performing focus control using the focus detection information corrected by the correction value;
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first image blur amount, which is the image blur amount at the time of imaging, is larger than the first predetermined amount, is the case where the first image blur amount is smaller than the first predetermined amount. An imaging apparatus characterized by being lower than the first evaluation band.
前記焦点状態の検出時における像振れ量である第2の像振れ量が第2の所定値より大きい場合の前記第2の評価帯域は、前記第2の像振れ量が前記第2の所定量より小さい場合の前記第2の評価帯域に比べて低いことを特徴とする請求項4に記載の撮像装置。 The correction value includes, as a variable, a second evaluation band that is a spatial frequency at which the focus state of the imaging optical system is evaluated by the focus detection unit,
In the second evaluation band when the second image blur amount, which is the image blur amount at the time of detecting the focus state, is larger than a second predetermined value, the second image blur amount is the second predetermined amount. The imaging apparatus according to claim 4, wherein the imaging device is lower than the second evaluation band in the case of being smaller.
前記焦点検出情報を補正するための補正値を取得するステップと、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行うステップとを有し、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の前記第1の評価帯域は、前記第1の露光時間が前記第1の所定時間より短い場合の前記第1の評価帯域に比べて低いことを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus having focus detection means for detecting focus state of an imaging optical system and generating focus detection information,
Obtaining a correction value for correcting the focus detection information;
Performing focus control using the focus detection information corrected by the correction value,
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first exposure time that is the exposure time at the time of imaging is longer than a first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. A control method for an imaging apparatus, characterized by being lower than an evaluation band of 1.
前記焦点検出情報を補正するための補正値を取得するステップと、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行うステップとを有し、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時における像振れ量である第1の像振れ量が第1の所定量より大きい場合の第1の評価帯域は、前記第1の像振れ量が前記第1の所定量より小さい場合の前記第1の評価帯域に比べて低いことを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus having focus detection means for detecting focus state of an imaging optical system and generating focus detection information,
Obtaining a correction value for correcting the focus detection information;
Performing focus control using the focus detection information corrected by the correction value,
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first image blur amount, which is the image blur amount at the time of imaging, is larger than the first predetermined amount, is the case where the first image blur amount is smaller than the first predetermined amount. A control method for an imaging apparatus, characterized by being lower than the first evaluation band.
前記焦点検出情報を補正するための補正値を取得するステップと、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行うステップとを含む処理を実行させるコンピュータプログラムであって、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時の露光時間である第1の露光時間が第1の所定時間より長い場合の前記第1の評価帯域は、前記第1の露光時間が前記第1の所定時間より短い場合の前記第1の評価帯域に比べて低いことを特徴とするフォーカス制御プログラム。 In a computer of an imaging apparatus having focus detection means for detecting focus state of the imaging optical system and generating focus detection information,
Obtaining a correction value for correcting the focus detection information;
A computer program that executes processing including a step of performing focus control using the focus detection information corrected by the correction value,
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first exposure time that is the exposure time at the time of imaging is longer than a first predetermined time is the first evaluation band when the first exposure time is shorter than the first predetermined time. A focus control program characterized by being lower than one evaluation band.
前記焦点検出情報を補正するための補正値を取得するステップと、
前記補正値により補正された前記焦点検出情報を用いてフォーカス制御を行うステップとを含む処理を実行させるコンピュータプログラムであって、
前記補正値は、前記撮像光学系を用いた撮像により生成された撮像画像の焦点状態が評価される空間周波数である第1の評価帯域を変数として含み、
前記撮像時における像振れ量である第1の像振れ量が第1の所定量より大きい場合の第1の評価帯域は、前記第1の像振れ量が前記第1の所定量より小さい場合の前記第1の評価帯域に比べて低いことを特徴とするフォーカス制御プログラム。
In a computer of an imaging apparatus having focus detection means for detecting focus state of the imaging optical system and generating focus detection information,
Obtaining a correction value for correcting the focus detection information;
A computer program that executes processing including a step of performing focus control using the focus detection information corrected by the correction value,
The correction value includes, as a variable, a first evaluation band that is a spatial frequency at which a focus state of a captured image generated by imaging using the imaging optical system is evaluated,
The first evaluation band when the first image blur amount, which is the image blur amount at the time of imaging, is larger than the first predetermined amount, is the case where the first image blur amount is smaller than the first predetermined amount. A focus control program characterized by being lower than the first evaluation band.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225554A JP6548626B2 (en) | 2016-11-18 | 2016-11-18 | Image pickup apparatus, control method for image pickup apparatus, and focus control program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016225554A JP6548626B2 (en) | 2016-11-18 | 2016-11-18 | Image pickup apparatus, control method for image pickup apparatus, and focus control program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018081289A true JP2018081289A (en) | 2018-05-24 |
| JP6548626B2 JP6548626B2 (en) | 2019-07-24 |
Family
ID=62197753
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016225554A Active JP6548626B2 (en) | 2016-11-18 | 2016-11-18 | Image pickup apparatus, control method for image pickup apparatus, and focus control program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6548626B2 (en) |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001061148A (en) * | 1999-06-14 | 2001-03-06 | Nikon Corp | Compression encoding method, recording medium recording compression encoding program, and electronic camera for implementing compression encoding method |
| JP2012080411A (en) * | 2010-10-04 | 2012-04-19 | Canon Inc | Imaging apparatus and control method therefor |
| JP2012133127A (en) * | 2010-12-21 | 2012-07-12 | Canon Inc | Automatic focus adjusting device |
| JP2014102290A (en) * | 2012-11-16 | 2014-06-05 | Canon Inc | Automatic focusing apparatus |
| JP2015138200A (en) * | 2014-01-23 | 2015-07-30 | キヤノン株式会社 | Imaging apparatus and imaging method |
| JP2015222411A (en) * | 2014-05-01 | 2015-12-10 | キヤノン株式会社 | Image-capturing device and control method thereof |
| JP2016057516A (en) * | 2014-09-11 | 2016-04-21 | キヤノン株式会社 | Control device, imaging device, control method, program and recording medium |
-
2016
- 2016-11-18 JP JP2016225554A patent/JP6548626B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001061148A (en) * | 1999-06-14 | 2001-03-06 | Nikon Corp | Compression encoding method, recording medium recording compression encoding program, and electronic camera for implementing compression encoding method |
| JP2012080411A (en) * | 2010-10-04 | 2012-04-19 | Canon Inc | Imaging apparatus and control method therefor |
| JP2012133127A (en) * | 2010-12-21 | 2012-07-12 | Canon Inc | Automatic focus adjusting device |
| JP2014102290A (en) * | 2012-11-16 | 2014-06-05 | Canon Inc | Automatic focusing apparatus |
| JP2015138200A (en) * | 2014-01-23 | 2015-07-30 | キヤノン株式会社 | Imaging apparatus and imaging method |
| JP2015222411A (en) * | 2014-05-01 | 2015-12-10 | キヤノン株式会社 | Image-capturing device and control method thereof |
| JP2016057516A (en) * | 2014-09-11 | 2016-04-21 | キヤノン株式会社 | Control device, imaging device, control method, program and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6548626B2 (en) | 2019-07-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6478457B2 (en) | Focus adjustment device and focus adjustment method | |
| CN105430257B (en) | Control equipment and control method | |
| JP6486288B2 (en) | Imaging apparatus, control method, program, storage medium | |
| CN110542977B (en) | Notification method and system | |
| JP6682310B2 (en) | Focus detection apparatus and method, and imaging apparatus | |
| CN109981945B (en) | Image pickup optical system | |
| CN105578033B (en) | Image capture device and control method of image capture device | |
| JP7091053B2 (en) | Imaging device and focus detection method | |
| JP6464118B2 (en) | Focus detection apparatus and method, imaging apparatus, and lens unit | |
| JP6298362B2 (en) | Imaging apparatus, control method therefor, and imaging system | |
| US9485409B2 (en) | Image capturing apparatus and control method therefor | |
| JP6890937B2 (en) | Focus detector, image pickup device, and focus detection method | |
| JP6854619B2 (en) | Focus detection device and method, imaging device, lens unit and imaging system | |
| JP2016090816A (en) | Imaging apparatus and control method thereof | |
| JP2020003686A (en) | Focus detection device, imaging device, and interchangeable lens device | |
| JP6744933B2 (en) | Lens part and its control method | |
| JP6548626B2 (en) | Image pickup apparatus, control method for image pickup apparatus, and focus control program | |
| JP6415054B2 (en) | Imaging apparatus and imaging method | |
| JP6686191B2 (en) | Focus detection device, imaging device, and focus detection method | |
| JP6686239B1 (en) | Lens unit, transmitter, and receiver |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180920 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181221 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6548626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |