[go: up one dir, main page]

JP2024096310A - Focus detection device and image sensor - Google Patents

Focus detection device and image sensor Download PDF

Info

Publication number
JP2024096310A
JP2024096310A JP2024074502A JP2024074502A JP2024096310A JP 2024096310 A JP2024096310 A JP 2024096310A JP 2024074502 A JP2024074502 A JP 2024074502A JP 2024074502 A JP2024074502 A JP 2024074502A JP 2024096310 A JP2024096310 A JP 2024096310A
Authority
JP
Japan
Prior art keywords
focus detection
pixel
output
focus
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2024074502A
Other languages
Japanese (ja)
Other versions
JP7722516B2 (en
Inventor
宏明 高原
Hiroaki Takahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2024074502A priority Critical patent/JP7722516B2/en
Publication of JP2024096310A publication Critical patent/JP2024096310A/en
Priority to JP2025126793A priority patent/JP2025156406A/en
Application granted granted Critical
Publication of JP7722516B2 publication Critical patent/JP7722516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

To provide a focusing state detector and a camera that can suitably detect a focus state.SOLUTION: A focus detector comprises: an image pick-up device that has, on an imaging surface picking up an image formed by an optical system, a plurality of areas detecting a focusing state of the image on the imaging surface, and is arranged, on each of the areas, with a plurality of rows of pixels each having a first pixel receiving light passing through a first area of the optical system and outputting a signal and a second pixel receiving light passing through a second area of the optical system and outputting a signal; and a detection unit that detects the focusing state based on the signals output from the rows of pixels, the number of which is smaller than the number of the rows of pixels arranged in one of the plurality of areas.SELECTED DRAWING: Figure 3

Description

本発明は、焦点検出装置、及び、撮像素子に関する。 The present invention relates to a focus detection device and an image sensor.

従来より、複数の受光素子群を備えた焦点検出装置において、複数の受光素子群のそれぞれについてデフォーカス量を算出し、算出した複数のデフォーカス量の中から1つのデフォーカス量を選択することで、選択したデフォーカス量に基づいて、焦点検出を行う技術が知られている(たとえば、特許文献1参照)。 In a conventional focus detection device equipped with multiple light receiving element groups, a technique is known in which a defocus amount is calculated for each of the multiple light receiving element groups, one defocus amount is selected from the multiple calculated defocus amounts, and focus detection is performed based on the selected defocus amount (see, for example, Patent Document 1).

特開2003-215437号公報JP 2003-215437 A

本発明が解決しようとする課題は、焦点状態を好適に検出することができる合焦状態検出装置、及び、撮像素子を提供することにある。 The problem that this invention aims to solve is to provide a focus state detection device and an image sensor that can effectively detect the focus state.

本発明は、以下の解決手段によって上記課題を解決する。 The present invention solves the above problems by the following solutions:

[1]本発明に係る焦点検出装置は、光学系により形成された像を撮像する撮像面に、前記像と前記撮像面との合焦状態を検出する複数の焦点検出領域を有し、前記複数の焦点検出領域のそれぞれに、前記光学系の第1の領域を通過する光を受光し信号を出力する第1光電変換部及び前記光学系の第2の領域を通過する光を受光し信号を出力する第2光電変換部を有する画素を含む画素列を複数列配置した撮像素子と、前記複数の焦点検出領域のうちの1つの前記焦点検出領域内に配置された複数の前記画素列の出力のコントラスト情報を検出し、検出結果に基づいて、前記1つの焦点検出領域に配置された前記複数の画素列の中から焦点検出に用いる一部の画素列を特定し、特定された前記画素列から出力された信号に基づいて合焦状態を検出する制御部と、を備えることを特徴とする。
[2]本発明に係る撮像素子は、光学系により形成された像を撮像する撮像面に、前記像と前記撮像面との合焦状態を検出する複数の焦点検出領域を有し、前記複数の焦点検出領域のそれぞれに、前記光学系の第1の領域を通過する光を受光し信号を出力する第1光電変換部及び前記光学系の第2の領域を通過する光を受光し信号を出力する第2光電変換部を有する画素を含む画素列を複数列配置した撮像部と、前記複数の焦点検出領域のうちの1つの前記焦点検出領域内に配置された複数の前記画素列の出力のコントラスト情報を検出し、検出結果に基づいて、前記1つの焦点検出領域に配置された前記複数の画素列の中から焦点検出に用いる一部の画素列を特定し、特定された前記画素列から出力された信号に基づいて合焦状態を検出する演算部と、を備えることを特徴とする。
[1] A focus detection device according to the present invention is characterized in that it comprises an image sensor having a plurality of focus detection areas on an imaging surface that captures an image formed by an optical system and that detects a focus state between the image and the imaging surface, and in each of the plurality of focus detection areas, a plurality of pixel rows are arranged, each including a pixel having a first photoelectric conversion unit that receives light passing through a first region of the optical system and outputs a signal, and a second photoelectric conversion unit that receives light passing through a second region of the optical system and outputs a signal; and a control unit that detects contrast information of the output of the plurality of pixel rows arranged in one of the plurality of focus detection areas, identifies a portion of pixel rows to be used for focus detection from the plurality of pixel rows arranged in the one focus detection area based on the detection result, and detects the focus state based on a signal output from the identified pixel row.
[2] An image sensor according to the present invention is characterized in that it comprises: an imaging unit having an imaging surface that captures an image formed by an optical system, a plurality of focus detection areas that detect a focus state between the image and the imaging surface, and in each of the plurality of focus detection areas, a plurality of pixel rows each including a pixel having a first photoelectric conversion unit that receives light passing through a first region of the optical system and outputs a signal and a second photoelectric conversion unit that receives light passing through a second region of the optical system and outputs a signal; and a calculation unit that detects contrast information of the output of a plurality of the pixel rows arranged in one of the plurality of focus detection areas, identifies a portion of the pixel rows to be used for focus detection from the plurality of pixel rows arranged in the one focus detection area based on the detection result, and detects the focus state based on a signal output from the identified pixel row.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 2 is a front view showing the imaging surface of the imaging element shown in FIG. 図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is an enlarged front view of part III in FIG. 2, showing a schematic arrangement of the imaging pixels 221 and the focus detection pixels 222a and 222b. 図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(D)は、撮像画素221の一つを拡大して示す断面図、図4(E)は、第1焦点検出画素222aの一つを拡大して示す断面図、図4(F)は、第2焦点検出画素222bの一つを拡大して示す断面図である。Figure 4(A) is a front view showing an enlarged view of one of the imaging pixels 221, Figure 4(B) is a front view showing an enlarged view of one of the first focus detection pixels 222a, Figure 4(C) is a front view showing an enlarged view of one of the second focus detection pixels 222b, Figure 4(D) is a cross-sectional view showing an enlarged view of one of the imaging pixels 221, Figure 4(E) is a cross-sectional view showing an enlarged view of one of the first focus detection pixels 222a, and Figure 4(F) is a cross-sectional view showing an enlarged view of one of the second focus detection pixels 222b. 図5は、図3のV-V線に沿う断面図である。FIG. 5 is a cross-sectional view taken along line VV in FIG. 図6は、第1実施形態に係るカメラの動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the camera according to the first embodiment. 図7は、本実施形態に係るカメラ1の動作例を説明するための図である。FIG. 7 is a diagram for explaining an example of the operation of the camera 1 according to the present embodiment. 図8は、従来のカメラの動作例を説明するための図である。FIG. 8 is a diagram for explaining an example of the operation of a conventional camera. 図9は、本実施形態に係る第1焦点検出画素222aおよび第2焦点検出画素222bの配列を模式的に示した図である。FIG. 9 is a diagram showing a schematic arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b according to this embodiment. 図10(A)は、本実施形態における相関量とシフト量との関係を示すグラフであり、図10(B)は、従来技術における相関量とシフト量との関係を示すグラフである。FIG. 10A is a graph showing the relationship between the correlation amount and the shift amount in this embodiment, and FIG. 10B is a graph showing the relationship between the correlation amount and the shift amount in the prior art. 図11は、第2実施形態に係るカメラの動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the camera according to the second embodiment. 図12は、焦点検出画素列の出力に含まれる周波数成分の一例を示す図である。FIG. 12 is a diagram showing an example of frequency components included in the output of a focus detection pixel array. 図13は、第3実施形態におけるコントラスト情報の算出方法を説明するための図である。FIG. 13 is a diagram for explaining a method of calculating contrast information in the third embodiment. 図14は、第4実施形態に係るカメラを示す構成図である。FIG. 14 is a diagram showing the configuration of a camera according to the fourth embodiment. 図15は、図14に示す焦点検出モジュールを示す構成図である。FIG. 15 is a block diagram showing the focus detection module shown in FIG. 図16は、図14に示す撮像素子の撮像面を示す正面図である。FIG. 16 is a front view showing the imaging surface of the imaging element shown in FIG. 図17は、図16に示す焦点検出領域224の一つを拡大して示す正面図である。FIG. 17 is an enlarged front view of one of the focus detection areas 224 shown in FIG. 図18(A)は、撮像画素221aの一つを拡大して示す正面図、図18(B)は断面図である。FIG. 18A is an enlarged front view of one of the imaging pixels 221a, and FIG. 18B is a cross-sectional view. 図19は、図17のXIX-XIX線に沿う断面図である。FIG. 19 is a cross-sectional view taken along line XIX-XIX in FIG. 図20は、図16に示す焦点検出領域224の一つを拡大して示す正面図である。FIG. 20 is an enlarged front view of one of the focus detection areas 224 shown in FIG. 図21は、第4実施形態におけるコントラスト情報の算出方法を説明するための図である。FIG. 21 is a diagram for explaining a method of calculating contrast information in the fourth embodiment. 図22は、各グループにおける周波数成分の一例を示す図である。FIG. 22 is a diagram showing an example of frequency components in each group. 図23は、第4実施形態に係るカメラの動作を示すフローチャートである。FIG. 23 is a flowchart showing the operation of the camera according to the fourth embodiment. 図24は、第5実施形態におけるコントラスト情報の算出方法を説明するための図である。FIG. 24 is a diagram for explaining a method of calculating contrast information in the fifth embodiment. 図25は、第5実施形態に係るカメラの動作を示すフローチャートである。FIG. 25 is a flowchart showing the operation of the camera according to the fifth embodiment. 図26は、他の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 26 is a front view showing a schematic arrangement of focus detection pixels 222a and 222b according to another embodiment. 図27は、別の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 27 is a front view showing a schematic arrangement of focus detection pixels 222a and 222b according to another embodiment. 図28は、さらに別の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 28 is a front view showing a schematic arrangement of focus detection pixels 222a and 222b according to yet another embodiment.

以下、実施形態を図面に基づいて説明する。 The following describes the embodiment with reference to the drawings.

《第1実施形態》
図1は、実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。
First Embodiment
1 is a diagram showing the essential components of a digital camera 1 according to an embodiment of the present invention. Digital camera 1 according to the present embodiment (hereinafter simply referred to as camera 1) is made up of a camera body 2 and a lens barrel 3, which are detachably connected to each other via a mount section 4.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。 The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 contains a photographic optical system that includes lenses 31, 32, and 33, and an aperture 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点状態を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。 The lens 32 is a focus lens, and can adjust the focus state of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is movable along the optical axis L1 of the lens barrel 3, and its position is detected by the encoder 35 and adjusted by the focus lens drive motor 36.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。 The aperture 34 is configured to have an adjustable aperture diameter centered on the optical axis L1 in order to limit the amount of light passing through the photographing optical system and reaching the image sensor 22, and to adjust the amount of blur. The aperture diameter is adjusted by the aperture 34, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. In addition, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by manual operation using the operation unit 28 provided on the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture aperture sensor (not shown), and the current aperture diameter is recognized by the lens control unit 37.

レンズ制御部37は、カメラ制御部21からの指令に基づいて、フォーカスレンズ32の駆動、絞り34による開口径の調節などレンズ鏡筒3全体の制御を実行する。 The lens control unit 37 performs overall control of the lens barrel 3, such as driving the focus lens 32 and adjusting the aperture diameter of the diaphragm 34, based on commands from the camera control unit 21.

一方、カメラ本体2には、上記撮影光学系からの光束を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。なお、メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。また、撮像素子22の構造の詳細は後述する。 On the other hand, in the camera body 2, an image sensor 22 that receives light from the above-mentioned photographing optical system is provided at the planned focal plane of the photographing optical system, and a shutter 23 is provided in front of it. The image sensor 22 is composed of devices such as CCD and CMOS, and converts the received light signal into an electrical signal and sends it to the camera control unit 21. The photographed image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and when a release button (not shown) provided on the operation unit 28 is fully pressed, the photographed image information is recorded in the memory 24, which is a recording medium. The memory 24 can be either a removable card-type memory or a built-in memory. The structure of the image sensor 22 will be described in detail later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。 The camera body 2 is provided with an observation optical system for observing the image captured by the image sensor 22. The observation optical system of this embodiment includes an electronic viewfinder (EVF) 26 made of a liquid crystal display element, an LCD drive circuit 25 that drives it, and an eyepiece 27. The LCD drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on this information. This allows the user to observe the currently captured image through the eyepiece 27. Note that instead of or in addition to the observation optical system based on the optical axis L2, a liquid crystal display can be provided on the back of the camera body 2, and the captured image can be displayed on this liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、各種レンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。 The camera body 2 is provided with a camera control unit 21. The camera control unit 21 receives various lens information and transmits information such as the defocus amount and aperture diameter to the lens control unit 37. As described above, the camera control unit 21 also reads out pixel output from the image sensor 22, and generates image information by performing predetermined information processing on the read pixel output as necessary, and outputs the generated image information to the LCD drive circuit 25 of the electronic viewfinder 26 and the memory 24. The camera control unit 21 also controls the entire camera 1, such as correcting the image information from the image sensor 22 and detecting the focus adjustment state and aperture adjustment state of the lens barrel 3.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については後述する。 In addition to the above, the camera control unit 21 detects the focus state of the photographing optical system using a phase detection method and a contrast detection method based on the pixel data read from the image sensor 22. The specific method of detecting the focus state will be described later.

操作部28は、シャッターレリーズボタンなどの撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。 The operation unit 28 is an input switch such as a shutter release button that allows the photographer to set various operation modes of the camera 1, and allows switching between autofocus mode and manual focus mode. The various modes set by this operation unit 28 are sent to the camera control unit 21, which controls the operation of the entire camera 1. The shutter release button also includes a first switch SW1 that is turned ON when the button is pressed halfway, and a second switch SW2 that is turned ON when the button is pressed all the way.

次に、本実施形態に係る撮像素子22について説明する。 Next, we will explain the imaging element 22 according to this embodiment.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。 Figure 2 is a front view showing the imaging surface of the image sensor 22, and Figure 3 is a front view enlarging part III in Figure 2 and showing a schematic arrangement of the imaging pixels 221 and the focus detection pixels 222a and 222b.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。なお、本実施形態においては、この4つの画素群223により、1画素を構成することとなる。 As shown in FIG. 3, the image sensor 22 of this embodiment has a plurality of image pixels 221 arranged two-dimensionally on the plane of the image sensor surface, and green pixels G having a color filter that transmits the green wavelength region, red pixels R having a color filter that transmits the red wavelength region, and blue pixels B having a color filter that transmits the blue wavelength region are arranged in a so-called Bayer arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel groups 223 in a two-dimensional manner on the image sensor surface of the image sensor 22, with the Bayer-arranged pixel groups 223 as units. In this embodiment, one pixel is configured by these four pixel groups 223.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。 The arrangement of the unit pixel groups 223 can be, for example, a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Furthermore, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be used.

図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(D)は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図4(D)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。 Fig. 4(A) is a front view showing an enlarged image pixel 221, and Fig. 4(D) is a cross-sectional view. One image pixel 221 is composed of a microlens 2211, a photoelectric conversion unit 2212, and a color filter (not shown). As shown in the cross-sectional view of Fig. 4(D), the photoelectric conversion unit 2212 is fabricated on the surface of the semiconductor circuit board 2213 of the image sensor 22, and the microlens 2211 is formed on the surface of the photoelectric conversion unit 2212. The photoelectric conversion unit 2212 is shaped to receive the image light beam passing through the exit pupil (e.g. F1.0) of the imaging optical system 31 by the microlens 2211, and receives the image light beam.

また、図2に示すように、撮像素子22の撮像面の中心、および中心から左右対称位置と、それらの上下対称位置の計9箇所には、上述した撮像画素221に代えて、焦点検出画素222a,222bが配列された焦点検出画素列群22a~22iが設けられている。そして、図3に示すように、各焦点検出画素列群は、4つの焦点検出画素列L1~L4から構成されており、各焦点検出画素列L1~L4は、複数の第1焦点検出画素222aおよび第2焦点検出画素222bが、互いに隣接して交互に、横一列に配列されて構成されている。また、図3に示すように、本実施形態では、焦点検出画素列L1,L3と焦点検出画素列L2,L4とにおいて、焦点検出画素222aおよび焦点検出画素222bがX軸方向において逆になるように配置されている。さらに、本実施形態では、図3に示すように、第1焦点検出画素222aおよび第2焦点検出画素222bが、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。 2, focus detection pixel column groups 22a-22i in which focus detection pixels 222a and 222b are arranged instead of the above-mentioned imaging pixel 221 are provided at the center of the imaging surface of the image sensor 22, at positions symmetrical to the left and right of the center, and at positions symmetrical to the top and bottom of the center, in total of nine positions. As shown in FIG. 3, each focus detection pixel column group is composed of four focus detection pixel columns L1-L4, and each focus detection pixel column L1-L4 is composed of a plurality of first focus detection pixels 222a and second focus detection pixels 222b arranged alternately adjacent to each other in a horizontal row. As shown in FIG. 3, in this embodiment, the focus detection pixels 222a and the focus detection pixels 222b are arranged so that they are reversed in the X-axis direction in the focus detection pixel columns L1 and L3 and the focus detection pixel columns L2 and L4. Furthermore, in this embodiment, as shown in FIG. 3, the first focus detection pixel 222a and the second focus detection pixel 222b are densely arranged without gaps at the positions of the green pixel G and the blue pixel B of the Bayer arrayed imaging pixel 221.

なお、図2に示す焦点検出画素列群22a~22iの位置は図示する位置に限定されず、何れか1箇所または2~8箇所等にすることもでき、また、10箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列群22a~22iの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素群を、焦点調節を行うための焦点検出エリアAFPとして選択することもできる。 The positions of the focus detection pixel array groups 22a-22i shown in FIG. 2 are not limited to those shown in the figure, and they can be arranged in one location, or two to eight locations, or even in ten or more locations. Furthermore, during actual focus detection, the photographer can manually operate the operation unit 28 to select a desired focus detection pixel group from the multiple focus detection pixel array groups 22a-22i arranged as the focus detection area AFP for focus adjustment.

図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(E)は、第1焦点検出画素222aの断面図である。また、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(F)は、第2焦点検出画素222bの断面図である。第1焦点検出画素222aは、図4(B)に示すように、マイクロレンズ2221aと、矩形状の光電変換部2222aとから構成され、図4(E)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、第2焦点検出画素222bは、図4(C)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図4(F)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、各焦点検出画素列L1~L4を構成する。 Figure 4(B) is an enlarged front view of one of the first focus detection pixels 222a, and Figure 4(E) is a cross-sectional view of the first focus detection pixel 222a. Also, Figure 4(C) is an enlarged front view of one of the second focus detection pixels 222b, and Figure 4(F) is a cross-sectional view of the second focus detection pixel 222b. As shown in Figure 4(B), the first focus detection pixel 222a is composed of a microlens 2221a and a rectangular photoelectric conversion unit 2222a, and as shown in the cross-sectional view of Figure 4(E), the photoelectric conversion unit 2222a is built into the surface of the semiconductor circuit board 2213 of the image sensor 22, and the microlens 2221a is formed on the surface. As shown in Fig. 4C, the second focus detection pixel 222b is composed of a microlens 2221b and a photoelectric conversion unit 2222b, and as shown in the cross-sectional view of Fig. 4F, the photoelectric conversion unit 2222b is fabricated on the surface of the semiconductor circuit board 2213 of the image sensor 22, and the microlens 2221b is formed on the surface of the photoelectric conversion unit 2222b. As shown in Fig. 3, these focus detection pixels 222a and 222b are arranged alternately adjacent to each other in a horizontal line to form each of the focus detection pixel columns L1 to L4.

なお、第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、第1焦点検出画素222a、第2焦点検出画素222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。 The photoelectric conversion units 2222a, 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b are shaped to receive light passing through a predetermined area (e.g., F2.8) of the exit pupil of the imaging optical system by the microlenses 2221a, 2221b. The first focus detection pixel 222a and the second focus detection pixel 222b are not provided with a color filter, and their spectral characteristics are a combination of the spectral characteristics of the photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). However, they can also be configured to have one of the same color filters as the imaging pixel 221, for example a green filter.

また、図4(B)、図4(C)に示す第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは矩形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、半円形状、楕円形状、多角形状とすることもできる。 In addition, the photoelectric conversion units 2222a, 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b shown in Figures 4(B) and 4(C) are rectangular, but the shape of the photoelectric conversion units 2222a, 2222b is not limited to this and can also be other shapes, such as a semicircular shape, an elliptical shape, or a polygonal shape.

次いで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。 Next, we will explain the so-called phase difference detection method, which detects the focus state of the imaging optical system based on the pixel output of the focus detection pixels 222a and 222b described above.

図5は、図3のV-V線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a-1,222b-1,222a-2,222b-2が、射出瞳350の測距瞳351,352から照射される光束AB1-1,AB2-1,AB1-2,AB2-2をそれぞれ受光していることを示している。なお、図5においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図5に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳351,352から照射される光束をそれぞれ受光するように構成されている。 Figure 5 is a cross-sectional view taken along line V-V in Figure 3, and shows that adjacent focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2, which are arranged near the imaging optical axis L1, receive light beams AB1-1, AB2-1, AB1-2, and AB2-2 emitted from ranging pupils 351 and 352 of the exit pupil 350, respectively. Note that, of the multiple focus detection pixels 222a and 222b, only those located near the imaging optical axis L1 are shown as examples in Figure 5, but the other focus detection pixels other than the focus detection pixels shown in Figure 5 are similarly configured to receive light beams emitted from a pair of ranging pupils 351 and 352, respectively.

ここで、射出瞳350とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳351,352とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。 Here, the exit pupil 350 is an image set at a position a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the imaging optical system. The distance D is a value that is uniquely determined depending on the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the like, and this distance D is called the ranging pupil distance. In addition, the ranging pupils 351 and 352 refer to the images of the photoelectric conversion units 2222a and 2222b projected by the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b, respectively.

なお、図5において焦点検出画素222a-1,222b-1,222a-2,222b-2の配列方向は一対の測距瞳351,352の並び方向と一致している。 In addition, in FIG. 5, the arrangement direction of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 coincides with the arrangement direction of the pair of ranging pupils 351 and 352.

また、図5に示すように、焦点検出画素222a-1,222b-1,222a-2,222b-2のマイクロレンズ2221a-1,2221b-1,2221a-2,2221b-2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a-1,2221b-1,2221a-2,2221b-2の背後に配置された各光電変換部2222a-1,2222b-1,2222a-2,2222b-2の形状が、各マイクロレンズ2221a-1,2221b-1,2221a-2,2221b-2から測距距離Dだけ離れた射出瞳350上に投影され、その投影形状は測距瞳351,352を形成する。 As shown in FIG. 5, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are arranged near the planned focal plane of the imaging optical system. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, and 2222b-2 arranged behind the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 are projected onto the exit pupil 350, which is separated from the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 by the distance measurement distance D, and the projected shapes form the distance measurement pupils 351 and 352.

すなわち、測距距離Dにある射出瞳350上で、各焦点検出画素の光電変換部の投影形状(測距瞳351,352)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。 In other words, the relative positional relationship between the microlens and the photoelectric conversion unit in each focus detection pixel is determined so that the projection shape (measuring pupils 351, 352) of the photoelectric conversion unit of each focus detection pixel coincides on the exit pupil 350 at the measuring distance D, thereby determining the projection direction of the photoelectric conversion unit in each focus detection pixel.

図5に示すように、第1焦点検出画素222a-1の光電変換部2222a-1は、測距瞳351を通過し、マイクロレンズ2221a-1に向う光束AB1-1によりマイクロレンズ2221a-1上に形成される像の強度に対応した信号を出力する。同様に、第1焦点検出画素222a-2の光電変換部2222a-2は測距瞳351を通過し、マイクロレンズ2221a-2に向う光束AB1-2によりマイクロレンズ2221a-2上に形成される像の強度に対応した信号を出力する。 As shown in FIG. 5, the photoelectric conversion unit 2222a-1 of the first focus detection pixel 222a-1 outputs a signal corresponding to the intensity of an image formed on the microlens 2221a-1 by the light beam AB1-1 that passes through the ranging pupil 351 and heads toward the microlens 2221a-1. Similarly, the photoelectric conversion unit 2222a-2 of the first focus detection pixel 222a-2 outputs a signal corresponding to the intensity of an image formed on the microlens 2221a-2 by the light beam AB1-2 that passes through the ranging pupil 351 and heads toward the microlens 2221a-2.

また、第2焦点検出画素222b-1の光電変換部2222b-1は測距瞳352を通過し、マイクロレンズ2221b-1に向う光束AB2-1によりマイクロレンズ2221b-1上に形成される像の強度に対応した信号を出力する。同様に、第2焦点検出画素222b-2の光電変換部2222b-2は測距瞳352を通過し、マイクロレンズ2221b-2に向う光束AB2-2によりマイクロレンズ2221b-2上に形成される像の強度に対応した信号を出力する。 The photoelectric conversion unit 2222b-1 of the second focus detection pixel 222b-1 outputs a signal corresponding to the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 that passes through the ranging pupil 352 and heads toward the microlens 2221b-1. Similarly, the photoelectric conversion unit 2222b-2 of the second focus detection pixel 222b-2 outputs a signal corresponding to the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 that passes through the ranging pupil 352 and heads toward the microlens 2221b-2.

そして、上述した焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳351と測距瞳352とのそれぞれに対応した出力グループにまとめることにより、測距瞳351と測距瞳352とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータを得る。 Then, by grouping the outputs of the photoelectric conversion units 2222a, 2222b of the focus detection pixels 222a, 222b described above into output groups corresponding to the ranging pupil 351 and the ranging pupil 352, respectively, data is obtained regarding the intensity distribution of a pair of images formed on the focus detection pixel row by the focus detection light beams passing through the ranging pupil 351 and the ranging pupil 352, respectively.

そして、カメラ制御部21は、一対の像の強度分布に関するデータ列、すなわち、焦点検出画素列のうち第1焦点検出画素222aに基づくデータ列と、第2焦点検出画素222bに基づくデータ列とを、一次元状に相対的にシフトさせながら、下記式(1)に示す相関演算を行う。
C(k)=Σ|IA(n+k)-IB(n)| …(1)
なお、上記式(1)において、Σ演算はnについての累積演算(総和演算)を示し、像ずらし量kに応じてIA(n+k)、IB(n)のデータが存在する範囲に限定される。また、像ずらし量kは整数であり、各焦点検出画素222a,222bの画素間隔を単位としたシフト量である。なお、上記式(1)の演算結果においては、一対の像データの相関が高いシフト量において、相関量C(k)は極小(小さいほど相関度が高い)になる。
Then, the camera control unit 21 performs a correlation calculation shown in the following equation (1) while relatively shifting, in one dimension, the data strings relating to the intensity distribution of the pair of images, i.e., the data string based on the first focus detection pixel 222a and the data string based on the second focus detection pixel 222b among the focus detection pixel strings.
C(k) = Σ |I A(n + k) -I B(n) | ... (1)
In the above formula (1), the Σ calculation indicates an accumulation calculation (sum calculation) for n, and is limited to a range in which the data I A(n+k) and I B(n) exist according to the image shift amount k. The image shift amount k is an integer, and is a shift amount in units of the pixel spacing between the focus detection pixels 222a, 222b. In the calculation results of the above formula (1), the correlation amount C(k) becomes extremely small (the smaller the shift amount, the higher the degree of correlation).

そして、上記式(1)に従って、相関量C(k)の算出を行い、相関量の極小値C(x)が得られるシフト量xに基づいて、下記式(2)に従い、デフォーカス量dfを算出する。なお、上記式(2)において、kは、相関量の極小値C(x)が得られるシフト量xをデフォーカス量に変換するための変換係数(kファクター)である。
df=x・k …(2)
Then, the correlation amount C(k) is calculated according to the above formula (1), and the defocus amount df is calculated according to the following formula (2) based on the shift amount x at which the correlation amount minimum value C(x) is obtained. Note that in the above formula (2), k is a conversion coefficient (k factor) for converting the shift amount x at which the correlation amount minimum value C(x) is obtained into a defocus amount.
df = x k ... (2)

さらに、本実施形態において、カメラ制御部21は、複数の焦点検出画素列L1~L4の出力から、コントラスト情報を検出し、検出したコントラスト情報に基づいて、デフォーカス量の演算に用いる焦点検出画素列を、特定焦点検出画素列として決定する。 Furthermore, in this embodiment, the camera control unit 21 detects contrast information from the output of multiple focus detection pixel rows L1 to L4, and determines the focus detection pixel row to be used in calculating the defocus amount as the specific focus detection pixel row based on the detected contrast information.

具体的には、カメラ制御部21は、各焦点検出画素列L1~L4の出力を撮像素子22から取得し、取得した焦点検出画素列L1~L4の出力を、高周波透過フィルタでフィルタ処理することで、焦点検出画素列L1~L4の出力から高周波成分を抽出する。そして、カメラ制御部21は、各焦点検出画素列L1~L4の高周波成分を比較し、比較の結果に基づいて、複数の焦点検出画素列L1~L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列を、特定焦点検出画素列として決定する。また、カメラ制御部21は、上記比較結果に基づいて、複数の焦点検出画素列L1~L4のうち、出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定する構成としてもよい。 Specifically, the camera control unit 21 acquires the output of each focus detection pixel row L1 to L4 from the image sensor 22, and extracts high-frequency components from the output of the focus detection pixel rows L1 to L4 by filtering the acquired output of the focus detection pixel rows L1 to L4 with a high-frequency pass filter. The camera control unit 21 then compares the high-frequency components of each focus detection pixel row L1 to L4, and based on the comparison result, determines the focus detection pixel row of the multiple focus detection pixel rows L1 to L4 that corresponds to the subject with the highest contrast as the specific focus detection pixel row. The camera control unit 21 may also be configured to determine the focus detection pixel row of the multiple focus detection pixel rows L1 to L4 whose output contains the most high-frequency components as the specific focus detection pixel row based on the comparison result.

なお、本実施形態では、カメラ制御部21が、撮像素子22から複数の焦点検出画素列L1~L4の出力を取得することで、複数の焦点検出画素列L1~L4の中から、特定焦点検出画素列を決定する構成を例示して説明したが、この構成に限定されず、たとえば、撮像素子22が備える演算部により、各焦点検出画素列L1~L4の出力に基づいて、点検出画素列L1~L4ごとに、コントラスト情報を検出し、検出したコントラスト情報に基づいて、複数の焦点検出画素列L1~L4の中から、特定焦点検出画素列を決定し、決定した特定焦点検出画素列の情報を、カメラ制御部21に送信する構成としてもよい。 In this embodiment, the camera control unit 21 acquires the output of the multiple focus detection pixel rows L1 to L4 from the image sensor 22, and determines a specific focus detection pixel row from among the multiple focus detection pixel rows L1 to L4. However, the present invention is not limited to this configuration. For example, a calculation unit included in the image sensor 22 may detect contrast information for each point detection pixel row L1 to L4 based on the output of each focus detection pixel row L1 to L4, determine a specific focus detection pixel row from among the multiple focus detection pixel rows L1 to L4 based on the detected contrast information, and transmit information about the determined specific focus detection pixel row to the camera control unit 21.

そして、カメラ制御部21は、決定した特定焦点検出画素列の出力に基づいて、デフォーカス量を演算する。このように、本実施形態では、複数の焦点検出画素列L1~L4のうち、特定焦点出画素列として決定された焦点検出画素列の出力のみに基づいて、デフォーカス量の演算が行われるため、デフォーカス量の演算にかかる時間を短縮することができる。 The camera control unit 21 then calculates the defocus amount based on the output of the determined specific focus detection pixel row. In this way, in this embodiment, the defocus amount is calculated based only on the output of the focus detection pixel row determined as the specific focus detection pixel row out of the multiple focus detection pixel rows L1 to L4, so the time required to calculate the defocus amount can be shortened.

すなわち、従来では、焦点検出画素列が複数ある場合に、全ての焦点検出画素列についてデフォーカス量の演算が行われ、算出した複数のデフォーカス量の中から、フォーカスレンズ32の駆動に用いるデフォーカス量を選択していた。そのため、従来では、選択されたデフォーカス量以外のデフォーカス量についての演算が無駄になるだけではなく、複数の焦点検出画素列L1~L4の全てについてデフォーカス量を演算するため、デフォーカス量の演算時間が長くなってしまうという問題があった。これに対して、本実施形態では、特定焦点出画素列として決定された焦点検出画素列の出力のみに基づいて、デフォーカス量の演算が行われるため、デフォーカス量の算出にかかる時間を短縮することができ、その結果、焦点検出にかかる時間を短縮することができる。 That is, in the past, when there were multiple focus detection pixel rows, the defocus amount was calculated for all of the focus detection pixel rows, and the defocus amount used to drive the focus lens 32 was selected from the multiple calculated defocus amounts. Therefore, in the past, not only was the calculation of defocus amounts other than the selected defocus amount wasted, but there was also the problem that the time required to calculate the defocus amount was long because the defocus amount was calculated for all of the multiple focus detection pixel rows L1 to L4. In contrast, in this embodiment, the defocus amount is calculated based only on the output of the focus detection pixel row determined as the specific focusing pixel row, so the time required to calculate the defocus amount can be shortened, and as a result, the time required for focus detection can be shortened.

なお、本実施形態では、撮像素子22の焦点検出画素列群22a~22iに対応して、撮影光学系の撮影画面内に、複数の焦点検出エリアAFPが設定されており、撮影者は、操作部28を介して、焦点調節に用いる焦点検出エリアAFPを設定することができる。たとえば、撮影者が、焦点調節に用いる焦点検出エリアAFPとして、焦点検出画素列群22aに対応する焦点検出エリアAFPを選択した場合には、カメラ制御部21は、焦点検出画素列群22aに含まれる焦点検出画素列L1~L4の出力に基づいて、デフォーカス量を算出する。また、焦点検出エリアAFPを設定する方法は、撮影者が選択する方法に限定されず、たとえば、カメラ制御部21が、撮像素子22から出力される画像データに基づいて顔認識処理を行うことで、被写体の顔部に対応する焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして設定する構成としてもよい。あるいは、撮影画面内に設定されている全ての焦点検出エリアAFPにおける焦点検出画素列L1~L4の出力を取得し、取得した焦点検出画素列L1~L4の出力に基づいて、焦点調節に用いる焦点検出エリアAFPを設定する構成としてもよい。 In this embodiment, multiple focus detection areas AFP are set in the shooting screen of the shooting optical system corresponding to the focus detection pixel row groups 22a to 22i of the image sensor 22, and the photographer can set the focus detection area AFP to be used for focus adjustment via the operation unit 28. For example, when the photographer selects the focus detection area AFP corresponding to the focus detection pixel row group 22a as the focus detection area AFP to be used for focus adjustment, the camera control unit 21 calculates the defocus amount based on the output of the focus detection pixel rows L1 to L4 included in the focus detection pixel row group 22a. In addition, the method of setting the focus detection area AFP is not limited to the method selected by the photographer, and for example, the camera control unit 21 may be configured to perform face recognition processing based on image data output from the image sensor 22 to set the focus detection area AFP corresponding to the face of the subject as the focus detection area AFP to be used for focus adjustment. Alternatively, the outputs of the focus detection pixel rows L1 to L4 in all focus detection areas AFP set within the shooting screen may be acquired, and the focus detection area AFP to be used for focus adjustment may be set based on the acquired outputs of the focus detection pixel rows L1 to L4.

また、本実施形態において、カメラ制御部21は、上述した位相差検出方式による焦点検出に加えて、コントラスト検出方式による焦点検出も行う。具体的には、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算することでも求めることができる。 Furthermore, in this embodiment, the camera control unit 21 performs focus detection using a contrast detection method in addition to focus detection using the phase difference detection method described above. Specifically, the camera control unit 21 reads out the output of the imaging pixels 221 of the imaging element 22, and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained, for example, by extracting high-frequency components of the image output from the imaging pixels 221 of the imaging element 22 using a high-frequency pass filter and integrating these. It can also be obtained by extracting high-frequency components using two high-frequency pass filters with different cutoff frequencies and integrating each of them.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。 The camera control unit 21 then sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance), calculates the focus evaluation value at each position, and determines the position of the focus lens 32 where the focus evaluation value is maximum as the in-focus position. Note that this in-focus position can be determined, for example, by calculating the focus evaluation value while driving the focus lens 32, and performing calculations such as interpolation using these focus evaluation values if the focus evaluation value rises twice and then falls twice.

次いで、本実施形態におけるカメラ1の動作例を、図6に示すフローチャートに沿って説明する。 Next, an example of the operation of the camera 1 in this embodiment will be described with reference to the flowchart shown in FIG.

まず、ステップS101では、撮像素子22により、撮像画素221、ならびに複数の焦点検出画素列L1~L4を構成する各第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。 First, in step S101, the image sensor 22 acquires output data from the image pickup pixel 221 and each of the first focus detection pixels 222a and second focus detection pixels 222b that make up the multiple focus detection pixel rows L1 to L4.

ステップS102では、カメラ制御部21により、焦点調節に用いるための焦点検出エリアAFPの選択が行われる。たとえば、撮影者が、操作部28を介して、焦点調節に用いる焦点検出エリアAFPを設定した場合には、カメラ制御部21は、撮影者が設定した焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして選択することができる。また、カメラ制御部21は、撮像素子22から出力された画像データに対して顔認識処理を行うことで、被写体の顔部に対応する焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして選択する構成としてもよい。あるいは、カメラ制御部21は、撮影画面内に設定されている全ての焦点検出エリアAFPの焦点検出画素列L1~L4の出力を解析することで、焦点調節に用いる焦点検出エリアAFPを選択する構成としてもよい。 In step S102, the camera control unit 21 selects the focus detection area AFP to be used for focus adjustment. For example, if the photographer sets the focus detection area AFP to be used for focus adjustment via the operation unit 28, the camera control unit 21 can select the focus detection area AFP set by the photographer as the focus detection area AFP to be used for focus adjustment. The camera control unit 21 may also be configured to select the focus detection area AFP corresponding to the face of the subject as the focus detection area AFP to be used for focus adjustment by performing face recognition processing on the image data output from the image sensor 22. Alternatively, the camera control unit 21 may be configured to select the focus detection area AFP to be used for focus adjustment by analyzing the outputs of the focus detection pixel rows L1 to L4 of all focus detection areas AFP set within the shooting screen.

ステップS103では、カメラ制御部21により、各焦点検出画素列L1~L4の出力に基づいて、焦点検出画素列L1~L4ごとに、コントラスト情報の検出が行われる。具体的には、カメラ制御部21は、ステップS102で選択した焦点検出エリアAFPに対応する複数の焦点検出画素列L1~L4の出力を、高周波透過フィルタによりフィルタ処理することで、焦点検出画素列L1~L4の画素出力から高周波成分を抽出する。そして、カメラ制御部21は、焦点検出画素列L1~L4ごとに、抽出した高周波成分の量や強度を含む情報を、コントラスト情報として検出する。 In step S103, the camera control unit 21 detects contrast information for each of the focus detection pixel rows L1 to L4 based on the output of each of the focus detection pixel rows L1 to L4. Specifically, the camera control unit 21 extracts high-frequency components from the pixel output of the focus detection pixel rows L1 to L4 by filtering the outputs of the multiple focus detection pixel rows L1 to L4 corresponding to the focus detection area AFP selected in step S102 using a high-frequency pass filter. The camera control unit 21 then detects information including the amount and intensity of the extracted high-frequency components as contrast information for each of the focus detection pixel rows L1 to L4.

ステップS104では、カメラ制御部21により、特定焦点検出画素列の決定が行われる。具体的には、カメラ制御部21は、ステップS103で検出した焦点検出画素列L1~L4ごとのコントラスト情報に基づいて、複数の焦点検出画素列L1~L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、あるいは、画素出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定する。 In step S104, the camera control unit 21 determines the specific focus detection pixel row. Specifically, based on the contrast information for each of the focus detection pixel rows L1 to L4 detected in step S103, the camera control unit 21 determines, as the specific focus detection pixel row, the focus detection pixel row that corresponds to the subject with the greatest contrast among the multiple focus detection pixel rows L1 to L4, or the focus detection pixel row whose pixel output contains the most high-frequency components.

そして、ステップS105では、カメラ制御部21により、ステップS104で決定した特定焦点検出画素列の出力に基づいて、デフォーカス量の算出が行われる。そして、ステップS106では、ステップS105で算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。 Then, in step S105, the camera control unit 21 calculates the defocus amount based on the output of the specific focus detection pixel row determined in step S104. Then, in step S106, the drive amount of the focus lens 32 is calculated and the focus lens 32 is driven based on the defocus amount calculated in step S105.

以上のようにして、第1実施形態に係る光学系の焦点検出が行われる。 This is how focus detection is performed in the optical system according to the first embodiment.

次に、本実施形態に係るカメラ1の動作例を、図7に基づいて説明する。図7は、本実施形態に係るカメラ1の動作例を説明するための図である。また、図7では、横軸に時間を示しており、時刻t5においてシャッターレリーズボタンの半押しが行われた場面を示している。たとえば、図7に示す例では、時刻t1において、撮像素子22の焦点検出画素222a,222bにより、入射光に応じた電荷の蓄積が開始される。また、本実施形態において、焦点検出画素222a,222bは、例えばCMOSイメージセンサーであり、電荷の蓄積と並行して、時刻t1以降に蓄積された電荷の量に応じた画素信号の転送が開始される。そして、時刻t3では、時刻t2で開始された画素信号の転送が終了し、コントラスト情報の検出と、特定焦点検出画素列の決定とが行われる(ステップS103,S104)。そして、時刻t4では、決定した特定焦点検出画素列の出力に基づいて、デフォーカス量の演算が開始される(ステップS105)。これにより、レンズ駆動量の演算が行われ、レンズ駆動量の演算後、時刻t6において、レンズ駆動の指示が、レンズ鏡筒3に送信され、フォーカスレンズ32の駆動が行われる。ここで、図7に示す例では、レンズ駆動の指示が行われる前の時刻t5において、シャッターレリーズボタンの半押しが行われているため、時刻t6におけるレンズ駆動の指示に基づいて、フォーカスレンズ32の駆動が開始される。 Next, an example of the operation of the camera 1 according to this embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of the operation of the camera 1 according to this embodiment. In addition, in FIG. 7, the horizontal axis indicates time, and a scene in which the shutter release button is half-pressed at time t5 is shown. For example, in the example shown in FIG. 7, at time t1, the focus detection pixels 222a and 222b of the image sensor 22 start accumulating charges according to incident light. In addition, in this embodiment, the focus detection pixels 222a and 222b are, for example, CMOS image sensors, and in parallel with the accumulation of charges, the transfer of pixel signals according to the amount of charges accumulated after time t1 is started. Then, at time t3, the transfer of pixel signals started at time t2 ends, and the detection of contrast information and the determination of the specific focus detection pixel row are performed (steps S103 and S104). Then, at time t4, the calculation of the defocus amount is started based on the output of the determined specific focus detection pixel row (step S105). This causes the lens drive amount to be calculated, and after the lens drive amount is calculated, at time t6, a command to drive the lens is sent to the lens barrel 3, and the focus lens 32 is driven. Here, in the example shown in FIG. 7, the shutter release button is half-pressed at time t5, before the command to drive the lens is issued, so driving of the focus lens 32 begins based on the command to drive the lens at time t6.

また、本実施形態では、シャッターレリーズボタンが半押しされた後も、撮像素子22のフレームレートに応じて、デフォーカス量の算出が繰り返し行われ、算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動指示が繰り返し行われる。たとえば、図7に示す例では、時刻t2において、2フレーム目の電荷の蓄積が開始され、その結果、時刻t7において、2フレーム目のデフォーカス量の算出が行われ、時刻t8において、2フレーム目の焦点検出画素列L1~L4の出力結果に基づく、フォーカスレンズ32の駆動指示が行われる。同様に、3フレーム目以降においても、フレームごとに、焦点検出画素列L1~L4の出力に基づいて、デフォーカス量の算出と、デフォーカス量に基づくフォーカスレンズ32の駆動とが繰り返される。 In addition, in this embodiment, even after the shutter release button is half-pressed, the calculation of the defocus amount is repeated according to the frame rate of the image sensor 22, and a drive instruction for the focus lens 32 is repeatedly issued based on the calculated defocus amount. For example, in the example shown in FIG. 7, the accumulation of charge for the second frame begins at time t2, and as a result, the calculation of the defocus amount for the second frame is performed at time t7, and at time t8, a drive instruction for the focus lens 32 is issued based on the output result of the focus detection pixel rows L1 to L4 for the second frame. Similarly, from the third frame onwards, the calculation of the defocus amount and the drive of the focus lens 32 based on the defocus amount are repeated for each frame based on the output of the focus detection pixel rows L1 to L4.

このように、本実施形態では、撮像素子22のフレームレートに応じたフレームごとに、デフォーカス量の算出と、デフォーカス量に基づくフォーカスレンズ32の駆動とが繰り返される。このように、フレームごとに、デフォーカス量を算出し、フォーカスレンズ32の駆動を指示するためには、デフォーカス量の演算からフォーカスレンズ32の駆動指示までを、1フレームの時間内に行う必要がある。この点、本実施形態では、コントラスト情報に基づいて1の特定焦点検出画素列を決定し、この特定焦点検出画素列の出力のみについてデフォーカス量を算出することで、図7に示すように、デフォーカス量の算出に要する時間を短くすることができるため、1フレームの時間内に、デフォーカス量を算出し、算出したデフォーカス量に基づいてフォーカスレンズ32を駆動させることができる。 In this manner, in this embodiment, the calculation of the defocus amount and the driving of the focus lens 32 based on the defocus amount are repeated for each frame according to the frame rate of the image sensor 22. In this manner, in order to calculate the defocus amount for each frame and instruct the driving of the focus lens 32, it is necessary to perform the process from the calculation of the defocus amount to the instruction to drive the focus lens 32 within the time of one frame. In this regard, in this embodiment, one specific focus detection pixel row is determined based on the contrast information, and the defocus amount is calculated only for the output of this specific focus detection pixel row. As shown in FIG. 7, this shortens the time required to calculate the defocus amount, so that the defocus amount can be calculated within the time of one frame and the focus lens 32 can be driven based on the calculated defocus amount.

一方、図8は、従来のカメラの動作例を説明するための図であり、図7と同様に、横軸に時間を示している。図8に示す例では、比較的時間がかかるデフォーカス量の演算を、全ての焦点検出画素列L1~L4について行うため、図7に示す本実施形態と比べて、デフォーカス量の演算時間が長くなる。その結果、図8に示す例では、図7に示す本実施形態と比べて、デフォーカス量の演算からレンズ駆動指示までの所要時間が、フレームレートの1フレーム分の時間よりも長くなってしまい、レンズ駆動指示をフレームごとに行うことができなくなってしまう場合があった。具体的には、図8に示す例では、1フレーム分の時間内に、デフォーカス量の演算からレンズ駆動指示までを行うことができないため、図7に示す本実施形態のタイムラグT1と比べて、電荷の蓄積からフォーカスレンズ32の駆動指示までのタイムラグT2が2倍の大きさとなっている。 On the other hand, FIG. 8 is a diagram for explaining an example of the operation of a conventional camera, and like FIG. 7, the horizontal axis shows time. In the example shown in FIG. 8, the calculation of the defocus amount, which takes a relatively long time, is performed for all focus detection pixel rows L1 to L4, so the calculation time of the defocus amount is longer than in the present embodiment shown in FIG. 7. As a result, in the example shown in FIG. 8, the time required from the calculation of the defocus amount to the lens drive instruction is longer than the time for one frame of the frame rate compared to the present embodiment shown in FIG. 7, and there were cases where the lens drive instruction could not be issued for each frame. Specifically, in the example shown in FIG. 8, since the calculation of the defocus amount and the lens drive instruction cannot be executed within the time for one frame, the time lag T2 from the accumulation of electric charge to the drive instruction of the focus lens 32 is twice as large as the time lag T1 of the present embodiment shown in FIG. 7.

その結果、図8に示す例では、時刻12において、時刻t11における光学系の焦点状態に基づいて、フォーカスレンズ32の駆動が指示されるため、フォーカスレンズ32が合焦位置を大きく超えた位置まで駆動してしまう場合や、被写体への追従性が低下してしまう場合があった。これに対して、本実施形態では、図7に示すように、時刻t9での光学系の焦点状態に基づいて、タイムラグの少ない時刻t10において、フォーカスレンズ32の駆動指示を行うことができるため、図8に示す従来例と比べて、フォーカスレンズ32を合焦位置まで適切に駆動することができる。 As a result, in the example shown in FIG. 8, at time 12, an instruction to drive the focus lens 32 is issued based on the focus state of the optical system at time t11, so the focus lens 32 may be driven to a position far beyond the in-focus position or the ability to track the subject may be reduced. In contrast, in this embodiment, as shown in FIG. 7, an instruction to drive the focus lens 32 can be issued at time t10, which has less time lag, based on the focus state of the optical system at time t9, so the focus lens 32 can be appropriately driven to the in-focus position compared to the conventional example shown in FIG. 8.

以上のように、第1実施形態では、焦点検出エリアAFP内の各焦点検出画素列L1~L4の出力に基づいて、焦点検出画素列L1~L4ごとに、コントラスト情報を検出する。そして、検出したコントラスト情報に基づいて、焦点検出に用いる焦点検出画素列を決定する。すなわち、複数の焦点検出画素列L1~L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、あるいは、画素出力に高周波成分が最も多く含まれている焦点検出画素列を、特定焦点検出画素列として決定し、この特定焦点検出画素列のみについて、デフォーカス量を決定する。これにより、コントラストが最も大きい被写体、あるいは、高周波成分が最も多い被写体に対する、光学系の焦点状態を検出することができるとともに、従来のように、複数の焦点検出画素列L1~L4の全てについてデフォーカス量を算出する場合と比べて、デフォーカス量の演算にかかる時間を短縮することができ、焦点状態の検出を適切なタイミングで繰り返し行うことができる。 As described above, in the first embodiment, contrast information is detected for each of the focus detection pixel rows L1 to L4 based on the output of each of the focus detection pixel rows L1 to L4 in the focus detection area AFP. Then, the focus detection pixel row to be used for focus detection is determined based on the detected contrast information. That is, among the multiple focus detection pixel rows L1 to L4, the focus detection pixel row corresponding to the subject with the highest contrast, or the focus detection pixel row whose pixel output contains the most high-frequency components, is determined as the specific focus detection pixel row, and the defocus amount is determined only for this specific focus detection pixel row. This makes it possible to detect the focus state of the optical system for the subject with the highest contrast or the subject with the most high-frequency components, and also makes it possible to reduce the time required to calculate the defocus amount compared to the conventional case in which the defocus amount is calculated for all of the multiple focus detection pixel rows L1 to L4, and to repeatedly detect the focus state at an appropriate timing.

また、第1実施形態では、複数の焦点検出画素列L1~L4の出力のうち、1つの焦点検出画素列の出力に基づいて、デフォーカス量を算出する構成のため、複数の焦点検出画素列L1~L4の出力を加算または平均化する場合と比べて、以下のような効果を奏することができる。すなわち、被写体が撮像画素221の斜め方向にコントラストを有する場合、複数の焦点検出画素列L1~L4の出力を加算または平均化してしまうと、却って、コントラストが低下してしまう場合があり、被写体を適切に検出できない場合がある。これに対して、本実施形態では、1つの特定焦点検出画素列の出力に基づいて、デフォーカス量を算出するため、このような場合でも、コントラストの低下を防止することができ、被写体を適切に検出することができるという効果を奏することができる。 In addition, in the first embodiment, the defocus amount is calculated based on the output of one of the multiple focus detection pixel rows L1 to L4, so the following effects can be achieved compared to adding or averaging the outputs of multiple focus detection pixel rows L1 to L4. That is, if the subject has contrast in the diagonal direction of the imaging pixel 221, adding or averaging the outputs of multiple focus detection pixel rows L1 to L4 may actually reduce the contrast, and the subject may not be detected properly. In contrast, in this embodiment, the defocus amount is calculated based on the output of one specific focus detection pixel row, so even in such cases, it is possible to prevent a decrease in contrast and to properly detect the subject.

《第2実施形態》
次いで、第2実施形態について説明する。第2実施形態では、図1に示すカメラ1において、以下に説明するように動作すること以外は、上述した第1実施形態と同様の構成を有するものである。
Second Embodiment
Next, a second embodiment will be described. In the second embodiment, the camera 1 shown in FIG. 1 has the same configuration as the first embodiment described above, except that it operates as described below.

第2実施形態において、カメラ制御部21は、異なる周波数帯域の周波数成分を透過する複数のフィルタを備えており、各焦点検出画素列L1~L4の出力から異なる複数の周波数帯域の周波数成分を抽出し、抽出した複数の周波数成分に基づいて、焦点検出画素列L1~L4ごとに、複数のコントラスト情報を検出する。たとえば、カメラ制御部21が異なる3つの周波数帯域の周波数成分を抽出する3つのフィルタを備えている場合には、カメラ制御部21は、1つの焦点検出画素列の出力から3つのコントラスト情報を検出することができる。なお、第2実施形態で抽出される周波数成分の周波数帯域は、特に限定されず、低周波帯域から高周波帯域までの任意の周波数帯域とすることができる。 In the second embodiment, the camera control unit 21 is provided with multiple filters that transmit frequency components in different frequency bands, extracts frequency components in different frequency bands from the output of each focus detection pixel row L1 to L4, and detects multiple pieces of contrast information for each focus detection pixel row L1 to L4 based on the extracted frequency components. For example, if the camera control unit 21 is provided with three filters that extract frequency components in three different frequency bands, the camera control unit 21 can detect three pieces of contrast information from the output of one focus detection pixel row. Note that the frequency band of the frequency components extracted in the second embodiment is not particularly limited and can be any frequency band from the low frequency band to the high frequency band.

そして、カメラ制御部21は、複数のコントラスト情報に基づいて、複数の焦点検出画素列L1~L4の中から、焦点検出に用いる1または複数の焦点検出画素列L1~L4を、特定焦点検出画素列として検出する。たとえば、カメラ制御部21は、複数の焦点検出画素列L1~L4の中から、対応する被写体のコントラストの大きさが所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として検出することができる。あるいは、カメラ制御部21は、出力に含まれる高周波成分の量が所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として検出することができる。 Then, based on the multiple contrast information, the camera control unit 21 detects one or more focus detection pixel rows L1 to L4 to be used for focus detection from among the multiple focus detection pixel rows L1 to L4 as specific focus detection pixel rows. For example, the camera control unit 21 can detect one or more focus detection pixel rows, from among the multiple focus detection pixel rows L1 to L4, for which the magnitude of contrast of the corresponding subject is equal to or greater than a predetermined value, as specific focus detection pixel rows. Alternatively, the camera control unit 21 can detect one or more focus detection pixel rows, for which the amount of high-frequency components included in the output is equal to or greater than a predetermined value, as specific focus detection pixel rows.

なお、カメラ制御部21は、特定焦点検出画素列を決定する場合には、特定焦点検出画素列の数が、焦点検出エリアAFPに対応する焦点検出画素列L1~L4の数よりも少なくなるように、特定焦点検出画素列を決定する。たとえば、本実施形態では、焦点検出エリアAFPに4つの焦点検出画素列L1~L4が配置されているため、カメラ制御部21は、少なくとも、特定焦点検出画素列の数が3つ以下となるように、特定焦点検出画素列を決定する。 When determining the specific focus detection pixel rows, the camera control unit 21 determines the specific focus detection pixel rows so that the number of specific focus detection pixel rows is less than the number of focus detection pixel rows L1 to L4 corresponding to the focus detection area AFP. For example, in this embodiment, since four focus detection pixel rows L1 to L4 are arranged in the focus detection area AFP, the camera control unit 21 determines the specific focus detection pixel rows so that the number of specific focus detection pixel rows is at least three or less.

そして、カメラ制御部21は、複数の焦点検出画素列を特定焦点検出画素列として決定した場合には、複数の特定焦点検出画素列の出力を加算または平均化し、加算または平均化した複数の特定焦点検出画素列の出力に基づいて、デフォーカス量を算出する。ここで、図9は、図3に示す撮像素子22の撮像面から撮像画素221を除き、4つの焦点検出画素列L1~L4を構成する第1焦点検出画素222aおよび第2焦点検出画素222bのみを模式的に示した図である。たとえば、カメラ制御部21は、複数の特定焦点検出画素列の出力を加算する場合には、図9に示す第1焦点検出画素列L1の画素A1L1の出力と、これと同じ測距瞳を通過する焦点検出光束を受光する、第2焦点検出画素列L2の画素A1L2の出力と、第3焦点検出画素列L3の画素A1L3の出力と、第4焦点検出画素列L4の画素A1L4の出力とを加算し、画素加算出力IA1を得る。同様に、第1焦点検出画素列L1の画素B1L1の出力と、これと同じ測距瞳を通過する焦点検出光束を受光する、第2焦点検出画素列L2の画素B1L2の出力と、第3焦点検出画素列L3の画素B1L3の出力と、第4焦点検出画素列L4の画素B1L4の出力とを加算し、画素加算出力IB1を得る。以下、同様に、A2L1とA2L2とA2L3とA2L4との出力からIA2を、B2L1とB2L2とB2L3とB2L4との出力からIB2を、A3L1とA3L2とA3L3とA3L4との出力からIA3を、B3L1とB3L2とB3L3とB3L4との出力からIB3を得る。 Then, when the camera control unit 21 determines a plurality of focus detection pixel rows as specific focus detection pixel rows, it adds or averages the outputs of the plurality of specific focus detection pixel rows, and calculates the defocus amount based on the added or averaged outputs of the plurality of specific focus detection pixel rows. Here, Fig. 9 is a schematic diagram showing only the first focus detection pixel 222a and the second focus detection pixel 222b constituting the four focus detection pixel rows L1 to L4, excluding the imaging pixel 221 from the imaging surface of the image sensor 22 shown in Fig. 3. For example, when adding the outputs of a plurality of specific focus detection pixel rows, the camera control unit 21 adds the output of pixel A1 L1 of the first focus detection pixel row L1 shown in Fig. 9 to the output of pixel A1 L2 of the second focus detection pixel row L2, the output of pixel A1 L3 of the third focus detection pixel row L3, and the output of pixel A1 L4 of the fourth focus detection pixel row L4, which receive the focus detection light beam passing through the same ranging pupil , to obtain a pixel addition output I A1 . Similarly, the output of pixel B1L1 in the first focus detection pixel row L1 is added to the output of pixel B1L2 in the second focus detection pixel row L2, the output of pixel B1L3 in the third focus detection pixel row L3 , and the output of pixel B1L4 in the fourth focus detection pixel row L4, which receive the focus detection light beam passing through the same focus detection pupil, to obtain a pixel addition output IB1 . Similarly, IA2 is obtained from the outputs of A2L1 , A2L2 , A2L3 , and A2L4 , IB2 is obtained from the outputs of B2L1 , B2L2 , B2L3 , and B2L4 , IA3 is obtained from the outputs of A3L1 , A3L2 , A3L3 , and A3L4 , and IB3 is obtained from the outputs of B3L1 , B3L2 , B3L3 , and B3L4 .

そして、カメラ制御部21は、得られた画素加算出力を用いて、第1焦点検出画素222aに基づくデータ列、すなわち、第1像データ列IA1,IA2,IA3,...,IAnと、第2焦点検出画素222bに基づくデータ列、すなわち、第2像データ列IB1,IB2,IB3,...,IBnとを、一次元状に相対的にシフトさせながら、上記式(1)に示す相関演算を行う。 Then, the camera control unit 21 uses the obtained pixel addition output to perform the correlation calculation shown in the above equation ( 1) while relatively shifting in one dimension the data string based on the first focus detection pixel 222a, i.e., the first image data string I A1 , I A2 , I A3 , ... , I An , and the data string based on the second focus detection pixel 222b, i.e., the second image data string I B1 , I B2 , I B3 , ... , I Bn .

ここで、図3に示すように、焦点検出画素列L1~L4においては、第1焦点検出画素222aと、第2焦点検出画素222bとが、それぞれ0.5画素分ずれた位置に配置されている。従来では、本実施形態の第1焦点検出画素列L1および第2焦点検出画素列L2のうちいずれか一方のみを、焦点検出画素列として用いるものであるため、第1焦点検出画素222aと、第2焦点検出画素222bとが互いに0.5画素ずれた位置に存在し、これらの焦点検出画素を用いて得られる第1像データ列IA1,IA2,IA3,...,IAnと、第2像データ列IB1,IB2,IB3,...,IBnとは、互いに0.5画素ずれたデータとなってしまっていた。そのため、相関演算を行った場合には、図10(B)に示すように、相関量C(k)の極小値も0.5画素分ずれた位置となってしまうこととなる。このような場合に、相関量C(k)が極小値を示すシフト量およびデフォーカス量を算出するためには、内挿演算等を用いる必要があり、結果として、焦点検出精度が低下してしまう場合があった。特に、焦点検出画素で検出された出力のコントラストレベルが低い場合に、このような問題が顕著になる傾向にあった。 3, in the focus detection pixel rows L1 to L4, the first focus detection pixel 222a and the second focus detection pixel 222b are disposed at positions shifted by 0.5 pixels from each other. Conventionally, only one of the first focus detection pixel row L1 and the second focus detection pixel row L2 of this embodiment is used as the focus detection pixel row, so the first focus detection pixel 222a and the second focus detection pixel 222b are disposed at positions shifted by 0.5 pixels from each other, and the first image data row I A1 , I A2 , I A3 ,..., I An and the second image data row I B1 , I B2 , I B3 ,..., I Bn obtained using these focus detection pixels are data shifted by 0.5 pixels from each other. Therefore, when the correlation calculation is performed, the minimum value of the correlation amount C(k) is also shifted by 0.5 pixels, as shown in Fig. 10B. In such a case, in order to calculate the shift amount and defocus amount at which the correlation amount C(k) shows the minimum value, it is necessary to use an interpolation calculation or the like, and as a result, the focus detection accuracy may be reduced. In particular, when the contrast level of the output detected by the focus detection pixel is low, such a problem tends to be prominent.

これに対して、本実施形態においては、焦点検出画素列L1,L3と、焦点検出画素列L2,L4とにおいて、第1焦点検出画素222aおよび第2焦点検出画素222bがX軸方向において0.5画素分ずらした位置に配置されているため、画素出力を加算することにより得られる画素加算出力を用いた場合に、図10(A)に示すように、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができる。 In contrast, in this embodiment, the first focus detection pixel 222a and the second focus detection pixel 222b are positioned in the focus detection pixel rows L1 and L3 and the focus detection pixel rows L2 and L4 at positions shifted by 0.5 pixels in the X-axis direction. Therefore, when the pixel sum output obtained by adding the pixel outputs is used, as shown in FIG. 10(A), it is possible to accurately determine the shift amount at which the correlation amount C(k) is at a minimum value in the in-focus state (a state in which the defocus amount is zero), thereby appropriately improving the focus detection accuracy.

次に、図11を参照して、第2実施形態に係るカメラ1の動作を説明する。図11は、第2実施形態に係るカメラ1の動作例を示すフローチャートである。 Next, the operation of the camera 1 according to the second embodiment will be described with reference to FIG. 11. FIG. 11 is a flowchart showing an example of the operation of the camera 1 according to the second embodiment.

ステップS201では、第1実施形態のステップS101と同様に、撮像素子22により、撮像画素221、ならびに複数の焦点検出画素列L1~L4を構成する各第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。また、ステップS202では、第1実施形態のステップS102と同様に、カメラ制御部21により、焦点調節に用いるための焦点検出エリアAFPの選択が行われる。 In step S201, similar to step S101 in the first embodiment, the image sensor 22 acquires output data from the image pickup pixel 221 and each of the first focus detection pixels 222a and second focus detection pixels 222b that make up the multiple focus detection pixel rows L1 to L4. In step S202, similar to step S102 in the first embodiment, the camera control unit 21 selects a focus detection area AFP to be used for focus adjustment.

そして、ステップS203では、カメラ制御部21により、コントラスト情報の検出が行われる。第2実施形態において、カメラ制御部21は、異なる周波数帯域の周波数成分を抽出する複数のフィルタを用いて、各焦点検出画素列L1~L4の出力にフィルタ処理を施すことで、各焦点検出画素列L1~L4のそれぞれの出力から複数の周波数成分を抽出する。そして、カメラ制御部21は、抽出した周波数成分の量や強度を含む情報を、コントラスト情報として検出する。 Then, in step S203, the camera control unit 21 detects contrast information. In the second embodiment, the camera control unit 21 extracts multiple frequency components from the output of each of the focus detection pixel rows L1 to L4 by filtering the output of each of the focus detection pixel rows L1 to L4 using multiple filters that extract frequency components in different frequency bands. The camera control unit 21 then detects information including the amount and intensity of the extracted frequency components as contrast information.

ステップS204では、カメラ制御部21により、ステップS203で検出した複数のコントラスト情報に基づいて、特定焦点検出画素列の決定が行われる。具体的には、カメラ制御部21は、ステップS203で検出したコントラスト情報に基づいて、複数の焦点検出画素列L1~L4のうち、対応する被写体のコントラストが所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として決定する。あるいは、カメラ制御部21は、ステップS203で検出した複数のコントラスト情報に基づいて、複数の焦点検出画素列L1~L4のうち、出力に含まれる高周波成分の量が所定値以上となる1または複数の焦点検出画素列を、特定焦点検出画素列として決定する。 In step S204, the camera control unit 21 determines a specific focus detection pixel row based on the multiple contrast information detected in step S203. Specifically, the camera control unit 21 determines, as the specific focus detection pixel row, one or more focus detection pixel rows among the multiple focus detection pixel rows L1 to L4 in which the contrast of the corresponding subject is equal to or greater than a predetermined value, based on the contrast information detected in step S203. Alternatively, the camera control unit 21 determines, as the specific focus detection pixel row, one or more focus detection pixel rows among the multiple focus detection pixel rows L1 to L4 in which the amount of high-frequency components included in the output is equal to or greater than a predetermined value, based on the multiple contrast information detected in step S203.

そして、ステップS205では、カメラ制御部21により、ステップS204で決定された1または複数の特定焦点検出画素列に基づいて、フォーカスレンズ32の駆動に用いるデフォーカス量の算出が行われる。たとえば、カメラ制御部21は、複数の焦点検出画素列を特定焦点検出画素列として決定した場合には、複数の特定焦点検出画素列の出力を加算あるいは平均化することで、1の出力を算出し、この出力に基づいて、フォーカスレンズ32の駆動に用いるデフォーカス量を算出することができる。 Then, in step S205, the camera control unit 21 calculates the defocus amount to be used in driving the focus lens 32 based on the one or more specific focus detection pixel rows determined in step S204. For example, if the camera control unit 21 determines multiple focus detection pixel rows as specific focus detection pixel rows, it can calculate a single output by adding or averaging the outputs of the multiple specific focus detection pixel rows, and calculate the defocus amount to be used in driving the focus lens 32 based on this output.

ステップS206では、第1実施形態のステップS106と同様に、ステップS205で算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。 In step S206, similar to step S106 in the first embodiment, the drive amount of the focus lens 32 is calculated and the focus lens 32 is driven based on the defocus amount calculated in step S205.

以上のようにして、第2実施形態に係る光学系の焦点検出が行われる。 This is how focus detection is performed in the optical system according to the second embodiment.

このように、第2実施形態では、焦点検出画素列L1~L4ごとに、焦点検出画素列L1~L4の出力に基づいて、異なる周波数帯域の周波数成分を抽出し、抽出した複数の周波数成分に基づいて、複数のコントラスト情報を検出する。そして、複数のコントラスト情報に基づいて、焦点検出画素列L1~L4の中から、1または複数の特定焦点検出画素列を決定し、決定した特定焦点検出画素列の画素出力に基づいて、デフォーカス量を決定する。このように、第2実施形態では、全ての焦点検出画素列L1~L4についてデフォーカス量を算出するのではなく、焦点検出画素列L1~L4の数よりも少ない数の特定焦点検出画素列についてデフォーカス量の演算を行うことで、デフォーカス量の演算時間を短くすることができ、その結果、焦点状態の検出を適切なタイミングで繰り返し行うことが可能となる。 In this way, in the second embodiment, for each focus detection pixel row L1 to L4, frequency components in different frequency bands are extracted based on the output of the focus detection pixel rows L1 to L4, and multiple contrast information is detected based on the multiple extracted frequency components. Then, based on the multiple contrast information, one or multiple specific focus detection pixel rows are determined from the focus detection pixel rows L1 to L4, and the defocus amount is determined based on the pixel output of the determined specific focus detection pixel row. In this way, in the second embodiment, instead of calculating the defocus amount for all focus detection pixel rows L1 to L4, the defocus amount is calculated for a number of specific focus detection pixel rows that is fewer than the number of focus detection pixel rows L1 to L4, thereby shortening the defocus amount calculation time and making it possible to repeatedly detect the focus state at an appropriate timing.

《第3実施形態》
次いで、第3実施形態について説明する。第3実施形態では、図1に示すカメラ1において、以下に説明するように動作すること以外は、上述した第1実施形態と同様の構成を有するものである。
Third Embodiment
Next, a third embodiment will be described. In the third embodiment, the camera 1 shown in FIG. 1 has the same configuration as the first embodiment described above, except that it operates as described below.

第3実施形態において、カメラ制御部21は、光学系の焦点状態を検出する際に、撮像素子22から取得した焦点検出画素列L1~L4の出力に対して、所定のバンドパスフィルタを用いたフィルタ処理を施すことで、焦点検出画素列L1~L4の出力から被写体に対応する周波数成分を抽出する。たとえば、カメラ制御部21は、焦点検出画素列L1~L4の出力を、フーリエ変換を用いて変換することで、焦点検出画素列L1~L4の出力に含まれる周波数成分の中から、背景などに起因する低周波成分やノイズに相当する高周波成分を除去し、被写体に対応する周波数成分を抽出する。そして、カメラ制御部21は、図12に示すように、焦点検出画素列L1~L4の出力をフィルタ処理して得られたデータを、焦点検出画素列L1~L4の出力に含まれる周波数成分を表すコントラスト情報として検出する。なお、図12は、焦点検出画素列L1~L4の出力から抽出された周波数成分の一例を示すグラフである。 In the third embodiment, when detecting the focus state of the optical system, the camera control unit 21 performs filtering processing using a predetermined band-pass filter on the output of the focus detection pixel rows L1 to L4 acquired from the image sensor 22, thereby extracting frequency components corresponding to the subject from the output of the focus detection pixel rows L1 to L4. For example, the camera control unit 21 converts the output of the focus detection pixel rows L1 to L4 using a Fourier transform to remove low-frequency components due to the background and high-frequency components corresponding to noise from the frequency components contained in the output of the focus detection pixel rows L1 to L4, and extracts the frequency components corresponding to the subject. Then, as shown in FIG. 12, the camera control unit 21 detects the data obtained by filtering the output of the focus detection pixel rows L1 to L4 as contrast information representing the frequency components contained in the output of the focus detection pixel rows L1 to L4. Note that FIG. 12 is a graph showing an example of frequency components extracted from the output of the focus detection pixel rows L1 to L4.

さらに、カメラ制御部21は、検出した周波数成分のコントラスト情報に基づいて、当該周波数成分において連続する出力値の差の総和を求めることで、焦点検出画素列L1~L4の出力に含まれる周波数成分の量や強度を表す情報を、周波数成分のコントラスト量として算出する。具体的には、カメラ制御部21は、下記式(3)に基づいて、周波数成分のコントラスト量を算出する。
コントラスト量=Σ|a-am-1| …(3)
なお、上記式(3)において、aは、m番目(焦点検出画素列の並び方向においてm番目)に位置する焦点検出画素222a,222bの出力に対応する周波数成分の出力値であり、am-1は、m-1番目に位置する焦点検出画素222a,222bの出力に対応する周波数成分の出力値である。
Furthermore, the camera control unit 21 calculates the total sum of the differences between successive output values in the frequency components based on the contrast information of the detected frequency components, thereby calculating information indicating the amount and intensity of the frequency components included in the outputs of the focus detection pixel rows L1 to L4 as the contrast amount of the frequency components. Specifically, the camera control unit 21 calculates the contrast amount of the frequency components based on the following formula (3).
Contrast amount=Σ|a m −a m−1 | … (3)
In addition, in the above equation (3), a m is the output value of the frequency component corresponding to the output of the focus detection pixel 222a, 222b located at the mth position (mth in the arrangement direction of the focus detection pixel row), and a m-1 is the output value of the frequency component corresponding to the output of the focus detection pixel 222a, 222b located at the m-1th position.

すなわち、焦点検出画素列L1~L4の出力は、横方向(X方向)に配列された複数の焦点検出画素222a,222bの出力から構成される列データであり、焦点検出画素列L1~L4の出力に含まれる周波数成分も、図12に示すように、焦点検出画素列L1~L4を構成する焦点検出画素222a,222bの出力にそれぞれ対応した出力値を有する。そのため、カメラ制御部21は、上記式(3)に示すように、焦点検出画素列L1~L4において2番目に位置する焦点検出画素222a,222bの出力に対応する周波数成分の出力値と、1番目に位置する焦点検出画素222a,222bの出力に対応する周波数成分の出力値との差を算出することができ、同様に、連続する焦点検出画素222a,222bの出力に対応する周波数成分の出力値a,am-1(以下、周波数成分において連続する出力値ともいう)の差を算出することができる。そして、周波数成分において連続する出力値a,am-1の差の総和を求めることで、焦点検出画素列L1~L4の出力に含まれる周波数成分のコントラスト量を算出することができる。 That is, the outputs of the focus detection pixel rows L1 to L4 are row data composed of the outputs of a plurality of focus detection pixels 222a, 222b arranged in the horizontal direction (X direction), and the frequency components included in the outputs of the focus detection pixel rows L1 to L4 also have output values corresponding to the outputs of the focus detection pixels 222a, 222b constituting the focus detection pixel rows L1 to L4, respectively, as shown in Fig. 12. Therefore, as shown in the above formula (3), the camera control unit 21 can calculate the difference between the output value of the frequency component corresponding to the output of the focus detection pixel 222a, 222b located second in the focus detection pixel rows L1 to L4 and the output value of the frequency component corresponding to the output of the focus detection pixel 222a, 222b located first, and similarly, can calculate the difference between the output values a m and a m-1 of the frequency components corresponding to the outputs of successive focus detection pixels 222a, 222b (hereinafter also referred to as successive output values in the frequency components). Then, by finding the sum of the differences between successive output values a m and a m-1 in the frequency components, the contrast amount of the frequency components contained in the outputs of the focus detection pixel arrays L1 to L4 can be calculated.

なお、周波数成分のコントラスト量は、周波数成分の強度(振幅)が大きいほど大きくなり、また、周波数成分の量(周波数)が多いほど大きくなる。たとえば、焦点検出画素列に対応する被写体のコントラストが高く、図13(A)に示すように、周波数成分の中央付近における出力値の強度が大きくなる場合には、図13(B)に示すように、周波数成分の中央付近において連続する出力値の差も大きくなり、その結果、周波数成分のコントラスト量も大きくなる。また、周波数成分の量が多いほど(たとえば、図12に示す例では、焦点検出画素列L1と比べて、焦点検出画素列L3の方が周波数成分の量が多い)、周波数成分の出力値が変動する頻度は高くなるため、周波数成分において連続する出力値の差の総和である、周波数成分のコントラスト量も大きくなる。このように、周波数成分において連続する出力値の差の総和を周波数成分のコントラスト量として算出することで、周波数成分のコントラスト量を、周波数成分の量および強度を表す値として算出することができる。なお、図13(A)は、焦点検出画素列の出力に含まれる周波数成分の出力値の一例を示す図であり、また、図13(B)は、図13(A)に示す周波数成分において連続する出力値の差を示すグラフである。 The contrast amount of the frequency component increases as the intensity (amplitude) of the frequency component increases, and also increases as the amount (frequency) of the frequency component increases. For example, when the contrast of the subject corresponding to the focus detection pixel row is high and the intensity of the output value near the center of the frequency component increases as shown in FIG. 13(A), the difference between successive output values near the center of the frequency component also increases as shown in FIG. 13(B), and as a result, the contrast amount of the frequency component also increases. In addition, the greater the amount of the frequency component (for example, in the example shown in FIG. 12, the amount of frequency components in the focus detection pixel row L3 is greater than that in the focus detection pixel row L1), the more frequently the output value of the frequency component fluctuates, and therefore the contrast amount of the frequency component, which is the sum of the differences between successive output values in the frequency component, also increases. In this way, by calculating the sum of the differences between successive output values in the frequency component as the contrast amount of the frequency component, the contrast amount of the frequency component can be calculated as a value representing the amount and intensity of the frequency component. Note that FIG. 13(A) is a diagram showing an example of the output values of frequency components contained in the output of a focus detection pixel row, and FIG. 13(B) is a graph showing the difference between successive output values in the frequency components shown in FIG. 13(A).

このように、カメラ制御部21は、焦点検出画素列L1~L4の出力から被写体に対応する所定の周波数成分をそれぞれ抽出し、抽出した周波数成分のコントラスト量を、焦点検出画素列L1~L4ごとに算出する。そして、カメラ制御部21は、焦点検出画素列L1~L4のうち、コントラスト量が最も高い焦点検出画素列を、特定焦点検出画素列として決定する。たとえば、図12に示す例では、焦点検出画素列L1~L4のうち、焦点検出画素列L3の出力に含まれる周波数成分の量および強度が最も大きく、その結果、焦点検出画素列L3の出力に含まれる周波数成分のコントラスト量が最も高くなるため、焦点検出画素列L3が特定焦点検出画素列として決定される。そして、カメラ制御部21は、決定した特定焦点検出画素列の出力に基づいて、デフォーカス量を算出する。 In this way, the camera control unit 21 extracts a predetermined frequency component corresponding to the subject from the output of each of the focus detection pixel rows L1 to L4, and calculates the contrast amount of the extracted frequency component for each of the focus detection pixel rows L1 to L4. The camera control unit 21 then determines the focus detection pixel row with the highest contrast amount among the focus detection pixel rows L1 to L4 as the specific focus detection pixel row. For example, in the example shown in FIG. 12, among the focus detection pixel rows L1 to L4, the amount and intensity of frequency components contained in the output of the focus detection pixel row L3 are the largest, and as a result, the contrast amount of the frequency components contained in the output of the focus detection pixel row L3 is the highest, so the focus detection pixel row L3 is determined as the specific focus detection pixel row. The camera control unit 21 then calculates the defocus amount based on the output of the determined specific focus detection pixel row.

このように、第3実施形態では、上記式(3)に示すように、焦点検出画素列L1~L4において、並び方向に連続する焦点検出画素222a,222bの出力に対応する周波数成分の出力値の差の総和を、焦点検出画素列L1~L4の出力に含まれる周波数成分のコントラスト量として算出することで、被写体に起因する周波数成分の量や強度に応じて、周波数成分のコントラスト量を適切に算出することができる。そして、コントラスト量が最も大きい焦点検出画素列の出力に基づいてデフォーカス量を算出することで、被写体に対応する可能性の高い焦点検出画素列の出力に基づいて焦点検出を行うことができ、これにより、被写体に対する光学系の焦点調節状態をより高い精度で検出することができる。 In this way, in the third embodiment, as shown in the above formula (3), the sum of the differences in the output values of the frequency components corresponding to the outputs of the focus detection pixels 222a, 222b that are consecutive in the arrangement direction in the focus detection pixel rows L1 to L4 is calculated as the contrast amount of the frequency components included in the outputs of the focus detection pixel rows L1 to L4. This makes it possible to appropriately calculate the contrast amount of the frequency components according to the amount and strength of the frequency components caused by the subject. Then, by calculating the defocus amount based on the output of the focus detection pixel row with the largest contrast amount, focus detection can be performed based on the output of the focus detection pixel row that is likely to correspond to the subject, and this makes it possible to detect the focus adjustment state of the optical system for the subject with higher accuracy.

《第4実施形態》
次いで、第4実施形態について説明する。図14は、第4実施形態に係るカメラ1aの構成を示す図である。第4実施形態では、図14に示すカメラ1aにおいて、以下に説明するように動作すること以外は、上述した第1実施形態と同様の構成を有するものである。
Fourth Embodiment
Next, a fourth embodiment will be described. Fig. 14 is a diagram showing the configuration of a camera 1a according to the fourth embodiment. In the fourth embodiment, the camera 1a shown in Fig. 14 has the same configuration as the first embodiment described above, except that it operates as described below.

まず、第4実施形態に係るカメラ1aについて説明する。カメラ1aは、カメラ本体2aとレンズ鏡筒3とを有する。カメラ本体2aは、一眼レフデジタルカメラであり、被写体からの光束を撮像素子220、光学ファインダ235、測光センサ237および焦点検出モジュール261へ導くためのミラー系250を備えている。ミラー系250は、回転軸253を中心にして被写体の観察位置と撮像位置との間で所定角度だけ回転するクイックリターンミラー251と、このクイックリターンミラー251に軸支されてクイックリターンミラー251の回動に合わせて回転するサブミラー252とを備える。図14においては、ミラー系250が被写体の観察位置にある状態を実線で示し、被写体の撮像位置にある状態を二点鎖線で示す。 First, the camera 1a according to the fourth embodiment will be described. The camera 1a has a camera body 2a and a lens barrel 3. The camera body 2a is a single-lens reflex digital camera and is equipped with a mirror system 250 for directing light from a subject to an image sensor 220, an optical viewfinder 235, a photometry sensor 237, and a focus detection module 261. The mirror system 250 is equipped with a quick-return mirror 251 that rotates a predetermined angle around a rotation axis 253 between a subject observation position and an image capture position, and a sub-mirror 252 that is supported by the quick-return mirror 251 and rotates in accordance with the rotation of the quick-return mirror 251. In FIG. 14, the state in which the mirror system 250 is in the subject observation position is shown by a solid line, and the state in which it is in the subject image capture position is shown by a two-dot chain line.

ミラー系250は、被写体の観察位置にある状態では光軸L1の光路上に挿入される一方で、被写体の撮像位置にある状態では光軸L1の光路から退避するように回転する。 When the mirror system 250 is in the observation position of the subject, it is inserted in the optical path of the optical axis L1, but when it is in the imaging position of the subject, it rotates so as to move out of the optical path of the optical axis L1.

クイックリターンミラー251はハーフミラーで構成され、被写体の観察位置にある状態では、被写体からの光束(光軸L1)の一部の光束(光軸L2,L3)を当該クイックリターンミラー251で反射して光学ファインダ235および測光センサ237に導き、一部の光束(光軸L4)を透過させてサブミラー252へ導く。これに対して、サブミラー252は全反射ミラーで構成され、クイックリターンミラー251を透過した光束(光軸L4)を焦点検出モジュール261へ導く。 The quick-return mirror 251 is a half mirror, and when it is in the subject observation position, a portion of the light beam (optical axis L1) from the subject is reflected by the quick-return mirror 251 (optical axes L2 and L3) and directed to the optical viewfinder 235 and photometry sensor 237, while a portion of the light beam (optical axis L4) is transmitted and directed to the sub-mirror 252. In contrast, the sub-mirror 252 is a total reflection mirror, and directs the light beam (optical axis L4) that has transmitted through the quick-return mirror 251 to the focus detection module 261.

したがって、ミラー系250が観察位置にある場合は、被写体からの光束(光軸L1)は光学ファインダ235、測光センサ237および焦点検出モジュール261へ導かれ、撮影者により被写体が観察されるとともに、露出演算や、焦点検出モジュール261によるフォーカスレンズ32の焦点調節状態の検出が実行される。そして、撮影者がレリーズボタンを全押しするとミラー系250が撮影位置に回動し、被写体からの光束(光軸L1)は全て撮像素子220へと導かれ、撮像された画像データがカメラメモリ24に保存される。 Therefore, when the mirror system 250 is in the observation position, the light beam (optical axis L1) from the subject is guided to the optical viewfinder 235, photometry sensor 237, and focus detection module 261, and the photographer observes the subject while exposure calculations and detection of the focus adjustment state of the focus lens 32 are performed by the focus detection module 261. Then, when the photographer fully presses the release button, the mirror system 250 rotates to the shooting position, and all of the light beam (optical axis L1) from the subject is guided to the image sensor 220, and the captured image data is stored in the camera memory 24.

クイックリターンミラー251で反射された被写体からの光束(光軸L2)は、撮像素子220と光学的に等価な面に配置された焦点板231に結像し、ペンタプリズム233と接眼レンズ27とを介して観察可能になっている。このとき、透過型液晶表示器232は、焦点板231上の被写体像に焦点検出エリアマークなどを重畳して表示するとともに、被写体像外のエリアにシャッター速度、絞り値、撮影枚数などの撮影に関する情報を表示する。これにより、撮影者は、撮影準備状態において、光学ファインダ235を通して被写体およびその背景ならびに撮影関連情報などを観察することができる。 The light beam (optical axis L2) from the subject reflected by the quick return mirror 251 is focused on the focusing screen 231, which is arranged on a plane optically equivalent to the image sensor 220, and can be observed through the pentaprism 233 and eyepiece 27. At this time, the transmissive LCD display 232 displays a focus detection area mark and the like superimposed on the subject image on the focusing screen 231, and also displays information related to shooting, such as the shutter speed, aperture value, and number of shots, in the area outside the subject image. This allows the photographer to observe the subject and its background, as well as shooting-related information, through the optical viewfinder 235 when in preparation for shooting.

測光センサ237は、二次元カラーCCDイメージセンサーなどで構成され、撮影の際の露出値を演算するため、撮影画面を複数の領域に分割して領域ごとの輝度に応じた測光信号を出力する。測光センサ237で検出された信号はカメラ制御部21へ出力され、自動露出制御や特定被写体の認識(たとえば顔認識)などに用いられる。 The photometry sensor 237 is composed of a two-dimensional color CCD image sensor or the like, and divides the shooting screen into multiple areas and outputs a photometry signal according to the brightness of each area in order to calculate the exposure value when shooting. The signal detected by the photometry sensor 237 is output to the camera control unit 21 and used for automatic exposure control, recognition of specific subjects (e.g. face recognition), etc.

焦点検出モジュール261は、位相差検出方式による自動合焦制御を実行する専用の焦点検出素子であり、サブミラー252で反射した光束(光軸L4)の、撮像素子220の撮像面と光学的に等価な位置に固定されている。 The focus detection module 261 is a dedicated focus detection element that performs automatic focusing control using a phase difference detection method, and is fixed at a position of the light beam (optical axis L4) reflected by the sub-mirror 252 that is optically equivalent to the imaging surface of the image sensor 220.

図15は、図14に示す焦点検出モジュール261の構成例を示す図である。本実施形態の焦点検出モジュール261は、コンデンサレンズ261a、一対の開口が形成された絞りマスク261b、一対の再結像レンズ261cおよび一対のラインセンサ261dを有する。また、図示していないが、本実施形態のラインセンサ261dは、撮像光学系の予定焦点面近傍に配置されたマイクロレンズと、このマイクロレンズに対して配置された光電変換部とを有する画素が複数配列された画素列を備えている。フォーカスレンズ32の射出瞳の異なる一対の領域を通る一対の光束を、一対のラインセンサ261dに配列された各画素で受光することで、一対の像信号を取得することができる。そして、一対のラインセンサ261dで取得した一対の像信号の位相ずれを、後述する相関演算によって求めることにより焦点調節状態を検出することができる。 Figure 15 is a diagram showing an example of the configuration of the focus detection module 261 shown in Figure 14. The focus detection module 261 of this embodiment has a condenser lens 261a, an aperture mask 261b in which a pair of apertures are formed, a pair of reimaging lenses 261c, and a pair of line sensors 261d. Although not shown, the line sensor 261d of this embodiment has a pixel row in which a plurality of pixels having a microlens arranged near the intended focal plane of the imaging optical system and a photoelectric conversion unit arranged relative to this microlens are arranged. A pair of image signals can be obtained by receiving a pair of light beams passing through a pair of different areas of the exit pupil of the focus lens 32 at each pixel arranged in the pair of line sensors 261d. Then, the phase shift of the pair of image signals acquired by the pair of line sensors 261d can be obtained by a correlation calculation described later, thereby detecting the focus adjustment state.

たとえば、図15に示すように、被写体Pが撮像素子220の等価面(予定結像面)261eで結像すると合焦状態となるが、フォーカスレンズ32が光軸L1方向に移動することで、結像点が等価面261eより被写体側にずれたり(前ピンと称される)、カメラボディ側にずれたりすると(後ピンと称される)、ピントずれの状態となる。 For example, as shown in FIG. 15, when the subject P is imaged on the equivalent surface (intended imaging surface) 261e of the image sensor 220, the subject is in focus. However, if the focus lens 32 moves in the direction of the optical axis L1, and the imaging point shifts from the equivalent surface 261e toward the subject (called front focus) or toward the camera body (called back focus), the subject becomes out of focus.

続いて、第4実施形態に係る撮像素子220について説明する。図16は、第4実施形態に係る撮像素子220を示す正面図であり、図17は、図16に示す焦点検出領域224の一つを拡大して示す正面図である。第4実施形態に係る撮像素子220には、図16に示すように、撮影画面に設定された焦点検出エリアAFPに対応した位置、すなわち、撮像素子220の撮像面の中心、および中心から左右対称位置と、それらの上下対称位置の計9箇所に、焦点検出を行うための焦点検出領域224a~224iが設定されている。 Next, the image sensor 220 according to the fourth embodiment will be described. FIG. 16 is a front view showing the image sensor 220 according to the fourth embodiment, and FIG. 17 is a front view showing an enlarged view of one of the focus detection areas 224 shown in FIG. 16. As shown in FIG. 16, the image sensor 220 according to the fourth embodiment has focus detection areas 224a to 224i for focus detection set at positions corresponding to the focus detection area AFP set on the shooting screen, that is, at the center of the imaging surface of the image sensor 220, positions symmetrical to the left and right of the center, and positions symmetrical above and below these, for a total of nine positions.

焦点検出領域224a~224iには、図17に示すように、撮像面の平面上に、複数の撮像画素221aが二次元状に配列されている。撮像画素221aには、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bとがあり、それぞれの画素がベイヤー配列により配列している。 In the focus detection areas 224a to 224i, as shown in FIG. 17, a plurality of imaging pixels 221a are arranged two-dimensionally on the plane of the imaging surface. The imaging pixels 221a include green pixels G having color filters that transmit light in the green wavelength region, red pixels R having color filters that transmit light in the red wavelength region, and blue pixels B having color filters that transmit light in the blue wavelength region, and the individual pixels are arranged in a Bayer array.

次に、撮像画素221aの構成について説明する。図18(A)は、撮像画素221aの一つを拡大して示す正面図、図18(B)は断面図である。撮像画素221aは、図18(A)に示すように、マイクロレンズ2211と、一対の光電変換部2214,2215と、図示しないカラーフィルタから構成され、図18(B)の断面図に示すように、撮像素子220の半導体回路基板2213の表面に光電変換部2214,2215が造り込まれ、その表面にマイクロレンズ2211が形成されている。一対の光電変換部2214,2215は、同じ大きさで、かつマイクロレンズ2211の光軸に対して左右対称に配置されている。また、一対の光電変換部2214,2215はそれぞれ、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされている。図18(B)に示すように、撮像画素221aの一方の光電変換部2215は一方の光束AB1を受光する一方で、撮像画素221aの他方の光電変換部2214は、マイクロレンズ2211の光軸に対して光束AB1と対称となる光束AB2を受光する。 Next, the configuration of the imaging pixel 221a will be described. FIG. 18(A) is a front view showing an enlarged image of one of the imaging pixels 221a, and FIG. 18(B) is a cross-sectional view. As shown in FIG. 18(A), the imaging pixel 221a is composed of a microlens 2211, a pair of photoelectric conversion units 2214 and 2215, and a color filter (not shown). As shown in the cross-sectional view of FIG. 18(B), the photoelectric conversion units 2214 and 2215 are built into the surface of the semiconductor circuit board 2213 of the imaging element 220, and the microlens 2211 is formed on the surface. The pair of photoelectric conversion units 2214 and 2215 are the same size and are arranged symmetrically with respect to the optical axis of the microlens 2211. In addition, the pair of photoelectric conversion units 2214 and 2215 are each shaped to receive the imaging light beam passing through the exit pupil (for example, F1.0) of the imaging optical system 31 by the microlens 2211. As shown in FIG. 18B, one photoelectric conversion unit 2215 of the imaging pixel 221a receives one light beam AB1, while the other photoelectric conversion unit 2214 of the imaging pixel 221a receives a light beam AB2 that is symmetrical to the light beam AB1 with respect to the optical axis of the microlens 2211.

そして、各撮像画素221aの光電変換部2214,2215は、一対の光束AB1,AB2を受光することで、受光する光束AB1,AB2の強度に応じた一対の像信号を出力する。言い換えれば、光電変換部2214,2215は、光束AB1,AB2によりマイクロレンズ2211上に形成される像の強度に応じた一対の像信号を出力する。そして、本実施形態では、撮像画素221aの光電変換部2214,2215から出力された一対の像信号を加算することで、撮像画素221aの画素信号が生成され、複数の撮像画素221aの画素信号から画像データが生成される。 The photoelectric conversion units 2214, 2215 of each imaging pixel 221a receive the pair of light beams AB1, AB2 and output a pair of image signals corresponding to the intensities of the received light beams AB1, AB2. In other words, the photoelectric conversion units 2214, 2215 output a pair of image signals corresponding to the intensity of the image formed on the microlens 2211 by the light beams AB1, AB2. In this embodiment, the pair of image signals output from the photoelectric conversion units 2214, 2215 of the imaging pixel 221a are added together to generate a pixel signal of the imaging pixel 221a, and image data is generated from the pixel signals of the multiple imaging pixels 221a.

なお、図18(A)に示す光電変換部2214,2215は矩形状としたが、光電変換部2214,2215の形状はこれに限定されず、他の形状、たとえば、楕円形状、半円形状、多角形状にすることもできる。 Note that, although the photoelectric conversion units 2214 and 2215 shown in FIG. 18(A) are rectangular, the shape of the photoelectric conversion units 2214 and 2215 is not limited to this and can also be other shapes, such as an ellipse, a semicircle, or a polygon.

次に、撮像画素221aの光電変換部2214,2215から出力された一対の像信号を用いた位相差方式の焦点検出(以下、像面位相差検出ともいう)について説明する。なお、以下においては、図17に示すように、横方向(X方向)に配列された複数の撮像画素221aを撮像画素列225とし、後述するように、撮像画素列225を構成する各撮像画素221aの光電変換部2214,2215の出力をそれぞれまとめることで、1つの撮像画素列225から一対の像データを生成し、生成した一対の像データに基づいて、デフォーカス量を算出する。 Next, a phase difference focus detection method (hereinafter also referred to as image plane phase difference detection) using a pair of image signals output from the photoelectric conversion units 2214, 2215 of the imaging pixels 221a will be described. In the following, as shown in FIG. 17, a plurality of imaging pixels 221a arranged in the horizontal direction (X direction) are regarded as an imaging pixel row 225, and as described later, a pair of image data is generated from one imaging pixel row 225 by combining the outputs of the photoelectric conversion units 2214, 2215 of each imaging pixel 221a constituting the imaging pixel row 225, and a defocus amount is calculated based on the generated pair of image data.

図19は、図17のXIX-XIX線に沿う断面図であり、撮影光軸L上に配置された撮像画素221a-1と、これに隣接する撮像画素221a-2が、射出瞳340の測距瞳341,342から照射される光束AB1-1,AB1-2,AB2-1,AB2-2を受光することを示す。ただし、図示していないが、その他の撮像画素についても、一対の光電変換部が一対の測距瞳341,342から照射される一対の光束を受光している。なお、図19において、撮像画素221aの光電変換部2214-1,2225-1,2214-2,2215-2の配列方向は一対の測距瞳351,352の並び方向と一致している。 Figure 19 is a cross-sectional view taken along line XIX-XIX in Figure 17, and shows that the imaging pixel 221a-1 arranged on the imaging optical axis L and the adjacent imaging pixel 221a-2 receive light beams AB1-1, AB1-2, AB2-1, and AB2-2 emitted from the ranging pupils 341 and 342 of the exit pupil 340. However, although not shown, pairs of photoelectric conversion units of the other imaging pixels also receive pairs of light beams emitted from the pair of ranging pupils 341 and 342. Note that in Figure 19, the arrangement direction of the photoelectric conversion units 2214-1, 2225-1, 2214-2, and 2215-2 of the imaging pixel 221a coincides with the arrangement direction of the pair of ranging pupils 351 and 352.

撮像画素221a-1の光電変換部2214-1は、一方の測距瞳341を通過しマイクロレンズ2211-1に向かう一方のAB1-1により、マイクロレンズ2211-1上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部2215-1は、他方の測距瞳342を通過しマイクロレンズ2211-1に向かう他方の光束AB2-1により、マイクロレンズ2211-1上に形成される像の強度に対応した信号を出力する。 The photoelectric conversion unit 2214-1 of the imaging pixel 221a-1 outputs a signal corresponding to the intensity of the image formed on the microlens 2211-1 by one light beam AB1-1 that passes through one ranging pupil 341 and heads toward the microlens 2211-1. In response to this, the photoelectric conversion unit 2215-1 outputs a signal corresponding to the intensity of the image formed on the microlens 2211-1 by the other light beam AB2-1 that passes through the other ranging pupil 342 and heads toward the microlens 2211-1.

同様に、撮像画素221a-2の光電変換部2214-2は、一方の測距瞳341を通過しマイクロレンズ2211-2に向かう一方の光束AB1-2により、マイクロレンズ2211-2上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部2215-2は、他方の測距瞳342を通過しマイクロレンズ2211-2に向かう他方の光束AB2-2により、マイクロレンズ2211-2上に形成される像の強度に対応した信号を出力する。 Similarly, the photoelectric conversion unit 2214-2 of the imaging pixel 221a-2 outputs a signal corresponding to the intensity of the image formed on the microlens 2211-2 by one light beam AB1-2 that passes through one ranging pupil 341 and heads toward the microlens 2211-2. In response to this, the photoelectric conversion unit 2215-2 outputs a signal corresponding to the intensity of the image formed on the microlens 2211-2 by the other light beam AB2-2 that passes through the other ranging pupil 342 and heads toward the microlens 2211-2.

そして、撮像画素列225を構成する各撮像画素221aの光電変換部2214,2215の出力を、測距瞳341と測距瞳342のそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342のそれぞれを通過する光束AB1,AB2が撮像画素列225上に形成する一対の像の強度分布に関するデータ、すなわち、一対の像データを得ることができる。たとえば、図17に示す例では、8以上の撮像画素列225が設定されており、カメラ制御部21は、それぞれの撮像画素列225から一対の像データを得ることができる。 Then, by grouping the outputs of the photoelectric conversion units 2214, 2215 of each imaging pixel 221a constituting the imaging pixel row 225 into output groups corresponding to the ranging pupil 341 and ranging pupil 342, respectively, it is possible to obtain data on the intensity distribution of a pair of images formed on the imaging pixel row 225 by the light beams AB1, AB2 passing through the ranging pupil 341 and ranging pupil 342, respectively, that is, a pair of image data. For example, in the example shown in FIG. 17, eight or more imaging pixel rows 225 are set, and the camera control unit 21 can obtain a pair of image data from each imaging pixel row 225.

そして、カメラ制御部21は、各撮像画素列225から得られた一対の像データに対して、相関演算処理又は位相差検出処理などの像ズレ検出演算処理を施すことにより、瞳分割位相差検出方式による像ズレ量を検出することができる。そして、カメラ制御部21は、得られた像ズレ量に、一対の測距瞳の重心間隔に応じた変換演算を施すことにより、デフォーカス量を求めることができる。 The camera control unit 21 can detect the amount of image shift caused by the pupil division phase difference detection method by performing image shift detection calculation processing such as correlation calculation processing or phase difference detection processing on a pair of image data obtained from each imaging pixel row 225. The camera control unit 21 can then obtain the amount of defocus by performing a conversion calculation on the obtained amount of image shift according to the distance between the centers of gravity of a pair of ranging pupils.

このように、カメラ制御部21は、各撮像画素列225から得られた一対の像データに基づいて、デフォーカス量を撮像画素列225ごとに算出することが可能である。しかしながら、第4実施形態において、カメラ制御部21は、焦点検出に要する時間を短縮し焦点検出を適切なタイミングで行うために、焦点検出に用いる撮像画素列225を特定し、特定した撮像画素列225の出力のみに基づいて、デフォーカス量を算出する。 In this way, the camera control unit 21 can calculate the defocus amount for each imaging pixel row 225 based on a pair of image data obtained from each imaging pixel row 225. However, in the fourth embodiment, in order to reduce the time required for focus detection and perform focus detection at an appropriate timing, the camera control unit 21 identifies the imaging pixel row 225 to be used for focus detection, and calculates the defocus amount based only on the output of the identified imaging pixel row 225.

具体的には、カメラ制御部21は、まず、各撮像画素列225の出力から被写体に対応する周波数成分を抽出し、抽出した周波数成分に関する情報を、コントラスト情報として検出する。たとえば、カメラ制御部21は、第3実施形態と同様に、各撮像画素列225の出力に対して、所定のバンドパスフィルタを用いてフィルタ処理を施すことで、撮像画素列225の出力に含まれる周波数成分の中から、背景などに起因する低周波成分やノイズに相当する高周波成分を除去し、被写体に対応する周波数成分を抽出する。そして、カメラ制御部21は、たとえば、撮像画素列225の出力をフィルタ処理して得られたデータを、撮像画素列225の出力に含まれる周波数成分のコントラスト情報として検出することができる。 Specifically, the camera control unit 21 first extracts frequency components corresponding to the subject from the output of each imaging pixel row 225, and detects information related to the extracted frequency components as contrast information. For example, as in the third embodiment, the camera control unit 21 applies filtering to the output of each imaging pixel row 225 using a predetermined band-pass filter to remove low-frequency components caused by the background, etc., and high-frequency components corresponding to noise from the frequency components included in the output of the imaging pixel row 225, and extracts the frequency components corresponding to the subject. Then, the camera control unit 21 can detect, for example, data obtained by filtering the output of the imaging pixel row 225 as contrast information of the frequency components included in the output of the imaging pixel row 225.

また、カメラ制御部21は、抽出した周波数成分のコントラスト情報に基づいて、周波数成分の量や強度を表すコントラスト量を算出する。ここで、図20は、図17と同様に、図16に示す焦点検出領域224a~224iの一つを拡大して示す正面図であり、図21は、図20に示す第1グループLAの撮像画素221aを模式的に示す図である。なお、図20および図21においては、撮像画素列225を、それぞれ撮像画素列A1~A5,B1~B5,C1~C5,D1~D5,およびE1~E5として表す。また、図21(A)および図21(B)に示す例では、各撮像画素列が12の撮像画素221aを有するものとして説明する。 The camera control unit 21 also calculates a contrast amount representing the amount and intensity of the frequency components based on the contrast information of the extracted frequency components. Here, FIG. 20 is an enlarged front view of one of the focus detection areas 224a-224i shown in FIG. 16, similar to FIG. 17, and FIG. 21 is a diagram showing the imaging pixels 221a of the first group LA shown in FIG. 20. In FIGS. 20 and 21, the imaging pixel rows 225 are represented as imaging pixel rows A1-A5, B1-B5, C1-C5, D1-D5, and E1-E5, respectively. In the examples shown in FIGS. 21(A) and 21(B), each imaging pixel row will be described as having 12 imaging pixels 221a.

まず、カメラ制御部21は、焦点検出領域224内に設定された複数の撮像画素列225を、所定数の撮像画素列225(たとえば、5つの撮像画素列225)ごとにグループ化する。たとえば、図20に示す例において、カメラ制御部21は、縦方向(Y方向)に連続する5つの撮像画素列225ごとに、撮像画素列A1~A5からなる第1グループLA、撮像画素列B1~B5からなる第2グループLB、撮像画素列C1~C5からなる第3グループLC、撮像画素列D1~D5からなる第4グループLD、撮像画素列E1~E5からなる第5グループLEのように、各撮像画素列225をグループ化する。なお、グループ化する撮像画素列225の数は5列に限定されず、適宜設定することができる。 First, the camera control unit 21 groups the multiple imaging pixel rows 225 set in the focus detection area 224 into groups of a predetermined number of imaging pixel rows 225 (for example, five imaging pixel rows 225). For example, in the example shown in FIG. 20, the camera control unit 21 groups each of five imaging pixel rows 225 consecutive in the vertical direction (Y direction), such as a first group LA consisting of imaging pixel rows A1 to A5, a second group LB consisting of imaging pixel rows B1 to B5, a third group LC consisting of imaging pixel rows C1 to C5, a fourth group LD consisting of imaging pixel rows D1 to D5, and a fifth group LE consisting of imaging pixel rows E1 to E5. Note that the number of imaging pixel rows 225 to be grouped is not limited to five rows and can be set as appropriate.

そして、カメラ制御部21は、同じグループに属する撮像画素列225の出力に含まれる各周波数成分の出力値を、グループごとに加算することで、各グループにおける周波数成分の出力値を算出し、各グループにおける周波数成分のコントラスト情報として検出する。たとえば、図21(A)に示す例において、カメラ制御部21は、撮像画素列A1~A5においてそれぞれ1番目の撮像画素221aの出力に対応する周波数成分の出力値を加算することで、出力値a1を算出する。同様に、カメラ制御部21は、撮像画素列A1~A5においてそれぞれ2番目の撮像画素221aの出力に対応する周波数成分の出力値を加算することで、出力値a2を算出する。同様に、カメラ制御部21は、撮像画素列A1~A5においてそれぞれ3番目以降の撮像画素221aについても、横方向(X方向)において同じ位置に配置された撮像画素221aの出力に対応する周波数成分の出力値を加算することで、出力値a3,a4,・・・,a12を算出する。これにより、カメラ制御部21は、a1,a2,a3,・・・,a12からなる出力値を、第1グループLAにおける周波数成分のコントラスト情報として検出することができる。 The camera control unit 21 then calculates the output value of the frequency components in each group by adding up the output values of the frequency components included in the output of the imaging pixel rows 225 belonging to the same group for each group, and detects it as contrast information of the frequency components in each group. For example, in the example shown in FIG. 21(A), the camera control unit 21 calculates the output value a1 by adding up the output values of the frequency components corresponding to the output of the first imaging pixel 221a in each of the imaging pixel rows A1 to A5. Similarly, the camera control unit 21 calculates the output value a2 by adding up the output values of the frequency components corresponding to the output of the second imaging pixel 221a in each of the imaging pixel rows A1 to A5. Similarly, the camera control unit 21 calculates the output values a3, a4, ..., a12 for the third and subsequent imaging pixels 221a in each of the imaging pixel rows A1 to A5, by adding up the output values of the frequency components corresponding to the output of the imaging pixels 221a arranged at the same position in the horizontal direction (X direction). This allows the camera control unit 21 to detect the output values a1, a2, a3, ..., a12 as contrast information for the frequency components in the first group LA.

また、カメラ制御部21は、第1グループLAと同様に、第2グループLB,第3グループLC,第4グループLD,・・・における周波数成分のコントラスト情報も検出する。そして、カメラ制御部21は、各グループの周波数成分のコントラスト情報に基づいて、各グループにおける周波数成分のコントラスト量を算出する。たとえば、図21(A)に示す例において、カメラ制御部21は、上記式(3)に示すように、第1グループLAにおける周波数成分の出力値a1,a2,a3,・・・,a12を用いて、a1とa2との差、a2とa3との差、・・・,a11とa12との差の総和を求めることで、第1グループLAにおける周波数成分のコントラスト量を算出することができる。 The camera control unit 21 also detects contrast information of the frequency components in the second group LB, the third group LC, the fourth group LD, etc., in the same way as the first group LA. The camera control unit 21 then calculates the contrast amount of the frequency components in each group based on the contrast information of the frequency components of each group. For example, in the example shown in FIG. 21(A), the camera control unit 21 can calculate the contrast amount of the frequency components in the first group LA by calculating the sum of the difference between a1 and a2, the difference between a2 and a3, ..., the difference between a11 and a12 using the output values a1, a2, a3, ..., a12 of the frequency components in the first group LA, as shown in the above formula (3).

なお、上述した例では、横方向(X方向)において同じ位置に配置された撮像画素221aの出力に対応する周波数成分の出力値を加算することで、各グループにおける周波数成分の出力値を算出する構成を例示したが、この構成に限定されず、たとえば、横方向(X方向)において同じ位置に配置された撮像画素221aの出力に対応する周波数成分の出力値を平均化することで、各グループにおける周波数成分の出力値を算出する構成としてもよい。たとえば、被写体の輝度やコントラストが比較的低い場合には、撮像画素221aの出力に対応する周波数成分の出力値を加算して、各グループにおける周波数成分の出力値を算出し、被写体の輝度やコントラストが比較的高い場合には、撮像画素221aの出力に対応する周波数成分の出力値を平均化して、各グループにおける周波数成分の出力値を算出する構成とすることができる。 In the above example, the output values of the frequency components corresponding to the output of the imaging pixels 221a arranged at the same position in the horizontal direction (X direction) are added to calculate the output value of the frequency components in each group. However, the present invention is not limited to this configuration. For example, the output values of the frequency components corresponding to the output of the imaging pixels 221a arranged at the same position in the horizontal direction (X direction) may be averaged to calculate the output value of the frequency components in each group. For example, when the brightness or contrast of the subject is relatively low, the output values of the frequency components corresponding to the output of the imaging pixels 221a are added to calculate the output value of the frequency components in each group, and when the brightness or contrast of the subject is relatively high, the output values of the frequency components corresponding to the output of the imaging pixels 221a are averaged to calculate the output value of the frequency components in each group.

また、図21(B)に示すように、横方向(X方向)において同じ位置に配置された光電変換部2214,2215の出力のそれぞれに対応する周波数成分の出力値を加算または平均化することで、各グループにおける周波数成分の出力値を算出する構成としてもよい。すなわち、カメラ制御部21は、図21(B)に示すように、各撮像画素列A1~A5においてそれぞれ1番目の撮像画素221aが有する光電変換部2214の出力に対応する周波数成分の出力値を加算または平均化することで、出力値b1を算出する。同様に、カメラ制御部21は、各画素列A1~A5においてそれぞれ1番目の撮像画素221aが有する光電変換部2215の出力に対応する周波数成分の出力値を加算または平均化することで、出力値c1を算出する。同様に、カメラ制御部21は、2番目以降の撮像画素221aが有する光電変換部2214および光電変換部2215についても、各画素列A1~A5においてそれぞれ横方向(X方向)において同じ位置に配置された光電変換部2214,2215の出力に対応する周波数成分の出力値を加算または平均化することで、出力値b2,c2,b3,c3,・・・,b12,c12を算出する。これにより、カメラ制御部21は、第1グループLAにおける周波数成分のコントラスト情報として、b1,c1,b2,c2,b3,c3,・・・,b12,c12からなる出力値を取得することができる。同様に、カメラ制御部21は、図22に示すように、グループLB,LC,LD,LE,・・・における周波数成分のコントラスト情報を取得する。なお、図22は、図20に示す各グループLA,LB,・・・LEにおける周波数成分の一例を示す図である。 Also, as shown in Fig. 21B, the output value of the frequency component in each group may be calculated by adding or averaging the output values of the frequency components corresponding to the output of the photoelectric conversion units 2214 and 2215 arranged at the same position in the horizontal direction (X direction). That is, as shown in Fig. 21B, the camera control unit 21 calculates the output value b1 by adding or averaging the output values of the frequency components corresponding to the output of the photoelectric conversion unit 2214 of the first imaging pixel 221a in each of the imaging pixel rows A1 to A5. Similarly, the camera control unit 21 calculates the output value c1 by adding or averaging the output values of the frequency components corresponding to the output of the photoelectric conversion unit 2215 of the first imaging pixel 221a in each of the pixel rows A1 to A5. Similarly, the camera control unit 21 calculates output values b2, c2, b3, c3, ..., b12, and c12 for the photoelectric conversion units 2214 and 2215 of the second and subsequent imaging pixels 221a by adding or averaging the output values of the frequency components corresponding to the outputs of the photoelectric conversion units 2214 and 2215 arranged at the same position in the horizontal direction (X direction) in each of the pixel columns A1 to A5. This allows the camera control unit 21 to obtain output values consisting of b1, c1, b2, c2, b3, c3, ..., b12, and c12 as contrast information of the frequency components in the first group LA. Similarly, the camera control unit 21 obtains contrast information of the frequency components in the groups LB, LC, LD, LE, ... as shown in FIG. 22. Note that FIG. 22 is a diagram showing an example of the frequency components in each of the groups LA, LB, ..., LE shown in FIG. 20.

そして、カメラ制御部21は、各グループにおける周波数成分のコントラスト情報に基づいて、各グループにおける周波数成分のコントラスト量を算出する。たとえば、図21(B)に示す例において、カメラ制御部21は、上記式(3)に示すように、第1グループLAにおける周波数成分の出力値b1,c1,b2,c2,b3,c3,・・・,b12,c12のうち、連続する出力値の差の総和を、周波数成分のコントラスト量として算出することができる。また、カメラ制御部21は、出力値b1とc1,b2とc2,b3とc3,・・・,b12とc12とをそれぞれ加算した列データを算出し、算出した列データにおいて連続する値の差の総和を、周波数成分のコントラスト量として算出する構成としてもよい。あるいは、カメラ制御部21は、出力値b1,c1,b2,c2,b3,c3,・・・,b12,c12を、出力値b1,b2,b3,・・・,b12からなる列データと、出力値c1,c2,c3,・・・,c12からなる列データとに分けて、それぞれの列データにおける周波数成分のコントラスト量を算出し、値が大きい方のコントラスト量あるいは値が小さいほうのコントラスト量を、各グループにおける周波数成分のコントラスト量として算出する構成としてもよい。 Then, the camera control unit 21 calculates the contrast amount of the frequency components in each group based on the contrast information of the frequency components in each group. For example, in the example shown in FIG. 21B, the camera control unit 21 can calculate the sum of the differences between consecutive output values of the frequency components in the first group LA as the contrast amount of the frequency components, as shown in the above formula (3). The camera control unit 21 may also calculate column data by adding the output values b1 and c1, b2 and c2, b3 and c3, ..., b12 and c12, respectively, and calculate the sum of the differences between consecutive values in the calculated column data as the contrast amount of the frequency components. Alternatively, the camera control unit 21 may be configured to separate the output values b1, c1, b2, c2, b3, c3, ..., b12, and c12 into column data consisting of the output values b1, b2, b3, ..., b12, and column data consisting of the output values c1, c2, c3, ..., c12, calculate the contrast amount of the frequency components in each column data, and calculate the larger or smaller contrast amount as the contrast amount of the frequency components in each group.

さらに、上述した例では、同じグループに属する全ての撮像画素列225の出力に含まれる全ての周波数成分を加算または平均化することで、各グループにおける周波数成分のコントラスト情報を検出する構成を例示したが、この構成に限定されず、たとえば、被写界の明るさ、画像の輝度、あるいは画像のコントラストなどに基づいて、加算または平均化する周波数成分の数を変更する構成としてもよい。たとえば、被写界の明るさ、画像の輝度、あるいは画像のコントラストが高いほど、加算する周波数成分の数を少なくし、被写界の明るさ、画像の輝度、あるいは画像のコントラストが低いほど、加算する周波数成分の数を多くする構成とすることができる。 In addition, in the above example, a configuration was exemplified in which contrast information of frequency components in each group was detected by adding or averaging all frequency components included in the output of all imaging pixel rows 225 belonging to the same group, but this configuration is not limited to this, and a configuration in which the number of frequency components to be added or averaged is changed based on, for example, the brightness of the subject scene, the luminance of the image, or the contrast of the image may be changed. For example, a configuration in which the number of frequency components to be added is reduced as the brightness of the subject scene, the luminance of the image, or the contrast of the image is higher, and the number of frequency components to be added is increased as the brightness of the subject scene, the luminance of the image, or the contrast of the image is lower.

そして、カメラ制御部21は、グループごとに算出した周波数成分のコントラスト量のうち、コントラスト量が最も大きいグループを特定グループとして決定し、特定グループに含まれる撮像画素221aの出力に基づいて、デフォーカス量を算出する。たとえば、図22に示す例においては、第3グループLCにおける周波数成分の量および強度が大きいため、グループLA~LEのうち、第3グループLCにおける周波数成分のコントラスト量が最も大きくなる。この場合、カメラ制御部21は、第3グループLCを特定グループとして特定し、第3グループに含まれる撮像画素221aの出力に基づいて、デフォーカス量を算出する。 Then, the camera control unit 21 determines the group with the largest contrast amount among the contrast amounts of the frequency components calculated for each group as a specific group, and calculates the defocus amount based on the output of the imaging pixels 221a included in the specific group. For example, in the example shown in FIG. 22, the amount and intensity of the frequency components in the third group LC are large, so that the contrast amount of the frequency components in the third group LC is the largest among the groups LA to LE. In this case, the camera control unit 21 identifies the third group LC as a specific group, and calculates the defocus amount based on the output of the imaging pixels 221a included in the third group.

たとえば、カメラ制御部21は、図21(B)に示すように、特定グループに含まれる光電変換部2214,2215の出力のうち、横方向(X方向)において同じ位置に配置された光電変換部2214,2215の出力を加算または平均化することで、一対の像データ(出力値b1,b2,b3,・・・からなる像データと、出力値c1,c2,c3,・・・からなる像データと)を算出する。そして、カメラ制御部21は、上記式(1)に示すように、算出した一対の像データを相対的にシフトさせながら相関演算を行うことで、一対の像データの相関量C(k)を算出し、算出した相関量C(k)に基づいて、上記式(2)に示すように、デフォーカス量を算出することができる。そして、カメラ制御部21は、算出したデフォーカス量に基づいて、フォーカスレンズ32を駆動させることで、光学系の焦点調節を行うことができる。 For example, as shown in FIG. 21B, the camera control unit 21 calculates a pair of image data (image data consisting of output values b1, b2, b3, ... and image data consisting of output values c1, c2, c3, ...) by adding or averaging the outputs of the photoelectric conversion units 2214, 2215 included in a specific group that are arranged at the same position in the horizontal direction (X direction). Then, as shown in the above formula (1), the camera control unit 21 calculates the correlation amount C(k) of the pair of image data by performing a correlation calculation while relatively shifting the calculated pair of image data, and can calculate the defocus amount as shown in the above formula (2) based on the calculated correlation amount C(k). Then, the camera control unit 21 can adjust the focus of the optical system by driving the focus lens 32 based on the calculated defocus amount.

なお、第4実施形態において、カメラ制御部21は、焦点検出モジュール261により算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動を制御することもでき、また、撮像素子220の出力に基づいて算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動を制御することもできる。たとえば、カメラ制御部21は、撮像素子220で受光する光の明るさが低い場合には、焦点検出モジュール261により算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動を制御することができる。焦点検出モジュール261のラインセンサ261dを構成する各画素のサイズは、撮像画素221aと比べて大きく設計されているため、光束の光の強さが比較的弱い場合でも、比較的高い精度で焦点検出を行うことができるためである。一方、たとえば動画撮影時には、撮像素子220の出力に基づいて算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動を制御することができる。撮像素子220の出力に基づく像面位相差検出では、動画撮影時においても、撮像素子220で画像を撮像しながら、光学系の焦点検出を行うことができるためである。 In the fourth embodiment, the camera control unit 21 can control the driving of the focus lens 32 based on the defocus amount calculated by the focus detection module 261, and can also control the driving of the focus lens 32 based on the defocus amount calculated based on the output of the image sensor 220. For example, when the brightness of the light received by the image sensor 220 is low, the camera control unit 21 can control the driving of the focus lens 32 based on the defocus amount calculated by the focus detection module 261. This is because the size of each pixel constituting the line sensor 261d of the focus detection module 261 is designed to be larger than the image pixel 221a, so that even when the light intensity of the light beam is relatively weak, focus detection can be performed with relatively high accuracy. On the other hand, for example, when shooting a video, the driving of the focus lens 32 can be controlled based on the defocus amount calculated based on the output of the image sensor 220. This is because, in image plane phase difference detection based on the output of the image sensor 220, focus detection of the optical system can be performed while capturing an image with the image sensor 220 even during video shooting.

次に、第4実施形態に係るカメラ1aの動作を説明する。図23は、第4実施形態に係るカメラ1aの動作例を示すフローチャートである。なお、図23に示すカメラ1aの動作例においては、カメラ制御部21が、撮像素子220の出力に基づいて、焦点検出を行う場面を例示して説明する。 Next, the operation of the camera 1a according to the fourth embodiment will be described. FIG. 23 is a flowchart showing an example of the operation of the camera 1a according to the fourth embodiment. Note that in the example of the operation of the camera 1a shown in FIG. 23, a scene in which the camera control unit 21 performs focus detection based on the output of the image sensor 220 will be described as an example.

まず、ステップS401では、撮像素子220により、撮像画素221a(撮像画素221aの光電変換部2214,2215)の出力データの取得が行われる。また、ステップS402では、カメラ制御部21により、焦点調節に用いるための焦点検出エリアAFPの選択が行われる。たとえば、撮影者は、操作部28を手動操作することにより、焦点調節を行うための焦点検出エリアAFPを選択することができる。これにより、カメラ制御部21は、選択された焦点検出エリアAFPに対応する焦点検出領域224を、焦点検出を行うための焦点検出領域224として決定する。 First, in step S401, the image sensor 220 acquires output data from the image pixel 221a (the photoelectric conversion units 2214 and 2215 of the image pixel 221a). In step S402, the camera control unit 21 selects a focus detection area AFP to be used for focus adjustment. For example, the photographer can manually operate the operation unit 28 to select the focus detection area AFP for focus adjustment. As a result, the camera control unit 21 determines the focus detection area 224 corresponding to the selected focus detection area AFP as the focus detection area 224 for focus detection.

そして、ステップS403では、カメラ制御部21により、ステップS402で決定された焦点検出領域224において、横方向(X方向)に一次元状に配列した複数の撮像画素221aが撮像画素列225として設定され、各撮像画素列225の出力に含まれる周波数成分のコントラスト情報が検出される。 Then, in step S403, the camera control unit 21 sets a plurality of imaging pixels 221a arranged one-dimensionally in the horizontal direction (X direction) as imaging pixel rows 225 in the focus detection area 224 determined in step S402, and detects contrast information of the frequency components contained in the output of each imaging pixel row 225.

そして、ステップS404では、カメラ制御部21により、焦点検出領域224における複数の撮像画素列225が、所定数の撮像画素列225ごとにグループ化される。たとえば、図20に示すように、カメラ制御部21は、複数の撮像画素列225を、5つの撮像画素列ごとに、グループLA,LB,LC,LD,LE,・・・にグループ化することができる。 Then, in step S404, the camera control unit 21 groups the multiple imaging pixel rows 225 in the focus detection area 224 into groups of a predetermined number of imaging pixel rows 225. For example, as shown in FIG. 20, the camera control unit 21 can group the multiple imaging pixel rows 225 into groups LA, LB, LC, LD, LE, ... for each group of five imaging pixel rows.

ステップS405では、カメラ制御部21により、同じグループに属する撮像画素列225の出力に含まれる周波数成分の出力値が加算され、これにより、各グループにおける周波数成分のコントラスト情報が検出される。具体的には、カメラ制御部21は、図21(A)に示すように、同じグループに属する複数の撮像画素列225において、それぞれ横方向(X方向)において同じ位置に配置する撮像画素221aの出力に対応する周波数成分の出力値を加算することで、各グループにおける周波数成分のコントラスト情報を検出する。 In step S405, the camera control unit 21 adds up the output values of the frequency components included in the output of the imaging pixel rows 225 belonging to the same group, thereby detecting contrast information of the frequency components in each group. Specifically, as shown in FIG. 21(A), the camera control unit 21 detects contrast information of the frequency components in each group by adding up the output values of the frequency components corresponding to the output of the imaging pixels 221a arranged at the same position in the horizontal direction (X direction) in multiple imaging pixel rows 225 belonging to the same group.

そして、ステップS406では、カメラ制御部21により、ステップS405で検出された各グループにおける周波数成分のコントラスト情報に基づいて、各グループにおける周波数成分のコントラスト量が算出される。たとえば、カメラ制御部21は、上記式(3)に基づいて、各グループにおける周波数成分の出力値から、各グループにおける周波数成分のコントラスト量を算出することができる。 Then, in step S406, the camera control unit 21 calculates the contrast amount of the frequency components in each group based on the contrast information of the frequency components in each group detected in step S405. For example, the camera control unit 21 can calculate the contrast amount of the frequency components in each group from the output values of the frequency components in each group based on the above formula (3).

ステップS407では、カメラ制御部21により、ステップS406においてグループごとに算出された周波数成分のコントラスト量の比較が行われ、コントラスト量が最も高いグループが、焦点検出を行う特定グループとして決定される。そして、ステップS408では、カメラ制御部21により、ステップS407で決定された特定グループに含まれる撮像画素221aの出力に基づいて、デフォーカス量の算出が行われる。たとえば、カメラ制御部21は、図21(B)に示すように、特定グループ内の各撮像画素列225において、それぞれ横方向(X方向)において同じ位置に配置された光電変換部2214,2215の出力を加算することで、一対の像データを算出する。そして、カメラ制御部21は、算出した一対の像データの相関演算を行い、当該演算結果に基づいて、デフォーカス量を算出する。そして、ステップS409では、カメラ制御部21により、ステップS408で算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動が行われる。 In step S407, the camera control unit 21 compares the contrast amounts of the frequency components calculated for each group in step S406, and the group with the highest contrast amount is determined as the specific group for focus detection. Then, in step S408, the camera control unit 21 calculates the defocus amount based on the output of the imaging pixels 221a included in the specific group determined in step S407. For example, as shown in FIG. 21B, the camera control unit 21 calculates a pair of image data by adding the outputs of the photoelectric conversion units 2214 and 2215 arranged at the same position in the horizontal direction (X direction) in each imaging pixel row 225 in the specific group. Then, the camera control unit 21 performs a correlation calculation of the calculated pair of image data, and calculates the defocus amount based on the calculation result. Then, in step S409, the camera control unit 21 drives the focus lens 32 based on the defocus amount calculated in step S408.

以上のようにして、第4実施形態に係る光学系の焦点検出が行われる。 This is how focus detection is performed in the optical system according to the fourth embodiment.

このように、第4実施形態では、図17に示すように、撮像素子220に、一対の光電変換部2214,2215を有する複数の撮像画素221aが二次元状に配列されている。そして、複数の撮像画素221aのうち、横方向(X方向)に配列された複数の撮像画素221aを撮像画素列225として設定し、各撮像画素列225を構成する撮像画素221aの光電変換部2214,2215の出力を、測距瞳351と測距瞳352とに対応した出力グループにまとめて一対の像データを取得し、取得した一対の像データに基づいてデフォーカス量を算出する、像面位相差検出を行う。これにより、第4実施形態では、たとえば動画撮影中などでも、光学系の焦点状態を適切に検出することができる。 In this way, in the fourth embodiment, as shown in FIG. 17, a plurality of imaging pixels 221a each having a pair of photoelectric conversion units 2214, 2215 are two-dimensionally arranged on the image sensor 220. Among the plurality of imaging pixels 221a, a plurality of imaging pixels 221a arranged in the horizontal direction (X direction) are set as an imaging pixel row 225, and the outputs of the photoelectric conversion units 2214, 2215 of the imaging pixels 221a constituting each imaging pixel row 225 are collected into output groups corresponding to the ranging pupil 351 and the ranging pupil 352 to obtain a pair of image data, and an image plane phase difference detection is performed to calculate a defocus amount based on the obtained pair of image data. As a result, in the fourth embodiment, the focus state of the optical system can be appropriately detected even during video shooting, for example.

また、第4実施形態では、各撮像画素列225を、所定数の撮像画素列225ごとにグループ化し、同じグループに属する撮像画素列225の出力に含まれる各周波数成分の出力値を、グループごとに加算することで、各グループにおける周波数成分のコントラスト情報を検出する。そして、各グループにおける周波数成分のコントラスト情報に基づいて、各グループにおける周波数成分のコントラスト量を算出し、コントラスト量が最も高いグループを特定グループとして決定し、特定グループにおける撮像画素221aの出力に基づいて、焦点検出を行う。これにより、第4実施形態では、高周波成分を多く含み、被写体が存在する可能性の高いグループにおいて焦点検出を行うことができるため、被写体に対する光学系の焦点状態をより適切に検出することができる。また、第4実施形態では、コントラスト量が最も高いグループを特定グループとして決定し、特定グループにおける撮像画素221aの出力に基づいて像面位相差検出を行うことで、全ての撮像画素221aの出力に基づいてデフォーカス量を算出する場合と比べて、デフォーカス量の算出に要する時間を短縮することができ、これにより、適切なタイミングで焦点検出を行うことができる。 In the fourth embodiment, the imaging pixel rows 225 are grouped into groups of a predetermined number of imaging pixel rows 225, and the output values of the frequency components included in the output of the imaging pixel rows 225 belonging to the same group are added for each group to detect contrast information of the frequency components in each group. Then, based on the contrast information of the frequency components in each group, the contrast amount of the frequency components in each group is calculated, the group with the highest contrast amount is determined as a specific group, and focus detection is performed based on the output of the imaging pixels 221a in the specific group. As a result, in the fourth embodiment, focus detection can be performed in a group that contains a large number of high-frequency components and is likely to contain a subject, so that the focus state of the optical system with respect to the subject can be detected more appropriately. In the fourth embodiment, the group with the highest contrast amount is determined as a specific group, and image plane phase difference detection is performed based on the output of the imaging pixels 221a in the specific group, so that the time required to calculate the defocus amount can be shortened compared to the case where the defocus amount is calculated based on the output of all the imaging pixels 221a, and focus detection can be performed at an appropriate timing.

《第5実施形態》
次いで、第5実施形態について説明する。第5実施形態では、図14に示すカメラ1aにおいて、以下に説明するように動作すること以外は、上述した第4実施形態と同様の構成を有するものである。
Fifth Embodiment
Next, a fifth embodiment will be described. In the fifth embodiment, a camera 1a shown in Fig. 14 has a similar configuration to the fourth embodiment described above, except that it operates as described below.

第5実施形態に係る撮像素子220は、第4実施形態と同様に、撮像素子220に、一対の光電変換部2214,2215を有する撮像画素221aが二次元状に配列されている。そして、第5実施形態において、カメラ制御部21は、人物の顔などの特定被写体を検出し、特定被写体に対応する撮像画素221aの出力を、特定被写体を示す色に応じた比率で抽出することで、特定被写体に応じた周波数成分を抽出する。 In the image sensor 220 according to the fifth embodiment, similar to the fourth embodiment, the image sensor 220 has image pixels 221a, each having a pair of photoelectric conversion units 2214, 2215, arranged two-dimensionally. In the fifth embodiment, the camera control unit 21 detects a specific subject, such as a person's face, and extracts the output of the image pixels 221a corresponding to the specific subject at a ratio according to the color indicating the specific subject, thereby extracting the frequency component corresponding to the specific subject.

具体的には、カメラ制御部21は、まず、人物の顔などのテンプレート画像を用いてテンプレートマッチングを行うことで、人物の顔などの特定被写体を検出する。そして、カメラ制御部21は、特定被写体に対応する撮像素子220の領域を対象領域として特定する。なお、カメラ制御部21は、焦点検出領域224a~224i内において対象領域を特定する構成としてもよいし、あるいは、撮像素子220全体において対象領域を特定する構成としてもよい。 Specifically, the camera control unit 21 first detects a specific subject, such as a human face, by performing template matching using a template image, such as a human face. Then, the camera control unit 21 identifies the area of the image sensor 220 that corresponds to the specific subject as the target area. Note that the camera control unit 21 may be configured to identify the target area within the focus detection areas 224a to 224i, or may be configured to identify the target area in the entire image sensor 220.

そして、カメラ制御部21は、ユーザまたはカメラ制御部21により選択された焦点検出領域224において、対象領域が存在するか否かを検出する。すなわち、カメラ制御部21は、ユーザまたはカメラ制御部21により焦点調節を行うための焦点検出エリアAFPが選択された場合に、当該焦点検出エリアに対応する焦点検出領域224を決定し、当該焦点検出領域224に対象領域が存在するかを判断する。そして、カメラ制御部21は、焦点検出領域224に対象領域が存在する場合には、焦点検出領域224において対象領域に対応する画素群223を特定する。さらに、カメラ制御部21は、対象領域に対応する画素群223を含む画素群列226を設定する。たとえば、カメラ制御部21は、図24に示すように、対象領域に対応する画素群223を含む複数の画素群223が横方向(X方向)に一次元状に配列された列を画素群列226として設定することができる。なお、図24は、図20に示す第1グループLAの撮像画素221aを模式的に示した図である。また、図24に示す例では、画素列226が6つの画素群223を有するものとして説明する。 Then, the camera control unit 21 detects whether or not a target area exists in the focus detection area 224 selected by the user or the camera control unit 21. That is, when a focus detection area AFP for performing focus adjustment is selected by the user or the camera control unit 21, the camera control unit 21 determines the focus detection area 224 corresponding to the focus detection area and determines whether or not a target area exists in the focus detection area 224. Then, when a target area exists in the focus detection area 224, the camera control unit 21 specifies a pixel group 223 corresponding to the target area in the focus detection area 224. Furthermore, the camera control unit 21 sets a pixel group row 226 including a pixel group 223 corresponding to the target area. For example, as shown in FIG. 24, the camera control unit 21 can set a row in which a plurality of pixel groups 223 including a pixel group 223 corresponding to the target area are arranged one-dimensionally in the horizontal direction (X direction) as the pixel group row 226. Note that FIG. 24 is a diagram that illustrates the imaging pixels 221a of the first group LA shown in FIG. 20. In addition, in the example shown in FIG. 24, the pixel column 226 is described as having six pixel groups 223.

そして、カメラ制御部21は、画素群列226の出力から、画素群列226に対応する周波数成分を抽出し、抽出した周波数成分に関するコントラスト情報を検出する。具体的には、カメラ制御部21は、まず、画素群223を構成する4つの撮像画素221a(R画素、G画素、B画素を含む)の出力値を、人物の顔などの特定被写体を示す色(たとえば、特定被写体の肌色)に応じた比率で抽出する。たとえば、カメラ制御部21は、特定被写体の肌色に応じた比率となるように、R画素、G画素の出力値を、B画素の出力よりも高く抽出することができる。そして、カメラ制御部21は、画素群223を構成する4つの撮像画素221a(R画素、G画素、B画素)から抽出した出力値を加算または平均化することで、画素群223の出力値を検出する。さらに、カメラ制御部21は、各画素群列226を構成する画素群223の出力値を、画素群223の並び方向に沿って検出することで、複数の画素群223からなる画素群列226の出力を検出する。そして、カメラ制御部21は、画素群列226の出力に対して、所定のバンドパスフィルタを用いたフィルタ処理を行うことで、画素群列226の出力から被写体に対応する周波数成分を抽出し、抽出した周波数成分のコントラスト情報を検出する。 Then, the camera control unit 21 extracts a frequency component corresponding to the pixel group array 226 from the output of the pixel group array 226, and detects contrast information related to the extracted frequency component. Specifically, the camera control unit 21 first extracts the output values of the four imaging pixels 221a (including R pixels, G pixels, and B pixels) constituting the pixel group 223 at a ratio according to a color indicating a specific subject such as a person's face (for example, the skin color of the specific subject). For example, the camera control unit 21 can extract the output values of the R pixels and G pixels higher than the output of the B pixels so as to have a ratio according to the skin color of the specific subject. Then, the camera control unit 21 detects the output value of the pixel group 223 by adding or averaging the output values extracted from the four imaging pixels 221a (R pixels, G pixels, and B pixels) constituting the pixel group 223. Furthermore, the camera control unit 21 detects the output of the pixel group array 226 consisting of a plurality of pixel groups 223 by detecting the output values of the pixel groups 223 constituting each pixel group array 226 along the arrangement direction of the pixel groups 223. The camera control unit 21 then performs filtering on the output of the pixel group array 226 using a predetermined band-pass filter to extract frequency components corresponding to the subject from the output of the pixel group array 226, and detects contrast information of the extracted frequency components.

さらに、カメラ制御部21は、対象領域に対応する複数の画素群列226を、所定数の画素群列226ごとにグループ化し、同じグループに属する画素群列226の出力に対応する周波数成分を加算することで、各グループにおける周波数成分のコントラスト情報を検出する。たとえば、図24に示す例においては、同じグループに属する画素群列226をA1’~A3’で表している。この場合、カメラ制御部21は、各画素群列A1’~A3’において1番目の画素群223の出力に対応する周波数成分の出力値を加算することで、出力値d1を取得する。同様に、カメラ制御部21は、各画素群列A1’~A3’において2番目の画素群223の出力に対応する周波数成分の出力値を加算することで、出力値d2を取得する。同様に、カメラ制御部21は、左から3番目以降の画素群223についても、それぞれの画素群223の出力に対応する周波数成分の出力値を加算することで、出力値d3,d4,d5,d6を取得して、取得した出力値d1,d2,d3,d4,d5,d6を、グループにおける周波数成分のコントラスト情報として検出することができる。なお、カメラ制御部21は、横方向(X方向)において同じ位置に配置された画素群223の出力に対応する周波数成分の出力値を平均化することで、各グループにおける周波数成分のコントラスト情報を検出する構成としてもよい。 Furthermore, the camera control unit 21 groups the multiple pixel group arrays 226 corresponding to the target area into groups of a predetermined number of pixel group arrays 226, and detects contrast information of the frequency components in each group by adding up the frequency components corresponding to the output of the pixel group arrays 226 that belong to the same group. For example, in the example shown in FIG. 24, the pixel group arrays 226 that belong to the same group are represented as A1' to A3'. In this case, the camera control unit 21 obtains an output value d1 by adding up the output values of the frequency components corresponding to the output of the first pixel group 223 in each pixel group array A1' to A3'. Similarly, the camera control unit 21 obtains an output value d2 by adding up the output values of the frequency components corresponding to the output of the second pixel group 223 in each pixel group array A1' to A3'. Similarly, for the third and subsequent pixel groups 223 from the left, the camera control unit 21 can obtain output values d3, d4, d5, and d6 by adding the output values of the frequency components corresponding to the output of each pixel group 223, and detect the obtained output values d1, d2, d3, d4, d5, and d6 as contrast information of the frequency components in the group. Note that the camera control unit 21 may be configured to detect contrast information of the frequency components in each group by averaging the output values of the frequency components corresponding to the output of pixel groups 223 arranged at the same position in the horizontal direction (X direction).

そして、カメラ制御部21は、各グループにおける周波数成分のコントラスト情報に基づいて、各グループにおける周波数成分のコントラスト量を算出する。また、カメラ制御部21は、焦点検出領域224内に、対象領域に対応する複数のグループが存在する場合には、他のグループにおいても同様に周波数成分のコントラスト量を算出する。そして、カメラ制御部21は、コントラスト量を算出したグループのうち、コントラスト量が最も高いグループを特定グループとして決定し、特定グループにおける撮像画素221aの出力に基づいて、デフォーカス量を算出する。なお、特定グループにおけるデフォーカス量の算出方法については、第4実施形態と同様に行うことができる。 Then, the camera control unit 21 calculates the contrast amount of the frequency components in each group based on the contrast information of the frequency components in each group. Furthermore, when there are multiple groups corresponding to the target area in the focus detection area 224, the camera control unit 21 similarly calculates the contrast amount of the frequency components in the other groups. Then, the camera control unit 21 determines the group with the highest contrast amount among the groups for which the contrast amount has been calculated as a specific group, and calculates the defocus amount based on the output of the imaging pixels 221a in the specific group. Note that the method of calculating the defocus amount in the specific group can be performed in the same manner as in the fourth embodiment.

次いで、図25を参照して、第5実施形態に係るカメラ1の動作を説明する。なお、図25は、第5実施形態に係るカメラ1の動作例を示すフローチャートである。 Next, the operation of the camera 1 according to the fifth embodiment will be described with reference to FIG. 25. Note that FIG. 25 is a flowchart showing an example of the operation of the camera 1 according to the fifth embodiment.

まず、ステップS501では、カメラ制御部21により、特定被写体に対応する対象領域の検出が行われる。たとえば、カメラ制御部21は、人物の顔などの特定被写体のテンプレート画像を用いてテンプレートマッチングを行うことで、特定被写体を検出し、検出された特定被写体に対応する撮像素子220の領域を対象領域として検出することができる。 First, in step S501, the camera control unit 21 detects a target area corresponding to a specific subject. For example, the camera control unit 21 can detect a specific subject by performing template matching using a template image of a specific subject such as a person's face, and detect the area of the image sensor 220 that corresponds to the detected specific subject as the target area.

そして、ステップS502では、第4実施形態のステップS402と同様に、焦点調節に用いるための焦点検出エリアAFPの選択が行われ、これにより、選択された焦点検出エリアAFPに対応する焦点検出領域224が、焦点検出を行うための焦点検出領域224として決定される。 Then, in step S502, similar to step S402 in the fourth embodiment, a focus detection area AFP to be used for focus adjustment is selected, and the focus detection area 224 corresponding to the selected focus detection area AFP is determined as the focus detection area 224 for performing focus detection.

ステップS503では、カメラ制御部21により、ステップS502で選択された焦点検出領域224内に、ステップS501で検出された対象領域が存在するか否かの判断が行われる。焦点検出領域224内に対象領域が存在する場合には、ステップS504に進み、一方、焦点検出領域224内に対象領域が存在しない場合には、ステップS513に進む。なお、ステップS513~S515では、第4実施形態のステップS403~S405と同様に、焦点検出領域224に設定された撮像画素列225のコントラスト情報が検出され(ステップS513)、各撮像画素列225が所定数の撮像画素列ごとにグループ分けされ(ステップS514)、同じグループに属する撮像画素列225の出力に含まれる周波数成分の出力値がグループごとに加算されることで、各グループにおける周波数成分のコントラスト情報が検出される。(ステップS515)。 In step S503, the camera control unit 21 determines whether the target area detected in step S501 exists within the focus detection area 224 selected in step S502. If the target area exists within the focus detection area 224, the process proceeds to step S504. On the other hand, if the target area does not exist within the focus detection area 224, the process proceeds to step S513. In steps S513 to S515, similar to steps S403 to S405 in the fourth embodiment, contrast information of the imaging pixel rows 225 set in the focus detection area 224 is detected (step S513), the imaging pixel rows 225 are grouped into groups of a predetermined number of imaging pixel rows (step S514), and the output values of the frequency components included in the output of the imaging pixel rows 225 belonging to the same group are added for each group, thereby detecting contrast information of the frequency components in each group. (step S515).

一方、ステップS503において、焦点検出領域224内で対象領域が検出された場合には(ステップS503=Yes)、ステップS504に進む。ステップS504では、カメラ制御部21により、対象領域において各画素群223を構成する4つの撮像画素221aの出力値が、特定被写体を示す色(たとえば特定被写体の肌色)に応じた比率で抽出される。そして、ステップS505では、カメラ制御部21により、ステップS504で抽出された撮像画素221aの出力に基づいて、対象領域に含まれる各画素群223の出力が検出され、複数の画素群223からなる各画素群列226の出力が検出される。すなわち、カメラ制御部21は、特定被写体を示す色に応じた比率で抽出した撮像画素221aの出力値を、画素群223単位で加算または平均化することで、特定被写体の肌色に応じた画素群223の出力値を検出する。そして、カメラ制御部21は、画素群列226を構成する複数の画素群223の出力値を、画素群列226における画素群223の並び方向に沿って検出することで、画素群列226の出力を検出する。 On the other hand, if a target area is detected in the focus detection area 224 in step S503 (step S503 = Yes), the process proceeds to step S504. In step S504, the camera control unit 21 extracts the output values of the four imaging pixels 221a constituting each pixel group 223 in the target area at a ratio corresponding to the color indicating the specific subject (for example, the skin color of the specific subject). Then, in step S505, the camera control unit 21 detects the output of each pixel group 223 included in the target area based on the output of the imaging pixels 221a extracted in step S504, and detects the output of each pixel group row 226 consisting of multiple pixel groups 223. That is, the camera control unit 21 detects the output value of the pixel group 223 corresponding to the skin color of the specific subject by adding or averaging the output values of the imaging pixels 221a extracted at a ratio corresponding to the color indicating the specific subject in pixel group 223 units. Then, the camera control unit 21 detects the output of the pixel group array 226 by detecting the output values of the multiple pixel groups 223 that make up the pixel group array 226 along the arrangement direction of the pixel groups 223 in the pixel group array 226.

さらに、ステップS506では、カメラ制御部21により、ステップS505で検出された画素群列226の出力に基づいて、画素群列226の出力に含まれる周波数成分のコントラスト情報が検出される。たとえば、カメラ制御部21は、画素群列226の出力に対して所定のフィルタ処理を施すことで、画素群列226の出力から被写体に対応する周波数成分を抽出し、抽出した周波数成分のコントラスト情報を検出する。 Furthermore, in step S506, the camera control unit 21 detects contrast information of the frequency components contained in the output of the pixel group array 226 based on the output of the pixel group array 226 detected in step S505. For example, the camera control unit 21 applies a predetermined filter process to the output of the pixel group array 226 to extract frequency components corresponding to the subject from the output of the pixel group array 226, and detects contrast information of the extracted frequency components.

ステップS507では、カメラ制御部21により、対象領域に対応する画素群列226が、所定数の画素群列226ごとにグループ化される。そして、ステップS508では、カメラ制御部21により、同じグループに属する画素群列226の出力に含まれる周波数成分の出力値を加算することで、各グループにおける周波数成分のコントラスト情報が検出される。 In step S507, the camera control unit 21 groups the pixel group arrays 226 corresponding to the target area into groups of a predetermined number of pixel group arrays 226. Then, in step S508, the camera control unit 21 detects contrast information of the frequency components in each group by adding up the output values of the frequency components included in the output of the pixel group arrays 226 that belong to the same group.

ステップS509では、カメラ制御部21により、ステップS509またはステップS515で検出された各グループにおける周波数成分のコントラスト情報に基づいて、たとえば上記式(3)に示すように、各グループにおける周波数成分のコントラスト量が算出される。 In step S509, the camera control unit 21 calculates the contrast amount of the frequency components in each group based on the contrast information of the frequency components in each group detected in step S509 or step S515, for example as shown in the above formula (3).

そして、ステップS510~S512では、第4実施形態のS407~S409と同様にコントラスト量が最も高いグループが特定グループとして決定され(ステップS510)、特定グループに含まれる撮像画素221aの出力に基づいて、デフォーカス量が算出される(ステップS511)。そして、算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動が行われる(ステップS512)。 Then, in steps S510 to S512, the group with the highest contrast is determined as the specific group (step S510) in the same manner as in steps S407 to S409 in the fourth embodiment, and the defocus amount is calculated based on the output of the imaging pixels 221a included in the specific group (step S511). Then, the focus lens 32 is driven based on the calculated defocus amount (step S512).

このように、第5実施形態では、各撮像画素221aの出力を特定被写体を示す色に応じた比率で抽出することで、人物の顔などの特定被写体に起因する周波数成分をより高い精度で抽出することができる。そして、このように抽出した周波数成分に基づいて、焦点検出を行うグループを決定し、当該グループにおける撮像画素221aの出力に基づいて焦点検出を行うことで、特定被写体に対する光学系の焦点状態をより適切に検出することが可能となる。 In this way, in the fifth embodiment, by extracting the output of each imaging pixel 221a at a ratio according to the color indicating the specific subject, it is possible to extract the frequency components resulting from the specific subject, such as a person's face, with higher accuracy. Then, based on the frequency components extracted in this way, a group for which focus detection is to be performed is determined, and focus detection is performed based on the output of the imaging pixels 221a in that group, making it possible to more appropriately detect the focus state of the optical system for the specific subject.

以上、実施形態について説明したが、上述した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 Although the embodiments have been described above, the above-mentioned embodiments have been described to facilitate understanding of the present invention, and are not described to limit the present invention. Therefore, each element disclosed in the above-mentioned embodiments is intended to include all design modifications and equivalents that fall within the technical scope of the present invention.

たとえば、上述した第1実施形態から第3実施形態では、1つの焦点検出エリアAFPに対して4つの焦点検出画素列L1~L4を備える構成を例示したが、焦点検出画素列の数はこれに限定されるものではなく、1つの焦点検出エリアにおける焦点検出画素列の数を、2または3としてもよいし、あるいは5以上としてもよい。また、上述した第4実施形態および第5実施形態では、焦点検出領域224a~224iにおいて、一対の光電変換部2214,2215を有する撮像画素221が配列された構成を例示したが、たとえば、撮像素子220全体に撮像画素221が配列される構成とすることもできる。 For example, in the first to third embodiments described above, a configuration having four focus detection pixel rows L1 to L4 for one focus detection area AFP is exemplified, but the number of focus detection pixel rows is not limited to this, and the number of focus detection pixel rows in one focus detection area may be two or three, or may be five or more. Also, in the fourth and fifth embodiments described above, a configuration in which imaging pixels 221 having a pair of photoelectric conversion units 2214, 2215 are arranged in the focus detection areas 224a to 224i is exemplified, but it is also possible to have a configuration in which imaging pixels 221 are arranged over the entire image sensor 220, for example.

また、上述した第1実施形態から第3実施形態では、撮像素子22に焦点検出画素列L1~L4を備え、焦点検出画素列L1~L4の出力に基づいて、デフォーカス量を算出する構成を例示したが、この構成に限定されず、たとえば、撮像素子22とは別に、位相差式AF検出モジュールを備え、この位相差式AF検出モジュールで受光した受光信号に基づいて、デフォーカス量を算出する構成としてもよい。具体的には、位相差式AF検出モジュールは、光学系を通過する光束を受光する一対のラインセンサを複数有しており、ラインセンサごとにコントラスト情報を検出し、検出したコントラスト情報に基づいて、複数のラインセンサの中から、焦点検出に用いる一対のラインセンサを決定する構成としてもよい。なお、焦点検出に用いる一対のラインセンサを決定する場合には、位相差検出モジュールが備える演算部により、焦点検出に用いる一対のラインセンサを決定する構成としてもよいし、あるいは、カメラ制御部21が、各一対のラインセンサの出力を取得することで、焦点検出に用いる一対のラインセンサを決定する構成としてもよい。 In the first to third embodiments described above, the image sensor 22 includes focus detection pixel rows L1 to L4, and the defocus amount is calculated based on the output of the focus detection pixel rows L1 to L4. However, the present invention is not limited to this configuration. For example, a phase difference AF detection module may be provided separately from the image sensor 22, and the defocus amount may be calculated based on the light reception signal received by the phase difference AF detection module. Specifically, the phase difference AF detection module may have a plurality of pairs of line sensors that receive light passing through the optical system, detect contrast information for each line sensor, and determine a pair of line sensors to be used for focus detection from among the plurality of line sensors based on the detected contrast information. When determining a pair of line sensors to be used for focus detection, a configuration may be used in which a calculation unit provided in the phase difference detection module determines the pair of line sensors to be used for focus detection, or the camera control unit 21 may determine the pair of line sensors to be used for focus detection by acquiring the output of each pair of line sensors.

このように、「受光素子群」は、例えば、焦点検出画素列L1~L4であってもよいし、上述した一対のラインセンサであってもよい。また、「焦点検出装置」は、例えば、撮像素子22,220またはそれを備えるカメラ1であってもよいし、もしくは、位相差式AF検出モジュールまたはそれを備えるカメラ1であってもよい。 In this way, the "photoreceptor group" may be, for example, focus detection pixel rows L1 to L4, or the pair of line sensors described above. Also, the "focus detection device" may be, for example, the image sensor 22, 220 or a camera 1 equipped with the image sensor, or a phase-difference AF detection module or a camera 1 equipped with the image sensor.

さらに、上述した第1実施形態から第3実施形態では、焦点検出画素列L1,L3と焦点検出画素列L2,L4とにおいて、第1焦点検出画素222aおよび第2焦点検出画素222bがX軸方向において逆となるように配置されているが、この構成に限定されず、たとえば、図26に示すように、焦点検出画素列L1a~L4aを構成する焦点検出画素222a,222bをX軸方向において同じ位置となるように配置する構成としてもよい。 Furthermore, in the first to third embodiments described above, the first focus detection pixel 222a and the second focus detection pixel 222b are arranged in reverse in the X-axis direction in the focus detection pixel rows L1, L3 and the focus detection pixel rows L2, L4, but this configuration is not limited thereto. For example, as shown in FIG. 26, the focus detection pixels 222a, 222b constituting the focus detection pixel rows L1a to L4a may be arranged in the same position in the X-axis direction.

また、図27の焦点検出画素列L1b,L2bに示すように、各焦点検出画素222a,222bが一対の光電変換部2222a,2222bを備える構成としてもよい。具体的には、図27に示すように、各焦点検出画素222a,222bにおいて、一対の光電変換部2222a,2222bがX軸方向に配列され、測距瞳351から照射される光束が、一対の光電変換部2222a,2222bのうち一方の光電変換部で受光され、測距瞳352から照射される光束が、他方の光電変換部で受光される。これにより、各焦点検出画素列L1b,L2bにおいて、一対の像データ列をそれぞれ出力することができる。なお、図27においては、測距瞳351から照射される光束を受光する光電変換部を灰色で表し、測距瞳352から照射される光束を受光する光電変換部を白塗りで表している。また、図27に示す例においては、焦点検出画素列L1b,L2bを2列ずつ有する構成を例示したが、この構成に限定されず、たとえば、焦点検出画素列L1b,L2bを1列のみ有する構成としてもよいし、あるいは、3列以上有する構成としてもよい。 Also, as shown in the focus detection pixel rows L1b and L2b in Fig. 27, each focus detection pixel 222a and 222b may be configured to include a pair of photoelectric conversion units 2222a and 2222b. Specifically, as shown in Fig. 27, in each focus detection pixel 222a and 222b, a pair of photoelectric conversion units 2222a and 2222b is arranged in the X-axis direction, and the light beam emitted from the ranging pupil 351 is received by one of the pair of photoelectric conversion units 2222a and 2222b, and the light beam emitted from the ranging pupil 352 is received by the other photoelectric conversion unit. This allows a pair of image data rows to be output in each focus detection pixel row L1b and L2b. In addition, in FIG. 27, the photoelectric conversion unit that receives the light beam irradiated from the ranging pupil 351 is shown in gray, and the photoelectric conversion unit that receives the light beam irradiated from the ranging pupil 352 is shown in white. In addition, in the example shown in FIG. 27, a configuration having two focus detection pixel rows L1b, L2b is illustrated, but this configuration is not limited to this, and for example, a configuration having only one focus detection pixel row L1b, L2b, or a configuration having three or more rows, may be used.

さらに、各焦点検出画素列を構成する第1焦点検出画素222aおよび第2焦点検出画素222bの配列は、これらが少なくとも、同じ列上において交互に配列されたものであればよく、たとえば、図28に示す焦点検出画素列L1c~L4cのように、焦点検出画素列中に、通常の撮像画素221が含まれるような構成としてもよい。 Furthermore, the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b that make up each focus detection pixel row may be such that they are at least arranged alternately on the same row, and for example, the focus detection pixel row may be configured to include normal imaging pixels 221, as in the focus detection pixel rows L1c to L4c shown in FIG. 28.

また、上述した実施形態に加えて、被写体のコントラスト(あるいは被写体の輝度)が所定値以上である場合には、第1実施形態に示すように、焦点検出画素列L1~L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、または、出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定し、一方、被写体のコントラスト(あるいは被写体の輝度)が所定値未満である場合には、第2実施形態に示したように、焦点検出画素列L1~L4のうち、対応する被写体のコントラストが所定値以上となる1または複数の焦点検出画素列、または、出力に含まれる高周波成分の量が所定値以上となる1または複数の焦点検出画素列を、特定焦点検出画素列として決定する構成としてもよい。 In addition to the above-described embodiments, when the contrast of the subject (or the brightness of the subject) is equal to or greater than a predetermined value, as shown in the first embodiment, the focus detection pixel row corresponding to the subject with the greatest contrast among the focus detection pixel rows L1 to L4, or the focus detection pixel row whose output contains the most high-frequency components, may be determined as the specific focus detection pixel row. On the other hand, when the contrast of the subject (or the brightness of the subject) is less than a predetermined value, as shown in the second embodiment, one or more focus detection pixel rows corresponding to the subject with the contrast equal to or greater than a predetermined value, or one or more focus detection pixel rows whose output contains the amount of high-frequency components equal to or greater than a predetermined value may be determined as the specific focus detection pixel row.

さらに、上述した第4実施形態では、各撮像画素列225の出力に対応する周波数成分をグループごとに加算することで、周波数成分のコントラスト量をグループごとに算出し、コントラスト量が最も高いグループに含まれる撮像画素221aの出力に基づいて、デフォーカス量を算出する構成を例示したが、この構成に限定されるものではなく、以下のように構成することができる。すなわち、撮像画素列225に対応する周波数成分から当該周波数成分のコントラスト量を撮像画素列225ごとに算出し、同じグループに含まれる複数の撮像画素列225の中から、コントラスト量が最も高い撮像画素列225をグループごとに特定する。そして、コントラスト量が最も高い撮像画素列225に含まれる撮像画素221aの出力に基づいて、デフォーカス量をグループごとに算出し、これらデフォーカス量に基づいて、光学系の焦点調節を行う構成とすることもできる。また、撮像画素列225ごとに周波数成分のコントラスト量を算出するとともに、撮像画素列225ごとにデフォーカス量を算出し、コントラスト量が最も高い撮像画素列225のデフォーカス量に基づいて、光学系の焦点調節を行う構成としてもよい。 Furthermore, in the above-mentioned fourth embodiment, the contrast amount of the frequency component is calculated for each group by adding up the frequency components corresponding to the output of each imaging pixel row 225 for each group, and the defocus amount is calculated based on the output of the imaging pixel 221a included in the group with the highest contrast amount. However, the present invention is not limited to this configuration, and can be configured as follows. That is, the contrast amount of the frequency component is calculated for each imaging pixel row 225 from the frequency component corresponding to the imaging pixel row 225, and the imaging pixel row 225 with the highest contrast amount is identified for each group from the multiple imaging pixel rows 225 included in the same group. Then, the defocus amount is calculated for each group based on the output of the imaging pixel 221a included in the imaging pixel row 225 with the highest contrast amount, and the focus adjustment of the optical system is performed based on these defocus amounts. Also, the contrast amount of the frequency component may be calculated for each imaging pixel row 225, and the defocus amount may be calculated for each imaging pixel row 225, and the focus adjustment of the optical system may be performed based on the defocus amount of the imaging pixel row 225 with the highest contrast amount.

また、上述した第4実施形態および第5実施形態では、周波数成分のコントラスト量が最も高いグループに含まれる撮像画素221aの出力に基づいて、デフォーカス量を算出する構成を例示したが、この構成に限定されず、たとえば、各グループにおける周波数成分のコントラスト量の大きさに基づいて、各グループにおける撮像画素221aの出力に重み付けを行い、重み付けした撮像画素221aの出力に基づいて、デフォーカス量を算出する構成とすることができる。この場合、カメラ制御部21は、グループにおける周波数成分のコントラスト量が大きいほど、当該グループにおける撮像画素221aの出力の重みを大きくすることができる。また、カメラ制御部21は、グループごとにデフォーカス量を算出し、算出したデフォーカス量を、各グループにおける周波数成分のコントラスト量に応じて重み付けして、焦点調節に用いるデフォーカス量を算出する構成とすることもできる。 In the fourth and fifth embodiments described above, the defocus amount is calculated based on the output of the imaging pixel 221a included in the group with the highest contrast amount of the frequency component. However, the present invention is not limited to this configuration. For example, the output of the imaging pixel 221a in each group can be weighted based on the magnitude of the contrast amount of the frequency component in each group, and the defocus amount can be calculated based on the weighted output of the imaging pixel 221a. In this case, the camera control unit 21 can increase the weight of the output of the imaging pixel 221a in the group as the contrast amount of the frequency component in the group increases. The camera control unit 21 can also calculate the defocus amount for each group, and calculate the defocus amount used for focus adjustment by weighting the calculated defocus amount according to the contrast amount of the frequency component in each group.

さらに、上述した第4実施形態および第5実施形態では、各焦点検出領域224a~224iにおいて複数の撮像画素221aを二次元状に配列した構成を例示したが、この構成に限定されず、たとえば、焦点検出領域224a~224iに、単一の撮像画素列225のみを有する構成としてもよいし、または、離散あるいは連続する2以上の撮像画素列225を有する構成としてもよい。さらに、上述した第1実施形態~第3実施形態では、焦点検出画素列L1~L4において、焦点検出画素222a,222bを横方向(X方向)に配列する構成を例示したが、この構成に限定されず、たとえば、焦点検出画素222a,222bを縦方向(Y方向)に配列する構成とすることができる。また、上述した第4実施形態および第5実施形態においても、縦方向(Y方向)に配列した複数の撮像画素221aを撮像画素列225とする構成としてもよい。この場合、同一のグループに属する各撮像画素列225において、縦方向(Y方向)において同じ位置に配置された撮像画素221aの出力に対応する周波数成分の出力値を加算することで、各グループにおける周波数成分の出力値を算出することができる。 Furthermore, in the above-mentioned fourth and fifth embodiments, a configuration in which a plurality of imaging pixels 221a are arranged two-dimensionally in each focus detection area 224a to 224i is exemplified, but this configuration is not limited to this, and for example, the focus detection area 224a to 224i may have only a single imaging pixel row 225, or may have two or more imaging pixel rows 225 that are discrete or continuous. Furthermore, in the above-mentioned first to third embodiments, a configuration in which the focus detection pixels 222a and 222b are arranged in the horizontal direction (X direction) in the focus detection pixel rows L1 to L4 is exemplified, but this configuration is not limited to this, and for example, the focus detection pixels 222a and 222b can be arranged in the vertical direction (Y direction). Also, in the above-mentioned fourth and fifth embodiments, a configuration in which a plurality of imaging pixels 221a arranged in the vertical direction (Y direction) is arranged as the imaging pixel row 225 may be used. In this case, the output value of the frequency component in each group can be calculated by adding up the output values of the frequency components corresponding to the output of the imaging pixels 221a arranged at the same position in the vertical direction (Y direction) in each imaging pixel column 225 belonging to the same group.

加えて、上述した第4実施形態および第5実施形態では、撮像素子220を備える一眼レフデジタルカメラ1aを例示して説明したが、この構成に限定されず、たとえば、図1に示すデジタルカメラ1において、撮像素子220を備える構成としてもよい。この場合も、第4実施形態および第5実施形態と同様に焦点検出を行うことができる。 In addition, in the fourth and fifth embodiments described above, a single-lens reflex digital camera 1a equipped with an image sensor 220 has been described as an example, but the present invention is not limited to this configuration. For example, the digital camera 1 shown in FIG. 1 may be configured to be equipped with an image sensor 220. In this case, too, focus detection can be performed in the same way as in the fourth and fifth embodiments.

1,1a…デジタルカメラ
2,2a…カメラ本体
21,220…カメラ制御部
22…撮像素子
221,221a…撮像画素
L1~L4…焦点検出画素列
225…撮像画素列
226…画素群列
222a,222b…焦点検出画素
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
1, 1a... Digital camera 2, 2a... Camera body 21, 220... Camera control unit 22... Image sensor 221, 221a... Imaging pixels L1 to L4... Focus detection pixel row 225... Imaging pixel row 226... Pixel group row 222a, 222b... Focus detection pixel 3... Lens barrel 32... Focus lens 36... Focus lens drive motor 37... Lens control unit

Claims (8)

光学系により形成された像を撮像する撮像面に、前記像と前記撮像面との合焦状態を検出する複数の焦点検出領域を有し、前記複数の焦点検出領域のそれぞれに、前記光学系の第1の領域を通過する光を受光し信号を出力する第1光電変換部及び前記光学系の第2の領域を通過する光を受光し信号を出力する第2光電変換部を有する画素を含む画素列を複数列配置した撮像素子と、
前記複数の焦点検出領域のうちの1つの前記焦点検出領域内に配置された複数の前記画素列の出力のコントラスト情報を検出し、検出結果に基づいて、前記1つの焦点検出領域に配置された複数の画素列の中から焦点検出に用いる一部の画素列を特定し、特定された前記画素列から出力された信号に基づいて合焦状態を検出する制御部と、
を備える焦点検出装置。
an image sensor having an imaging surface that captures an image formed by an optical system, the image sensor having a plurality of focus detection areas that detect a focus state between the image and the imaging surface, and a plurality of pixel rows arranged in each of the plurality of focus detection areas, the pixel rows including pixels each having a first photoelectric conversion unit that receives light passing through a first area of the optical system and outputs a signal, and a second photoelectric conversion unit that receives light passing through a second area of the optical system and outputs a signal;
a control unit that detects contrast information of outputs from a plurality of pixel rows arranged in one of the plurality of focus detection areas, identifies a portion of pixel rows to be used for focus detection from the plurality of pixel rows arranged in the one focus detection area based on a detection result, and detects a focus state based on a signal output from the identified pixel row;
A focus detection device comprising:
請求項1に記載の焦点検出装置であって、
前記1つの焦点検出領域内に配置された複数の画素は、第1方向および前記第1方向に直交する第2方向に隣接して配置されている、焦点検出装置。
2. The focus detection device according to claim 1,
A focus detection device, wherein the plurality of pixels arranged within one focus detection area are arranged adjacent to each other in a first direction and a second direction perpendicular to the first direction.
請求項1または請求項2に記載の焦点検出装置であって、
前記1つの焦点検出領域は、複数の前記画素列をそれぞれ有する複数のグループを含み、
前記制御部は、前記複数のグループごとに複数の前記画素列の出力のコントラスト情報を検出し、検出結果に基づいて、前記1つの焦点検出領域に配置された前記複数のグループの中から焦点検出に用いる一部のグループを特定し、特定されたグループ内の前記画素列から出力された信号に基づいて合焦状態を検出する、焦点検出装置。
3. The focus detection device according to claim 1,
the one focus detection area includes a plurality of groups each having a plurality of the pixel columns,
The control unit detects contrast information of the output of multiple pixel rows for each of the multiple groups, identifies a portion of the multiple groups arranged in the single focus detection area to be used for focus detection based on the detection results, and detects a focus state based on a signal output from the pixel row in the identified group.
請求項3に記載の焦点検出装置であって、
前記複数のグループは、第1のグループおよび第2のグループを含み、
前記制御部は、前記第1のグループに含まれる複数の前記画素列の出力に基づいて、前記第1のグループにおける所定の周波数成分のコントラスト量を検出し、前記第2のグループに含まれる複数の画素列の出力に基づいて、前記第2のグループに含まれる複数の前記画素列の出力に基づいて、前記第2のグループにおける前記所定の周波数成分のコントラスト量を検出し、前記第1のグループにおける前記コントラスト量が前記第2のグループにおける前記コントラスト量よりも大きい場合に、前記第1のグループに含まれる複数の前記画素列を焦点検出に用いる画素列として特定する、焦点検出装置。
4. The focus detection device according to claim 3,
the plurality of groups includes a first group and a second group;
The control unit detects a contrast amount of a predetermined frequency component in the first group based on outputs of the plurality of pixel columns included in the first group, detects a contrast amount of the predetermined frequency component in the second group based on outputs of the plurality of pixel columns included in the second group, and if the contrast amount in the first group is greater than the contrast amount in the second group, identifies the plurality of pixel columns included in the first group as pixel columns to be used for focus detection.
請求項1または請求項2に記載の焦点検出装置であって、
前記1つの前記焦点検出領域内に配置された前記複数の画素列の出力に基づいて、コントラストの大きさが所定値以上である一部の画素列を焦点検出画素列として特定する、焦点検出装置。
3. The focus detection device according to claim 1,
A focus detection device that identifies a portion of pixel rows whose contrast is equal to or greater than a predetermined value as focus detection pixel rows based on outputs from the plurality of pixel rows arranged within the one focus detection area.
請求項1または請求項2に記載の焦点検出装置であって、
前記1つの前記焦点検出領域内に配置された前記複数の画素列の出力に基づいて、前記出力に含まれる高周波成分の量が所定値以上である一部の画素列を焦点検出に用いる画素列として特定する、焦点検出装置。
3. The focus detection device according to claim 1,
A focus detection device that identifies, based on the outputs of the plurality of pixel rows arranged within one of the focus detection areas, some pixel rows in which the amount of high-frequency components contained in the output is equal to or greater than a predetermined value as pixel rows to be used for focus detection.
請求項1または請求項2に記載の焦点検出装置であって、
前記1つの焦点検出領域内に配置された前記複数の画素列は、第1の画素列と第2の画素列を含み、
前記制御部は、前記第1の画素列および前記第2の画素列の所定の周波数成分のコントラスト量を検出し、前記第1の画素列の出力のコントラスト量が、前記第2の画素列の出力のコントラスト量よりも大きい場合に、前記第1の画素列を焦点検出に用いる画素列として特定し、前記第1の画素列から出力された信号に基づいて合焦状態を検出する、焦点検出装置。
3. The focus detection device according to claim 1,
the plurality of pixel rows arranged within the one focus detection area include a first pixel row and a second pixel row,
The control unit detects the contrast amount of a predetermined frequency component of the first pixel row and the second pixel row, and when the contrast amount of the output of the first pixel row is greater than the contrast amount of the output of the second pixel row, identifies the first pixel row as a pixel row to be used for focus detection, and detects a focus state based on the signal output from the first pixel row.
光学系により形成された像を撮像する撮像面に、前記像と前記撮像面との合焦状態を検出する複数の焦点検出領域を有し、前記複数の焦点検出領域のそれぞれに、前記光学系の第1の領域を通過する光を受光し信号を出力する第1光電変換部及び前記光学系の第2の領域を通過する光を受光し信号を出力する第2光電変換部を有する画素を含む画素列を複数列配置した撮像部と、
前記複数の焦点検出領域のうちの1つの前記焦点検出領域内に配置された複数の前記画素列の出力のコントラスト情報を検出し、検出結果に基づいて、前記1つの焦点検出領域に配置された複数の画素列の中から焦点検出に用いる一部の画素列を特定し、特定された前記画素列から出力された信号に基づいて合焦状態を検出する演算部と、
を備える撮像素子。
an imaging section having a plurality of focus detection areas on an imaging surface that captures an image formed by an optical system and that detects a focus state between the image and the imaging surface, and arranging a plurality of pixel rows in each of the plurality of focus detection areas, the pixel rows including pixels each having a first photoelectric conversion unit that receives light passing through a first area of the optical system and outputs a signal, and a second photoelectric conversion unit that receives light passing through a second area of the optical system and outputs a signal;
a calculation unit that detects contrast information of outputs from a plurality of pixel rows arranged in one of the plurality of focus detection areas, identifies a portion of pixel rows to be used for focus detection from the plurality of pixel rows arranged in the one focus detection area based on a detection result, and detects a focus state based on a signal output from the identified pixel row;
An imaging element comprising:
JP2024074502A 2020-12-09 2024-05-01 Focus detection device and image sensor Active JP7722516B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2024074502A JP7722516B2 (en) 2020-12-09 2024-05-01 Focus detection device and image sensor
JP2025126793A JP2025156406A (en) 2020-12-09 2025-07-30 Focus detection device and image sensor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020204545A JP2021051322A (en) 2020-12-09 2020-12-09 Focusing state detection device and camera
JP2022154255A JP2022179551A (en) 2020-12-09 2022-09-27 Focusing state detection device and camera
JP2024074502A JP7722516B2 (en) 2020-12-09 2024-05-01 Focus detection device and image sensor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022154255A Division JP2022179551A (en) 2020-12-09 2022-09-27 Focusing state detection device and camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025126793A Division JP2025156406A (en) 2020-12-09 2025-07-30 Focus detection device and image sensor

Publications (2)

Publication Number Publication Date
JP2024096310A true JP2024096310A (en) 2024-07-12
JP7722516B2 JP7722516B2 (en) 2025-08-13

Family

ID=75157856

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2020204545A Pending JP2021051322A (en) 2020-12-09 2020-12-09 Focusing state detection device and camera
JP2022154255A Pending JP2022179551A (en) 2020-12-09 2022-09-27 Focusing state detection device and camera
JP2024074502A Active JP7722516B2 (en) 2020-12-09 2024-05-01 Focus detection device and image sensor
JP2025126793A Pending JP2025156406A (en) 2020-12-09 2025-07-30 Focus detection device and image sensor

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020204545A Pending JP2021051322A (en) 2020-12-09 2020-12-09 Focusing state detection device and camera
JP2022154255A Pending JP2022179551A (en) 2020-12-09 2022-09-27 Focusing state detection device and camera

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025126793A Pending JP2025156406A (en) 2020-12-09 2025-07-30 Focus detection device and image sensor

Country Status (1)

Country Link
JP (4) JP2021051322A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7622309B2 (en) 2021-03-25 2025-01-28 アルプスアルパイン株式会社 Speaker

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215437A (en) * 2002-01-22 2003-07-30 Pentax Corp Multi-point distance measuring device
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
JP2013029803A (en) * 2011-06-22 2013-02-07 Canon Inc Focus detection device
JP2014153509A (en) * 2013-02-07 2014-08-25 Canon Inc Imaging device and imaging method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005033764A1 (en) * 2003-09-22 2007-11-15 シャープ株式会社 Lens position control device
JP4564831B2 (en) * 2004-11-26 2010-10-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP2008061209A (en) * 2006-09-04 2008-03-13 Canon Inc Image processing method
JP2011242678A (en) * 2010-05-20 2011-12-01 Hoya Corp Automatic focusing device and camera equipped with the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215437A (en) * 2002-01-22 2003-07-30 Pentax Corp Multi-point distance measuring device
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
JP2013029803A (en) * 2011-06-22 2013-02-07 Canon Inc Focus detection device
JP2014153509A (en) * 2013-02-07 2014-08-25 Canon Inc Imaging device and imaging method

Also Published As

Publication number Publication date
JP2025156406A (en) 2025-10-14
JP7722516B2 (en) 2025-08-13
JP2022179551A (en) 2022-12-02
JP2021051322A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
EP2605511B1 (en) Image capturing apparatus and focus detection method
JP2022141659A (en) Detecting device, imaging element and imaging device
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6642628B2 (en) Imaging device and imaging device
JP2025156406A (en) Focus detection device and image sensor
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP5338112B2 (en) Correlation calculation device, focus detection device, and imaging device
JP5891667B2 (en) Focus adjustment device and imaging device provided with the same
JP2017219782A (en) Control device, imaging device, control method, program, and storage medium
JP2017188633A (en) Imaging device and imaging apparatus
JP6639326B2 (en) Control device, imaging device, control method, program, and storage medium
JP6525829B2 (en) Control device, imaging device, control method, program, and storage medium
JP2014211589A (en) Focus adjustment device and imaging device
JP2012255919A (en) Focus adjustment device and imaging apparatus
JP2019219535A (en) Controller, imaging apparatus, control method, program, and storage medium
JP2016102953A (en) Focus detection device and camera
JP2024040227A (en) Focus detection device and image sensor
JP2019148817A (en) Focusing state detection device and camera
JP6349624B2 (en) Image sensor and focus detection apparatus
JP6442824B2 (en) Focus detection device
JP5923900B2 (en) Focus detection apparatus and imaging apparatus
JP5338118B2 (en) Correlation calculation device, focus detection device, and imaging device
JP6019615B2 (en) Lens barrel and camera system
JP2013054261A (en) Focus detector and imaging device
JP2019061264A (en) Focus detection device, camera, and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250714

R150 Certificate of patent or registration of utility model

Ref document number: 7722516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150