[go: up one dir, main page]

JP2019091090A - Detector, imaging element, and imaging device - Google Patents

Detector, imaging element, and imaging device Download PDF

Info

Publication number
JP2019091090A
JP2019091090A JP2019041731A JP2019041731A JP2019091090A JP 2019091090 A JP2019091090 A JP 2019091090A JP 2019041731 A JP2019041731 A JP 2019041731A JP 2019041731 A JP2019041731 A JP 2019041731A JP 2019091090 A JP2019091090 A JP 2019091090A
Authority
JP
Japan
Prior art keywords
pixel
focus detection
signal
output
detection pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019041731A
Other languages
Japanese (ja)
Inventor
宏明 高原
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2019091090A publication Critical patent/JP2019091090A/en
Priority to JP2022100500A priority Critical patent/JP2022141659A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】光学系の焦点検出を適切に行うことができる検出装置を提供する。【解決手段】第1方向に配置された複数の合焦検出画素からなる検出部を、前記第1方向と交わる第2方向に複数有し、光学系により形成された像を撮像し信号を出力する撮像素子と、1つの前記検出部からの信号に応じて、前記光学系による像の位置と前記撮像素子とのずれ量を1つの前記検出部から出力された第1信号を用いて算出する第1演算と、前記ずれ量を複数の前記検出部から出力された第2信号を用いて算出する第2演算とのいずれかを行う算出部と、を有する検出装置。【選択図】図5PROBLEM TO BE SOLVED: To provide a detection device capable of appropriately detecting the focus of an optical system. SOLUTION: A detection unit composed of a plurality of focusing detection pixels arranged in a first direction is provided in a second direction intersecting the first direction, and an image formed by an optical system is imaged and a signal is output. The position of the image by the optical system and the amount of deviation between the image sensor and the image sensor are calculated by using the first signal output from the detection unit according to the signal from the detection unit and the image sensor. A detection device having a calculation unit that performs either a first calculation and a second calculation that calculates the deviation amount using a second signal output from the plurality of detection units. [Selection diagram] FIG. 5

Description

本発明は、検出装置、撮像素子および撮像装置に関する。   The present invention relates to a detection device, an imaging device, and an imaging device.

従来より、撮像のための撮像画素と位相差検出方式による焦点検出を行うための焦点検出用画素とを有する撮像素子が知られている(たとえば、特許文献1参照)。しかしながら、この特許文献1の技術では、瞳分割された一方の光束を受光する第1焦点検出用画素と、瞳分割された他方の光束を受光する第2焦点検出用画素とを、横方向に沿って、交互に配置するものであるため、第1焦点検出用画素からの出力と、第2焦点検出用画素からの出力とが、0.5画素分ずれたものとなり、そのため、光学系の焦点検出を高精度に行うことができない場合があった。   2. Description of the Related Art Conventionally, an imaging element having an imaging pixel for imaging and a focus detection pixel for performing focus detection by a phase difference detection method has been known (see, for example, Patent Document 1). However, in the technique of Patent Document 1, the first focus detection pixel for receiving one of the pupil-divided light flux and the second focus detection pixel for receiving the other pupil-divided light flux in the lateral direction Since the output from the first focus detection pixel and the output from the second focus detection pixel are offset by 0.5 pixels, the output of the optical system is In some cases, focus detection can not be performed with high accuracy.

特開2012−226088号公報JP 2012-226088 A

本発明が解決しようとする課題は、光学系の焦点検出を適切に行うことができる検出装置、撮像素子および撮像装置を提供することにある。   The problem to be solved by the present invention is to provide a detection device, an imaging device, and an imaging device capable of appropriately performing focus detection of an optical system.

本発明は、以下の解決手段によって上記課題を解決する。   The present invention solves the above-mentioned subject by the following solution means.

[1]本発明に係る検出装置は第1方向に配置された複数の合焦検出画素からなる検出部を、前記第1方向と交わる第2方向に複数有し、光学系により形成された像を撮像し信号を出力する撮像素子と、1つの前記検出部からの信号に応じて、前記光学系による像の位置と前記撮像素子とのずれ量を1つの前記検出部から出力された第1信号を用いて算出する第1演算と、前記ずれ量を複数の前記検出部から出力された第2信号を用いて算出する第2演算とのいずれかを行う算出部と、を有する。
[2]上記検出装置に係る発明において、前記算出部は、前記第1信号の大きさとコントラストとのいずれかに応じて、前記第1演算と前記第2演算とのいずれかを行うように構成することができる。
[3]上記検出装置に係る発明において、前記第1演算を行う場合の前記第1信号の大きさは、前記第2演算をおこなう場合の前記第1信号の大きさよりも大きくなるよう構成できる。
[4]上記検出装置に係る発明において、前記算出部で前記第1演算を行う場合の前記第1信号のコントラスト値は、前記第2演算をおこなう場合の前記第1信号のコントラスト値よりも高くなるよう構成できる。
[5]上記検出装置に係る発明において、前記第2信号は、複数の前記検出部から出力された信号を加算した信号であるよう構成できる。
[6]上記検出装置に係る発明において、前記算出部で行う前記第2演算は、前記第2信号に応じて、前記第2信号を用いた前記ずれ量を算出と、前記第2信号に前記検出部から出力された信号を加算した第3信号を用いた前記ずれ量を算出とのいずれかを行うよう構成できる。
[7]上記検出装置に係る発明において、前記算出部は、前記第2信号の大きさと出力信号のコントラストとのいずれかに応じて、前記第2信号を用いた前記ずれ量を算出と、前記第3信号を用いた前記ずれ量を算出とのいずれかを行うよう構成できる。
[8]上記検出装置に係る発明において、前記撮像素子が有する前記検出部には、前記光学系の第1の領域を通過した光を受光する第1画素と、前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する第2画素とが、前記第1方向に交互に配置されているよう構成できる。
[9]上記検出装置に係る発明において、前記撮像素子には、前記第1画素と前記第2画素とが前記第2方向に交互に配置されているよう構成できる。
[10]上記検出装置に係る発明において、前記算出部で行う前記第2演算は、前記第2演算で用いる前記検出部の前記第2方向における前記第1画素の数と前記第2画素の数との比に応じて決定された係数を、前記第2演算で用いる前記検出部から出力された前記信号にそれぞれ乗じてから加算した信号を用いて前記ずれ量を算出するよう構成できる。
[11]本発明に係る検出装置は、被写体の像を形成する光学系の第1の領域を通過した光を受光する複数の第1画素と、前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する複数の第2画素とを有する撮像素子と、第1方向に配置された複数の第1画素からなる第1画素列から出力された第1信号と、前記第1方向に配置された複数の第2画素からなる第2画素列から出力された第2信号と、の信号に応じて、前記第1信号と前記第2信号とから前記光学系による像の位置と前記撮像素子の撮像面とのずれ量に関する値を算出する第1演算と、前記第1方向と交わる第2方向に前記第1画素列とは異なる位置に配置され、前記第1方向に配置された複数の第1画素からなる第3画素列で生成される第3信号と、前記第2方向に前記第2画素列とは異なる位置に配置され、前記第1方向に配置された複数の第2画素からなる第4画素列で生成される第4信号前とを、それぞれ、前記第1信号及び前記第2信号に加算して生成した第5信号及び第6信号とから前記ずれ量に関する値を算出する第2演算とのいずれかを行う算出部と、を有する。
[12]本発明に係る撮像装置は、上記検出装置を有する。
[13]本発明に係る撮像素子は、被写体の像を形成する光学系の第1の領域を通過した光を受光する複数の第1画素と、前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する複数の第2画素と、第1方向に配置された複数の前記第1画素からなる第1画素列で生成される第1信号、前記第1方向に配置された複数の前記第2画素からなる第2画素列で生成される第2信号、前記第1方向と交わる第2方向に前記第1画素列とは異なる位置に配置され、前記第1方向に配置された複数の第1画素からなる第3画素列で生成される第3信号、前記第2方向に前記第2画素列とは異なる位置に配置され、前記第1方向に配置された複数の第2画素からなる第4画素列で生成される第4信号、前記第1信号を構成する複数の信号と前記第3信号を構成する複数の信号とを前記第2方向に加算して生成した第5信号及び前記第2信号を構成する複数の信号と前記第4信号を構成する複数の信号とを前記第2方向に加算して生成した第6信号を出力する出力部と、を有する。
[14]本発明に係る撮像装置は、上記撮像素子を有する。
[1] A detection device according to the present invention includes a plurality of detection units including a plurality of focus detection pixels arranged in a first direction in a second direction intersecting the first direction, and an image formed by an optical system An imaging device for capturing an image and outputting a signal, and a first detection unit outputting a shift amount between the position of the image by the optical system and the imaging device according to a signal from one of the detection units. And a calculation unit that performs one of a first calculation using a signal and a second calculation using the second signal output from the plurality of detection units.
[2] In the invention according to the above detection apparatus, the calculation unit is configured to perform either the first calculation or the second calculation according to any one of the magnitude and the contrast of the first signal. can do.
[3] In the invention according to the above detection apparatus, the magnitude of the first signal when performing the first calculation can be configured to be larger than the magnitude of the first signal when performing the second calculation.
[4] In the invention according to the above detection apparatus, the contrast value of the first signal when the first calculation is performed by the calculation unit is higher than the contrast value of the first signal when the second calculation is performed. Can be configured to
[5] In the invention according to the above detection device, the second signal can be configured to be a signal obtained by adding the signals output from a plurality of the detection units.
[6] In the invention according to the above detection apparatus, the second calculation performed by the calculation unit calculates the amount of deviation using the second signal according to the second signal, and the second signal is used as the second signal. The deviation amount may be calculated by using a third signal obtained by adding the signal output from the detection unit.
[7] In the invention according to the above detection apparatus, the calculation unit calculates the amount of deviation using the second signal according to one of the magnitude of the second signal and the contrast of the output signal. One of the calculation of the amount of deviation using the third signal can be performed.
[8] In the invention according to the above detection apparatus, the detection section of the image pickup device includes a first pixel for receiving light passing through a first region of the optical system, and the first of the optical system. The second pixels that receive the light that has passed through the second region different from the region may be alternately arranged in the first direction.
[9] In the invention according to the above-mentioned detection device, the first and second pixels may be alternately arranged in the second direction in the imaging device.
[10] In the invention according to the detection device, the second calculation performed by the calculation unit may be the number of first pixels and the number of second pixels in the second direction of the detection unit used in the second calculation. The shift amount can be calculated using a signal obtained by multiplying the signal output from the detection unit used in the second operation after the coefficient determined in accordance with the ratio of .beta.
[11] The detection device according to the present invention is different from a plurality of first pixels for receiving light passing through a first area of an optical system for forming an image of a subject and the first area of the optical system An imaging element having a plurality of second pixels for receiving light passing through the second region, and a first signal output from a first pixel row consisting of a plurality of first pixels arranged in a first direction; An image by the optical system from the first signal and the second signal according to a signal of a second signal output from a second pixel row composed of a plurality of second pixels arranged in the first direction A first operation for calculating a value relating to the amount of deviation between the position of the imaging element and the imaging surface of the imaging element, and the second direction intersecting the first direction is disposed at a position different from the first pixel row; A third signal generated in a third pixel row consisting of a plurality of first pixels arranged in the And the fourth signal front generated by the fourth pixel row composed of the plurality of second pixels arranged at positions different from the second pixel row in the first direction. And a calculator configured to perform one of a second operation of calculating a value related to the amount of deviation from a fifth signal and a sixth signal generated by adding the signal and the second signal.
[12] An imaging device according to the present invention includes the above detection device.
[13] The imaging device according to the present invention is different from a plurality of first pixels for receiving light passing through a first area of an optical system for forming an image of a subject and the first area of the optical system A first signal generated in a first pixel row comprising a plurality of second pixels that receive light passing through the second region and a plurality of the first pixels arranged in the first direction, in the first direction A second signal generated by a second pixel row composed of the plurality of second pixels disposed, the second signal being disposed at a position different from the first pixel row in a second direction intersecting the first direction, the first direction A third signal generated by a third pixel row consisting of a plurality of first pixels arranged in a plurality of the plurality of pixels arranged at positions different from the second pixel row in the second direction and arranged in the first direction A fourth signal generated in a fourth pixel column comprising the second pixels, and a plurality of signals constituting the first signal A fifth signal generated by adding a plurality of signals forming the third signal in the second direction, a plurality of signals forming the second signal, and a plurality of signals forming the fourth signal And an output unit that outputs a sixth signal generated by adding in the second direction.
[14] An imaging device according to the present invention includes the imaging element.

本発明によれば、光学系の焦点検出を適切に行うことができる撮像素子および該撮像素子を備える撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging device capable of appropriately performing focus detection of an optical system, and an imaging device provided with the imaging device.

図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 2 is a front view showing an imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing an arrangement of the imaging pixel 221 and the focus detection pixels 222a and 222b by enlarging the part III of FIG. 図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(D)は、撮像画素221の一つを拡大して示す断面図、図4(E)は、第1焦点検出画素222aの一つを拡大して示す断面図、図4(F)は、第2焦点検出画素222bの一つを拡大して示す断面図である。4A is an enlarged front view showing one of the imaging pixels 221, FIG. 4B is an enlarged front view showing one of the first focus detection pixels 222a, and FIG. 4C. 4A is a front view showing an enlarged view of one of the second focus detection pixels 222b, FIG. 4D is a sectional view showing an enlarged view of one of the imaging pixels 221, and FIG. 4E shows a first focus FIG. 4F is a cross-sectional view showing one of the second focus detection pixels 222b in an enlarged manner. 図5は、焦点検出画素222a,222bの配列を模式的に示す図である。FIG. 5 is a view schematically showing the arrangement of the focus detection pixels 222a and 222b. 図6は、図3のVI-VI線に沿う断面図である。6 is a cross-sectional view taken along the line VI-VI in FIG. 図7は、本実施形態における相関量とシフト量との関係を示すグラフである。FIG. 7 is a graph showing the relationship between the correlation amount and the shift amount in the present embodiment. 図8は、従来技術における相関量とシフト量との関係を示すグラフである。FIG. 8 is a graph showing the relationship between the correlation amount and the shift amount in the prior art. 図9は、第1実施形態に係るカメラの動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the camera according to the first embodiment. 図10は、第2実施形態に係る撮像素子22aの構成を模式的に示す正面図である。FIG. 10 is a front view schematically showing a configuration of an imaging device 22a according to the second embodiment. 図11は、焦点検出画素222a,222bの配列を模式的に示す図である。FIG. 11 is a diagram schematically showing the arrangement of the focus detection pixels 222a and 222b. 図12は、第2実施形態に係るカメラの動作を示すフローチャートである。FIG. 12 is a flowchart showing the operation of the camera according to the second embodiment. 図13は、第3実施形態に係るカメラの動作を示すフローチャートである。FIG. 13 is a flowchart showing the operation of the camera according to the third embodiment. 図14は、第4実施形態に係る撮像素子22aの構成を模式的に示す正面図である。FIG. 14 is a front view schematically showing the configuration of an imaging device 22a according to the fourth embodiment. 図15は、焦点検出画素222a,222bの配列を模式的に示す図である。FIG. 15 is a diagram schematically showing the arrangement of the focus detection pixels 222a and 222b. 図16は、第4実施形態に係るカメラの動作を示すフローチャートである。FIG. 16 is a flowchart showing the operation of the camera according to the fourth embodiment. 図17は、第5実施形態に係るカメラの動作を示すフローチャートである。FIG. 17 is a flowchart showing the operation of the camera according to the fifth embodiment. 図18は、別の実施形態に係る撮像素子22cの構成を模式的に示す正面図である。FIG. 18 is a front view schematically showing a configuration of an imaging device 22c according to another embodiment. 図19は、さらに別の実施形態に係る撮像素子22dの構成を模式的に示す正面図である。FIG. 19 is a front view schematically showing a configuration of an imaging device 22d according to still another embodiment. 図20は、さらに別の実施形態に係る撮像素子22eの構成を模式的に示す正面図である。FIG. 20 is a front view schematically showing a configuration of an imaging device 22e according to still another embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

《第1実施形態》
図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。
First Embodiment
FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. The digital camera 1 (hereinafter simply referred to as the camera 1) of the present embodiment is composed of a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4 There is.

レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that is detachable from the camera body 2. As shown in FIG. 1, the lens barrel 3 incorporates a photographing optical system including lenses 31, 32, 33 and a diaphragm 34.

レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点状態を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens, and can move in the direction of the optical axis L1 to adjust the focus state of the photographing optical system. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.

絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The aperture 34 is configured to adjust the aperture diameter centered on the optical axis L1 in order to limit the light amount of the light flux passing through the imaging optical system and reaching the imaging device 22 and to adjust the blur amount. Adjustment of the aperture diameter by the aperture stop 34 is performed, for example, by transmitting an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by the manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the diaphragm 34 is detected by a diaphragm aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.

レンズ制御部37は、カメラ制御部21からの指令に基づいて、フォーカスレンズ32の駆動、絞り34による開口径の調節などレンズ鏡筒3全体の制御を実行する。   The lens control unit 37 controls the entire lens barrel 3 such as driving of the focus lens 32 and adjustment of the aperture diameter by the diaphragm 34 based on a command from the camera control unit 21.

一方、カメラ本体2には、上記撮影光学系からの光束L1を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるカメラメモリ24に記録される。なお、カメラメモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。撮像素子22の構造の詳細は後述する。   On the other hand, in the camera body 2, an imaging element 22 for receiving the light flux L1 from the imaging optical system is provided on a planned focal plane of the imaging optical system, and a shutter 23 is provided on the front surface thereof. The imaging device 22 is configured of a device such as a CCD or a CMOS, converts the received light signal into an electric signal, and sends it to the camera control unit 21. The photographed image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and the release button (provided in the operation unit 28) When the full depression (not shown) is performed, the photographed image information is recorded in the camera memory 24 which is a recording medium. The camera memory 24 can use any of a removable card type memory and a built-in type memory. Details of the structure of the imaging device 22 will be described later.

カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image captured by the image sensor 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal drive circuit 25 for driving the same, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the photographed image information picked up by the image pickup device 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on this. Thus, the user can observe the current captured image through the eyepiece 27. A liquid crystal display may be provided on the back surface of the camera body 2 or the like instead of or in addition to the above observation optical system according to the optical axis L2, and a photographed image may be displayed on the liquid crystal display.

カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、各種レンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 receives various lens information and transmits information such as the defocus amount and the aperture diameter to the lens control unit 37. In addition, as described above, the camera control unit 21 reads out the pixel output from the imaging device 22 and generates image information by performing predetermined information processing on the read out pixel output as necessary, and the generated image information Are output to the liquid crystal drive circuit 25 and the memory 24 of the electronic viewfinder 26. Further, the camera control unit 21 controls the entire camera 1 such as correction of image information from the image pickup device 22 and detection of a focusing state of the lens barrel 3, an aperture adjusting state, and the like.

また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については、後述する。   Further, in addition to the above, the camera control unit 21 detects the focus state of the photographing optical system by the phase detection method based on the pixel data read from the imaging device 22 and detects the focus state of the photographing optical system by the contrast detection method. I do. A specific focus state detection method will be described later.

操作部28は、シャッターレリーズボタンなどの撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is an input switch for a photographer such as a shutter release button to set various operation modes of the camera 1, and can switch between an auto focus mode and a manual focus mode. The various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. Further, the shutter release button includes a first switch SW1 which is turned on when the button is half pressed, and a second switch SW2 which is turned on when the button is fully pressed.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。   2 is a front view showing the imaging surface of the imaging element 22, and FIG. 3 is a front view schematically showing the arrangement of the imaging pixel 221 and the focus detection pixels 222a and 222b by enlarging the portion III of FIG.

本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。なお、本実施形態においては、この4つの画素群223により、1画素を構成することとなる。   As shown in FIG. 3, in the imaging device 22 of the present embodiment, a plurality of imaging pixels 221 are two-dimensionally arranged on a plane of an imaging surface, and a green pixel G having a color filter transmitting a green wavelength region And a red pixel R having a color filter transmitting the red wavelength region and a blue pixel B having a color filter transmitting the blue wavelength region are what is called a Bayer arrangement. That is, two green pixels are arranged on one diagonal line in adjacent four pixel groups 223 (a dense square lattice array), and one red pixel and one blue pixel are arranged on the other diagonal line. The imaging element 22 is configured by repeatedly arranging the pixel group 223 two-dimensionally on the imaging surface of the imaging element 22 in units of the pixel group 223 in which the Bayer arrangement is performed. In the present embodiment, one pixel is formed by the four pixel groups 223.

なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The arrangement of the unit pixel groups 223 may be, for example, a close hexagonal lattice arrangement, as well as the close square lattice shown in the drawing. Further, the configuration and arrangement of the color filter are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(D)は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図4(D)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   FIG. 4A is an enlarged front view showing one of the imaging pixels 221, and FIG. 4D is a cross-sectional view. One imaging pixel 221 includes a microlens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and as shown in the cross-sectional view of FIG. 4D, on the surface of the semiconductor circuit substrate 2213 of the imaging element 22. The photoelectric conversion portion 2212 is fabricated, and the micro lens 2211 is formed on the surface thereof. The photoelectric conversion unit 2212 is shaped so as to receive the imaging light flux passing through the exit pupil (for example, F1.0) of the photographing optical system 31 by the microlens 2211 and receives the imaging light flux.

また、撮像素子22の撮像面の中心、および中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222a,222bが配列された焦点検出画素列群22a,22b,22cが設けられている。そして、図3に示すように、一つの焦点検出画素列群は、2つの焦点検出画素列、すなわち、第1焦点検出画素列L1および第2焦点検出画素列L2から構成され、各焦点検出画素列L1,L2は、複数の第1焦点検出画素222aおよび第2焦点検出画素222bが、互いに隣接して交互に、横一列に配列されて構成されている。本実施形態においては、図3に示すように、第1焦点検出画素222aおよび第2焦点検出画素222bは、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, focus detection pixel column groups 22a and 22b, in which focus detection pixels 222a and 222b are arranged instead of the above-described imaging pixels 221 at the center of the imaging surface of the imaging element 22 and at three positions symmetrical with respect to the center. 22c is provided. Then, as shown in FIG. 3, one focus detection pixel column group includes two focus detection pixel columns, that is, a first focus detection pixel column L1 and a second focus detection pixel column L2, and each focus detection pixel The columns L1 and L2 are configured such that a plurality of first focus detection pixels 222a and second focus detection pixels 222b are alternately arranged adjacent to each other in a horizontal row. In the present embodiment, as shown in FIG. 3, the first focus detection pixel 222 a and the second focus detection pixel 222 b provide gaps at the positions of the green pixel G and the blue pixel B of the imaging pixel 221 in Bayer arrangement. It is densely arranged without.

なお、図2に示す焦点検出画素列群22a〜22cの位置は図示する位置にのみ限定されず、何れか一箇所、または二箇所等にすることもでき、また、四箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列群22a〜22cの中から、ユーザが操作部28を手動操作することにより所望の焦点検出画素列を、焦点検出位置として選択することもできる。   Note that the positions of the focus detection pixel column groups 22a to 22c shown in FIG. 2 are not limited to the positions shown in the drawing, and may be one or two, or may be arranged at four or more positions. You can also Further, upon actual focus detection, the user selects a desired focus detection pixel row as a focus detection position by manually operating the operation unit 28 from the plurality of arranged focus detection pixel row groups 22a to 22c. It can also be done.

図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(E)は、第1焦点検出画素222aの断面図である。また、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(F)は、第2焦点検出画素222bの断面図である。第1焦点検出画素222aは、図4(B)に示すように、マイクロレンズ2221aと、矩形状の光電変換部2222aとから構成され、図4(E)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、第2焦点検出画素222bは、図4(C)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図4(F)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、各焦点検出画素列L1,L2を構成する。   FIG. 4B is an enlarged front view showing one of the first focus detection pixels 222a, and FIG. 4E is a cross-sectional view of the first focus detection pixel 222a. 4C is an enlarged front view showing one of the second focus detection pixels 222b, and FIG. 4F is a cross-sectional view of the second focus detection pixel 222b. The first focus detection pixel 222a includes a micro lens 2221a and a rectangular photoelectric conversion unit 2222a as shown in FIG. 4B, and as shown in the cross sectional view of FIG. A photoelectric conversion portion 2222a is formed on the surface of the twenty-two semiconductor circuit substrates 2213, and a micro lens 2221a is formed on the surface. The second focus detection pixel 222b is composed of a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 4C, and as shown in the cross sectional view of FIG. The photoelectric conversion portion 2222 b is formed on the surface of the semiconductor circuit substrate 2213, and the micro lens 2221 b is formed on the surface. Then, as shown in FIG. 3, the focus detection pixels 222a and 222b are arranged adjacent to each other and alternately in a horizontal row, thereby constituting the respective focus detection pixel rows L1 and L2.

なお、第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、第1焦点検出画素222a、第2焦点検出画素222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b are luminous fluxes passing through a predetermined area (for example, F2.8) of the exit pupil of the photographing optical system by the micro lenses 2221a and 2221b. Is shaped to receive light. Further, no color filter is provided in the first focus detection pixel 222a and the second focus detection pixel 222b, and the spectral characteristics are the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). It has become a synthesis of the characteristics. However, one of the same color filters as the imaging pixel 221, for example, a green filter may be provided.

また、図4(B)、図4(C)に示す第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは矩形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、半円形状、楕円形状、多角形状とすることもできる。   Although the photoelectric conversion units 2222a and 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b shown in FIGS. 4B and 4C are rectangular, the shapes of the photoelectric conversion units 2222a and 2222b are shown. Is not limited to this, and may be another shape, for example, a semicircular shape, an elliptical shape, or a polygonal shape.

図3に戻り、本実施形態の撮像素子22は、上述したように、2つの焦点検出画素列L1,L2を備えるものである。ここで、図5は、図3に示す撮像素子22の撮像面から撮像画素221を除き、2つの焦点検出画素列L1,L2を構成する第1焦点検出画素222aおよび第2焦点検出画素222bのみを模式的に示した図である。図5に示すように、2つの焦点検出画素列L1,L2のうち、第1焦点検出画素列L1は、X軸方向(行方向)に沿って、第1焦点検出画素222a、第2焦点検出画素222bが、第1焦点検出画素222a、第2焦点検出画素222bの順に、交互に配列されることにより構成されている。これに対し、第2焦点検出画素列L2は、第1焦点検出画素列L1と同様に、第1焦点検出画素222a、第2焦点検出画素222bが交互に配列されることにより構成されたものであるが、第1焦点検出画素222a、第2焦点検出画素222bの配列順が、第1焦点検出画素列L1と異なるものとなっている。   Returning to FIG. 3, as described above, the imaging device 22 of the present embodiment includes the two focus detection pixel arrays L1 and L2. Here, FIG. 5 excludes the imaging pixel 221 from the imaging surface of the imaging device 22 shown in FIG. 3, and only the first focus detection pixel 222a and the second focus detection pixel 222b that constitute two focus detection pixel rows L1 and L2 Are schematically shown. As shown in FIG. 5, of the two focus detection pixel lines L1 and L2, the first focus detection pixel line L1 is a first focus detection pixel 222a and a second focus detection along the X-axis direction (row direction). The pixels 222 b are alternately arranged in the order of the first focus detection pixels 222 a and the second focus detection pixels 222 b. On the other hand, the second focus detection pixel row L2 is configured by alternately arranging the first focus detection pixels 222a and the second focus detection pixels 222b, similarly to the first focus detection pixel row L1. Although the arrangement order of the first focus detection pixels 222a and the second focus detection pixels 222b is different from that of the first focus detection pixel row L1, the arrangement order is different.

すなわち、図5に示すように、X軸方向(行方向)に見た場合に、第1焦点検出画素列L1では、第1焦点検出画素222aが位置している場所に、第2焦点検出画素列L2では、第2焦点検出画素222bが位置しており、さらに、第1焦点検出画素列L1では、第2焦点検出画素222bが位置している場所に、第1焦点検出画素222aが位置しているような構成となっている。   That is, as shown in FIG. 5, when viewed in the X-axis direction (row direction), in the first focus detection pixel column L1, the second focus detection pixel is located where the first focus detection pixel 222a is located. In the column L2, the second focus detection pixel 222b is positioned, and in the first focus detection pixel column L1, the first focus detection pixel 222a is positioned where the second focus detection pixel 222b is positioned. It is configured as

次いで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Next, a so-called phase difference detection method will be described in which the focus state of the photographing optical system is detected based on the pixel outputs of the focus detection pixels 222a and 222b described above.

図6は、図3のVI-VI線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳350の測距瞳351,352から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図6においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図6に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳351,352から照射される光束をそれぞれ受光するように構成されている。   FIG. 6 is a cross-sectional view taken along the line VI-VI of FIG. 3 and is disposed in the vicinity of the photographing optical axis L1 and the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 emitted from the focusing pupils 351 and 352 of the exit pupil 350 are respectively received. Although FIG. 6 illustrates only one of the plurality of focus detection pixels 222a and 222b located in the vicinity of the photographing optical axis L1, the other focus detection pixels other than the focus detection pixels shown in FIG. 6 are shown. Similarly, the light beams emitted from the pair of distance measuring pupils 351 and 352 are also received.

ここで、射出瞳350とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳351,352とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 350 is an image set at the position of the distance D in front of the microlenses 2221 a and 2221 b of the focus detection pixels 222 a and 222 b disposed on the planned focal plane of the imaging optical system. The distance D is a value uniquely determined according to the curvature of the micro lens, the refractive index, the distance between the micro lens and the photoelectric conversion part, and the like, and this distance D is referred to as a distance measurement pupil distance. Further, the ranging pupils 351 and 352 refer to images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.

なお、図6において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳351,352の並び方向と一致している。   In FIG. 6, the arrangement direction of the focus detection pixels 222 a-1, 222 b-1, 222 a-2 and 222 b-2 coincides with the arrangement direction of the pair of distance measurement pupils 351 and 352.

また、図6に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳350上に投影され、その投影形状は測距瞳351,352を形成する。   Further, as shown in FIG. 6, the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, 222b-2 are photographing optical systems. It is placed near the planned focal plane of. The shape of each of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 disposed behind the microlenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 is The light is projected onto the exit pupil 350 separated by the distance measurement distance D from the lenses 2221a-1 and 2221b-1, and 2221a-2 and 2221b-2, and the projected shapes form distance measurement pupils 351 and 352.

すなわち、測距距離Dにある射出瞳350上で、各焦点検出画素の光電変換部の投影形状(測距瞳351,352)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   That is, on the exit pupil 350 located at the distance measurement distance D, the microlenses and photoelectric conversion units in each focus detection pixel are matched so that the projection shapes (distance measurement pupils 351, 352) of the photoelectric conversion units of each focus detection pixel match. The relative positional relationship of is determined, whereby the projection direction of the photoelectric conversion unit at each focus detection pixel is determined.

図6に示すように、焦点検出画素222a−1の光電変換部2222a−1は、測距瞳351を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222a−2の光電変換部2222a−2は測距瞳351を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 6, the photoelectric conversion unit 2222a-1 of the focus detection pixel 222a-1 is formed on the microlens 2221a-1 by the light beam AB1-1 which passes through the distance measurement pupil 351 and is directed to the microlens 2221a-1. Output a signal corresponding to the intensity of the image being Similarly, the photoelectric conversion unit 2222a-2 of the focus detection pixel 222a-2 passes through the distance measurement pupil 351, and the intensity of the image formed on the microlens 2221a-2 by the light beam AB1-2 directed to the microlens 2221a-2. Output a signal corresponding to

また、焦点検出画素222b−1の光電変換部2222b−1は測距瞳352を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、焦点検出画素222b−2の光電変換部2222b−2は測距瞳352を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   In addition, the photoelectric conversion unit 2222b-1 of the focus detection pixel 222b-1 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-1 by the light beam AB2-1 directed to the microlens 2221b-1 Output the corresponding signal. Similarly, the photoelectric conversion unit 2222b-2 of the focus detection pixel 222b-2 passes through the distance measurement pupil 352, and the intensity of the image formed on the microlens 2221b-2 by the light beam AB2-2 directed to the microlens 2221b-2. Output a signal corresponding to

そして、上述した第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bの出力を、測距瞳351と測距瞳352とのそれぞれに対応した出力グループにまとめることにより、測距瞳351と測距瞳352とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータを得る。   Then, the outputs of the photoelectric conversion units 2222 a and 2222 b of the first focus detection pixel 222 a and the second focus detection pixel 222 b described above are combined into output groups corresponding to the distance measuring pupil 351 and the distance measuring pupil 352, respectively. Data on the intensity distribution of a pair of images formed on the focus detection pixel array by the focus detection light beams passing through each of the distance measurement pupil 351 and the distance measurement pupil 352 is obtained.

ここで、本実施形態においては、このような出力データを得るに際し、第1焦点検出画素列L1の出力データと、第2焦点検出画素列L2の出力データを加算し、これにより得られた画素加算出力データを得る。具体的には、図5に示す第1焦点検出画素列L1の画素A1L1の出力と、第2焦点検出画素列L2を構成する画素のうち、これと同じ測距瞳を通過する焦点検出光束を受光した画素A1L2の出力とを加算し、画素加算出力IA1を得る。同様に、第1焦点検出画素列L1の画素B1L1の出力と、第2焦点検出画素列L2を構成する画素のうち、これと同じ測距瞳を通過する焦点検出光束を受光した画素B1L2の出力とを加算し、画素加算出力IB1を得る。以下、同様に、A2L1とA2L2の出力からIA2、B2L1とB2L2の出力からIB2、A3L1とA3L2の出力からIA3、B3L1とB3L2の出力からIB3を得る。 Here, in the present embodiment, when obtaining such output data, the pixel obtained by adding the output data of the first focus detection pixel row L1 and the output data of the second focus detection pixel row L2 Obtain addition output data. Specifically, among the pixels constituting the output of the pixel A1 L1 of the first focus detection pixel row L1 and the second focus detection pixel row L2 shown in FIG. And the output of the pixel A1 L2 that received the light to obtain a pixel addition output I A1 . Similarly, among the pixels constituting the output of the pixel B1 L1 of the first focus detection pixel row L1 and the pixels constituting the second focus detection pixel row L2, a pixel B1 L2 which has received the focus detection light flux passing through the same distance measurement pupil And the output of the pixel addition circuit to obtain a pixel addition output I.sub.B1 . Hereinafter, likewise, obtain A2 L1 and A2 I A2 from the output of L2, B2 L1 and B2 I B2 from the output of L2, A3 L1 and A3 I A3 from the output of L2, B3 L1 and I B3 from the output of B3 L2 .

そして、得られた画素加算出力を用いて、第1焦点検出画素222aに基づくデータ列、すなわち、第1像データ列IA1,IA2,IA3,...,IAnと、第2焦点検出画素222bに基づくデータ列、すなわち、第2像データ列IB1,IB2,IB3,...,IBnとを得て、これらを一次元状に相対的にシフトさせながら、下記式(1)に示す相関演算を行う。
C(k)=Σ|IA(n+k)−IB(n)| …(1)
なお、上記式(1)において、Σ演算はnについての累積演算(相和演算)を示し、像ずらし量kに応じてIA(n+k)、IB(n)のデータが存在する範囲に限定される。また、像ずらし量kは整数であり、各焦点検出画素222a,222bの画素間隔を単位としたシフト量である。なお、上記式(1)の演算結果においては、一対の像データの相関が高いシフト量において、相関量C(k)は極小(小さいほど相関度が高い)になる。
Then, using the obtained pixel addition output, a data string based on the first focus detection pixel 222a, that is, the first image data string I A1 , I A2 , I A3,. . . , I An and a data string based on the second focus detection pixel 222 b, that is, a second image data string I B1 , I B2 , I B3,. . . , I Bn and performing a correlation operation shown in the following equation (1) while relatively shifting them in a one-dimensional manner.
C (k) =. SIGMA. | I.sub.A (n + k) -I.sub.B (n) ... (1)
In the above equation (1), the Σ operation represents the cumulative operation (phase-sum operation) for n, and in the range in which data of I A (n + k) and I B (n) exist according to the image shift amount k. It is limited. The image shift amount k is an integer, and is a shift amount in units of the pixel interval of each of the focus detection pixels 222a and 222b. In the calculation result of the equation (1), the correlation amount C (k) becomes minimum (the smaller the degree of correlation, the higher the degree of correlation) in the shift amount where the correlation between the pair of image data is high.

そして、上記式(1)に従って、相関量C(k)の算出を行い、相関量の極小値C(x)が得られるシフト量xに基づいて、下記式(2)に従い、デフォーカス量dfを算出する。なお、上記式(2)において、kは、相関量の極小値C(x)が得られるシフト量xをデフォーカス量に変換するための変換係数(kファクター)である。
df=x・k …(2)
Then, the correlation amount C (k) is calculated according to the above equation (1), and the defocus amount df is calculated according to the following equation (2) on the basis of the shift amount x from which the minimum value C (x) of the correlation amount is obtained. Calculate In the above equation (2), k is a conversion factor (k factor) for converting the shift amount x for obtaining the minimum value C (x) of the correlation amount into the defocus amount.
df = x · k (2)

図7に、相関量C(k)とシフト量の関係を表すグラフを示す。なお、図7は、合焦状態(デフォーカス量がゼロの状態)における、相関量C(k)とシフト量の関係を示している。   FIG. 7 shows a graph representing the relationship between the correlation amount C (k) and the shift amount. FIG. 7 shows the relationship between the correlation amount C (k) and the shift amount in the in-focus state (state in which the defocus amount is zero).

一方、図8に、従来技術(たとえば、上述した特開2012−226088号公報)の撮像素子を用いた場合における、相関量C(k)とシフト量の関係を表すグラフを示す。なお、図8においても、図7と同様に、合焦状態(デフォーカス量がゼロの状態)における、相関量C(k)とシフト量の関係を示している。ここで、従来技術においては、本実施形態の第1焦点検出画素列L1を構成する各焦点検出画素の出力のみを用いるものであり、そのため、次のような不具合があった。   On the other hand, FIG. 8 shows a graph showing the relationship between the amount of correlation C (k) and the amount of shift when the image pickup device of the prior art (for example, JP 2012-226088 A mentioned above) is used. Also in FIG. 8, as in FIG. 7, the relationship between the correlation amount C (k) and the shift amount in the in-focus state (the state in which the defocus amount is zero) is shown. Here, in the prior art, only the output of each focus detection pixel constituting the first focus detection pixel line L1 of the present embodiment is used, and therefore, the following problems occur.

すなわち、従来技術においては、本実施形態の第1焦点検出画素列L1のみを用いるものであるため、第1焦点検出画素222aと、第2焦点検出画素222bは、互いに0.5画素ずれた位置に存在することとなるため、これらの焦点検出画素を用いて得られる第1像データ列IA1,IA2,IA3,...,IAnと、第2像データ列IB1,IB2,IB3,...,IBnとは、互いに0.5画素ずれたデータとなることとなる。そのため、図8に示すように、相関量C(k)の極小値も0.5画素分ずれた位置となってしまうことなり、このような場合には、相関量C(k)が極小値を示すシフト量およびデフォーカス量を算出するためには、内挿演算等を用いる必要があり、結果として、焦点検出精度が低下してしまう場合があった。特に、焦点検出画素で検出された出力のコントラストレベルが低い場合に、このような問題が顕著になる傾向にあった。 That is, in the prior art, since only the first focus detection pixel column L1 of the present embodiment is used, the first focus detection pixel 222a and the second focus detection pixel 222b are shifted by 0.5 pixels from each other. Of the first image data train I A1 , I A2 , I A3 , ... Obtained by using these focus detection pixels. . . , I An and second image data strings I B1 , I B2 , I B3,. . . , I Bn become data mutually shifted by 0.5 pixels. Therefore, as shown in FIG. 8, the minimum value of the correlation amount C (k) is also shifted by 0.5 pixels, and in such a case, the correlation amount C (k) is a minimum value. In order to calculate the shift amount and the defocus amount that indicate the in, it is necessary to use an interpolation operation or the like, and as a result, the focus detection accuracy may be reduced. Such a problem tends to be noticeable particularly when the contrast level of the output detected by the focus detection pixel is low.

これに対し、本実施形態においては、撮像素子22を、第1焦点検出画素列L1および第2焦点検出画素列L2を備えるものとし、かつ、各画素列を構成する第1焦点検出画素222aと、第2焦点検出画素222bとを0.5画素分ずらした位置に配置し、かつ、これらの画素出力を加算することにより得られる画素加算出力を用いることで、従来技術の不具合を有効に解消するものである。すなわち、本実施形態によれば、図7に示すように、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができるものである。特に、本実施形態によれば、焦点検出画素で検出された出力のコントラストレベルが低い場合でも、適切に、焦点検出精度を適切に高めることができるものである。加えて、本実施形態によれば、画素出力を加算することにより、出力値を高めることができ、これにより、撮影シーンが低輝度である場合でも、適切に焦点検出を行うことができる。さらには、第1焦点検出画素列L1および第2焦点検出画素列L2を備えることにより、第1焦点検出画素列L1のみを用いる場合と比較して、焦点検出可能なエリアを広くとることができるため、非検出となってしまう可能性を低くすることもできる。   On the other hand, in the present embodiment, the imaging element 22 includes the first focus detection pixel line L1 and the second focus detection pixel line L2, and the first focus detection pixels 222a constituting each pixel line By disposing the second focus detection pixel 222b at a position shifted by 0.5 pixel and using the pixel addition output obtained by adding these pixel outputs, the problems of the prior art are effectively eliminated. It is That is, according to the present embodiment, as shown in FIG. 7, it is possible to accurately obtain the shift amount at which the correlation amount C (k) gives the minimum value in the in-focus state (the defocus amount is zero). Thereby, the focus detection accuracy can be appropriately improved. In particular, according to the present embodiment, even when the contrast level of the output detected by the focus detection pixel is low, the focus detection accuracy can be appropriately improved. In addition, according to the present embodiment, the output value can be increased by adding the pixel output, whereby the focus detection can be appropriately performed even when the shooting scene has low luminance. Furthermore, by providing the first focus detection pixel row L1 and the second focus detection pixel row L2, the focus detectable area can be made wider compared to the case where only the first focus detection pixel row L1 is used. Therefore, the possibility of becoming undetected can be reduced.

なお、本実施形態においては、図3に示すように、第1焦点検出画素列L1と、第2焦点検出画素列L2とを、3つの撮像画素221を挟んだ位置に配置したが、このような態様に特に限定されるものではない。ただし、各焦点検出画素列L1,L2を構成する焦点検出画素222a,222bは、撮影画像に適した画像出力を与えるものではないため、得られる撮影画像の精度をより高めるという観点より、これら焦点検出画素列L1,L2が配置されている位置においては、周囲に位置する撮像画素221の出力を用いた補間処理を行うことが望ましい。そのため、このような観点から、第1焦点検出画素列L1と、第2焦点検出画素列L2とは、撮像画素221を少なくとも1つ挟んだ位置に配置することが好ましい。また、一方で、第1焦点検出画素列L1と、第2焦点検出画素列L2とが離れすぎると、撮影する被写体や撮影シーンによっては、これらの画素列間で得られる出力パターンの差が大きくなるおそれがある。そのため、本実施形態では、図3に示すように、第1焦点検出画素列L1と、第2焦点検出画素列L2とを、3つの撮像画素221を挟んだ位置に配置している。   In the present embodiment, as shown in FIG. 3, the first focus detection pixel line L1 and the second focus detection pixel line L2 are disposed at positions sandwiching the three imaging pixels 221. It is not particularly limited to the However, since the focus detection pixels 222a and 222b constituting each of the focus detection pixel arrays L1 and L2 do not provide an image output suitable for the photographed image, these focal points from the viewpoint of further enhancing the accuracy of the obtained photographed image. At the positions where the detection pixel arrays L1 and L2 are arranged, it is desirable to perform interpolation processing using the output of the imaging pixels 221 located in the periphery. Therefore, from such a viewpoint, it is preferable to arrange the first focus detection pixel row L1 and the second focus detection pixel row L2 at a position where at least one imaging pixel 221 is sandwiched. On the other hand, if the first focus detection pixel row L1 and the second focus detection pixel row L2 are too far apart, the difference in output pattern obtained between these pixel rows is large depending on the subject to be shot and the shooting scene. May be Therefore, in the present embodiment, as shown in FIG. 3, the first focus detection pixel row L1 and the second focus detection pixel row L2 are disposed at positions sandwiching the three imaging pixels 221.

なお、これら位相差検出方式による像ズレ量の演算と、これに基づくデフォーカス量の演算は、カメラ制御部21により実行される。   The calculation of the image shift amount by the phase difference detection method and the calculation of the defocus amount based on this are executed by the camera control unit 21.

また、上述した第1焦点検出画素列L1の出力データと、第2焦点検出画素列L2の出力データを加算し、画素加算出力を得る際には、撮像素子22に備えられた演算部を用いて、画素加算出力を得て、これをカメラ制御部21に送信するような構成としてもよいし、あるいは、カメラ制御部21が、撮像素子22から、第1焦点検出画素列L1の出力データと、第2焦点検出画素列L2の出力データとを取得し、これらを用いて画素加算出力を得るような構成としてもよい。   Further, when the output data of the first focus detection pixel row L1 and the output data of the second focus detection pixel row L2 are added to obtain the pixel addition output, an operation unit provided in the imaging device 22 is used. The pixel addition output may be obtained and transmitted to the camera control unit 21. Alternatively, the camera control unit 21 may output the output data of the first focus detection pixel row L1 from the imaging element 22. Alternatively, the output data of the second focus detection pixel row L2 may be acquired, and a pixel addition output may be obtained using these.

さらに、上記に加えて、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算することでも求めることができる。   Furthermore, in addition to the above, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22, and calculates the focus evaluation value based on the read pixel output. The focus evaluation value can be obtained, for example, by extracting the high frequency component of the image output from the imaging pixel 221 of the image sensor 22 using a high frequency transmission filter and integrating the same. It can also be determined by extracting high frequency components using two high frequency transmission filters having different cutoff frequencies and integrating them.

そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める、コントラスト検出方式による焦点検出を実行する。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The focus detection by the contrast detection method is performed to obtain the position of the focus lens 32 as the in-focus position. It should be noted that, for example, when the focus evaluation value is calculated while driving the focus lens 32, the in-focus position is further lowered twice after the focus evaluation value rises twice. It can obtain | require by performing calculations, such as an interpolation method, using the focus evaluation value of.

次いで、本実施形態におけるカメラ1の動作例を、図9に示すフローチャートに沿って説明する。   Next, an operation example of the camera 1 in the present embodiment will be described along the flowchart shown in FIG.

まず、ステップS1では、カメラ制御部21により、撮像素子22を構成する撮像画素221、ならびに第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。   First, in step S1, the camera control unit 21 acquires output data of the imaging pixel 221 constituting the imaging element 22, and the first focus detection pixel 222a and the second focus detection pixel 222b.

次いで、ステップS2では、カメラ制御部21により、上述した方法にしたがって、ステップS1で取得した第1焦点検出画素222aおよび第2焦点検出画素222bについて、画素加算を行うことで、画素加算出力の算出が行われる。すなわち、ステップS2では、上述した方法にしたがって、第1焦点検出画素列L1の出力データと、第2焦点検出画素列L2の出力データを加算し、これにより得られた画素加算出力データを得る。なお、上述したように、第1焦点検出画素列L1の出力データと、第2焦点検出画素列L2の出力データの加算は、カメラ制御部21に代えて、撮像素子22に備えられた演算部により行うような構成としてもよい。   Next, in step S2, pixel addition output is calculated by performing pixel addition on the first focus detection pixel 222a and the second focus detection pixel 222b acquired in step S1 according to the method described above by the camera control unit 21. Is done. That is, in step S2, the output data of the first focus detection pixel row L1 and the output data of the second focus detection pixel row L2 are added according to the method described above, and the pixel addition output data obtained by this is obtained. As described above, the addition of the output data of the first focus detection pixel line L1 and the output data of the second focus detection pixel line L2 is performed by the calculation unit provided in the imaging device 22 instead of the camera control unit 21. It is good also as composition performed by.

ステップS3では、上述した方法にしたがって、ステップS2で算出した画素加算出力データに基づき、第1焦点検出画素222aに基づく第1像データ列IA1,IA2,IA3,...,IAnと、第2焦点検出画素222bに基づく第2像データ列IB1,IB2,IB3,...,IBnとを得て、これらを用いて、上記式(1)にしたがって、シフト量演算を行い、相関量C(k)が極小値が得られるシフト量xを求めるシフト演算が行われる。なお、この際においては、必要に応じて内挿演算を行うような構成としてもよい。 In step S3, based on the pixel addition output data calculated in step S2 according to the above-described method, the first image data strings I A1 , I A2 , I A3,. . . , I An and a second image data string I B1 , I B2 , I B3 ,... Based on the second focus detection pixel 222 b. . . , I Bn and using them, the shift amount calculation is performed according to the above equation (1), and the shift calculation is performed to obtain the shift amount x at which the correlation amount C (k) can obtain the minimum value. In this case, an interpolation operation may be performed as necessary.

次いで、ステップS4では、ステップS3で求めた相関量C(k)が極小値が得られるシフト量xに基づき、上記式(2)にしたがって、デフォーカス量を求める。そして、求めたデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。   Next, in step S4, the defocus amount is determined according to the above equation (2) based on the shift amount x at which the correlation amount C (k) determined in step S3 is obtained as the minimum value. Then, based on the determined defocus amount, calculation of the drive amount of the focus lens 32 and drive of the focus lens 32 are performed.

以上のようにして、光学系の焦点検出が行われる。   As described above, focus detection of the optical system is performed.

本実施形態においては、撮像素子22を、第1焦点検出画素列L1および第2焦点検出画素列L2を備えるものとし、かつ、各画素列を構成する第1焦点検出画素222aと、第2焦点検出画素222bとを0.5画素分ずらした位置に配置し、これらの画素出力を加算することにより得られる画素加算出力を用いるものである。そして、本実施形態によれば、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができるものである。   In the present embodiment, the imaging element 22 includes the first focus detection pixel line L1 and the second focus detection pixel line L2, and the first focus detection pixels 222a constituting each pixel line and the second focus The detection pixel 222 b is disposed at a position shifted by 0.5 pixel, and a pixel addition output obtained by adding these pixel outputs is used. Then, according to the present embodiment, it is possible to accurately obtain the shift amount at which the correlation amount C (k) gives the minimum value in the in-focus state (the state in which the defocus amount is zero). Can be properly enhanced.

《第2実施形態》
次いで、本発明の第2実施形態について説明する。第2実施形態では、図1に示すカメラ1において、以下に説明するような構成を備え、かつ、以下に説明するように動作する以外は、上述した第1実施形態と同様の構成を有するものである。
Second Embodiment
Next, a second embodiment of the present invention will be described. In the second embodiment, the camera 1 shown in FIG. 1 has the same configuration as that of the first embodiment described above except that it has the configuration as described below and operates as described below. It is.

すなわち、第2実施形態においては、撮像素子として、図10に示すような構成を有する撮像素子22aを備える以外は、上述した第1実施形態と同様の構成を有する。図10に示すように、第2実施形態に係る撮像素子22aは、第1焦点検出画素列L1、第2焦点検出画素列L2に加えて、第3焦点検出画素列L3、第4焦点検出画素列L4を備えるものである。そして、図10に示すように、各焦点検出画素列L1〜L4を構成する第1焦点検出画素222aおよび第2焦点検出画素222bの配列に関し、第1焦点検出画素列L1と、第3焦点検出画素列L3とで同じ配列となっており、また、第2焦点検出画素列L2と、第4焦点検出画素列L4とで同じ配列となっている。   That is, the second embodiment has the same configuration as that of the above-described first embodiment except that an imaging device 22a having a configuration as shown in FIG. 10 is provided as an imaging device. As shown in FIG. 10, in addition to the first focus detection pixel row L1 and the second focus detection pixel row L2, the imaging element 22a according to the second embodiment includes a third focus detection pixel row L3 and a fourth focus detection pixel. A row L4 is provided. Then, as shown in FIG. 10, regarding the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b constituting each of the focus detection pixel lines L1 to L4, the first focus detection pixel line L1 and the third focus detection The pixel array L3 has the same array, and the second focus detection pixel array L2 and the fourth focus detection pixel array L4 have the same array.

次いで、第2実施形態における画素加算出力の算出方法について、図11を参照して説明を行う。図11は、図10に示す撮像素子22aの撮像面から撮像画素221を除き、4つの焦点検出画素列L1〜L4を構成する第1焦点検出画素222aおよび第2焦点検出画素222bのみを模式的に示した図である。   Next, a method of calculating the pixel addition output in the second embodiment will be described with reference to FIG. FIG. 11 schematically shows only the first focus detection pixel 222a and the second focus detection pixel 222b constituting the four focus detection pixel rows L1 to L4 except the imaging pixel 221 from the imaging surface of the imaging element 22a shown in FIG. FIG.

第2実施形態においては、4つの焦点検出画素列L1〜L4のうち、これらの並びの中央付近に位置する第2焦点検出画素列L2の画素出力と、第3焦点検出画素列L3の画素出力とを加算することにより、得られる2画素加算出力と、4つの焦点検出画素列L1〜L4の画素出力を加算することにより得られる4画素加算出力と算出する。   In the second embodiment, of the four focus detection pixel lines L1 to L4, the pixel output of the second focus detection pixel line L2 located near the center of these lines and the pixel output of the third focus detection pixel line L3. To calculate the 4-pixel addition output obtained by adding the 2-pixel addition output obtained and the pixel outputs of the four focus detection pixel arrays L1 to L4.

具体的には、2画素加算出力は、次のようにして得られる。すなわち、図11に示す第2焦点検出画素列L2の画素A1L2の出力と、第3焦点検出画素列L3を構成する画素のうち、これと同じ測距瞳を通過する焦点検出光束を受光した画素A1L3の出力とを加算し、画素加算出力IA1を得る。同様に、第2焦点検出画素列L2の画素B1L2の出力と、第3焦点検出画素列L3を構成する画素のうち、これと同じ測距瞳を通過する焦点検出光束を受光した画素B1L3の出力とを加算し、画素加算出力IB1を得る。以下、同様に、A2L2とA2L3の出力からIA2、B2L2とB2L3の出力からIB2、A3L2とA3L3の出力からIA3、B3L2とB3L3の出力からIB3を得る。これにより、2画素加算出力が得られる。 Specifically, the two-pixel addition output is obtained as follows. That is, the focus detection light flux passing through the same focusing pupil as that of the output of the pixel A1 L2 of the second focus detection pixel row L2 and the pixels constituting the third focus detection pixel row L3 shown in FIG. The output of the pixel A1 L3 is added to obtain a pixel addition output I A1 . Similarly, among the pixels constituting the output of the pixel B1 L2 of the second focus detection pixel row L2 and the pixels constituting the third focus detection pixel row L3, the pixel B1 L3 receiving the focus detection light flux passing through the same distance measurement pupil And the output of the pixel addition circuit to obtain a pixel addition output I.sub.B1 . Hereinafter, likewise, obtain A2 L2 and A2 I A2 from the output of L3, B2 L2 and B2 L3 I B2 from the output of, A3 L2 and A3 I A3 from the output of L3, B3 L2 and B3 L3 I B3 from the output of . Thereby, a 2-pixel addition output is obtained.

また、4画素加算出力は、次のようにして得られる。すなわち、第1焦点検出画素列L1の画素A1L1、第2焦点検出画素列L2の画素A1L2、第3焦点検出画素列L3の画素A1L3、および第4焦点検出画素列L4の画素A1L4の4つの画素出力を加算することにより、画素加算出力IA1を得る。同様に、第1焦点検出画素列L1の画素B1L1、第2焦点検出画素列L2の画素B1L2、第3焦点検出画素列L3の画素B1L3、および第4焦点検出画素列L4の画素B1L4の4つの画素出力を加算することにより、画素加算出力IA1を得る。以下、同様に、A2L1とA2L2とA2L3とA2L4の出力からIA2、B2L1とB2L2とB2L3とB2L4の出力からIB2、A3L1とA3L2とA3L3とA3L4の出力からIA3、B3L1とB3L2とB3L3とB3L4の出力からIB3を得る。これにより、4画素加算出力が得られる。 Further, the 4-pixel addition output is obtained as follows. That is, the pixel A1 L1 of the first focus detection pixel row L1, the pixel A1 L2 of the second focus detection pixel row L2, the pixel A1 L3 of the third focus detection pixel row L3 , and the pixel A1 L4 of the fourth focus detection pixel row L4. The pixel addition output I A1 is obtained by adding the four pixel outputs of Similarly, the pixel B1 L1 of the first focus detection pixel row L1, the pixel B1 L2 of the second focus detection pixel row L2, the pixel B1 L3 of the third focus detection pixel row L3 , and the pixel B1 of the fourth focus detection pixel row L4. A pixel addition output I A1 is obtained by adding the four pixel outputs of L4 . Similarly, from the outputs of A2 L1 and A2 L2 and A2 L3 and A2 L4 , the outputs of I A2 , B2 L1 and B2 L2 and B2 L3 and B2 L4 from I B2 , A3 L1 and A3 L2 and A3 L3 and A3 L4 I B3 is obtained from the outputs of I A3 , B3 L1 , B3 L2 , B3 L3 and B3 L4 . Thereby, 4-pixel addition output is obtained.

次いで、第2実施形態におけるカメラ1の動作例を、図12に示すフローチャートに沿って説明する。   Next, an operation example of the camera 1 in the second embodiment will be described along the flowchart shown in FIG.

まず、ステップS101では、図9に示すステップS1と同様に、カメラ制御部21により、撮像素子22を構成する撮像画素221、ならびに第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。   First, in step S101, as in step S1 shown in FIG. 9, the camera control unit 21 outputs the output data of the imaging pixel 221 and the first focus detection pixel 222a and the second focus detection pixel 222b that constitute the imaging device 22. Acquisition is performed.

次いで、ステップS102では、カメラ制御部21により、上述した方法にしたがって、ステップS1で取得した第1焦点検出画素222aおよび第2焦点検出画素222bについて、画素加算を行うことで、2画素加算出力および4画素加算出力の算出が行われる。なお、2画素加算出力および4画素加算出力の算出は、カメラ制御部21に代えて、撮像素子22aに備えられた演算部により行うような構成としてもよい。   Next, in step S102, the camera control unit 21 performs pixel addition on the first focus detection pixel 222a and the second focus detection pixel 222b acquired in step S1 in accordance with the above-described method, thereby performing 2-pixel addition output and Calculation of 4-pixel addition output is performed. The calculation of the 2-pixel addition output and the 4-pixel addition output may be performed by an operation unit provided in the imaging device 22a instead of the camera control unit 21.

ステップS103では、ステップS102で算出された2画素加算出力について、信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判定が行われる。なお、この際に使用される所定の判定閾値は、2画素加算出力が、焦点検出を行うのに十分な信号レベルおよびコントラストレベルを備えているか否かを判定できるような値に設定される。   In step S103, it is determined whether the signal level and the contrast level of the two-pixel addition output calculated in step S102 are equal to or greater than a predetermined determination threshold. The predetermined determination threshold used at this time is set to a value that can determine whether the 2-pixel addition output has a signal level and a contrast level sufficient to perform focus detection.

ステップS104では、ステップS103における判定の結果、2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判断、すなわち、2画素加算出力が、焦点検出を行うのに十分な信号レベルおよびコントラストレベルを備えているか否かの判断が行われる。2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値以上である場合には、ステップS105に進み、ステップS105において、焦点検出演算に用いる出力として、2画素加算出力を選択する。一方、2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値未満であった場合には、ステップS106に進み、ステップS106において、焦点検出演算に用いる出力として、4画素加算出力を選択する。   In step S104, as a result of the determination in step S103, it is determined whether the signal level of the 2-pixel addition output and the contrast level are equal to or greater than a predetermined determination threshold, ie, the 2-pixel addition output is sufficient to perform focus detection. A determination is made as to whether or not the signal level and the contrast level are provided. If the signal level of the 2-pixel addition output and the contrast level are equal to or higher than the predetermined determination threshold, the process proceeds to step S105, and in step S105, the 2-pixel addition output is selected as an output used for focus detection calculation. On the other hand, when the signal level and the contrast level of the 2-pixel addition output are less than the predetermined determination threshold, the process proceeds to step S106, and the 4-pixel addition output is selected as the output used for the focus detection calculation in step S106.

次いで、ステップS107に進み、ステップS107では、ステップS105またはステップS106で選択された画素加算出力(すなわち、2画素加算出力または4画素加算出力)を用いて、第1焦点検出画素222aに基づく第1像データ列IA1,IA2,IA3,...,IAnと、第2焦点検出画素222bに基づく第2像データ列IB1,IB2,IB3,...,IBnとを得て、これらを用いて、上記式(1)にしたがって、シフト量演算を行い、相関量C(k)が極小値が得られるシフト量xを求めるシフト演算が行われる。なお、この際においては、必要に応じて内挿演算を行うような構成としてもよい。 Next, the process proceeds to step S107, and in step S107, using the pixel addition output (ie, 2-pixel addition output or 4-pixel addition output) selected in step S105 or step S106, the first focus detection pixel 222a is selected. Image data sequences I A1 , I A2 , I A3,. . . , I An and a second image data string I B1 , I B2 , I B3 ,... Based on the second focus detection pixel 222 b. . . , I Bn and using them, the shift amount calculation is performed according to the above equation (1), and the shift calculation is performed to obtain the shift amount x at which the correlation amount C (k) can obtain the minimum value. In this case, an interpolation operation may be performed as necessary.

次いで、ステップS108に進み、ステップS108では、ステップS107で求めた相関量C(k)が極小値が得られるシフト量xに基づき、上記式(2)にしたがって、デフォーカス量を求める。そして、求めたデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。   Next, the process proceeds to step S108, where the defocus amount is determined according to the above equation (2) based on the shift amount x at which the correlation amount C (k) obtained in step S107 obtains the minimum value. Then, based on the determined defocus amount, calculation of the drive amount of the focus lens 32 and drive of the focus lens 32 are performed.

以上のようにして、光学系の焦点検出が行われる。   As described above, focus detection of the optical system is performed.

第2実施形態によれば、撮像素子22aを、4つの焦点検出画素列L1〜L4を備えるものとし、かつ、各画素列を構成する第1焦点検出画素222aと、第2焦点検出画素222bとを0.5画素分ずらした位置に配置し、これらの画素出力を加算することにより2画素加算出力および4画素加算出力を得るものである。そして、第2実施形態によれば、これら2画素加算出力および4画素加算出力のうち、一方を、信号レベルおよびコントラストレベルに基づいて選択するものであり、これにより、焦点検出精度をより適切に高めることができるものである。すなわち、2画素加算出力でも、十分な信号レベルおよびコントラストレベルを備える場合には、比較的近くに位置している第2焦点検出画素列L2および第3焦点検出画素列L3の画素出力を加算することにより得られた2画素加算出力を用いることにより、画素列間で得られる出力パターンの差による影響を極めて低いものとすることができる。あるいは、第2実施形態によれば、2画素加算出力では、信号レベルまたはコントラストレベルが不十分な場合に、4画素加算出力を用いることにより、信号レベルおよびコントラストレベルを高めることができ、これにより、焦点検出精度をより適切に向上させることができる。   According to the second embodiment, the imaging element 22a includes four focus detection pixel rows L1 to L4, and the first focus detection pixel 222a and the second focus detection pixel 222b that constitute each pixel row Are arranged at positions shifted by 0.5 pixel, and these two pixel outputs are added to obtain a 2-pixel addition output and a 4-pixel addition output. Then, according to the second embodiment, one of the two-pixel addition output and the four-pixel addition output is selected based on the signal level and the contrast level, whereby the focus detection accuracy can be made more appropriately. It can be enhanced. That is, when two-pixel addition output also has sufficient signal level and contrast level, the pixel outputs of the second focus detection pixel row L2 and the third focus detection pixel row L3 located relatively close are added Therefore, the influence of the difference in output pattern obtained between pixel columns can be made extremely low by using the two-pixel addition output obtained thereby. Alternatively, according to the second embodiment, in the 2-pixel addition output, when the signal level or the contrast level is insufficient, the signal level and the contrast level can be increased by using the 4-pixel addition output, thereby The focus detection accuracy can be more appropriately improved.

なお、上記においては、2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判定、ならびに、焦点検出に用いる画素加算出力として、2画素加算出力および4画素加算出力のいずれを用いるかについての判定を、カメラ制御部21で行う構成を例示したが、これらは撮像素子22aで行ってもよい。   In the above, it is determined whether the signal level of the 2-pixel addition output and the contrast level are equal to or more than a predetermined determination threshold, and 2-pixel addition output and 4-pixel addition output as pixel addition output used for focus detection. Although the configuration in which the camera control unit 21 performs the determination as to which of the above is used is illustrated, these may be performed by the imaging element 22a.

また、上記においては、2画素加算出力を算出する際に、第2焦点検出画素列L2および第3焦点検出画素列L3の画素出力を用いる構成を例示したが、第1焦点検出画素列L1および第2焦点検出画素列L2の画素出力を用いるような構成としてもよいし、あるいは、第3焦点検出画素列L3および第4焦点検出画素列L4の画素出力を用いるような構成としてもよい。   In the above description, the pixel output of the second focus detection pixel row L2 and the third focus detection pixel row L3 is used to calculate the two-pixel addition output, but the first focus detection pixel row L1 and the first focus detection pixel row L1 The pixel output of the second focus detection pixel row L2 may be used, or the pixel output of the third focus detection pixel row L3 and the fourth focus detection pixel row L4 may be used.

さらに、4画素加算出力を算出する際には、各焦点検出画素列の画素出力について、寄与度を調整するために、重み付け処理を行ってもよい。すなわち、たとえば、4つの焦点検出画素列L1〜L4のうち、これらの並びの中心付近に位置する焦点検出画素列L2,L3について、焦点検出画素列L1,L4と比較して、得られる4画素加算出力を算出する際の寄与度が高くなるように、画素出力に対して重み付けを行い、これを加算するような構成とすることができる。   Furthermore, when calculating the 4-pixel addition output, weighting processing may be performed on the pixel output of each focus detection pixel column in order to adjust the degree of contribution. That is, for example, among the four focus detection pixel lines L1 to L4, four focus detection pixel lines L2 and L3 located near the center of these lines are obtained as compared with the focus detection pixel lines L1 and L4. The pixel outputs can be weighted and added so as to increase the degree of contribution when calculating the addition output.

《第3実施形態》
次いで、本発明の第3実施形態について説明する。第3実施形態では、第2実施形態と同様の構成を有するカメラ1において、以下に説明するように動作する以外は、上述した第2実施形態と同様の構成を有するものである。
Third Embodiment
Next, a third embodiment of the present invention will be described. In the third embodiment, the camera 1 having the same configuration as that of the second embodiment has the same configuration as that of the above-described second embodiment except that it operates as described below.

以下、第3実施形態におけるカメラ1の動作例を、図13に示すフローチャートに沿って説明する。   Hereinafter, an operation example of the camera 1 in the third embodiment will be described along the flowchart shown in FIG.

まず、ステップS201、S202では、図12に示すステップS101、S102と同様に、カメラ制御部21により、撮像素子22を構成する撮像画素221、第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得、ならびに、2画素加算出力および4画素加算出力の算出が行われる。   First, in steps S201 and S202, as in steps S101 and S102 shown in FIG. 12, the camera control unit 21 controls the imaging pixel 221, the first focus detection pixel 222a, and the second focus detection pixel 222b that constitute the imaging device 22. Acquisition of output data and calculation of 2-pixel addition output and 4-pixel addition output are performed.

次いで、ステップS203では、ステップS201で取得された各焦点検出画素列L1〜L4の焦点検出画素出力(すなわち、画素加算を行っていない出力)、およびステップS102で算出された2画素加算出力について、信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判定が行われる。なお、この際に用いる判定閾値は、各焦点検出画素列L1〜L4の焦点検出画素出力と、2画素加算出力とで同じ判定閾値を用いてもよいが、異なる判定閾値を用いることが好ましく、異なる判定閾値を用いる場合には、焦点検出精度の確保という点より、2画素加算出力よりも、画素加算を行っていない各焦点検出画素列L1〜L4の焦点検出画素出力の方が高い閾値を用いることが望ましい。   Next, in step S203, the focus detection pixel outputs (that is, the outputs not subjected to pixel addition) of the focus detection pixel arrays L1 to L4 acquired in step S201, and the 2-pixel addition output calculated in step S102, A determination is made as to whether the signal level and the contrast level are above a predetermined determination threshold. As the determination threshold used in this case, the same determination threshold may be used for the focus detection pixel output of each of the focus detection pixel arrays L1 to L4 and the 2-pixel addition output, but it is preferable to use different determination thresholds, When different determination threshold values are used, the focus detection pixel output of each of the focus detection pixel rows L1 to L4 not subjected to pixel addition has a threshold value higher than that of 2-pixel addition output in terms of securing focus detection accuracy. It is desirable to use.

ステップS204では、ステップS203における判定の結果、ステップS201で取得された各焦点検出画素列L1〜L4の焦点検出画素出力(すなわち、画素加算を行っていない出力)の信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判断、すなわち、各焦点検出画素列L1〜L4の焦点検出画素出力が、焦点検出を行うのに十分な信号レベルおよびコントラストレベルを備えているか否かの判断が行われる。各焦点検出画素列L1〜L4の焦点検出画素出力の信号レベルおよびコントラストレベルが所定の判定閾値以上である場合には、ステップS205に進み、ステップS205において、焦点検出画素列L1〜L4のうち、最もコントラストレベルの高い焦点検出画素列の画素出力を、焦点検出演算に用いる出力として選択する。   In step S204, as a result of the determination in step S203, the signal level and the contrast level of the focus detection pixel output (that is, the output not subjected to pixel addition) of each of the focus detection pixel arrays L1 to L4 acquired in step S201 are predetermined. It is determined whether the focus detection pixel output of each of the focus detection pixel arrays L1 to L4 has a signal level and a contrast level sufficient to perform focus detection. To be done. If the signal level and the contrast level of the focus detection pixel output of each of the focus detection pixel lines L1 to L4 are equal to or more than the predetermined determination threshold, the process proceeds to step S205, and in step S205, of the focus detection pixel lines L1 to L4 The pixel output of the focus detection pixel row having the highest contrast level is selected as the output used for the focus detection calculation.

一方、ステップS204において、各焦点検出画素列L1〜L4の焦点検出画素出力の信号レベルおよびコントラストレベルが所定の判定閾値未満であると判定された場合には、ステップS206に進。ステップS206では、図12に示すステップS104と同様に、2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値以上であるか否かの判断、すなわち、2画素加算出力が、焦点検出を行うのに十分な信号レベルおよびコントラストレベルを備えているか否かの判断が行われる。2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値以上である場合には、ステップS207に進み、焦点検出演算に用いる出力として、2画素加算出力を選択する。一方、2画素加算出力の信号レベルおよびコントラストレベルが所定の判定閾値未満であった場合には、ステップS208に進み、焦点検出演算に用いる出力として、4画素加算出力を選択する。   On the other hand, when it is determined in step S204 that the signal level and the contrast level of the focus detection pixel output of each of the focus detection pixel rows L1 to L4 are less than the predetermined determination threshold, the process proceeds to step S206. In step S206, as in step S104 shown in FIG. 12, it is determined whether the signal level of the 2-pixel addition output and the contrast level are equal to or greater than a predetermined determination threshold, that is, 2-pixel addition output performs focus detection. A determination is made as to whether it has sufficient signal levels and contrast levels. If the signal level of the 2-pixel addition output and the contrast level are equal to or more than the predetermined determination threshold, the process proceeds to step S207, and the 2-pixel addition output is selected as an output used for focus detection calculation. On the other hand, if the signal level and the contrast level of the two-pixel addition output are less than the predetermined determination threshold, the process proceeds to step S208, and the four-pixel addition output is selected as an output used for focus detection calculation.

次いで、ステップS209に進み、図12に示すステップS107と同様に、選択された画素出力(すなわち、最もコントラストレベルの高い焦点検出画素列の画素出力、または、2画素加算出力もしくは4画素加算出力)を用いて、シフト量演算が行われた後、ステップS210に進み、図12に示すステップS108と同様に、デフォーカス量の算出が行われる。   Next, the process proceeds to step S209, and the selected pixel output (that is, the pixel output of the focus detection pixel column having the highest contrast level, or the 2-pixel addition output or the 4-pixel addition output) as in step S107 shown in FIG. After the shift amount calculation has been performed using the above, the process proceeds to step S210, where the defocus amount is calculated as in step S108 shown in FIG.

第3実施形態によれば、画素加算されてない各焦点検出画素列L1〜L4の焦点検出画素出力でも、十分な信号レベルおよびコントラストレベルが確保されている場合には、画素加算されてない画素出力を用いることにより、素列間で得られる出力パターンの差による影響を抑えることが可能となる。   According to the third embodiment, even if the focus detection pixel output of each of the focus detection pixel arrays L1 to L4 not subjected to the pixel addition has a sufficient signal level and contrast level secured, the pixels not subjected to the pixel addition By using the output, it is possible to suppress the influence of the difference in output pattern obtained between the elementary strings.

《第4実施形態》
次いで、本発明の第4実施形態について説明する。第4実施形態では、図1に示すカメラ1において、以下に説明するような構成を備え、かつ、以下に説明するように動作する以外は、上述した第1実施形態と同様の構成を有するものである。
Fourth Embodiment
Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, the camera 1 shown in FIG. 1 has the same configuration as that of the first embodiment described above except that it has the configuration as described below and operates as described below. It is.

第4実施形態においては、撮像素子として、図14に示すような構成を有する撮像素子22bを備える以外は、上述した第1実施形態と同様の構成を有する。図14に示すように、第4実施形態に係る撮像素子22bは、第1焦点検出画素列L1、第2焦点検出画素列L2に加えて、第3焦点検出画素列L3を備える。そして、図14に示すように、第1焦点検出画素222aおよび第2焦点検出画素222bの配列に関し、第1焦点検出画素列L1と第3焦点検出画素列L3とは同じ配列となっている。一方、第2焦点検出画素列L2は、第1焦点検出画素列L1および第3焦点検出画素列L3に対して、X軸方向において、第1焦点検出画素222aおよび第2焦点検出画素222bが0.5画素ずれた位置に存在する。   The fourth embodiment has the same configuration as that of the above-described first embodiment except that an imaging device 22b having a configuration as shown in FIG. 14 is provided as an imaging device. As shown in FIG. 14, the imaging element 22 b according to the fourth embodiment includes a third focus detection pixel row L <b> 3 in addition to the first focus detection pixel row L <b> 1 and the second focus detection pixel row L <b> 2. Then, as shown in FIG. 14, regarding the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b, the first focus detection pixel row L1 and the third focus detection pixel row L3 are arranged in the same manner. On the other hand, in the second focus detection pixel row L2, the first focus detection pixels 222a and the second focus detection pixels 222b are 0 in the X-axis direction with respect to the first focus detection pixel row L1 and the third focus detection pixel row L3. .5 Pixels are offset.

次いで、第4実施形態における画素加算出力の算出方法について、図15を参照して説明を行う。図15は、図14に示す撮像素子22bの撮像面から撮像画素221を除き、3つの焦点検出画素列L1〜L3を構成する第1焦点検出画素222aおよび第2焦点検出画素222bのみを模式的に示した図である。   Next, the method of calculating the pixel addition output in the fourth embodiment will be described with reference to FIG. FIG. 15 schematically shows only the first focus detection pixel 222a and the second focus detection pixel 222b constituting the three focus detection pixel rows L1 to L3 except for the imaging pixel 221 from the imaging surface of the imaging element 22b shown in FIG. FIG.

第4実施形態においては、3つの焦点検出画素列L1〜L3の画素出力を、所定の重み(所定の寄与度)を付して加算することで、画素加算出力を算出する。具体的には、第1焦点検出画素列L1と第3焦点検出画素列L3とが同じ配列となっているため、配列の異なる画素出力(第1焦点検出画素列L1および第3焦点検出画素列L3の画素加算出力と、第2焦点検出画素列L2の画素出力と)が同じ大きさとなるように、第1焦点検出画素列L1および第3焦点検出画素列L3の画素出力の寄与度を、たとえば0.5に設定し、第2焦点検出画素列L2の画素出力の寄与度を、たとえば1に設定する。これにより、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3の画素出力の画素出力をそれぞれ1:2:1の比率で重み付けすることができ、重み付けした画素出力を加算することで、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3の画素出力の画素出力をそれぞれ1:2:1の比率で重み付けした画素加算出力を得ることができる。   In the fourth embodiment, the pixel outputs of three focus detection pixel arrays L1 to L3 are added by adding predetermined weights (predetermined degrees of contribution) to calculate pixel addition outputs. Specifically, since the first focus detection pixel row L1 and the third focus detection pixel row L3 are arranged in the same arrangement, the pixel outputs different in arrangement (first focus detection pixel row L1 and third focus detection pixel row The contribution of the pixel outputs of the first focus detection pixel row L1 and the third focus detection pixel row L3 is set so that the pixel addition output of L3 and the pixel output of the second focus detection pixel row L2 have the same size, For example, it is set to 0.5, and the contribution of the pixel output of the second focus detection pixel line L2 is set to 1, for example. Thus, the pixel outputs of the pixel outputs of the first focus detection pixel row L1, the second focus detection pixel row L2, and the third focus detection pixel row L3 can be weighted at a ratio of 1: 2: 1, respectively. Pixel outputs in which the pixel outputs of the first focus detection pixel row L1, the second focus detection pixel row L2, and the third focus detection pixel row L3 are respectively weighted by a ratio of 1: 2: 1 by adding the pixel outputs An addition output can be obtained.

たとえば、図15に示す例では、第1焦点検出画素列L1の画素A1L1の出力と、第2焦点検出画素列L2の画素A1L2の出力と、第3焦点検出画素列L3の画素A1L3の出力とを1:2:1の比率で重み付けして加算し、画素加算出力IA1を得る。同様に、第2焦点検出画素列L1の画素B1L1の出力と、第2焦点検出画素列L2の画素B1L2の出力と、第3焦点検出画素列L3の画素B1L3の出力とをそれぞれ1:2:1の比率で重み付けして加算し、画素加算出力IB1を得る。以下、同様に、A2L1とA2L2とA2L3の出力を1:2:1の比率で重み付けして加算することで画素加算出力IA2を、B2L1とB2L2とB2L3の出力を1:2:1の比率で重み付けして加算することで画素加算出力IB2を、A3L1とA3L2とA3L3の出力を1:2:1の比率で重み付けして加算することで画素加算出力IA3を、B3L1とB3L2とB3L3の出力を1:2:1の比率で重み付けして加算することで画素加算出力IB3を得る。なお、画素出力の重み付けは、カメラ制御部21が行ってもよいし、撮像素子22aに備えられた演算部により行う構成としてもよい。 For example, in the example shown in FIG. 15, the output of the pixel A1 L1 of the first focus detection pixel column L1, the output of the pixel A1 L2 of the second focus detection pixel column L2, and the pixel A1 L3 of the third focus detection pixel column L3. And weighted at a ratio of 1: 2: 1 to obtain a pixel addition output I A1 . Similarly, the output of the pixel B1 L1 of the second focus detection pixel row L1, the output of the pixel B1 L2 of the second focus detection pixel row L2, and the output of the pixel B1 L3 of the third focus detection pixel row L3 are respectively 1 Weighted and added at a ratio of 2: 1 to obtain a pixel addition output I B1 . Hereinafter, similarly, 1 the output of A2 L1 and A2 L2 and A2 L3: 2: pixel addition output I A2 by adding weighted 1 ratio, B2 L1 and B2 L2 and B2 L3 of the output 1 : Adds the pixel addition output I B2 by weighting at a ratio of 2: 1 and adds the outputs of A3 L1 , A3 L2 and A3 L3 at a ratio of 1: 2: 1 and adds the pixel addition output the I A3, 1 the output of B3 L1 and B3 L2 and B3 L3: 2: get pixel addition output I B3 by adding weighted 1 ratio. Note that weighting of the pixel output may be performed by the camera control unit 21 or may be performed by an operation unit provided in the imaging device 22a.

次いで、第4実施形態におけるカメラ1の動作例を、図16に示すフローチャートに沿って説明する。   Next, an operation example of the camera 1 in the fourth embodiment will be described along the flowchart shown in FIG.

まず、ステップS301では、カメラ制御部21により、撮像素子22を構成する撮像画素221、ならびに、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3をそれぞれ構成する第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。   First, in step S301, the camera control unit 21 configures the imaging pixels 221 constituting the imaging device 22, and the first focus detection pixel row L1, the second focus detection pixel row L2, and the third focus detection pixel row L3. Output data of the first focus detection pixel 222a and the second focus detection pixel 222b is acquired.

次いで、ステップS302では、カメラ制御部21により、ステップS301で取得された第1〜第3焦点検出画素列L1〜L3の第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力について重み付けが行われる。たとえば、カメラ制御部21は、第1焦点検出画素列L1および第3焦点検出画素列L3の第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力について寄与度0.25をそれぞれ乗じ、第2焦点検出画素列L2の第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力について寄与度0.5を乗じることで、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3の画素出力をそれぞれ1:2:1の比率で重み付けを行う。   Next, in step S302, the camera control unit 21 weights the pixel outputs of the first focus detection pixels 222a and the second focus detection pixels 222b of the first to third focus detection pixel arrays L1 to L3 acquired in step S301. To be done. For example, the camera control unit 21 multiplies the contribution of 0.25 for the pixel outputs of the first focus detection pixel 222a and the second focus detection pixel 222b of the first focus detection pixel row L1 and the third focus detection pixel row L3, respectively. The first focus detection pixel row L1 and the second focus detection pixel row L2 are obtained by multiplying the pixel outputs of the first focus detection pixel 222a and the second focus detection pixel 222b of the second focus detection pixel row L2 by the degree of contribution 0.5. The pixel outputs of the third focus detection pixel line L3 are weighted at a ratio of 1: 2: 1, respectively.

ステップS303では、ステップS302で重み付けされた画素出力の加算が行われる。そして、ステップS304では、ステップS303で加算された画素加算出力に基づいて、シフト量の演算が行われ、その後、ステップS305に進み、算出されたシフト量に基づいて、デフォーカス量の算出が行われる。なお、シフト量およびデフォーカス量の演算は、第1実施形態のステップS3およびステップS4と同様に行うことができる。   In step S303, addition of the pixel output weighted in step S302 is performed. Then, in step S304, calculation of the shift amount is performed based on the pixel addition output added in step S303, and then the process proceeds to step S305, and calculation of the defocus amount is performed based on the calculated shift amount. It will be. The calculation of the shift amount and the defocus amount can be performed in the same manner as step S3 and step S4 of the first embodiment.

以上のようにして、光学系の焦点検出が行われる。   As described above, focus detection of the optical system is performed.

第4実施形態によれば、撮像素子22aを、3つの焦点検出画素列L1〜L3を備えるものとし、かつ、各画素列を構成する第1焦点検出画素222aと、第2焦点検出画素222bとを0.5画素分ずらした位置に配置し、これらの画素出力を加算することにより画素加算出力を得るものである。特に、第4実施形態では、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3の画素出力をそれぞれ1:2:1の比率で重み付けして加算することで、図7に示すように、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができるものである。   According to the fourth embodiment, the imaging element 22a includes the three focus detection pixel rows L1 to L3 and the first focus detection pixel 222a and the second focus detection pixel 222b that constitute each pixel row. Are arranged at a position shifted by 0.5 pixel, and the pixel output is obtained by adding these pixel outputs. In particular, in the fourth embodiment, the pixel outputs of the first focus detection pixel row L1, the second focus detection pixel row L2, and the third focus detection pixel row L3 are respectively weighted and added at a ratio of 1: 2: 1. Then, as shown in FIG. 7, in the in-focus state (the defocus amount is zero), it is possible to accurately obtain the shift amount at which the correlation amount C (k) gives the local minimum value. Can be properly enhanced.

《第5実施形態》
次いで、本発明の第5実施形態について説明する。第5実施形態では、図1に示すカメラ1において、以下に説明するように動作する以外は、上述した第1実施形態と同様の構成を有するものである。ここで、図17は、第5実施形態に係るカメラ1の動作例を示すフローチャートである。以下、図17を参照して、第5実施形態に係るカメラ1の動作を説明する。
Fifth Embodiment
Next, a fifth embodiment of the present invention will be described. In the fifth embodiment, the camera 1 shown in FIG. 1 has the same configuration as that of the above-described first embodiment except that it operates as described below. Here, FIG. 17 is a flowchart showing an operation example of the camera 1 according to the fifth embodiment. The operation of the camera 1 according to the fifth embodiment will be described below with reference to FIG.

まず、ステップS401では、カメラ制御部21により、操作部28に備えられたシャッターレリーズボタンの半押し(第1スイッチSW1のオン)がされたかどうかの判断が行なわれる。第1スイッチSW1がオンした場合は、ステップS402に進む。一方、第1スイッチSW1がオンされていない場合は、第1スイッチSW1がオンされるまで、ステップS401で待機する。   First, in step S401, the camera control unit 21 determines whether the shutter release button provided on the operation unit 28 has been half-pressed (the first switch SW1 is turned on). If the first switch SW1 is turned on, the process proceeds to step S402. On the other hand, when the first switch SW1 is not turned on, the process waits in step S401 until the first switch SW1 is turned on.

ステップS402では、焦点検出処理の起動時であると判断され、カメラ制御部21により、画素加算フラグがオフに設定される。このように、本実施形態では、焦点検出処理の起動時に、第1焦点検出画素列L1および第2焦点検出画素列L2の画素出力の加算が行われないように、画素加算フラグをオフに設定する。ここで、被写体にピントが合っていない場合には、第1焦点検出画素列L1の画素出力および第2焦点検出画素列L2の画素出力において、低周波成分が検出されやすい。さらに、被写体像のボケ量が大きい場合には、第1焦点検出画素列L1の画素出力と第2焦点検出画素列L2の画素出力とを加算してしまうと、加算した画素出力の周波数成分が、第1焦点検出画素列L1の周波数成分の波形、および、第2焦点検出画素列L2の周波数成分の波形よりも平滑化(低周波数化)してしまい、被写体の検出がより困難となってしまう。そのため、焦点検出処理の起動時であり、被写体にピントが合っておらず、ボケ量が大きくなる可能性が高い場合には、画素加算フラグをオフに設定することで、被写体の検出精度を高めることができる。   In step S402, it is determined that the focus detection process is activated, and the camera control unit 21 sets the pixel addition flag to off. As described above, in this embodiment, the pixel addition flag is set to OFF so that the addition of the pixel outputs of the first focus detection pixel row L1 and the second focus detection pixel row L2 is not performed at the start of focus detection processing. Do. Here, when the subject is not in focus, low frequency components are easily detected in the pixel output of the first focus detection pixel row L1 and the pixel output of the second focus detection pixel row L2. Furthermore, when the amount of blurring of the subject image is large, when the pixel output of the first focus detection pixel row L1 and the pixel output of the second focus detection pixel row L2 are added, the frequency component of the added pixel output is The waveform of the frequency component of the first focus detection pixel row L1 and the waveform of the frequency component of the second focus detection pixel row L2 are smoothed (frequency reduction), and detection of the object becomes more difficult. I will. Therefore, when focus detection processing is started, if the subject is not in focus and the possibility that the amount of blur is large is high, the detection accuracy of the subject is improved by setting the pixel addition flag to OFF. be able to.

ステップS403では、カメラ制御部21により、第1実施形態のステップS1と同様に、カメラ制御部21により、撮像素子22を構成する撮像画素221、ならびに第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。   In step S403, as in step S1 of the first embodiment, the camera control unit 21 causes the camera control unit 21 to pick up an imaging pixel 221 that constitutes the imaging device 22, and the first focus detection pixel 222a and the second focus detection pixel. Acquisition of the output data of 222b is performed.

ステップS404では、カメラ制御部21により、所定回数以上連続して測距不能であると判断されたか否かの判断が行われる。たとえば、カメラ制御部21は、デフォーカス量を算出することができなかった場合、または、デフォーカス量の信頼性が低いと判断された場合に、測距不能であると判断することができる。そして、前回処理までに、測距不能であるとの判断が所定回数以上連続して行われた場合には、ステップS405に進み、画素加算フラグがオフに設定される。このように、本実施形態では、焦点検出を行った結果、測距不能であると所定回数以上繰り返し判断された場合には、被写体像のボケ量が大きい可能性が高いものと判断し、画素加算フラグをオフに設定し、第1焦点検出画素列L1と第2焦点検出画素列L2との画素出力の加算を禁止する。これにより、被写体像のボケ量が大きい場合には、第1焦点検出画素列L1および第2焦点検出画素列L2の画素出力の加算が行われないため、上述したように、焦点検出精度を高めることができる。なお、デフォーカス量の信頼性の評価は、たとえば、一対の像データの一致度やコントラストなどに基づいて行うことができる。   In step S404, it is determined by the camera control unit 21 whether or not it is determined that the distance measurement can not be performed continuously a predetermined number of times or more. For example, when the defocus amount can not be calculated, or when it is determined that the reliability of the defocus amount is low, the camera control unit 21 can determine that distance measurement can not be performed. Then, if the determination that distance measurement is impossible is continuously performed a predetermined number of times or more by the previous process, the process proceeds to step S405, and the pixel addition flag is set to off. As described above, in the present embodiment, as a result of focus detection, if it is repeatedly determined that the distance measurement can not be performed a predetermined number of times or more, it is determined that the possibility that the amount of blurring of the subject image is large is high. The addition flag is set to OFF, and the addition of the pixel outputs of the first focus detection pixel row L1 and the second focus detection pixel row L2 is prohibited. As a result, when the amount of blur of the subject image is large, the addition of the pixel outputs of the first focus detection pixel row L1 and the second focus detection pixel row L2 is not performed, so the focus detection accuracy is enhanced as described above. be able to. The evaluation of the reliability of the defocus amount can be performed, for example, on the basis of the matching degree or the contrast of the pair of image data.

また、ステップS406では、カメラ制御部21により、第1焦点検出画素列L1および第2焦点検出画素列L2の画素出力が低コントラストであるか否かの判断が行われる。第1焦点検出画素列L1および第2焦点検出画素列L2の画素出力が低コントラストである場合には、ステップS407に進み、画素加算フラグがオフに設定される。ここで、画素出力が低コントラストである場合にも、加算した画素出力の周波数成分が、第1焦点検出画素列L1の周波数成分の波形、および、第2焦点検出画素列L2の周波数成分の波形よりも平滑化(低周波数化)してしまい、被写体の検出がより困難となってしまう場合がある。そのため、画素加算フラグをオフに設定することで、第1焦点検出画素列L1と第2焦点検出画素列L2との画素の加算を禁止する。これにより、焦点検出精度を高めることができる。一方、被写体が低コントラストではない場合には、ステップS408に進む。   In step S406, the camera control unit 21 determines whether the pixel outputs of the first focus detection pixel row L1 and the second focus detection pixel row L2 have low contrast. If the pixel outputs of the first focus detection pixel line L1 and the second focus detection pixel line L2 have low contrast, the process proceeds to step S407, and the pixel addition flag is set to off. Here, even when the pixel output has low contrast, the added frequency component of the pixel output is the waveform of the frequency component of the first focus detection pixel row L1, and the waveform of the frequency component of the second focus detection pixel row L2. Smoothing (frequency reduction) may be performed more than in some cases, and detection of an object may be more difficult. Therefore, by setting the pixel addition flag to OFF, the addition of the pixels of the first focus detection pixel column L1 and the second focus detection pixel column L2 is prohibited. Thereby, the focus detection accuracy can be enhanced. On the other hand, when the subject is not in low contrast, the process proceeds to step S408.

ステップS408では、カメラ制御部21により、被写体が高輝度であり、かつ、前回処理において測距不能であると判断されたか否かの判断が行われる。本実施形態では、焦点検出に適した露出が得られるように、被写体の輝度に基づいて、ISO感度の設定が行われており、カメラ制御部21は、設定されたISO感度が所定値以下である場合に、被写体の輝度が所定の輝度値以上である(被写体が高輝度である)と判断することができる。そして、被写体が高輝度であり、かつ、前回処理において測距不能と判断された場合には、ステップS409に進み、画素加算フラグがオフに設定される。ここで、ISO感度が低い場合には、ノイズの影響が比較的小さいため、画素出力の加算を行わなくても比較的高いS/N比を得ることができる。そのため、カメラ制御部21は、被写体が高輝度であり、かつ、測距不能である場合には、第1焦点検出画素列L1と第2焦点検出画素列L2との画素の加算を禁止することで、焦点検出精度を高めることができる。一方、被写体が低輝度である場合、または、測距可能と判断された場合には、画素加算を行うことで、焦点検出精度をより高めることができるため、画素加算フラグをオフに設定せずに、ステップS410に進む。   In step S408, the camera control unit 21 determines whether the subject is high in luminance and it is determined in the previous process that distance measurement is not possible. In the present embodiment, the ISO sensitivity is set based on the brightness of the subject so that an exposure suitable for focus detection can be obtained, and the camera control unit 21 sets the set ISO sensitivity to a predetermined value or less. In some cases, it can be determined that the brightness of the subject is equal to or greater than a predetermined brightness value (the subject is in high brightness). Then, if it is determined that the subject has high luminance and distance measurement is impossible in the previous process, the process proceeds to step S409, and the pixel addition flag is set to off. Here, when the ISO sensitivity is low, the influence of noise is relatively small, so a relatively high S / N ratio can be obtained without addition of pixel outputs. Therefore, the camera control unit 21 prohibits the addition of the pixels of the first focus detection pixel row L1 and the second focus detection pixel row L2 when the subject has high luminance and distance measurement is impossible. Can improve the focus detection accuracy. On the other hand, if the subject has low luminance or if it is determined that distance measurement is possible, focus detection accuracy can be further improved by performing pixel addition, so the pixel addition flag is not set off. The process proceeds to step S410.

ステップS410では、カメラ制御部21により、画素加算フラグがオンに設定されているか否かの判断が行われる。画素加算フラグがオンに設定されている場合には、ステップS411に進み、一方、画素加算フラグがオフに設定されている場合には、ステップS412に進む。   In step S410, the camera control unit 21 determines whether the pixel addition flag is set to on. If the pixel addition flag is set to on, the process proceeds to step S411. If the pixel addition flag is set to off, the process proceeds to step S412.

ステップS411では、画素加算フラグがオンに設定されているため、第1実施形態のステップS2と同様に、第1焦点検出画素222aおよび第2焦点検出画素222bについて画素加算を行うことで、画素加算出力の算出が行われる。   In step S411, since the pixel addition flag is set to ON, pixel addition is performed on the first focus detection pixel 222a and the second focus detection pixel 222b as in step S2 of the first embodiment. The output is calculated.

一方、ステップS412では、画素加算フラグがオフに設定されているため、第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力について加算が行われず、第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力の取得のみが行われる。   On the other hand, in step S412, since the pixel addition flag is set to OFF, addition is not performed for the pixel outputs of the first focus detection pixel 222a and the second focus detection pixel 222b, and the first focus detection pixel 222a and the second focus Only acquisition of the pixel output of the detection pixel 222b is performed.

そして、ステップS413では、ステップS411で加算した画素加算出力、または、ステップS412で取得された第1焦点検出画素222aおよび第2焦点検出画素222bの画素出力に基づいて、シフト量演算が行われる。そして、ステップS414では、ステップS413で算出したシフト量に基づいて、デフォーカス量の算出が行われ、続くステップS415では、算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動が行われる。具体的には、カメラ制御部21は、ステップS414で算出されたデフォーカス量に基づいて、フォーカスレンズ32を合焦位置まで駆動させるのに必要となるレンズ駆動量を算出し、算出したレンズ駆動量が、レンズ制御部37を介して、フォーカスレンズ駆動モータ36に送出される。これにより、フォーカスレンズ駆動モータ36により、算出されたレンズ駆動量に基づいて、フォーカスレンズ32の駆動が行われる。   Then, in step S413, shift amount calculation is performed based on the pixel addition output added in step S411, or the pixel output of the first focus detection pixel 222a and the second focus detection pixel 222b acquired in step S412. Then, in step S414, the defocus amount is calculated based on the shift amount calculated in step S413, and in the following step S415, the focus lens 32 is driven based on the calculated defocus amount. Specifically, the camera control unit 21 calculates the lens drive amount necessary to drive the focus lens 32 to the in-focus position based on the defocus amount calculated in step S414, and calculates the lens drive. The amount is sent to the focus lens drive motor 36 via the lens control unit 37. As a result, the focus lens drive motor 36 drives the focus lens 32 based on the calculated lens drive amount.

ステップS416では、カメラ制御部21により、シャッターレリーズボタンの半押しが解除(第1スイッチSW1がオフ)されたか否かの判断が行われる。第1スイッチSW1がオンの場合には、ステップS417に進み、画素加算フラグがオンに設定され、ステップS403に戻る。これにより、焦点検出処理の起動時ではなく、所定回数以上連続して測距不能と判断された場合ではなく、画素出力が低コントラストではなく、かつ、被写体が高輝度かつ測距不能ではない場合に、ステップS411において、画素出力の加算が行われることとなる。一方、第1スイッチSW1がオフの場合には、図16のカメラ1の動作を終了する。   In step S416, the camera control unit 21 determines whether or not the half-depression of the shutter release button is released (the first switch SW1 is turned off). If the first switch SW1 is on, the process proceeds to step S417, the pixel addition flag is set to on, and the process returns to step S403. As a result, the focus detection process is not activated, and it is not determined that the distance measurement can not be performed continuously a predetermined number of times or more, and the pixel output is not low contrast and the subject is not high luminance and distance measurement impossible. In step S411, addition of pixel outputs is performed. On the other hand, when the first switch SW1 is off, the operation of the camera 1 of FIG. 16 is ended.

なお、ステップS417においては、被写体像のボケ量が所定値以下であるか否か、あるいは、焦点検出処理の起動後(シャッターレリーズボタンの半押し操作後)にフォーカスレンズ32の駆動が開始されたか否かを判断し、被写体像のボケ量が所定値以下となった場合、あるいは、焦点検出処理の起動後にフォーカスレンズ32の駆動が開始された場合に、画素加算フラグをオンに設定する構成としてもよい。   In step S417, whether the amount of blurring of the subject image is equal to or less than a predetermined value, or whether driving of the focus lens 32 has been started after activation of the focus detection process (after half-press operation of the shutter release button) It is determined whether or not the pixel addition flag is set to ON when the amount of blurring of the subject image becomes equal to or less than a predetermined value, or when the driving of the focus lens 32 is started after the start of focus detection processing. It is also good.

以上のようにして、光学系の焦点検出が行われる。   As described above, focus detection of the optical system is performed.

第5実施形態によれば、焦点検出処理の起動時、測距不能であるとの判断が数回以上繰り返し行われた場合、画素出力が低コントラストである場合、あるいは、被写体が高輝度かつ測距不能と判断された場合に、画素加算フラグをオフとすることで、画素加算を禁止する。すなわち、被写体にピントが合っていない状態では、高周波成分が少ないため、第1焦点検出画素列L1で検出される周波数成分および第2焦点検出画素列L2で検出される周波数成分の周波数は低くなり易い。このような場合に、第1焦点検出画素列L1の画素出力と第2焦点検出画素列L2の画素出力とを加算してしまうと、却って、加算した周波数成分(第1像データ列および第2像データ列)の波形は平滑化してしまい、被写体の検出がより困難となってしまう。そのため、焦点検出処理の起動時、測距不能であるとの判断が数回以上繰り返し行われた場合、被写体が低コントラストである場合、あるいは、被写体が高輝度かつ測距不能と判断された場合など、被写体像のボケ量が大きい可能性が高い場合には、画素出力の加算を禁止することで、被写体の検出精度を高めることができる。   According to the fifth embodiment, when focus detection processing is started, if the determination that distance measurement is impossible is repeated several times or more, if the pixel output has low contrast, or if the subject has high brightness and measurement When it is determined that distance measurement is impossible, pixel addition is prohibited by turning off the pixel addition flag. That is, when the object is not in focus, the frequency components detected by the first focus detection pixel row L1 and the frequency components detected by the second focus detection pixel row L2 are low because there are few high frequency components. easy. In such a case, when the pixel output of the first focus detection pixel row L1 and the pixel output of the second focus detection pixel row L2 are added, the added frequency components (first image data row and second The waveform of the image data sequence is smoothed, which makes detection of the subject more difficult. Therefore, when focus detection processing is started, if it is determined that distance measurement is impossible several times or more, if the subject has low contrast, or if it is determined that the object has high brightness and distance measurement is not possible. For example, when there is a high possibility that the amount of blurring of the subject image is large, the detection accuracy of the subject can be enhanced by prohibiting the addition of the pixel output.

以上、本発明の実施形態について説明したが、上述した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   As mentioned above, although embodiment of this invention was described, embodiment mentioned above is described in order to facilitate an understanding of this invention, and is not described in order to limit this invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents that fall within the technical scope of the present invention.

たとえば、上述した実施形態では、各焦点検出画素列の画素出力を加算して加算画素出力を得る態様を例示したが、画素加算出力に代えて、各焦点検出画素列の画素出力を平均して得られる平均画素出力を算出し、これを用いて焦点検出演算を行うような構成としてもよい。また、平均出力を算出する際には、画素加算出力を算出する場合と同様に、各焦点検出画素列の画素出力について、寄与度を調整するために、重み付け処理を行ってもよい。   For example, in the embodiment described above, the aspect of obtaining the addition pixel output by adding the pixel output of each focus detection pixel column is illustrated, but instead of the pixel addition output, the pixel output of each focus detection pixel column is averaged The obtained average pixel output may be calculated and used to perform focus detection calculation. In addition, when calculating the average output, weighting processing may be performed to adjust the degree of contribution for the pixel output of each focus detection pixel column, as in the case of calculating the pixel addition output.

さらに、上述した実施形態では、焦点検出画素列を2つ、あるいは4つ備える構成を例示したが、焦点検出画素列の数はこれらに限定されるものではなく、適宜設定することができる。たとえば、焦点検出画素列として、3つの焦点検出画素列L1〜L3を備える場合には、焦点検出画素の配列に関し、通常、焦点検出画素列L1と、焦点検出画素列L3とを同じ配列とし、焦点検出画素列L2を0.5画素ずらした構成とすることとなる。そのため、このような場合には、これらを画素加算して画素加算出力を得る場合、また平均して平均出力を算出する場合には、焦点検出画素列L1および焦点検出画素列L3の画素出力の寄与度を、たとえば、0.5に設定し、焦点検出画素列L2の画素出力の寄与度を、たとえば、1に設定することが望ましい。   Furthermore, in the embodiment described above, the configuration including two or four focus detection pixel rows is exemplified, but the number of focus detection pixel rows is not limited to these and can be set as appropriate. For example, when three focus detection pixel lines L1 to L3 are provided as the focus detection pixel lines, the focus detection pixel lines L1 and the focus detection pixel lines L3 are generally arranged in the same arrangement with respect to the arrangement of focus detection pixels. The focus detection pixel line L2 is shifted by 0.5 pixels. Therefore, in such a case, when the pixel addition output is obtained by pixel addition of these, and when the average output is calculated by averaging, the pixel outputs of the focus detection pixel row L1 and the focus detection pixel row L3 are obtained. It is desirable to set the degree of contribution to, for example, 0.5, and set the degree of contribution of the pixel output of the focus detection pixel column L2 to, for example, 1.

また、各焦点検出画素列を構成する第1焦点検出画素222aおよび第2焦点検出画素222bの配列は、これらが少なくとも、同じ列上において交互に配列されたものであればよく、たとえば、図18に示す焦点検出画素列L1a、L1bや、図19に示す焦点検出画素列L2a、L2bのように、焦点検出画素列中に、通常の撮像画素221が含まれるような構成としてもよい。   Further, the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b constituting each focus detection pixel row may be at least those alternately arranged on the same row, for example, as shown in FIG. As in the focus detection pixel lines L1a and L1b shown in and the focus detection pixel lines L2a and L2b shown in FIG. 19, the normal imaging pixels 221 may be included in the focus detection pixel lines.

さらに、上述した第4実施形態では、図14に示すように、撮像素子22bが3つの焦点検出画素列L1〜L3を備える構成を例示したが、この構成に限定されず、たとえば、図20に示すように、撮像素子22eが5つの焦点検出画素列L1〜L5を備える構成としてもよい。この場合、第1焦点検出画素列L1と第3焦点検出画素列L3と第5焦点検出画素列L5とが同じ画素配列であり、第2焦点検出画素列L2と第4焦点検出画素列L4とが同じ画素配列であるため、これらを画素加算して画素加算出力を得る場合、また平均して平均出力を算出する場合には、第1焦点検出画素列L1、第3焦点検出画素列L3、第5焦点検出画素列L5の画素出力の寄与度を、たとえば0.16に設定し、第2焦点検出画素列L2、第4焦点検出画素列L4の画素出力の寄与度を、たとえば、0.25に設定する。すなわち、焦点検出画素列L1〜L5の画素出力を2:3:2:3:2の比率で加算する。これにより、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができる。   Furthermore, in the fourth embodiment described above, as illustrated in FIG. 14, the configuration in which the imaging element 22b includes the three focus detection pixel arrays L1 to L3 is illustrated, but the present invention is not limited to this configuration. As shown, the imaging element 22e may be configured to include five focus detection pixel rows L1 to L5. In this case, the first focus detection pixel row L1, the third focus detection pixel row L3, and the fifth focus detection pixel row L5 have the same pixel arrangement, and the second focus detection pixel row L2 and the fourth focus detection pixel row L4 Since the pixel arrangement is the same, when the pixel addition output is obtained by pixel addition of these, and when the average output is calculated by averaging, the first focus detection pixel row L1, the third focus detection pixel row L3, The degree of contribution of the pixel output of the fifth focus detection pixel line L5 is set, for example, to 0.16, and the degree of contribution of the pixel output of the second focus detection pixel line L2 and the fourth focus detection pixel line L4 is, for example, 0.1. Set to 25. That is, the pixel outputs of the focus detection pixel arrays L1 to L5 are added at a ratio of 2: 3: 2: 3: 2. As a result, it is possible to accurately obtain the shift amount at which the correlation amount C (k) gives the minimum value in the in-focus state (the state in which the defocus amount is zero), thereby appropriately enhancing the focus detection accuracy. it can.

また、図20に示す例において、たとえば、第4焦点検出画素列L4において被写体のコントラストが低い場合には、この第4焦点検出画素列L4を除いた、第1焦点検出画素列L1、第2焦点検出画素列L2、第3焦点検出画素列L3、および第5焦点検出画素列L5の画素出力に基づいて、焦点検出を行う構成としてもよい。この場合、第1焦点検出画素列L1、第3焦点検出画素列L3、第5焦点検出画素列L5の画素出力の寄与度を、たとえば0.16に設定し、第2焦点検出画素列L2の画素出力の寄与度を、たとえば0.5に設定することができる。すなわち、焦点検出画素列L1〜L3,L5の画素出力を1:3:1:1の比率で加算する。これにより、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、焦点検出精度を適切に高めることができる。   In the example shown in FIG. 20, for example, when the contrast of the subject in the fourth focus detection pixel line L4 is low, the first focus detection pixel line L1, the second focus detection pixel line L1, excluding the fourth focus detection pixel line L4. Focus detection may be performed based on the pixel outputs of the focus detection pixel line L2, the third focus detection pixel line L3, and the fifth focus detection pixel line L5. In this case, the contribution of the pixel outputs of the first focus detection pixel row L1, the third focus detection pixel row L3, and the fifth focus detection pixel row L5 is set to, for example, 0.16, and the second focus detection pixel row L2 is set. The degree of contribution of the pixel output can be set, for example, to 0.5. That is, the pixel outputs of the focus detection pixel arrays L1 to L3 and L5 are added at a ratio of 1: 3: 1: 1. As a result, in the in-focus state (state in which the defocus amount is zero), the shift amount at which the correlation amount C (k) gives the minimum value can be accurately determined, and the focus detection accuracy can be appropriately increased.

なお、上述した実施形態では、画素出力の寄与度が合計で1となるように設定する構成を例示して説明したが、この構成に限定されず、たとえば、画素出力の比率が上述した比率となるものであれば、寄与度を合計で1以外の値となるように設定してもよい。たとえば、図20に示す例では、第1焦点検出画素列L1、第3焦点検出画素列L3、第5焦点検出画素列L5の画素出力の寄与度を、たとえば1に設定し、第2焦点検出画素列L2、第4焦点検出画素列L4の画素出力の寄与度を、たとえば、1.5に設定する構成とすることができる。   In the embodiment described above, the configuration in which the contribution degree of the pixel output is set to 1 in total is described as an example. However, the present invention is not limited to this configuration. As long as the above is true, the degree of contribution may be set to a value other than 1 in total. For example, in the example shown in FIG. 20, the contribution of the pixel output of the first focus detection pixel line L1, the third focus detection pixel line L3, and the fifth focus detection pixel line L5 is set to 1, for example, and the second focus detection is performed. The degree of contribution of the pixel outputs of the pixel line L2 and the fourth focus detection pixel line L4 can be set to, for example, 1.5.

さらに、図14に示す例において、たとえば、第3焦点検出画素列L3において、第1焦点検出画素列L1よりも被写体のコントラストが高い場合には、第3焦点検出画素列L1の画素出力の寄与度を、第1焦点検出画素列L1の画素出力の寄与度よりも大きくする構成としてもよい。たとえば、上述した例では、第1焦点検出画素列L1、第3焦点検出画素列L3の画素出力の寄与度を0.5に設定し、第2焦点検出画素列L2の画素出力の寄与度を1に設定したが、第3焦点検出画素列L3において、第1焦点検出画素列L1よりも被写体のコントラストが高い場合には、第1焦点検出画素列L1の画素出力の寄与度を0.25に設定し、第2焦点検出画素列L2の画素出力の寄与度を1に設定し、第3焦点検出画素列L3の画素出力の寄与度を0.75に設定する構成としてもよい。   Furthermore, in the example illustrated in FIG. 14, for example, in the third focus detection pixel row L3, when the contrast of the subject is higher than that of the first focus detection pixel row L1, the pixel output of the third focus detection pixel row L1 contributes The degree may be set to be larger than the contribution degree of the pixel output of the first focus detection pixel row L1. For example, in the above-described example, the contribution of the pixel outputs of the first focus detection pixel line L1 and the third focus detection pixel line L3 is set to 0.5, and the contribution of the pixel output of the second focus detection pixel line L2 is In the third focus detection pixel column L3, when the contrast of the subject is higher than that of the first focus detection pixel column L1, the contribution of the pixel output of the first focus detection pixel column L1 is 0.25. The degree of contribution of the pixel output of the second focus detection pixel line L2 may be set to 1, and the degree of contribution of the pixel output of the third focus detection pixel line L3 may be set to 0.75.

加えて、上述した第5実施形態では、焦点検出が開始された後は画素加算フラグをオフとすることで(ステップS402)、焦点検出処理の起動時における画素加算を禁止する構成を例示したが、「焦点検出処理の起動時」とは、このタイミングに限定されず、焦点検出の開始から一定時間内であってもよいし、焦点検出処理を所定回数繰り返すまでとしてもよい。   In addition, in the fifth embodiment described above, the pixel addition flag is turned off after the focus detection is started (step S402), and the pixel addition is prohibited at the start of the focus detection process. The “at the time of start of focus detection process” is not limited to this timing, and may be within a predetermined time from the start of focus detection, or may be repeated until the focus detection process is repeated a predetermined number of times.

1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22,22a〜22e…撮像素子
221…撮像画素
L1〜L5…焦点検出画素列
222a…第1焦点検出画素
222b…第2焦点検出画素
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
Reference Signs List 1 digital camera 2 camera body 21 camera control unit 22, 22a to 22e imaging element 221 imaging pixel L1 to L5 focus detection pixel row 222a first focus detection pixel 222b second focus detection pixel 3 lens Lens barrel 32 ... focus lens 36 ... focus lens drive motor 37 ... lens control unit

Claims (14)

第1方向に配置された複数の合焦検出画素からなる検出部を、前記第1方向と交わる第2方向に複数有し、光学系により形成された像を撮像し信号を出力する撮像素子と、
1つの前記検出部からの信号に応じて、前記光学系による像の位置と前記撮像素子とのずれ量を1つの前記検出部から出力された第1信号を用いて算出する第1演算と、前記ずれ量を複数の前記検出部から出力された第2信号を用いて算出する第2演算とのいずれかを行う算出部と、
を有する検出装置。
An image sensor including a plurality of detection units including a plurality of focus detection pixels arranged in a first direction in a second direction intersecting the first direction, and capturing an image formed by the optical system and outputting a signal; ,
A first operation of calculating the shift amount between the position of the image by the optical system and the imaging device according to a signal from one of the detection units using a first signal output from one of the detection units; A calculation unit that performs one of a second calculation of calculating the amount of deviation using a second signal output from the plurality of detection units;
Detecting device.
請求項1に記載の検出装置において、
前記算出部は、前記第1信号の大きさとコントラストとのいずれかに応じて、前記第1演算と前記第2演算とのいずれかを行う検出装置。
In the detection device according to claim 1,
The detection device which performs any one of the first calculation and the second calculation according to any one of the magnitude and the contrast of the first signal.
請求項2に記載の検出装置において、
前記第1演算を行う場合の前記第1信号の大きさは、前記第2演算をおこなう場合の前記第1信号の大きさよりも大きい検出装置。
In the detection device according to claim 2,
The detection device wherein the magnitude of the first signal when performing the first calculation is larger than the magnitude of the first signal when performing the second calculation.
請求項2に記載の検出装置において、
前記算出部で前記第1演算を行う場合の前記第1信号のコントラスト値は、前記第2演算をおこなう場合の前記第1信号のコントラスト値よりも高い検出装置。
In the detection device according to claim 2,
The detection apparatus wherein the contrast value of the first signal in the case where the first calculation is performed by the calculation unit is higher than the contrast value of the first signal in the case where the second calculation is performed.
請求項1から請求項4のいずれか一項に記載の検出装置において、
前記第2信号は、複数の前記検出部から出力された信号を加算した信号である検出装置。
The detection apparatus according to any one of claims 1 to 4.
The detection apparatus according to claim 1, wherein the second signal is a signal obtained by adding the signals output from the plurality of detection units.
請求項1から請求項5のいずれか一項に記載の検出装置において、
前記算出部で行う前記第2演算は、前記第2信号に応じて、前記第2信号を用いた前記ずれ量を算出と、前記第2信号に前記検出部から出力された信号を加算した第3信号を用いた前記ずれ量を算出とのいずれかを行う検出装置。
In the detection device according to any one of claims 1 to 5,
The second calculation performed by the calculation unit includes calculation of the amount of deviation using the second signal according to the second signal, and addition of the signal output from the detection unit to the second signal. The detection apparatus which performs any of calculating the said deviation using 3 signals.
請求項6に記載の検出装置において、
前記算出部は、前記第2信号の大きさと出力信号のコントラストとのいずれかに応じて、前記第2信号を用いた前記ずれ量を算出と、前記第3信号を用いた前記ずれ量を算出とのいずれかを行う検出装置。
In the detection device according to claim 6,
The calculation unit calculates the amount of deviation using the second signal and calculates the amount of deviation using the third signal according to one of the magnitude of the second signal and the contrast of the output signal. Detection device to do either.
請求項1から請求項7のいずれか一項に記載の検出装置において、
前記撮像素子が有する前記検出部には、前記光学系の第1の領域を通過した光を受光する第1画素と、前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する第2画素とが、前記第1方向に交互に配置されている検出装置。
The detection apparatus according to any one of claims 1 to 7.
The detection unit included in the image sensor includes a first pixel receiving light passing through the first area of the optical system and a second area different from the first area of the optical system. A detection device in which second pixels receiving light are alternately arranged in the first direction.
請求項8に記載の検出装置において、
前記撮像素子には、前記第1画素と前記第2画素とが前記第2方向に交互に配置されている検出装置。
In the detection device according to claim 8,
The detection device in which the first pixel and the second pixel are alternately arranged in the second direction in the imaging element.
請求項9に記載の検出装置において、
前記算出部で行う前記第2演算は、前記第2演算で用いる前記検出部の前記第2方向における前記第1画素の数と前記第2画素の数との比に応じて決定された係数を、前記第2演算で用いる前記検出部から出力された前記信号にそれぞれ乗じてから加算した信号を用いて前記ずれ量を算出する検出装置。
In the detection device according to claim 9,
The second calculation performed by the calculation unit is a coefficient determined according to the ratio of the number of first pixels to the number of second pixels in the second direction of the detection unit used in the second calculation. A detection apparatus for calculating the amount of deviation using a signal obtained by multiplying each of the signals output from the detection unit used in the second calculation and then adding them.
被写体の像を形成する光学系の第1の領域を通過した光を受光する複数の第1画素と、
前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する複数の第2画素とを有する撮像素子と、
第1方向に配置された複数の第1画素からなる第1画素列から出力された第1信号と、前記第1方向に配置された複数の第2画素からなる第2画素列から出力された第2信号と、の信号に応じて、前記第1信号と前記第2信号とから前記光学系による像の位置と前記撮像素子の撮像面とのずれ量に関する値を算出する第1演算と、前記第1方向と交わる第2方向に前記第1画素列とは異なる位置に配置され、前記第1方向に配置された複数の第1画素からなる第3画素列で生成される第3信号と、前記第2方向に前記第2画素列とは異なる位置に配置され、前記第1方向に配置された複数の第2画素からなる第4画素列で生成される第4信号前とを、それぞれ、前記第1信号及び前記第2信号に加算して生成した第5信号及び第6信号とから前記ずれ量に関する値を算出する第2演算とのいずれかを行う算出部と、
を有する検出装置。
A plurality of first pixels for receiving light passing through a first area of an optical system for forming an image of a subject;
An imaging element having a plurality of second pixels for receiving light that has passed through a second area different from the first area of the optical system;
A first signal output from a first pixel column consisting of a plurality of first pixels arranged in a first direction, and a second signal column consisting of a plurality of second pixels arranged in the first direction A first operation for calculating, from the first signal and the second signal, a value relating to the amount of deviation between the position of the image by the optical system and the imaging surface of the imaging device according to the second signal; A third signal generated in a third pixel row formed of a plurality of first pixels arranged at positions different from the first pixel row in the second direction intersecting the first direction, and arranged in the first direction The fourth signal front generated in the fourth pixel row formed of the plurality of second pixels arranged in the second direction and different from the second pixel row in the second direction is provided. A fifth signal and a sixth signal generated by adding to the first signal and the second signal A calculation unit for performing any of the second calculation for calculating a value relating to serial shift amount,
Detecting device.
請求項1から請求項11までのいずれか一項に記載の検出装置を有する撮像装置。   An imaging device comprising the detection device according to any one of claims 1 to 11. 被写体の像を形成する光学系の第1の領域を通過した光を受光する複数の第1画素と、
前記光学系の前記第1の領域とは異なる第2の領域を通過した光を受光する複数の第2画素と、
第1方向に配置された複数の前記第1画素からなる第1画素列で生成される第1信号、前記第1方向に配置された複数の前記第2画素からなる第2画素列で生成される第2信号、前記第1方向と交わる第2方向に前記第1画素列とは異なる位置に配置され、前記第1方向に配置された複数の第1画素からなる第3画素列で生成される第3信号、前記第2方向に前記第2画素列とは異なる位置に配置され、前記第1方向に配置された複数の第2画素からなる第4画素列で生成される第4信号、前記第1信号を構成する複数の信号と前記第3信号を構成する複数の信号とを前記第2方向に加算して生成した第5信号及び前記第2信号を構成する複数の信号と前記第4信号を構成する複数の信号とを前記第2方向に加算して生成した第6信号を出力する出力部と、
を有する撮像素子。
A plurality of first pixels for receiving light passing through a first area of an optical system for forming an image of a subject;
A plurality of second pixels for receiving light passing through a second area different from the first area of the optical system;
A first signal generated in a first pixel row consisting of a plurality of the first pixels arranged in a first direction, and a second signal row generated from a plurality of the second pixels arranged in the first direction Second signal, which is disposed at a position different from the first pixel row in the second direction intersecting the first direction, and is generated in a third pixel row composed of a plurality of first pixels disposed in the first direction A third signal, a fourth signal generated in a fourth pixel column which is disposed at a position different from the second pixel column in the second direction and is formed of a plurality of second pixels arranged in the first direction, A fifth signal generated by adding a plurality of signals forming the first signal and a plurality of signals forming the third signal in the second direction, a plurality of signals forming the second signal, and the first signal And outputs a sixth signal generated by adding the plurality of signals constituting the four signals in the second direction. And an output unit that,
An imaging device having
請求項13に記載の撮像素子を有する撮像装置。 An imaging device comprising the imaging device according to claim 13.
JP2019041731A 2013-05-31 2019-03-07 Detector, imaging element, and imaging device Pending JP2019091090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022100500A JP2022141659A (en) 2013-05-31 2022-06-22 Detecting device, imaging element and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013114846 2013-05-31
JP2013114846 2013-05-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013245734A Division JP6492394B2 (en) 2013-05-31 2013-11-28 Imaging device and imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022100500A Division JP2022141659A (en) 2013-05-31 2022-06-22 Detecting device, imaging element and imaging device

Publications (1)

Publication Number Publication Date
JP2019091090A true JP2019091090A (en) 2019-06-13

Family

ID=52338045

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013245734A Active JP6492394B2 (en) 2013-05-31 2013-11-28 Imaging device and imaging apparatus
JP2019041731A Pending JP2019091090A (en) 2013-05-31 2019-03-07 Detector, imaging element, and imaging device
JP2022100500A Pending JP2022141659A (en) 2013-05-31 2022-06-22 Detecting device, imaging element and imaging device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013245734A Active JP6492394B2 (en) 2013-05-31 2013-11-28 Imaging device and imaging apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022100500A Pending JP2022141659A (en) 2013-05-31 2022-06-22 Detecting device, imaging element and imaging device

Country Status (1)

Country Link
JP (3) JP6492394B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110278376A (en) * 2019-07-03 2019-09-24 Oppo广东移动通信有限公司 Focusing method, complementary metal oxide image sensor, terminal and storage medium
CN110278377A (en) * 2019-07-04 2019-09-24 Oppo广东移动通信有限公司 Focusing method, image sensor, terminal device and computer storage medium
CN110290328A (en) * 2019-07-04 2019-09-27 Oppo广东移动通信有限公司 Focusing method, device, terminal and computer storage medium
CN110418055A (en) * 2019-07-08 2019-11-05 Oppo广东移动通信有限公司 Focusing method, image sensor and computer storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7279313B2 (en) * 2018-07-20 2023-05-23 株式会社ニコン Focus detection device and imaging device
CN110099230B (en) * 2019-04-23 2021-12-28 Oppo广东移动通信有限公司 Image processing method and apparatus, and storage medium
CN113315934A (en) * 2019-04-23 2021-08-27 Oppo广东移动通信有限公司 Monochromatic polarization type CIS, image processing method and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017116A (en) * 2006-07-05 2008-01-24 Nikon Corp Imaging device and imaging apparatus
JP2009086424A (en) * 2007-10-01 2009-04-23 Nikon Corp Imaging device and imaging apparatus
JP2010020016A (en) * 2008-07-09 2010-01-28 Canon Inc Image pick up apparatus
WO2011136031A1 (en) * 2010-04-28 2011-11-03 富士フイルム株式会社 Imaging device
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
JP2012142952A (en) * 2012-01-27 2012-07-26 Nikon Corp Imaging apparatus
WO2012133427A1 (en) * 2011-03-30 2012-10-04 富士フイルム株式会社 Image pickup device and autofocus control method therefor
JP2013054326A (en) * 2011-08-05 2013-03-21 Nikon Corp Focus detector and imaging apparatus
JP2013069987A (en) * 2011-09-26 2013-04-18 Sony Corp Image pickup device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053568A (en) * 2007-08-29 2009-03-12 Canon Inc Imaging apparatus and imaging system
JP5029268B2 (en) * 2007-10-01 2012-09-19 株式会社ニコン Electronic camera
JP2012226088A (en) * 2011-04-19 2012-11-15 Nikon Corp Imaging apparatus
KR101853817B1 (en) * 2011-07-20 2018-05-02 삼성전자주식회사 Image sensor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017116A (en) * 2006-07-05 2008-01-24 Nikon Corp Imaging device and imaging apparatus
JP2009086424A (en) * 2007-10-01 2009-04-23 Nikon Corp Imaging device and imaging apparatus
JP2010020016A (en) * 2008-07-09 2010-01-28 Canon Inc Image pick up apparatus
WO2011136031A1 (en) * 2010-04-28 2011-11-03 富士フイルム株式会社 Imaging device
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
WO2012133427A1 (en) * 2011-03-30 2012-10-04 富士フイルム株式会社 Image pickup device and autofocus control method therefor
JP2013054326A (en) * 2011-08-05 2013-03-21 Nikon Corp Focus detector and imaging apparatus
JP2013069987A (en) * 2011-09-26 2013-04-18 Sony Corp Image pickup device
JP2012142952A (en) * 2012-01-27 2012-07-26 Nikon Corp Imaging apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110278376A (en) * 2019-07-03 2019-09-24 Oppo广东移动通信有限公司 Focusing method, complementary metal oxide image sensor, terminal and storage medium
CN110278377A (en) * 2019-07-04 2019-09-24 Oppo广东移动通信有限公司 Focusing method, image sensor, terminal device and computer storage medium
CN110290328A (en) * 2019-07-04 2019-09-27 Oppo广东移动通信有限公司 Focusing method, device, terminal and computer storage medium
CN110290328B (en) * 2019-07-04 2021-11-09 Oppo广东移动通信有限公司 Focusing method, device, terminal and computer storage medium
CN110418055A (en) * 2019-07-08 2019-11-05 Oppo广东移动通信有限公司 Focusing method, image sensor and computer storage medium
CN110418055B (en) * 2019-07-08 2021-08-20 Oppo广东移动通信有限公司 Focusing method, image sensor and computer storage medium

Also Published As

Publication number Publication date
JP6492394B2 (en) 2019-04-03
JP2022141659A (en) 2022-09-29
JP2015007743A (en) 2015-01-15

Similar Documents

Publication Publication Date Title
JP2019091090A (en) Detector, imaging element, and imaging device
CN103814322B (en) Focusing device and camera device
JP2010271670A (en) Imaging device
JP2013057784A (en) Imaging apparatus
JP6642628B2 (en) Imaging device and imaging device
JP5966267B2 (en) Focus adjustment device and imaging device
JP2025156406A (en) Focus detection device and image sensor
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP2013003486A (en) Focus detector and imaging apparatus
JP2014074851A (en) Focus detection device and image capturing device
JP2014211589A (en) Focus adjustment device and imaging device
JP2014074850A (en) Focus adjustment device, focus detection device, and image capturing device
JP6127730B2 (en) Imaging device
JP5370411B2 (en) Imaging device
JP6349624B2 (en) Image sensor and focus detection apparatus
JP2014074853A (en) Focus adjustment device and imaging device
JP6442824B2 (en) Focus detection device
JP2013015561A (en) Imaging apparatus
JP2019095810A (en) Focus adjustment device and imaging device
JP2024040227A (en) Focus detection device and image sensor
JP2019061264A (en) Focus detection device, camera, and electronic device
JP2016102953A (en) Focus detection device and camera
JP6477745B2 (en) Focus adjustment device and imaging device
JP2015049473A (en) Focus adjustment device and imaging device
JP6467768B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220322