JP2018151508A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2018151508A JP2018151508A JP2017047128A JP2017047128A JP2018151508A JP 2018151508 A JP2018151508 A JP 2018151508A JP 2017047128 A JP2017047128 A JP 2017047128A JP 2017047128 A JP2017047128 A JP 2017047128A JP 2018151508 A JP2018151508 A JP 2018151508A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- imaging
- lens
- optical system
- detection signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関し、特に撮像面位相差AF機能を備える撮像装置に関するものである。 The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus having an imaging plane phase difference AF function.
従来から、撮像素子を用いた焦点状態を検出する方式として、撮像面位相差AFが知られている。撮像面位相差AFは、撮像光学系の射出瞳を通過した光束を分割して得られた分割光束を複数の焦点検出画素により受光し、その受光量に応じて出力される信号のずれ量に基づいて合焦に必要なフォーカスレンズの駆動量を求める。撮像面位相差AFによれば、高速かつ滑らかな焦点調節動作が可能である。 Conventionally, imaging plane phase difference AF is known as a method for detecting a focus state using an imaging element. The imaging plane phase difference AF is obtained by receiving a divided light beam obtained by dividing a light beam that has passed through the exit pupil of the imaging optical system by a plurality of focus detection pixels, and a deviation amount of a signal output according to the received light amount. Based on this, the driving amount of the focus lens required for focusing is obtained. According to the imaging plane phase difference AF, a high-speed and smooth focus adjustment operation is possible.
特許文献1では、1つのマイクロレンズに複数に分割された光電変換部が形成されている2次元撮像素子を備えた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮像光学系の射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行っている。撮像光学系の焦点状態を検出する(焦点検出を行う)ときには、上記瞳分割された画素によって生成される一対の像信号の位相差を求め、その位相差から焦点状態を求める。 Patent Document 1 discloses an imaging apparatus including a two-dimensional imaging element in which a photoelectric conversion unit divided into a plurality of microlenses is formed. The divided photoelectric conversion units are configured to receive different pupil partial areas of the exit pupil of the imaging optical system via one microlens, and perform pupil division. When the focus state of the imaging optical system is detected (focus detection is performed), the phase difference between the pair of image signals generated by the pupil-divided pixels is obtained, and the focus state is obtained from the phase difference.
また、従来から、レンズ偏芯機能(シフト機構、ティルト機構、レボルビング機構)を有する交換レンズおよびその交換レンズを用いた撮影機能を備えるカメラが知られている。特許文献2では、レンズの傾き角を検出し、最適なティルト偏芯量を自動で調整する調整機能について開示されている。特許文献3では、レンズ偏芯機能を有するレンズユニットが各機構の偏芯量を検出できない場合、手動入力によって各偏芯量をカメラに設定し、最適な電子先幕走査を行うことで露出ムラを補正することができる。 Conventionally, an interchangeable lens having a lens decentering function (shift mechanism, tilt mechanism, revolving mechanism) and a camera having a photographing function using the interchangeable lens are known. Patent Document 2 discloses an adjustment function that detects the tilt angle of a lens and automatically adjusts the optimum tilt eccentricity. In Patent Document 3, when a lens unit having a lens decentering function cannot detect the decentering amount of each mechanism, each decentering amount is set in the camera by manual input, and an optimum electronic front curtain scan is performed to perform uneven exposure. Can be corrected.
しかしながら、レンズ偏芯機能を有する交換レンズには、各機構の偏芯量を検出できないものある。前記特許文献2では、カメラ側に備えられた加速度センサによってカメラの傾き角を検出できるが、撮像光学系の各偏芯量を検出することはできない。また、特許文献3では、各機構の偏芯量を検出できない交換レンズに対してユーザーが撮像光学系の各偏芯量を入力するため、操作が煩わしい。 However, some interchangeable lenses having a lens decentering function cannot detect the decentering amount of each mechanism. In Patent Document 2, the camera tilt angle can be detected by an acceleration sensor provided on the camera side, but each eccentric amount of the imaging optical system cannot be detected. Further, in Patent Document 3, since the user inputs each decentering amount of the imaging optical system to the interchangeable lens that cannot detect the decentering amount of each mechanism, the operation is troublesome.
上記目的を達成するために、本発明は、
レンズユニットの少なくとも一部を光軸に対して偏芯可能な撮像光学系(10)と、
前記撮像光学系(10)から入射された光束を複数の領域に瞳分割するように撮像画素を複数配列した撮像素子(24)と、
前記撮像素子(24)光電変換によって出力される出力値から一対の像信号を生成する像信号生成手段(44)と、
前記像信号生成手段(44)によって生成された一対の像信号から、前記撮像光学系(10)の偏芯された少なくとも一部のレンズユニットの偏芯量を算出する偏芯量算出手段(45)と、
を有することを特徴とする。
In order to achieve the above object, the present invention provides:
An imaging optical system (10) capable of decentering at least a part of the lens unit with respect to the optical axis;
An imaging device (24) in which a plurality of imaging pixels are arranged so as to divide the light beam incident from the imaging optical system (10) into a plurality of regions;
Image signal generation means (44) for generating a pair of image signals from output values output by the image sensor (24) photoelectric conversion;
Eccentricity amount calculating means (45) for calculating the eccentricity amount of at least a part of the decentered lens unit of the imaging optical system (10) from the pair of image signals generated by the image signal generating means (44). )When,
It is characterized by having.
本発明によれば、レンズ偏芯機能を有する交換レンズにおいて、各偏芯量を自動検出できない場合でも、最適なレンズ偏芯機構の各偏芯量を検出し、レンズ偏芯機構の偏芯量を必要とする機能を自動で簡単に実行することが可能である。 According to the present invention, in an interchangeable lens having a lens decentering function, even when each decentering amount cannot be automatically detected, each decentering amount of the lens decentering mechanism is detected and the decentering amount of the lens decentering mechanism is detected. It is possible to automatically and easily execute a function that requires.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[実施例1]
[全体構成]
本発明における撮像装置の概略構成図を、図1に示す。図1には、本発明の実施例1であるデジタル一眼レフカメラ2と該カメラ2に対して交換が可能な交換レンズ1とにより構成されるカメラシステムの構成を示している。
交換レンズ1内には撮像光学系10が収容されている。撮像光学系10は、複数のレンズや絞りにより構成される。また、交換レンズ1は少なくとも1つ以上のレンズを光軸に対して偏芯することが可能となっており、交換レンズ1の光軸に対して直行するあらかじめ決められた方向に偏芯させるシフト機構16と、交換レンズ1の光軸に対して円弧上であらかじめ決められた方向に偏芯させるティルト機構17と、ティルト機構17を回転させ、ティルト機構の偏芯方向を変更可能なレボルビング機構18を有している。 レンズ記憶部14は、ROM等により構成され、交換レンズ1の識別情報や撮像光学系10の光学情報等の各種情報を記憶している。電気接点15は交換レンズ1とデジタル一眼レフカメラ2との通信を可能としており、レンズ記憶部14に記憶されている情報や、後述のレンズ駆動部11から出力されるフォーカスレンズ位置情報などの情報をカメラ制御部40に転送することが可能となっている。フォーカスレンズ10aは光軸方向に移動可能となっており、光軸方向に移動させることでピント合わせを行うことができる。
[Example 1]
[overall structure]
FIG. 1 shows a schematic configuration diagram of an imaging apparatus according to the present invention. FIG. 1 shows a configuration of a camera system including a digital single-lens reflex camera 2 that is Embodiment 1 of the present invention and an interchangeable lens 1 that can be interchanged with the camera 2.
An imaging optical system 10 is accommodated in the interchangeable lens 1. The imaging optical system 10 includes a plurality of lenses and a diaphragm. In addition, the interchangeable lens 1 can decenter at least one or more lenses with respect to the optical axis, and shifts the eccentric lens in a predetermined direction perpendicular to the optical axis of the interchangeable lens 1. The mechanism 16, the tilt mechanism 17 for decentering in a predetermined direction on an arc with respect to the optical axis of the interchangeable lens 1, and the revolving mechanism 18 capable of changing the eccentric direction of the tilt mechanism by rotating the tilt mechanism 17. have. The lens storage unit 14 is configured by a ROM or the like, and stores various types of information such as identification information of the interchangeable lens 1 and optical information of the imaging optical system 10. The electrical contact 15 enables communication between the interchangeable lens 1 and the digital single lens reflex camera 2, and information such as information stored in the lens storage unit 14 and focus lens position information output from the lens driving unit 11 described later. Can be transferred to the camera control unit 40. The focus lens 10a is movable in the optical axis direction and can be focused by moving in the optical axis direction.
レンズ駆動部11は、光軸方向に移動可能なフォーカスレンズ10aを後述のレンズ制御部13によって制御および駆動を行う。また、フォーカスレンズ10aの位置を検出し、レンズ制御部13および、前述の電気接点15を介してカメラ制御部40にフォーカスレンズ位置情報を転送することが可能となっている。 The lens driving unit 11 controls and drives the focus lens 10a movable in the optical axis direction by a lens control unit 13 described later. Further, it is possible to detect the position of the focus lens 10a and transfer the focus lens position information to the camera control unit 40 via the lens control unit 13 and the electrical contact 15 described above.
カメラ2において、ハーフミラーで構成された主ミラー20は、ユーザーが光学ファインダを通して被写体を観察する光学ファインダ観察時には、図示のように撮影光路内のダウン位置に配置されて撮像光学系10からの光をピント板30に向けて反射する。また、主ミラー20は、背面モニタ43にライブビュー画像を表示するライブビュー観察時や記録用画像(静止画および動画)を生成する撮影時には、撮影光路から退避するアップ位置に回動する。これにより、撮像光学系10からの光は、シャッタ23および撮像素子24に向かう。 In the camera 2, the main mirror 20 composed of a half mirror is disposed at a down position in the photographing optical path as shown in the drawing when the user observes the subject through the optical viewfinder, and the light from the imaging optical system 10 is displayed. Is reflected toward the focus plate 30. In addition, the main mirror 20 rotates to the up position for retreating from the photographing optical path during live view observation in which a live view image is displayed on the rear monitor 43 or during photographing for generating recording images (still images and moving images). Thereby, the light from the imaging optical system 10 goes to the shutter 23 and the imaging element 24.
サブミラー21は、主ミラー20とともに回動し、ダウン位置に配置された主ミラー20を透過した光をAFセンサユニット22に導く。また、主ミラー20がアップ位置に回動すると、サブミラー21も撮影光路から退避する。 The sub mirror 21 rotates together with the main mirror 20 and guides the light transmitted through the main mirror 20 disposed at the down position to the AF sensor unit 22. When the main mirror 20 is rotated to the up position, the sub mirror 21 is also retracted from the photographing optical path.
AFセンサユニット22は、被写体から撮像光学系10を通り、さらにサブミラー21で反射して入射した光を用いて、カメラ2による撮影範囲内に設けられた複数の焦点検出領域において位相差検出方式による撮像光学系の焦点状態の検出(焦点検出)を行う。AFセンサユニット22は、各焦点検出領域からの光に一対の像(被写体像)を形成させる2次結像レンズと、該一対の被写体像を光電変換する一対の受光素子列が配置されたエリアセンサ(CCD又はCMOS)とを含む。エリアセンサの一対の受光素子列は、一対の被写体像の輝度分布に応じた光電変換信号である一対の像信号をカメラ制御部40に出力する。エリアセンサ上には、複数の焦点検出領域に対応した複数対の受光素子列が2次元配置されている。 The AF sensor unit 22 uses a phase difference detection method in a plurality of focus detection areas provided in a shooting range by the camera 2 using light incident from the subject through the imaging optical system 10 and reflected by the sub mirror 21. The focus state of the imaging optical system is detected (focus detection). The AF sensor unit 22 is an area in which a secondary imaging lens that forms a pair of images (subject images) on the light from each focus detection region and a pair of light receiving element arrays that photoelectrically convert the pair of subject images. Sensor (CCD or CMOS). The pair of light receiving element rows of the area sensor outputs a pair of image signals, which are photoelectric conversion signals corresponding to the luminance distribution of the pair of subject images, to the camera control unit 40. A plurality of pairs of light receiving element arrays corresponding to a plurality of focus detection areas are two-dimensionally arranged on the area sensor.
カメラ制御部40は、一対の像信号の位相差を算出し、該位相差から撮像光学系10の焦点状態(デフォーカス量)を算出する。さらに、カメラ制御部40は、検出した撮像光学系10の焦点状態に基づいて、撮像光学系10の合焦状態を得るためにフォーカスレンズ10aを移動させるべき位置である合焦位置を算出する。そして、カメラ制御部40は、位相差AFにより算出した合焦位置にフォーカスレンズ10aを移動させるようレンズ制御部13にフォーカス指令を送信する。レンズ制御部13は、受信したフォーカス指令に応じて、レンズ駆動部11を介してフォーカスレンズ10aを合焦位置に移動させる。これにより、撮像光学系10の合焦状態が得られる。 The camera control unit 40 calculates the phase difference between the pair of image signals, and calculates the focus state (defocus amount) of the imaging optical system 10 from the phase difference. Furthermore, the camera control unit 40 calculates a focus position, which is a position where the focus lens 10a should be moved, in order to obtain a focus state of the image pickup optical system 10 based on the detected focus state of the image pickup optical system 10. Then, the camera control unit 40 transmits a focus command to the lens control unit 13 so as to move the focus lens 10a to the in-focus position calculated by the phase difference AF. The lens control unit 13 moves the focus lens 10a to the in-focus position via the lens driving unit 11 in accordance with the received focus command. Thereby, the focused state of the imaging optical system 10 is obtained.
シャッタ23は、光学ファインダ観察時には閉じ、ライブビュー観察時および動画撮影時には開放されて撮像光学系10により形成された被写体像の撮像素子24による光電変換(ライブビュー画像および撮影動画の生成)を可能とする。さらに、静止画撮影時には、設定されたシャッタ秒時で開閉し、撮像素子24の露光を制御する。 The shutter 23 is closed during optical viewfinder observation, and is opened during live view observation and moving image shooting, and photoelectric conversion (generation of a live view image and a captured moving image) by the image sensor 24 of a subject image formed by the imaging optical system 10 is possible. And Further, during still image shooting, the shutter is opened and closed at a set shutter speed, and exposure of the image sensor 24 is controlled.
撮像素子24は、CMOSイメージセンサ又はCCDイメージセンサとその周辺回路により構成され、撮像光学系10により形成された被写体像を光電変換してアナログ撮像信号を出力する。撮像素子24の各画素部には、撮像用素子と焦点検出用素子を兼用した瞳分割用の複数の副画素が配置されている。これについては、後に詳しく説明する。また、撮像素子24は撮像光学系10により形成された被写体像の輝度を測定することが可能となっている。 The image sensor 24 is composed of a CMOS image sensor or a CCD image sensor and its peripheral circuits, and photoelectrically converts a subject image formed by the imaging optical system 10 and outputs an analog imaging signal. In each pixel portion of the image sensor 24, a plurality of sub-pixels for pupil division that serve both as an image sensor and a focus detection element are arranged. This will be described in detail later. The image sensor 24 can measure the luminance of the subject image formed by the imaging optical system 10.
ピント板30は、撮像素子24と等価な位置である撮像光学系10の1次結像面に配置されている。光学ファインダ観察時には、ピント板30上に、被写体像(ファインダー像)が形成される。ペンタプリズム31は、ピント板30上に形成された被写体像を正立正像に変換する。接眼レンズ32は、正立正像をユーザーに観察させる。ピント板30、ペンタプリズム31および接眼レンズ32により光学ファインダが構成される。 The focus plate 30 is disposed on the primary imaging plane of the imaging optical system 10 that is equivalent to the imaging element 24. A subject image (finder image) is formed on the focus plate 30 during optical viewfinder observation. The pentaprism 31 converts the subject image formed on the focus plate 30 into an erect image. The eyepiece 32 allows the user to observe an erect image. The focus plate 30, the pentaprism 31 and the eyepiece lens 32 constitute an optical finder.
AEセンサ33は、ピント板30からの光を、ペンタプリズム31を介して受光し、該ピント板30上に形成された被写体像の輝度を測定する。AEセンサ33は、複数のフォトダイオードを有し、カメラ2による撮影範囲を分割するように設定された複数の測光領域のそれぞれで輝度を測定することができる。また、被写体像の輝度測定のほかにも、被写体像の形や色などを測定して被写体の状態を判定する被写体検知機能も備える。 The AE sensor 33 receives light from the focus plate 30 via the pentaprism 31 and measures the luminance of the subject image formed on the focus plate 30. The AE sensor 33 has a plurality of photodiodes, and can measure the luminance in each of a plurality of photometric areas set so as to divide the imaging range of the camera 2. In addition to measuring the brightness of the subject image, it also has a subject detection function for determining the state of the subject by measuring the shape and color of the subject image.
カメラ制御部40は、MPU等を含むマイクロコンピュータにより構成され、カメラ2と交換レンズ1からなるカメラシステム全体の動作を制御する。
デジタル処理手段41は、撮像素子24からのアナログ撮像信号をデジタル撮像信号に変換し、さらに該デジタル撮像信号に対して各種処理を行って画像信号(画像データ)を生成する。撮像素子24およびデジタル処理手段41により撮像系が構成される。
The camera control unit 40 is configured by a microcomputer including an MPU and the like, and controls the operation of the entire camera system including the camera 2 and the interchangeable lens 1.
The digital processing means 41 converts the analog image signal from the image sensor 24 into a digital image signal, and further performs various processes on the digital image signal to generate an image signal (image data). The imaging device 24 and the digital processing means 41 constitute an imaging system.
デジタル処理手段41は、前記撮像素子24に配置されている瞳分割用の複数の副画素を用いて、位相差検出方式による焦点状態の検出を行う。さらに、デジタル処理手段41は、検出した撮像光学系10の焦点状態に基づいて、撮像光学系10の合焦状態を得るためにフォーカスレンズ10aを移動させるべき位置である合焦位置を算出することを、撮像面位相差AFという。また、デジタル処理手段41は像信号生成手段44と偏芯量算出手段45を有しており、像信号生成手段44は、後述の撮像素子24に配置されている複数の副画素からの出力を基に第1焦点検出信号と第2焦点検出信号を生成する。さらに偏芯量算出手段45は像信号生成手段44によって生成された第1焦点検出信号と第2焦点検出信号から撮像光学系のレンズ偏芯量を検出することが可能となっている。 The digital processing means 41 detects the focus state by the phase difference detection method using a plurality of pupil-dividing subpixels arranged in the image sensor 24. Further, the digital processing means 41 calculates a focus position, which is a position where the focus lens 10a should be moved, in order to obtain a focus state of the imaging optical system 10 based on the detected focus state of the imaging optical system 10. Is referred to as imaging plane phase difference AF. Further, the digital processing means 41 has an image signal generation means 44 and an eccentricity amount calculation means 45, and the image signal generation means 44 outputs outputs from a plurality of sub-pixels arranged in the image sensor 24 described later. Based on this, a first focus detection signal and a second focus detection signal are generated. Further, the decentering amount calculating unit 45 can detect the lens decentering amount of the imaging optical system from the first focus detection signal and the second focus detection signal generated by the image signal generating unit 44.
カメラ記憶部42は、カメラ制御部40やデジタル処理手段41の動作で用いられる各種データを記憶している。また、カメラ記憶部42は、生成された記録用画像を保存する。 The camera storage unit 42 stores various data used in the operation of the camera control unit 40 and the digital processing means 41. In addition, the camera storage unit 42 stores the generated recording image.
背面モニタ43は、液晶パネル等の表示素子により構成され、ライブビュー画像、記録用画像および各種情報を表示する。 The rear monitor 43 includes a display element such as a liquid crystal panel, and displays a live view image, a recording image, and various types of information.
[撮像素子]
実施例1の撮像素子24の配列の概略図を、図2に示す。図2は、本実施例の2次元CMOSセンサー(撮像素子)の画素(撮像画素)配列を4列×4行の範囲で、副画素配列を8列×8行の範囲で示したものである。
[Image sensor]
FIG. 2 shows a schematic diagram of the arrangement of the image sensor 24 of the first embodiment. FIG. 2 shows the pixel (imaging pixel) array of the two-dimensional CMOS sensor (imaging device) of this embodiment in a range of 4 columns × 4 rows and the sub-pixel array in a range of 8 columns × 8 rows. .
実施例1において、図2に示した2列×2行の画素群200は、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。さらに、各画素は2列×2行に配列された副画素201から副画素204により構成されている。 In the first embodiment, the pixel group 200 of 2 columns × 2 rows shown in FIG. 2 includes a pixel 200R having an R (red) spectral sensitivity on the upper left and a pixel 200G having a G (green) spectral sensitivity on the upper right. A pixel 200B having a spectral sensitivity of B (blue) is arranged at the lower left. Further, each pixel includes subpixels 201 to 204 arranged in 2 columns × 2 rows.
図2に示した4列×4行の画素(8列×8行の副画素)を面上に多数配置し、撮像画像(副画素信号)の取得を可能としている。本実施例では、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、副画素の周期PSUBが2μm、副画素数NSUBが横11150列×縦7450行=約8300万副画素の撮像素子として説明を行う。 A large number of 4 columns × 4 rows of pixels (8 columns × 8 rows of sub-pixels) shown in FIG. 2 are arranged on the surface, and a captured image (sub-pixel signal) can be acquired. In this embodiment, the pixel period P is 4 μm, the number of pixels N is 5575 columns × 3725 rows = approximately 20.75 million pixels, the subpixel cycle P SUB is 2 μm, and the number of subpixels N SUB is 11150 columns × 7450 columns. The description will be made assuming that the image sensor having a row = about 83 million subpixels.
図2に示した撮像素子の1つの画素200Gを、撮像素子の受光面側(+Z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−Y側から見た断面図を図3(b)に示す。 FIG. 3A shows a plan view of one pixel 200G of the image pickup device shown in FIG. 2 viewed from the light receiving surface side (+ Z side) of the image pickup device, and a cross section taken along the line aa in FIG. A cross-sectional view viewed from the Y side is shown in FIG.
図3に示すように、本実施例の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、X方向にNH分割(2分割)、Y方向にNV分割(2分割)された光電変換部301から光電変換部304が形成される。光電変換部301から光電変換部304が、それぞれ、副画素201から副画素204に対応する。 As shown in FIG. 3, in the pixel 200G of the present embodiment, a microlens 305 for condensing incident light is formed on the light receiving side of each pixel, and is divided into NH (two divisions) in the X direction and in the Y direction. the photoelectric conversion unit 304 is formed from N V division (2 divided) photoelectric conversion unit 301. Photoelectric converters 301 to 304 correspond to subpixels 201 to 204, respectively.
光電変換部301から光電変換部304は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしても良い。 The photoelectric conversion unit 301 to the photoelectric conversion unit 304 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or an intrinsic layer is omitted as necessary, and a pn junction is provided. A photodiode may be used.
各画素には、マイクロレンズ305と、光電変換部301から光電変換部304との間に、カラーフィルター306が形成される。また、必要に応じて、各副画素にカラーフィルターの分光透過率を変えても良いし、カラーフィルターを省略しても良い。
図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、光電変換部301から光電変換部304で受光される。
In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion unit 301 to the photoelectric conversion unit 304. Further, if necessary, the spectral transmittance of the color filter may be changed for each sub-pixel, or the color filter may be omitted.
The light that has entered the pixel 200 </ b> G illustrated in FIG. 3 is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion unit 304 from the photoelectric conversion unit 301.
光電変換部301から光電変換部304では、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積され、一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。 In the photoelectric conversion unit 301 to the photoelectric conversion unit 304, a pair of electrons and holes are generated according to the amount of received light and separated by a depletion layer, and then negatively charged electrons are accumulated in an n-type layer (not shown), The holes are discharged to the outside of the image sensor through a p-type layer connected to a constant voltage source (not shown).
光電変換部301から光電変換部304のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。 Electrons accumulated in the n-type layer (not shown) of the photoelectric conversion unit 301 from the photoelectric conversion unit 301 are transferred to the electrostatic capacitance unit (FD) via the transfer gate and converted into a voltage signal.
図3に示した本実施例の画素構造と瞳分割との対応関係を示した概略説明図を図4に示す。図3(a)に示した本実施例の画素構造のa−a断面を+Y側から見た断面図と結像光学系の射出瞳面を図4(a)に示す。図4(a)では、射出瞳面の座標軸と対応を取るために、断面図のX軸とY軸を図3に対して反転させている。 FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure of this embodiment shown in FIG. 3 and pupil division. FIG. 4A shows a cross-sectional view of the pixel structure of the present embodiment shown in FIG. 3A as seen from the + Y side and an exit pupil plane of the imaging optical system. In FIG. 4A, the X axis and Y axis of the cross-sectional view are reversed with respect to FIG. 3 in order to correspond to the coordinate axis of the exit pupil plane.
図4(a)で、第1焦点検出画素201の第1瞳部分領域501は、重心が−X方向に偏芯している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏芯している。 In FIG. 4A, the first pupil partial region 501 of the first focus detection pixel 201 is generally conjugated with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −X direction and the microlens. This represents a pupil region that can be received by the first focus detection pixel 201. The first pupil partial region 501 of the first focus detection pixel 201 has a center of gravity eccentric to the + X side on the pupil plane.
図4(a)で、第2焦点検出画素202の第2瞳部分領域502は、重心が+X方向に偏芯している光電変換部302の受光面と、マイクロレンズによって、概ね、共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏芯している。 In FIG. 4A, the second pupil partial region 502 of the second focus detection pixel 202 is generally in a conjugate relationship by the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + X direction and the microlens. This represents a pupil region that can be received by the second focus detection pixel 202. The center of gravity of the second pupil partial region 502 of the second focus detection pixel 202 is eccentric to the −X side on the pupil plane.
また、図4(a)で、瞳領域500は、光電変換部301から光電変換部304(第1焦点検出画素201から第2焦点検出画素204)を全て合わせた際の画素200G全体で受光可能な瞳領域である。 In FIG. 4A, the pupil region 500 can receive light in the entire pixel 200G when the photoelectric conversion unit 301 to the photoelectric conversion unit 304 (first focus detection pixel 201 to second focus detection pixel 204) are all combined. This is a pupil area.
図3(a)に示した本実施例の画素構造のa−a断面を+X側から見た断面図と結像光学系の射出瞳面を図4(b)に示す。なお、図4(b)は図4(a)同様に、射出瞳面の座標軸と対応を取るために、断面図のX軸とY軸を図3に対して反転させている。 FIG. 4B shows a cross-sectional view of the pixel structure of the present embodiment shown in FIG. 3A as viewed from the + X side and an exit pupil plane of the imaging optical system. 4 (b), like FIG. 4 (a), in order to correspond to the coordinate axis of the exit pupil plane, the X-axis and Y-axis of the sectional view are reversed with respect to FIG.
図4(b)で、第3焦点検出画素203の第1瞳部分領域503は、重心が+Y方向に偏芯している光電変換部303の受光面と、マイクロレンズによって、概ね、共役関係になっており、第3焦点検出画素203で受光可能な瞳領域を表している。第3焦点検出画素203の第3瞳部分領域503は、瞳面上で−Y側に重心が偏芯している。 In FIG. 4B, the first pupil partial region 503 of the third focus detection pixel 203 is generally in a conjugate relationship by the light receiving surface of the photoelectric conversion unit 303 whose center of gravity is eccentric in the + Y direction and the microlens. This represents a pupil region that can be received by the third focus detection pixel 203. The third pupil partial region 503 of the third focus detection pixel 203 has an eccentric center of gravity on the −Y side on the pupil plane.
図4(b)で、第1焦点検出画素201の第1瞳部分領域501は、重心が−Y方向に偏芯している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+Y側に重心が偏芯している。 In FIG. 4B, the first pupil partial region 501 of the first focus detection pixel 201 is generally conjugated with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is eccentric in the −Y direction and the microlens. This represents a pupil region that can be received by the first focus detection pixel 201. The first pupil partial region 501 of the first focus detection pixel 201 is decentered on the + Y side on the pupil plane.
本実施例の撮像素子24と瞳分割との対応関係を示した概略図を図5に示す。第1瞳部分領域501から第4瞳部分領域504の異なる瞳部分領域を通過した光束は、撮像素子の各画素に、それぞれ、異なる角度で入射し、2×2分割された第1焦点検出画素201から第4焦点検出画素204で受光される。本実施例は、瞳領域が水平方向に2つ、垂直方向に2つ瞳分割されている例である。必要に応じて、垂直方向あるいは水平方向の瞳分割のどちらかを1つにしても良い。 FIG. 5 shows a schematic diagram showing the correspondence between the image sensor 24 of this embodiment and pupil division. Light fluxes that have passed through different pupil partial regions from the first pupil partial region 501 to the fourth pupil partial region 504 are incident on each pixel of the image sensor at different angles, and are divided into 2 × 2 first focus detection pixels. Light is received by the fourth focus detection pixel 204 from 201. In this embodiment, the pupil region is divided into two pupils in the horizontal direction and two in the vertical direction. If necessary, one of the pupil divisions in the vertical direction or the horizontal direction may be made one.
本発明の撮像素子24は、結像光学系の第1瞳部分領域を通過する光束を受光する第1焦点検出画素と、第1瞳部分領域と異なる結像光学系の第2瞳部分領域を通過する光束を受光する第2焦点検出画素と、第3瞳部分領域と異なる結像光学系の第3瞳部分領域を通過する光束を受光する第3焦点検出画素と、第4瞳部分領域と異なる結像光学系の第4瞳部分領域を通過する光束を受光する第4焦点検出画素と、結像光学系の第1瞳部分領域から第4瞳部分領域を合わせた瞳領域を通過する光束を受光する撮像画素が複数配列されている。本実施例の撮像素子では、それぞれの撮像画素が第1焦点検出画素から第4焦点検出画素で構成されている。 The imaging device 24 of the present invention includes a first focus detection pixel that receives a light beam passing through the first pupil partial region of the imaging optical system, and a second pupil partial region of the imaging optical system that is different from the first pupil partial region. A second focus detection pixel for receiving a light beam passing therethrough, a third focus detection pixel for receiving a light beam passing through a third pupil partial region of an imaging optical system different from the third pupil partial region, and a fourth pupil partial region, A fourth focus detection pixel that receives a light beam passing through a fourth pupil partial region of a different imaging optical system, and a light beam that passes through a pupil region obtained by combining the first pupil partial region and the fourth pupil partial region of the imaging optical system. A plurality of imaging pixels that receive light is arranged. In the imaging device of the present embodiment, each imaging pixel is composed of a first focus detection pixel to a fourth focus detection pixel.
必要に応じて、撮像画素と第1焦点検出画素から第4焦点検出画素を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素から第4焦点検出画素を部分的に配置する構成としても良い。 If necessary, the imaging pixel and the first focus detection pixel to the fourth focus detection pixel are configured as separate pixels, and the first focus detection pixel to the fourth focus detection pixel are partially arranged in a part of the imaging pixel array. It is good also as composition to do.
本実施例では、撮像素子の画素毎に、副画素201から副画素204の信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。また、本実施例では、撮像素子の各画素の第1焦点検出画素201から第4焦点検出画素204の受光信号を、必要に応じた組み合わせで加算させることにより、第1焦点検出信号および第2焦点検出信号を生成することができる。 In this embodiment, an image signal (captured image) with a resolution of N effective pixels is generated by adding the signals of the sub-pixel 201 to the sub-pixel 204 for each pixel of the image sensor. Further, in this embodiment, the first focus detection signal and the second focus detection signal are added by combining the light reception signals of the first focus detection pixel 201 to the fourth focus detection pixel 204 of each pixel of the image sensor in a combination as necessary. A focus detection signal can be generated.
本実施例では、画素毎に、副画素201と副画素203の信号を加算してX方向の第1焦点検出信号を生成し、副画素202と副画素204の信号を加算してX方向第2焦点検出信号を生成することができる。X方向の第1焦点検出信号およびX方向の第2焦点検出信号は、水平方向の瞳分割に対応した焦点検出信号になるため、X方向(水平方向、横方向)の撮像面位相差AFが可能である。 In this embodiment, for each pixel, the signals of the sub-pixel 201 and the sub-pixel 203 are added to generate a first focus detection signal in the X direction, and the signals of the sub-pixel 202 and the sub-pixel 204 are added to add the signals in the X direction. A bifocal detection signal can be generated. Since the first focus detection signal in the X direction and the second focus detection signal in the X direction are focus detection signals corresponding to pupil division in the horizontal direction, the imaging plane phase difference AF in the X direction (horizontal direction and horizontal direction) is Is possible.
同様に、画素毎に、副画素201と副画素202の信号を加算してY方向の第1焦点検出信号を生成し、副画素203と副画素204の信号を加算してY方向の第2焦点検出信号を生成することができる。Y方向の第1焦点検出信号およびY方向の第2焦点検出信号は、垂直方向の瞳分割に対応した焦点検出信号になるため、Y方向(垂直方向、縦方向)の撮像面位相差AFが可能である。 Similarly, for each pixel, the signals of the sub-pixel 201 and the sub-pixel 202 are added to generate a first focus detection signal in the Y direction, and the signals of the sub-pixel 203 and the sub-pixel 204 are added to generate a second Y-direction signal. A focus detection signal can be generated. Since the first focus detection signal in the Y direction and the second focus detection signal in the Y direction become focus detection signals corresponding to the pupil division in the vertical direction, the imaging plane phase difference AF in the Y direction (vertical direction and vertical direction) is Is possible.
なお、本実施例における撮像素子24の撮像画素の配列の場合には、撮像画素がX方向に2分割、Y方向に2分割に配列されているため、第1焦点検出信号と第2焦点検出信号の生成はX方向とY方向で選択可能である。 In the case of the arrangement of the imaging pixels of the imaging element 24 in the present embodiment, the imaging pixels are arranged in two parts in the X direction and two parts in the Y direction, so that the first focus detection signal and the second focus detection are performed. The signal generation can be selected in the X direction and the Y direction.
[デフォーカス量と像ずれ量の関係]
以下、本実施例の撮像素子により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係について説明する。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the image sensor of the present embodiment will be described.
図6に、第1焦点検出信号と第2焦点検出信号のデフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の概略関係図を示す。撮像面800に本実施例の撮像素子(不図示)が配置され、図4、図5と同様に、結像光学系の射出瞳が、第1瞳部分領域501から第4瞳部分領域504に4分割される。 FIG. 6 shows a schematic relationship diagram of the defocus amounts of the first focus detection signal and the second focus detection signal and the image shift amount between the first focus detection signal and the second focus detection signal. The imaging element (not shown) of the present embodiment is arranged on the imaging surface 800, and the exit pupil of the imaging optical system is changed from the first pupil partial region 501 to the fourth pupil partial region 504 as in FIGS. Divided into four.
デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態はd=0である。図7で、被写体801は合焦状態(d=0)の例を示しており、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。 The defocus amount d is a distance | d | from the imaging position of the subject to the imaging surface, and a negative sign (d <0) indicates a front pin state where the imaging position of the subject is on the subject side from the imaging surface. A rear pin state in which the imaging position of the subject is on the opposite side of the subject from the imaging surface is defined as a positive sign (d> 0). An in-focus state where the imaging position of the subject is on the imaging surface (in-focus position) is d = 0. In FIG. 7, the subject 801 shows an example in a focused state (d = 0), and the subject 802 shows an example in a front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to form a defocus state (| d |> 0).
前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する第1焦点検出画素201および第3焦点検出画素203(第2焦点検出画素202および第4焦点検出画素204)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。 In the front pin state (d <0), the luminous flux that has passed through the first pupil partial area 501 (second pupil partial area 502) out of the luminous flux from the subject 802 is once condensed and then the gravity center position G1 of the luminous flux. The image spreads in the width Γ 1 (Γ 2) with (G 2) as the center, resulting in a blurred image on the imaging surface 800. The blurred image is received by the first focus detection pixel 201 and the third focus detection pixel 203 (the second focus detection pixel 202 and the fourth focus detection pixel 204) constituting each pixel arranged in the image sensor, and the first image is received. A focus detection signal (second focus detection signal) is generated.
よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。なお、X方向の第1焦点検出信号(第2焦点検出信号)は、第1焦点検出画素201および第3焦点検出画素203(第2焦点検出画素202および第4焦点検出画素204)により受光された信号をそれぞれ加算させることで生成される。Y方向の第1焦点検出信号(第2焦点検出信号)は、第1焦点検出画素201および第2焦点検出画素202(第2焦点検出画素203および第4焦点検出画素204)により受光された信号をそれぞれ加算させることで生成される。 Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 802 is blurred by the width Γ1 (Γ2) at the gravity center position G1 (G2) on the imaging surface 800. The first focus detection signal (second focus detection signal) in the X direction is received by the first focus detection pixel 201 and the third focus detection pixel 203 (second focus detection pixel 202 and fourth focus detection pixel 204). Generated by adding the respective signals. The first focus detection signal (second focus detection signal) in the Y direction is a signal received by the first focus detection pixel 201 and the second focus detection pixel 202 (second focus detection pixel 203 and fourth focus detection pixel 204). Are generated by adding each of them.
第1焦点検出信号(第2焦点検出信号)被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。 The blur width Γ1 (Γ2) of the subject image of the first focus detection signal (second focus detection signal) generally increases in proportion as the magnitude | d | of the defocus amount d increases. Similarly, the magnitude | p | of the object image displacement amount p (= difference G1-G2 in the center of gravity of the light beam) between the first focus detection signal and the second focus detection signal is also the size of the defocus amount d. As | d | increases, it generally increases in proportion. Even in the rear pin state (d> 0), the image shift direction of the subject image between the first focus detection signal and the second focus detection signal is opposite to that in the front pin state, but the same.
したがって、本発明では、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。 Therefore, in the present invention, as the magnitude of the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal or the first focus detection signal and the second focus detection signal increases, The amount of image shift between the first focus detection signal and the second focus detection signal increases.
なお、撮像面位相差AFにおいては、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量(第1評価値)を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する関係性から、像ずれ量を第1検出デフォーカス量に変換して焦点検出を行う。 In the imaging plane phase difference AF, the first focus detection signal and the second focus detection signal are relatively shifted to calculate a correlation amount (first evaluation value) representing the degree of coincidence of the signals, and the correlation (signal The image shift amount is detected from the shift amount that improves the degree of coincidence. As the defocus amount of the image pickup signal increases, the image shift amount is determined based on the relationship that the image shift amount increases between the first focus detection signal and the second focus detection signal. Focus detection is performed by converting into a focus amount.
[シェーディング]
本実施例の撮像素子24において、焦点検出用画素群(第1焦点検出画素から第4焦点検出画素)に向かう光束の一部が撮像光学系10(レンズ、絞り等の光学素子やこれを保持する鏡筒を含む)によって遮られる、いわゆるケラレが発生している場合がある。この場合、一対の像信号のうち少なくとも一方に、光量の低下による信号レベルの低下や、像信号の歪みや、像信号の強度むら(焦点検出用画素ごとの受光感度のむら:以下、シェーディングという)を生じさせる。特にレンズ偏芯機能を有する交換レンズにおいては、各レンズ偏芯機構によりレンズが偏芯することで、焦点検出用画素群に向かう光束が一般的なレンズのシェーディングとは異なるシェーディングを生じさせる。
[shading]
In the image pickup device 24 of the present embodiment, a part of the light beam traveling toward the focus detection pixel group (from the first focus detection pixel to the fourth focus detection pixel) holds the image pickup optical system 10 (an optical element such as a lens and a diaphragm, and this). In some cases, so-called vignetting occurs, which is interrupted by a lens barrel including In this case, at least one of the pair of image signals has a decrease in signal level due to a decrease in the amount of light, distortion of the image signal, and unevenness of the intensity of the image signal (unevenness of light receiving sensitivity for each focus detection pixel: hereinafter referred to as shading) Give rise to In particular, in an interchangeable lens having a lens decentering function, the lens is decentered by each lens decentering mechanism, so that the light beam traveling toward the focus detection pixel group causes shading different from general lens shading.
撮像光学系10をシフト機構16によってX方向に偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を図7に示す。各グラフの横軸は各信号を出力させている信号出力画素を表しており、撮像素子24の撮像領域と光軸の交わる点をX=0,Y=0とした時、Y=0の一列の画素を−X方向側の端画素から+X方向側の端画素までを左端から右端へプロットしている。各グラフの縦軸は各信号の出力値を表している。なお、この時の被写体は均一輝度面の出力値を表している。 FIG. 7 shows a first focus detection signal in the X direction and a second focus detection signal in the X direction when the imaging optical system 10 is decentered in the X direction by the shift mechanism 16. The horizontal axis of each graph represents a signal output pixel that outputs each signal. When X = 0 and Y = 0 at the intersection of the imaging region of the imaging device 24 and the optical axis, one row of Y = 0. These pixels are plotted from the left end to the right end from the end pixel on the −X direction side to the end pixel on the + X direction side. The vertical axis of each graph represents the output value of each signal. Note that the subject at this time represents the output value of the uniform luminance plane.
本実施例における撮像光学系10のシフト機構16では、偏芯していない状態を0として、シフト偏芯量Sを±10の目盛りの中で偏芯可能である。なお、各目盛りは等間隔である。 In the shift mechanism 16 of the image pickup optical system 10 in the present embodiment, the shift eccentricity amount S can be decentered within a scale of ± 10, with 0 being an uncentered state. Each scale is equally spaced.
図7(a)では、撮像光学系10が偏芯していないとき(シフト偏芯量S=0)のX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 7A shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is not decentered (shift eccentricity S = 0).
図7(b)では、撮像光学系10をシフト機構16によってシフト偏芯量S=−2へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 7B shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered by the shift mechanism 16 to the shift eccentricity S = −2. ing.
図7(c)では、撮像光学系10をシフト機構16によってシフト偏芯量S=−4へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 7C shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered to the shift eccentricity S = −4 by the shift mechanism 16. ing.
図7(d)では、撮像光学系10をシフト機構16によってシフト偏芯量S=−6へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 7D shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered by the shift mechanism 16 to the shift eccentricity S = −6. ing.
撮像光学系10をティルト機構17によってX方向に偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を図8に示す。各グラフの横軸は各信号を出力させている信号出力画素を表しており、撮像素子24の撮像領域の光軸をX=0,Y=0とした時、Y=0の一列の画素を−X方向側の端画素から+X方向側の端画素までを左端から右端へプロットしている。各グラフの縦軸は各信号の出力値を表している。なお、この時の被写体は均一輝度面の出力値を表している。 FIG. 8 shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered in the X direction by the tilt mechanism 17. The horizontal axis of each graph represents a signal output pixel that outputs each signal. When the optical axis of the imaging region of the image sensor 24 is X = 0 and Y = 0, the pixels in one column of Y = 0 are represented. From the end pixel on the −X direction side to the end pixel on the + X direction side is plotted from the left end to the right end. The vertical axis of each graph represents the output value of each signal. Note that the subject at this time represents the output value of the uniform luminance plane.
本実施例における撮像光学系10のティルト機構17では、偏芯していない状態を0として、ティルト偏芯量Tを±6の目盛りの中で偏芯可能である。なお、各目盛りは等間隔である。 In the tilt mechanism 17 of the imaging optical system 10 in the present embodiment, the tilt decentering amount T can be decentered within a scale of ± 6, with 0 being not decentered. Each scale is equally spaced.
図8(a)では、撮像光学系10が偏芯していないとき(ティルト偏芯量S=0)のX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 8A shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is not decentered (tilt eccentricity S = 0).
図8(b)では、撮像光学系10をティルト機構17によってティルト偏芯量T=−2へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 8B shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered to the tilt eccentricity T = −2 by the tilt mechanism 17. ing.
図8(c)では、撮像光学系10をティルト機構17によってティルト偏芯量T=−4へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 8C shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered to the tilt decentering amount T = −4 by the tilt mechanism 17. ing.
図8(d)では、撮像光学系10をティルト機構17によってティルト偏芯量T=−6へ偏芯させたときのX方向の第1焦点検出信号とX方向の第2焦点検出信号を表している。 FIG. 8D shows the first focus detection signal in the X direction and the second focus detection signal in the X direction when the imaging optical system 10 is decentered to the tilt eccentricity T = −6 by the tilt mechanism 17. ing.
図7(a)から(d)、図8(a)から図8(d)より得られた第1焦点検出信号と第2焦点検出信号の出力信号のそれぞれの比率を、図9に示す。図9(a)は図7(a)から(d)に示すシフト機構16による第1焦点検出信号と第2焦点検出信号の出力信号の比率を表している。図9(b)は図8(a)から(d)に示すティルト機構17による第1焦点検出信号と第2焦点検出信号の出力信号の比率を表している。 FIG. 9 shows the respective ratios of the output signals of the first focus detection signal and the second focus detection signal obtained from FIGS. 7 (a) to (d) and FIGS. 8 (a) to 8 (d). FIG. 9A shows the ratio of the output signals of the first focus detection signal and the second focus detection signal by the shift mechanism 16 shown in FIGS. 7A to 7D. FIG. 9B shows the ratio of the output signals of the first focus detection signal and the second focus detection signal by the tilt mechanism 17 shown in FIGS. 8A to 8D.
図9(a)から、シフト機構16によって第1焦点検出信号と第2焦点検出信号の比率がリニアに変化していることが分かる。また、図9(b)では、ティルト機構17によって第1焦点検出信号と第2焦点検出信号の比率がリニアに変化していて、図9(a)とは違った変化である。つまり、シフト機構16とティルト機構17とでは、第1焦点検出信号と第2焦点検出信号の変化の傾向が違っていることが分かる。この傾向を利用すれば、特に変化が大きく出る−X端の比率と、+X端の比率を算出することで、現在のシフト機構16・ティルト機構17の偏芯量が算出できる。 FIG. 9A shows that the ratio of the first focus detection signal and the second focus detection signal is linearly changed by the shift mechanism 16. Further, in FIG. 9B, the ratio of the first focus detection signal and the second focus detection signal is linearly changed by the tilt mechanism 17, which is a change different from that in FIG. 9A. That is, it can be seen that the shift mechanism 16 and the tilt mechanism 17 have different trends in changes in the first focus detection signal and the second focus detection signal. If this tendency is utilized, the eccentric amount of the current shift mechanism 16 and tilt mechanism 17 can be calculated by calculating the ratio of the −X end and the ratio of the + X end where the change is particularly large.
なお、第1焦点検出信号と第2焦点検出信号の比率は被写体やフォーカス位置に依存せず、図9に示す比率の関係が崩れることはない。よって、一般的な被写体を撮影するようなシーンにおいても、第1焦点検出信号と第2焦点検出信号の変化の傾向が検出できるため、シフト機構16・ティルト機構17の偏芯量の算出が可能である。 Note that the ratio between the first focus detection signal and the second focus detection signal does not depend on the subject and the focus position, and the ratio relationship shown in FIG. 9 does not collapse. Therefore, even in a scene where a general subject is photographed, the tendency of changes in the first focus detection signal and the second focus detection signal can be detected, so that the eccentric amounts of the shift mechanism 16 and the tilt mechanism 17 can be calculated. It is.
[レンズ偏芯量検出]
以下、本実施例において、像信号生成手段44から出力された一対の像信号を用いて、偏芯量算出手段45によって撮像光学系10のレンズ偏芯量を算出する方法について説明する。
[Lens eccentricity detection]
Hereinafter, in this embodiment, a method for calculating the lens eccentricity of the imaging optical system 10 by the eccentricity calculation unit 45 using the pair of image signals output from the image signal generation unit 44 will be described.
図10は水平方向にレンズが偏芯された際の偏芯量と左右端画素の第1焦点検出信号と第2焦点検出信号の信号比率の関係を表した図である。 FIG. 10 is a diagram showing the relationship between the amount of decentration when the lens is decentered in the horizontal direction and the signal ratio of the first focus detection signal and the second focus detection signal of the left and right end pixels.
図10(a)は1例として、所定の交換レンズのシフト機構16によってレンズを偏芯させた際の第1焦点検出信号と第2焦点検出信号の信号比率の関係を表しており、左右端画素の信号比率の平均から算出した式より、シフト機構16によって偏芯されたレンズの偏芯量を算出することができる。 FIG. 10A shows, as an example, the relationship between the signal ratios of the first focus detection signal and the second focus detection signal when the lens is decentered by the shift mechanism 16 of a predetermined interchangeable lens. The decentering amount of the lens decentered by the shift mechanism 16 can be calculated from the formula calculated from the average of the pixel signal ratios.
図10(b)は1例として、所定の交換レンズのティルト機構17によってレンズを偏芯させた際の第1焦点検出信号と第2焦点検出信号の信号比率の関係を表しており、左右端画素の信号比率の平均から算出した式より、ティルト機構17によって偏芯されたレンズの偏芯量を算出することができる。 FIG. 10B shows, as an example, the relationship between the signal ratio of the first focus detection signal and the second focus detection signal when the lens is decentered by the tilt mechanism 17 of a predetermined interchangeable lens. The decentering amount of the lens decentered by the tilt mechanism 17 can be calculated from an equation calculated from the average of the pixel signal ratios.
図10(c)は1例として、所定の交換レンズのレンズ偏芯量と左右端画素の信号比率の差の関係を表しており、ティルト機構17およびシフト機構16で左右端画素の信号比率の差から算出した式を用いることで、偏芯したレンズがティルト機構17およびシフト機構16のどちらで偏芯しているか検出することが可能となっている。 FIG. 10C shows, as an example, the relationship between the lens eccentricity of a predetermined interchangeable lens and the signal ratio difference between the left and right end pixels. The tilt mechanism 17 and the shift mechanism 16 change the signal ratio of the left and right end pixels. By using the formula calculated from the difference, it is possible to detect whether the eccentric lens is eccentric by the tilt mechanism 17 or the shift mechanism 16.
本実施例では、第1焦点検出信号と第2焦点検出信号の信号比率を求める際に左右端画素の出力を用いて計算を行ったが、例えば上下方向であれば、上下端画素の出力を計算に用いても良いし、また、端画素のみでなく1ライン全ての画素の出力を計算に用いても良く、その要旨の範囲内で種々の変形及び変更が可能である。 In the present embodiment, the calculation was performed using the outputs of the left and right end pixels when obtaining the signal ratio of the first focus detection signal and the second focus detection signal. You may use for calculation, and you may use not only an edge pixel but the output of the pixel of all the lines for calculation, and various deformation | transformation and change are possible within the range of the summary.
[電子先幕に利用した際の効果]
以下に、算出したレンズ偏芯量を利用して補正を行う電子先幕撮影について図11を用いて説明する。
[Effect when used for electronic front curtain]
Hereinafter, electronic front curtain photography in which correction is performed using the calculated lens eccentricity will be described with reference to FIG.
図11は算出したレンズ偏芯量を利用して補正を行うライブビュー状態における電子先幕撮影の一連の動作を表すフローチャートである。ライブビュー撮影が開始すると、まず、S101で不図示のSW1がONされることを待つことになる。SW1がONされるとS102に進む。 FIG. 11 is a flowchart showing a series of operations for electronic front curtain shooting in a live view state in which correction is performed using the calculated lens eccentricity. When live view shooting starts, first, it waits for SW1 (not shown) to be turned on in S101. When SW1 is turned on, the process proceeds to S102.
S102は交換レンズ1に内蔵されたレンズ記憶部14に記憶されている情報やレンズ駆動部11から出力されるフォーカスレンズ位置情報などの情報を、レンズ制御部13および電気接点15を介してカメラ制御部40に転送する。転送が終了するとS103に進む。S103は測光動作であり、撮像素子24によって、撮像光学系10により形成された被写体像の輝度を測定することが可能となっている。測光動作が終了すると、S104に進む。 In S102, information stored in the lens storage unit 14 built in the interchangeable lens 1 and information such as focus lens position information output from the lens driving unit 11 are controlled by the camera via the lens control unit 13 and the electrical contact 15. Forward to unit 40. When the transfer ends, the process proceeds to S103. S103 is a photometric operation, and the image sensor 24 can measure the luminance of the subject image formed by the imaging optical system 10. When the photometric operation ends, the process proceeds to S104.
S104は焦点検出動作であり、撮像素子24に配置された焦点検出用画素によって撮像光学系10から入射した光から、像信号生成手段44によって第1焦点検出信号および第2焦点検出信号を出力する。信号の出力が終了すると、S105に進む。S105はレンズ偏芯情報を取得する工程であり、前述の第1焦点検出信号および第2焦点検出信号の出力結果を用いて、偏芯量算出手段45によって算出することで、ティルト機構17・シフト機構16によるレンズの偏芯情報を取得する。レンズ偏芯情報の取得が終了するとS106に進む。 S104 is a focus detection operation, and the first focus detection signal and the second focus detection signal are output by the image signal generation means 44 from the light incident from the imaging optical system 10 by the focus detection pixels arranged in the image sensor 24. . When the signal output ends, the process proceeds to S105. S105 is a step of acquiring lens decentering information, and the tilt mechanism 17 shift is calculated by the decentering amount calculating means 45 using the output results of the first focus detection signal and the second focus detection signal described above. The lens eccentricity information by the mechanism 16 is acquired. When the acquisition of the lens eccentricity information is completed, the process proceeds to S106.
S106はレンズの偏芯可否を判定し、レンズが偏芯されていなければレンズ記憶部14に記憶されているレンズ固有の射出瞳距離を取得しS108に進む。また、レンズが偏芯されていると、S105で算出したレンズ偏芯量を基に、S107にてレンズ記憶部14から取得したレンズ固有の射出瞳距離を補正し、S108に進む。 In S106, it is determined whether or not the lens is decentered. If the lens is not decentered, the lens-specific exit pupil distance stored in the lens storage unit 14 is acquired, and the process proceeds to S108. If the lens is decentered, the lens-specific exit pupil distance acquired from the lens storage unit 14 in S107 is corrected based on the lens decentering amount calculated in S105, and the process proceeds to S108.
S108は電子先幕走査について、S107にて補正した射出瞳距離を用いて、電子先幕の走査パターンを演算する。演算が終了するとS109に進む。S109は不図示のSW2がONされることを待つ。ONされるとS110に進み、電子先幕撮影を行い、撮像する。撮像が終了するとS111に進み、露光によって撮像素子24に蓄積された電荷を光電変換部301にて光電変換し、作成された画像データをカメラ記憶部42に保存する。保存が終了するとS112に進む。 In S108, for the electronic front curtain scanning, the electronic front curtain scanning pattern is calculated using the exit pupil distance corrected in S107. When the calculation is completed, the process proceeds to S109. S109 waits for SW2 (not shown) to be turned on. When turned on, the process proceeds to S110, where electronic front curtain photography is performed and taken. When the imaging is completed, the process proceeds to S <b> 111, the charge accumulated in the image sensor 24 by exposure is photoelectrically converted by the photoelectric conversion unit 301, and the created image data is stored in the camera storage unit 42. When the storage is completed, the process proceeds to S112.
S112では不図示のライブビュー開始・終了釦がONされたか否かを判定し、ONされた場合はライブビュー状態を終了する。ONされていない場合は、S101に進み、SW1がONされることを待つ。 In S112, it is determined whether or not a live view start / end button (not shown) is turned on. If turned on, the live view state is finished. If it is not turned on, the process proceeds to S101 and waits for SW1 to be turned on.
本実施例によれば、偏芯量が検出不可能なレンズにおいても、撮像素子から出力された第1焦点検出信号と第2焦点検出信号の信号比率から偏芯量を算出して最適な電子先幕走査および最適な電子先幕撮影が可能となる。 According to the present embodiment, even in a lens where the amount of eccentricity cannot be detected, the amount of eccentricity is calculated from the signal ratio of the first focus detection signal and the second focus detection signal output from the image sensor, and the optimal electron Front curtain scanning and optimum electronic front curtain photography are possible.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
10 撮像光学系
24 撮像素子
44 像信号生成手段
45 偏芯量算出手段
DESCRIPTION OF SYMBOLS 10 Imaging optical system 24 Image pick-up element 44 Image signal generation means 45 Eccentricity amount calculation means
Claims (4)
前記撮像光学系(10)から入射された光束を複数の領域に瞳分割するように撮像画素を複数配列した撮像素子(24)と、
前記撮像素子(24)光電変換によって出力される出力値から一対の像信号を生成する像信号生成手段(44)と、
前記像信号生成手段(44)によって生成された一対の像信号から、前記撮像光学系(10)の偏芯された少なくとも一部のレンズユニットの偏芯量を算出する偏芯量算出手段(45)と、
を有することを特徴とする撮像装置。 An imaging optical system (10) capable of decentering at least a part of the lens unit with respect to the optical axis;
An imaging device (24) in which a plurality of imaging pixels are arranged so as to divide the light beam incident from the imaging optical system (10) into a plurality of regions;
Image signal generation means (44) for generating a pair of image signals from output values output by the image sensor (24) photoelectric conversion;
Eccentricity amount calculating means (45) for calculating the eccentricity amount of at least a part of the decentered lens unit of the imaging optical system (10) from the pair of image signals generated by the image signal generating means (44). )When,
An imaging device comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017047128A JP2018151508A (en) | 2017-03-13 | 2017-03-13 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017047128A JP2018151508A (en) | 2017-03-13 | 2017-03-13 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018151508A true JP2018151508A (en) | 2018-09-27 |
Family
ID=63681630
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017047128A Pending JP2018151508A (en) | 2017-03-13 | 2017-03-13 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018151508A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020031463A1 (en) | 2018-08-10 | 2020-02-13 | 本田技研工業株式会社 | Clutch-by-wire system |
| CN111953875A (en) * | 2020-08-12 | 2020-11-17 | Oppo广东移动通信有限公司 | Depth Inspection Components and Electronic Equipment |
-
2017
- 2017-03-13 JP JP2017047128A patent/JP2018151508A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020031463A1 (en) | 2018-08-10 | 2020-02-13 | 本田技研工業株式会社 | Clutch-by-wire system |
| CN111953875A (en) * | 2020-08-12 | 2020-11-17 | Oppo广东移动通信有限公司 | Depth Inspection Components and Electronic Equipment |
| CN111953875B (en) * | 2020-08-12 | 2022-02-15 | Oppo广东移动通信有限公司 | Depth detection assembly and electronic equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6249825B2 (en) | Imaging device, control method thereof, and control program | |
| JP6362060B2 (en) | Imaging apparatus, control method thereof, and program | |
| JP6486149B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
| JP2015203783A (en) | Image capturing device, control device, control method, program, and storage medium | |
| JP6285683B2 (en) | Imaging apparatus and control method thereof | |
| US20170302844A1 (en) | Image capturing apparatus, control method therefor, and storage medium | |
| JP2017032646A (en) | Imaging apparatus and control method thereof | |
| JP2015194736A (en) | Imaging apparatus and control method thereof | |
| JP7019337B2 (en) | Image stabilization device, lens device and their control method | |
| JP2018151508A (en) | Imaging device | |
| JP2015210285A (en) | Imaging device, manufacturing method of the same, program thereof and recording medium | |
| JP2017192028A (en) | Imaging apparatus and control method of the same, program, and memory medium | |
| JP2019219577A (en) | Detection device and detection method | |
| JP2022103610A (en) | Lens device, image pickup device, lens device control method, and program | |
| JP2017219782A (en) | Control device, imaging device, control method, program, and storage medium | |
| JP2015145970A (en) | Imaging apparatus, control method therefor, program, and storage medium | |
| JP6526294B2 (en) | Imaging device and lens device | |
| JP7422466B2 (en) | Image stabilization control device, imaging device, and control method thereof | |
| JP7022575B2 (en) | Focus detectors and methods, and imaging devices | |
| JP2017032978A (en) | Control device, imaging device, control method, program, and storage medium | |
| JP2017223763A (en) | Imaging device | |
| JP2015121778A (en) | Imaging device, imaging system, imaging device control method, program, and storage medium | |
| JP2017054052A (en) | Control device, imaging device, control method, program, and storage medium | |
| JP2003032538A (en) | Imaging device | |
| JP6938719B2 (en) | Imaging device and imaging system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |