JP2013037296A - Image pickup apparatus and image pickup device - Google Patents
Image pickup apparatus and image pickup device Download PDFInfo
- Publication number
- JP2013037296A JP2013037296A JP2011175402A JP2011175402A JP2013037296A JP 2013037296 A JP2013037296 A JP 2013037296A JP 2011175402 A JP2011175402 A JP 2011175402A JP 2011175402 A JP2011175402 A JP 2011175402A JP 2013037296 A JP2013037296 A JP 2013037296A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- pixel
- pupil position
- exit pupil
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
本発明は、オートフォーカス機能を有する撮像装置及び撮像素子に関する。 The present invention relates to an imaging apparatus and an imaging element having an autofocus function.
近年、デジタルカメラなどの撮影機能付き携帯機器(撮像装置)は、オートフォーカス機能を有するものが多い。この種の撮像装置には、画像構成のための撮像用画素(通常画素)以外に、焦点検出用の画素(以下、AF画素という)を内蔵した撮像素子を採用して、瞳分割位相差法によりオートフォーカスを行うものがある。この手法では、瞳を左右方向に分割し、左、右それぞれの瞳を透過した光束を別々に受光する撮像部を有するAF画素を撮像素子に構成する必要がある。これらの各種AF画素による画像信号に対する演算(以下、AF演算又は相関演算という)によって、ピント合わせのためのAF信号を生成してピント合わせを行うことにより、高速なオートフォーカスが可能である。 In recent years, many portable devices (imaging devices) with a photographing function such as a digital camera have an autofocus function. This type of imaging apparatus employs an imaging element that incorporates a focus detection pixel (hereinafter referred to as an AF pixel) in addition to an imaging pixel (normal pixel) for image configuration, and uses a pupil division phase difference method. There are some that perform autofocus. In this method, it is necessary to divide the pupil in the left-right direction, and to configure an AF pixel having an imaging unit that separately receives light beams transmitted through the left and right pupils as an imaging element. A high-speed autofocus is possible by generating an AF signal for focusing and performing focusing on an image signal by these various AF pixels (hereinafter referred to as AF calculation or correlation calculation).
ところで、撮像素子においては、各画素にマイクロレンズを配置するものがある。撮像素子の画素位置に応じてマイクロレンズを偏心させることで、撮影レンズからの光を各画素の受光領域に適切に導く。例えば、特許文献1においては、マイクロレンズを画素位置に応じて偏心させ、かつ射出瞳の中心とマイクロレンズの面頂とを結ぶ直線上に受光領域を設定する技術が開示されている。これにより、左右の瞳を透過した光束を、左右の別々のAF画素に確実に入射させることができ、AF精度を向上させることができる。 By the way, there is an image sensor in which a micro lens is arranged in each pixel. By decentering the microlens according to the pixel position of the image sensor, the light from the photographing lens is appropriately guided to the light receiving area of each pixel. For example, Patent Document 1 discloses a technique in which a microlens is decentered according to a pixel position and a light receiving region is set on a straight line connecting the center of an exit pupil and the top of the microlens. As a result, the light beam transmitted through the left and right pupils can be reliably incident on the left and right AF pixels, and the AF accuracy can be improved.
特開2009−290157号公報 JP 2009-290157 A
しかしながら、特許文献1の提案では、撮影レンズ光軸外からの光線が撮像素子に入る時の角度が傾くことによって生じるいわゆるシェーディングによる光量減少が考慮されていなかった。 However, in the proposal of Patent Document 1, reduction in the amount of light due to so-called shading, which is caused by the inclination of the angle when the light beam from the outside of the optical axis of the photographing lens enters the image sensor, is not considered.
本発明は、光軸外の被写体でも、被写体像の光量を維持しつつ、十分なフォーカス精度を維持することができる撮像装置及び撮像素子を提供することを目的とする。 An object of the present invention is to provide an imaging device and an imaging element that can maintain sufficient focus accuracy while maintaining the amount of light of a subject image even for a subject outside the optical axis.
本発明に係る撮像素子は、撮像用の画素及び焦点検出用の画素を有する複数の画素がマトリクス状に配列された撮像素子であって、上記画素は、撮影レンズからの光が入射する受光領域と、上記撮影レンズからの光を上記受光領域に導くマイクロレンズとを具備し、上記焦点検出用の画素としては、上記焦点検出用の画素の受光領域は、想定される設計瞳位置と上記マイクロレンズとの位置関係に対応して領域の一端の位置が規定される。
本発明に係る撮像装置は、請求項1に記載の撮像素子と、射出瞳位置が上記複数の設計瞳位置のいずれに一致するかを判定し、判定結果に基づいて焦点検出に用いる焦点検出用の画素を決定する瞳位置決定部と、上記焦点検出に用いる焦点検出用の画素を用いて、焦点検出を行う焦点検出部と、を具備する。
An image pickup device according to the present invention is an image pickup device in which a plurality of pixels each having an image pickup pixel and a focus detection pixel are arranged in a matrix, and the pixel is a light receiving region where light from a photographing lens enters. And a microlens that guides light from the photographing lens to the light receiving region, and the focus detection pixel includes a light receiving region of the focus detection pixel, an assumed design pupil position, and the micro The position of one end of the region is defined corresponding to the positional relationship with the lens.
An imaging apparatus according to the present invention determines whether the imaging pupil according to claim 1 and an exit pupil position coincide with any of the plurality of designed pupil positions, and is used for focus detection based on a determination result. A pupil position determination unit that determines the pixel of the first pixel, and a focus detection unit that performs focus detection using the focus detection pixels used for the focus detection.
本発明によれば、光軸外の被写体でも、被写体像の光量を維持しつつ、十分なフォーカス精度を維持することができるという効果を有する。 According to the present invention, it is possible to maintain sufficient focusing accuracy while maintaining the amount of light of a subject image even for a subject outside the optical axis.
以下、図面を参照して本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は本発明の一実施の形態に係る撮像装置を示すブロック図である。 FIG. 1 is a block diagram showing an imaging apparatus according to an embodiment of the present invention.
先ず、図2A、図2B乃至図11を参照して、本実施の形態において採用する撮像素子及び像信号の補正方法について説明する。図2Aは撮像素子を構成する各画素のうち撮影レンズの光軸近傍の画素の構成を示す説明図であり、図2Bは撮像素子を構成する各画素のうち撮影レンズの光軸周辺部の画素の構成を示す説明図である。 First, with reference to FIGS. 2A and 2B to FIG. 11, an image sensor and an image signal correction method employed in the present embodiment will be described. FIG. 2A is an explanatory diagram illustrating the configuration of pixels in the vicinity of the optical axis of the photographing lens among the pixels constituting the image sensor, and FIG. 2B is a pixel in the periphery of the optical axis of the photographing lens among the pixels constituting the image sensor. It is explanatory drawing which shows this structure.
これまでの技術では、各画素位置におけるマイクロレンズと受光領域との関係は、1つの射出瞳位置に対してのみ最適化された構成になっている。このため、最適化された瞳位置からずれた瞳位置での撮影が行われた場合には、左右の瞳を透過した光束が左右のAF画素に均等に入射せず、AF精度が劣化する。例えば、瞳位置が異なる交換レンズを用いた場合、或いは瞳位置が移動するズームレンズを用いた場合には、AF精度が劣化するという問題があったので、合わせて説明する。
本実施の形態では、瞳位置が変化する場合でも、被写像の光量を維持しつつ、十分なフォーカス精度を維持することができる撮像装置について説明する。
撮像装置の撮影レンズは、被写体から各光路を介して撮像装置に入射する光学像を撮像素子の受光面に結像させる。瞳分割位相差法においては、AF画素として2つの撮像部(例えば、R撮像部とL撮像部)を構成し、各光路を射出瞳において例えば右方向と左方向とに分割して、右方向からの光(右光)と左方向からの光(左光)とを、R撮像部とL撮像部とにそれぞれ入射させる。
In the conventional technology, the relationship between the microlens and the light receiving region at each pixel position is optimized only for one exit pupil position. For this reason, when shooting is performed at a pupil position that is deviated from the optimized pupil position, the light beam that has passed through the left and right pupils does not uniformly enter the left and right AF pixels, and the AF accuracy deteriorates. For example, when an interchangeable lens with a different pupil position is used, or when a zoom lens with a moving pupil position is used, there is a problem that the AF accuracy is deteriorated.
In this embodiment, an imaging device that can maintain sufficient focus accuracy while maintaining the amount of light of an image even when the pupil position changes will be described.
The imaging lens of the imaging apparatus forms an optical image incident on the imaging apparatus from the subject via each optical path on the light receiving surface of the imaging element. In the pupil division phase difference method, two imaging units (for example, an R imaging unit and an L imaging unit) are configured as AF pixels, and each optical path is divided into, for example, a right direction and a left direction at the exit pupil, and the right direction Light (right light) and light from the left direction (left light) are incident on the R imaging unit and the L imaging unit, respectively.
ピントが合っている場合には、R,L撮像部には被写体の略同一点からの光が入射する。従って、水平方向に配置した複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは同一となる。ピントがずれると、被写体の略同一点からの光は、ピントのずれ量に応じてずれた位置のR撮像部とL撮像部とに入射する。従って、水平方向に配置した複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは位相がずれ、位相のずれ量はピントのずれ量に対応する。R,L撮像部によって得られる画像信号同士の位相差(相関)に基づいて、ピント調整用のレンズを駆動することで、オートフォーカスを実現することができる。 When the subject is in focus, light from substantially the same point of the subject enters the R and L imaging units. Accordingly, the image signal obtained by the plurality of R imaging units arranged in the horizontal direction is the same as the image signal obtained by the plurality of L imaging units. When the focus is shifted, light from substantially the same point of the subject enters the R imaging unit and the L imaging unit at positions shifted according to the focus shift amount. Therefore, the image signals obtained by the plurality of R imaging units arranged in the horizontal direction and the image signals obtained by the plurality of L imaging units are out of phase, and the amount of phase deviation corresponds to the amount of focus deviation. Autofocus can be realized by driving a focus adjustment lens based on the phase difference (correlation) between the image signals obtained by the R and L imaging units.
なお、読み出し回路をAF画素と通常画素とで共通化するために、1画素にR,L撮像部の両方を構成することなく、R撮像部のみを有する画素(以下、R画素という)とL撮像部のみを有する画素(以下、L画素という)によってAF画素を構成するようにしてもよい。更に、L画素を省略し、AF画素としてR画素のみを用いて、複数の撮像用画素(以下、N画素ともいう)によって得られる画像信号とR画素によって得られる画像信号との相関によって、ピントのずれ量を求めるようにしてもよい。 Note that in order to share the readout circuit between the AF pixel and the normal pixel, a pixel having only the R imaging unit (hereinafter referred to as an R pixel) and an L pixel without forming both the R and L imaging units in one pixel. An AF pixel may be configured by a pixel having only an imaging unit (hereinafter referred to as an L pixel). Further, the L pixel is omitted, and only the R pixel is used as the AF pixel, and the focus is determined by the correlation between the image signal obtained by a plurality of imaging pixels (hereinafter also referred to as N pixels) and the image signal obtained by the R pixel. The amount of deviation may be obtained.
図2A,図2Bにおいては、画素51(51’),52(52’)が夫々R画素、L画素である例を示している。画素51(51’),52(52’)を含む各画素は、最上部から、順に、マイクロレンズ53(53’)、カラーフィルタ54(54’)、色画素の混色防止のための遮光膜55(55’)、色フィルタ層をのせる表面を平らにするための平滑層56(56’)、及び、光電変換領域(以下、受光領域という)が配置されている。受光領域は、遮光部58(58R,58L)(斜線部)によって遮光される。遮光部58,58Rの遮光によって、受光領域57R,57R’は、R撮像部を構成し、画素51,51’はR画素となる。また、遮光部58,58Lの遮光によって、受光領域57L,57L’は、L撮像部を構成し、画素52,52’はL画素となる。
2A and 2B show an example in which the pixels 51 (51 ') and 52 (52') are an R pixel and an L pixel, respectively. The pixels including the pixels 51 (51 ′) and 52 (52 ′) are, in order from the top, the microlens 53 (53 ′), the color filter 54 (54 ′), and a light shielding film for preventing color mixture of the color pixels. 55 (55 ′), a smoothing layer 56 (56 ′) for flattening the surface on which the color filter layer is placed, and a photoelectric conversion region (hereinafter referred to as a light receiving region) are arranged. The light receiving area is shielded by the light shielding portions 58 (58R, 58L) (shaded portions). The
図2Aの破線は各マイクロレンズ53の光軸を示している。R撮像部、L撮像部を構成する受光領域57R,57Lは、遮光部58によって遮光され、光を有効に受光する有効受光領域の一端の位置は、図2Aに示すように、マイクロレンズ53の光軸に一致している。
A broken line in FIG. 2A indicates an optical axis of each
画素51,52は撮影レンズの光軸近傍の画素であるので、画素51,52のマイクロレンズ53の光軸は、図示しない撮影レンズの光軸と略平行であり、マイクロレンズ53の光軸と撮影レンズの光軸とは略一致する。従って、受光領域57Rの有効受光領域には、射出瞳を通過する光束を左右に均等に分割したうちの右側の光束が入射し、受光領域57Lの有効受光領域には、射出瞳を通過する光束を左右に均等に分割したうちの左側の光束が入射する。即ち、受光領域57R,57Lには、射出瞳を通過する光束が左右に均等に分割されて入射される。
一方、画面周辺部では、シェーディング対策により、マイクロレンズ53’の光軸(一点鎖線)に対し有効受光領域をδだけずらすような設計がなされている。単純化して表すと、画面周辺部では、図2Bのような構成となる。
Since the
On the other hand, the screen periphery is designed so that the effective light receiving region is shifted by δ with respect to the optical axis (one-dot chain line) of the
また、画素が撮影レンズの光軸近傍からずれた位置に配置されている場合には、主光線はマイクロレンズ53の光軸とは平行にならない。この場合には、射出瞳を通過する光束をL撮像部又はR撮像部に均等に分割して入射させるためには、L,R撮像部を構成する有効受光領域の一端を、マイクロレンズ53の面頂と射出瞳の中心とを通る軸上に位置させる必要がある。
そこで、図2Bに示すように、受光領域57R,57L上に夫々遮光部58R,58Lを設け、これらの遮光部58R,58Lによる遮光領域を夫々εR,εLだけずらすようになっている。これにより、一対のAF用画素51,52に対しマイクロレンズ53の光軸と平行な光線が入射したときのR,Lの出力のバランスと、一対のAF用画素51’,52’に対しマイクロレンズ53’の光軸と平行でない光線が入射したときのR,Lの出力のバランスとを均等にすることができる。
In addition, when the pixel is arranged at a position shifted from the vicinity of the optical axis of the photographing lens, the principal ray does not become parallel to the optical axis of the
Therefore, as shown in FIG. 2B,
図3は有効受光領域、マイクロレンズ及び射出瞳相互の位置関係を示す説明図である。また、図4は焦点距離と射出瞳の位置との関係を示す説明図である。なお、以後の説明においては、受光領域は、遮光部と受光領域とによって決まる有効受光領域のことを示しているものとする。 FIG. 3 is an explanatory diagram showing the positional relationship among the effective light receiving region, the microlens, and the exit pupil. FIG. 4 is an explanatory diagram showing the relationship between the focal length and the position of the exit pupil. In the following description, the light receiving area indicates an effective light receiving area determined by the light shielding portion and the light receiving area.
図3は撮影レンズの光軸近傍の画素以外の画素のうちの1つの画素を構成するマイクロレンズ61及びR撮像部となる受光領域62Rを示している。図3では、撮影レンズの位置の変化に対応した3つの位置における射出瞳63T,63S,63W(以下、代表して射出瞳63という)を示している。図4は被写体からの光束が撮影レンズによって像面を形成する状態を説明するものであり、図4(a)は撮影レンズがテレ側(被写体側)に位置する例を示し、図4(b)は撮影レンズが基準位置に位置する例を示し、図4(c)は撮影レンズがワイド側(像側)に位置する例を示している。図4に示すように、一般に、焦点距離が長いほど、像面から射出瞳位置までの距離は大きくなる。
FIG. 3 shows a
図3に示すように、受光領域62Rは、基準位置の射出瞳63Sの中心とマイクロレンズ61の面頂とを通る主光線65が受光面と交わる位置において、受光領域62Rの一端が位置するように構成されている。即ち、受光領域62Rは、マイクロレンズ61の光軸に対して、主光線65の傾斜に応じた所定の偏心量だけ偏心している。この偏心量は画素位置に応じて変化し、像高が大きいほど大きくなる。
As shown in FIG. 3, in the
射出瞳63Sを通過する被写体からの光束のうち、射出瞳63Sの右側半分の光束64Sが、R撮像部を構成する受光領域62Rに入射する。即ち、L撮像部及びR撮像部を構成する各受光領域を、射出瞳63Sの中心とマイクロレンズ61の面頂とを通る主光線65が受光面と交わる位置まで偏心させることによって、L撮像部及びR撮像部に、射出瞳を通過する光束を左右に均等に分割して入射させることができる。
Of the light flux from the subject passing through the
しかしながら、図3に示すように、撮影レンズがワイド側(像側)に移動した場合の射出瞳63Wについては、射出瞳63Wを通過する光束の半分よりも大きい光束64WがR撮像部を構成する受光領域62Rに入射することになる。また、撮影レンズがテレ側(被写体側)に移動した場合の射出瞳63Tについては、射出瞳63Tを通過する光束の半分よりも小さい光束64Tが受光領域62Rに入射することになる。
However, as shown in FIG. 3, with respect to the
つまり、射出瞳63Sの中心を通る主光線65に応じて受光領域62Rの位置を決定した場合には、射出瞳63Sの位置以外に射出瞳63が位置する場合には、L撮像部及びR撮像部に入射する光束が均等でなくなる。そうすると、射出瞳63が基準位置以外に位置する場合には、AF精度が著しく劣化してしまう。
That is, when the position of the
そこで、本実施の形態においては、AF画素の受光領域の偏心量を、射出瞳位置に応じて設定する。即ち、基準の射出瞳位置における射出瞳の中心とマイクロレンズの面頂とを通る主光線の傾斜が略同一となる複数のAF画素であっても、射出瞳位置によって変化する主光線の傾斜に応じた複数種類の偏心量を夫々設定する。 Therefore, in the present embodiment, the amount of eccentricity of the light receiving area of the AF pixel is set according to the exit pupil position. That is, even with a plurality of AF pixels in which the inclination of the principal ray passing through the center of the exit pupil and the top of the microlens at the reference exit pupil position is substantially the same, the inclination of the principal ray changes depending on the exit pupil position. A plurality of types of eccentricity corresponding to each are set.
例えば、テレ側の位置、基準位置及びワイド側の位置の3つの射出瞳位置を想定した場合、射出瞳位置がテレ側に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素、射出瞳位置が基準位置に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素、射出瞳位置がワイド側に位置する場合の主光線の傾斜に応じた偏心量で受光領域を構成した画素の3種類の画素を撮像素子上に構成する。 For example, assuming three exit pupil positions, a tele-side position, a reference position, and a wide-side position, the light-receiving area is configured with an eccentric amount corresponding to the chief ray inclination when the exit pupil position is located on the tele side. Pixels, the pixels constituting the light receiving area with the amount of eccentricity according to the inclination of the principal ray when the exit pupil position is at the reference position, and the eccentricity according to the inclination of the principal ray when the exit pupil position is located on the wide side Three types of pixels, which constitute the light receiving region by the amount, are formed on the image sensor.
図5乃至図7は射出瞳位置に応じた偏心量を説明するための説明図である。図5乃至図7に示す画素は、基準位置の射出瞳73Sの中心と各マイクロレンズ70M〜73Mの面頂とを結ぶ主光線の傾斜が略同一の3つの画素、即ち、撮像素子上の水平方向の位置が略同一の3つの画素を示している。
5 to 7 are explanatory views for explaining the amount of eccentricity according to the exit pupil position. The pixels shown in FIG. 5 to FIG. 7 are three pixels having substantially the same principal ray inclination connecting the center of the
図5は射出瞳位置がテレ側に位置する場合の主光線75Tの傾斜に応じた偏心量で受光領域を構成した画素70を示している。画素70はマイクロレンズ70M及びR撮像部を構成する受光領域70RTを有する。射出瞳73Tの中心とマイクロレンズ70Mの面頂とを結ぶ主光線75Tが受光面と交わる位置において、受光領域70RTの端部が位置するように受光領域70RTが形成されている。マイクロレンズ70Mの光軸と受光領域70RTの端部との間の偏心量はεtである。
FIG. 5 shows a
画素70は、射出瞳位置が射出瞳73Tの位置にある場合には、射出瞳73Tを通過する光束の右側半分の光束74Tが、受光領域70RTに入射する。即ち、画素70は射出瞳位置がテレ側の射出瞳73Tの位置にある場合に、十分なAF精度を得ることができる画素である。
In the
図6は射出瞳位置が基準位置に位置する場合の主光線75Sの傾斜に応じた偏心量で受光領域を構成した画素71を示している。画素71はマイクロレンズ71M及びR撮像部を構成する受光領域71RSを有する。射出瞳73Sの中心とマイクロレンズ71Mの面頂とを結ぶ主光線75Sが受光面と交わる位置において、受光領域71RSの端部が位置するように受光領域71RSが形成されている。マイクロレンズ71Mの光軸と受光領域71RSの端部との間の偏心量はεsである。
FIG. 6 shows a
画素71は、射出瞳位置が射出瞳73Sの位置にある場合には、射出瞳73Sを通過する光束の右側半分の光束74Sが、受光領域71RSに入射する。即ち、画素71は射出瞳位置が基準位置の射出瞳73Sの位置にある場合に、十分なAF精度を得ることができる画素である。
In the
図7は射出瞳位置がワイド側に位置する場合の主光線75Wの傾斜に応じた偏心量で受光領域を構成した画素72を示している。画素72はマイクロレンズ72M及びR撮像部を構成する受光領域72RWを有する。射出瞳73Wの中心とマイクロレンズ72Mの面頂とを結ぶ主光線75Wが受光面と交わる位置において、受光領域72RWの端部が位置するように受光領域72RWが形成されている。マイクロレンズ72Mの光軸と受光領域72RWの端部との間の偏心量はεwである。
FIG. 7 shows a
画素72は、射出瞳位置が射出瞳73Wの位置にある場合には、射出瞳73Wを通過する光束の右側半分の光束74Wが、受光領域72RWに入射する。即ち、画素72は射出瞳位置がワイド側の射出瞳73Wの位置にある場合に、十分なAF精度を得ることができる画素である。
In the
図8は横軸に像高をとり縦軸に偏心量εをとって、像高及び射出瞳位置に応じた偏心量の変化を示すグラフである。図8に示すように、像高が大きくなるほど偏心量は大きくなる。更に、本実施の形態においては、射出瞳位置に応じて偏心量は異なり、同一像高であっても、3種類の偏心量を有する画素が構成される。なお、図5乃至図8においては、射出瞳位置が3種類の例を説明したが、2種類又は4種類以上の射出瞳位置を想定して、各射出瞳位置毎に偏心量を変えた画素を構成してもよい。 FIG. 8 is a graph showing the change in the amount of eccentricity according to the image height and the exit pupil position, with the image height on the horizontal axis and the amount of eccentricity ε on the vertical axis. As shown in FIG. 8, the amount of eccentricity increases as the image height increases. Further, in the present embodiment, the amount of eccentricity varies depending on the exit pupil position, and pixels having three types of eccentricity are configured even at the same image height. In FIGS. 5 to 8, three types of exit pupil positions are described. However, assuming two or more types of exit pupil positions, pixels whose eccentricity amount is changed for each exit pupil position. May be configured.
ところで、射出瞳位置が複数種類に固定された撮影レンズを用いる場合には、各射出瞳位置に対応した偏心量で受光領域を構成した画素を形成することで、十分なAF精度を得ることが可能である。しかし、射出瞳位置が固定されていない場合には、実際の射出瞳位置と偏心量を決定するために想定した射出瞳位置(以下、設計瞳位置という)とが相違することが考えられる。そこで、本実施の形態においては、実際の射出瞳位置と設計瞳位置とがずれた場合には、このずれ量に応じてAF画素から得られる像信号を補正するようになっている。 By the way, in the case of using a photographing lens in which a plurality of exit pupil positions are fixed, it is possible to obtain sufficient AF accuracy by forming pixels that constitute a light receiving area with an eccentric amount corresponding to each exit pupil position. Is possible. However, when the exit pupil position is not fixed, it is conceivable that the actual exit pupil position and the exit pupil position assumed to determine the amount of eccentricity (hereinafter referred to as the designed pupil position) are different. Therefore, in the present embodiment, when the actual exit pupil position and the designed pupil position are deviated, the image signal obtained from the AF pixel is corrected according to the deviation amount.
図9乃至図11はこのような像信号の補正方法を説明するための説明図である。上述したように、各AF画素のマイクロレンズの光軸とL又はR撮像部の端部までの距離(偏心量ε)は、像高が大きいほど大きくなる。図9乃至図11においては、撮影レンズの光軸からの距離を像高hとして説明する。 9 to 11 are explanatory diagrams for explaining such a method of correcting an image signal. As described above, the distance (eccentricity ε) from the optical axis of the micro lens of each AF pixel to the end of the L or R imaging unit increases as the image height increases. 9 to 11, the distance from the optical axis of the photographing lens will be described as the image height h.
図9は設計瞳位置に対して実際の射出瞳位置がワイド側にある場合の例を示している。マイクロレンズ81及びR撮像部を構成する受光領域82によって構成される画素は、撮影レンズの光軸からマイクロレンズ81の光軸までの距離がhである。受光領域82の端部の位置は、設計瞳位置における射出瞳の中心とマイクロレンズ81の面頂とを結ぶ主光線85に基づいて設定されている。
FIG. 9 shows an example where the actual exit pupil position is on the wide side with respect to the designed pupil position. In the pixel constituted by the
これに対し、実際の撮影における射出瞳位置がワイド側にある場合には、図9に示すように、射出瞳位置における左側の光束84Lに比べて右側の光束84Rはサイズが大きい。この場合には、受光領域82には、光束が左右に均等に分割されずに、大きい光束84Rが入射するので、受光領域82によって得られる像信号をそのまま用いて相関演算を行うと、AF精度が低下してしまう。
On the other hand, when the exit pupil position in actual photographing is on the wide side, as shown in FIG. 9, the
そこで、左右非対称に分割された射出瞳の面積差に起因するL,R撮像部の受光量を補正するために、射出瞳位置EPZtemp及び瞳径EXPを用いた演算を行う。図9から明らかなように、実際の射出瞳位置の中心から左右の瞳分割位置までの距離d1-tempは、設計瞳位置をEPZAF1として、下記(1)式にて与えられる。 Therefore, in order to correct the amount of light received by the L and R imaging units resulting from the area difference of the exit pupil divided asymmetrically, calculation using the exit pupil position EPZtemp and the pupil diameter EXP is performed. As is apparent from FIG. 9, the distance d1-temp from the center of the actual exit pupil position to the left and right pupil division positions is given by the following equation (1) with the design pupil position as EPZAF1.
d1-temp=h・(EPZAF1−EPZtemp)/EPZAF1 …(1)
左右の瞳分割比率EXPtemp1-l:EXPtemp1-rは、
EXPtemp1-l:EXPtemp1-r=(EXP/2)+d1-temp : (EXP/2)−d1-temp
…(2)
となる。
d1-temp = h. (EPZAF1-EPZtemp) / EPZAF1 (1)
Left and right pupil division ratio EXPtemp1-l: EXPtemp1-r is
EXPtemp1-l: EXPtemp1-r = (EXP / 2) + d1-temp: (EXP / 2) -d1-temp
... (2)
It becomes.
上記(2)式の瞳分割比率を用いて、左右の瞳分割の不均一性を補正することができる。下記(3)式は、補正前の像信号をRawAFsignalとし、補正後の像信号をCorAFsignalとして、補正後の像信号を求める関数を示している。
CorAFsignal=RwaAFsignal・g(EXP,EXPtemp1-l,EXPtemp1-r) …(3)
例えば、具体的には、R撮像部から得た像信号の補正後の値CorAFsignalrとL撮像部から得た像信号の補正後の値CorAFsignallとは、下記(4)式によって求められる。
CorAFsignalr=RwaAFsignalr・(EXPtemp1-l/EXP)
CorAFsignall=RwaAFsignall・(EXPtemp1-r/EXP) …(4)
この(4)式によって実際の射出瞳位置と設計瞳位置とのずれに伴う左右の瞳分割の不均一性を補正することができ、補正後の像信号を用いた相関演算によって、十分な精度のフォーカスを実現することができる。
Using the pupil division ratio of the above equation (2), it is possible to correct the nonuniformity of the left and right pupil divisions. The following equation (3) represents a function for obtaining a corrected image signal with RawAFsignal as the uncorrected image signal and CorAFsignal as the corrected image signal.
CorAFsignal = RwaAFsignal · g (EXP, EXPtemp1-l, EXPtemp1-r) (3)
For example, specifically, the corrected value CorAFsignalr of the image signal obtained from the R imaging unit and the corrected value CorAFsignall of the image signal obtained from the L imaging unit are obtained by the following equation (4).
CorAFsignalr = RwaAFsignalr (EXPtemp1-l / EXP)
CorAFsignall = RwaAFsignall (EXPtemp1-r / EXP) (4)
This formula (4) can correct the non-uniformity of the left and right pupil divisions due to the deviation between the actual exit pupil position and the designed pupil position, and sufficient accuracy can be obtained by the correlation calculation using the corrected image signal. Can achieve the focus.
図10は設計瞳位置に対して実際の射出瞳位置がテレ側にある場合の例を示している。マイクロレンズ86及びR撮像部を構成する受光領域87によって構成される画素は、撮影レンズの光軸からマイクロレンズ86の光軸までの距離がhである。受光領域87の端部の位置は、設計瞳位置における射出瞳の中心とマイクロレンズ86の面頂とを結ぶ主光線89に基づいて設定されている。
FIG. 10 shows an example in which the actual exit pupil position is on the tele side with respect to the designed pupil position. In the pixel constituted by the
これに対し、実際の撮影における射出瞳位置がテレ側にある場合には、図10に示すように、射出瞳位置における左側の光束84Lに比べて右側の光束84Rはサイズが小さい。この場合には、受光領域87には、光束が左右に均等に分割されずに、小さい光束84Rが入射するので、受光領域87によって得られる像信号をそのまま用いて相関演算を行うと、AF精度が低下してしまう。
On the other hand, when the exit pupil position in actual photographing is on the tele side, as shown in FIG. 10, the
そこで、左右非対称に分割された射出瞳の面積差に起因するL,R撮像部の受光量を補正するために、射出瞳位置EPZtemp及び瞳径EXPを用いた演算を行う。図10から明らかなように、実際の射出瞳位置の中心から左右の瞳分割位置までの距離d2-tempは、設計瞳位置をEPZAF2として、下記(5)式にて与えられる。 Therefore, in order to correct the amount of light received by the L and R imaging units resulting from the area difference of the exit pupil divided asymmetrically, calculation using the exit pupil position EPZtemp and the pupil diameter EXP is performed. As is apparent from FIG. 10, the distance d2-temp from the center of the actual exit pupil position to the left and right pupil division positions is given by the following equation (5), where the design pupil position is EPZAF2.
d2-temp=h・(EPZtemp−EPZAF2)/EPZAF2 …(5)
左右の瞳分割比率EXPtemp2-l:EXPtemp2-rは、
EXPtemp2-l:EXPtemp2-r=(EXP/2)+d2-temp : (EXP/2)−d2-temp …(6)
となる。
d2-temp = h. (EPZtemp-EPZAF2) / EPZAF2 (5)
Left and right pupil division ratio EXPtemp2-l: EXPtemp2-r is
EXPtemp2-l: EXPtemp2-r = (EXP / 2) + d2-temp: (EXP / 2) -d2-temp (6)
It becomes.
下記(7)式は、上記(6)式の瞳分割比率を用いて補正後の像信号を求める関数を示している。
CorAFsignal=RwaAFsignal・g(EXP,EXPtemp2-l,EXPtemp2-r) …(7)
例えば、具体的には、R撮像部から得た像信号の補正後の値CorAFsignalrとL撮像部から得た像信号の補正後の値CorAFsignallとは、下記(8)式によって求められる。
CorAFsignalr=RwaAFsignalr・(EXPtemp2-l/EXP)
CorAFsignall=RwaAFsignall・(EXPtemp2-r/EXP) …(8)
この(8)式によって実際の射出瞳位置と設計瞳位置とのずれに伴う左右の瞳分割の不均一性を補正することができ、補正後の像信号を用いた相関演算によって、十分な精度のフォーカスを実現することができる。
The following equation (7) shows a function for obtaining a corrected image signal using the pupil division ratio of the above equation (6).
CorAFsignal = RwaAFsignal · g (EXP, EXPtemp2-l, EXPtemp2-r) (7)
For example, specifically, the corrected value CorAFsignalr of the image signal obtained from the R imaging unit and the corrected value CorAFsignall of the image signal obtained from the L imaging unit are obtained by the following equation (8).
CorAFsignalr = RwaAFsignalr (EXPtemp2-l / EXP)
CorAFsignall = RwaAFsignall · (EXPtemp2-r / EXP) (8)
This equation (8) can correct the non-uniformity of the left and right pupil division due to the deviation between the actual exit pupil position and the designed pupil position, and sufficient accuracy can be obtained by the correlation calculation using the corrected image signal. Can achieve the focus.
なお、上記各式は、実際の射出瞳位置における瞳分割による左右の光束の直径の比を用いて、像信号を補正する演算を示しているが、瞳分割による左右の光束の面積の比に基づいて、像信号を補正するようにしてもよい。この場合には、AF精度を一層向上させることができるという利点がある。 Note that each of the above equations shows the calculation for correcting the image signal using the ratio of the left and right light beam diameters by pupil division at the actual exit pupil position. Based on this, the image signal may be corrected. In this case, there is an advantage that the AF accuracy can be further improved.
このように設計瞳位置に対応して設定された1つのAF画素から得られる像信号を上記(4)式又は(8)式によって補正することで、実際の射出瞳位置において均等に左右の瞳分割が行われた場合と同様の像信号を得ることができる。更に、隣接する複数の設計瞳位置に夫々対応して設定された複数のAF画素から得られる像信号を用いて、補正された1つの像信号を得るようにしてもよい。 In this way, by correcting the image signal obtained from one AF pixel set corresponding to the designed pupil position by the above formula (4) or (8), the left and right pupils are evenly distributed at the actual exit pupil position. An image signal similar to that obtained when the division is performed can be obtained. Furthermore, one corrected image signal may be obtained using image signals obtained from a plurality of AF pixels set corresponding to a plurality of adjacent design pupil positions.
図11はこの場合の補正信号の生成方法を説明するためのものである。相互に比較的近傍に配置された図示しない2つのAF画素のうち、一方の画素は、射出瞳91の位置を設計瞳位置に想定して形成され、他方の画素は、射出瞳92の位置を設計瞳位置に想定して形成されているものとする。いま、実際の射出瞳位置が射出瞳93の位置であるものとする。
FIG. 11 is a diagram for explaining a correction signal generation method in this case. Of the two AF pixels (not shown) arranged relatively close to each other, one pixel is formed assuming that the position of the
図11の光束94L,94R,95L,95Rは、図面を見やすくするために、射出瞳93の左右瞳分割による左右の光束を射出瞳93の位置からずらして示している。設計瞳位置が射出瞳91の位置であるAF画素がR画素の場合にはその受光領域に光束94Rが入射し、L画素の場合にはその受光領域に光束94Lが入射する。また、設計瞳位置が射出瞳92の位置であるAF画素がR画素の場合にはその受光領域に光束95Rが入射し、L画素の場合にはその受光領域に光束95Lが入射する。
The light beams 94L, 94R, 95L, and 95R in FIG. 11 are shown by shifting the left and right light beams resulting from the division of the left and right pupils of the
射出瞳93の射出瞳位置、射出瞳91,92の設計瞳位置、及びこの設計瞳位置に対応した上記2つのAF画素のマイクロレンズの光軸と撮影レンズの光軸との距離(h)が分かれば、図9及び図10並びに上記各式で説明したように、これらの2つのAF画素から得られる像信号を上記(4)式及び(8)式によって補正することができる。
The exit pupil position of the
設計瞳位置が射出瞳91の位置であるAF画素からの像信号に対する上記(4)式の演算によって得られる補正像信号をCorAFsignal-1とし、設計瞳位置が射出瞳92の位置であるAF画素からの像信号に対する上記(8)式の演算によって得られる補正像信号をCorAFsignal-2とする。図11の例では、これらの2つの補正像信号を設計瞳位置と実際の射出瞳位置との距離a,bに基づく重み付けを行って加算することにより、1つの補正像信号を得るようになっている。例えば、このような重み付け加算による補正像信号CorAFsignalAVEは、下記(9)式によって得られる。
CorsingalAVE={wa(a,b)・CorAFsignal-1+wb(a,b)・CorAFsignal-2}/{wa(a,b)+wb(a,b)} …(9)
但し、wa(a,b),wb(a,b)は重み付け係数であり、例えば、wa(a,b)=b/(a+b),wb(a,b)=a/(a+b)である。
The corrected image signal obtained by the calculation of the above expression (4) for the image signal from the AF pixel whose design pupil position is the position of the
CorsingalAVE = {wa (a, b) · CorAFsignal-1 + wb (a, b) · CorAFsignal-2} / {wa (a, b) + wb (a, b)} (9)
However, wa (a, b) and wb (a, b) are weighting coefficients, for example, wa (a, b) = b / (a + b), wb (a, b) = a / (a + b). .
例えば、実際の射出瞳位置が設計瞳位置の近傍にない場合等においては、実際の射出瞳位置近傍の2つの設計瞳位置に対応した2つのAF画素の補正像信号を重み付け加算することによって、信頼性の高い像信号を得ることができる。これにより、実際の射出瞳位置が設計瞳位置から比較的大きくずれた場合でも、十分なAF精度を確保することができる。 For example, when the actual exit pupil position is not in the vicinity of the design pupil position, the corrected image signals of the two AF pixels corresponding to the two design pupil positions in the vicinity of the actual exit pupil position are weighted and added. A highly reliable image signal can be obtained. Thereby, even when the actual exit pupil position deviates relatively greatly from the designed pupil position, sufficient AF accuracy can be ensured.
なお、上記説明では、AF画素としてL画素又はR画素を用いる例について説明した。しかし、撮像画像に横線が多い場合には、ピントがずれていてもL,R撮像部によって夫々得られる画像が一致することが考えられる。この場合には、射出瞳を例えば上下に分割して、上方向からの光と下方向からの光とを夫々受光するU撮像部とD撮像部とを構成すればよい。そして、複数のU撮像部によって得られる画像信号の位相と、複数のD撮像部によって得られる画像信号の位相とを比較することで、ピントのずれ量を検出して、ピント合わせが可能である。 In the above description, an example in which L pixels or R pixels are used as AF pixels has been described. However, when there are many horizontal lines in the captured image, it is conceivable that the images obtained by the L and R imaging units match even if the focus is shifted. In this case, for example, the exit pupil may be divided into upper and lower parts, and a U imaging unit and a D imaging unit that receive light from above and light from below may be configured. Then, by comparing the phase of the image signal obtained by the plurality of U imaging units and the phase of the image signal obtained by the plurality of D imaging units, it is possible to detect the amount of focus shift and to focus. .
この場合でも、図9乃至図11に示す補正が可能であり、撮影レンズの光軸からの距離を像高hとすればよい。 Even in this case, the correction shown in FIGS. 9 to 11 is possible, and the distance from the optical axis of the photographing lens may be set to the image height h.
(回路構成)
図1に示すように、撮像装置1の図示しない本体筐体内には本体回路部10が設けられ、本体筐体に着脱自在に取り付けられる交換レンズ部20には交換レンズ回路部21が設けられている。本体回路部10には、通信部12が設けられており、交換レンズ回路部21には通信部23が設けられている。本体回路部10の通信部12は、交換レンズ回路部21の通信部23との間で、相互に情報を送受することができるようになっている。
(Circuit configuration)
As shown in FIG. 1, a main
交換レンズ20は、撮影レンズ26を有している。撮影レンズ26は、駆動部25に駆動されることで合焦を可能にするオートフォーカス機能を備えている。また、撮影レンズ26は駆動部25に駆動されてズーム機能を有する。なお、交換レンズ20としては、単焦点の撮影レンズを有するものを採用してもよい。
The
交換レンズ20のレンズ制御部22は、本体回路部10からの信号により又はユーザ操作に基づく操作部24からの信号によって、駆動部25を制御して、撮影レンズ26を駆動し、撮影レンズ26における絞り、ピント、ズーム等を制御することができるようになっている。
The
レンズ制御部22の通信部23は、所定の伝送路を介して本体回路部10の通信部12との間で情報の送受を行う。レンズ制御部22は、本体回路部10の通信部12との間の通信が確立すると、レンズメモリ27に格納されているレンズに関する情報を通信部23によって本体回路部10に送信させることができる。
The
本実施の形態においては、レンズメモリ27には、レンズに関する情報として、例えば、絞り位置、絞り径、射出瞳位置、射出瞳径、フォーカスレンズ位置、像高及び方向に応じたケラレ等に関する情報を記憶するようになっている。これにより、本体回路部10は、交換レンズ20のズーム倍率、焦点距離、明るさナンバー等を認識することができると共に、AF画素の像信号の補正を行うために必要な情報を取得することができるようになっている。
In the present embodiment, the
本体回路部10は、CMOSセンサ等の撮像素子によって構成された撮像部14を有している。撮像部14は、交換レンズ20からの被写体の光を受光する受光部14aを有する。交換レンズ20からの被写体の光学像は、受光部14aに結像するようになっている。
The main
図12は図1中の受光部14aの画素配列の一例を示す説明図である。本実施の形態においては、画素配列としてベイヤー配列を採用する例について説明する。図12は1つの枠によって1画素を示しており、枠内の粗なハッチングは赤色のフィルタが配置された赤色の画素を示し、密なハッチングは青色のフィルタが配置された青色の画素を示し、無地は緑色のフィルタが配置された緑色の画素を示している。また、枠内の文字は、AF画素であることを示し、文字Wは設計瞳位置がワイド側に設定されている画素を示し、文字Sは設計瞳位置が基準位置側に設定されている画素を示し、文字Tは設計瞳位置がテレ側に設定されている画素を示している。
FIG. 12 is an explanatory diagram showing an example of a pixel array of the
また、AF画素を示す文字の添え字にLが含まれる画素はL画素を示し、AF画素を示す文字の添え字にRが含まれる画素はR画素を示している。また、AF画素を示す文字の添え字に含まれる数字は、各AF画素のマイクロレンズの光軸と撮影レンズの光軸との水平方向の距離hに対応しており、同一の数字は同一距離hであることを示している。 Further, a pixel in which L is included in a subscript of a character indicating an AF pixel indicates an L pixel, and a pixel in which R is included in a subscript of a character indicating an AF pixel is an R pixel. The number included in the subscript of the letter indicating the AF pixel corresponds to the horizontal distance h between the optical axis of the micro lens and the optical axis of the photographing lens of each AF pixel, and the same number is the same distance. h.
また、図11の補正方法を採用する場合には、複数種類の設計瞳位置のうち相互に近接した設計瞳位置に対応する2つの画素同士は近接した位置に配置されている方が、補正精度は高いと考えられる。この理由から、設定する複数の設計瞳位置に対応してAF画素を配置した方がよい。例えば、ワイド側、基準位置及びテレ側の3種類の設計瞳位置を設定する場合には、これらの設計瞳位置に対応するAF画素をワイド側、基準位置及びテレ側の順又はテレ側、基準位置、ワイド側の順に配列する。 When the correction method of FIG. 11 is employed, the correction accuracy is improved when two pixels corresponding to design pupil positions close to each other among a plurality of types of design pupil positions are arranged at close positions. Is considered high. For this reason, it is better to arrange AF pixels corresponding to a plurality of design pupil positions to be set. For example, when setting three types of design pupil positions of the wide side, the reference position, and the tele side, the AF pixels corresponding to these design pupil positions are set to the wide side, the reference position and the tele side in order or the tele side, Arrange in order of position and wide side.
図12に示す受光部14aは、AF画素として、3つの設計瞳位置に設定された3種類の画素を有している。即ち、設計瞳位置がワイド側に設定されたAF画素W1L,W2L,…,W1R,W2R,…、設計瞳位置が基準位置に設定されたAF画素S1L,S2L,…,S1R,S2R,…、及び設計瞳位置がテレ側に設定されたAF画素T1L,T2L,…,T1R,T2R,…の3種類である。
The
撮像部14は、信号処理及び制御部11によって駆動制御される。撮像部14の受光部14aは、被写体からの光学像を光電変換して、像信号を出力する。信号処理及び制御部11には信号抽出部11aが設けられており、信号抽出部11aは、撮像部14からの像信号を取り込む。信号抽出部11aは取り込んだ像信号を画像処理部11bに出力すると共に、AF画素の像信号については補正部11cに出力するようになっている。
The
補正部11cには、瞳位置判定部11dの判定結果が与えられる。補正部11cは、AF画素に設定された設計瞳位置と実際の射出瞳位置との相違により、左右の瞳分割が不均衡となり、L,R撮像部の入射光束のサイズが相互に異なることに起因した、像信号の誤差を補正する。補正部11cは像信号の補正処理のために瞳位置判定部11dの判定結果を用いる。
The determination result of the pupil
瞳位置判定部11dには、通信部12を介してレンズに関する情報が与えられると共に、本体メモリ19からAF画素の情報を取得する。本体メモリ19には、各AF画素に関する情報、例えば、各AF画素のマイクロレンズの光軸と撮影レンズ光軸との距離hの情報が記憶されている。
Information regarding the lens is given to the pupil
瞳位置判定部11dは、レンズメモリ27から実際の射出瞳位置に関する情報を取得し、本体メモリ19から各AF画素に設定された設計瞳位置に関する情報情報を取得して、AF演算に用いるAF画素及び像信号の補正方法を決定する。即ち、瞳位置判定部11dは、実際の射出瞳位置に一致した設計瞳位置が存在する場合には、その設計瞳位置に対応するAF画素をそのまま用いてAF演算させる判定結果を出力する。また、瞳位置判定部11dは、実際の射出瞳位置と設計瞳位置とが一致しない場合には、射出瞳位置に近接した設計瞳位置に対応するAF画素を選択するための判定結果を出力すると共に、上述した図9乃至図11のいずれの補正方法を採用するかを判定し、判定結果を補正部11cに出力する。
The pupil
補正部11cは、通信部12を介してレンズメモリ27から実際の射出瞳位置及び射出瞳径に関する情報を取得し、本体メモリ19から各AF画素の距離h及び設計瞳位置に関する情報を取得し、瞳位置判定部11dの判定結果に従って、像信号を補正することなくAF信号算出部11eに出力するか、又は、図9乃至図11のいずれかの補正方法を採用してAF画素の像信号を補正し、補正像信号をAF信号算出部11eに出力する。
The correction unit 11c acquires information on the actual exit pupil position and exit pupil diameter from the
AF信号算出部11eは、AF画素の補正像信号が与えられ、補正像信号の相関を求めて、瞳分割位相差法によるAF信号を算出する。信号処理及び制御部11は、AF信号算出部11eによって算出されたAF信号を通信部12,23を介して駆動部25に供給することで、ピント合わせを行うようになっている。
The AF signal calculation unit 11e is supplied with the corrected image signal of the AF pixel, calculates the correlation of the corrected image signal, and calculates the AF signal by the pupil division phase difference method. The signal processing and
信号処理及び制御部11の画像処理部11bは、信号抽出部11aからの像信号に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種のデジタル処理を行う。信号処理及び制御部11は、画像信号及び音声信号等の記録に際して、符号化処理を施して圧縮した画像情報及び音声情報等を出力することもできるようになっている。
The image processing unit 11b of the signal processing and
また、本体回路部10には、時計部15、操作判定部16も配設されている。時計部15は信号処理及び制御部11が用いる時間情報を発生する。操作判定部16は、撮像装置1に設けられた撮像開始終了ボタンや撮影モード設定等の図示しない各種スイッチに対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。
The main
また、本体回路部10には、記録再生部17及び表示部18が設けられている。記録再生部17は、信号処理及び制御部11からの画像情報及び音声情報を図示しない記録媒体に記録することができるようになっている。なお、記録再生部17としては例えばカードインターフェースを採用することができ、記録再生部17はメモリカード等に画像情報及び音声情報等を記録可能である。また、記録再生部17は、記録媒体に記録された画像情報及び音声情報を読み出して信号処理及び制御部11に供給することができる。信号処理及び制御部11は、記録再生部17からの画像情報及び音声情報を復号化して、画像信号及び音声信号を得ることができるようになっている。
The main
表示部18は、撮像部14からの撮像画像や記録再生部17からの再生画像が信号処理及び制御部11から供給されて、これらの画像表示を行うことができる。また、表示部18は信号処理及び制御部11に制御されて、撮影機器1の操作を行うためのメニュー表示等を表示することもできるようになっている。
The display unit 18 is supplied with the captured image from the
信号処理及び制御部11は、生成した映像信号を記録再生部17に与えて記録させる場合には、ユーザ操作に基づいて記録した映像信号のファイル化を行うようになっている。なお、ファイル化によって、記録再生部17に記録されてファイル化された映像信号(以下、映像ファイルという)に対してユーザ操作に基づく各種処理、例えば再生処理が可能となる。
When the generated video signal is supplied to the recording /
次に、このように構成された実施の形態の作用について図13及び図14を参照して説明する。図13は本実施の形態におけるカメラ制御を説明するためのフローチャートであり、図14は図13中のAF処理を具体的に示すフローチャートである。 Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 13 and 14. FIG. 13 is a flowchart for explaining camera control in the present embodiment, and FIG. 14 is a flowchart specifically showing the AF processing in FIG.
撮像装置1に電源が投入されると、信号処理及び制御部11は、図13のステップS21において、撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、信号処理及び制御部11は、ステップS22において、再生モードが指示されたか否かを判定する。再生モードが指示されると、信号処理及び制御部11は、ステップS23において、サムネイルの一覧表示を行う。サムネイル一覧を参照したユーザによる画像の選択が行われると、ステップS24からステップS25に処理を移行して、信号処理及び制御部11は選択画像の再生を行う。ファイル選択が行われない場合には、ステップS26において再生モードの終了を判定する。
When the image pickup apparatus 1 is turned on, the signal processing and
一方、撮影モードが指示されると、信号処理及び制御部11は、ステップS31において、撮像部14からの画像信号に基づいて、表示部18に撮像画像(スルー画)をライブビュー表示させる。なお、この場合には、信号処理及び制御部11は、撮像部14からの撮像画像を、表示部18の表示画素数に応じて間引き処理した後、表示部18に与える。
On the other hand, when the shooting mode is instructed, the signal processing and
次のステップS32においては、AF処理によって、ピント合わせが行われる。即ち、信号処理及び制御部11は、図14のステップS51において、通信部12,23を介してレンズメモリ27に記憶されているレンズ情報を取得する。また、信号処理及び制御部11は、ステップS52において、本体メモリ19に記憶されているAF画素に関する情報を取得する。
In the next step S32, focusing is performed by AF processing. That is, the signal processing and
次に、信号処理及び制御部11の瞳位置判定部11dは、ステップS53において、実際の射出瞳位置が設計瞳位置に一致しているか否かを判定し、判定結果を補正部11cに出力する。瞳位置判定部11dは、本体メモリ19から各AF画素に設定された設計瞳位置の情報を取得しており、レンズ情報に含まれる実際の射出瞳位置の情報を用いて、射出瞳位置と設計瞳位置との一致判定を行う。例えば、焦点距離が固定の単焦点レンズを採用している場合等、射出瞳位置が設計瞳位置に一致することがある。
Next, the pupil
この場合には、補正部11cは、実際の射出瞳位置に一致した設計瞳位置に対応するAF画素の像信号を読み出して、そのままAF信号算出部11eに出力する(ステップS54)。AF信号算出部11eは、読出された像信号を用いた相関演算によってAF信号を生成する。このAF信号は、通信部12,23を介して駆動部25に供給されて、ピント合わせが行われる(ステップS60)。
In this case, the correction unit 11c reads out the image signal of the AF pixel corresponding to the design pupil position that matches the actual exit pupil position, and outputs it as it is to the AF signal calculation unit 11e (step S54). The AF signal calculation unit 11e generates an AF signal by correlation calculation using the read image signal. The AF signal is supplied to the
瞳位置判定部11dは、実際の射出瞳位置が設計瞳位置に一致しない場合には、処理をステップS55に移行して、射出瞳位置と設計瞳位置との差が所定の閾値以内であるか否かを判定し判定結果を補正部11cに出力する。射出瞳位置と設計瞳位置との差が所定の閾値以内である場合には、補正部11cは、図9又は図10に示す補正方法を採用して像信号を補正する(ステップS56)。即ち、補正部11cは、射出瞳に関する情報、設計瞳位置に関する情報及びAF画素の距離hに関する情報を用いて、例えば上記(4)式又は(8)式の演算によって、像信号を補正する。次いで、ステップS60においてAF信号が生成され、ピント合わせが行われる。
If the actual exit pupil position does not match the design pupil position, the pupil
補正部11cは、瞳位置判定部11dによって、射出瞳位置と設計瞳位置との差が所定の閾値を超えたことを示す判定結果が与えられた場合には、図11に示す補正方法を採用して像信号を補正する。即ち、補正部11cは、先ず、実際の射出瞳位置に近い複数の設計瞳位置に夫々対応する複数の画素の像信号を読み出す(ステップS57)。次に、補正部11cは、各像信号に対して、上記(4)式又は(8)式の演算によって補正を行う(ステップS58)。次に、補正部11cは、補正像信号に、射出瞳位置と設計瞳位置との距離に基づく重みを付して加算し平均を求める。こうして、複数のAF画素から1つの像信号を生成する。次いで、ステップS60においてAF信号を生成して、ピント合わせを行う。
When the pupil
ステップS61,62によって、合焦となるまでフォーカス制御が続けられる。 By steps S61 and S62, the focus control is continued until focusing is achieved.
次に、図13のステップS33において、シャッターレリーズ操作により撮影が指示されると、信号処理及び制御部11は、撮像部14からの像信号に対して所定の信号処理を施して記録用の画像を生成する。信号処理及び制御部11は、生成した撮像画像を図示しないメモリに記録する(ステップS34)。信号処理及び制御部11は、記録された撮像画像中のAF画素については、当該AF画素の周囲の画素を用いた補正処理によって、このAF画素を撮像用画素で構成した場合の像信号を求めて、AF画素位置の像信号とする(ステップS36)。
Next, in step S33 in FIG. 13, when shooting is instructed by a shutter release operation, the signal processing and
信号処理及び制御部11は、AF画素の像信号が補正された撮像画像を記録再生部17に与えてファイル化する(ステップS36)。また、信号処理及び制御部11は、記録した撮像画像を表示部18に与えて、レックビュー表示を行う(ステップS37)。
The signal processing and
信号処理及び制御部11は、ステップS41において、電源オフ操作が行われた否かを判定する。電源オフ操作が行われていない場合には、信号処理及び制御部11は、撮影・再生モードの変更操作を受付けた後(ステップS42)、処理をステップS21に戻す。電源オフ操作が行われた場合には、信号処理及び制御部11は電源をオフにする(ステップS43)。
In step S41, the signal processing and
なお、図14のAF処理においては、射出瞳位置と設計瞳位置とが一致した場合には、一致した設計瞳位置に対応するAF画素のみを用いて相関演算を行う例について説明したが、一致していない設計瞳位置に対応するAF画素についても図9乃至図11の補正方法によって補正して相関演算に用いるようにしてもよい。また、射出瞳位置と設計瞳位置との差が所定の閾値内であるか否かに拘わらず、図9又は図10に示す補正方法或いは図11に示す補正方法を採用してもよい。 In the AF process of FIG. 14, an example has been described in which the correlation calculation is performed using only the AF pixels corresponding to the matched design pupil position when the exit pupil position matches the design pupil position. An AF pixel corresponding to a design pupil position that has not been corrected may be corrected by the correction method shown in FIGS. 9 to 11 and used for correlation calculation. Further, the correction method shown in FIG. 9 or 10 or the correction method shown in FIG. 11 may be adopted regardless of whether or not the difference between the exit pupil position and the designed pupil position is within a predetermined threshold.
このように本実施の形態においては、撮像素子は、複数の設計瞳位置に対応して夫々受光領域が設定された複数種類のAF画素が形成される。これにより、射出瞳位置が変化する場合でも、左右の瞳分割を均等に行うことが可能となり、AF精度が劣化することを防止することができる。また、射出瞳位置に比較的近い位置の設計瞳位置に対応するAF画素の像信号を用いて補正を行うことにより、AF信号の補正精度を向上させることができ、十分なAF精度を得ることが可能となる。 As described above, in the present embodiment, the image sensor is formed with a plurality of types of AF pixels each having a light receiving area set corresponding to a plurality of designed pupil positions. Thereby, even when the exit pupil position changes, the left and right pupil divisions can be performed equally, and the AF accuracy can be prevented from deteriorating. Further, by performing correction using the image signal of the AF pixel corresponding to the designed pupil position that is relatively close to the exit pupil position, the correction accuracy of the AF signal can be improved, and sufficient AF accuracy can be obtained. Is possible.
10…本体回路部、11…信号処理及び制御部、11a…信号抽出部、11c…補正部、11d…瞳位置判定部、11e…AF信号算出部、12,23…通信部、14…撮像部、14a…受光部、17…記録再生部、18…表示部、19…本体メモリ、27…レンズメモリ。
DESCRIPTION OF
Claims (6)
上記画素は、撮影レンズからの光が入射する受光領域と、
上記撮影レンズからの光を上記受光領域に導くマイクロレンズとを具備し、
上記焦点検出用の画素としては、上記焦点検出用の画素の受光領域は、想定される設計瞳位置と上記マイクロレンズとの位置関係に対応して領域の一端の位置が規定される
ことを特徴とする撮像素子。 An imaging device in which a plurality of pixels having imaging pixels and focus detection pixels are arranged in a matrix,
The pixel includes a light receiving region where light from a photographing lens is incident,
A microlens that guides light from the photographing lens to the light receiving region;
As the focus detection pixel, the light receiving area of the focus detection pixel is defined such that the position of one end of the area is defined in accordance with the positional relationship between the assumed design pupil position and the microlens. An image sensor.
射出瞳位置が上記複数の設計瞳位置のいずれに一致するかを判定し、判定結果に基づいて焦点検出に用いる焦点検出用の画素を決定する瞳位置決定部と、
上記焦点検出に用いる焦点検出用の画素を用いて、焦点検出を行う焦点検出部と、
を具備したことを特徴とする撮像装置。 The image sensor according to claim 1,
A pupil position determination unit that determines which of the plurality of designed pupil positions the exit pupil position matches, and determines a focus detection pixel used for focus detection based on the determination result;
A focus detection unit that performs focus detection using the focus detection pixels used for the focus detection;
An imaging apparatus comprising:
射出瞳位置と上記複数の設計瞳位置との比較によって、焦点検出に用いる焦点検出用の画素を決定する瞳位置決定部と、
上記射出瞳位置と上記設計瞳位置とが異なる場合において、上記焦点検出に用いる焦点検出用の画素からの像信号を、射出瞳に関する情報、上記設計瞳位置の情報及び上記焦点検出に用いる焦点検出用の画素の情報に基づいて補正して補正像信号を得る補正部と、
上記補正部によって補正された補正像信号を用いて焦点検出を行う焦点検出部と、
を具備したことを特徴とする撮像装置。 The image sensor according to claim 1,
A pupil position determination unit that determines a focus detection pixel used for focus detection by comparing the exit pupil position and the plurality of designed pupil positions;
When the exit pupil position is different from the designed pupil position, the image signal from the focus detection pixel used for the focus detection is used as the information about the exit pupil, the information about the designed pupil position, and the focus detection used for the focus detection. A correction unit that performs correction based on pixel information for obtaining a corrected image signal;
A focus detection unit that performs focus detection using the corrected image signal corrected by the correction unit;
An imaging apparatus comprising:
ことを特徴とする請求項3に記載の撮像装置。 The correction unit corrects an image signal from a focus detection pixel used for focus detection based on an uneven left / right pupil division ratio based on a difference between the exit pupil position and the designed pupil position. The imaging apparatus according to claim 3.
ことを特徴とする請求項3又は4に記載の撮像装置。 The correction unit obtains a new corrected image signal by weighted addition of a plurality of corrected image signals for a plurality of image signals from a plurality of focus detection pixels corresponding to a plurality of designed pupil positions. The imaging device according to claim 3 or 4.
上記焦点検出に用いる焦点検出用の画素の情報を記憶するメモリと
を具備したことを特徴とする請求項2乃至5のいずれか1つに記載の撮像装置。 A communication unit that acquires information on the exit pupil position and information on the design pupil position;
The image pickup apparatus according to claim 2, further comprising: a memory that stores information on a pixel for focus detection used for the focus detection.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011175402A JP2013037296A (en) | 2011-08-10 | 2011-08-10 | Image pickup apparatus and image pickup device |
| US13/545,400 US8810713B2 (en) | 2011-07-13 | 2012-07-10 | Image pickup apparatus and image pickup device for performing auto-focusing |
| CN201210240803.5A CN102883093B (en) | 2011-07-13 | 2012-07-11 | Camera head and imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011175402A JP2013037296A (en) | 2011-08-10 | 2011-08-10 | Image pickup apparatus and image pickup device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013037296A true JP2013037296A (en) | 2013-02-21 |
Family
ID=47886928
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011175402A Pending JP2013037296A (en) | 2011-07-13 | 2011-08-10 | Image pickup apparatus and image pickup device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013037296A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014236411A (en) * | 2013-06-04 | 2014-12-15 | ソニー株式会社 | Solid state image pickup device, electronic apparatus, lens control method and image pickup module |
| JP2015065269A (en) * | 2013-09-25 | 2015-04-09 | ソニー株式会社 | Solid-state imaging device, driving method thereof, and electronic apparatus |
| JP2015073072A (en) * | 2013-07-11 | 2015-04-16 | キヤノン株式会社 | Solid-state imaging device and imaging apparatus employing the same |
| WO2015163653A1 (en) | 2014-04-21 | 2015-10-29 | Samsung Electronics Co., Ltd. | Imaging device and photographing apparatus |
| JP2016038467A (en) * | 2014-08-07 | 2016-03-22 | 株式会社ニコン | Imaging device, focus detection device, and imaging device |
| JP2017102228A (en) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Imaging apparatus and control method thereof |
| WO2017111171A1 (en) * | 2015-12-25 | 2017-06-29 | 株式会社ニコン | Imaging element and imaging device |
| JPWO2016143554A1 (en) * | 2015-03-12 | 2018-01-11 | ソニー株式会社 | Solid-state imaging device, imaging device, and electronic device |
| JP2019113853A (en) * | 2014-08-07 | 2019-07-11 | 株式会社ニコン | Detection device, imaging device, and camera |
| JP2022111738A (en) * | 2021-01-20 | 2022-08-01 | キヤノン株式会社 | Imaging device and image processing method |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004191629A (en) * | 2002-12-11 | 2004-07-08 | Canon Inc | Focus detection device |
| JP2007121896A (en) * | 2005-10-31 | 2007-05-17 | Nikon Corp | Focus detection apparatus and optical system |
| JP2007189312A (en) * | 2006-01-11 | 2007-07-26 | Nikon Corp | Imaging apparatus, imaging method, and camera |
| JP2009175680A (en) * | 2007-10-02 | 2009-08-06 | Nikon Corp | Light receiving device, focus detection device, and imaging device |
| JP2009204987A (en) * | 2008-02-28 | 2009-09-10 | Sony Corp | Imaging apparatus and image pickup device |
| JP2009290157A (en) * | 2008-06-02 | 2009-12-10 | Nikon Corp | Imaging element, and imaging device |
-
2011
- 2011-08-10 JP JP2011175402A patent/JP2013037296A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004191629A (en) * | 2002-12-11 | 2004-07-08 | Canon Inc | Focus detection device |
| JP2007121896A (en) * | 2005-10-31 | 2007-05-17 | Nikon Corp | Focus detection apparatus and optical system |
| JP2007189312A (en) * | 2006-01-11 | 2007-07-26 | Nikon Corp | Imaging apparatus, imaging method, and camera |
| JP2009175680A (en) * | 2007-10-02 | 2009-08-06 | Nikon Corp | Light receiving device, focus detection device, and imaging device |
| JP2009204987A (en) * | 2008-02-28 | 2009-09-10 | Sony Corp | Imaging apparatus and image pickup device |
| JP2009290157A (en) * | 2008-06-02 | 2009-12-10 | Nikon Corp | Imaging element, and imaging device |
Cited By (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014236411A (en) * | 2013-06-04 | 2014-12-15 | ソニー株式会社 | Solid state image pickup device, electronic apparatus, lens control method and image pickup module |
| KR102237315B1 (en) * | 2013-06-04 | 2021-04-07 | 소니 주식회사 | Solid-state imaging device, electronic apparatus, lens control method, and imaging module |
| US10277847B2 (en) | 2013-06-04 | 2019-04-30 | Sony Corporation | Solid-state imaging device, electronic apparatus, lens control method, and imaging module |
| KR20160014578A (en) * | 2013-06-04 | 2016-02-11 | 소니 주식회사 | Solid-state imaging device, electronic apparatus, lens control method, and imaging module |
| JP2015073072A (en) * | 2013-07-11 | 2015-04-16 | キヤノン株式会社 | Solid-state imaging device and imaging apparatus employing the same |
| JP2015073071A (en) * | 2013-07-11 | 2015-04-16 | キヤノン株式会社 | Solid-state imaging device, range finding device and imaging apparatus |
| KR101857377B1 (en) * | 2013-09-25 | 2018-05-11 | 소니 주식회사 | Solid state imaging element, drive method therefor, and electronic device |
| JP2015065269A (en) * | 2013-09-25 | 2015-04-09 | ソニー株式会社 | Solid-state imaging device, driving method thereof, and electronic apparatus |
| US9706145B2 (en) | 2013-09-25 | 2017-07-11 | Sony Corporation | Solid-state imaging element and driving method therefor, and electronic apparatus |
| US9888196B2 (en) | 2013-09-25 | 2018-02-06 | Sony Corporation | Solid-state imaging element and driving method therefor, and electronic apparatus |
| US10015426B2 (en) | 2013-09-25 | 2018-07-03 | Sony Corporation | Solid-state imaging element and driving method therefor, and electronic apparatus |
| WO2015163653A1 (en) | 2014-04-21 | 2015-10-29 | Samsung Electronics Co., Ltd. | Imaging device and photographing apparatus |
| EP3135029A4 (en) * | 2014-04-21 | 2017-12-20 | Samsung Electronics Co., Ltd. | Imaging device and photographing apparatus |
| US9900492B2 (en) | 2014-04-21 | 2018-02-20 | Samsung Electronics Co., Ltd. | Imaging device and photographing apparatus |
| JP2016038467A (en) * | 2014-08-07 | 2016-03-22 | 株式会社ニコン | Imaging device, focus detection device, and imaging device |
| JP2019113853A (en) * | 2014-08-07 | 2019-07-11 | 株式会社ニコン | Detection device, imaging device, and camera |
| JPWO2016143554A1 (en) * | 2015-03-12 | 2018-01-11 | ソニー株式会社 | Solid-state imaging device, imaging device, and electronic device |
| JP2017102228A (en) * | 2015-11-30 | 2017-06-08 | キヤノン株式会社 | Imaging apparatus and control method thereof |
| JPWO2017111171A1 (en) * | 2015-12-25 | 2018-11-08 | 株式会社ニコン | Imaging device |
| CN108431958A (en) * | 2015-12-25 | 2018-08-21 | 株式会社尼康 | Photographic elements and photographic devices |
| US10778879B2 (en) | 2015-12-25 | 2020-09-15 | Nikon Corporation | Image sensor and image-capturing device that selects pixel signal for focal position |
| WO2017111171A1 (en) * | 2015-12-25 | 2017-06-29 | 株式会社ニコン | Imaging element and imaging device |
| JP2022000695A (en) * | 2015-12-25 | 2022-01-04 | 株式会社ニコン | Imaging device |
| US11353775B2 (en) | 2015-12-25 | 2022-06-07 | Nikon Corporation | Image sensor and image-capturing device that selects pixel signal for focal position |
| JP7264192B2 (en) | 2015-12-25 | 2023-04-25 | 株式会社ニコン | Imaging element and imaging device |
| US11747714B2 (en) | 2015-12-25 | 2023-09-05 | Nikon Corporation | Image sensor and image-capturing device that selects pixel signal for focal position |
| US12197106B2 (en) | 2015-12-25 | 2025-01-14 | Nikon Corporation | Image sensor and image-capturing device that selects pixel signal for focal position |
| JP2022111738A (en) * | 2021-01-20 | 2022-08-01 | キヤノン株式会社 | Imaging device and image processing method |
| JP7699436B2 (en) | 2021-01-20 | 2025-06-27 | キヤノン株式会社 | Imaging device and image processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102883093B (en) | Camera head and imaging apparatus | |
| JP2013037296A (en) | Image pickup apparatus and image pickup device | |
| JP4720508B2 (en) | Imaging device and imaging apparatus | |
| JP5066851B2 (en) | Imaging device | |
| US8730373B2 (en) | Image forming apparatus | |
| JP5722975B2 (en) | Imaging device, shading correction method for imaging device, and program for imaging device | |
| JP5243666B2 (en) | Imaging apparatus, imaging apparatus main body, and shading correction method | |
| JP5157400B2 (en) | Imaging device | |
| JP5361535B2 (en) | Imaging device | |
| JP6682310B2 (en) | Focus detection apparatus and method, and imaging apparatus | |
| US8902349B2 (en) | Image pickup apparatus | |
| JPWO2008032820A1 (en) | Imaging device and imaging apparatus | |
| JP5348258B2 (en) | Imaging device | |
| JP5784395B2 (en) | Imaging device | |
| JPWO2012127702A1 (en) | Color imaging device, imaging device, and imaging program | |
| JPWO2014041845A1 (en) | Imaging apparatus and signal processing method | |
| JP5611469B2 (en) | Stereoscopic imaging apparatus and method | |
| JP5885421B2 (en) | Imaging device | |
| JP2014239316A (en) | Imaging device and control method for the same | |
| JP2020046482A (en) | Imaging apparatus | |
| JP7079161B2 (en) | Imaging device and its control method | |
| JP7019442B2 (en) | Image pickup device and its control method | |
| US20230199342A1 (en) | Imaging device and imaging method | |
| JP6891470B2 (en) | Imaging device | |
| JP2014222268A (en) | Imaging device and imaging device control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140807 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150521 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150602 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150730 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151222 |