[go: up one dir, main page]

JP2020088029A - Imaging element and imaging apparatus - Google Patents

Imaging element and imaging apparatus Download PDF

Info

Publication number
JP2020088029A
JP2020088029A JP2018216464A JP2018216464A JP2020088029A JP 2020088029 A JP2020088029 A JP 2020088029A JP 2018216464 A JP2018216464 A JP 2018216464A JP 2018216464 A JP2018216464 A JP 2018216464A JP 2020088029 A JP2020088029 A JP 2020088029A
Authority
JP
Japan
Prior art keywords
pixel
image pickup
light
photoelectric conversion
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018216464A
Other languages
Japanese (ja)
Other versions
JP7330687B2 (en
Inventor
康平 岡本
Kohei Okamoto
康平 岡本
勇希 吉村
Yuki Yoshimura
勇希 吉村
福田 浩一
Koichi Fukuda
浩一 福田
駿一 若嶋
Shunichi Wakashima
駿一 若嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018216464A priority Critical patent/JP7330687B2/en
Publication of JP2020088029A publication Critical patent/JP2020088029A/en
Priority to JP2023130838A priority patent/JP2023159224A/en
Application granted granted Critical
Publication of JP7330687B2 publication Critical patent/JP7330687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】光検出感度の高い撮像素子、およびそれを用いた撮像装置を提供する。【解決手段】複数の撮像画素が2次元状に配列された撮像素子であって、前記複数の撮像画素はそれぞれ、電気的に分割された複数の光電変換部と、マイクロレンズと、前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きいことを特徴とする。【選択図】図2An imaging device having high photodetection sensitivity and an imaging device using the same are provided. Kind Code: A1 An image pickup device in which a plurality of image pickup pixels are arranged two-dimensionally, wherein each of the plurality of image pickup pixels includes a plurality of electrically divided photoelectric conversion units, a microlens, and the photoelectric conversion. and a light shielding wall surrounding the imaging pixel between the portion and the microlens, wherein the width of the surface of the light shielding wall on the microlens side is larger than the width of the surface of the light shielding wall on the photoelectric conversion unit side. It is characterized by [Selection drawing] Fig. 2

Description

本発明は、特に、瞳分割により位相差検出を行うための撮像素子および撮像装置に関する。 The present invention particularly relates to an image pickup device and an image pickup apparatus for performing phase difference detection by pupil division.

デジタルカメラやデジタルビデオカメラなど、撮像画素が2次元配列された撮像素子に被写体からの光を結像してシーンを撮影する撮像装置において、近年では、高画素化により画素サイズが縮小され、画素における光検出感度の向上が重要となっている。特に、結像光学系の瞳分割により位相差検出を行う撮像面位相差方式によって焦点検出を行う撮像装置も多く、画素に入射された光を光電変換部へ高感度に導くことが重要である。そこで、光検出感度の高い撮像素子を得るために様々な提案がなされている。 2. Description of the Related Art In an image pickup apparatus such as a digital camera or a digital video camera that images a scene by forming light from a subject on an image pickup element in which image pickup pixels are two-dimensionally arranged, in recent years, the pixel size has been reduced by increasing the number of pixels and It is important to improve the photodetection sensitivity. In particular, there are many image pickup devices that perform focus detection by an image pickup surface phase difference method that performs phase difference detection by dividing the pupil of the imaging optical system, and it is important to guide light incident on a pixel to a photoelectric conversion unit with high sensitivity. .. Therefore, various proposals have been made in order to obtain an image pickup device having high light detection sensitivity.

特許文献1には、画素間での光の漏れによる感度低下や画素間の混色を防止したり、位相差情報が失われないようにしたりするために、各画素を囲うように光導波路に遮光壁を導入する画素構成が提案されている。特許文献2には、光電変換部表面付近から絶縁膜上端へ光導波路が形成された構成が開示されており、画素に入射された光が、画素内部の配線による散乱、吸収を受けて損失となることを回避しているとしている。 In Patent Document 1, in order to prevent sensitivity deterioration due to light leakage between pixels, color mixture between pixels, and phase loss information from being lost, an optical waveguide is shielded so as to surround each pixel. Pixel configurations that introduce walls have been proposed. Patent Document 2 discloses a configuration in which an optical waveguide is formed from the vicinity of the surface of a photoelectric conversion unit to the upper end of an insulating film, and light incident on a pixel is scattered and absorbed by wiring inside the pixel, resulting in loss. I'm trying to avoid that.

さらに、高画素化により画素サイズが縮小されることに伴い、波長の長い光ほど狭い受光領域に効率よく光を導入することが難しくなってきている。このような現状に対応する手段として、特許文献3には、各色に対応する画素の光導波路の底面における無反射膜の屈折率を調整し、色間の受光感度のばらつきを抑制する構成が提案されている。 Furthermore, as the pixel size is reduced due to the increase in the number of pixels, it has become difficult to efficiently introduce light into a narrow light receiving region as the wavelength of light increases. As means for dealing with such a current situation, Patent Document 3 proposes a configuration in which the refractive index of the antireflection film on the bottom surface of the optical waveguide of the pixel corresponding to each color is adjusted to suppress variations in light receiving sensitivity between colors. Has been done.

特開2015−167219号公報JP, 2005-167219, A 特開2015−162562号公報JP, 2005-162562, A 特開2015−69992号公報JP, 2005-69992, A

しかしながら、画素の周辺部もしくは隣接画素から光が漏れることもあり、その影響により画素内の電磁場分布が乱れたり、画素サイズの縮小化に伴って受光効率が色によって変化したりする場合がある。このような場合には撮像面位相差方式における焦点検出精度が低下してしまう。 However, light may leak from the peripheral portion of the pixel or from an adjacent pixel, which may disturb the electromagnetic field distribution in the pixel or change the light receiving efficiency depending on the color as the pixel size is reduced. In such a case, the focus detection accuracy in the imaging plane phase difference method is deteriorated.

本発明は前述の問題点に鑑み、光検出感度の高い撮像素子、およびそれを用いた撮像装置を提供することを目的としている。 In view of the above problems, it is an object of the present invention to provide an image pickup device having high photodetection sensitivity and an image pickup apparatus using the same.

本発明に係る撮像素子は、複数の撮像画素が2次元状に配列された撮像素子であって、前記複数の撮像画素はそれぞれ、電気的に分割された複数の光電変換部と、マイクロレンズと、前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きいことを特徴とする。 The image pickup device according to the present invention is an image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged, and each of the plurality of image pickup pixels includes a plurality of electrically divided photoelectric conversion units, a microlens, and A light-shielding wall that surrounds the imaging pixel between the photoelectric conversion unit and the microlens, and a width of a surface of the light-shielding wall on the microlens side is equal to a width of a surface of the light-shielding wall on the photoelectric conversion unit side. Characterized by being larger than the width.

本発明によれば、撮像面位相差方式による焦点検出精度を高くする、光検出感度の高い撮像素子、およびそれを用いた撮像装置を提供することができる。 According to the present invention, it is possible to provide an image pickup element having high photodetection sensitivity, which enhances focus detection accuracy by an image pickup surface phase difference method, and an image pickup apparatus using the same.

撮像素子およびその一部である2行2列の基本画素群を表す模式図である。It is a schematic diagram showing an image sensor and a basic pixel group of 2 rows and 2 columns which is a part thereof. 第1の実施形態における撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel in 1st Embodiment. 画素間遮光壁の詳細な形状を説明するための図である。It is a figure for demonstrating the detailed shape of the shading wall between pixels. 画素間遮光壁の他の例を説明するための図である。It is a figure for explaining other examples of a shading wall between pixels. トップマイクロレンズのギャップを説明するための図である。It is a figure for demonstrating the gap of a top micro lens. 撮像素子と瞳分割との対応関係を示した概略図である。It is the schematic which showed the correspondence of an image sensor and pupil division. 視差画像間の像ずれ量とデフォーカス量との関係の概略を説明するための図である。It is a figure for explaining the outline of the relation between the amount of image shifts between parallax images, and the amount of defocus. 撮像装置の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of an imaging device. 光導波路に淵部の領域を有する撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the image pick-up pixel which has the area|region of the edge part in an optical waveguide. 中央位置から離れた像面位置における、光導波路に淵部の領域を有する撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel which has the area|region of the edge part in an optical waveguide in the image surface position away from the center position. 第2の実施形態における撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel in 2nd Embodiment. 遮光部の有無での画素に入射する光の伝搬経路を説明するための図である。It is a figure for explaining a propagation path of light which enters into a pixel with and without a shade part. 第3の実施形態における撮像画素の断面を表す模式図である。It is a schematic diagram showing the cross section of the imaging pixel in 3rd Embodiment. 撮像装置の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of an imaging device. RGB画素の基本画素群を表す模式図である。It is a schematic diagram showing a basic pixel group of RGB pixels. 撮像画素の断面および光の伝搬経路を説明するための図である。It is a figure for demonstrating the cross section of an imaging pixel, and the propagation path of light. 画素構造と瞳分割との対応関係の概略を説明するための図である。It is a figure for explaining the outline of the corresponding relation between a pixel structure and pupil division. 光のビームウェスト半径とを説明するための図である。It is a figure for demonstrating the beam waist radius of light. R画素,G画素,B画素の間でのクロストークが発生する方向を説明するための図である。It is a figure for demonstrating the direction where crosstalk arises between R pixel, G pixel, and B pixel.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。本実施形態では、有効画素領域の水平方向サイズが22.32mm、垂直方向サイズが14.88mm、水平方向の有効画素数が6000、垂直方向の有効画素数が4000とした例について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, an example will be described in which the effective pixel area has a horizontal size of 22.32 mm, a vertical size of 14.88 mm, a horizontal effective pixel count of 6000, and a vertical effective pixel count of 4000.

図1(a)は、撮像素子の撮像面上に配列された複数の撮像画素の一部として2行2列の基本画素群101を表す模式図である。基本画素群101は、赤色相当の波長帯域に分光感度を有する撮像画素102、青色相当の波長帯域に分光感度を有する撮像画素103、および緑色相当の波長帯域に分光感度を有する二つの撮像画素104、105により構成されているものとする。なお、以下の説明では、複数の撮像画素が配列された撮像面をx−y面に平行とし、これに垂直な方向をz方向とする。 FIG. 1A is a schematic diagram showing a basic pixel group 101 of 2 rows and 2 columns as a part of a plurality of imaging pixels arranged on an imaging surface of an imaging device. The basic pixel group 101 includes an imaging pixel 102 having spectral sensitivity in a wavelength band corresponding to red, an imaging pixel 103 having spectral sensitivity in a wavelength band corresponding to blue, and two imaging pixels 104 having spectral sensitivity in a wavelength band corresponding to green. , 105. In the following description, the image pickup surface on which a plurality of image pickup pixels are arranged is parallel to the xy plane, and the direction perpendicular to the xy plane is the z direction.

図1(b)は、撮像素子106を撮像面上方から見た模式図であり、図1(b)に示すように、基本画素群101が撮像面上に2次元状に配列されている。ここで、基本画素群101を構成する撮像画素102〜105の基本的な構成は特定の波長領域を有する色の光を透過するカラーフィルターを除いて同一とする。したがって、以下、撮像画素の構成を説明する際に、代表して撮像画素102に着目して説明する。 FIG. 1B is a schematic diagram of the image sensor 106 viewed from above the image pickup surface. As shown in FIG. 1B, the basic pixel group 101 is two-dimensionally arranged on the image pickup surface. Here, the image pickup pixels 102 to 105 that form the basic pixel group 101 have the same basic configuration except for a color filter that transmits light of a color having a specific wavelength region. Therefore, hereinafter, when describing the configuration of the image pickup pixel, the image pickup pixel 102 will be representatively described.

図2は、本実施形態において、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。n型のシリコン基板201には、その表面側からイオン注入により形成された光電変換部202が設けられている。光電変換部202は中央分離領域211により副光電変換部202a、202bに電気的に分離され、それぞれに対応する画素領域が副画素となっている。イオン注入は図2中の−z方向から行われ、シリコン基板201の裏面(図2中、+z側)を薄膜化した後、裏面側にマイクロレンズなどの光学構造が配置される。 FIG. 2 is a schematic diagram showing a cross section parallel to the zx plane in the image pickup pixel 102 in FIG. 1A in the present embodiment. On the n-type silicon substrate 201, a photoelectric conversion unit 202 formed by ion implantation is provided from the surface side. The photoelectric conversion unit 202 is electrically separated into the sub photoelectric conversion units 202a and 202b by the central separation region 211, and the pixel region corresponding to each is a sub pixel. Ion implantation is performed from the −z direction in FIG. 2, and after thinning the back surface (+z side in FIG. 2) of the silicon substrate 201, an optical structure such as a microlens is arranged on the back surface side.

また、シリコン基板201には、その裏面側に酸化シリコン(SiOx)からなる絶縁部204が形成され、その上方に層内マイクロレンズ(インナーレンズ)205、カラーフィルター207、トップマイクロレンズ209が形成されている。画素間遮光壁203、210は画素間の遮光を行うための遮光壁であり、各画素を囲むように配置されている。画素間遮光壁203はz方向において壁の幅が一定となっているのに対し、画素間遮光壁210は上方ほど壁の幅が大きくなるように形成されている。つまり、画素間遮光壁のトップマイクロレンズ側の面(最上面)の幅が光電変換部側の面(最下面)の幅よりも大きい構成となっている。この構成により、弊害をもたらす漏れ光や迷光を上方で排除できるため、入射角度の厳しい場合であっても入射光をインナーレンズ205で光電変換部202まで効率よく導くことができる。 Further, the silicon substrate 201 has an insulating portion 204 made of silicon oxide (SiO x ) formed on the back side thereof, and an in-layer microlens (inner lens) 205, a color filter 207, and a top microlens 209 formed above the insulating portion 204. Has been done. Inter-pixel light blocking walls 203 and 210 are light blocking walls for blocking light between pixels, and are arranged so as to surround each pixel. The inter-pixel light blocking wall 203 has a constant wall width in the z direction, while the inter-pixel light blocking wall 210 is formed such that the wall width increases toward the top. That is, the width of the surface of the light-shielding wall between pixels on the top microlens side (uppermost surface) is larger than the width of the surface on the photoelectric conversion unit side (lowermost surface). With this configuration, leaking light and stray light that cause harmful effects can be eliminated above, so that even when the incident angle is severe, the incident light can be efficiently guided to the photoelectric conversion unit 202 by the inner lens 205.

次に、図3を参照しながら画素間遮光壁210の詳細な形状について説明する。図3(a)は図2のA−A'におけるx−y面に平行な断面を表す模式図であり、図3(b)は図2のB−B'におけるx−y面に平行な断面を表す模式図である。図3(a)および図3(b)において、点線301が隣接画素との境界を示しており、画素間遮光壁210の断面形状を示している。 Next, the detailed shape of the inter-pixel light shielding wall 210 will be described with reference to FIG. 3A is a schematic view showing a cross section parallel to the xy plane in AA′ of FIG. 2, and FIG. 3B is a parallel view to the xy plane in BB′ of FIG. It is a schematic diagram showing a cross section. In FIGS. 3A and 3B, a dotted line 301 indicates a boundary with an adjacent pixel, and shows a cross-sectional shape of the inter-pixel light shielding wall 210.

図3(c)は、図3(a)の円形の点線で囲まれた領域302を拡大した模式図であり、画素間遮光壁210の角部303を表している。図3(c)に示す画素間遮光壁210の角部において、辺をなす部分の幅304、および画素対角方向(本実施形態では図中−x=yの直線に平行な方向)における角部の幅305を示す。この時、画素間遮光壁210の最上面における角部の面積は、画素間遮光壁210の最下面における角部の面積よりも大きい。このような構成とすることにより、画素の対角方向の画素間隣接部における迷光を遮光することができる。つまり、本実施形態においては、画素間遮光壁210の最上面における角部の画素対角方向の幅が、画素間遮光壁210の最下面における角部の画素対角方向の幅よりも大きくなるように構成されている。 FIG. 3C is an enlarged schematic view of a region 302 surrounded by a circular dotted line in FIG. 3A and shows a corner portion 303 of the inter-pixel light shielding wall 210. In the corner portion of the inter-pixel light shielding wall 210 shown in FIG. 3C, the width 304 of the side portion and the corner in the pixel diagonal direction (in the present embodiment, the direction parallel to the straight line −x=y in the figure). The width 305 of the part is shown. At this time, the area of the corner portion on the uppermost surface of the inter-pixel light shielding wall 210 is larger than the area of the corner portion on the lowermost surface of the inter-pixel light shielding wall 210. With such a configuration, it is possible to block stray light in a pixel adjacent portion between pixels in a diagonal direction. That is, in the present embodiment, the width of the corner portion on the uppermost surface of the inter-pixel light shielding wall 210 in the pixel diagonal direction is larger than the width of the corner portion on the lowermost surface of the inter-pixel light shielding wall 210 in the pixel diagonal direction. Is configured.

また、画素間遮光壁210の形状は、その角部に特徴を有するものであればよく、図3に示した例に限定されるものではない。例えば、図4(a)に示すような断面形状であってもよい。この場合、角部における画素対角方向の幅401の大きさが辺をなす部分の幅402の2倍以上となっている。また、図4(b)に示すような断面形状であってもよい。この例も同様の特徴をもつ画素間遮光壁210の形状例であるが、辺をなす部分が幅一定の辺ではなく、徐々に変化している。この場合は幅404を、辺をなす部分の幅として考えることが可能である。 Further, the shape of the inter-pixel light shielding wall 210 may be any shape as long as it has a feature in its corner portion, and is not limited to the example shown in FIG. For example, the cross-sectional shape as shown in FIG. In this case, the size of the width 401 of the corner portion in the diagonal direction of the pixel is twice or more the width 402 of the side portion. Further, it may have a cross-sectional shape as shown in FIG. This example is also an example of the shape of the inter-pixel light shielding wall 210 having the same characteristics, but the part forming the side is not a side having a constant width but gradually changes. In this case, the width 404 can be considered as the width of the part forming the side.

さらに本実施形態においては、画素間遮光壁の角部での画素対角方向における断面形状についても、図2に示す形状に限定されるものではない。例えば、図4(c)に示す例は、画素間遮光壁210の上部から下部へ向かって面積または幅が単調減少する形状であり、図2と同様であるが、このような形状に限定されない。例えば、図4(d)に示すように、画素間遮光壁210の上部においてのみ幅または面積が大きくなっている形状であってもよく、図4(e)に示すように、上部から下部へ向かって幅または面積が非線形に減少する形状であってもよい。特に、図4(c)または図4(e)に示す形状の場合、上下方向において断面形状に段差がないため、作製プロセスが簡素化され、作製精度を向上させたりコストを低減したりすることができる。 Further, in the present embodiment, the cross-sectional shape in the pixel diagonal direction at the corner portion of the inter-pixel light shielding wall is not limited to the shape shown in FIG. For example, the example shown in FIG. 4C has a shape in which the area or width of the inter-pixel light shielding wall 210 monotonically decreases from the upper portion to the lower portion, and is similar to that in FIG. 2, but is not limited to such a shape. .. For example, as shown in FIG. 4D, the shape may be such that the width or area is increased only at the upper portion of the inter-pixel light shielding wall 210, and as shown in FIG. The shape may be such that the width or area decreases in a non-linear manner. In particular, in the case of the shape shown in FIG. 4C or FIG. 4E, since there is no step in the cross-sectional shape in the vertical direction, the manufacturing process is simplified, manufacturing accuracy is improved, and cost is reduced. You can

また、本実施形態においては、画素間遮光壁210の最上面における角部の画素対角方向の幅または面積が、トップマイクロレンズ209のギャップの幅または面積よりも大きくなるように構成してもよい。このような構成であっても、画素へ入射する迷光を抑制することが可能である。さらに、画素間遮光壁210の最下面における角部の画素対角方向の幅または面積が、トップマイクロレンズ209のギャップの幅または面積よりも小さくなるように構成してもよい。このようにすることにより、画素へ入射する迷光の抑制効果をより向上させることが可能である。 Further, in the present embodiment, the width or area in the pixel diagonal direction of the corner on the uppermost surface of the inter-pixel light shielding wall 210 may be larger than the width or area of the gap of the top microlens 209. Good. Even with such a configuration, it is possible to suppress stray light entering the pixel. Furthermore, the width or area in the pixel diagonal direction of the corner portion on the lowermost surface of the inter-pixel light blocking wall 210 may be smaller than the width or area of the gap of the top microlens 209. By doing so, it is possible to further improve the effect of suppressing stray light entering the pixel.

図5(a)は、トップマイクロレンズ209および画素間遮光壁210のみを模式的に示す斜視図である。多くの撮像画素においてトップマイクロレンズの画素対角方向の角部では、平坦またはこれに近い領域が存在し、この領域をトップマイクロレンズ501のギャップ502と称する。 FIG. 5A is a perspective view schematically showing only the top microlens 209 and the inter-pixel light shielding wall 210. In many image pickup pixels, a flat or near-flat region exists in a corner portion of the top microlens in a diagonal direction of the pixel, and this region is called a gap 502 of the top microlens 501.

図5(b)は、隣接画素の一部を含めて+z方向から見た模式図である。図5(b)において、トップマイクロレンズ501の画素対角方向における角部にギャップ502が存在し、画素対角方向におけるギャップの幅503を示している。図5(c)は、画素対角方向におけるトップマイクロレンズ501のギャップ502の幅503と、画素間遮光壁210の上部における幅504および下部における幅505との関係を表す図である。本実施形態においては、これら幅の関係は面積の関係としても特徴づけられる。ただし、図5(c)における幅503、504、505の大小関係はこれらに限定されるものではない。 FIG. 5B is a schematic view seen from the +z direction including a part of the adjacent pixels. In FIG. 5B, a gap 502 exists at a corner portion of the top microlens 501 in the pixel diagonal direction, and a width 503 of the gap in the pixel diagonal direction is shown. FIG. 5C is a diagram showing the relationship between the width 503 of the gap 502 of the top microlens 501 in the pixel diagonal direction, the width 504 in the upper part of the inter-pixel light shielding wall 210, and the width 505 in the lower part. In the present embodiment, these width relationships are also characterized as area relationships. However, the size relationship of the widths 503, 504, and 505 in FIG. 5C is not limited to these.

次に、瞳分割位相差方式の焦点検出方法について説明する。図6は、本実施形態の撮像素子と瞳分割との対応関係を示した概略図である。
図6において、線604は被写体の位置(面)を示し、位置605にある撮像光学系を通して被写体像を撮像素子表面位置606に形成する。また、位置609は撮像素子をなす撮像画素のインナーレンズの裏側位置を表す。撮像素子の画素毎に、x方向に2分割された副光電変換部602と副光電変換部603は、それぞれ、瞳部分領域607と瞳部分領域608を通過する光束を受光する。
Next, the focus detection method of the pupil division phase difference method will be described. FIG. 6 is a schematic diagram showing the correspondence relationship between the image sensor of this embodiment and pupil division.
In FIG. 6, a line 604 indicates the position (plane) of the subject, and forms a subject image at the image pickup element surface position 606 through the image pickup optical system at the position 605. Further, the position 609 represents the position on the back side of the inner lens of the imaging pixel forming the image sensor. The sub-photoelectric conversion unit 602 and the sub-photoelectric conversion unit 603, which are divided into two in the x direction for each pixel of the image sensor, receive the light fluxes passing through the pupil partial region 607 and the pupil partial region 608, respectively.

画素毎に、副光電変換部602および副光電変換部603の信号を選び出すことで、結像光学系の瞳部分領域607と瞳部分領域608の中の特定の瞳部分領域に対応した視差画像を得ることができる。具体的には、画素毎に、副光電変換部602に対応する信号を選び出すことで、結像光学系の瞳部分領域607に対応した有効画素数の解像度の視差画像を得ることができる。また、副光電変換部603に対応する信号を選び出すことで、結像光学系の瞳部分領域608に対応した有効画素数の解像度の視差画像を得ることができる。 By selecting the signals of the sub photoelectric conversion unit 602 and the sub photoelectric conversion unit 603 for each pixel, a parallax image corresponding to a specific pupil partial region in the pupil partial region 607 and the pupil partial region 608 of the imaging optical system is obtained. Obtainable. Specifically, by selecting a signal corresponding to the sub photoelectric conversion unit 602 for each pixel, it is possible to obtain a parallax image having a resolution of the effective number of pixels corresponding to the pupil partial region 607 of the imaging optical system. Further, by selecting a signal corresponding to the sub photoelectric conversion unit 603, it is possible to obtain a parallax image having a resolution of the number of effective pixels corresponding to the pupil partial region 608 of the imaging optical system.

また、画素毎に、副光電変換部602と副光電変換部603の信号を全て加算することで、有効画素数の解像度の撮像画像を生成することができる。なお、本実施形態では、図6に示すように撮像素子の中央から遠い撮像画素ほどそのトップマイクロレンズの位置が撮像画素の中央側へ偏芯している。これは、撮像素子の中央から遠い部分では結像光学系からの主光線の方向がより傾くため、この傾きに対応するためである。 Further, by adding all the signals of the sub photoelectric conversion unit 602 and the sub photoelectric conversion unit 603 for each pixel, it is possible to generate a captured image with a resolution of the number of effective pixels. In the present embodiment, as shown in FIG. 6, the position of the top microlens of the image pickup pixel farther from the center of the image pickup element is decentered toward the center of the image pickup pixel. This is because the direction of the principal ray from the image forming optical system is more inclined in a portion far from the center of the image pickup element, and this inclination is dealt with.

次に、視差画像の像ずれ量とデフォーカス量との関係について説明する。図7は、視差画像間の像ずれ量とデフォーカス量との関係の概略を説明するための図である。撮像素子表面位置606に本実施形態の撮像素子(不図示)が配置され、図6と同様に、結像光学系の射出瞳が、瞳部分領域607と瞳部分領域608とに2分割されるものとする。 Next, the relationship between the image shift amount of the parallax image and the defocus amount will be described. FIG. 7 is a diagram for explaining the outline of the relationship between the image shift amount between parallax images and the defocus amount. An image sensor (not shown) of the present embodiment is arranged at the image sensor surface position 606, and the exit pupil of the imaging optical system is divided into a pupil partial area 607 and a pupil partial area 608, as in FIG. I shall.

デフォーカス量dは、被写体の結像位置から撮像素子表面位置(撮像面)606までの距離を表し、その大きさを|d|とする。ここで、デフォーカス量dに関し、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)とし、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義する。被写体の結像位置が撮像面にある合焦状態はd=0である。図7で、被写体701は合焦状態(d=0)の例を示しており、被写体702は前ピン状態(d<0)の例を示している。また、前ピン状態(d<0)と後ピン状態(d>0)とを合わせて、デフォーカス状態(|d|>0)とする。 The defocus amount d represents the distance from the image forming position of the subject to the image pickup element surface position (image pickup surface) 606, and its size is |d|. Here, regarding the defocus amount d, the front focus state in which the image forming position of the subject is on the subject side from the image pickup surface is a negative sign (d<0), and the image forming position of the subject is on the opposite side of the image pickup face from the subject. The rear pin state is defined as a plus sign (d>0). The in-focus state in which the imaging position of the subject is on the imaging surface is d=0. In FIG. 7, the subject 701 shows an example in the focused state (d=0), and the subject 702 shows an example in the front focus state (d<0). Further, the front focus state (d<0) and the rear focus state (d>0) are combined into a defocus state (|d|>0).

前ピン状態(d<0)では、被写体702からの光束のうち、瞳部分領域607(608)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅P1(P2)に広がり、撮像面606でぼやけた像となる。ぼやけた像は、副光電変換部602と副光電変換部603により受光され、視差画像が生成される。よって、副光電変換部602と副光電変換部603の信号から生成される視差画像には、重心位置G1(G2)に、被写体702が幅P1(P2)にぼやけた被写体像として記録される。被写体像のボケ幅P1(P2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、視差画像間の被写体像の像ずれ量p(=G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、視差画像間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。合焦状態(d=0)では、視差画像間の被写体像の重心位置が一致(p=0)し、像ずれは生じない。 In the front focus state (d<0), among the light fluxes from the subject 702, the light fluxes that have passed through the pupil partial region 607 (608) are once focused and then have a width around the center of gravity G1 (G2) of the light flux. It spreads to P1 (P2) and becomes a blurred image on the imaging surface 606. The blurred image is received by the sub photoelectric conversion unit 602 and the sub photoelectric conversion unit 603, and a parallax image is generated. Therefore, in the parallax image generated from the signals of the sub-photoelectric conversion unit 602 and the sub-photoelectric conversion unit 603, the subject 702 is recorded at the center of gravity position G1 (G2) as a blurred subject image with a width P1 (P2). The blur width P1 (P2) of the subject image generally increases in proportion as the size |d| of the defocus amount d increases. Similarly, the magnitude |p| of the image shift amount p (=G1-G2) of the subject images between the parallax images is approximately proportional to the magnitude |d| of the defocus amount d. Increase. Even in the rear focus state (d>0), the image shift direction of the subject image between the parallax images is opposite to the front focus state, but the same is true. In the focused state (d=0), the barycentric positions of the subject images between the parallax images match (p=0), and no image shift occurs.

したがって、副光電変換部602と副光電変換部603の信号を用いて得られる二つ(複数)の視差画像において、視差画像のデフォーカス量の大きさが増加するのに伴い、複数の視差画像間の像ずれ量の大きさが増加する。本実施形態の撮像素子の光電変換部からの信号を用いて視差画像間の像ずれ量を相関演算により算出することで、瞳分割位相差検出方式の焦点検出信号を用いた焦点検出を行うことができる。 Therefore, in two (plurality) parallax images obtained by using the signals of the sub-photoelectric conversion unit 602 and the sub-photoelectric conversion unit 603, as the size of the defocus amount of the parallax images increases, the plurality of parallax images The magnitude of the image shift amount between them increases. Performing focus detection using a focus detection signal of the pupil division phase difference detection method by calculating an image shift amount between parallax images by a correlation calculation using a signal from the photoelectric conversion unit of the image sensor of the present embodiment. You can

また、図2に示した例では、光電変換部202とトップマイクロレンズ209との間に信号伝送用の配線層を有さない裏面照射型の撮像画素であった。表面照射型の撮像画素においては、配線層で散乱、吸収されるような迷光が配線層において排除されづらい。このため、裏面照射型の撮像画素に本実施形態を適用することが好ましく、迷光の抑制効果を向上させることができる。このような構成にすることで、瞳分割による位相差方式の焦点検出精度がより高い撮像素子を実現することが可能となる。 Further, in the example shown in FIG. 2, the back-illuminated image pickup pixel has no wiring layer for signal transmission between the photoelectric conversion unit 202 and the top microlens 209. In the front-illuminated image pickup pixel, it is difficult to eliminate stray light, which is scattered and absorbed in the wiring layer, in the wiring layer. Therefore, it is preferable to apply the present embodiment to the back-illuminated image pickup pixel, and the effect of suppressing stray light can be improved. With such a configuration, it is possible to realize an image sensor with higher focus detection accuracy of the phase difference method by pupil division.

次に、前述した撮像素子を適用した撮像装置の具体的な構成例について説明する。図8は、本実施形態に係る撮像装置であるデジタルカメラの機能構成例を示すブロック図であり、撮像素子106を有するものである。なお、本実施形態では、撮像装置の一例としてデジタルカメラについて説明するが、前述の撮像素子を有する撮像装置として、携帯電話、監視カメラ、移動体カメラ、医療用カメラ等であってもよい。本実施形態の撮像装置では、撮像素子106の光電変換部からの信号を瞳分割位相差方式の焦点調節に用いると同時に、撮像信号としても用いる。 Next, a specific configuration example of the image pickup apparatus to which the above-described image pickup element is applied will be described. FIG. 8 is a block diagram showing a functional configuration example of a digital camera which is an image pickup apparatus according to this embodiment, and has an image pickup element 106. In the present embodiment, a digital camera will be described as an example of the image pickup device, but the image pickup device having the above-described image pickup device may be a mobile phone, a surveillance camera, a mobile camera, a medical camera, or the like. In the image pickup apparatus of the present embodiment, the signal from the photoelectric conversion unit of the image pickup element 106 is used not only for focus adjustment of the pupil division phase difference method but also as an image pickup signal.

本実施形態のデジタルカメラはレンズ交換式一眼レフカメラであり、レンズユニット800とカメラ本体820とを有する。レンズユニット800は図中央の点線で示されるマウントMを介して、カメラ本体820に装着される。 The digital camera of this embodiment is an interchangeable lens single-lens reflex camera, and has a lens unit 800 and a camera body 820. The lens unit 800 is attached to the camera body 820 via a mount M shown by a dotted line in the center of the figure.

レンズユニット800は、光学系(第1レンズ群801、絞り802、第2レンズ群803、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)804)、及び駆動/制御系を有する。このようにレンズユニット800は、フォーカスレンズ804を含み、被写体の光学像を形成する撮影レンズに相当する。 The lens unit 800 has an optical system (first lens group 801, diaphragm 802, second lens group 803, focus lens group (hereinafter, simply referred to as “focus lens” 804)), and a drive/control system. As described above, the lens unit 800 includes the focus lens 804 and corresponds to a photographing lens that forms an optical image of a subject.

第1レンズ群801はレンズユニット800の先端に配置され、光軸方向OAに移動可能に保持される。絞り802は、撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。ただし、本実施形態の撮像素子にグローバルシャッター機構が設けられているため、必ずしも絞りを用いたメカニカルシャッタを使用する必要はない。 The first lens group 801 is arranged at the tip of the lens unit 800 and is movably held in the optical axis direction OA. The diaphragm 802 has a function of adjusting the amount of light at the time of shooting, and also functions as a mechanical shutter for controlling the exposure time at the time of shooting a still image. However, since the image sensor according to the present embodiment is provided with the global shutter mechanism, it is not always necessary to use the mechanical shutter using the diaphragm.

絞り802及び第2レンズ群803は一体で光軸方向OAに移動可能であり、第1レンズ群801と連動して移動することによりズーム機能を実現する。フォーカスレンズ804も光軸方向OAに移動可能であり、位置に応じてレンズユニット800が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ804の光軸方向OAにおける位置を制御することにより、レンズユニット800の合焦距離を調節する焦点調節を行う。 The diaphragm 802 and the second lens group 803 can be moved integrally in the optical axis direction OA, and a zoom function is realized by moving in conjunction with the first lens group 801. The focus lens 804 is also movable in the optical axis direction OA, and the subject distance (focus distance) on which the lens unit 800 focuses is changed depending on the position. By controlling the position of the focus lens 804 in the optical axis direction OA, focus adjustment for adjusting the focusing distance of the lens unit 800 is performed.

駆動/制御系は、ズームアクチュエータ811、絞りアクチュエータ812、フォーカスアクチュエータ813、ズーム駆動回路814、絞り絞り駆動回路815、およびフォーカス駆動回路816を有する。さらに、レンズMPU(MPU:マイクロプロセッサ)817、およびレンズメモリ818を有する。 The drive/control system includes a zoom actuator 811, an aperture actuator 812, a focus actuator 813, a zoom drive circuit 814, an aperture stop drive circuit 815, and a focus drive circuit 816. Further, it has a lens MPU (MPU: microprocessor) 817 and a lens memory 818.

ズーム駆動回路814は、ズームアクチュエータ811を用いて第1レンズ群801や第3レンズ群803を光軸方向OAに駆動し、レンズユニット800の光学系の画角を制御する。絞り駆動回路815は、絞りアクチュエータ812を用いて絞り802を駆動し、絞り802の開口径や開閉動作を制御する。フォーカス駆動回路816はフォーカスアクチュエータ813を用いてフォーカスレンズ804を光軸方向OAに駆動し、レンズユニット800の光学系の合焦距離を変化させる。また、フォーカス駆動回路816は、フォーカスアクチュエータ813を用いてフォーカスレンズ804の現在位置を検出する。 The zoom drive circuit 814 drives the first lens group 801 and the third lens group 803 in the optical axis direction OA using the zoom actuator 811, and controls the angle of view of the optical system of the lens unit 800. The diaphragm drive circuit 815 drives the diaphragm 802 using the diaphragm actuator 812, and controls the aperture diameter and the opening/closing operation of the diaphragm 802. The focus drive circuit 816 drives the focus lens 804 in the optical axis direction OA using the focus actuator 813 to change the focusing distance of the optical system of the lens unit 800. Further, the focus drive circuit 816 detects the current position of the focus lens 804 using the focus actuator 813.

レンズMPU817は、レンズユニット800に係る全ての演算、制御を行い、ズーム駆動回路814、絞り駆動回路815、フォーカス駆動回路816を制御する。また、レンズMPU817は、マウントMを通じてカメラMPU825と接続され、コマンドやデータを通信する。例えばレンズMPU817はフォーカスレンズ804の位置を検出し、カメラMPU825からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ804の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU817は、カメラMPU825からの要求に応じて、ズーム駆動回路814、絞り駆動回路815、フォーカス駆動回路816を制御する。レンズメモリ818は自動焦点検出に必要な光学情報が予め記憶されている。カメラMPU825は例えば内蔵する不揮発性メモリやレンズメモリ818に記憶されているプログラムを実行することで、レンズユニット800の動作を制御する。 The lens MPU 817 performs all calculations and controls related to the lens unit 800, and controls the zoom drive circuit 814, the diaphragm drive circuit 815, and the focus drive circuit 816. The lens MPU 817 is also connected to the camera MPU 825 through the mount M and communicates commands and data. For example, the lens MPU 817 detects the position of the focus lens 804 and notifies the lens position information to the request from the camera MPU 825. This lens position information includes the position of the focus lens 804 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the optical axis of the lens frame that limits the luminous flux of the exit pupil. It includes information such as position and diameter in direction OA. The lens MPU 817 also controls the zoom drive circuit 814, the aperture drive circuit 815, and the focus drive circuit 816 in response to a request from the camera MPU 825. Optical information required for automatic focus detection is stored in the lens memory 818 in advance. The camera MPU 825 controls the operation of the lens unit 800 by executing a program stored in a built-in non-volatile memory or a lens memory 818, for example.

カメラ本体820は、光学系(光学ローパスフィルタ821および撮像素子106)と、駆動/制御系とを有する。レンズユニット800の第1レンズ群801、絞り802、第2レンズ群803、フォーカスレンズ804と、カメラ本体820の光学ローパスフィルタ821は撮像光学系を構成する。 The camera body 820 has an optical system (optical low-pass filter 821 and image sensor 106) and a drive/control system. The first lens group 801, the diaphragm 802, the second lens group 803, the focus lens 804 of the lens unit 800, and the optical low-pass filter 821 of the camera body 820 form an imaging optical system.

光学ローパスフィルタ821は、撮影画像の偽色やモアレを軽減する。撮像素子106は、本実施形態で説明した撮像素子であり、マイクロレンズ、上部透明電極、瞳分割のための下部透明電極、有機光電変換膜、光導波路、Si光電変換部、および周辺回路で基本的に構成される。また、前述したように、撮像素子106は横方向(水平方向)に6000画素、縦方向(垂直方向)に4000画素が配置されている。本実施形態の撮像素子106は、光電変換部において瞳分割機能を有し、光電変換部からの信号に基づく画像データを用いた位相差AF(オートフォーカス)が可能である。画像処理回路824は、撮像素子106の光電変換部202から得られる画像データから位相差AF用のデータおよび動画像を生成する。さらに、画像処理回路824は、光電変換部202から得られる画像データから静止画像、表示、記録画像データを生成する。 The optical low-pass filter 821 reduces false color and moire of a captured image. The image sensor 106 is the image sensor described in the present embodiment, and basically includes a microlens, an upper transparent electrode, a lower transparent electrode for pupil division, an organic photoelectric conversion film, an optical waveguide, a Si photoelectric conversion unit, and a peripheral circuit. Is composed of Further, as described above, the image sensor 106 has 6000 pixels arranged in the horizontal direction (horizontal direction) and 4000 pixels arranged in the vertical direction (vertical direction). The image sensor 106 of this embodiment has a pupil division function in the photoelectric conversion unit, and is capable of phase difference AF (autofocus) using image data based on a signal from the photoelectric conversion unit. The image processing circuit 824 generates data for phase difference AF and a moving image from image data obtained from the photoelectric conversion unit 202 of the image sensor 106. Further, the image processing circuit 824 generates still image, display, and recorded image data from the image data obtained from the photoelectric conversion unit 202.

駆動/制御系は、撮像素子駆動回路823、画像処理回路824、カメラMPU825、表示部826、操作スイッチ群827、メモリ828、および撮像面位相差検出部829を有する。なお、本実施形態の撮像装置においてはカメラMPU825に接続する不図示の通信部を備えるようにしてもよい。通信部はUSBやLAN等々の有線通信に限られるものではなく、無線LAN等の無線通信も含む。本実施形態の撮像装置は当該通信部経由で外部の外部装置から制御信号を取得可能であり、取得した制御信号に基づいて画像データ等を配信することも可能である。 The drive/control system includes an image pickup element drive circuit 823, an image processing circuit 824, a camera MPU 825, a display unit 826, an operation switch group 827, a memory 828, and an image pickup surface phase difference detection unit 829. The image pickup apparatus of this embodiment may include a communication unit (not shown) connected to the camera MPU 825. The communication unit is not limited to wired communication such as USB and LAN, and includes wireless communication such as wireless LAN. The imaging device of this embodiment can acquire a control signal from an external device outside via the communication unit, and can also distribute image data and the like based on the acquired control signal.

撮像素子駆動回路823は、撮像素子106の動作を制御するとともに、取得した動画像および静止画像信号をA/D変換してカメラMPU825に送信する。画像処理回路824は、撮像素子106が取得した各画像データに対し、例えばγ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。また、画像処理回路824は位相差AF用の信号(焦点検出用データ)も生成する。 The image sensor drive circuit 823 controls the operation of the image sensor 106, A/D-converts the acquired moving image and still image signals, and transmits the signals to the camera MPU 825. The image processing circuit 824 performs general image processing such as γ conversion, white balance adjustment processing, color interpolation processing, and compression encoding processing on each image data acquired by the image sensor 106, which is performed by a digital camera. The image processing circuit 824 also generates a signal for phase difference AF (focus detection data).

カメラMPU825は、カメラ本体820に係る全ての演算、制御を行い、撮像素子駆動回路823、画像処理回路824、表示部826、操作スイッチ群827、メモリ828、撮像面位相差検出部829を制御する。カメラMPU825はマウントMを介してレンズMPU817と接続され、レンズMPU817とコマンドやデータを通信する。カメラMPU825はレンズMPU817に対し、レンズ位置の取得要求や、所定の駆動量での絞り、フォーカスレンズ、ズーム駆動要求や、レンズユニット800に固有の光学情報の取得要求などを要求する。カメラMPU825には、カメラ動作を制御するプログラムを格納したROM825a、変数を記憶するRAM825b、および諸パラメータを記憶するEEPROM825cが内蔵されている。 The camera MPU 825 performs all calculations and controls relating to the camera body 820, and controls the image sensor drive circuit 823, the image processing circuit 824, the display unit 826, the operation switch group 827, the memory 828, and the image plane phase difference detection unit 829. .. The camera MPU 825 is connected to the lens MPU 817 via the mount M and communicates commands and data with the lens MPU 817. The camera MPU 825 requests the lens MPU 817 to obtain a lens position, a diaphragm, focus lens, and zoom drive request at a predetermined drive amount, an optical information acquisition request unique to the lens unit 800, and the like. The camera MPU 825 includes a ROM 825a that stores a program for controlling the camera operation, a RAM 825b that stores variables, and an EEPROM 825c that stores various parameters.

表示部826はLCD(Liquid Crystal Display)などから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、焦点検出時の合焦状態の画像などを表示する。操作スイッチ群827は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ828は、着脱可能なフラッシュメモリであり、撮影済みの画像データを記録する。 The display unit 826 is composed of an LCD (Liquid Crystal Display) or the like, and displays information about the shooting mode of the camera, a preview image before shooting, a confirmation image after shooting, an image in a focused state at the time of focus detection, and the like. The operation switch group 827 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 828 is a removable flash memory, and records image data of captured images.

撮像面位相差検出部829は、画像処理回路824により得られる光電変換部202からの焦点検出用データを用いて位相差検出方式で焦点検出処理を行う。具体的には、画像処理回路824が、撮影光学系の一対の瞳領域を通過する光束で形成される光電変換部202からの一対の像データを焦点検出用データとして生成し、撮像面位相差検出部829はこの一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の撮像面位相差検出部829は、専用のAFセンサを用いず、撮像素子106の出力に基づく位相差AF(撮像面位相差AF)を行う。 The imaging plane phase difference detection unit 829 performs focus detection processing by the phase difference detection method using the focus detection data from the photoelectric conversion unit 202 obtained by the image processing circuit 824. Specifically, the image processing circuit 824 generates, as focus detection data, a pair of image data from the photoelectric conversion unit 202, which is formed by a light flux passing through a pair of pupil regions of the photographing optical system, and the imaging plane phase difference is obtained. The detection unit 829 detects the focus shift amount based on the shift amount of the pair of image data. As described above, the image pickup surface phase difference detection unit 829 of the present embodiment performs the phase difference AF (image pickup surface phase difference AF) based on the output of the image pickup element 106 without using a dedicated AF sensor.

以上のように、前述した構造の撮像画素を有する撮像素子をデジタルカメラ等の撮像装置に適用することによって、焦点検出精度の高い撮像装置を提供することができる。 As described above, by applying the image pickup device having the image pickup pixel having the above-described structure to the image pickup device such as a digital camera, it is possible to provide the image pickup device with high focus detection accuracy.

(第2の実施形態)
以下、本発明の第2の実施形態について、図面を参照しながら説明する。以下、第1の実施形態と異なる点についてのみ説明する。撮像素子の基本的な構成は図1と同様であるが、撮像画素の構成は第1の実施形態と異なるため、以下に説明する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. Only the points different from the first embodiment will be described below. Although the basic configuration of the image sensor is the same as that of FIG. 1, the configuration of the image pickup pixel is different from that of the first embodiment and will be described below.

図9は、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。n型のシリコン基板901には、その表面側からイオン注入により形成された光電変換部902が設けられている。光電変換部902は中央分離領域911により副光電変換部902a、902bに電気的に分離され、それぞれに対応する画素領域が副画素となっている。 FIG. 9 is a schematic diagram showing a cross section parallel to the zx plane in the image pickup pixel 102 in FIG. On the n-type silicon substrate 901, a photoelectric conversion unit 902 formed by ion implantation is provided from the surface side thereof. The photoelectric conversion unit 902 is electrically separated into the sub photoelectric conversion units 902a and 902b by the central separation region 911, and the pixel region corresponding to each is a sub pixel.

また、シリコン基板901には、その表面側に酸化シリコン(SiOx)からなる絶縁部904、複数の配線905からなる配線層、および絶縁部904を貫くように窒化シリコン(SiNx)からなる光導波路903が形成されている。ここで、淵部の領域910は、光導波路903における、シリコン基板901側とは反対側(つまり、マイクロレンズ909側)の淵部の領域を表している。光導波路903上方には、パシベーション膜906を介してカラーフィルター907が形成されており、さらにその上方にマイクロレンズ909が配置されている。 Further, the silicon substrate 901 has an insulating portion 904 made of silicon oxide (SiO x ), a wiring layer made of a plurality of wirings 905 on the surface side thereof, and an optical waveguide made of silicon nitride (SiN x ) so as to penetrate the insulating portion 904. The waveguide 903 is formed. Here, the edge portion region 910 represents the edge portion region of the optical waveguide 903 opposite to the silicon substrate 901 side (that is, the microlens 909 side). A color filter 907 is formed above the optical waveguide 903 via a passivation film 906, and a microlens 909 is arranged above the color filter 907.

撮像画素102の外部から入射される光は、マイクロレンズ909により集光されながら光導波路903へ導入される。そして、光導波路903内部において、側面における全反射(一部部分反射の場合もあり)により閉じ込められた状態で光が伝搬し、光電変換部902まで到達する。この時、光導波路903に光が閉じ込められているため、絶縁部904への光の漏れや、配線905での散乱、吸収などによる光の損失を回避することができる。 Light incident from the outside of the image pickup pixel 102 is introduced into the optical waveguide 903 while being condensed by the microlens 909. Then, inside the optical waveguide 903, the light propagates in a state of being confined by the total reflection (sometimes partially reflected) on the side surface and reaches the photoelectric conversion unit 902. At this time, since light is confined in the optical waveguide 903, it is possible to avoid light leakage to the insulating portion 904 and light loss due to scattering and absorption in the wiring 905.

通常、撮像素子においては、その撮像面中央から同心円状に遠ざかるほど各画素上のマイクロレンズは、中央へシフトされている。例えば、画面中央からx方向へおよそ+10ミリメートルの像面上位置におけるマイクロレンズは、x方向に特定の量シフトされている。図10には、撮像面中央から遠い位置にある、マイクロレンズ1001がシフトされた撮像画素の例を示している。 Normally, in the image pickup device, the microlenses on each pixel are shifted to the center as the distance from the center of the image pickup surface increases concentrically. For example, a microlens at a position on the image plane of about +10 millimeters from the center of the screen in the x direction is shifted by a specific amount in the x direction. FIG. 10 shows an example of an image pickup pixel in which the microlens 1001 is shifted, which is located far from the center of the image pickup surface.

しかしながら、このように中央位置から離れた像面位置における画素では、図10中の矢印1002で示されるような光線は光導波路903の淵部の領域910に衝突してしまい、光導波路903へ光が直接入射されない。光導波路へ直接入射される光は、マイクロレンズによる集光分布を基本的に保ちながら、光電変換部に導入される。これに対し、淵部の領域910に衝突してしまう光は、それ自身が損失に寄与してしまうだけでなく、むしろ光導波路の側面外側から光導波路内部に入射されることになり、光導波路内部の電磁場の分布を乱す原因となってしまう。光電変換部が分割された瞳分割による位相差方式の焦点検出においては、この電磁場分布の乱れが、焦点検出精度の低下に影響してしまう。 However, in the pixel at the image plane position distant from the center position in this way, a light ray as indicated by an arrow 1002 in FIG. 10 collides with the edge portion region 910 of the optical waveguide 903, and the light is transmitted to the optical waveguide 903. Is not directly incident. The light that is directly incident on the optical waveguide is introduced into the photoelectric conversion unit while basically maintaining the light-collecting distribution by the microlens. On the other hand, the light that collides with the edge region 910 not only contributes to the loss itself, but also enters the inside of the optical waveguide from the outside of the side surface of the optical waveguide. This will disturb the distribution of the internal electromagnetic field. In the focus detection of the phase difference method by the pupil division in which the photoelectric conversion unit is divided, the disturbance of the electromagnetic field distribution affects the deterioration of the focus detection accuracy.

そこで本実施形態においては、図11で示すように、図10の撮像画素102の光導波路903における淵部の領域910よりもマイクロレンズ909側に、厚さ30nm程度のタングステン(W)からなる遮光部1101を設けている。なお、遮光部1101の材料は、入射される光を吸収、散乱、または反射することによって遮る特性を有する材料であれば、タングステンに限定されない。これにより、図10中の矢印1002で示す方向から入射された光が遮光部1101で反射、吸収され、有効に散乱されることによって、光導波路903内部の電磁場分布の攪乱を回避、抑制することが可能となる。つまり、瞳分割による位相差方式の焦点検出精度の低下を抑制することができる。光導波路903の淵部の領域910と遮光部1101との距離1102は、画素において扱う光の波長帯域の中心波長またはピーク波長よりも小さいことが好ましい。このことにより、淵部の領域910と遮光部1101との間を抜けて隣接画素へ漏れ出る光を抑制することができる。 Therefore, in the present embodiment, as shown in FIG. 11, light shielding of tungsten (W) having a thickness of about 30 nm is provided on the microlens 909 side of the edge portion 910 of the optical waveguide 903 of the imaging pixel 102 of FIG. A portion 1101 is provided. Note that the material of the light blocking unit 1101 is not limited to tungsten as long as it has a property of blocking incident light by absorbing, scattering, or reflecting it. As a result, the light incident from the direction shown by the arrow 1002 in FIG. 10 is reflected and absorbed by the light shielding unit 1101, and is effectively scattered, thereby avoiding or suppressing the disturbance of the electromagnetic field distribution inside the optical waveguide 903. Is possible. That is, it is possible to suppress a decrease in focus detection accuracy of the phase difference method due to pupil division. The distance 1102 between the edge portion 910 of the optical waveguide 903 and the light shielding portion 1101 is preferably smaller than the center wavelength or the peak wavelength of the wavelength band of light handled in the pixel. As a result, it is possible to suppress light that passes through between the edge region 910 and the light shielding unit 1101 and leaks to the adjacent pixel.

図12(a)および図12(b)は、中央位置から離れた像面上位置での光導波路を有する画素の断面を示す図であり、濃淡はポインティングベクトルの大きさの分布を表わしている。この分布は、マイクロレンズ上方からz−x面内でz軸と3度の角度をもって像面中央に傾いた方向から波長550nmの平面波を入射させたときの定常状態を示すものである。図12(a)および図12(b)ともに、ポインティングベクトルの強度を表す白黒の濃淡のスケールは同等である。図12(a)の撮像画素の光電変換部は、電気的に副光電変換部1204a、1204bに分割されている。同様に、図12(b)の撮像画素の光電変換部は、電気的に副光電変換部1205a、1205bに分割されている。 FIG. 12A and FIG. 12B are diagrams showing a cross section of a pixel having an optical waveguide at a position on the image plane away from the center position, and the shading represents the distribution of the size of the pointing vector. .. This distribution shows a steady state when a plane wave having a wavelength of 550 nm is incident from a direction tilted toward the center of the image plane at an angle of 3 degrees with the z axis in the zx plane from above the microlens. 12(a) and 12(b), the gray scales of black and white representing the strength of the pointing vector are the same. The photoelectric conversion unit of the image pickup pixel in FIG. 12A is electrically divided into sub photoelectric conversion units 1204a and 1204b. Similarly, the photoelectric conversion unit of the imaging pixel in FIG. 12B is electrically divided into sub photoelectric conversion units 1205a and 1205b.

図12(a)の光導波路の淵部の領域の近くには遮光部が設けられておらず、図12(b)の光導波路の淵部の領域近傍には、タングステンからなる厚さ30nmの遮光部1203が設けられている。図12(a)に示す例では、淵部の領域で入射された光が散乱され、さらに光導波路の側面から内部へ入る光により、光導波路の内部の電磁場分布が攪乱される。その結果、主に副光電変換部1204bに入射されるべき光の多くが、領域1201に示すように、反対側の副光電変換部1204aに入射していることがわかる。 A light-shielding portion is not provided near the edge portion region of the optical waveguide in FIG. 12A, and a thickness of 30 nm made of tungsten is provided in the vicinity of the edge portion region of the optical waveguide in FIG. A light shielding portion 1203 is provided. In the example shown in FIG. 12A, the incident light is scattered in the edge portion area, and the electromagnetic field distribution inside the optical waveguide is disturbed by the light entering inside from the side surface of the optical waveguide. As a result, it can be seen that most of the light that should be mainly incident on the sub photoelectric conversion unit 1204b is incident on the sub photoelectric conversion unit 1204a on the opposite side, as shown in the region 1201.

これに対し、図12(b)に示す例では、光導波路の内部において電磁場分布の大きな攪乱は見られず、領域1202からわかるとおり、多くの光が本来入るべき副光電変換部1205bに入射していることがわかる。図12(b)のように遮光部を設けた構成とすることにより、瞳分割性能の低下を抑制し、焦点検出精度を向上させることが可能である。なお、瞳分割の位相差方式での焦点検出方法は、第1の実施形態で説明した内容と同様である。 On the other hand, in the example shown in FIG. 12B, no large disturbance of the electromagnetic field distribution is found inside the optical waveguide, and as can be seen from the region 1202, a large amount of light is incident on the sub photoelectric conversion unit 1205b which should originally enter. You can see that By adopting the configuration in which the light shielding portion is provided as shown in FIG. 12B, it is possible to suppress the deterioration of the pupil division performance and improve the focus detection accuracy. The focus detection method using the pupil division phase difference method is the same as that described in the first embodiment.

以上のように本実施形態によれば、光導波路903の淵部の領域910よりもマイクロレンズ909側の位置に、遮光部1101を設けるようにしたので、焦点検出精度を向上させることができる。なお、本実施形態に係る撮像素子をデジタルカメラなどの撮像装置に適用すれば、焦点検出精度の高い撮像装置を提供することができる。撮像装置の詳細については第1の実施形態と同様である。 As described above, according to the present embodiment, the light shielding portion 1101 is provided at a position closer to the microlens 909 than the edge portion 910 of the optical waveguide 903, so that focus detection accuracy can be improved. If the image pickup device according to the present embodiment is applied to an image pickup device such as a digital camera, it is possible to provide an image pickup device with high focus detection accuracy. The details of the imaging device are the same as those in the first embodiment.

(第3の実施形態)
以下、本発明の第3の実施形態について、図面を参照しながら説明する。以下、第2の実施形態と異なる点についてのみ説明する。撮像素子の基本的な構成は図1と同様であるが、撮像画素の構成は第2の実施形態と異なるため、以下に説明する。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. Only the points different from the second embodiment will be described below. Although the basic configuration of the image sensor is the same as that of FIG. 1, the configuration of the image pickup pixel is different from that of the second embodiment, and will be described below.

図13は、本実施形態において、図1(a)中の撮像画素102におけるzx面に平行な断面を表す模式図である。以下、図9との相違点についてのみ説明する。シリコン基板901には、その表面上側に酸化シリコン(SiOx)からなる絶縁部1301、複数の配線905からなる配線層、および絶縁部1301に埋め込まれるように窒化シリコン(SiNx)からなる光導波路1302が形成されている。本実施形態においては、光導波路1302において、シリコン基板901側とは反対側に淵部の領域は存在しない。そのため、光導波路1302の上方には、光導波路1302側部の絶縁部1301が連続して配置されていることになる。 FIG. 13 is a schematic diagram showing a cross section parallel to the zx plane in the image pickup pixel 102 in FIG. 1A in the present embodiment. Only differences from FIG. 9 will be described below. The silicon substrate 901 has an insulating portion 1301 made of silicon oxide (SiO x ), a wiring layer made of a plurality of wirings 905, and an optical waveguide made of silicon nitride (SiN x ) embedded in the insulating portion 1301 on the upper surface of the silicon substrate 901. 1302 is formed. In the present embodiment, in the optical waveguide 1302, there is no edge region on the side opposite to the silicon substrate 901 side. Therefore, the insulating portion 1301 on the side of the optical waveguide 1302 is continuously arranged above the optical waveguide 1302.

このように本実施形態の画素構成では、絶縁部1301に光導波路1302が埋め込まれ、図9に示すような淵部の領域910が存在しない。そのため、淵部での散乱、反射などの悪影響を考慮する必要がなく、焦点検出精度の低下を回避することができる。 As described above, in the pixel configuration of the present embodiment, the optical waveguide 1302 is embedded in the insulating portion 1301 and the edge portion region 910 as shown in FIG. 9 does not exist. Therefore, it is not necessary to consider adverse effects such as scattering and reflection at the edge portion, and it is possible to avoid deterioration of focus detection accuracy.

(第4の実施形態)
以下、本発明の第4の実施形態について、図面を参照しながら説明する。図15は、本実施形態における撮像素子の撮像画素および焦点検出画素の配列の概略を説明するための図である。図15において、2次元CMOSセンサー(撮像素子)の画素(撮像画素)配列を4列×4行の範囲で示し、さらに焦点検出画素の配列を8列×4行の範囲で示す。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings. FIG. 15 is a diagram for explaining the outline of the arrangement of the image pickup pixels and the focus detection pixels of the image pickup device in the present embodiment. In FIG. 15, the pixel (imaging pixel) array of the two-dimensional CMOS sensor (imaging element) is shown in a range of 4 columns×4 rows, and the array of focus detection pixels is shown in a range of 8 columns×4 rows.

図15の左上の位置に2列×2行の画素群1500を示す。画素群1500においては、R(赤)の分光感度を有する撮像画素1500Rが左上に、G(緑)の分光感度を有する撮像画素1500Gが右上と左下に、B(青)の分光感度を有する撮像画素1500Bが右下に配置されている。さらに各画素は、2列×1行に配列された第1焦点検出画素(副画素)1501と第2焦点検出画素(副画素)1502とにより構成されている。 A pixel group 1500 of 2 columns×2 rows is shown at the upper left position in FIG. In the pixel group 1500, an imaging pixel 1500R having a spectral sensitivity of R (red) is in the upper left, and an imaging pixel 1500G having a spectral sensitivity of G (green) is in the upper right and lower left, and an image having a spectral sensitivity of B (blue). The pixel 1500B is arranged at the lower right. Further, each pixel is composed of a first focus detection pixel (sub-pixel) 1501 and a second focus detection pixel (sub-pixel) 1502 arranged in 2 columns×1 row.

なお、撮像素子の撮像面上には、画素群1500が多数配列されているが、説明を簡略化するために、図15では、4列×4行の撮像画素(8列×4行の焦点検出画素)が配列されている様子を示すものとする。これら多数の配列により、撮像画像および焦点検出信号の取得を可能としている。本実施形態では、画素の周期Pが1.0μm、画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが0.5μm、焦点検出画素数NAFが横11150列×縦3725行=約4153万画素の撮像素子として説明を行う。 Although a large number of pixel groups 1500 are arranged on the image pickup surface of the image pickup element, in order to simplify the description, in FIG. 15, 4 columns×4 rows of imaging pixels (8 columns×4 rows of focus points are shown). It is assumed that the detection pixels) are arranged. With such a large number of arrays, it is possible to acquire a captured image and a focus detection signal. In the present embodiment, the pixel period P is 1.0 μm, the number of pixels N is 5575 horizontal rows×3725 vertical lines=about 20.75 million pixels, the column direction period P AF of focus detection pixels is 0.5 μm, and the focus detection pixel number N is N. The description will be made assuming that the AF is an image sensor having 11150 horizontal rows×3725 vertical rows=about 41530,000 pixels.

図15に示した撮像素子の1つの撮像画素1500Gを、撮像素子の受光面側(+z側)から見た平面図を図16(a)に示し、図16(a)のa−a断面を−y側から見た断面図を図16(b)に示す。なお、図16に示す例では、G(緑)の分光感度を有する撮像画素1500Gを例としているが、R(赤)の分光感度を有する撮像画素1500R、およびB(青)の分光感度を有する撮像画素1500Bにおいても同様の構成であるものとする。 FIG. 16A shows a plan view of one image pickup pixel 1500G of the image pickup device shown in FIG. 15 as seen from the light receiving surface side (+z side) of the image pickup device, and shows a cross section taken along the line aa of FIG. 16A. A cross-sectional view seen from the −y side is shown in FIG. In the example shown in FIG. 16, the imaging pixel 1500G having the G (green) spectral sensitivity is taken as an example, but the imaging pixel 1500R having the R (red) spectral sensitivity and the B (blue) spectral sensitivity. The imaging pixel 1500B has the same configuration.

図16(b)に示すように、本実施形態に係る撮像画素は、シリコン基板表面付近において、副光電変換部1601a、1601bから構成される光電変換部1601を備える。また、本実施形態に係る撮像画素は、結像光学系から入射される光を集光して撮像画素に導入するためのトップマイクロレンズ1605を備える。トップマイクロレンズ1605と光電変換部1601との間には、酸化シリコン(SiOx)からなる絶縁部1600、複数の配線1613からなる配線層、および効率よく光を光電変換部1601に導くための光導波路1610が設けられている。画素の設計によっては、インナーレンズ1606を設けてもよい。この画素構造により、撮像画素に入射される光は、トップマイクロレンズ1605により集光され、カラーフィルター(不図示)で分光されて光導波路1610を伝搬する。 As shown in FIG. 16B, the imaging pixel according to this embodiment includes a photoelectric conversion unit 1601 including sub photoelectric conversion units 1601a and 1601b near the surface of the silicon substrate. Further, the image pickup pixel according to the present embodiment includes a top microlens 1605 for collecting the light incident from the image forming optical system and introducing the light into the image pickup pixel. Between the top microlens 1605 and the photoelectric conversion unit 1601, an insulating unit 1600 made of silicon oxide (SiO x ), a wiring layer made of a plurality of wirings 1613, and a light guide for efficiently guiding light to the photoelectric conversion unit 1601. A waveguide 1610 is provided. The inner lens 1606 may be provided depending on the pixel design. With this pixel structure, the light incident on the imaging pixel is condensed by the top microlens 1605, dispersed by a color filter (not shown), and propagated through the optical waveguide 1610.

また、図16(c)〜図16(e)は、画素に入射する光がどのように画素内を伝搬するかを説明するための図である。図16(c)〜図16(e)では、特定の角度で入射する平面波の伝搬の様子をFDTD法(Finite Difference Time Domain Method:時間領域差分法)により計算した結果を示している。ここで、トップマイクロレンズ1605の焦点位置1607も併せて示す。なお、焦点位置1607から位置1608aまでの範囲、および焦点位置1607から位置1608bまでの範囲は、それぞれ、トップマイクロレンズ1605の片側焦点深度の範囲を示している。 In addition, FIGS. 16C to 16E are diagrams for explaining how the light incident on the pixel propagates in the pixel. 16C to 16E show the results of calculation of the propagation state of a plane wave incident at a specific angle by the FDTD method (Finite Difference Time Domain Method). Here, the focal position 1607 of the top microlens 1605 is also shown. The range from the focal position 1607 to the position 1608a and the range from the focal position 1607 to the position 1608b indicate the range of the one-side focal depth of the top microlens 1605, respectively.

図16(d)に示すように、光が光軸(z方向に平行)に対して0°で入射した場合は、2つの副光電変換部1601a、1601bで受光される受光量がほぼ同じになる。これに対して、図16(c)に示すように、光が光軸に対して−15°で入射した場合は、副光電変換部1601bで受光される受光量がより多くなる。一方、図3(e)に示すように、光が光軸に対して15°で入射した場合は、副光電変換部1601aで受光される受光量がより多くなる。副光電変換部1601a、1601bでは、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子の外部へ排出される。 As shown in FIG. 16D, when light is incident at 0° with respect to the optical axis (parallel to the z direction), the two sub photoelectric conversion units 1601a and 1601b receive almost the same amount of light received. Become. On the other hand, as shown in FIG. 16C, when the light enters at −15° with respect to the optical axis, the amount of light received by the sub photoelectric conversion unit 1601b becomes larger. On the other hand, as shown in FIG. 3E, when the light enters at 15° with respect to the optical axis, the amount of light received by the sub photoelectric conversion unit 1601a becomes larger. In the sub photoelectric conversion units 1601a and 1601b, a pair of electrons and holes is generated according to the amount of light received, and after being separated in the depletion layer, negatively charged electrons are accumulated in an n-type layer (not shown). On the other hand, the holes are discharged to the outside of the image sensor through the p-type layer connected to the constant voltage source (not shown).

図17は、図16に示した画素構造と瞳分割との対応関係の概略を説明するための図である。図17の下部には、図16(a)に示した画素構造のa−a断面を+y側から見た断面を示し、図17の上部に結像光学系の射出瞳面を示す。なお、図17では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図16に対して反転させている。 FIG. 17 is a diagram for explaining the outline of the correspondence relationship between the pixel structure shown in FIG. 16 and pupil division. The lower part of FIG. 17 shows a cross section of the pixel structure shown in FIG. 16A as seen from the +y side, and the upper part of FIG. 17 shows the exit pupil plane of the imaging optical system. Note that in FIG. 17, the x-axis and the y-axis of the cross-sectional view are inverted with respect to FIG. 16 in order to correspond to the coordinate axes of the exit pupil plane.

図17において、第1瞳部分領域1701は、重心が−X方向に偏心している副光電変換部1601aの受光面と、トップマイクロレンズ1605によって概ね共役関係になっており、第1焦点検出画素1501が受光可能な瞳領域を表している。第1瞳部分領域1701は、瞳面上で+X側に重心が偏心している。 In FIG. 17, the first pupil partial region 1701 is substantially in a conjugate relationship with the light receiving surface of the sub photoelectric conversion unit 1601a whose center of gravity is decentered in the −X direction by the top microlens 1605, and the first focus detection pixel 1501. Represents a pupil region in which light can be received. The center of gravity of the first pupil partial region 1701 is eccentric to the +X side on the pupil plane.

一方、第2瞳部分領域1702は、重心が+X方向に偏心している光電変換部1601bの受光面と、トップマイクロレンズ1605によって概ね共役関係になっており、第2焦点検出画素1502で受光可能な瞳領域を表している。第2瞳部分領域1702は、瞳面上で−X側に重心が偏心している。また、図17において、瞳領域1700は、2つの副光電変換部1601a、1601bを全て合わせた際の撮像画素1500G全体で受光可能な瞳領域である。なお、瞳分割による位相差方式での焦点検出方法は、第1の実施形態で説明した方法と同様である。 On the other hand, in the second pupil partial region 1702, the light receiving surface of the photoelectric conversion unit 1601b whose center of gravity is decentered in the +X direction and the top microlens 1605 have a substantially conjugate relationship, and the second focus detection pixel 1502 can receive light. It represents the pupil area. The center of gravity of the second pupil partial region 1702 is eccentric to the −X side on the pupil plane. In addition, in FIG. 17, a pupil region 1700 is a pupil region in which the entire image pickup pixel 1500G can receive light when the two sub photoelectric conversion units 1601a and 1601b are all combined. The focus detection method using the phase difference method by pupil division is the same as the method described in the first embodiment.

第1瞳部分領域1701と第2瞳部分領域1702との異なる瞳部分領域を通過した光束は、撮像画素の各画素に、それぞれ、異なる角度で入射し、2分割された第1焦点検出画素1501と第2焦点検出画素1502とで受光される。本実施形態の撮像画素は、第1焦点検出画素1501で結像光学系の第1瞳部分領域1701を通過する光束を受光し、第2焦点検出画素1502で第2瞳部分領域1702を通過する光束を受光する。つまり、本実施形態に係る撮像素子は、第1瞳部分領域1701から第2瞳部分領域1702全てを合わせた瞳領域1700を通過する光束を受光する撮像画素が複数配列されている。 The light fluxes that have passed through different pupil partial areas, that is, the first pupil partial area 1701 and the second pupil partial area 1702, are incident on the pixels of the image pickup pixel at different angles, respectively, and the first focus detection pixel 1501 is divided into two. The second focus detection pixel 1502 receives the light. In the imaging pixel of the present embodiment, the first focus detection pixel 1501 receives the light flux that passes through the first pupil partial area 1701 of the imaging optical system, and the second focus detection pixel 1502 passes through the second pupil partial area 1702. Receives light flux. That is, in the image sensor according to the present embodiment, a plurality of imaging pixels that receive the light flux that passes through the pupil area 1700 that is a combination of all of the first pupil partial area 1701 and the second pupil partial area 1702 are arranged.

なお、必要に応じて、撮像画素、第1焦点検出画素、および第2焦点検出画素をそれぞれ個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素と第2焦点検出画素とを部分的に配置する構成としても良い。本実施形態では、撮像素子の各撮像画素の第1焦点検出画素1501を第1焦点信号として生成し、撮像素子の各撮像画素の第2焦点検出画素1502を第2焦点信号として生成し、焦点検出を行う。また、撮像画素の各画素で、第1焦点検出画素1501、第2焦点検出画素1502を加算することで、有効画素数の解像度の撮像信号(撮像画像)を生成する。 It should be noted that the imaging pixel, the first focus detection pixel, and the second focus detection pixel each have an individual pixel configuration as necessary, and the first focus detection pixel and the second focus detection pixel are included in a part of the imaging pixel array. May be partially arranged. In the present embodiment, the first focus detection pixel 1501 of each image pickup pixel of the image pickup device is generated as a first focus signal, and the second focus detection pixel 1502 of each image pickup pixel of the image pickup device is generated as a second focus signal. Detect. Further, by adding the first focus detection pixel 1501 and the second focus detection pixel 1502 at each pixel of the image pickup pixels, an image pickup signal (taken image) having a resolution of the number of effective pixels is generated.

次に、RGBの各画素における屈折率について説明する。図18は、撮像画素に配置されたトップマイクロレンズ1605とトップマイクロレンズ1605により集光された光のビームウェスト半径とを説明するための図である。図18において、光束1801はトップマイクロレンズ1605から導光された光束である。ここで、トップマイクロレンズ1605の絞り込み角をα、トップマイクロレンズ1605の焦点距離をf、トップマイクロレンズ1605の直径をD、トップマイクロレンズ1605と光電変換部1601との間の有効屈折率をn'、光の波長をλとする。この場合、波長λの光をトップマイクロレンズ1605で集光したときのビームウェスト半径(光の最小スポット半径)wは、Rayleighの分解能(回折限界時)の式を用いて以下の式(1)で定義される。
w=1.22×fλ/n'D ・・・(1)
Next, the refractive index of each pixel of RGB will be described. FIG. 18 is a diagram for explaining the top microlens 1605 arranged in the imaging pixel and the beam waist radius of the light condensed by the top microlens 1605. In FIG. 18, a light beam 1801 is a light beam guided from the top microlens 1605. Here, the aperture angle of the top microlens 1605 is α, the focal length of the top microlens 1605 is f, the diameter of the top microlens 1605 is D, and the effective refractive index between the top microlens 1605 and the photoelectric conversion unit 1601 is n. ', the wavelength of light is λ. In this case, the beam waist radius (minimum spot radius of light) w when the light of wavelength λ is condensed by the top microlens 1605 is expressed by the following formula (1) using the formula of Rayleigh resolution (diffraction limit). Is defined by
w=1.22×fλ/n′D (1)

実際の画素構造ではいくつものレイヤーが積層されているため、トップマイクロレンズと光電変換部との間の屈折率は固定値に定まっていない。ところが、本実施形態のように光導波路の割合が大きい撮像画素では、トップマイクロレンズと光電変換部との間の屈折率を有効屈折率n'として考えた場合、光導波路の屈折率nの影響が大きい。そのため、式(1)中の有効屈折率n'は、光導波路内の屈折率nに大きく依存する。よって、式(1)より原理的に、トップマイクロレンズ1605で集光される光の最小スポット半径wは波長λに比例し、屈折率nに反比例することが分かる。 In an actual pixel structure, a number of layers are stacked, so that the refractive index between the top microlens and the photoelectric conversion unit is not fixed. However, in the imaging pixel having a large proportion of the optical waveguide as in the present embodiment, when the refractive index between the top microlens and the photoelectric conversion unit is considered as the effective refractive index n′, the influence of the refractive index n of the optical waveguide is affected. Is big. Therefore, the effective refractive index n'in the formula (1) greatly depends on the refractive index n in the optical waveguide. Therefore, it can be understood from the formula (1) that, in principle, the minimum spot radius w of the light condensed by the top microlens 1605 is proportional to the wavelength λ and inversely proportional to the refractive index n.

本実施形態の撮像素子では、撮像画素のサイズが1.0μmで、これを瞳分割した際の副画素のサイズは単純に0.5μmである。図15で示すような画素群の撮像素子は、R(赤)、G(緑)、B(青)の波長帯域に対応する光を受光する画素により構成されているため、各色に対応した画素内を伝搬する光の波長は異なる。つまり、赤色、緑色、青色の順で波長が短くなっている。 In the image sensor of the present embodiment, the size of the image pickup pixel is 1.0 μm, and the size of the subpixel when the pupil is divided is simply 0.5 μm. Since the image sensor of the pixel group as shown in FIG. 15 is composed of pixels that receive light corresponding to the wavelength bands of R (red), G (green), and B (blue), pixels corresponding to each color The wavelength of the light propagating inside is different. That is, the wavelength becomes shorter in the order of red, green, and blue.

光導波路内部の屈折率が同一である場合、式(1)より波長λが短いほど光の最小スポット半径wは小さくなり、波長λが長いほど光の最小スポット半径wが大きくなる。例えば、光導波路内部の屈折率nがSiO2の屈折率(およそ1.46)である場合、赤色の撮像画素では、分割された副光電変換部に光を導入することは困難である。2つの副光電変換部に対応するように光導波路が分割された構成としてもよいが、この場合でも分割された光導波路に光を導入することが困難であり、長い波長の光ほど受光されなくなる。 When the refractive index inside the optical waveguide is the same, the shorter the wavelength λ is, the smaller the minimum spot radius w of the light is, and the longer the wavelength λ is, the larger the minimum spot radius w of the light is. For example, when the refractive index n inside the optical waveguide is the refractive index of SiO 2 (about 1.46), it is difficult to introduce light into the divided sub photoelectric conversion units in the red image pickup pixel. The optical waveguide may be divided so as to correspond to the two sub photoelectric conversion units, but in this case as well, it is difficult to introduce light into the divided optical waveguide, and the longer the wavelength of light, the less the light is received. ..

この状況を解決するために、本実施形態の撮像素子における撮像画素では、Rの画素における光導波路内部の屈折率が最も高くなるように構成されている。R、G、Bの画素の光導波路内部の屈折率をそれぞれnR、nG、nBとした場合、nR>nG>nBの関係となるように構成されている。このことにより、波長が長い光でも狭い副光電変換部、または光導波路に光を導入することができる。 In order to solve this situation, the image pickup pixel in the image pickup device of this embodiment is configured such that the R pixel has the highest refractive index inside the optical waveguide. When the refractive indices inside the optical waveguides of the R, G, and B pixels are nR, nG, and nB, respectively, the relationship of nR>nG>nB is established. As a result, even light having a long wavelength can be introduced into the narrow sub-photoelectric conversion portion or the optical waveguide.

また、R画素の瞳分割性能が低下するのを回避する方法の1つとして、撮像素子全体の光導波路の屈折率nを十分に大きくする方法が考えられる。しかしながら、この方法では小画素化に伴い、画素間の分離性能は低下する一方であり、画素間でのクロストークが増大するといった課題が発生する。したがって、光導波路内部の屈折率をnR>nG>nBの関係を満たすように構成することで、光学的な画素間でのクロストークを低減することができる。 Further, as one method of avoiding the deterioration of the pupil division performance of the R pixel, a method of sufficiently increasing the refractive index n of the optical waveguide of the entire image sensor can be considered. However, in this method, as the number of pixels becomes smaller, the separation performance between pixels is reduced, and the problem that crosstalk between pixels increases occurs. Therefore, by configuring the refractive index inside the optical waveguide to satisfy the relationship of nR>nG>nB, it is possible to reduce optical crosstalk between pixels.

図19は、R画素,G画素,B画素の間でのクロストークが発生する方向を説明するための図である。図19(a)は、R画素,G画素,B画素の光導波路内の屈折率が全て同じ屈折率nである場合を示している。また、図19(b)は、R画素の屈折率をnR、G画素の屈折率をnG、R画素の屈折率をnRとした場合に、屈折率の大きさがnR>nG>nBの関係である場合を示している。 FIG. 19 is a diagram for explaining a direction in which crosstalk occurs among R pixels, G pixels, and B pixels. FIG. 19A shows a case where the R pixels, the G pixels, and the B pixels all have the same refractive index n in the optical waveguide. Further, FIG. 19B shows a relationship in which the magnitude of the refractive index is nR>nG>nB when the refractive index of the R pixel is nR, the refractive index of the G pixel is nG, and the refractive index of the R pixel is nR. Is shown.

R,G,Bの波長の長さに応じて光導波路の屈折率の大きさを変更すると、さらに、画素間でのクロストークの発生源となる不必要な光束が光導波路に導光しづらくなる。図19(b)のR画素とG画素を用いて具体的に説明する。 When the magnitude of the refractive index of the optical waveguide is changed in accordance with the lengths of the R, G, and B wavelengths, it becomes more difficult to guide unnecessary light beams that are sources of crosstalk between pixels to the optical waveguide. Become. A specific description will be given using the R pixel and the G pixel in FIG.

光導波路の屈折率が同じ場合は、R画素に入射した光における光束の最小スポット半径は、G画素に入射した光における光束の最小スポット半径よりも大きい。そのため、R画素の屈折率nRおよびG画素の屈折率nGを適切に設定することで、R画素に入射した光束がG画素にクロストークしにくくすることができる。このように、G画素からR画素へのクロストークは軽減できないが、R画素からG画素へのクロストークは軽減することはできる。G画素とB画素との間でも同様であり、さらにB画素の屈折率nBを適切に設定することで、G画素からB画素へのクロストークを軽減することができる。 When the refractive indices of the optical waveguides are the same, the minimum spot radius of the light beam incident on the R pixel is larger than the minimum spot radius of the light beam incident on the G pixel. Therefore, by appropriately setting the refractive index nR of the R pixel and the refractive index nG of the G pixel, it is possible to prevent the light flux incident on the R pixel from crosstalking to the G pixel. Thus, although the crosstalk from the G pixel to the R pixel cannot be reduced, the crosstalk from the R pixel to the G pixel can be reduced. The same is true between the G pixel and the B pixel. Further, by appropriately setting the refractive index nB of the B pixel, crosstalk from the G pixel to the B pixel can be reduced.

以上のように本実施形態によれば、波長の長いR画素の瞳分割性能の低下を回避しつつ、画素間でのクロストークを抑制することができる。なお、本実施形態においてはG画素を1種類の画素として説明したが、R画素と水平方向に隣接するG画素をGr画素、B画素と水平方向に隣接するG画素をGb画素として区別してもよい。隣接画素からの光学的な漏れを考慮すると、Gr画素とGb画素とで分光感度が異なる場合がある。そこでGr画素とGb画素とでさらに光導波路の屈折率が異なるようにしてもよい。 As described above, according to the present embodiment, it is possible to suppress the crosstalk between pixels while avoiding the deterioration of the pupil division performance of the R pixel having a long wavelength. Although the G pixel is described as one kind of pixel in the present embodiment, the G pixel horizontally adjacent to the R pixel may be distinguished as a Gr pixel, and the G pixel horizontally adjacent to the B pixel may be distinguished as a Gb pixel. Good. Considering optical leakage from adjacent pixels, the Gr pixel and the Gb pixel may have different spectral sensitivities. Therefore, the Gr pixel and the Gb pixel may have different optical waveguide refractive indexes.

また、最低限、赤色の撮像画素の最小スポット半径を小さくすれば、狭い副光電変換部または光導波路に光を導入することができる。したがって、赤色の撮像画素の光導波路の屈折率のみを他色よりも大きくし、緑色及び青色の撮像画素の光導波路の屈折率は同じであってもよい。 In addition, if the minimum spot radius of the red image pickup pixel is reduced at the minimum, light can be introduced into the narrow sub photoelectric conversion unit or the optical waveguide. Therefore, only the refractive index of the optical waveguide of the red image pickup pixel may be made larger than that of the other colors, and the refractive index of the optical waveguide of the green and blue image pickup pixels may be the same.

次に、本実施形態に係る撮像素子を用いた撮像装置の例について、図14を参照しながら説明する。図14は、本実施形態に係る撮像装置であるデジタルカメラの機能構成例を示すブロック図であり、前述した撮像素子を有するものである。なお、本実施形態では、撮像装置の一例としてデジタルカメラについて説明するが、前述の撮像素子を有する撮像装置として、携帯電話、監視カメラ、移動体カメラ、医療用カメラ等であってもよい。本実施形態の撮像装置では、撮像素子の光電変換部からの信号を瞳分割位相差方式の焦点調節に用いると同時に、撮像信号としても用いる。 Next, an example of an image pickup apparatus using the image pickup element according to the present embodiment will be described with reference to FIG. FIG. 14 is a block diagram showing a functional configuration example of a digital camera which is an image pickup apparatus according to this embodiment, and includes the above-described image pickup element. In the present embodiment, a digital camera will be described as an example of the image pickup device, but the image pickup device having the above-described image pickup device may be a mobile phone, a surveillance camera, a mobile camera, a medical camera, or the like. In the image pickup apparatus according to the present embodiment, the signal from the photoelectric conversion unit of the image pickup element is used not only for focus adjustment of the pupil division phase difference method but also as an image pickup signal.

図14において、結像光学系の先端に配置された第1レンズ群1401は、光軸方向に進退可能に保持される。絞り兼用シャッタ1402は、その開口径を調節することで撮影時の光量調節を行い、さらに静止画撮影時には露光秒時調節用シャッタとしての機能も備える。そして、絞り兼用シャッタ1402及び第2レンズ群1403は一体となって光軸方向に進退し、第1レンズ群1401の進退動作との連動により、変倍作用(ズーム機能)をなす。 In FIG. 14, the first lens group 1401 arranged at the tip of the imaging optical system is held so as to be able to move back and forth in the optical axis direction. The aperture/shutter 1402 adjusts the light amount at the time of shooting by adjusting the aperture diameter thereof, and also has a function as an exposure time adjusting shutter at the time of shooting a still image. Then, the aperture/shutter 1402 and the second lens group 1403 integrally move forward and backward in the optical axis direction, and in conjunction with the forward/backward movement of the first lens group 1401, perform a zooming function (zoom function).

第3レンズ群1405は、光軸方向の進退により、焦点調節を行う。光学的ローパスフィルタ1406は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子1407は2次元CMOSフォトセンサーと周辺回路からなり、結像光学系の結像面に配置される。なお、本実施形態では、前述したように色によって屈折率が異なる撮像画素を有する撮像素子が用いられる。 The third lens group 1405 performs focus adjustment by moving back and forth in the optical axis direction. The optical low pass filter 1406 is an optical element for reducing false color and moire of a captured image. The image pickup element 1407 includes a two-dimensional CMOS photo sensor and peripheral circuits, and is arranged on the image forming plane of the image forming optical system. It should be noted that in the present embodiment, as described above, the image pickup device having the image pickup pixels having different refractive indexes depending on colors is used.

ズームアクチュエータ1411は、不図示のカム筒を回動することで、第1レンズ群1401〜第3レンズ群1405を光軸方向に進退駆動し、変倍操作を行う。絞りシャッタアクチュエータ1412は、絞り兼用シャッタ1402の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ1414は、第3レンズ群1405を光軸方向に進退駆動して焦点調節を行う。 The zoom actuator 1411 drives a first lens group 1401 to a third lens group 1405 to move back and forth in the optical axis direction by rotating a cam cylinder (not shown), and performs a zooming operation. The aperture shutter actuator 1412 controls the aperture diameter of the aperture/shutter 1402 to adjust the amount of photographing light and controls the exposure time during still image photographing. The focus actuator 1414 drives the third lens group 1405 forward and backward in the optical axis direction to perform focus adjustment.

照明装置1415は、例えば撮影時の被写体照明用電子フラッシュであり、キセノン管を用いた閃光照明装置が好適だが、連続発光するLEDを備えた照明装置を用いても良い。AF補助光部1416は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。 The illuminating device 1415 is, for example, an electronic flash for illuminating an object at the time of photographing, and a flash illuminating device using a xenon tube is suitable, but an illuminating device including an LED that continuously emits light may be used. The AF auxiliary light unit 1416 projects an image of a mask having a predetermined aperture pattern onto a field through a light projecting lens to improve focus detection capability for a dark subject or a low contrast subject.

制御部1421は、撮像装置本体の種々の制御を司るCPUを備え、さらに演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を備える。制御部1421は、ROMに記憶された所定のプログラムに基づいて、撮像装置が有する各種回路を駆動し、AF、撮影、画像処、と記録処理等の一連の動作を実行する。 The control unit 1421 includes a CPU that controls various controls of the image pickup apparatus main body, and further includes an arithmetic unit, a ROM, a RAM, an A/D converter, a D/A converter, a communication interface circuit, and the like. The control unit 1421 drives various circuits included in the imaging device based on a predetermined program stored in the ROM, and executes a series of operations such as AF, shooting, image processing, and recording processing.

電子フラッシュ制御回路1422は、撮影動作に同期して照明装置1415を点灯制御する。補助光駆動回路1423は、焦点検出動作に同期してAF補助光部1416を点灯制御する。撮像画素駆動回路1424は、撮像素子1407の撮像動作を制御するとともに、取得した画像信号をA/D変換して制御部1421に送信する。画像処理回路1425は、撮像素子1407が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行う。 The electronic flash control circuit 1422 controls the lighting of the lighting device 1415 in synchronization with the shooting operation. The auxiliary light drive circuit 1423 controls the lighting of the AF auxiliary light unit 1416 in synchronization with the focus detection operation. The image pickup pixel drive circuit 1424 controls the image pickup operation of the image pickup element 1407, A/D-converts the acquired image signal, and sends the image signal to the control unit 1421. The image processing circuit 1425 performs processes such as γ conversion, color interpolation, and JPEG compression of the image acquired by the image sensor 1407.

フォーカス駆動回路1426は、焦点検出結果に基づいてフォーカスアクチュエータ1414を駆動制御し、第3レンズ群1405を光軸方向に進退駆動して焦点調節を行う。絞りシャッタ駆動回路1428は、絞りシャッタアクチュエータ1412を駆動制御して絞り兼用シャッタ1402の開口を制御する。ズーム駆動回路1429は、撮影者のズーム操作に応じてズームアクチュエータ1411を駆動する。 The focus drive circuit 1426 drives and controls the focus actuator 1414 based on the focus detection result, and drives the third lens group 1405 forward and backward in the optical axis direction to perform focus adjustment. A diaphragm shutter drive circuit 1428 drives and controls the diaphragm shutter actuator 1412 to control the opening of the diaphragm/shutter 1402. The zoom drive circuit 1429 drives the zoom actuator 1411 according to the zoom operation of the photographer.

表示部1431はLCD等の表示装置で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。操作スイッチ群1432は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。フラッシュメモリ1433は着脱可能なメモリであり、撮影済み画像を記録する。 The display unit 1431 is a display device such as an LCD, and displays information about the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. The operation switch group 1432 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The flash memory 1433 is a removable memory and records a captured image.

以上説明したように本実施形態の撮像素子を用いて図14に示す撮像装置に適用することで、撮像画素が小さい場合でも効率よく光を光導波路および光電変換部へ導入することが可能となる。 As described above, by applying the image pickup device of the present embodiment to the image pickup apparatus shown in FIG. 14, it is possible to efficiently introduce light into the optical waveguide and the photoelectric conversion unit even when the image pickup pixel is small. ..

202 光電変換部
209 トップマイクロレンズ
210 画素間遮光壁
202 photoelectric conversion unit 209 top micro lens 210 light shielding wall between pixels

Claims (16)

複数の撮像画素が2次元状に配列された撮像素子であって、
前記複数の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記光電変換部と前記マイクロレンズとの間に前記撮像画素を囲む遮光壁とを有し、
前記遮光壁の前記マイクロレンズ側の面の幅が前記遮光壁の前記光電変換部側の面の幅よりも大きいことを特徴とする撮像素子。
An image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged,
Each of the plurality of imaging pixels,
A plurality of electrically divided photoelectric conversion units,
A micro lens,
A light shielding wall surrounding the image pickup pixel between the photoelectric conversion unit and the microlens,
An image sensor, wherein a width of a surface of the light shielding wall on the microlens side is larger than a width of a surface of the light shielding wall on the photoelectric conversion unit side.
前記遮光壁の前記マイクロレンズ側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも大きいことを特徴とする請求項1に記載の撮像素子。 The image pickup device according to claim 1, wherein an area of a corner portion on the surface of the light blocking wall on the microlens side is larger than an area of a gap of the microlens. 前記遮光壁の前記光電変換部側の面における角部の面積が、前記マイクロレンズのギャップの面積よりも小さいことを特徴とする請求項2に記載の撮像素子。 The image pickup device according to claim 2, wherein an area of a corner portion on the surface of the light shielding wall on the photoelectric conversion portion side is smaller than an area of a gap of the microlens. 前記遮光壁の前記マイクロレンズ側の面における角部の画素対角方向の幅が、前記遮光壁の前記光電変換部側の面における角部の画素対角方向の幅よりも大きいことを特徴とする請求項1〜3の何れか1項に記載の撮像素子。 The width of the corner portion of the light-shielding wall on the microlens side in the pixel diagonal direction is larger than the width of the corner portion of the light-shielding wall on the photoelectric conversion unit side in the pixel diagonal direction. The image pickup device according to any one of claims 1 to 3. 前記遮光壁の前記光電変換部側の面における角部の画素対角方向の幅が、前記マイクロレンズのギャップの画素対角方向の幅よりも小さいことを特徴とする請求項1〜4の何れか1項に記載の撮像素子。 5. The width of the corner portion of the surface of the light shielding wall on the photoelectric conversion portion side in the pixel diagonal direction is smaller than the width of the gap of the microlens in the pixel diagonal direction. The image sensor according to Item 1. 前記遮光壁の辺となる部分の幅に対して、前記遮光壁の角部の画素対角方向における幅が2倍以上であることを特徴とする請求項1〜5の何れか1項に記載の撮像素子。 The width of a corner portion of the light shielding wall in a pixel diagonal direction is twice or more the width of a side portion of the light shielding wall. Image sensor. 前記複数の撮像画素が、それぞれ前記光電変換部と前記マイクロレンズとの間に信号伝送用の配線層を有さない構成であることを特徴とする請求項1〜6の何れか1項に記載の撮像素子。 7. The plurality of imaging pixels has a configuration in which a wiring layer for signal transmission is not provided between the photoelectric conversion unit and the microlens, respectively. Image sensor. 複数の撮像画素が2次元状に配列された撮像素子であって、
前記複数の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記光電変換部と前記マイクロレンズとの間に前記マイクロレンズから入射された光を導入する光導波路とを有し、
前記光導波路の前記マイクロレンズ側に淵部の領域が形成されており、前記淵部の領域に入射する光を遮るための遮光部が、前記淵部の領域よりも前記マイクロレンズ側に備えられていることを特徴とする撮像素子。
An image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged,
Each of the plurality of imaging pixels,
A plurality of electrically divided photoelectric conversion units,
A micro lens,
An optical waveguide for introducing light incident from the microlens between the photoelectric conversion unit and the microlens,
A region of the edge portion is formed on the microlens side of the optical waveguide, and a light shielding portion for blocking light incident on the region of the edge portion is provided on the microlens side of the region of the edge portion. An image pickup device characterized in that
前記遮光部が、入射される光を吸収、散乱、または反射することによって遮る特性を有することを特徴とする請求項8に記載の撮像素子。 9. The image pickup device according to claim 8, wherein the light blocking portion has a property of blocking incident light by absorbing, scattering, or reflecting the light. 前記遮光部と前記淵部の領域との距離が、当該撮像画素に入射される光の波長帯域の中心波長またはピーク波長よりも短いことを特徴とする請求項8又は9に記載の撮像素子。 The image pickup device according to claim 8 or 9, wherein a distance between the light blocking portion and the edge portion region is shorter than a center wavelength or a peak wavelength of a wavelength band of light incident on the image pickup pixel. 複数の撮像画素が2次元状に配列された撮像素子であって、
前記複数の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記光電変換部と前記マイクロレンズとの間に絶縁部とを有し、
前記絶縁部の前記光電変換部側の一部に、前記マイクロレンズから入射された光を導入する光導波路が埋め込まれていることを特徴とする撮像素子。
An image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged,
Each of the plurality of imaging pixels,
A plurality of electrically divided photoelectric conversion units,
A micro lens,
An insulating section is provided between the photoelectric conversion section and the microlens,
An image pickup device, wherein an optical waveguide for introducing light incident from the microlens is embedded in a part of the insulating part on the photoelectric conversion part side.
複数の撮像画素が2次元状に配列された撮像素子であって、
前記撮像素子は、複数の第1の撮像画素と複数の第2の撮像画素とを有し、
前記複数の第1の撮像画素及び前記複数の第2の撮像画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズとを有し、
前記第1の撮像画素はさらにそれぞれ、
前記マイクロレンズから入射される光のうち、第1の波長領域を有する色の光を透過する第1のカラーフィルターと、
前記第1のカラーフィルターと前記光電変換部との間に前記透過された光を導入する第1の光導波路とを有し、
前記第2の撮像画素はさらにそれぞれ、
前記マイクロレンズから入射される光のうち、前記第1の波長領域よりも小さい第2の波長領域を有する色の光を透過する第2のカラーフィルターと、
前記第2のカラーフィルターと前記光電変換部との間に前記透過された光を導入する第2の光導波路とを有し、
前記第1の光導波路の屈折率が前記第2の光導波路の屈折率よりも大きいことを特徴とする撮像素子。
An image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged,
The image pickup device has a plurality of first image pickup pixels and a plurality of second image pickup pixels,
The plurality of first imaging pixels and the plurality of second imaging pixels are respectively
A plurality of electrically divided photoelectric conversion units,
With a micro lens,
Each of the first imaging pixels further includes:
A first color filter that transmits light of a color having a first wavelength region among light incident from the microlens;
A first optical waveguide for introducing the transmitted light between the first color filter and the photoelectric conversion unit,
Each of the second imaging pixels further includes:
A second color filter that transmits light of a color having a second wavelength region smaller than the first wavelength region, of the light incident from the microlens;
A second optical waveguide for introducing the transmitted light between the second color filter and the photoelectric conversion unit,
An image pickup device, wherein the refractive index of the first optical waveguide is larger than the refractive index of the second optical waveguide.
複数の撮像画素が2次元状に配列された撮像素子であって、
前記撮像素子は、複数のR画素と複数のG画素と複数のB画素とを有し、
前記複数のR画素、前記複数のG画素、および前記複数のB画素はそれぞれ、
電気的に分割された複数の光電変換部と、
マイクロレンズと、
前記マイクロレンズから入射される光のうち、対応する色の光を透過するカラーフィルターと、
前記カラーフィルターと前記光電変換部との間に前記透過された光を導入する光導波路とを有し、
前記R画素の光導波路の屈折率が、前記G画素および前記B画素の光導波路の屈折率よりも大きいことを特徴とする撮像素子。
An image pickup device in which a plurality of image pickup pixels are two-dimensionally arranged,
The image sensor has a plurality of R pixels, a plurality of G pixels, and a plurality of B pixels,
The plurality of R pixels, the plurality of G pixels, and the plurality of B pixels, respectively,
A plurality of electrically divided photoelectric conversion units,
A micro lens,
Of the light incident from the microlens, a color filter that transmits light of a corresponding color,
An optical waveguide for introducing the transmitted light between the color filter and the photoelectric conversion unit,
An image pickup device characterized in that a refractive index of an optical waveguide of the R pixel is larger than a refractive index of an optical waveguide of the G pixel and the B pixel.
前記R画素、前記G画素、前記B画素の順で前記光導波路の屈折率が大きいことを特徴とする請求項13に記載の撮像素子。 The image pickup device according to claim 13, wherein the R pixel, the G pixel, and the B pixel are arranged in the order of increasing refractive index of the optical waveguide. 前記G画素はさらに、Gr画素とGb画素とからなり、前記Gr画素と前記Gb画素とで前記光導波路の屈折率が互いに異なることを特徴とする請求項13又は14に記載の撮像素子。 The image pickup device according to claim 13 or 14, wherein the G pixel further includes a Gr pixel and a Gb pixel, and the Gr pixel and the Gb pixel have different refractive indexes of the optical waveguides. 請求項1〜15の何れか1項に記載の撮像素子を有することを特徴とする撮像装置。 An image pickup apparatus comprising the image pickup device according to any one of claims 1 to 15.
JP2018216464A 2018-11-19 2018-11-19 Imaging element and imaging device Active JP7330687B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018216464A JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device
JP2023130838A JP2023159224A (en) 2018-11-19 2023-08-10 Image sensor and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216464A JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130838A Division JP2023159224A (en) 2018-11-19 2023-08-10 Image sensor and imaging device

Publications (2)

Publication Number Publication Date
JP2020088029A true JP2020088029A (en) 2020-06-04
JP7330687B2 JP7330687B2 (en) 2023-08-22

Family

ID=70908819

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018216464A Active JP7330687B2 (en) 2018-11-19 2018-11-19 Imaging element and imaging device
JP2023130838A Pending JP2023159224A (en) 2018-11-19 2023-08-10 Image sensor and imaging device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023130838A Pending JP2023159224A (en) 2018-11-19 2023-08-10 Image sensor and imaging device

Country Status (1)

Country Link
JP (2) JP7330687B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261107A1 (en) * 2020-06-25 2021-12-30 ソニーセミコンダクタソリューションズ株式会社 Imaging device and electronic apparatus
JP2022074053A (en) * 2020-10-29 2022-05-17 三星電子株式会社 Image sensor including color separation lens array, and electronic device including the same
WO2022149399A1 (en) * 2021-01-06 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 Light detection device
CN116963556A (en) * 2023-09-19 2023-10-27 山西高科华杰光电科技有限公司 Display panel, display component and display panel manufacturing method
WO2024161840A1 (en) * 2023-01-31 2024-08-08 富士フイルム株式会社 Image capturing device and image capturing element
WO2024161841A1 (en) * 2023-01-31 2024-08-08 富士フイルム株式会社 Imaging device, control method, control program, and imaging element

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082566A (en) * 2013-10-22 2015-04-27 キヤノン株式会社 Solid-state imaging device, method of manufacturing the same, and camera
WO2016114154A1 (en) * 2015-01-13 2016-07-21 ソニー株式会社 Solid-state imaging element, method for manufacturing same, and electronic device
JP2017054991A (en) * 2015-09-10 2017-03-16 キヤノン株式会社 Imaging device and imaging apparatus using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258593A (en) * 2010-06-04 2011-12-22 Panasonic Corp Solid-state image sensor
JP5834398B2 (en) * 2010-11-22 2015-12-24 株式会社ニコン Imaging device and imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082566A (en) * 2013-10-22 2015-04-27 キヤノン株式会社 Solid-state imaging device, method of manufacturing the same, and camera
WO2016114154A1 (en) * 2015-01-13 2016-07-21 ソニー株式会社 Solid-state imaging element, method for manufacturing same, and electronic device
JP2017054991A (en) * 2015-09-10 2017-03-16 キヤノン株式会社 Imaging device and imaging apparatus using the same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261107A1 (en) * 2020-06-25 2021-12-30 ソニーセミコンダクタソリューションズ株式会社 Imaging device and electronic apparatus
JPWO2021261107A1 (en) * 2020-06-25 2021-12-30
CN116034480A (en) * 2020-06-25 2023-04-28 索尼半导体解决方案公司 Imaging device and electronic device
US20230238416A1 (en) * 2020-06-25 2023-07-27 Sony Semiconductor Solutions Corporation Imaging device and electronic device
JP2022074053A (en) * 2020-10-29 2022-05-17 三星電子株式会社 Image sensor including color separation lens array, and electronic device including the same
WO2022149399A1 (en) * 2021-01-06 2022-07-14 ソニーセミコンダクタソリューションズ株式会社 Light detection device
WO2024161840A1 (en) * 2023-01-31 2024-08-08 富士フイルム株式会社 Image capturing device and image capturing element
WO2024161841A1 (en) * 2023-01-31 2024-08-08 富士フイルム株式会社 Imaging device, control method, control program, and imaging element
CN116963556A (en) * 2023-09-19 2023-10-27 山西高科华杰光电科技有限公司 Display panel, display component and display panel manufacturing method
CN116963556B (en) * 2023-09-19 2023-12-08 山西高科华杰光电科技有限公司 Display panel, display assembly and manufacturing method of display panel

Also Published As

Publication number Publication date
JP7330687B2 (en) 2023-08-22
JP2023159224A (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP7330687B2 (en) Imaging element and imaging device
KR101786069B1 (en) Backside illumination image sensor, manufacturing method thereof and image-capturing device
US9625675B2 (en) Image sensor and image capturing apparatus
JP5404693B2 (en) IMAGING ELEMENT, IMAGING DEVICE HAVING THE SAME, AND CAMERA SYSTEM
US9412777B2 (en) Image sensor and image capturing apparatus for satisfactory pupil division by a focus detection pixel in which a light guide is formed
USRE48548E1 (en) Image sensor and imaging device
JP2011176715A (en) Back-illuminated image sensor and imaging apparatus
US20110025904A1 (en) Focus detection device and imaging apparatus having the same
CN108513047B (en) Image sensor and image pickup apparatus
US20140071322A1 (en) Image pickup apparatus with image pickup device and control method for image pickup apparatus
CN110050343A (en) Photographing element and focus-regulating device
JP2019041178A (en) Image sensor and imaging apparatus using the same
JP2020126978A (en) Imaging device and imaging device
JP2017005509A (en) Solid-state image pickup element, imaging device and ranging device
JP5800573B2 (en) Imaging apparatus, camera system, and focus detection method
CN110050344A (en) Camera element and focus adjustment device
CN109997228A (en) Photographing element and photographic device
JP6895724B2 (en) Image sensor and image sensor
CN110036481A (en) Photographing element and focus-regulating device
JP7286452B2 (en) Imaging element and imaging device
JP5836629B2 (en) IMAGING ELEMENT, IMAGING APPARATUS HAVING THE SAME, AND CAMERA SYSTEM
JP6748529B2 (en) Imaging device and imaging device
US20250194278A1 (en) Image sensor and image capturing apparatus
CN110050342A (en) Photographing element and focus-regulating device
WO2013035858A1 (en) Stereoscopic image pickup apparatus and pickup device used for stereoscopic image pickup apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230809

R151 Written notification of patent or utility model registration

Ref document number: 7330687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151