[go: up one dir, main page]

WO2023032416A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2023032416A1
WO2023032416A1 PCT/JP2022/024389 JP2022024389W WO2023032416A1 WO 2023032416 A1 WO2023032416 A1 WO 2023032416A1 JP 2022024389 W JP2022024389 W JP 2022024389W WO 2023032416 A1 WO2023032416 A1 WO 2023032416A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
imaging device
light
transistors
receiving pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/024389
Other languages
English (en)
French (fr)
Inventor
真明 柳田
和弘 米田
健芳 河本
恭佑 伊東
悠介 大竹
淳二 森
壽史 若野
樹生 雛本
慎一郎 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to EP22864004.1A priority Critical patent/EP4398592A1/en
Priority to KR1020247005214A priority patent/KR20240051127A/ko
Priority to JP2023545107A priority patent/JPWO2023032416A1/ja
Priority to CN202280057528.5A priority patent/CN117837152A/zh
Priority to US18/293,042 priority patent/US20240373140A1/en
Publication of WO2023032416A1 publication Critical patent/WO2023032416A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/802Geometry or disposition of elements in pixels, e.g. address-lines or gate electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/709Circuitry for control of the power supply
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/18Complementary metal-oxide-semiconductor [CMOS] image sensors; Photodiode array image sensors
    • H10F39/182Colour image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/199Back-illuminated image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/802Geometry or disposition of elements in pixels, e.g. address-lines or gate electrodes
    • H10F39/8023Disposition of the elements in pixels, e.g. smaller elements in the centre of the imager compared to larger elements at the periphery
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/803Pixels having integrated switching, control, storage or amplification elements
    • H10F39/8037Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/803Pixels having integrated switching, control, storage or amplification elements
    • H10F39/8037Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor
    • H10F39/80373Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor characterised by the gate of the transistor
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/805Coatings
    • H10F39/8053Colour filters
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/806Optical elements or arrangements associated with the image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/806Optical elements or arrangements associated with the image sensors
    • H10F39/8063Microlenses
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/807Pixel isolation structures
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/811Interconnections
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/813Electronic components shared by multiple pixels, e.g. one amplifier shared by two pixels

Definitions

  • the present disclosure relates to an imaging device that captures an image of a subject.
  • Patent Literature 1 discloses an imaging device that includes normal pixels and phase difference detection pixels for obtaining an image plane phase difference.
  • Imaging devices are expected to have high image quality, and further improvements in image quality are expected.
  • An imaging device has a plurality of light-receiving pixels each including color filters of the same color, and each of the plurality of light-receiving pixels is two light-receiving pixels adjacent to each other in a first direction.
  • a plurality of pixel blocks divided into a plurality of first pixel pairs, a plurality of lenses respectively provided at positions corresponding to the plurality of first pixel pairs, and the first pixels of the plurality of first pixel pairs and a plurality of floating diffusion layers disposed on the boundary between two light-receiving pixels adjacent to each other in the direction of , and shared by a plurality of first pixel pairs.
  • a plurality of light-receiving pixels including color filters of the same color are provided in each of a plurality of pixel blocks. These plurality of light receiving pixels are divided into a plurality of first pixel pairs each including two light receiving pixels adjacent to each other in the first direction. A plurality of lenses are provided at positions corresponding to the plurality of first pixel pairs. Furthermore, each of the plurality of first pixel pairs shares a plurality of floating diffusion layers arranged on the boundary between two light receiving pixels adjacent in the first direction. This reduces the capacitance of the floating diffusion layer, increases the efficiency of converting signal charges into signal voltages, and reduces random noise.
  • FIG. 1 is a block diagram showing a configuration example of an imaging device according to an embodiment of the present disclosure
  • FIG. 2 is an explanatory diagram showing one configuration example of a pixel array shown in FIG. 1
  • FIG. 3 is a schematic diagram showing an example of a cross-sectional configuration of a light receiving pixel shown in FIG. 2
  • FIG. 3 is a circuit diagram showing a configuration example of a pixel block shown in FIG. 2
  • FIG. 3 is a circuit diagram showing a configuration example of another pixel block shown in FIG. 2
  • FIG. FIG. 3 is an explanatory diagram showing an example of a planar arrangement of light-receiving pixels shown in FIG. 2
  • 3 is a schematic diagram showing another example of the planar arrangement of the light receiving pixels shown in FIG. 2.
  • FIG. 2 is an explanatory diagram showing one configuration example of a pixel array shown in FIG. 1
  • FIG. 3 is a schematic diagram showing an example of a cross-sectional configuration of a light receiving pixel shown in FIG.
  • FIG. 3 is an explanatory diagram showing an example of a planar arrangement of pixel transistors in the pixel block shown in FIG. 2;
  • FIG. FIG. 3 is an explanatory diagram showing an example of planar arrangement of floating diffusion layers in the light receiving pixel shown in FIG. 2 ;
  • 3 is an explanatory diagram showing another example of planar arrangement of floating diffusion layers in the light receiving pixel shown in FIG. 2.
  • FIG. 3 is an explanatory diagram showing another example of a planar arrangement of pixel transistors in the pixel block shown in FIG. 2;
  • FIG. 3 is an explanatory diagram showing another example of a planar arrangement of pixel transistors in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 3 is a plan view for explaining an example of wiring layout in the pixel block shown in FIG. 2;
  • FIG. 2 is a block diagram showing a configuration example of a reading unit shown in FIG. 1;
  • FIG. 2 is an explanatory diagram showing a configuration example of an image signal shown in FIG. 1; 2 is an explanatory diagram showing an example of the number of effective pixels in the imaging device shown in FIG. 1; FIG. 2 is an explanatory diagram showing one operation example of a plurality of imaging modes in the imaging device shown in FIG. 1; FIG. 2 is an explanatory diagram showing an operation example of the imaging device shown in FIG. 1; FIG. 2 is a timing waveform diagram showing an example of readout operation in the imaging device shown in FIG. 1; FIG. FIG. 8 is another explanatory diagram showing an operation example of the imaging apparatus shown in FIG. 1; FIG. 8 is another explanatory diagram showing an operation example of the imaging apparatus shown in FIG. 1; FIG.
  • FIG. 8 is another explanatory diagram showing an operation example of the imaging apparatus shown in FIG. 1;
  • FIG. 8 is another explanatory diagram showing an operation example of the imaging apparatus shown in FIG. 1;
  • FIG. 2 is an explanatory diagram showing an example of re-mosaic processing in the imaging device shown in FIG. 1;
  • 31 is an explanatory diagram showing an example of the re-mosaic processing shown in FIG. 30;
  • FIG. 31 is another explanatory diagram showing an example of the re-mosaic processing shown in FIG. 30.
  • FIG. 31 is another explanatory diagram showing an example of the re-mosaic processing shown in FIG. 30.
  • FIG. 30 is another explanatory diagram showing an example of the re-mosaic processing shown in FIG. 30.
  • FIG. 7 is an explanatory diagram showing an example of a planar arrangement of pixel transistors in a pixel block that configures an imaging device according to Modification 1 of the present disclosure
  • FIG. 11 is an explanatory diagram showing another configuration example of a pixel block that configures an imaging device according to modification 2 of the present disclosure
  • 34 is a diagram showing an arrangement example of pixel transistors and power supply voltages in the imaging device (A) according to the embodiment and the imaging device (B) shown in FIG. 33
  • FIG. FIG. 11 is a schematic diagram illustrating an example of a vertical cross-sectional configuration of an imaging device according to Modification 3 of the present disclosure
  • 36 is a diagram showing an example of a schematic configuration of the imaging device shown in FIG. 35;
  • FIG. 4 is a circuit diagram showing an example of the configuration of a pixel block when a transistor FDG is added as a pixel transistor
  • FIG. 10 is a circuit diagram showing another example of the configuration of a pixel block when a transistor FDG is added as a pixel transistor
  • FIG. 10 is a circuit diagram showing an example of the configuration of another pixel block when a transistor FDG is added as a pixel transistor
  • FIG. 10 is a circuit diagram showing another example of the configuration of another pixel block when a transistor FDG is added as a pixel transistor
  • FIG. 11 is a plan view illustrating an example wiring layout in a pixel block according to Modification 5 of the present disclosure
  • 39 is a circuit diagram showing the configuration of the pixel block shown in FIG. 38;
  • FIG. 14 is a plan view illustrating an example wiring layout in a pixel block according to Modification 6 of the present disclosure
  • 41 is a circuit diagram showing the configuration of the pixel block shown in FIG. 40
  • FIG. FIG. 12 is a circuit diagram showing a pixel block configuration according to Modification 8 of the present disclosure
  • 43 is a timing chart of the pixel block shown in FIG. 42
  • FIG. FIG. 13 is a circuit diagram showing the configuration of an imaging device according to Modification 9 of the present disclosure
  • FIG. 20 is a plan view illustrating an example wiring layout in a pixel block according to Modification 10 of the present disclosure
  • 46 is a circuit diagram showing the configuration of the pixel block shown in FIG. 45
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit
  • FIG. 45 It is explan
  • FIG. 1 illustrates a configuration example of an imaging device (imaging device 1) according to an embodiment of the present disclosure.
  • the imaging device 1 includes a pixel array 11 , a driving section 12 , a reference signal generating section 13 , a reading section 20 , a signal processing section 15 and an imaging control section 18 .
  • the pixel array 11 has a plurality of light receiving pixels P arranged in a matrix.
  • the light receiving pixel P is configured to generate a signal SIG including a pixel voltage Vpix according to the amount of light received.
  • FIG. 2 shows an example of the arrangement of the light receiving pixels P in the pixel array 11.
  • FIG. FIG. 3 shows an example of a schematic cross-sectional structure of the pixel array 11. As shown in FIG. 3 shows a cross section corresponding to line I-I' shown in FIG.
  • the pixel array 11 has multiple pixel blocks 100 and multiple lenses 101 .
  • the plurality of pixel blocks 100 includes pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • a plurality of light-receiving pixels P are arranged with four pixel blocks 100 (pixel blocks 100R, 100Gr, 100Gb, 100B) as a minimum repeating unit (unit U).
  • the pixel block 100R has, for example, eight light-receiving pixels P (light-receiving pixels PR) including red (R) color filters 131, for example.
  • the pixel block 100Gr has, for example, ten light-receiving pixels P (light-receiving pixels PGr) including green (G) color filters 131, for example.
  • the pixel block 100Gb has, for example, ten light-receiving pixels P (light-receiving pixels PGb) including green (G) color filters 131, for example.
  • the pixel block 100B has, for example, eight light-receiving pixels P (light-receiving pixels PB) including a blue (B) color filter 131, for example.
  • B blue
  • the difference in color of the color filters is expressed using hatching.
  • the arrangement pattern of the light receiving pixels PR in the pixel block 100R and the arrangement pattern of the light receiving pixels PB in the pixel block 100B are the same, and the arrangement pattern of the light receiving pixels PGr in the pixel block 100Gr and the arrangement pattern of the light receiving pixels PGb in the pixel block 100Gb are the same. , are the same as each other.
  • the pixel blocks 100R, 100Gr, 100Gb, and 100B are arranged, for example, in 2 rows ⁇ 2 columns. Specifically, the pixel block 100R and the pixel block 100B and the pixel block 100Gr and the pixel block 100Gb having the same arrangement pattern are arranged on diagonal lines that cross each other. As an example, the pixel block 100Gr is located on the upper left, the pixel block 100R is located on the upper right, the pixel block 100B is located on the lower left, and the pixel block 100Gb is located on the lower right. In this manner, the pixel blocks 100R, 100Gr, 100Gb, and 100B are arranged in a so-called Bayer arrangement with the pixel block 100 as a unit.
  • the light-receiving pixel P corresponds to a specific example of the "light-receiving pixel" in the present disclosure.
  • the pixel pair 90A corresponds to a specific example of "first pixel pair” in the present disclosure.
  • the pixel block 100 corresponds to a specific example of "pixel block” in the present disclosure.
  • the pixel block 100Gr and the pixel block 100Gb correspond to one specific example of "first pixel block” in the present disclosure.
  • the pixel block 100R and the pixel block 100B correspond to one specific example of "second pixel block” in the present disclosure.
  • the lens 101 corresponds to a specific example of "lens" in the present disclosure.
  • the pixel array 11 includes, for example, a semiconductor substrate 111, a light receiving section 112, a pixel separating section 113, a multilayer wiring layer 121, a color filter 131, and a light shielding film 132. .
  • the semiconductor substrate 111 is a support substrate on which the imaging device 1 is formed.
  • the semiconductor substrate 111 is, for example, a P-type semiconductor substrate having a pair of opposing surfaces (a front surface 111S1 and a back surface 111S2).
  • the light receiving section 112 is a semiconductor region embedded in the semiconductor substrate 111 at a position corresponding to each of the plurality of light receiving pixels P.
  • the light receiving section 112 is a photodiode (PD) formed by doping an N-type impurity. is formed.
  • the pixel separating section 113 is provided at the boundary between a plurality of light-receiving pixels P adjacent to each other in the XY plane within the substrate of the semiconductor substrate 111.
  • the DTI Deep Trench Isolation
  • the multilayer wiring layer 121 is provided on the surface 111S1 of the semiconductor substrate 111, which is the surface opposite to the light incident side S of the pixel array 11.
  • FIG. The multilayer wiring layer 121 includes, for example, a plurality of wiring layers 122-127 and an interlayer insulating layer 128.
  • FIG. A plurality of wiring layers 122 to 127 are provided in order from the back surface 111S2 side of the semiconductor substrate 111 .
  • a plurality of wirings such as control lines TRGL to be described later, which connect the plurality of transistors provided on the surface 111S1 of the semiconductor substrate 111, the driving section 12 and the reading section 20, are provided. be provided.
  • the color filter 131 is provided on the rear surface 111S2 of the semiconductor substrate 111, which is the light incident side S of the pixel array 11.
  • the light shielding film 132 is provided on the back surface 111S2 of the semiconductor substrate 111 so as to surround two light receiving pixels P (hereinafter also referred to as pixel pairs 90A) adjacent to each other in the X-axis direction.
  • the plurality of lenses 101 are so-called on-chip lenses, and are provided on the color filter 131 on the light incident side S of the pixel array 11 .
  • the lens 101 is provided above two light-receiving pixels P (pixel pairs 90A) adjacent to each other in the X-axis direction.
  • Four lenses 101 are provided above the eight light receiving pixels P of the pixel block 100R.
  • Five lenses 101 are provided above the ten light receiving pixels P of the pixel block 100Gr.
  • Five lenses 101 are provided above the ten light receiving pixels P of the pixel block 100Gb.
  • Four lenses 101 are provided above the eight light receiving pixels P of the pixel block 100B.
  • the lenses 101 are arranged side by side in the X-axis direction and the Y-axis direction.
  • the lenses 101 arranged in the Y-axis direction are arranged with a shift of one light-receiving pixel P in the X-axis direction.
  • the pixel pairs 90A arranged in the Y-axis direction are shifted by one light-receiving pixel P in the X-axis direction.
  • the imaging device 1 generates phase difference data DF based on so-called image plane phase differences detected by the plurality of pixel pairs 90A. For example, a camera equipped with the imaging device 1 determines the defocus amount based on this phase difference data DF, and moves the position of the photographing lens based on this defocus amount. In this way, the camera can realize autofocus.
  • FIG. 4 shows a configuration example of the pixel block 100Gr.
  • FIG. 5 shows a configuration example of the pixel block 100R.
  • the pixel array 11 has multiple control lines TRGL, multiple control lines RSTL, multiple control lines SELL, and multiple signal lines VSL.
  • the control line TRGL corresponds to a specific example of "control line" in the present disclosure.
  • the control line TRGL extends, for example, in the X-axis direction (see FIGS. 16 to 18, for example), and one end is connected to the drive section 12 .
  • a control signal STRG is supplied from the driving section 12 to the control line TRGL.
  • the control line RSTL extends, for example, in the X-axis direction (see FIG. 16, for example), and one end is connected to the driving section 12 .
  • a control signal SRST is supplied from the driving section 12 to the control line RSTL.
  • the control line SELL extends, for example, in the X-axis direction (see FIG. 16, for example), and one end is connected to the driving section 12 .
  • a control signal SSEL is supplied from the drive unit 12 to the control line SELL.
  • the signal line VSL extends, for example, in the Y-axis direction (see, for example, FIG. 19), and one end is connected to the reading section 20 .
  • the signal line VSL transmits the signal SIG generated by the light receiving pixel P to the reading unit 20 .
  • the pixel block 100Gr includes, for example, 10 photodiodes, 10 transistors TRG, 5 floating diffusion layers (FD), and 1 transistors RST, AMP, and SEL as pixel transistors. have.
  • Ten photodiodes and ten transistors TRG respectively correspond to ten light-receiving pixels PGr included in the pixel block 100Gr.
  • One of each of the five floating diffusion layers is arranged for each pixel pair 90A. In other words, each of the five floating diffusion layers is shared by two light-receiving pixels P adjacent in the X-axis direction that constitute the pixel pair 90A.
  • the transistors TRG, RST, AMP, and SEL are N-type MOS (Metal Oxide Semiconductor) transistors in this example. Five floating diffusion layers and transistors TRG, RST, AMP, and SEL are provided on surface 111S1 of semiconductor substrate 111, respectively.
  • a photodiode is a photoelectric conversion element that generates an amount of charge corresponding to the amount of light received and accumulates the generated charge inside.
  • the photodiode has an anode grounded and a cathode connected to the source of the transistor TRG.
  • the transistor TRG transfers charges generated by the photodiode to the floating diffusion layer.
  • the transistor TRG has a gate connected to the control line TRGL, a source connected to the cathode of the photodiode, and a drain connected to the floating diffusion layer.
  • Gates of ten transistors TRG are connected to different control lines TRGL among ten control lines TRGL (control lines TRGL1 to TRGL6 and TRGL9 to TRGL12 in this example).
  • the floating diffusion layer is configured to store charges transferred from the photodiode via the transistor TRG.
  • the floating diffusion layer is configured using, for example, a diffusion layer formed on the surface of the semiconductor substrate.
  • the gate of the transistor RST is connected to the control line RSTL, the drain is supplied with the power supply voltage VDD, and the source is connected to the floating diffusion layer.
  • the gate of the transistor AMP is connected to the floating diffusion layer, the power supply voltage VDD is supplied to the drain, and the source is connected to the drain of the transistor SEL.
  • the gate of the transistor SEL is connected to the control line SELL, the drain is connected to the source of the transistor AMP, and the source is connected to the signal line VSL.
  • the transistor TRG corresponds to a specific example of the "first transistor” in the present disclosure.
  • the floating diffusion layer corresponds to a specific example of "floating diffusion layer” of the present disclosure.
  • a pixel transistor including transistors RST, AMP, and SEL corresponds to a specific example of the "second transistor" of the present disclosure.
  • the charges accumulated in the photodiodes are discharged by turning on the transistors TRG and RST based on the control signals STRG and SRST, for example.
  • the transistors TRG and RST are turned off, an exposure period T is started, and an amount of charge corresponding to the amount of light received is accumulated in the photodiode.
  • the light receiving pixel P outputs the signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL.
  • the light-receiving pixel P is electrically connected to the signal line VSL by turning on the transistor SEL based on the control signal SSEL.
  • the transistor AMP is connected to a constant current source 21 (described later) of the reading section 20 and operates as a so-called source follower.
  • the light-receiving pixel P has a floating diffusion layer during a P-phase (pre-charge phase) period TP after the voltage of the floating diffusion layer is reset by turning on the transistor RST. A voltage corresponding to the voltage is output as a reset voltage Vreset.
  • the voltage corresponding to the voltage of the floating diffusion layer at that time The voltage is output as the pixel voltage Vpix.
  • a difference voltage between the pixel voltage Vpix and the reset voltage Vreset corresponds to the amount of light received by the light receiving pixel P during the exposure period T.
  • the light-receiving pixel P outputs the signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL.
  • the pixel block 100R (FIG. 5) has 8 photodiodes, 8 transistors TRG, 4 floating diffusion layers, and 1 transistors RST, AMP, and SEL as pixel transistors. .
  • Eight photodiodes and eight transistors TRG respectively correspond to eight light receiving pixels PR included in the pixel block 100R.
  • the gates of the eight transistors TRG are connected to different control lines TRGL among the eight control lines TRGL (control lines TRGL1, TRGL2, TRGL5 to TRGL10 in this example).
  • each of the four floating diffusion layers is arranged one by one for each pixel pair 90A, and is shared by two light receiving pixels P adjacent in the X-axis direction forming the pixel pair 90A.
  • Four floating diffusion layers and transistors TRG, RST, AMP, and SEL are provided on surface 111S1 of semiconductor substrate 111, respectively.
  • the pixel block 100B includes 8 photodiodes, 8 transistors TRG, 4 floating diffusion layers, and 1 transistors RST, AMP, and 1 as pixel transistors.
  • Eight photodiodes and eight transistors TRG respectively correspond to eight light receiving pixels PB included in the pixel block 100B.
  • Gates of the eight transistors TRG are connected to different control lines TRGL among the eight control lines TRGL.
  • each of the four floating diffusion layers is arranged one by one for each pixel pair 90A, and is shared by two light receiving pixels P adjacent in the X-axis direction forming the pixel pair 90A.
  • Four floating diffusion layers and transistors TRG, RST, AMP, and SEL are provided on surface 111S1 of semiconductor substrate 111, respectively.
  • the pixel block 100Gb includes 10 photodiodes, 10 transistors TRG, 5 floating diffusion layers, and 1 transistors RST, AMP, and 1 as pixel transistors.
  • SEL Ten photodiodes and ten transistors TRG respectively correspond to ten light-receiving pixels PGb included in the pixel block 100Gb. Gates of the ten transistors TRG are connected to different control lines TRGL among the ten control lines TRGL.
  • Each of the five floating diffusion layers is arranged one by one for each pixel pair 90A, and is shared by two light-receiving pixels P adjacent to each other in the X-axis direction that constitute the pixel pair 90A.
  • Five floating diffusion layers and transistors TRG, RST, AMP, and SEL are provided on surface 111S1 of semiconductor substrate 111, respectively.
  • FIG. 6 shows an example of a planar configuration of each of the plurality of light-receiving pixels P that constitute the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the five or four floating diffusion layers provided in each of the pixel blocks 100R, 100Gr, 100Gb, and 100B are shared by the two light-receiving pixels P adjacent in the X-axis direction forming the pixel pair 90A. be done.
  • the floating diffusion layer is arranged at the boundary between two light-receiving pixels P adjacent in the X-axis direction that constitute the pixel pair 90A.
  • the 10 or 8 transistors TRG provided in each of the pixel blocks 100R, 100Gr, 100Gb and 100B are connected to the 10 or 8 light receiving pixels P constituting each of the pixel blocks 100R, 100Gr, 100Gb and 100B. They are provided one by one.
  • the gate of the transistor TRG provided in each light-receiving pixel P is a floating diffusion layer arranged at the boundary between two light-receiving pixels P adjacent to each other in the X-axis direction for each pixel pair 90A. are arranged opposite each other along the X-axis direction with the .
  • One floating diffusion layer provided for each pixel pair 90A and the gates of the two transistors TRG arranged opposite to each other are located on one side of a pair of sides facing each other in the Y-axis direction, as shown in FIG. (For example, the lower side of the paper surface) and the other side (for example, the lower side of the paper surface).
  • FIG. 8 shows an example of planar arrangement of pixel transistors provided for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the pixel transistors include transistors RST, AMP, and SEL, and are provided for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the unit U consisting of the pixel blocks 100R, 100Gr, 100Gb and 100B has 12 pixel transistors (RST-R, RST-Gr, RST-Gb, RST-B, AMP-R, AMP-Gr, AMP-Gb , AMP-B, SEL-R, SEL-Gr, SEL-Gb, SEL-B).
  • R, Gr, Gb, and B attached to the end of the reference numerals of the pixel transistors correspond to the pixel blocks 100R, 100Gr, 100Gb, and 100B in which they are provided. If it is not necessary to distinguish between the pixel transistors provided in the pixel blocks 100R, 100Gr, 100Gb, and 100B, the suffixes R, Gr, Gb, and B are omitted.
  • the 12 pixel transistors are arranged, for example, in three groups of four each (eg, [RST-Gr, RST-B/RST-R/RST-Gb]/[AMP-Gr/SEL-Gr/SEL-R/AMP- R]/[AMP-B/SEL-B/SEL-Gb/AMP-Gb]).
  • the four pixel transistors in each group are arranged side by side along the X-axis direction, for example.
  • one floating diffusion layer provided for each pixel pair 90A and the gates of the two transistors TRG arranged opposite to each other are alternately arranged on one side of a pair of sides facing in the Y-axis direction.
  • each group is arranged side by side.
  • the four pixel transistors of each group at the boundary between two light receiving pixels P adjacent in the Y-axis direction are shared between the two light receiving pixels P adjacent in the Y-axis direction. This improves area efficiency.
  • Each group-on four pixel transistors are arranged periodically in both the X-axis direction and the Y-axis direction. It's becoming
  • Element isolation portions 115 and 116 are provided above and below the plurality of pixel transistors arranged in parallel along the X-axis direction in plan view and between the plurality of pixel transistors arranged in parallel.
  • the element isolation portion 115 electrically separates the light receiving portion 112 and the diffusion region 114 in which an N-type impurity is diffused and which is provided on the surface 111S1 of the semiconductor substrate 111 constituting the sources/drains of the transistors TRG, RST, AMP, and SEL. It separates
  • the element isolation section 116 appropriately electrically isolates a plurality of pixel transistors arranged in parallel.
  • Element isolation portions 115 and 116 are provided on surface 111S1 of semiconductor substrate 111 as, for example, STI (Shallow Trench Isolation) formed using an insulating layer or impurity layers.
  • the floating diffusion layer is formed along a line segment passing through the centers of the gates of the transistors TRG arranged facing each other along the X-axis direction, as shown in FIG. On the other hand, it is formed closer to the element isolation portion 115 and brought into contact with the element isolation portion, for example.
  • the electric field of the PN junction generated between the P-type diffusion layer and the floating diffusion layer disappears, and the white spots in the floating diffusion layer disappear. Suppressed. Dark current is generated from the STI by not pinning the STI. accumulates in the floating diffusion layer.
  • a dark current accumulated in the floating diffusion layer can be removed by a correlated double sampling (CDS) operation when reading out signal charges.
  • CDS correlated double sampling
  • the contact provided on the floating diffusion layer is also an element isolation portion with respect to a line segment passing through the centers of the gates of the transistors TRG arranged opposite to each other along the axial direction. It is formed near 115 .
  • the floating diffusion layer is formed by a line segment passing through the centers of the gates of the transistors TRG arranged facing each other along the X-axis direction, as shown in FIG. 10, for example. are arranged away from the element isolation portion 115 .
  • the electric field generated between the element isolation portion 115 and the floating diffusion layer is relaxed, and white spots in the floating diffusion layer are suppressed.
  • the contact (floating diffusion layer contact) provided on the floating diffusion layer is also isolated from a line segment passing through the center of each gate of the transistors TRG arranged opposite to each other along the X-axis direction. It is formed away from the portion 115 .
  • the element isolation portion 115 for isolating the photodiode and the pixel transistor is preferably formed using an impurity layer. As a result, the dose amount of P-type ions can be reduced, so white spots in the floating diffusion layer can be further suppressed as compared with the case of forming as STI. Further, it is preferable that the element isolation portion 116 between the pixel transistors of the adjacent light-receiving pixels P is formed of STI. As a result, the space required for isolation can be reduced, and the channel length and gate width of the pixel transistor can be increased.
  • a well contact region WellCon for applying fixed charges to the semiconductor substrate 111 may be provided between the pixel transistors arranged in parallel for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the well contact region WellCon corresponds to a specific example of the "substrate contact" of the present disclosure.
  • the diffusion region 114 may be shared between pixel transistors arranged in parallel, as shown in FIG. 11, for example. Thereby, the formation area of the pixel transistor can be reduced.
  • a transistor FDG may be further provided to switch the conversion efficiency.
  • the transistors AMP, SEL and the transistors RST, FDG are arranged in different rows in the pixel blocks 100Gr, 100Gb, and the transistors AMP, SEL, RST are arranged in the pixel blocks 100R, 100B. , FDG on the same row.
  • the control lines RSTL and FDGL for the transistors RST and FDG can be shared by the pixel block 100R and the pixel block 100Gr, and the pixel block 100Gb and the pixel block 100B, which are arranged in parallel in the X-axis direction, thereby reducing the number of control lines. be able to.
  • the transistor FDG like the transistors RST, AMP, and SEL, corresponds to a specific example of the "second transistor" of the present disclosure.
  • the arrangement of each pixel transistor shown in FIG. 12 is an example, and the present invention is not limited to this.
  • FIG. 12 shows an example in which the transistors SEL, AMP, RST, and FDG are arranged in the pixel blocks 100R and 100B, and the transistors RST and FDG are arranged in the pixel blocks 100Gr and 100Gb.
  • AMP, RST and FDG may be arranged, and the transistors RST and FDG may be arranged in the pixel blocks 100R and 100B.
  • the plurality of floating diffusion layers provided in the unit U, the gates of the plurality of transistors TRG, and the plurality of pixel transistors (transistors RST, AMP , SEL, FDG) and various wirings (a plurality of connection wirings FDL, a plurality of control lines TRGL, RSTL, SELL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL) are arranged with respect to the center of the unit U, respectively. are arranged point-symmetrically.
  • FIG. 13 shows a plurality of floating diffusion layers provided on the surface 111S1 of the semiconductor substrate 111, gates of a plurality of transistors TRG, and a plurality of pixel transistors (transistors RST, AMP, SEL, FDG) are shown together with the outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • FIG. 14 shows, for example, various wirings provided in the wiring layer 122 (a plurality of FD connection wirings FDL, a plurality of control lines TRGL, RSTL, SELL, and FDGL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL).
  • FIG. 15 shows, for example, various wirings provided in the wiring layer 123 (connection wiring SubFDL for a plurality of SubFDs, a plurality of control lines TRGL, RSTL, SELL, FDGL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL). is shown together with the outlines of pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • FIG. 15 shows, for example, various wirings provided in the wiring layer 123 (connection wiring SubFDL for a plurality of SubFDs, a plurality of control lines TRGL, RSTL, SELL, FDGL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL).
  • FIG. 16 shows, for example, various wirings (a plurality of control lines TRGL, RSTL, SELL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL) provided in the wiring layer 124 are connected to pixel blocks 100R, 100Gr, 100Gb, and 100B. It is shown together with the external shape of FIG. 17 shows, for example, various wirings (a plurality of control lines TRGL and FDGL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL) provided in the wiring layer 125, and the pixel blocks 100R, 100Gr, 100Gb, and 100B. It is represented with FIG.
  • FIG. 18 shows, for example, various wirings (a plurality of control lines TRGL and FDGL, a plurality of signal lines VSL, a reference potential line VSS, and a power supply line VDDL) provided in the wiring layer 126, and the outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • FIG. 19 shows, for example, various wirings (plurality of signal lines VSL, reference potential lines VSS, and power supply lines VDDL) provided in the wiring layer 127 together with outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the pixel blocks 100Gr and 100Gb, and the pixel blocks R and B, which have the same light-receiving pixel P arrangement pattern, have the same conversion efficiency. Therefore, the correction circuit in the post-processing can be simplified. Moreover, since the capacitance characteristics are also the same, the variation in characteristics can be reduced.
  • Control line TRGL is provided along connection line FDL. This improves the coupling between the connection wiring FDL and the control line TRGL, and suppresses the coupling between the connection wiring FDL and the control lines RSTL, SELL, FDGL and the signal lines VSL. Therefore, the effect of assisting transfer by the control line TRGL is improved.
  • the drive unit 12 ( FIG. 1 ) is configured to drive the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18 . Specifically, the driving unit 12 supplies a plurality of control signals STRG to the plurality of control lines TRGL in the pixel array 11, supplies a plurality of control signals SRST to the plurality of control lines RSTL, and supplies a plurality of control signals SRST to the plurality of control lines. A plurality of light-receiving pixels P in the pixel array 11 are driven by supplying a plurality of control signals SSEL to the SELL.
  • the reference signal generation unit 13 is configured to generate the reference signal RAMP based on the instruction from the imaging control unit 18 .
  • the reference signal RAMP has a so-called ramp waveform in which the voltage level gradually changes over time during the period (the P-phase period TP and the D-phase period TD) in which the reading unit 20 performs AD conversion.
  • the reference signal generation unit 13 supplies such a reference signal RAMP to the reading unit 20 .
  • the reading unit 20 is configured to generate the image signal Spic0 by performing AD conversion based on the signal SIG supplied from the pixel array 11 via the signal line VSL based on the instruction from the imaging control unit 18. be done.
  • FIG. 20 shows a configuration example of the reading unit 20.
  • FIG. 20 also depicts the reference signal generating unit 13, the signal processing unit 15, and the imaging control unit 18.
  • the reading unit 20 has a plurality of constant current sources 21 , a plurality of AD (Analog to Digital) conversion units ADC, and a transfer control unit 27 .
  • the plurality of constant current sources 21 and the plurality of AD converters ADC are provided corresponding to the plurality of signal lines VSL, respectively.
  • the constant current source 21 and AD converter ADC corresponding to one signal line VSL will be described below.
  • the constant current source 21 is configured to apply a predetermined current to the corresponding signal line VSL.
  • One end of the constant current source 21 is connected to the corresponding signal line VSL, and the other end is grounded.
  • the AD conversion unit ADC is configured to perform AD conversion based on the signal SIG on the corresponding signal line VSL.
  • the AD converter ADC has capacitive elements 22 and 23 , a comparator circuit 24 , a counter 25 and a latch 26 .
  • One end of the capacitive element 22 is connected to the signal line VSL and supplied with the signal SIG, and the other end is connected to the comparison circuit 24 .
  • a reference signal RAMP supplied from the reference signal generation unit 13 is supplied to one end of the capacitive element 23 , and the other end is connected to the comparison circuit 24 .
  • the comparison circuit 24 performs a comparison operation based on the signal SIG supplied from the light receiving pixel P via the signal line VSL and the capacitive element 22 and the reference signal RAMP supplied from the reference signal generation section 13 via the capacitive element 23. is configured to generate the signal CP by performing The comparison circuit 24 sets the operating point by setting the voltages of the capacitive elements 22 and 23 based on the control signal AZ supplied from the imaging control section 18 . After that, the comparison circuit 24 performs a comparison operation to compare the reset voltage Vreset included in the signal SIG with the voltage of the reference signal RAMP in the P-phase period TP, and performs a comparison operation of A comparison operation is performed to compare the pixel voltage Vpix and the voltage of the reference signal RAMP.
  • the counter 25 is configured to perform a counting operation of counting the pulses of the clock signal CLK supplied from the imaging control section 18 based on the signal CP supplied from the comparison circuit 24 . Specifically, the counter 25 generates the count value CNTP by counting the pulses of the clock signal CLK until the signal CP transitions in the P-phase period TP, and converts the count value CNTP into a digital signal having a plurality of bits. Output as code. Further, the counter 25 generates a count value CNTD by counting the pulses of the clock signal CLK until the signal CP transitions in the D-phase period TD, and outputs the count value CNTD as a digital code having a plurality of bits. It is designed to
  • the latch 26 is configured to temporarily hold the digital code supplied from the counter 25 and to output the digital code to the bus wiring BUS based on the instruction from the transfer control section 27 .
  • the transfer control unit 27 is configured to control the latches 26 of the plurality of AD conversion units ADC to sequentially output the digital code to the bus wiring BUS based on the control signal CTL supplied from the imaging control unit 18. be.
  • the reading unit 20 uses the bus wiring BUS to sequentially transfer the plurality of digital codes supplied from the plurality of AD conversion units ADC to the signal processing unit 15 as the image signal Spic0.
  • the signal processing unit 15 (FIG. 1) is configured to generate the image signal Spic by performing predetermined signal processing based on the image signal Spic0 and an instruction from the imaging control unit 18.
  • the signal processor 15 has an image data generator 16 and a phase difference data generator 17 .
  • the image data generator 16 is configured to generate image data DP representing a captured image by performing predetermined image processing based on the image signal Spic0.
  • the phase difference data generation unit 17 is configured to generate phase difference data DF indicating an image plane phase difference by performing predetermined image processing based on the image signal Spic0.
  • the signal processing unit 15 generates an image signal Spic including the image data DP generated by the image data generation unit 16 and the phase difference data DF generated by the phase difference data generation unit 17 .
  • FIG. 21 shows an example of the image signal Spic.
  • the signal processing unit 15 generates the image signal Spic by, for example, alternately arranging the image data DP related to the light-receiving pixels P in multiple rows and the phase difference data DF related to the light-receiving pixels P in multiple rows. Then, the signal processing unit 15 Such an image signal Spic is output.
  • the imaging control unit 18 supplies control signals to the driving unit 12, the reference signal generating unit 13, the reading unit 20, and the signal processing unit 15, and controls the operation of these circuits, thereby controlling the operation of the imaging device 1.
  • a control signal Sctl is supplied to the imaging control unit 18 from the outside.
  • This control signal Sctl includes, for example, information about the zoom magnification of so-called electronic zoom.
  • the imaging control unit 18 controls the operation of the imaging device 1 based on the control signal Sctl.
  • the drive unit 12 sequentially drives the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18 .
  • the reference signal generator 13 generates the reference signal RAMP based on the instruction from the imaging controller 18 .
  • the light-receiving pixel P outputs the reset voltage Vreset as the signal SIG during the P-phase period TP, and outputs the pixel voltage Vpix corresponding to the amount of received light as the signal SIG during the D-phase period TD.
  • the reading unit 20 generates the image signal Spic0 based on the signal SIG supplied from the pixel array 11 via the signal line VSL and the instruction from the imaging control unit 18 .
  • the image data generation unit 16 performs predetermined image processing based on the image signal Spic0 to generate image data DP representing the captured image
  • the phase difference data generation unit 17 generates the image signal Predetermined image processing is performed based on Spic0 to generate phase difference data DF representing the image plane phase difference.
  • the signal processing unit 15 generates an image signal Spic including the image data DP and the phase difference data DF.
  • the imaging control unit 18 supplies control signals to the driving unit 12, the reference signal generating unit 13, the reading unit 20, and the signal processing unit 15, and controls the operation of these circuits, thereby controlling the operation of the imaging device 1. do.
  • the imaging control unit 18 controls the operation of the imaging device 1 based on the control signal Sctl including information about the zoom magnification of the electronic zoom. A zoom operation in the imaging device 1 will be described below.
  • FIG. 22 shows an example of the number of light-receiving pixels P (the number of effective pixels) of a captured image when the zoom magnification is changed from 1x to 10x.
  • the solid line indicates the number of effective pixels of the imaging device 1.
  • FIG. 23A and 23B show an example of the zoom operation in the imaging device 1, where (A) shows the operation when the zoom magnification is 1 ⁇ , and (B) shows the operation when the zoom magnification is 2 ⁇ . , and (C) shows the operation when the zoom magnification is 3 times.
  • the imaging device 1 has three imaging modes M (imaging modes MA, MB, MC).
  • the imaging control unit 18 selects one of the three imaging modes MA to MC based on the information about the zoom magnification included in the control signal Sctl. Specifically, as shown in FIG. 22, the imaging control unit 18 selects the imaging mode MA when the zoom magnification is less than 2, and selects the imaging mode MA when the zoom magnification is 2 or more and less than 3. MB is selected, and when the zoom magnification is 3 or more, imaging mode MC is selected.
  • the imaging device 1 obtains four pixel values V (pixel values VR, VGr, VGb, VB) in each of the plurality of unit units U. Specific operations will be described later. In this way, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 4 pixels to 36 pixels P.
  • FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], pixel values V for 12 [Mpix] are calculated. As a result, the number of effective pixels is 12 [Mpix], as shown in FIG.
  • this imaging mode MA when the zoom magnification is increased from 1, the number of effective pixels decreases according to the magnification. Then, when the zoom magnification becomes 2, the imaging mode M becomes the imaging mode MB.
  • the imaging device 1 obtains 16 pixel values V for each of the plurality of unit units U, as shown in FIG. 23(B). Specific operations will be described later. In this manner, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 16 pixels to 36 light receiving pixels P.
  • FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], pixel values V for 48 [Mpix] are calculated. Actually, since the zoom magnification is 2 times, the imaging range is narrowed to 1/4 as shown in FIG. ).
  • this imaging mode MB when the zoom magnification is increased from 2, the number of effective pixels decreases according to the magnification. Then, when the zoom magnification becomes 3, the imaging mode M becomes the imaging mode MC.
  • the imaging device 1 obtains 36 pixel values V for each of the plurality of unit units U, as shown in FIG. 23(C). Specific operations will be described later. In this manner, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 36 pixels to the 36 light receiving pixels P.
  • FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], a captured image of 108 [Mpix] can be obtained. Actually, since the zoom magnification is 3 times, the imaging range is narrowed to 1/9 as shown in FIG. ).
  • the imaging device 1 is provided with three imaging modes M, so that it is possible to reduce the change in the image quality of the captured image when the zoom magnification is changed. That is, for example, two imaging modes MA and MC are provided by omitting the imaging mode MB, and the imaging mode MA is selected when the zoom magnification is less than 2.
  • the imaging mode MA is selected when the zoom magnification is less than 2.
  • the image pickup apparatus 1 is provided with three image pickup modes M, it is possible to reduce the change in the number of effective pixels when the zoom magnification is changed. can.
  • FIG. 24 shows an operation example of the imaging device 1 in the imaging mode MA.
  • the light-receiving pixels P indicated by "o" indicate the light-receiving pixels P to be subjected to the readout operation.
  • the imaging device 1 sets the pixel value according to the amount of light received by the left light receiving pixel P in the pixel pair 90A provided with the lens 101.
  • V image data DT1 is generated.
  • the imaging device 1 targets the five light-receiving pixels PGr arranged on the left in the five pixel pairs 90A among the ten light-receiving pixels PGr of the pixel block 100Gr for the readout operation.
  • a pixel value VGr1 at the position of the center of gravity of these five light receiving pixels PGr is calculated.
  • the imaging device 1 targets the four light-receiving pixels PR arranged on the left in the four pixel pairs 90A among the eight light-receiving pixels PR of the pixel block 100R.
  • a pixel value VR1 at the position of the center of gravity of the light receiving pixel PR is calculated.
  • the imaging device 1 selects the four light receiving pixels PB arranged on the left in the four pixel pairs 90A among the eight light receiving pixels PB of the pixel block 100B as targets for the readout operation.
  • a pixel value VB1 at the position of the center of gravity of PB is calculated.
  • the imaging device 1 targets the five light-receiving pixels PGb arranged on the left in the five pixel pairs 90A among the ten light-receiving pixels PGb of the pixel block 100Gb.
  • a pixel value VGb1 at the position of the center of gravity of PGb is calculated.
  • the imaging device 1 generates image data DT1 (FIG. 24A) including pixel values VGr1, VR1, VB1, and VGb1.
  • the imaging device 1 calculates the pixel value V according to the amount of light received by all the light receiving pixels P in each of the plurality of pixel blocks 100, thereby obtaining the image data. Generate DT2. Specifically, the imaging device 1 calculates the pixel value VGr2 at the barycentric position of the ten light receiving pixels PGr of the pixel block 100Gr by setting the ten light receiving pixels PGr as targets of the readout operation. In addition, the imaging device 1 calculates the pixel value VR2 at the barycenter position of the eight light receiving pixels PR of the pixel block 100R by setting the eight light receiving pixels PR of the pixel block 100R as targets of the readout operation.
  • the imaging device 1 calculates the pixel value VB2 at the barycentric position of the eight light receiving pixels PB of the pixel block 100B by subjecting the eight light receiving pixels PB to the readout operation.
  • the imaging device 1 calculates the pixel value VGb2 at the barycentric position of the ten light-receiving pixels PGb of the pixel block 100Gb by subjecting the ten light-receiving pixels PGb to the readout operation. In this manner, the imaging device 1 generates image data DT2 (FIG. 24B) including pixel values VGr2, VR2, VB2, and VGb2.
  • FIG. 25 shows an example of the read operation
  • (A) shows the waveform of the control signal SSEL
  • (B) shows the waveform of the control signal SRST
  • (C) is arranged on the left side of the pixel pair 90A.
  • (D) shows the waveform of the control signal STRG (control signal STRGL) supplied to the light-receiving pixel PGr arranged on the right side of the pixel pair 90A.
  • E) shows the waveform of the control signal AZ
  • (F) shows the waveform of the reference signal RAMP
  • (G) shows the waveform of the signal SIG
  • (H) shows the waveform of the signal CP.
  • waveforms of the reference signal RAMP and the signal SIG are shown using the same voltage axis. Also, in this description, the waveform of the reference signal RAMP shown in FIG.
  • the waveform of the signal SIG is the waveform of the voltage supplied to the input terminal of the comparison circuit 24 via the capacitive element 22 .
  • the horizontal period H starts.
  • the drive unit 12 changes the voltage of the control signal SSEL from low level to high level ((A) in FIG. 25).
  • the transistor SEL is turned on, and the pixel block 100Gr is electrically connected to the signal line VSL.
  • the driving section 12 changes the voltage of the control signal SRST from low level to high level (FIG. 25(B)).
  • the transistor RST is turned on, and the voltage of the floating diffusion layer is set to the power supply voltage VDD (reset operation).
  • the pixel block 100Gr outputs a voltage corresponding to the voltage of the floating diffusion layer at this time. Also, at this timing t11, the imaging control unit 18 changes the voltage of the control signal AZ from low level to high level (FIG. 25(E)). Thereby, the comparison circuit 24 of the AD conversion unit ADC sets the operating point by setting the voltages of the capacitive elements 22 and 23 . Thus, the voltage of the signal SIG is set to the reset voltage Vreset, and the voltage of the reference signal RAMP is set to the same voltage as the voltage of the signal SIG (reset voltage Vreset) ((F), (G) in FIG. 25). ).
  • the driving section 12 changes the voltage of the control signal SRST from high level to low level ((B) in FIG. 25). As a result, the transistor RST is turned off in the pixel block 100Gr, and the reset operation is completed.
  • the imaging control unit 18 changes the voltage of the control signal AZ from high level to low level (FIG. 25(E)).
  • the comparison circuit 24 finishes setting the operating point.
  • the reference signal generator 13 sets the voltage of the reference signal RAMP to the voltage V1 ((F) in FIG. 25).
  • the voltage of the reference signal RAMP becomes higher than the voltage of the signal SIG, so the comparison circuit 24 changes the voltage of the signal CP from low level to high level (FIG. 25(H)).
  • the AD conversion unit ADC performs AD conversion based on the signal SIG. Specifically, first, at timing t13, the reference signal generator 13 starts to lower the voltage of the reference signal RAMP from the voltage V1 by a predetermined degree of change ((F) in FIG. 25). Also, at this timing t13, the imaging control unit 18 starts generating the clock signal CLK. The counter 25 of the AD converter ADC counts the pulses of the clock signal CLK by performing a counting operation.
  • the comparison circuit 24 of the AD conversion unit ADC changes the voltage of the signal CP from high level to low level (FIG. 25(H)).
  • the counter 25 of the AD converter ADC stops the counting operation based on this transition of the signal CP.
  • the count value (count value CNTP) of the counter 25 at this time is a value corresponding to the reset voltage Vreset.
  • Latch 26 holds this count value CNTP.
  • the counter 25 then resets the count value.
  • the imaging control unit 18 stops generating the clock signal CLK as the P-phase period TP ends. Further, the reference signal generator 13 stops changing the voltage of the reference signal RAMP at this timing t15 ((F) in FIG. 25). In a period after timing t15, the reading unit 20 supplies the count value CNTP held in the latch 26 to the signal processing unit 15 as the image signal Spic0.
  • the imaging control section 18 sets the voltage of the reference signal RAMP to the voltage V1 ((F) in FIG. 25).
  • the voltage of the reference signal RAMP becomes higher than the voltage of the signal SIG (reset voltage Vreset), so the comparison circuit 24 changes the voltage of the signal CP from low level to high level (FIG. 25(H)).
  • the driving section 12 changes the voltage of the control signal STRGL from low level to high level (FIG. 25(C)).
  • the transistors TRG are turned on, and charges generated in the photodiodes are transferred to the floating diffusion layer (charge transfer operation).
  • the pixel block 100Gr outputs a voltage corresponding to the voltage of the floating diffusion layer at this time.
  • the voltage of the signal SIG becomes the pixel voltage Vpix1 (FIG. 25(G)).
  • the driving section 12 changes the voltage of the control signal STRGL from high level to low level ((C) in FIG. 25).
  • the transistors TRG are turned off, and the charge transfer operation ends.
  • the AD conversion unit ADC performs AD conversion based on the signal SIG. Specifically, first, at timing t18, the reference signal generator 13 starts to lower the voltage of the reference signal RAMP from the voltage V1 by a predetermined degree of change ((F) in FIG. 25). Also, at this timing t18, the imaging control unit 18 starts generating the clock signal CLK. The counter 25 of the AD converter ADC counts the pulses of the clock signal CLK by performing a counting operation.
  • the comparison circuit 24 of the AD conversion unit ADC changes the voltage of the signal CP from high level to low level (FIG. 25(H)).
  • the counter 25 of the AD converter ADC stops the counting operation based on this transition of the signal CP.
  • the count value (count value CNTD1) of the counter 25 at this time is a value corresponding to the pixel voltage Vpix1.
  • Latch 26 holds this count value CNTD1.
  • the counter 25 then resets the count value.
  • the imaging control section 18 stops generating the clock signal CLK upon completion of the D-phase period TD1. Further, the reference signal generator 13 stops changing the voltage of the reference signal RAMP at this timing t20 ((F) in FIG. 25). In a period after timing t20, the reading unit 20 supplies the count value CNTD1 held in the latch 26 to the signal processing unit 15 as the image signal Spic0.
  • the imaging control section 18 sets the voltage of the reference signal RAMP to the voltage V1 ((F) in FIG. 25).
  • the voltage of the reference signal RAMP becomes higher than the voltage of the signal SIG (pixel voltage Vpix1), so the comparison circuit 24 changes the voltage of the signal CP from low level to high level (FIG. 25(H)).
  • the driving section 12 changes the voltages of the control signals STRGL and STRGR from low level to high level (FIGS. 25(C) and 25(D)).
  • the transistors TRG are turned on, and charges generated in the photodiodes are transferred to the floating diffusion layer (charge transfer operation).
  • the pixel block 100Gr outputs a voltage corresponding to the voltage of the floating diffusion layer at this time.
  • the voltage of the signal SIG becomes the pixel voltage Vpix2 (FIG. 25(G)).
  • the driving section 12 changes the voltages of the control signals STRGL and STRGR from high level to low level (FIGS. 25(C) and (D)).
  • the transistors TRG are turned off in the ten light-receiving pixels PGr, and the charge transfer operation is completed.
  • the AD conversion unit ADC performs AD conversion based on the signal SIG. Specifically, first, at timing t23, the reference signal generator 13 starts to lower the voltage of the reference signal RAMP from the voltage V1 by a predetermined degree of change ((F) in FIG. 25). Also, at this timing t23, the imaging control unit 18 starts generating the clock signal CLK. The counter 25 of the AD converter ADC counts the pulses of the clock signal CLK by performing a counting operation.
  • the comparison circuit 24 of the AD conversion unit ADC changes the voltage of the signal CP from high level to low level (FIG. 25(H)).
  • the counter 25 of the AD converter ADC stops the counting operation based on this transition of the signal CP.
  • the count value (count value CNTD2) of the counter 25 at this time is a value corresponding to the pixel voltage Vpix2.
  • Latch 26 holds this count value CNTD2.
  • the counter 25 then resets the count value.
  • the imaging control unit 18 stops generating the clock signal CLK upon completion of the D-phase period TD2. Further, the reference signal generator 13 stops changing the voltage of the reference signal RAMP at this timing t25 ((F) in FIG. 25). In a period after timing t25, the reading unit 20 supplies the count value CNTD2 held in the latch 26 to the signal processing unit 15 as the image signal Spic0.
  • the driving section 12 changes the voltage of the control signal SSEL from high level to low level (FIG. 25(A)). Accordingly, in the pixel block 100Gr, the transistor SEL is turned off, and the pixel block 100Gr is electrically disconnected from the signal line VSL.
  • the reading unit 20 supplies the image signal Spic0 including the count values CNTP, CNTD1, and CNTD2 to the signal processing unit 15.
  • the signal processing unit 15 uses the principle of correlated double sampling based on the count values CNTP, CNTD1, and CNTD2 included in the image signal Spic0, for example, to obtain the pixel value VGr1 shown in FIG. A pixel value VGr2 shown in (B) is generated. Specifically, the signal processing unit 15 generates the pixel value VGr1 by, for example, subtracting the count value CNTP from the count value CNTD1.
  • the count value CNTD1 is a value corresponding to the sum of the amounts of light received by the five light-receiving pixels PGr arranged on the left in the five pixel pairs 90A of the pixel block 100Gr. Based on this, the pixel value VGr1 shown in FIG. 24A can be generated. Similarly, the signal processing unit 15 generates the pixel value VGr2 by, for example, subtracting the count value CNTP from the count value CNTD2.
  • the count value CNTD2 is a value corresponding to the sum of the amounts of light received by the ten light-receiving pixels PGr of the pixel block 100Gr. It is possible to generate a pixel value VGr2 with
  • the signal processing unit 15 generates image data DT1 including pixel values VR1, VGr1, VGb1 and VB1 and image data DT2 including pixel values VR2, VGr2, VGb2 and VB2 as shown in FIG. Generate.
  • FIG. 26 shows an example of image processing by the signal processing section 15 in the imaging mode MA.
  • the signal processing unit 15 generates image data DT3 by performing subtraction processing based on the image data DT1 and DT2.
  • the signal processing unit 15 calculates the pixel value VGr3 by subtracting the pixel value VGr1 in the image data DT1 from the pixel value VGr2 in the image data DT2.
  • This pixel value VGr3 is a value corresponding to the sum of the amounts of light received by the five light receiving pixels PGr arranged on the right in the five pixel pairs 90A of the pixel block 100Gr. That is, the pixel value VGr1 is a value corresponding to the sum of the amounts of light received by the five light-receiving pixels PGr arranged on the left in the five pixel pairs 90A of the pixel block 100Gr, and the pixel value VGr2 is a value of the pixel block 100Gr.
  • This value corresponds to the sum of the amounts of light received by the ten light-receiving pixels PGr. Therefore, by subtracting the pixel value VGr1 from the pixel value VGr2, a value corresponding to the sum of the amounts of light received by the five light receiving pixels PGr arranged on the right in the five pixel pairs 90A of the pixel block 100Gr is obtained.
  • the pixel value VGr3 is a value corresponding to the sum of the amounts of light received by the five light-receiving pixels PGr arranged on the right in the five pixel pairs 90A. are arranged at the centroid positions of these five light-receiving pixels PGr.
  • the signal processing unit 15 calculates a pixel value VR3 by subtracting the pixel value VR1 in the image data DT1 from the pixel value VR2 in the image data DT2.
  • This pixel value VR3 is a value corresponding to the sum of the amounts of light received by the four light receiving pixels PR arranged on the right in the four pixel pairs 90A of the pixel block 100R.
  • the pixel value VR3 is arranged at the centroid position of the four light receiving pixels PR arranged on the right in the four pixel pairs 90A of the pixel block 100R.
  • the signal processing unit 15 calculates the pixel value VB3 by subtracting the pixel value VB1 in the image data DT1 from the pixel value VB2 in the image data DT2.
  • This pixel value VB3 is a value corresponding to the sum of the amounts of light received by the four light-receiving pixels PB arranged on the right in the four pixel pairs 90A of the pixel block 100B.
  • the pixel value VB3 is located at the center of gravity of the four light-receiving pixels PB located on the right in the four pixel pairs 90A of the pixel block 100B.
  • the signal processing unit 15 calculates the pixel value VGb3 by subtracting the pixel value VGb1 in the image data DT1 from the pixel value VGb2 in the image data DT2.
  • This pixel value VGb3 is a value corresponding to the sum of the amounts of light received by the five light-receiving pixels PGb arranged on the right in the five pixel pairs 90A of the pixel block 100Gb.
  • the pixel value VGb3 is arranged at the centroid position of the five light-receiving pixels PGb arranged on the right in the five pixel pairs 90A of the pixel block 100Gb.
  • the image data generation unit 16 of the signal processing unit 15 performs predetermined image processing based on the image data DT2 to generate image data DP (FIG. 23(A)) representing the captured image.
  • the phase difference data generation unit 17 of the signal processing unit 15 generates phase difference data DF indicating the image plane phase difference by performing predetermined image processing based on the image data DT1 and DT3. That is, the image data DT1 has the pixel value V at the light receiving pixel P arranged on the left in the plurality of pixel pairs 90A, and the image data DT3 has the pixel value V at the light receiving pixel P arranged on the right in the plurality of pixel pairs 90A. has a pixel value V of Therefore, the phase difference data generator 17 can generate the phase difference data DF based on the image data DT1 and DT3.
  • the lenses 101 are arranged side by side in the X-axis direction and the Y-axis direction. can be generated. Therefore, for example, a camera equipped with such an imaging device 1 can achieve high-precision autofocus, and as a result, can improve image quality.
  • the imaging mode MA corresponds to a specific example of "first imaging mode” in the present disclosure.
  • a pixel value in the image data DT1 corresponds to a specific example of "first pixel value” in the present disclosure.
  • a pixel value in the image data DT2 corresponds to a specific example of "second pixel value” in the present disclosure.
  • a pixel value in the image data DT3 corresponds to a specific example of "third pixel value" in the present disclosure.
  • FIG. 27 shows an operation example of the imaging device 1 in the imaging mode MB.
  • FIG. 28 more specifically expresses the operation shown in FIG. In FIGS. 27 and 15, the light-receiving pixels P indicated by "o" indicate the light-receiving pixels P to be read out.
  • the imaging device 1 performs a readout operation on the light-receiving pixel PGr arranged on the left in one of the five pixel pairs 90A of the pixel block 100Gr. , and the pixel value VGr1 at the position of this light-receiving pixel PGr is calculated.
  • the imaging device 1 targets the two light receiving pixels PGr in the pixel pair 90A for the readout operation, and calculates the pixel values at the barycenter positions of the two light receiving pixels PGr. Calculate VGr2.
  • the imaging device 1 sets the light-receiving pixel PR located on the left in one pixel pair 90A out of the four pixel pairs 90A of the pixel block 100R. is read out, and the pixel value VR1 at the position of the light receiving pixel PR is calculated.
  • the imaging device 1 targets the two light receiving pixels PR in the pixel pair 90A for the readout operation, and calculates the pixel values at the barycentric positions of the two light receiving pixels PR. Calculate VR2.
  • the imaging device 1 selects the light-receiving pixel PB located on the left in one pixel pair 90A out of the four pixel pairs 90A of the pixel block 100B. is read out, and the pixel value VB1 at the position of the light receiving pixel PB is calculated.
  • the imaging device 1 targets the two light receiving pixels PB in the pixel pair 90A for the readout operation, and calculates the pixel values at the barycentric positions of the two light receiving pixels PB. Calculate VB2.
  • the imaging device 1 selects the light-receiving pixel PGb located on the left in one of the five pixel pairs 90A of the pixel block 100Gb. is read out, and the pixel value VGb1 at the position of the light receiving pixel PGb is calculated.
  • the imaging device 1 targets the two light receiving pixels PGb in the pixel pair 90A for the readout operation, and calculates the pixel values at the barycentric positions of the two light receiving pixels PGb. Calculate VGb2.
  • FIGS. 28A and 28B The readout operation in FIGS. 28A and 28B is similar to the readout operation in the imaging mode MA described above (FIG. 25). 28(C) and (D), FIGS. 28(E) and (F), FIGS. 28(G) and (H), FIGS. The operation of J) and the operations of FIGS. 28(K) and (L) are performed.
  • the imaging apparatus 1 obtains image data DT1 (FIG. 27A) including pixel values VGr1, VR1, VB1 and VGb1, and image data DT2 including pixel values VGr2, VR2, VB2 and VGb2 (FIG. 27). (B)).
  • FIG. 29 shows an example of image processing by the signal processing unit 15 in the imaging mode MB.
  • the signal processing unit 15 generates image data DT3 by performing subtraction processing based on the image data DT1 and DT2.
  • the signal processing unit 15 calculates five pixel values VGr3 by subtracting the five pixel values VGr1 in the image data DT1 from the five pixel values VGr2 in the image data DT2.
  • This pixel value VGr3 is a value corresponding to the amount of light received by the light receiving pixel PGr arranged on the right side of the pixel pair 90A of the pixel block 100Gr.
  • the pixel value VGr1 is a value corresponding to the amount of light received by the light receiving pixel PGr arranged on the left in the pixel pair 90A of the pixel block 100Gr
  • the pixel value VGr2 is a value corresponding to the amount of light received by the two light receiving pixels PGr in this pixel pair 90A. is a value corresponding to the sum of the amount of received light. Therefore, by subtracting the pixel value VGr1 from the pixel value VGr2, a value corresponding to the amount of received light at the light receiving pixel PGr arranged on the right side of the pixel pair 90A of the pixel block 100Gr can be obtained.
  • the pixel value VGr3 is a value corresponding to the amount of light received by the light-receiving pixel PGr arranged on the right side of the pixel pair 90A. Therefore, as shown in FIG. It is arranged at the position of the light-receiving pixel PGr arranged on the right.
  • the signal processing unit 15 calculates four pixel values VR3 by subtracting the four pixel values VR1 in the image data DT1 from the four pixel values VR2 in the image data DT2.
  • This pixel value VR3 is a value corresponding to the amount of light received by the light receiving pixel PR arranged on the right side of the pixel pair 90A of the pixel block 100R.
  • This pixel value VR3 is arranged at the position of the light-receiving pixel PR arranged on the right in this pixel pair 90A.
  • the signal processing unit 15 calculates four pixel values VB3 by subtracting the four pixel values VB1 in the image data DT1 from the four pixel values VB2 in the image data DT2.
  • This pixel value VB3 is a value corresponding to the amount of light received by the light receiving pixel PB arranged on the right side of the pixel pair 90A of the pixel block 100B.
  • This pixel value VB3 is arranged at the positions of the four light-receiving pixels PB arranged on the right in this pixel pair 90A.
  • the signal processing unit 15 calculates five pixel values VGb3 by subtracting the five pixel values VGb1 in the image data DT1 from the five pixel values VGb2 in the image data DT2.
  • This pixel value VGb3 is a value corresponding to the amount of light received by the light receiving pixel PGb arranged on the right side of the pixel pair 90A in the pixel block 100Gb.
  • This pixel value VGb3 is arranged at the position of the light-receiving pixel PGb arranged on the right in this pixel pair 90A.
  • the image data generation unit 16 of the signal processing unit 15 performs predetermined image processing based on the image data DT2 as shown in FIG. )).
  • This predetermined image processing includes remosaic processing in which the pixel values V are modified and the pixel values V are rearranged.
  • FIG. 30 shows an example of the re-mosaic processing in the imaging mode M2, (A) shows the image data DT2, (B) shows the position of the pixel value V before and after the re-mosaic processing, and (C) Image data DT4 generated by remosaic processing based on image data DT2 is shown.
  • image data DT4 generated by remosaic processing based on image data DT2 is shown.
  • " ⁇ " indicates the position of the pixel value V in the image data DT2
  • " ⁇ " indicates the position of the pixel value V in the image data DT4.
  • FIG. 31A shows the re-mosaic processing for the pixel block 100R
  • FIG. 31B shows the re-mosaic processing for the pixel blocks 100Gr and 100Gb
  • FIG. 31C shows the re-mosaic processing for the pixel block 100B. It is represented. 31A to 18C, (A) shows the image data DT2, and (B) shows the image data DT4 generated by remosaic processing.
  • the image data DT2 includes pixel values V at a ratio of 18 pixels to 36 light-receiving pixels P.
  • the image data DT2 includes pixel values V for 54 [Mpix].
  • the image data DT4 includes pixel values V at a ratio of 16 pixels to 36 light-receiving pixels P.
  • the image data DT4 includes pixel values V for 48 [Mpix].
  • the image data generator 16 generates such image data DT4 by correcting the pixel values V in the image data DT2 and rearranging the pixel values V.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing interpolation processing based on the plurality of pixel values VR2 in the image data DT2. , a pixel value VR4 is generated based on the pixel value V over the entire surface.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, complementing processing based on the plurality of pixel values VGr2 and VGb2 in the image data DT2. , pixel values VGr4 and VGb4 are generated based on the pixel values V over the entire surface. As shown in FIG.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing a complementing process based on the plurality of pixel values VB2 in the image data DT2, and calculates the pixel values V over the entire surface. Based on the value V, a pixel value VB4 is generated.
  • the image data generator 16 generates the image data DT4 shown in FIG. 30(C) based on the image data DT2 shown in FIG. 30(A). Then, the image data generator 16 performs predetermined image processing based on the image data DT4 to generate image data DP (FIG. 10B) representing the captured image.
  • the phase difference data generation unit 17 of the signal processing unit 15 performs predetermined image processing based on the image data DT1 and DT3 to obtain phase difference data indicating the image plane phase difference. Generate a DF. That is, the image data DT1 has the pixel value V at the light receiving pixel P arranged on the left in the plurality of pixel pairs 90A, and the image data DT3 has the pixel value V at the light receiving pixel P arranged on the right in the plurality of pixel pairs 90A. has a pixel value V of Therefore, the phase difference data generator 17 can generate the phase difference data DF based on the image data DT1 and DT3.
  • the phase difference data generation unit 17 like the image data generation unit 16, generates phase difference data DF by rearranging the pixel values V based on the image data DT1 and DT3. That is, in the image data DT1 and DT3, the left and right pixel values V of the pixel pair 90A are included at a ratio of 18 to 36 light receiving pixels P. Therefore, the phase difference data generation unit 17 rearranges the pixel values V so that the left and right pixel values V of the pixel pair 90A are included in 16 of the 36 light receiving pixels P. Thereby, the phase difference data generator 17 can generate the phase difference data DF corresponding to the image data DP generated by the image data generator 16 .
  • the imaging mode MB corresponds to a specific example of "second imaging mode” in the present disclosure.
  • a pixel value in the image data DT1 corresponds to a specific example of "first pixel value” in the present disclosure.
  • a pixel value in the image data DT2 corresponds to a specific example of "second pixel value” in the present disclosure.
  • a pixel value in the image data DT3 corresponds to a specific example of "third pixel value” in the present disclosure.
  • a pixel value in the image data DT4 corresponds to a specific example of "fourth pixel value" in the present disclosure.
  • FIG. 19 shows an operation example of the imaging device 1 in the imaging mode MC.
  • FIG. 20 more specifically expresses the operation shown in FIG. In FIGS. 19 and 20, the light-receiving pixels P marked with "o" indicate the light-receiving pixels P to be read out.
  • the imaging device 1 targets one of the ten light receiving pixels PGr of the pixel block 100Gr for the readout operation.
  • a pixel value VGr1 at the position of is calculated.
  • 21A and 21B show an example of the read operation, in which (A) shows the waveform of the control signal SSEL, (B) shows the waveform of the control signal SRST, and (C) shows the light receiving pixel PGr to be read. (D) shows the waveform of the control signal AZ; (E) shows the waveform of the reference signal RAMP; (F) shows the waveform of the signal SIG; indicates the waveform of signal CP.
  • This readout operation is obtained by omitting the operation at timings t21 to t26 in the readout operation (FIG. 25) in the imaging modes MA and MB. In this manner, the reading unit 20 supplies the image signal Spic0 including the count values CNTP and CNTD1 to the signal processing unit 15.
  • FIG. 25 shows the image signal Spic0 including the count values CNTP and CNTD1 to the signal processing unit 15.
  • the signal processing unit 15 uses the principle of correlated double sampling to generate the pixel value VGr1, for example, based on the count values CNTP and CNTD1 included in the image signal Spic0. Specifically, the signal processing unit 15 generates the pixel value VGr1 by, for example, subtracting the count value CNTP from the count value CNTD1.
  • the imaging device 1 targets one of the eight light-receiving pixels PR of the pixel block 100R for the readout operation.
  • a pixel value VR1 at the position of the light receiving pixel PR is calculated.
  • the imaging device 1 targets one of the eight light receiving pixels PB of the pixel block 100B for the readout operation.
  • a pixel value VB1 at the position of the light receiving pixel PB is calculated.
  • the imaging device 1 targets one of the ten light receiving pixels PGb of the pixel block 100Gb for the readout operation.
  • a pixel value VGb1 in the light-receiving pixel PGb is calculated.
  • the imaging device 1 then performs the operations of FIGS. 20(B) to (L). In this manner, the imaging device 1 generates image data DT1 (FIG. 19) including pixel values VGr1, VR1, VB1, and VGb1.
  • FIG. 22 shows an example of image processing by the signal processing unit 15 in the imaging mode MC.
  • the image data generation unit 16 of the signal processing unit 15 generates image data DP (FIG. 10(C)) representing a captured image by performing predetermined image processing based on the image data DT1.
  • This predetermined image processing includes remosaic processing in which the pixel values V are modified and the pixel values V are rearranged.
  • FIG. 23 shows an example of re-mosaic processing in imaging mode MC
  • (A) shows image data DT1
  • (B) shows the position of pixel value V before and after re-mosaic processing
  • (C) shows Image data DT4 generated by remosaic processing based on image data DT1 is shown.
  • “ ⁇ " indicates the position of the pixel value V in the image data DT1
  • " ⁇ " indicates the position of the pixel value V in the image data DT4.
  • 24A shows the re-mosaic processing for the pixel block 100R
  • FIG. 24B shows the re-mosaic processing for the pixel blocks 100Gr and 100Gb
  • FIG. 24C shows the re-mosaic processing for the pixel block 100B. It is represented. 24A to 24C, (A) shows the image data DT1, and (B) shows the image data DT4 generated by remosaic processing.
  • image data DT4 In image data DT4, four pixel values VGr4, VR4, VB4, and VGb4 are arranged in a Bayer array.
  • the image data generator 16 generates such image data DT4 by correcting the pixel values V in the image data DT1 and rearranging the pixel values V.
  • FIG. 1 In image data DT4, four pixel values VGr4, VR4, VB4, and VGb4 are arranged in a Bayer array.
  • the image data generator 16 generates such image data DT4 by correcting the pixel values V in the image data DT1 and rearranging the pixel values V.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing interpolation processing based on the plurality of pixel values VR1 in the image data DT1. , a pixel value VR4 is generated based on the pixel value V over the entire surface.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing interpolation processing based on the plurality of pixel values VGr1 and VGb1 in the image data DT1.
  • pixel values VGr4 and VGb4 are generated based on the pixel values V over the entire surface.
  • FIG. 24A the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing interpolation processing based on the plurality of pixel values VGr1 and VGb1 in the image data DT1. , pixel values VGr4 and VGb4 are generated based on the pixel values V over the entire surface.
  • the image data generation unit 16 calculates the pixel values V over the entire surface by, for example, performing interpolation processing based on the plurality of pixel values VB1 in the image data DT1, and calculates the pixel values V over the entire surface. Based on the value V, a pixel value VB4 is generated.
  • the image data generator 16 generates the image data DT4 shown in FIG. 23(C) based on the image data DT1 shown in FIG. 23(A). Then, the image data generator 16 performs predetermined image processing based on this image data DT4 to generate image data DP (FIG. 10(C)) representing the captured image.
  • the phase difference data generation unit 17 of the signal processing unit 15 performs predetermined image processing based on the image data DT1 to generate phase difference data DF indicating the image plane phase difference.
  • the image data DT1 is composed of image data (image data DT11) having the pixel value V of the light receiving pixel P arranged on the left in the plurality of pixel pairs 90A, and image data (image data DT11) having the pixel value V of the light receiving pixel P arranged on the right in the plurality of pixel pairs 90A. and image data (image data DT12) having a pixel value V at P. Therefore, the phase difference data generator 17 can generate the phase difference data DF based on this image data DT1 (image data DT11, DT12).
  • the imaging mode MC corresponds to a specific example of "third imaging mode” in the present disclosure.
  • a pixel value in the image data DT1 corresponds to a specific example of "first pixel value” in the present disclosure.
  • a pixel value in the image data DT2 corresponds to a specific example of "second pixel value” in the present disclosure.
  • a pixel value in the image data DT3 corresponds to a specific example of "third pixel value” in the present disclosure.
  • a pixel value in the image data DT4 corresponds to a specific example of "fourth pixel value” in the present disclosure.
  • the imaging device 1 is provided with a plurality of pixel blocks 100 each having a plurality of light-receiving pixels P including color filters of the same color. These plurality of light receiving pixels P are divided into a plurality of pixel pairs 90A each including two light receiving pixels P. As shown in FIG. A plurality of lenses 101 are provided at positions corresponding to the plurality of pixel pairs 90A.
  • the imaging device 1 can generate the phase difference data DF with high resolution over the entire surface of the pixel array 11 . Therefore, for example, a camera equipped with such an imaging device 1 can achieve high-precision autofocus at various zoom magnifications. As a result, the imaging device 1 can improve image quality.
  • the number of light-receiving pixels in one pixel block 100 is greater than the number of light-receiving pixels in another pixel block 100 .
  • the number of light-receiving pixels PGr in the pixel block 100Gr and the number of light-receiving pixels PGb in the pixel block 100Gb are changed to the number of light-receiving pixels PR in the pixel block 100R and the number of light-receiving pixels PB in the pixel block 100B. I did more than the number.
  • the sensitivity to green light can be increased, and the image quality of the captured image can be improved.
  • the imaging device three imaging modes MA to MC are provided, and re-mosaic processing is performed in imaging modes MB and MC.
  • the number of effective pixels in the imaging mode MB is adjusted particularly by the re-mosaic processing in the imaging mode MB, and it is possible to reduce the change in the number of effective pixels when the zoom magnification is changed. change in image quality can be suppressed.
  • a plurality of pixel blocks each having a plurality of light-receiving pixels including color filters of the same color are provided. These plurality of light receiving pixels P are divided into a plurality of pixel pairs 90A each including two light receiving pixels P arranged side by side in the X-axis direction. A plurality of lenses are provided at positions corresponding to the plurality of pixel pairs 90A. As a result, highly accurate autofocus can be achieved. Furthermore, each of the plurality of pixel pairs 90A shares one floating diffusion layer at the boundary between two light receiving pixels P adjacent to each other in the X-axis direction. As a result, the capacitance of the floating diffusion layer is reduced, so that phase difference detection can be performed with high sensitivity. Therefore, image quality can be improved.
  • the plurality of light-receiving pixels P constituting the pixel blocks 100R, 100Gr, 100Gb, and 100B are arranged so that two light-receiving pixels P adjacent to each other in the Y-axis direction form pixel pairs 90B. were arranged periodically. Furthermore, two light receiving pixels P adjacent to each other in the X-axis direction are arranged so that the pixel pairs 90B have a mirror image structure. Thereby, area efficiency can be improved.
  • the floating diffusion layers arranged on the boundary between the two light receiving pixels P adjacent to each other in the X-axis direction, which constitute the pixel pair 90A, are two pixels facing each other in the X-axis direction. It is arranged to be shifted in the Y-axis direction with respect to a line segment passing through the centers of the gates of the two transistors TRG.
  • the element isolation portion 115 is composed of STI
  • the floating diffusion layer is made close to the element isolation portion 115 .
  • the floating diffusion layer is arranged so as to be distant from the element isolation portion 115 . As a result, it is possible to suppress white spots in the floating diffusion layer.
  • the pixel block 100Gr and the pixel block 100Gb, and the pixel block R and the pixel block B having the same arrangement pattern of the light-receiving pixels P have the same conversion efficiency. Therefore, it is possible to simplify the correction circuit in the post-processing and reduce variations in characteristics.
  • connection wirings FDL connecting four or five floating diffusion layers and the gates of the transistors AMP in each of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the well contact region WellCon for applying a fixed charge to the semiconductor substrate 111 is provided between the pixel transistors arranged side by side in the X-axis direction as shown in FIG. Although shown, it is not limited to this. Alternatively, for example, as shown in FIG. 32, it may be arranged between pixel pairs 90A adjacent to each other in the X-axis direction, for example, between the light receiving sections 112 .
  • two pixel blocks 100R and two pixel blocks 100B, and two pixel blocks 100Gr and two pixel blocks 100Gb, which have the same arrangement pattern, are arranged in the X-axis direction and the Y-axis direction. Place them alternately. Furthermore, at this time, the sharing ratio of the power supply voltage VDD is increased.
  • [FD/FDG/RST/VDD/AMP/SEL/VSL]/[FD/FDG/ RST/VDD]/[FD/FDG/RST/VDD/AMP/VSL]/[FD/FDG/RST/VDD] are provided between the pixel transistors.
  • [FD/FDG/RST/VDD/AMP/SEL/VSL]/[FD/FDG/VDD/RST/FDG/FD ]/[VSL/SEL/AMP/VDD/RST/FDG/FD] three VDDs are provided between the pixel transistors.
  • the gate length of the pixel transistor can be increased.
  • the gate length of the transistor AMP is increased, for example, random telegraph noise (RTS) can be reduced.
  • RTS random telegraph noise
  • the gate lengths of the transistors SEL and RST are increased, variations in transistor characteristics such as threshold voltage (Vth) and cutoff can be reduced.
  • FIG. 35 illustrates an example of a vertical cross-sectional configuration of an imaging device (imaging device 1A) according to Modification 3 of the present disclosure.
  • FIG. 36 shows an example of a schematic configuration of the imaging device 1A shown in FIG.
  • the imaging device 1A has a first substrate 210 having light receiving pixels P for performing photoelectric conversion on a semiconductor substrate 211, and a readout circuit 42 for outputting image signals based on charges output from the light receiving pixels P on a semiconductor substrate 221.
  • the imaging device has a three-dimensional structure in which the second substrate 220 is laminated.
  • the imaging device 1A is formed by stacking three substrates (first substrate 210, second substrate 220 and third substrate 230) in this order.
  • the first substrate 210 has a plurality of light-receiving pixels P that perform photoelectric conversion on the semiconductor substrate 211 .
  • a plurality of light-receiving pixels P are arranged in a matrix within the pixel array 31 on the first substrate 210 .
  • the second substrate 220 has a readout circuit 42 for outputting pixel signals based on charges output from the light receiving pixels P on the semiconductor substrate 221, one for each of the four light receiving pixels P.
  • the second substrate 220 has a plurality of pixel drive lines 43 extending in the row direction and a plurality of vertical signal lines 44 extending in the column direction.
  • the third substrate 230 has a logic circuit 52 for processing pixel signals on a semiconductor substrate 231 .
  • the logic circuit 32 has, for example, a vertical drive circuit 53, a column signal processing circuit 54, a horizontal drive circuit 55 and a system control circuit 56.
  • the logic circuit 52 (specifically, the horizontal driving circuit 55) outputs the output voltage Vout for each light receiving pixel P to the outside.
  • a low-resistance region made of silicide such as CoSi 2 or NiSi formed by a self-aligned silicide process is formed on the surface of the impurity diffusion region in contact with the source electrode and the drain electrode.
  • the vertical drive circuit 53 sequentially selects a plurality of light receiving pixels P in units of rows.
  • the column signal processing circuit 54 performs, for example, correlated double sampling (CDS) processing on pixel signals output from the light receiving pixels P in the row selected by the vertical drive circuit 53 .
  • the column signal processing circuit 54 extracts the signal level of the pixel signal by performing CDS processing, for example, and holds pixel data corresponding to the amount of light received by each light receiving pixel P.
  • the horizontal driving circuit 55 for example, sequentially outputs the pixel data held in the column signal processing circuit 54 to the outside.
  • the system control circuit 56 controls driving of each block (the vertical drive circuit 53, the column signal processing circuit 54 and the horizontal drive circuit 55) in the logic circuit 52, for example.
  • the imaging device 1A has a structure in which the first substrate 210, the second substrate 220 and the third substrate 230 are laminated in this order. , a color filter 240 and a light receiving lens 250 .
  • One color filter 240 and one light-receiving lens 250 are provided for each light-receiving pixel P, for example.
  • the imaging device 1A is a back-illuminated imaging device.
  • the first substrate 210 is configured by laminating an insulating layer 46 on the surface (surface 211S1) of the semiconductor substrate 211. As shown in FIG.
  • the first substrate 210 has an insulating layer 246 as part of the interlayer insulating film 251 .
  • the insulating layer 246 is provided between the semiconductor substrate 211 and a semiconductor substrate 221 which will be described later.
  • the semiconductor substrate 211 is composed of a silicon substrate.
  • the semiconductor substrate 211 has, for example, a p-well 242 on part of the surface and its vicinity, and a PD 241 of a conductivity type different from that of the p-well 242 in the other region (region deeper than the p-well 242). have.
  • the p-well 242 is composed of a p-type semiconductor region.
  • the PD 241 is composed of a semiconductor region of a conductivity type (specifically, n-type) different from that of the p-well 242 .
  • the semiconductor substrate 211 has a floating diffusion layer (FD) within the p-well 242 as a semiconductor region of a conductivity type (specifically, n-type) different from that of the p-well 242 .
  • FD floating diffusion layer
  • the first substrate 210 has a photodiode, a transfer transistor TR and a floating diffusion layer for each light receiving pixel P.
  • the first substrate 210 has a configuration in which a transfer transistor TR and a floating diffusion layer are provided on a part of the surface 211S1 side of the semiconductor substrate 211 (the side opposite to the light incident surface side, the second substrate 220 side).
  • the first substrate 210 has an element isolation portion 243 that isolates each light receiving pixel P. As shown in FIG.
  • the element isolation part 243 is formed extending in the normal direction of the semiconductor substrate 211 (the direction perpendicular to the surface of the semiconductor substrate 211).
  • the element isolation portion 243 is provided between two light receiving pixels P adjacent to each other.
  • the element isolation portion 243 electrically isolates the light-receiving pixels P adjacent to each other.
  • the element isolation part 243 is made of, for example, silicon oxide.
  • the element isolation part 243 penetrates the semiconductor substrate 211, for example.
  • the first substrate 210 further has, for example, a p-well layer 244 which is a side surface of the element isolation portion 243 and is in contact with the surface on the side of the photodiode.
  • the p-well layer 244 is composed of a semiconductor region of a conductivity type (specifically, p-type) different from that of the photodiode.
  • the first substrate 210 further has a fixed charge film 245 in contact with the back surface (surface 211S2) of the semiconductor substrate 211, for example.
  • the fixed charge film 245 is negatively charged in order to suppress the generation of dark current due to the interface level on the light receiving surface side of the semiconductor substrate 211 .
  • the fixed charge film 245 is formed of, for example, an insulating film having negative fixed charges. Examples of materials for such insulating films include hafnium oxide, zirconium oxide, aluminum oxide, titanium oxide, and tantalum oxide.
  • a hole accumulation layer is formed at the interface on the light receiving surface side of the semiconductor substrate 211 by the electric field induced by the fixed charge film 245 . This hole accumulation layer suppresses the generation of electrons from the interface.
  • Color filter 240 is provided on the back side of semiconductor substrate 211 .
  • the color filter 240 is provided, for example, in contact with the fixed charge film 245 and provided at a position facing the light receiving pixel P with the fixed charge film 245 interposed therebetween.
  • the light-receiving lens 250 is provided, for example, in contact with the color filter 240 and is provided at a position facing the light-receiving pixel P via the color filter 240 and the fixed charge film 245 .
  • the second substrate 220 is configured by laminating an insulating layer 252 on a semiconductor substrate 221 .
  • the second substrate 220 has the insulating layer 252 as part of the interlayer insulating film 251 .
  • the insulating layer 252 is provided between the semiconductor substrates 221 and 231 .
  • the semiconductor substrate 221 is composed of a silicon substrate.
  • the second substrate 220 has one readout circuit 222 for every four light receiving pixels P. As shown in FIG.
  • the second substrate 220 has a configuration in which a readout circuit 222 is provided on part of the surface of the semiconductor substrate 221 (the surface 221S1 facing the third substrate 230).
  • the second substrate 220 is bonded to the first substrate 210 with the back surface (surface 21S2) of the semiconductor substrate 221 facing the front surface (surface 211S1) of the semiconductor substrate 211 . That is, the second substrate 220 is bonded face-to-back to the first substrate 210 .
  • the second substrate 220 further has an insulating layer 253 penetrating through the semiconductor substrate 221 in the same layer as the semiconductor substrate 221 .
  • the second substrate 220 has an insulating layer 253 as part of the interlayer insulating film 251 .
  • the insulating layer 253 is provided so as to cover the side surface of the through wiring 254 which will be described later.
  • a laminate composed of the first substrate 210 and the second substrate 220 has an interlayer insulating film 251 and a through wire 254 provided in the interlayer insulating film 251 .
  • the laminate has one through-wiring 254 for each light-receiving pixel P. As shown in FIG.
  • the through-wiring 254 extends in the normal direction of the semiconductor substrate 221 and is provided to penetrate through a portion of the interlayer insulating film 251 including the insulating layer 253 .
  • the first substrate 210 and the second substrate 220 are electrically connected to each other by the through wiring 254 .
  • the through wire 254 is electrically connected to the floating diffusion layer and the connection wire 255 described later.
  • the through-wiring 254 preferably has a metal layer containing, for example, a metal having an oxygen storage effect between the surrounding insulating layers 246 , 252 , 253 . This makes it possible to prevent oxygen from entering through the opening formed by forming the through-wiring 254 .
  • the stacked body composed of the first substrate 210 and the second substrate 220 is further provided in the interlayer insulating film 251, and includes, for example, the p-well 242 of the semiconductor substrate 211, the wiring in the second substrate 220, the transfer gate TG and the wiring in the second substrate 220. It has a through wire (not shown) electrically connected to the pixel drive line 43 . Also, the transfer gate TG has a vertical gate structure and is formed deeper than the depth of the isolation portion 115 . Further, the position of the transfer gate TG is arranged at a position away from the center of the light-receiving pixel P in plan view.
  • the second substrate 220 has, for example, a plurality of connection portions 259 electrically connected to the readout circuit 42 and the semiconductor substrate 221 in the insulating layer 252 .
  • the second substrate 220 further has, for example, a wiring layer 256 on the insulating layer 252 .
  • the wiring layer 256 has, for example, an insulating layer 257 and a plurality of pixel drive lines 43 and a plurality of vertical signal lines 424 provided in the insulating layer 257 .
  • the wiring layer 256 further has a plurality of connection wirings 255 in the insulating layer 257, one for each of the four light receiving pixels P, for example.
  • the connection wiring 255 electrically connects the through wirings 254 electrically connected to the floating diffusion layers included in the four light receiving pixels P sharing the readout circuit 42 to each other.
  • the wiring layer 256 further has a plurality of pad electrodes 258 in the insulating layer 257, for example.
  • Each pad electrode 258 is made of metal such as Cu (copper) or Al (aluminum).
  • Each pad electrode 258 is exposed on the surface of the wiring layer 256 .
  • Each pad electrode 258 is used for electrical connection between the second substrate 220 and the third substrate 230 and bonding between the second substrate 220 and the third substrate 230 .
  • one pad electrode 258 is provided for each pixel drive line 223 and each vertical signal line 224 .
  • the third substrate 230 is configured by laminating an interlayer insulating film 261 on a semiconductor substrate 231, for example. As will be described later, the third substrate 230 is bonded to the second substrate 220 with the front surfaces thereof facing each other. , which is opposite to the vertical direction in the drawing.
  • the semiconductor substrate 231 is composed of a silicon substrate.
  • the third substrate 230 has a configuration in which a logic circuit 52 is provided on a portion of the front surface (surface 231S1) of the semiconductor substrate 231. As shown in FIG.
  • the third substrate 230 further has, for example, a wiring layer 262 on the interlayer insulating film 261 .
  • the wiring layer 262 has, for example, an insulating layer 263 and a plurality of pad electrodes 264 provided in the insulating layer 263 .
  • the multiple pad electrodes 264 are electrically connected to the logic circuit 52 .
  • Each pad electrode 264 is made of Cu (copper), for example.
  • Each pad electrode 264 is exposed on the surface of the wiring layer 262 .
  • Each pad electrode 264 is used for electrical connection between the second substrate 220 and the third substrate 230 and bonding between the second substrate 220 and the third substrate 230 .
  • the number of pad electrodes 264 does not necessarily have to be plural, and even one pad electrode 264 can be electrically connected to the logic circuit 52 .
  • the second substrate 220 and the third substrate 230 are electrically connected to each other by bonding the pad electrodes 258 and 264 together. That is, the gate (transfer gate TG) of the transfer transistor TR is electrically connected to the logic circuit 52 via the through wire 254 and the pad electrodes 258 and 264 .
  • the third substrate 230 is bonded to the second substrate 220 with the surface (surface 231S1) of the semiconductor substrate 231 facing the surface (surface 221S1) of the semiconductor substrate 221 . That is, the third substrate 230 is bonded face-to-face to the second substrate 220 .
  • the photodiode and the pixel transistor are provided on different substrates.
  • the area of the photodiode can be increased, and the sensitivity and saturation capacity can be increased.
  • the area of the pixel transistor can be increased.
  • RTS random telegraph noise
  • the gate lengths of the transistors SEL and RST are increased, variations in transistor characteristics such as threshold voltage (Vth) and cutoff can be reduced.
  • FIG. 12 shows an example in which the transistor FDG for switching the conversion efficiency is added, and the configurations of the pixel blocks (for example, the pixel blocks 100R and 100Gr) in that case are shown in FIGS. 37A to 37D.
  • FIG. 37A shows an example of the configuration of the pixel block 100Gr when adding the transistor FDG.
  • FIG. 37B shows another example of the configuration of the pixel block 100Gr when the transistor FDG is added.
  • FIG. 37C shows an example of the configuration of the pixel block 100R when the transistor FDG is added.
  • FIG. 37D shows another example of the configuration of the pixel block 100R when the transistor FDG is added.
  • a plurality of SubFDs may be arranged for one transistor FDG, or may be shared by a plurality of transistors FDG. Further, adjacent connection wirings FDL may serve as a plurality of SubFDs.
  • FIG. 38 shows various wirings (connection wirings SubFDL of a plurality of SubFDs, a plurality of control lines SELL, a plurality of signal lines VSL, a reference potential line VSS and a power line VDDL) together with the outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • FIG. 39 is a circuit diagram showing the structure of the pixel block shown in FIG. 38. Referring to FIG. In FIG. 39, a plurality of light-receiving pixels P forming each pixel block (pixel blocks 100Gb and 100R) are represented by one PD for simplification.
  • the pixel blocks 100R and 100B consisting of eight light-receiving pixels P and the pixel blocks 100Gr and 100Gb consisting of ten light-receiving pixels P may share the FD with each other via the SubFD.
  • SubFD is a metal wiring that is connected to a node between the FDG transistor and the RST transistor to ensure capacity during low conversion efficiency driving, and corresponds to a specific example of "conversion efficiency switching wiring" in the present disclosure. do.
  • the wiring (SubFD) for switching the conversion efficiency of the pixel block 100Gb adjacent in the Y-axis direction and the SubFD of the pixel block 100R are connected to each other via the connection wiring SubFDL. do.
  • one end of the connected SubFD is connected to the source of the transistor RST and the drain of the transistor FDG of the pixel block 100Gb, and the other end is connected to the source of the transistor RST and the drain of the transistor FDG of the pixel block 100R.
  • the SubFD of the pixel block 100B and the SubFD of the pixel block 100Gr that are adjacent in the Y-axis direction are electrically connected via the connection wiring SubFDL.
  • one end of the connected SubFD is connected to the source of the transistor RST and the drain of the transistor FDG in the pixel block 100B, and the other end is connected to the source of the transistor RST and the drain of the transistor FDG in the pixel block 100Gr. be.
  • FIG. 38 shows the line width of the connection wiring SubFDL to be narrower than the line width of SubFD for convenience, the present invention is not limited to this. In practice, the line width of the connection wiring SubFDL is formed to be equal to the line width of SubFD.
  • pixel blocks adjacent to each other in the Y-axis direction (for example, the pixel block 100Gb and the pixel block 100R, or the pixel block 100B and the pixel block 100Gr) efficiently use the capacity of the SubFD provided in each pixel block. It becomes possible to expand the dynamic range. In addition, it is possible to further reduce the conversion efficiency when the conversion efficiency is low (Low).
  • the conversion efficiency between the pixel blocks 100R and 100B composed of eight light-receiving pixels P and the pixel blocks 100Gr and 100Gr composed of ten light-receiving pixels P is difference occurs. Therefore, it is desirable to match the conversion efficiencies in the subsequent correction circuit.
  • the SubFD shared by the pixel blocks adjacent in the Y-axis direction is connected to the source of the transistor RST of each pixel block.
  • SubFD is fixed to the power supply potential (VDD). This reduces the FD-FD coupling capacitance. Therefore, it is possible to reduce color mixture of signals between pixel blocks sharing the SubFD.
  • FIG. 40 shows various wirings (connection wirings SubFDL of multiple SubFDs, multiple control lines SELL, multiple signal lines VSL, reference potential lines VSS, and power line VDDL) together with the outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • FIG. 41 is a circuit diagram showing the configuration of the pixel block shown in FIG. 40. Referring to FIG. In FIG. 41, a plurality of light-receiving pixels P forming each pixel block (pixel blocks 100Gb and 100R) are represented by one PD for simplification.
  • a part of the SubFD is dropped to another wiring layer (for example, the wiring layer 122) in the vicinity of the switching element 117 via a via, and the switching of the switching element 117 on/off enables connection and separation of the SubFD. to control.
  • another wiring layer for example, the wiring layer 122
  • the switching element 117 when the conversion efficiency is high (High), the switching element 117 is turned off, and when the conversion efficiency is low (Low), the switching element 117 is turned on.
  • the SubFD is in an electrically floating state when the conversion efficiency is high (High), so FD-FD coupling via the SubFD is suppressed. Therefore, it is possible to reduce color mixture of signals between pixel blocks sharing the SubFD (for example, between the pixel block 100Gb and the pixel block 100R, between the pixel block 100Gb and the pixel block 100B).
  • FIG. 42 is a circuit diagram showing the configuration of a pixel block according to Modification 7 of the present disclosure.
  • a plurality of light-receiving pixels P forming each pixel block are represented by one PD for simplification.
  • FIG. 43 is a timing chart of each transistor during high conversion efficiency driving and low conversion efficiency driving in the pixel block shown in FIG.
  • FIG. 44 is a circuit diagram showing the configuration of a pixel block according to Modification 8 of the present disclosure.
  • a plurality of light-receiving pixels P forming each pixel block are represented by one PD for simplification.
  • Transistor RST and transistor FDG may be connected in parallel to FD as shown in FIG.
  • FIG. 45 shows, for example, various wirings provided in the wiring layer 123 (multiple SubFD connection wirings SubFDL, multiple control lines SELL, multiple signal lines VSL, reference potential lines VSS, and power supply line VDDL) together with the outlines of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the pixel block 100Gb and the pixel block 100R which are adjacent in the Y-axis direction, share the SubFD
  • the pixel block 100B and the pixel block 100Gr share the SubFD
  • the present invention is limited to this. not a thing SubFD may be shared between the pixel block 100Gb and the pixel block 100B in the pixel block 100Gr and the pixel block 100R that are adjacent in the X-axis direction.
  • the degree of freedom in layout and drive design can be improved.
  • FIG. 47 shows a usage example of the imaging device 1 according to the above embodiment.
  • the imaging device 1 described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as follows.
  • ⁇ Devices that capture images for viewing purposes, such as digital cameras and mobile devices with camera functions
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Devices used in home appliances such as televisions, refrigerators, air conditioners, etc., endoscopes, and devices that perform angiography by receiving infrared light to capture images and operate devices according to gestures.
  • Devices used for medical and health care such as equipment used for security purposes such as monitoring cameras for crime prevention and cameras used for personal authentication, skin measuring instruments for photographing the skin, scalp Equipment used for beauty, such as a microscope for photographing Equipment used for sports, such as action cameras and wearable cameras for sports, etc. Cameras for monitoring the condition of fields and crops, etc. of agricultural equipment
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 48 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • vehicle control system 12000 includes drive system control unit 12010 , body system control unit 12020 , vehicle exterior information detection unit 12030 , vehicle interior information detection unit 12040 , and integrated control unit 12050 .
  • integrated control unit 12050 As the functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062 and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 49 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 49 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • An imaging device mounted on a vehicle can improve the image quality of a captured image.
  • the vehicle control system 12000 realizes a vehicle collision avoidance or collision mitigation function, a follow-up driving function based on the distance between vehicles, a vehicle speed maintenance driving function, a vehicle collision warning function, a vehicle lane deviation warning function, etc. with high accuracy. can.
  • the arrangement of the pixel blocks in the pixel array and the arrangement of the light-receiving pixels P in the pixel blocks are not limited to the arrangements described in the above embodiments and the like, and various arrangements are possible.
  • the present technology can be configured as follows. According to the present technology having the following configuration, it is possible to improve the image quality of a captured image. (1) each having a plurality of light-receiving pixels including color filters of the same color, and the plurality of light-receiving pixels are divided into a plurality of first pixel pairs each including two light-receiving pixels adjacent to each other in a first direction a plurality of blocks of pixels; a plurality of lenses respectively provided at positions corresponding to the plurality of first pixel pairs; and a plurality of floating diffusion layers disposed on boundaries between two light-receiving pixels of the plurality of first pixel pairs adjacent in the first direction and shared by the plurality of first pixel pairs. Imaging device.
  • a plurality of floating diffusion layer contacts are further provided on each of the plurality of floating diffusion layers, The plurality of floating diffusion layer contacts are arranged on a line segment passing through the center of each of the gates of the plurality of first transistors arranged to face each other along the first direction or together with the plurality of floating diffusion layers.
  • the first element isolation portion is formed including an insulating layer, The imaging device according to (4), wherein the plurality of floating diffusion layers are provided near the first element isolation section in plan view.
  • the first element isolation portion is formed including an impurity layer
  • a plurality of second elements provided between the plurality of second transistors adjacent in the first direction and electrically isolating the plurality of second transistors adjacent in the first direction from each other;
  • the imaging device according to (7), wherein the plurality of second element isolation portions are formed including an insulating layer or an impurity layer.
  • the plurality of light-receiving pixels are arranged periodically in the second direction with two light-receiving pixels adjacent in a second direction intersecting the first direction as a second pixel pair, and
  • the imaging device according to any one of (1) to (8), wherein the two second pixel pairs adjacent in the direction of have a mirror image structure.
  • a semiconductor device having a first surface and a second surface facing each other, wherein the plurality of light receiving pixels are arranged in a matrix and each of the plurality of light receiving portions is embedded in each of the plurality of light receiving pixels.
  • the imaging device according to any one of (3) to (9) above, provided on the surface of (11)
  • the imaging device wherein the first surface of the semiconductor substrate is further provided with a plurality of substrate contacts for applying a fixed potential to the semiconductor substrate.
  • the plurality of substrate contacts are provided between the plurality of second transistors provided along the first direction in plan view.
  • the plurality of substrate contacts are provided between the plurality of light receiving sections adjacent to each other in the first direction in plan view.
  • the plurality of pixel blocks (1) wherein, in each of the plurality of pixel blocks, the two first pixel pairs arranged in a second direction intersecting the first direction are arranged with a shift in the first direction;
  • the plurality of pixel blocks includes a first pixel block and a second pixel block; In the first pixel block, the plurality of light receiving pixels are arranged in a first arrangement pattern, The imaging device according to any one of (1) to (14), wherein in the second pixel block, the plurality of light receiving pixels are arranged in a second arrangement pattern.
  • the plurality of pixel blocks has two of the first pixel blocks and two of the second pixel blocks arranged in 2 rows ⁇ 2 columns as a minimum repeating unit;
  • the number of the plurality of light receiving pixels in the first pixel block is greater than the number of the plurality of light receiving pixels in the second pixel block; the plurality of light-receiving pixels included in the two first pixel blocks include the green color filter; the plurality of light-receiving pixels included in one of the two second pixel blocks includes the red color filter;
  • a plurality of light-receiving portions provided in each of the plurality of light-receiving pixels for generating charges according to the amount of light received by photoelectric conversion; a plurality of first transistors that transfer to A plurality of second transistors provided for each of the plurality of pixel blocks along the first direction at positions different from those of the plurality of first transistors in a second direction intersecting the first direction.
  • the plurality of floating diffusion layers, the plurality of first transistors, and the plurality of second transistors are arranged point-symmetrically with respect to the center of the minimum repeating unit in plan view.
  • the imaging device according to any one of the above.
  • the plurality of floating diffusion layers provided in one pixel block are connected to the amplifying transistor via a first wiring that is continuous with each other; In a wiring layer including the first wiring, a part of a control line connected to the plurality of first transistors provided in one pixel block is provided along the first wiring.
  • (22) further comprising a plurality of second transistors provided along the first direction for each of the plurality of pixel blocks; The plurality of second transistors are arranged periodically in each of the first direction and the second direction, and the repetition period in the first direction is greater than the repetition period in the second direction.
  • (23) The imaging device according to (22), wherein the repetition period in the first direction is twice the repetition period in the second direction.
  • a first substrate provided with the plurality of light receiving portions, the plurality of floating diffusion layers, and the first transistor; a second substrate provided with a readout circuit including the second transistor;
  • each gate of the plurality of first transistors is provided at a position deviated from a center portion of each of the plurality of light receiving pixels in a plan view;
  • the imaging device according to . The gates of the plurality of first transistors each have a vertical gate structure, and are deeper than the first element isolation portion, according to any one of (4) to (25).
  • Imaging device. The first pixel block and the second pixel block according to any one of (21) to (26), wherein the first pixel block and the second pixel block are electrically connected to each other via conversion efficiency switching wiring. imaging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一実施形態の撮像装置は、それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素を有し、複数の受光画素は、それぞれが第1の方向に隣り合う2つの受光画素を含む複数の第1の画素ペアに区分された複数の画素ブロックと、複数の第1の画素ペアに対応する位置にそれぞれ設けられた複数のレンズと、複数の第1の画素ペアの第1の方向に隣り合う2つの受光画素の境界に配置され、それぞれが複数の第1の画素ペアにおいて共有された複数の浮遊拡散層とを備える。

Description

撮像装置
 本開示は、被写体を撮像する撮像装置に関する。
 撮像装置には、例えばオートフォーカスを実現するために像面位相差を得るものがある。例えば、特許文献1には、通常画素と、像面位相差を得るための位相差検出画素とを備えた撮像装置が開示されている。
国際公開第2016/098640号
 撮像装置では、撮像画像の画質が高いことが望まれており、さらなる画質の向上が期待されている。
 画質を高めることができる撮像装置を提供することが望ましい。
 本開示の一実施の形態における撮像装置は、それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素を有し、複数の受光画素は、それぞれが第1の方向に隣り合う2つの受光画素を含む複数の第1の画素ペアに区分された複数の画素ブロックと、複数の第1の画素ペアに対応する位置にそれぞれ設けられた複数のレンズと、複数の第1の画素ペアの第1の方向に隣り合う2つの受光画素の境界に配置され、それぞれが複数の第1の画素ペアにおいて共有された複数の浮遊拡散層とを備えたものである。
 本開示の一実施の形態における撮像装置では、複数の画素ブロックのそれぞれにおいて、互いに同じ色のカラーフィルタを含む複数の受光画素が設けられる。これらの複数の受光画素は、それぞれが第1の方向に隣り合う2つの受光画素を含む複数の第1の画素ペアに区分されている。複数の第1の画素ペアに対応する位置には、複数のレンズがそれぞれ設けられる。更に、複数の第1の画素ペアのそれぞれは、第1の方向に隣り合う2つの受光画素の境界に配置された複数の浮遊拡散層を共有する。これにより、浮遊拡散層の容量を低減し、信号電荷を信号電圧に変換する効率を増加させてランダムノイズを低減する。
本開示の一実施の形態に係る撮像装置の一構成例を表すブロック図である。 図1に示した画素アレイの一構成例を表す説明図である。 図2に示した受光画素の断面構成の一例を表す模式図である。 図2に示した画素ブロックの一構成例を表す回路図である。 図2に示した他の画素ブロックの一構成例を表す回路図である。 図2に示した受光画素の平面配列の一例を表す説明図である。 図2に示した受光画素の平面配列の他の例を表す模式図である。 図2に示した画素ブロックにおける画素トランジスタの平面配列の一例を表す説明図である。 図2に示した受光画素における浮遊拡散層の平面配置の一例を表す説明図である。 図2に示した受光画素における浮遊拡散層の平面配置の他の例を表す説明図である。 図2に示した画素ブロックにおける画素トランジスタの平面配列の他の例を表す説明図である。 図2に示した画素ブロックにおける画素トランジスタの平面配列の他の例を表す説明図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図2に示した画素ブロックにおける配線レイアウト例を説明する平面図である。 図1に示した読出部の一構成例を表すブロック図である。 図1に示した画像信号の一構成例を表す説明図である。 図1に示した撮像装置における有効画素数の一例を表す説明図である。 図1に示した撮像装置における複数の撮像モードの一動作例を表す説明図である。 図1に示した撮像装置の一動作例を表す説明図である。 図1に示した撮像装置における読出動作の一例を表すタイミング波形図である。 図1に示した撮像装置の一動作例を表す他の説明図である。 図1に示した撮像装置の一動作例を表す他の説明図である。 図1に示した撮像装置の一動作例を表す他の説明図である。 図1に示した撮像装置の一動作例を表す他の説明図である。 図1に示した撮像装置におけるリモザイク処理の一例を表す説明図である。 図30に示したリモザイク処理の一例を表す説明図である。 図30に示したリモザイク処理の一例を表す他の説明図である。 図30に示したリモザイク処理の一例を表す他の説明図である。 本開示の変形例1に係る撮像装置を構成する画素ブロックにおける画素トランジスタの平面配列の一例を表す説明図である。 本開示の変形例2に係る撮像装置を構成する画素ブロックの他の構成例を表す説明図である。 実施の形態等の撮像装置(A)および図33に示した撮像装置(B)における画素トランジスタおよび電源電圧の配置例を表す図である。 本開示の変形例3に係る撮像装置の垂直方向の断面構成の一例を表す模式図である。 図35に示した撮像装置の概略構成の一例を表す図である。 画素トランジスタとしてトランジスタFDGを追加した際の画素ブロックの構成の一例を表す回路図である。 画素トランジスタとしてトランジスタFDGを追加した際の画素ブロックの構成の他の例を表す回路図である。 画素トランジスタとしてトランジスタFDGを追加した際の他の画素ブロックの構成の一例を表す回路図である。 画素トランジスタとしてトランジスタFDGを追加した際の他の画素ブロックの構成の他の例を表す回路図である。 本開示の変形例5に係る画素ブロックにおける配線レイアウト例を説明する平面図である。 図38に示した画素ブロックの構成を表す回路図である。 本開示の変形例6に係る画素ブロックにおける配線レイアウト例を説明する平面図である。 図40に示した画素ブロックの構成を表す回路図である。 本開示の変形例8に係る画素ブロック構成を表す回路図である。 図42に示した画素ブロックのタイミングチャート図である。 本開示の変形例9に係る撮像装置を構成表す回路図である。 本開示の変形例10に係る画素ブロックにおける配線レイアウト例を説明する平面図である。 図45に示した画素ブロックの構成を表す回路図である。 撮像装置の使用例を表す説明図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
3.撮像装置の使用例
4.移動体への応用例
<1.実施の形態>
[構成例]
 図1は、本開示の一実施の形態に係る撮像装置(撮像装置1)の一構成例を表したものである。撮像装置1は、画素アレイ11と、駆動部12と、参照信号生成部13と、読出部20と、信号処理部15と、撮像制御部18とを備えている。
 画素アレイ11は、マトリクス状に配置された複数の受光画素Pを有している。受光画素Pは、受光量に応じた画素電圧Vpixを含む信号SIGを生成するように構成される。
 図2は、画素アレイ11における受光画素Pの配置の一例を表したものである。図3は、画素アレイ11の概略断面構造の一例を表したものである。なお、図3は、図6に示したI-I’線に対応する断面を表している。画素アレイ11は、複数の画素ブロック100と、複数のレンズ101とを有している。
 複数の画素ブロック100は、画素ブロック100R,100Gr,100Gb,100Bを含んでいる。画素アレイ11では、複数の受光画素Pは、4つの画素ブロック100(画素ブロック100R,100Gr,100Gb,100B)を最小繰り返し単位(ユニットU)として配置される。
 画素ブロック100Rは、例えば赤色(R)のカラーフィルタ131を含む、例えば8個の受光画素P(受光画素PR)を有する。画素ブロック100Grは、例えば緑色(G)のカラーフィルタ131を含む、例えば10個の受光画素P(受光画素PGr)を有する。画素ブロック100Gbは、例えば緑色(G)のカラーフィルタ131を含む、例えば10個の受光画素P(受光画素PGb)を有する。画素ブロック100Bは、例えば青色(B)のカラーフィルタ131を含む、例えば8個の受光画素P(受光画素PB)を有する。図2では、カラーフィルタの色の違いを、網掛けを用いて表現している。画素ブロック100Rにおける受光画素PRの配置パターンおよび画素ブロック100Bにおける受光画素PBの配置パターンは、互いに同じであり、画素ブロック100Grにおける受光画素PGrの配置パターンおよび画素ブロック100Gbにおける受光画素PGbの配置パターンは、互いに同じである。
 ユニットUにおいて、画素ブロック100R,100Gr,100Gb,100Bは、例えば2行×2列で配置される。具体的には、互いに同じ配置パターンを有する画素ブロック100Rおよび画素ブロック100Bと、画素ブロック100Grおよび画素ブロック100Gbとは、互いに交差する対角線上に配置される。一例として、画素ブロック100Grは左上に配置され、画素ブロック100Rは右上に配置され、画素ブロック100Bは左下に配置され、画素ブロック100Gbは右下に配置される。このように、画素ブロック100R,100Gr,100Gb,100Bは、画素ブロック100を単位として、いわゆるベイヤー配列により配列される。
 ここで、受光画素Pは、本開示における「受光画素」の一具体例に相当する。画素ペア90Aは、本開示における「第1の画素ペア」の一具体例に相当する。画素ブロック100は、本開示における「画素ブロック」の一具体例に相当する。例えば、画素ブロック100Grおよび画素ブロック100Gbは、本開示における「第1の画素ブロック」の一具体例に相当する。例えば、画素ブロック100Rおよび画素ブロック100Bは、本開示における「第2の画素ブロック」の一具体例に相当する。レンズ101は、本開示における「レンズ」の一具体例に相当する。
 図3に示したように、画素アレイ11は、例えば、半導体基板111と、受光部112と、画素分離部113と、多層配線層121と、カラーフィルタ131と、遮光膜132とを備えている。
 半導体基板111は、撮像装置1が形成される支持基板である。半導体基板111は、対向する一対の面(表面111S1および裏面111S2)を有する、例えばP型の半導体基板である。受光部112は、半導体基板111の基板内における、複数の受光画素Pのそれぞれに対応する位置に埋め込み形成された半導体領域であり、例えばN型の不純物がドーピングされることによりフォトダイオード(PD)が形成される。画素分離部113は、半導体基板111の基板内における、XY平面において隣り合う複数の受光画素Pの境界に設けられ、例えば、酸化膜等の絶縁材料を用いて構成されるDTI(Deep Trench Isolation)である。
 多層配線層121は、画素アレイ11の光入射側Sとは反対の面である半導体基板111の表面111S1の上に設けられる。多層配線層121は、例えば、複数の配線層122~127および層間絶縁層128を含んでいる。複数の配線層122~127は、半導体基板111の裏面111S2側から順に設けられる。複数の配線層122~127には、例えば、半導体基板111の表面111S1に設けられる複数のトランジスタと、駆動部12および読出部20とを接続する、例えば後述する制御線TRGL等の複数の配線が設けられる。
 カラーフィルタ131は、画素アレイ11の光入射側Sである半導体基板111の裏面111S2の上に設けられる。遮光膜132は、半導体基板111の裏面111S2において、X軸方向に隣り合う2つの受光画素P(以下、画素ペア90Aとも呼ぶ)を囲むように設けられる。
 複数のレンズ101は、いわゆるオンチップレンズであり、画素アレイ11の光入射側Sにおけるカラーフィルタ131の上に設けられる。レンズ101は、X軸方向に隣り合う2つの受光画素P(画素ペア90A)の上部に設けられる。画素ブロック100Rの8個の受光画素Pの上部には4つのレンズ101が設けられる。画素ブロック100Grの10個の受光画素Pの上部には5つのレンズ101が設けられる。画素ブロック100Gbの10個の受光画素Pの上部には5つのレンズ101が設けられる。画素ブロック100Bの8個の受光画素Pの上部には4つのレンズ101が設けられる。レンズ101は、X軸方向およびY軸方向において並設される。Y軸方向に並ぶレンズ101は、X軸方向において、1つの受光画素Pの分だけずれて配置される。換言すると、Y軸方向に並ぶ画素ペア90Aは、X軸方向において、1つの受光画素Pの分だけずれて配置される。
 この構成により、1つのレンズ101に対応する画素ペア90Aにおける2つの受光画素Pでは、像が互いにずれる。撮像装置1は、複数の画素ペア90Aにより検出されたいわゆる像面位相差に基づいて位相差データDFを生成する。例えば、撮像装置1を搭載したカメラでは、この位相差データDFに基づいてデフォーカス量を決定し、このデフォーカス量に基づいて、撮影レンズの位置を移動させる。このようにして、カメラでは、オートフォーカスを実現することができるようになっている。
 図4は、画素ブロック100Grの一構成例を表したものである。図5は、画素ブロック100Rの一構成例を表したものである。
 画素アレイ11は、複数の制御線TRGLと、複数の制御線RSTLと、複数の制御線SELLと、複数の信号線VSLとを有している。制御線TRGLは、本開示における「制御線」の一具体例に対応する。制御線TRGLは、例えばX軸方向(例えば、図16~図18参照)に延伸し、一端が駆動部12に接続される。この制御線TRGLには、駆動部12により制御信号STRGが供給される。制御線RSTLは、例えばX軸方向(例えば、図16参照)に延伸し、一端が駆動部12に接続される。この制御線RSTLには、駆動部12により制御信号SRSTが供給される。制御線SELLは、例えばX軸方向(例えば、図16参照)に延伸し、一端が駆動部12に接続される。この制御線SELLには、駆動部12により制御信号SSELが供給される。信号線VSLは、例えばY軸方向(例えば、図19参照)に延伸し、一端が読出部20に接続される。この信号線VSLは、受光画素Pが生成した信号SIGを読出部20に伝える。
 画素ブロック100Gr(図4)は、例えば、10個のフォトダイオードと、10個のトランジスタTRGと、5個の浮遊拡散層(FD)と、画素トランジスタとしてそれぞれ1個のトランジスタRST,AMP,SELとを有している。10個のフォトダイオードおよび10個のトランジスタTRGは、画素ブロック100Grに含まれる10個の受光画素PGrにそれぞれ対応する。5個の浮遊拡散層のそれぞれは、画素ペア90A毎に1個ずつ配置される。換言すると、5個の浮遊拡散層のそれぞれは、画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pによって共有される。トランジスタTRG,RST,AMP,SELは、この例ではN型のMOS(Metal Oxide Semiconductor)トランジスタである。5個の浮遊拡散層およびトランジスタTRG,RST,AMP,SELは、それぞれ、半導体基板111の表面111S1に設けられる。
 フォトダイオードは、受光量に応じた量の電荷を生成し、生成した電荷を内部に蓄積する光電変換素子である。フォトダイオードのアノードは接地され、カソードはトランジスタTRGのソースに接続される。
 トランジスタTRGは、フォトダイオードで生成された電荷を浮遊拡散層に転送する。トランジスタTRGのゲートは制御線TRGLに接続され、ソースはフォトダイオードのカソードに接続され、ドレインは浮遊拡散層に接続される。10個のトランジスタTRGのゲートは、10本の制御線TRGL(この例では、制御線TRGL1~TRGL6,TRGL9~TRGL12)のうちの互いに異なる制御線TRGLに接続される。
 浮遊拡散層は、フォトダイオードからトランジスタTRGを介して転送された電荷を蓄積するように構成される。浮遊拡散層は、例えば、半導体基板の表面に形成された拡散層を用いて構成される。
 トランジスタRSTのゲートは制御線RSTLに接続され、ドレインには電源電圧VDDが供給され、ソースは浮遊拡散層に接続される。
 トランジスタAMPのゲートは浮遊拡散層に接続され、ドレインには電源電圧VDDが供給され、ソースはトランジスタSELのドレインに接続される。
 トランジスタSELのゲートは制御線SELLに接続され、ドレインはトランジスタAMPのソースに接続され、ソースは信号線VSLに接続される。
 ここで、トランジスタTRGは、本開示における「第1のトランジスタ」の一具体例に対応する。浮遊拡散層は、本開示の「浮遊拡散層」の一具体例に対応する。トランジスタRST,AMP,SELを含む画素トランジスタは、本開示の「第2のトランジスタ」の一具体例に対応する。
 この構成により、受光画素Pでは、例えば制御信号STRG,SRSTに基づいてトランジスタTRG,RSTがオン状態になることにより、フォトダイオードに蓄積された電荷が排出される。そして、これらのトランジスタTRG,RSTがオフ状態になることにより、露光期間Tが開始され、フォトダイオードに、受光量に応じた量の電荷が蓄積される。そして、露光期間Tが終了した後に、受光画素Pは、リセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力する。具体的には、まず、制御信号SSELに基づいてトランジスタSELがオン状態になることにより、受光画素Pが信号線VSLと電気的に接続される。これにより、トランジスタAMPは、読出部20の定電流源21(後述)に接続され、いわゆるソースフォロワとして動作する。そして、受光画素Pは、後述するように、トランジスタRSTがオン状態になることにより浮遊拡散層の電圧がリセットされた後のP相(Pre-charge相)期間TPにおいて、その時の浮遊拡散層の電圧に応じた電圧をリセット電圧Vresetとして出力する。また、受光画素Pは、トランジスタTRGがオン状態になることによりフォトダイオードから浮遊拡散層へ電荷が転送された後のD相(Data相)期間TDにおいて、その時の浮遊拡散層の電圧に応じた電圧を画素電圧Vpixとして出力する。画素電圧Vpixとリセット電圧Vresetとの差電圧は、露光期間Tにおける受光画素Pの受光量に対応する。このようにして、受光画素Pは、これらのリセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力するようになっている。
 画素ブロック100R(図5)は、8個のフォトダイオードと、8個のトランジスタTRGと、4個の浮遊拡散層と、画素トランジスタとしてそれぞれ1個のトランジスタRST,AMP,SELとを有している。8個のフォトダイオードおよび8個のトランジスタTRGは、画素ブロック100Rに含まれる8個の受光画素PRにそれぞれ対応している。8個のトランジスタTRGのゲートは、8本の制御線TRGL(この例では、制御線TRGL1,TRGL2,TRGL5~TRGL10)のうちの互いに異なる制御線TRGLに接続される。4個の浮遊拡散層のそれぞれは、画素ブロック100Grと同様に、画素ペア90A毎に1個ずつ配置され、画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pによって共有される。4個の浮遊拡散層およびトランジスタTRG,RST,AMP,SELは、それぞれ、半導体基板111の表面111S1に設けられる。
 画素ブロック100Bは、画素ブロック100R(図5)と同様に、8個のフォトダイオードと、8個のトランジスタTRGと、4個の浮遊拡散層と、画素トランジスタとしてそれぞれ1個のトランジスタRST,AMP,SELとを有している。8個のフォトダイオードおよび8個のトランジスタTRGは、画素ブロック100Bに含まれる8個の受光画素PBにそれぞれ対応している。8個のトランジスタTRGのゲートは、8本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。4個の浮遊拡散層のそれぞれは、画素ブロック100Grと同様に、画素ペア90A毎に1個ずつ配置され、画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pによって共有される。4個の浮遊拡散層およびトランジスタTRG,RST,AMP,SELは、それぞれ、半導体基板111の表面111S1に設けられる。
 画素ブロック100Gbは、画素ブロック100Gr(図4)と同様に、10個のフォトダイオードと、10個のトランジスタTRGと、5個の浮遊拡散層と、画素トランジスタとしてそれぞれ1個のトランジスタRST,AMP,SELとを有している。10個のフォトダイオードおよび10個のトランジスタTRGは、画素ブロック100Gbに含まれる10個の受光画素PGbにそれぞれ対応している。10個のトランジスタTRGのゲートは、10本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。5個の浮遊拡散層のそれぞれは、画素ペア90A毎に1個ずつ配置され、画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pによって共有される。5個の浮遊拡散層およびトランジスタTRG,RST,AMP,SELは、それぞれ、半導体基板111の表面111S1に設けられる。
 図6は、画素ブロック100R,100Gr,100Gb,100Bを構成する複数の受光画素Pのそれぞれにおける平面構成の一例を表したものである。
 上記のように、画素ブロック100R,100Gr,100Gb,100Bのそれぞれに設けられた5個または4個の浮遊拡散層は、画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pによって共有される。具体的には、図6に示したように、浮遊拡散層は画素ペア90Aを構成するX軸方向に隣り合う2つの受光画素Pの境界に配置される。
 画素ブロック100R,100Gr,100Gb,100Bのそれぞれに設けられた10個または8個のトランジスタTRGは、各画素ブロック100R,100Gr,100Gb,100Bを構成する10個または8個の受光画素Pのそれぞれに1個ずつ設けられる。例えば、各受光画素Pに設けられたトランジスタTRGのゲートは、図6に示したように、画素ペア90A毎に、X軸方向に隣り合う2つの受光画素Pの境界に配置された浮遊拡散層を間にしてX軸方向に沿って対向配置される。また、画素ペア90A毎に設けられた1つの浮遊拡散層および対向配置された2つのトランジスタTRGのゲートは、それぞれ、例えば図6に示したように、各画素ペア90AにおいてY軸方向に対向する一対の辺の一方(例えば、紙面下方の辺)側に偏って配置される。
 なお、画素ペア90A毎に設けられた1つの浮遊拡散層および対向配置された2つのトランジスタTRGのゲートの位置はこれに限定されない。画素ペア90A毎に設けられた1つの浮遊拡散層および対向配置された2つのトランジスタTRGのゲートは、例えば図7に示したように、1行おきにY軸方向に対向する一対の辺の一方(例えば、紙面下方の辺)と他方(例えば、紙面下方の辺)側に偏って配置するようにしてもよい。
 更に、画素ブロック100R,100Gr,100Gb,100Bを構成する複数の受光画素Pは、例えば図6に示したように、Y軸方向に隣り合う2つの受光画素Pを画素ペア90BとしてY軸方向に周期的に配置される。更に、X軸方向に隣り合う2つの受光画素Pを画素ペア90Bは、例えば図6に示したように、互いに鏡像構造を有する。
 図8は、画素ブロック100R,100Gr,100Gb,100B毎に設けられた画素トランジスタの平面配列の一例を表したものである。
 画素トランジスタは、トランジスタRST,AMP,SELを含んでおり、画素ブロック100R,100Gr,100Gb,100B毎に1個ずつ設けられる。換言すると、画素ブロック100R,100Gr,100Gb,100BからなるユニットUは12個の画素トランジスタ(RST-R,RST-Gr,RST-Gb,RST-B、AMP-R,AMP-Gr,AMP-Gb,AMP-B、SEL-R,SEL-Gr,SEL-Gb,SEL-B)を有する。
なお、各画素トランジスタの符号の末尾に付したR,Gr,Gb,Bは、それらが設けられる画素ブロック100R,100Gr,100Gb,100Bに対応する。画素ブロック100R,100Gr,100Gb,100Bのそれぞれに設けられた各画素トランジスタを互いに区別する必要がない場合には、末尾のR,Gr,Gb,Bを省略する。
 12個の画素トランジスタは、例えば4個ずつ3つのグループ(例えば、[RST-Gr,RST-B/RST-R/RST-Gb]/[AMP-Gr/SEL-Gr/SEL-R/AMP-R]/[AMP-B/SEL-B/SEL-Gb/AMP-Gb])に分けて設けられる。各グループの4個の画素トランジスタは、例えばX軸方向に沿って並設される。例えば、図7に示したように、画素ペア90A毎に設けられた1つの浮遊拡散層および対向配置された2つのトランジスタTRGのゲートを1行おきにY軸方向に対向する一対の辺の一方(例えば、紙面下方の辺)と他方(例えば、紙面下方の辺)側に偏って配置する場合には、例えば図8に示したように、Y軸方向に隣り合う2つの受光画素Pの境界に各グループの4個の画素トランジスタを並設する。このようにY軸方向に隣り合う2つの受光画素Pの境界に各グループの4個の画素トランジスタは、Y軸方向に隣り合う2つの受光画素Pの間で互いに共有される。これにより、面積効率が向上する。また、各グループオン4個の画素トランジスタは、X軸方向およびY軸方向のそれぞれに周期的に配置されており、X軸方向の周期は、Y軸方向の周期よりも大きく、例えば2倍となっている。
 X軸方向に沿って並設される複数の画素トランジスタの、平面視における上下および並設される複数の画素トランジスタの間には、それぞれ、素子分離部115,116が設けられる。素子分離部115は、トランジスタTRG,RST,AMP,SELのソース/ドレインを構成する半導体基板111の表面111S1に設けられたN型の不純物が拡散された拡散領域114と、受光部112とを電気的に分離するものである。素子分離部116は、並設される複数の画素トランジスタの間を適宜電気的に分離するものである。素子分離部115,116は、それぞれ、例えば、絶縁層を用いて形成されたSTI(Shallow Trench Isolation)、または不純物層として半導体基板111の表面111S1に設けられる。
 素子分離部115をSTIで構成する場合には、浮遊拡散層は、例えば図9に示したように、X軸方向に沿って対向配置されたトランジスタTRGのそれぞれのゲートの中心を通る線分に対して素子分離部115寄りに形成し、例えば素子分離部に接触させる。STIピニングをとるためのP型拡散層を敢えて注入しないことで、P型拡散層と浮遊拡散層(N型拡散層)との間に生じるPN接合の電界がなくなり、浮遊拡散層の白点が抑制される。なお、STIピニングを取らないことでSTIから暗電流が発生するが、この暗電流の深部へのパスを遮断し、浮遊拡散層側へ流れるようにポテンシャル設計を工夫することで、発生した暗電流を浮遊拡散層へ蓄積する。浮遊拡散層に蓄積された暗電流は信号電荷を読み出す際の相関二重サンプリング(CDS)動作で除去することができる。浮遊拡散層上に設けられるコンタクト(浮遊拡散層コンタクト)も、浮遊拡散層と同様に、軸方向に沿って対向配置されたトランジスタTRGのそれぞれのゲートの中心を通る線分に対して素子分離部115寄りに形成される。
 素子分離部115を不純物層で構成する場合には、浮遊拡散層は、例えば図10に示したように、X軸方向に沿って対向配置されたトランジスタTRGのそれぞれのゲートの中心を通る線分に対して素子分離部115から遠ざかるように配置される。これにより、素子分離部115と浮遊拡散層との間に生じる電界を緩和し、浮遊拡散層の白点化が抑制される。浮遊拡散層上に設けられるコンタクト(浮遊拡散層コンタクト)も、浮遊拡散層と同様に、X軸方向に沿って対向配置されたトランジスタTRGのそれぞれのゲートの中心を通る線分に対して素子分離部115から遠ざかるように形成される。
 なお、フォトダイオードと画素トランジスタとの分離のための素子分離部115は、不純物層を用いて形成することが好ましい。これにより、P型イオンのドーズ量を少なくできるため、STIとして形成した場合と比較して、浮遊拡散層の白点化をより抑制することができる。また、隣接する受光画素Pの画素トランジスタ間の素子分離部116は、STIで形成することが好ましい。これにより、分離に必要なスペースを削減することができため、画素トランジスタのチャネル長やゲート幅を拡大できる。
 各画素ブロック100R,100Gr,100Gb,100B毎に並設される画素トランジスタの間には、半導体基板111に対して固定電荷を印加するためのウェルコンタクト領域WellConが設けるようにしてもよい。これにより、受光部112の直下に配置する場合(図3の下側)と比較して、受光部112周辺の表面電界を低減することができる。ウェルコンタクト領域WellConは、本開示の「基板コンタクト」の一具体例に相当するものである。また、拡散領域114は、例えば図11に示したように、並設される画素トランジスタの間で共有化してもよい。これにより、画素トランジスタの形成面積を削減することができる。更に、変換効率を切り替えるためにトランジスタFDGをさらに設けるようにしてもよい。その際には、例えば図12に示したように、画素ブロック100Gr,100GbではトランジスタAMP,SELとトランジスタRST,FDGとを互いに異なる行に配置し、画素ブロック100R,100BではトランジスタAMP,SEL,RST,FDGを同じ行に配置する。これにより、トランジスタRST,FDGの制御線RSTL,FDGLをX軸方向に並設される画素ブロック100Rと画素ブロック100Gr、画素ブロック100Gbと画素ブロック100Bで共有できるようになり、制御配線の本数を減らすことができる。なお、トランジスタFDGは、トランジスタRST,AMP,SELと同様に、本開示の「第2のトランジスタ」の一具体例に相当する。また、図12に示した各画素トランジスタの配置は一例であり、これに限定されるものではない。例えば、図12では画素ブロック100R,100BにトランジスタSEL,AMP,RST,FDGを配置し、画素ブロック100Gr,100GbにトランジスタRST,FDGを配置した例を示したが、画素ブロック100Gr,100GbにトランジスタSEL,AMP,RST,FDGを配置し、画素ブロック100R,100BにトランジスタRST,FDGを配置するようにしてもよい。
 更に、本実施の形態では、ユニットUに設けられた複数の浮遊拡散層、複数のトランジスタTRGのゲート、画素ブロック100R,100Gr,100Gb,100B毎に設けられた複数の画素トランジスタ(トランジスタRST,AMP,SEL,FDG)および各種配線(複数の接続配線FDL、複数の制御線TRGL,RSTL,SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)は、それぞれ、ユニットUの中心に対して点対称に配置される。
 図13は、半導体基板111の表面111S1に設けられる複数の浮遊拡散層、複数のトランジスタTRGのゲート、画素ブロック100R,100Gr,100Gb,100B毎に設けられた複数の画素トランジスタ(トランジスタRST,AMP,SEL,FDG)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図14は、例えば配線層122に設けられた各種配線(複数のFDの接続配線FDL、複数の制御線TRGL,RSTL,SELL,FDGL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図15は、例えば配線層123に設けられた各種配線(複数のSubFDの接続配線SubFDL、複数の制御線TRGL,RSTL,SELL,FDGL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図16は、例えば配線層124に設けられた各種配線(複数の制御線TRGL,RSTL,SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図17は、例えば配線層125に設けられた各種配線(複数の制御線TRGL,FDGL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図18は、例えば配線層126に設けられた各種配線(複数の制御線TRGL,FDGL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図19は、例えば配線層127に設けられた各種配線(複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。半導体基板111の表面111S1に設けられた複数の浮遊拡散層、複数のトランジスタTRGのゲート、画素ブロック100R,100Gr,100Gb,100B毎に設けられた複数の画素トランジスタ(トランジスタRST,AMP,SEL,FDG)および各配線層122~127にそれぞれ設けられた各種配線(複数の接続配線FDL、複数の制御線TRGL,RSTL,SELL,FDGL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)は、それぞれ、ユニットUの中心(図中星印)に対して点対称に配置される。
 これにより、互いに同じ受光画素Pの配置パターンを有する、画素ブロック100Grと画素ブロック100Gbおよび画素ブロックRと画素ブロックBの変換効率が同等となる。よって、後段処理での補正回路を簡略化することができる。また、容量特性も同等となるため、特性のばらつきを低減することができる。
 各画素ブロック100R,100Gr,100Gb,100Bにおいて4個または5個の浮遊拡散層とトランジスタAMPのゲートとを接続する接続配線FDLを含む配線層122では、例えば図14に示したように、複数の制御線TRGLが接続配線FDLに沿うように設けられる。これにより、接続配線FDLと制御線TRGLとのカップリングが向上すると共に、接続配線FDLとその他の複数の制御線RSTL,SELL,FDGLおよび複数の信号線VSLとのカップリングが抑制される。よって、制御線TRGLによる転送補助効果が向上する。
 駆動部12(図1)は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを駆動するように構成される。具体的には、駆動部12は、画素アレイ11における複数の制御線TRGLに複数の制御信号STRGをそれぞれ供給し、複数の制御線RSTLに複数の制御信号SRSTをそれぞれ供給し、複数の制御線SELLに複数の制御信号SSELをそれぞれ供給することにより、画素アレイ11における複数の受光画素Pを駆動するようになっている。
 参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成するように構成される。参照信号RAMPは、読出部20がAD変換を行う期間(P相期間TPおよびD相期間TD)において、時間の経過に応じて電圧レベルが徐々に変化する、いわゆるランプ波形を有する。参照信号生成部13は、このような参照信号RAMPを読出部20に供給するようになっている。
 読出部20は、撮像制御部18からの指示に基づいて、画素アレイ11から信号線VSLを介して供給された信号SIGに基づいてAD変換を行うことにより、画像信号Spic0を生成するように構成される。
 図20は、読出部20の一構成例を表したものである。なお、図20には、読出部20に加え、参照信号生成部13、信号処理部15、および撮像制御部18をも描いている。読出部20は、複数の定電流源21と、複数のAD(Analog to Digital)変換部ADCと、転送制御部27とを有している。複数の定電流源21および複数のAD変換部ADCは、複数の信号線VSLに対応してそれぞれ設けられる。以下に、ある1つの信号線VSLに対応する定電流源21およびAD変換部ADCについて説明する。
 定電流源21は、対応する信号線VSLに所定の電流を流すように構成される。定電流源21の一端は、対応する信号線VSLに接続され、他端は接地される。
 AD変換部ADCは、対応する信号線VSLにおける信号SIGに基づいてAD変換を行うように構成される。AD変換部ADCは、容量素子22,23と、比較回路24と、カウンタ25と、ラッチ26とを有している。
 容量素子22の一端は信号線VSLに接続されるとともに信号SIGが供給され、他端は比較回路24に接続される。容量素子23の一端には参照信号生成部13から供給された参照信号RAMPが供給され、他端は比較回路24に接続される。
 比較回路24は、受光画素Pから信号線VSLおよび容量素子22を介して供給された信号SIG、および参照信号生成部13から容量素子23を介して供給された参照信号RAMPに基づいて、比較動作を行うことにより信号CPを生成するように構成される。比較回路24は、撮像制御部18から供給された制御信号AZに基づいて、容量素子22,23の電圧を設定することにより動作点を設定する。そしてその後に、比較回路24は、P相期間TPにおいて、信号SIGに含まれるリセット電圧Vresetと、参照信号RAMPの電圧とを比較する比較動作を行い、D相期間TDにおいて、信号SIGに含まれる画素電圧Vpixと、参照信号RAMPの電圧とを比較する比較動作を行うようになっている。
 カウンタ25は、比較回路24から供給された信号CPに基づいて、撮像制御部18から供給されたクロック信号CLKのパルスをカウントするカウント動作を行うように構成される。具体的には、カウンタ25は、P相期間TPにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTPを生成し、このカウント値CNTPを、複数のビットを有するデジタルコードとして出力する。また、カウンタ25は、D相期間TDにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTDを生成し、このカウント値CNTDを、複数のビットを有するデジタルコードとして出力するようになっている。
ラッチ26は、カウンタ25から供給されたデジタルコードを一時的に保持するとともに、転送制御部27からの指示に基づいて、そのデジタルコードをバス配線BUSに出力するように構成される。
 転送制御部27は、撮像制御部18から供給された制御信号CTLに基づいて、複数のAD変換部ADCのラッチ26が、デジタルコードをバス配線BUSに順次出力させるように制御するように構成される。読出部20は、このバス配線BUSを用いて、複数のAD変換部ADCから供給された複数のデジタルコードを、画像信号Spic0として、信号処理部15に順次転送するようになっている。
 信号処理部15(図1)は、画像信号Spic0および撮像制御部18からの指示に基づいて、所定の信号処理を行うことにより画像信号Spicを生成するように構成される。信号処理部15は、画像データ生成部16と、位相差データ生成部17とを有している。画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成するように構成される。位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成するように構成される。信号処理部15は、画像データ生成部16により生成された画像データDP、および位相差データ生成部17により生成された位相差データDFを含む画像信号Spicを生成する。
 図21は、画像信号Spicの一例を表したものである。信号処理部15は、例えば、複数行分の受光画素Pに係る画像データDPと、複数行分の受光画素Pに係る位相差データDFを交互に配置することにより、画像信号Spicを生成する。そして、信号処理部15は、
このような画像信号Spicを出力するようになっている。
 撮像制御部18は、駆動部12、参照信号生成部13、読出部20および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御するように構成される。撮像制御部18には、外部から制御信号Sctlが供給される。この制御信号Sctlは、例えば、いわゆる電子ズームのズーム倍率についての情報を含む。撮像制御部18は、制御信号Sctlに基づいて、撮像装置1の動作を制御するようになっている。
[動作および作用]
 続いて、本実施の形態の撮像装置1の動作および作用について説明する。
(全体動作概要)
 まず、図1および図20を参照して、撮像装置1の全体動作概要を説明する。駆動部12は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを順次駆動する。参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成する。受光画素Pは、P相期間TPにおいて、リセット電圧Vresetを信号SIGとして出力し、D相期間TDにおいて、受光量に応じた画素電圧Vpixを信号SIGとして出力する。読出部20は、画素アレイ11から信号線VSLを介して供給された信号SIG、および撮像制御部18からの指示に基づいて、画像信号Spic0を生成する。信号処理部15において、画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成し、位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。そして、信号処理部15は、画像データDPおよび位相差データDFを含む画像信号Spicを生成する。撮像制御部18は、駆動部12、参照信号生成部13、読出部20、および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御する。
(詳細動作)
 撮像制御部18は、電子ズームのズーム倍率についての情報を含む制御信号Sctlに基づいて、撮像装置1の動作を制御する。以下に、撮像装置1におけるズーム動作について説明する。
 図22は、ズーム倍率を1倍から10倍まで変化させた場合における、撮像画像に係る受光画素Pの数(有効画素数)の一例を表したものである。図22において、実線は、撮像装置1の有効画素数を示している。図23は、撮像装置1におけるズーム動作の一例を表したものであり、(A)はズーム倍率が1倍である場合における動作を示し、(B)はズーム倍率が2倍である場合における動作を示し、(C)はズーム倍率が3倍である場合における動作を示す。
 撮像装置1は、3つの撮像モードM(撮像モードMA,MB,MC)を有している。撮像制御部18は、制御信号Sctlに含まれるズーム倍率についての情報に基づいて、3つの撮像モードMA~MCのうちの1つを選択する。具体的には、撮像制御部18は、図22において示したように、ズーム倍率が2未満である場合には撮像モードMAを選択し、ズーム倍率が2以上3未満である場合には撮像モードMBを選択し、ズーム倍率が3以上である場合には撮像モードMCを選択する。
 撮像モードMAでは、図23(A)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、4つの画素値V(画素値VR,VGr,VGb,VB)を得る。具体的な動作については、後述する。このように、撮像装置1は、36個の受光画素Pに対して4個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、12[Mpix]分の画素値Vが算出される。これにより、図22に示したように、有効画素数は、12[Mpix]となる。
 図22に示したように、この撮像モードMAにおいて、ズーム倍率を1から増やすと、倍率に応じて、有効画素数が低下していく。そして、ズーム倍率が2になると、撮像モードMは撮像モードMBになる。
 撮像モードMBでは、図23(B)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、16個の画素値Vを得る。具体的な動作については、後述する。このように、撮像装置1は、36個の受光画素Pに対して16個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、48[Mpix]分の画素値Vが算出される。実際には、ズーム倍率が2倍であるので、図23(B)に示したように撮像範囲が1/4に狭くなるため、有効画素数は12[Mpix](=48[Mpix]/4)となる。
 図22に示したように、この撮像モードMBにおいて、ズーム倍率を2から増やすと、倍率に応じて、有効画素数が低下していく。そして、ズーム倍率が3になると、撮像モードMは撮像モードMCになる。
 撮像モードMCでは、図23(C)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、36個の画素値Vを得る。具体的な動作については、後述する。このように、撮像装置1は、36個の受光画素Pに対して36個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、108[Mpix]の撮像画像を得ることができる。実際には、ズーム倍率が3倍であるので、図23(C)に示したように撮像範囲が1/9に狭くなるため、有効画素数は12[Mpix](=108[Mpix]/9)となる。
 このように、撮像装置1では、3つの撮像モードMを設けるようにしたので、ズーム倍率を変更した場合における、撮像画像の画質の変化を低減することができる。すなわち、例えば、撮像モードMBを省いて2つの撮像モードMA,MCを設け、ズーム倍率が2倍未満である場合に撮像モードMAを選択するとともに、ズーム倍率が2倍以上である場合に撮像モードMCを選択した場合には、図22において破線で示したように、有効画素数が大きく変化する。すなわち、この例では、ズーム倍率が2倍である場合には、撮像モードMCが選択され、有効画素数は27[Mpix](=108[Mpix]/4)である。よって、ズーム倍率が例えば1.9倍である場合における有効画素数と、ズーム倍率が2倍である場合における有効画素数に大きな差が生じるので、ズーム倍率が2倍前後において、撮像画像の画質が大きく変化する可能性がある。一方、撮像装置1では、3つの撮像モードMを設けるようにしたので、ズーム倍率を変更した場合における、有効画素数の変化を低減することができるので、撮像画像の画質の変化を抑えることができる。
(撮像モードMA)
 図24は、撮像モードMAにおける撮像装置1の一動作例を表したものである。図24において、“〇”で示した受光画素Pは、読出動作の対象となる受光画素Pを示す。
 まず、撮像装置1は、図24(A)に示したように、複数の画素ブロック100のそれぞれにおいて、レンズ101が設けられた画素ペア90Aにおける左の受光画素Pの受光量に応じた画素値Vを算出することにより、画像データDT1を生成する。具体的には、撮像装置1は、画素ブロック100Grの10個の受光画素PGrのうちの、5つの画素ペア90Aにおける左に配置された5つの受光画素PGrを読出動作の対象とすることにより、この5つの受光画素PGrの重心位置における画素値VGr1を算出する。また、撮像装置1は、画素ブロック100Rの8個の受光画素PRのうちの、4つの画素ペア90Aにおける左に配置された4つの受光画素PRを読出動作の対象とすることにより、この4つの受光画素PRの重心位置における画素値VR1を算出する。撮像装置1は、画素ブロック100Bの8個の受光画素PBのうちの、4つの画素ペア90Aにおける左に配置された4つの受光画素PBを読出動作の対象とすることにより、この4つの受光画素PBの重心位置における画素値VB1を算出する。撮像装置1は、画素ブロック100Gbの10個の受光画素PGbのうちの、5つの画素ペア90Aにおける左に配置された5つの受光画素PGbを読出動作の対象とすることにより、この5つの受光画素PGbの重心位置における画素値VGb1を算出する。このようにして、撮像装置1は、画素値VGr1,VR1,VB1,VGb1を含む画像データDT1(図24(A))を生成する。
 次に、撮像装置1は、図24(B)に示したように、複数の画素ブロック100のそれぞれにおいて、全ての受光画素Pの受光量に応じた画素値Vを算出することにより、画像データDT2を生成する。具体的には、撮像装置1は、画素ブロック100Grの10個の受光画素PGrを読出動作の対象とすることにより、この10個の受光画素PGrの重心位置における画素値VGr2を算出する。また、撮像装置1は、画素ブロック100Rの8個の受光画素PRを読出動作の対象とすることにより、この8個の受光画素PRの重心位置における画素値VR2を算出する。撮像装置1は、画素ブロック100Bの8個の受光画素PBを読出動作の対象とすることにより、この8個の受光画素PBの重心位置における画素値VB2を算出する。撮像装置1は、画素ブロック100Gbの10個の受光画素PGbを読出動作の対象とすることにより、この10個の受光画素PGbの重心位置における画素値VGb2を算出する。このようにして、撮像装置1は、画素値VGr2,VR2,VB2,VGb2を含む画像データDT2(図24(B))を生成する。
 以下に、ある画素ブロック100Grに着目して、この画素ブロック100Grにおける10個の受光画素PGrに対する読出動作について説明する。
 図25は、読出動作の一例を表したものであり、(A)は制御信号SSELの波形を示し、(B)は制御信号SRSTの波形を示し、(C)は画素ペア90Aにおける左に配置された受光画素PGrに供給される制御信号STRG(制御信号STRGL)の波形を示し、(D)は画素ペア90Aにおける右に配置された受光画素PGrに供給される制御信号STRG(制御信号STRGR)の波形を示し、(E)は制御信号AZの波形を示し、(F)は参照信号RAMPの波形を示し、(G)は信号SIGの波形を示し、(H)は信号CPの波形を示す。図25(F),(G)では、参照信号RAMPおよび信号SIGの波形を、同じ電圧軸を用いて示している。また、この説明では、図25(F)に示した参照信号RAMPの波形は、容量素子23を介して比較回路24の入力端子に供給された電圧の波形であり、図25(G)に示した信号SIGの波形は、容量素子22を介して比較回路24の入力端子に供給された電圧の波形である。
 まず、タイミングt11において、水平期間Hが開始する。これにより、駆動部12は、制御信号SSELの電圧を低レベルから高レベルに変化させる(図25(A))。これにより、画素ブロック100Grでは、トランジスタSELがオン状態になり、画素ブロック100Grが信号線VSLと電気的に接続される。また、このタイミングt11において、駆動部12は、制御信号SRSTの電圧を低レベルから高レベルに変化させる(図25(B))。これにより、画素ブロック100Grでは、トランジスタRSTがオン状態になり、浮遊拡散層の電圧が電源電圧VDDに設定される(リセット動作)。そして、画素ブロック100Grは、このときの浮遊拡散層の電圧に対応する電圧を出力する。また、このタイミングt11において、撮像制御部18は、制御信号AZの電圧を低レベルから高レベルに変化させる(図25(E))。これにより、AD変換部ADCの比較回路24は、容量素子22,23の電圧を設定することにより動作点を設定する。このようにして、信号SIGの電圧がリセット電圧Vresetに設定され、参照信号RAMPの電圧が、信号SIGの電圧(リセット電圧
Vreset)と同じ電圧に設定される(図25(F),(G))。
 そして、タイミングt11から所定の時間が経過したタイミングにおいて、駆動部12は、制御信号SRSTの電圧を高レベルから低レベルに変化させる(図25(B))。これにより、画素ブロック100Grにおいて、トランジスタRSTはオフ状態になり、リセット動作は終了する。
 次に、タイミングt12において、撮像制御部18は、制御信号AZの電圧を高レベルから低レベルに変化させる(図25(E))。これにより、比較回路24は、動作点の設定を終了する。
 また、このタイミングt12において、参照信号生成部13は、参照信号RAMPの電圧を電圧V1にする(図25(F))。これにより、参照信号RAMPの電圧が信号SIGの電圧より高くなるので、比較回路24は、信号CPの電圧を低レベルから高レベルに変化させる(図25(H))。
 そして、タイミングt13~t15の期間(P相期間TP)において、AD変換部ADCは、信号SIGに基づいてAD変換を行う。具体的には、まず、タイミングt13において、参照信号生成部13は、参照信号RAMPの電圧を電圧V1から所定の変化度合いで低下させ始める(図25(F))。また、このタイミングt13において、撮像制御部18は、クロック信号CLKの生成を開始する。AD変換部ADCのカウンタ25は、カウント動作を行うことにより、このクロック信号CLKのパルスをカウントする。
 そして、タイミングt14において、参照信号RAMPの電圧が信号SIGの電圧(リセット電圧Vreset)を下回る(図25(F),(G))。これにより、AD変換部ADCの比較回路24は、信号CPの電圧を高レベルから低レベルに変化させる(図25(H))。AD変換部ADCのカウンタ25は、この信号CPの遷移に基づいて、カウント動作を停止する。このときのカウンタ25のカウント値(カウント値CNTP)は、リセット電圧Vresetに応じた値である。ラッチ26は、このカウント値CNTPを保持する。そして、カウンタ25は、カウント値をリセットする。
 次に、タイミングt15において、撮像制御部18は、P相期間TPの終了に伴い、クロック信号CLKの生成を停止する。また、参照信号生成部13は、このタイミングt15において、参照信号RAMPの電圧の変化を停止させる(図25(F))。そして、このタイミングt15以降の期間において、読出部20は、ラッチ26に保持されたカウント値CNTPを、画像信号Spic0として、信号処理部15に供給する。
 次に、タイミングt16において、撮像制御部18は、参照信号RAMPの電圧を電圧V1に設定する(図25(F))。これにより、参照信号RAMPの電圧が信号SIGの電圧(リセット電圧Vreset)より高くなるので、比較回路24は、信号CPの電圧を低レベルから高レベルに変化させる(図25(H))。
 次に、タイミングt17において、駆動部12は、制御信号STRGLの電圧を低レベルから高レベルに変化させる(図25(C))。これにより、画素ペア90Aにおける左に配置された5つの受光画素PGrでは、トランジスタTRGがオン状態になり、フォトダイオードで発生した電荷が浮遊拡散層に転送される(電荷転送動作)。そして、画素ブロック100Grは、このときの浮遊拡散層の電圧に対応する電圧を出力する。このようにして、信号SIGの電圧が画素電圧Vpix1になる(図25(G))。
 そして、このタイミングt17から所定の時間が経過したタイミングにおいて、駆動部12は、制御信号STRGLの電圧を高レベルから低レベルに変化させる(図25(C))。これにより、画素ペア90Aの左に配置された5つの受光画素PGrにおいて、トランジスタTRGはオフ状態になり、電荷転送動作は終了する。
 そして、タイミングt18~t20の期間(D相期間TD1)において、AD変換部ADCは、信号SIGに基づいてAD変換を行う。具体的には、まず、タイミングt18において、参照信号生成部13は、参照信号RAMPの電圧を電圧V1から所定の変化度合いで低下させ始める(図25(F))。また、このタイミングt18において、撮像制御部18は、クロック信号CLKの生成を開始する。AD変換部ADCのカウンタ25は、カウント動作を行うことにより、このクロック信号CLKのパルスをカウントする。
 そして、タイミングt19において、参照信号RAMPの電圧が信号SIGの電圧(画素電圧Vpix1)を下回る(図25(F),(G))。これにより、AD変換部ADCの比較回路24は、信号CPの電圧を高レベルから低レベルに変化させる(図25(H))。AD変換部ADCのカウンタ25は、この信号CPの遷移に基づいて、カウント動作を停止する。このときのカウンタ25のカウント値(カウント値CNTD1)は、画素電圧Vpix1に応じた値である。ラッチ26は、このカウント値CNTD1を保持する。そして、カウンタ25は、カウント値をリセットする。
 次に、タイミングt20において、撮像制御部18は、D相期間TD1の終了に伴い、クロック信号CLKの生成を停止する。また、参照信号生成部13は、このタイミングt20において、参照信号RAMPの電圧の変化を停止させる(図25(F))。そして、このタイミングt20以降の期間において、読出部20は、ラッチ26に保持されたカウント値CNTD1を、画像信号Spic0として、信号処理部15に供給する。
 次に、タイミングt21において、撮像制御部18は、参照信号RAMPの電圧を電圧V1に設定する(図25(F))。これにより、参照信号RAMPの電圧が信号SIGの電圧(画素電圧Vpix1)より高くなるので、比較回路24は、信号CPの電圧を低レベルから高レベルに変化させる(図25(H))。
 次に、タイミングt22において、駆動部12は、制御信号STRGL,STRGRの電圧を低レベルから高レベルにそれぞれ変化させる(図25(C),(D))。これにより、画素ブロック100Grにおける10個の受光画素PGrでは、トランジスタTRGがオン状態になり、フォトダイオードで発生した電荷が浮遊拡散層に転送される(電荷転送動作)。そして、画素ブロック100Grは、このときの浮遊拡散層の電圧に対応する電圧を出力する。このようにして、信号SIGの電圧が画素電圧Vpix2になる(図25(G))。
 そして、このタイミングt22から所定の時間が経過したタイミングにおいて、駆動部12は、制御信号STRGL,STRGRの電圧を高レベルから低レベルにそれぞれ変化させる(図25(C),(D))。これにより、10個の受光画素PGrにおいて、トランジスタTRGはオフ状態になり、電荷転送動作は終了する。
 そして、タイミングt23~t25の期間(D相期間TD2)において、AD変換部ADCは、信号SIGに基づいてAD変換を行う。具体的には、まず、タイミングt23において、参照信号生成部13は、参照信号RAMPの電圧を電圧V1から所定の変化度合いで低下させ始める(図25(F))。また、このタイミングt23において、撮像制御部18は、クロック信号CLKの生成を開始する。AD変換部ADCのカウンタ25は、カウント動作を行うことにより、このクロック信号CLKのパルスをカウントする。
 そして、タイミングt24において、参照信号RAMPの電圧が信号SIGの電圧(画素電圧Vpix2)を下回る(図25(F),(G))。これにより、AD変換部ADCの比較回路24は、信号CPの電圧を高レベルから低レベルに変化させる(図25(H))。AD変換部ADCのカウンタ25は、この信号CPの遷移に基づいて、カウント動作を停止する。このときのカウンタ25のカウント値(カウント値CNTD2)は、画素電圧Vpix2に応じた値である。ラッチ26は、このカウント値CNTD2を保持する。そして、カウンタ25は、カウント値をリセットする。
 次に、タイミングt25において、撮像制御部18は、D相期間TD2の終了に伴い、クロック信号CLKの生成を停止する。また、参照信号生成部13は、このタイミングt25において、参照信号RAMPの電圧の変化を停止させる(図25(F))。そして、このタイミングt25以降の期間において、読出部20は、ラッチ26に保持されたカウント値CNTD2を、画像信号Spic0として、信号処理部15に供給する。
 次に、タイミングt26において、駆動部12は、制御信号SSELの電圧を高レベルから低レベルに変化させる(図25(A))。これにより、画素ブロック100Grでは、トランジスタSELがオフ状態になり、画素ブロック100Grが信号線VSLから電気的に切り離される。
 このようにして、読出部20は、カウント値CNTP,CNTD1,CNTD2を含む画像信号Spic0を信号処理部15に供給する。信号処理部15は、例えば画像信号Spic0に含まれるカウント値CNTP,CNTD1,CNTD2に基づいて、相関2重サンプリングの原理を利用して、図24(A)に示した画素値VGr1、および図24(B)に示した画素値VGr2を生成する。具体的には、信号処理部15は、例えば、カウント値CNTD1からカウント値CNTPを減算することにより、画素値VGr1を生成する。カウント値CNTD1は、画素ブロック100Grの5つの画素ペア90Aにおける左に配置された5つの受光画素PGrでの受光量の和に応じた値であるので、信号処理部15は、このカウント値CNTD1に基づいて、図24(A)に示した画素値VGr1を生成することができる。同様に、信号処理部15は、例えば、カウント値CNTD2からカウント値CNTPを減算することにより、画素値VGr2を生成する。カウント値CNTD2は、画素ブロック100Grの10個の受光画素PGrでの受光量の和に応じた値であるので、信号処理部15は、このカウント値CNTD2に基づいて、図24(B)に示した画素値VGr2を生成することができる。
 以上、画素ブロック100Grについて説明したが、画素ブロック100R,100Gb,100Bについても同様である。このようにして、信号処理部15は、図24に示したように、画素値VR1,VGr1,VGb1,VB1を含む画像データDT1、および画素値VR2,VGr2,VGb2,VB2を含む画像データDT2を生成する。
 図26は、撮像モードMAにおける、信号処理部15の画像処理の一例を表したものである。
 まず、信号処理部15は、画像データDT1,DT2に基づいて、減算処理を行うことにより、画像データDT3を生成する。
 具体的には、信号処理部15は、画像データDT2における画素値VGr2から、画像データDT1における画素値VGr1を減算することにより、画素値VGr3を算出する。この画素値VGr3は、画素ブロック100Grの5つの画素ペア90Aにおける右に配置された5つの受光画素PGrでの受光量の和に応じた値である。すなわち、画素値VGr1は、画素ブロック100Grの5つの画素ペア90Aにおける左に配置された5つの受光画素PGrでの受光量の和に応じた値であり、画素値VGr2は、この画素ブロック100Grの10個の受光画素PGrでの受光量の和に応じた値である。よって、画素値VGr2から画素値VGr1を減算することにより、画素ブロック100Grの5つの画素ペア90Aにおける右に配置された5つの受光画素PGrでの受光量の和に応じた値が得られる。このように、画素値VGr3は、5つの画素ペア90Aにおける右に配置された5つの受光画素PGrでの受光量の和に応じた値であるので、図26に示したように、画素値VGr3は、これらの5つの受光画素PGrの重心位置に配置される。
 同様に、信号処理部15は、画像データDT2における画素値VR2から、画像データDT1における画素値VR1を減算することにより、画素値VR3を算出する。この画素値VR3は、画素ブロック100Rの4つの画素ペア90Aにおける右に配置された4つの受光画素PRでの受光量の和に応じた値である。画素値VR3は、画素ブロック100Rの4つの画素ペア90Aにおける右に配置された4つの受光画素PRの重心位置に配置される。
 信号処理部15は、画像データDT2における画素値VB2から、画像データDT1における画素値VB1を減算することにより、画素値VB3を算出する。この画素値VB3は、画素ブロック100Bの4つの画素ペア90Aにおける右に配置された4つの受光画素PBでの受光量の和に応じた値である。画素値VB3は、画素ブロック100Bの4つの画素ペア90Aにおける右に配置された4つの受光画素PBの重心位置に配置される。
 信号処理部15は、画像データDT2における画素値VGb2から、画像データDT1における画素値VGb1を減算することにより、画素値VGb3を算出する。この画素値VGb3は、画素ブロック100Gbの5つの画素ペア90Aにおける右に配置された5つの受光画素PGbでの受光量の和に応じた値である。画素値VGb3は、画素ブロック100Gbの5つの画素ペア90Aにおける右に配置された5つの受光画素PGbの重心位置に配置される。
 そして、信号処理部15の画像データ生成部16は、画像データDT2に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDP(図23(A))を生成する。
 また、信号処理部15の位相差データ生成部17は、画像データDT1,DT3に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。すなわち、画像データDT1は、複数の画素ペア90Aにおける左に配置された受光画素Pでの画素値Vを有し、画像データDT3は、複数の画素ペア90Aにおける右に配置された受光画素Pでの画素値Vを有する。よって、位相差データ生成部17は、画像データDT1,DT3に基づいて、位相差データDFを生成することができる。
 撮像装置1では、図2に示したように、画素アレイ11において、レンズ101がX軸方向およびY軸方向に並設されているので、画素アレイ11の全面にわたり、高い解像度で位相差データDFを生成することができる。よって、例えば、このような撮像装置1が搭載されたカメラでは、精度が高いオートフォーカスを実現することができ、その結果、画質を高めることができる。
 ここで、撮像モードMAは、本開示における「第1の撮像モード」の一具体例に対応する。画像データDT1における画素値は、本開示における「第1の画素値」の一具体例に対応する。画像データDT2における画素値は、本開示における「第2の画素値」の一具体例に対応する。画像データDT3における画素値は、本開示における「第3の画素値」の一具体例に対応する。
(撮像モードMB)
 図27は、撮像モードMBにおける撮像装置1の一動作例を表したものである。図28は、図27に示した動作をより具体的に表したものである。図27,15において、“〇”で示した受光画素Pは、読出動作の対象となる受光画素Pを示す。
 画素ブロック100Grでは、図28(A)に示したように、撮像装置1は、画素ブロック100Grの5つの画素ペア90Aのうちの1つの画素ペア90Aにおける左に配置された受光画素PGrを読出動作の対象とし、この受光画素PGrの位置における画素値VGr1を算出する。そして、次に、図28(B)に示したように、撮像装置1は、その画素ペア90Aにおける2つの受光画素PGrを読出動作の対象とし、この2つの受光画素PGrの重心位置における画素値VGr2を算出する。
 同様に、画素ブロック100Rでは、図28(A)に示したように、撮像装置1は、画素ブロック100Rの4つの画素ペア90Aのうちの1つの画素ペア90Aにおける左に配置された受光画素PRを読出動作の対象とし、この受光画素PRの位置における画素値VR1を算出する。そして、次に、図28(B)に示したように、撮像装置1は、その画素ペア90Aにおける2つの受光画素PRを読出動作の対象とし、この2つの受光画素PRの重心位置における画素値VR2を算出する。
 同様に、画素ブロック100Bでは、図28(A)に示したように、撮像装置1は、画素ブロック100Bの4つの画素ペア90Aのうちの1つの画素ペア90Aにおける左に配置された受光画素PBを読出動作の対象とし、この受光画素PBの位置における画素値VB1を算出する。そして、次に、図28(B)に示したように、撮像装置1は、その画素ペア90Aにおける2つの受光画素PBを読出動作の対象とし、この2つの受光画素PBの重心位置における画素値VB2を算出する。
 同様に、画素ブロック100Gbでは、図28(A)に示したように、撮像装置1は、画素ブロック100Gbの5つの画素ペア90Aのうちの1つの画素ペア90Aにおける左に配置された受光画素PGbを読出動作の対象とし、この受光画素PGbの位置における画素値VGb1を算出する。そして、次に、図28(B)に示したように、撮像装置1は、その画素ペア90Aにおける2つの受光画素PGbを読出動作の対象とし、この2つの受光画素PGbの重心位置における画素値VGb2を算出する。
 この図28(A),(B)における読出動作は、上述した撮像モードMAにおける読出動作(図25)と同様の動作である。撮像装置1は、その後、図28(C),(D)の動
作、図28(E),(F)の動作、図28(G),(H)の動作、図28(I),(J)の動作、図28(K),(L)の動作を行う。このようにして、撮像装置1は、画素値VGr1,VR1,VB1,VGb1を含む画像データDT1(図27(A))、および画素値VGr2,VR2,VB2,VGb2を含む画像データDT2(図27(B))を生成する。
 図29は、撮像モードMBにおける、信号処理部15の画像処理の一例を表したものである。
 まず、信号処理部15は、画像データDT1,DT2に基づいて、減算処理を行うことにより、画像データDT3を生成する。
 具体的には、信号処理部15は、画像データDT2における5つの画素値VGr2から、画像データDT1における5つの画素値VGr1をそれぞれ減算することにより、5つの画素値VGr3を算出する。この画素値VGr3は、画素ブロック100Grの画素ペア90Aにおける右に配置された受光画素PGrでの受光量に応じた値である。すなわち、画素値VGr1は、画素ブロック100Grの画素ペア90Aにおける左に配置された受光画素PGrでの受光量に応じた値であり、画素値VGr2は、この画素ペア90Aにおける2つの受光画素PGrでの受光量の和に応じた値である。よって、画素値VGr2から画素値VGr1を減算することにより、画素ブロック100Grの画素ペア90Aにおける右に配置された受光画素PGrでの受光量に応じた値が得られる。このように、画素値VGr3は、画素ペア90Aにおける右に配置された受光画素PGrでの受光量に応じた値であるので、図29に示したように、画素値VGr3は、画素ペア90Aにおける右に配置された受光画素PGrの位置に配置される。
 同様に、信号処理部15は、画像データDT2における4つの画素値VR2から、画像データDT1における4つの画素値VR1をそれぞれ減算することにより、4つの画素値VR3を算出する。この画素値VR3は、画素ブロック100Rの画素ペア90Aにおける右に配置された受光画素PRでの受光量に応じた値である。この画素値VR3は、この画素ペア90Aにおける右に配置された受光画素PRの位置に配置される。
 信号処理部15は、画像データDT2における4つの画素値VB2から、画像データDT1における4つの画素値VB1をそれぞれ減算することにより、4つの画素値VB3を算出する。この画素値VB3は、画素ブロック100Bの画素ペア90Aにおける右に配置された受光画素PBでの受光量に応じた値である。この画素値VB3は、この画素ペア90Aにおける右に配置された4つの受光画素PBの位置に配置される。
 信号処理部15は、画像データDT2における5つの画素値VGb2から、画像データDT1における5つの画素値VGb1をそれぞれ減算することにより、5つの画素値VGb3を算出する。この画素値VGb3は、画素ブロック100Gbの画素ペア90Aにおける右に配置された受光画素PGbでの受光量に応じた値である。この画素値VGb3は、この画素ペア90Aにおける右に配置された受光画素PGbの位置に配置される。
 そして、信号処理部15の画像データ生成部16は、図29に示したように、画像データDT2に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDP(図23(B))を生成する。この所定の画像処理は、画素値Vの修正を行うとともに画素値Vの再配置を行うリモザイク処理を含む。
 図30は、撮像モードM2におけるリモザイク処理の一例を表したものであり、(A)は画像データDT2を示し、(B)はリモザイク処理の前後の画素値Vの位置を示し、(C)は画像データDT2に基づいてリモザイク処理により生成された画像データDT4を示す。 図30(B)において、“〇”は、画像データDT2における画素値Vの位置を示し、“□”は、画像データDT4における画素値Vの位置を示している。
 図31Aは、画素ブロック100Rについてのリモザイク処理を表したものであり、図31Bは、画素ブロック100Gr,100Gbについてのリモザイク処理を表したものであり、図31Cは、画素ブロック100Bについてもリモザイク処理を表したものである。図31A~18Cにおいて、(A)は画像データDT2を示し、(B)はリモザイク処理により生成された画像データDT4を示す。
 画像データDT2では、図30(A)に示したように、36個の受光画素Pに対して18個の割合で画素値Vを含む。例えば、画素アレイ11における受光画素Pの数が108[Mpix]である場合には、画像データDT2は、54[Mpix]分の画素値Vを含む。一方、画像データDT4では、図30(C)に示したように、36個の受光画素Pに対して16個の割合で画素値Vを含む。例えば、画素アレイ11における受光画素Pの数が108[Mpix]である場合には、画像データDT4は、48[Mpix]分の画素値Vを含む。また、画像データDT4では、4つの画素値VGr4,VR4,VB4,VGb4がベイヤー配列により配列される。画像データ生成部16は、画像データDT2における画素値Vの修正を行うとともに画素値Vの再配置を行うことにより、このような画像データDT4を生成する。
 具体的には、画像データ生成部16は、図31Aに示したように、画像データDT2における複数の画素値VR2に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VR4を生成する。同様に、画像データ生成部16は、図31Bに示したように、画像データDT2における複数の画素値VGr2,VGb2に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VGr4,VGb4を生成する。画像データ生成部16は、図31Cに示したように、画像データDT2における複数の画素値VB2に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VB4を生成する。
 このようにして、画像データ生成部16は、図30(A)に示した画像データDT2に基づいて、図30(C)に示した画像データDT4を生成する。そして、画像データ生成部16は、この画像データDT4に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDP(図10(B))を生成する。
 また、信号処理部15の位相差データ生成部17は、図29に示したように、画像データDT1,DT3に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。すなわち、画像データDT1は、複数の画素ペア90Aにおける左に配置された受光画素Pでの画素値Vを有し、画像データDT3は、複数の画素ペア90Aにおける右に配置された受光画素Pでの画素値Vを有する。よって、位相差データ生成部17は、画像データDT1,DT3に基づいて、位相差データDFを生成することができる。
 位相差データ生成部17は、画像データ生成部16と同様に、画像データDT1,DT3に基づいて、画素値Vの再配置を行うことにより、位相差データDFを生成する。すなわち、画像データDT1,DT3では、36個の受光画素Pに対して18個の割合で、画素ペア90Aに係る左右の画素値Vを含む。よって、位相差データ生成部17は、36個の受光画素Pに対して16個の割合で、画素ペア90Aに係る左右の画素値Vを含むように、画素値Vの再配置を行う。これにより、位相差データ生成部17は、画像データ生成部16が生成した画像データDPに対応した位相差データDFを生成することができる。
 ここで、撮像モードMBは、本開示における「第2の撮像モード」の一具体例に対応する。画像データDT1における画素値は、本開示における「第1の画素値」の一具体例に対応する。画像データDT2における画素値は、本開示における「第2の画素値」の一具体例に対応する。画像データDT3における画素値は、本開示における「第3の画素値」の一具体例に対応する。画像データDT4における画素値は、本開示における「第4の画素値」の一具体例に対応する。
(撮像モードMC)
 図19は、撮像モードMCにおける撮像装置1の一動作例を表したものである。図20は、図19に示した動作をより具体的に表したものである。図19,20において、“〇”で示した受光画素Pは、読出動作の対象となる受光画素Pを示す。
 画素ブロック100Grでは、図20(A)に示したように、撮像装置1は、画素ブロック100Grの10個の受光画素PGrのうちの1つの受光画素PGrを読出動作の対象とし、この受光画素PGrの位置における画素値VGr1を算出する。
 図21は、読出動作の一例を表したものであり、(A)は制御信号SSELの波形を示し、(B)は制御信号SRSTの波形を示し、(C)は読出対象である受光画素PGrに供給される制御信号STRGの波形を示し、(D)は制御信号AZの波形を示し、(E)は参照信号RAMPの波形を示し、(F)は信号SIGの波形を示し、(G)は信号CPの波形を示す。この読出動作は、撮像モードMA,MBにおける読出動作(図25)において、タイミングt21~t26の動作を省いたものである。このようにして、読出部20は、カウント値CNTP,CNTD1を含む画像信号Spic0を信号処理部15に供給する。信号処理部15は、例えば画像信号Spic0に含まれるカウント値CNTP,CNTD1に基づいて、相関2重サンプリングの原理を利用して、画素値VGr1を生成する。具体的には、信号処理部15は、例えば、カウント値CNTD1からカウント値CNTPを減算することにより、画素値VGr1を生成する。
 同様に、画素ブロック100Rでは、図20(A)に示したように、撮像装置1は、画素ブロック100Rの8個の受光画素PRのうちの1つの受光画素PRを読出動作の対象とし、この受光画素PRの位置における画素値VR1を算出する。
 同様に、画素ブロック100Bでは、図20(A)に示したように、撮像装置1は、画素ブロック100Bの8個の受光画素PBのうちの1つの受光画素PBを読出動作の対象とし、この受光画素PBの位置における画素値VB1を算出する。
 同様に、画素ブロック100Gbでは、図20(A)に示したように、撮像装置1は、画素ブロック100Gbの10個の受光画素PGbのうちの1つの受光画素PGbを読出動作の対象とし、この受光画素PGbにおける画素値VGb1を算出する。
 撮像装置1は、その後、図20(B)~(L)の動作を行う。このようにして、撮像装置1は、画素値VGr1,VR1,VB1,VGb1を含む画像データDT1(図19)を生成する。
 図22は、撮像モードMCにおける、信号処理部15の画像処理の一例を表したものである。
 信号処理部15の画像データ生成部16は、画像データDT1に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDP(図10(C))を生成する。この所定の画像処理は、画素値Vの修正を行うとともに画素値Vの再配置を行うリモザイク処理を含む。
 図23は、撮像モードMCにおけるリモザイク処理の一例を表したものであり、(A)は画像データDT1を示し、(B)はリモザイク処理の前後の画素値Vの位置を示し、(C)は画像データDT1に基づいてリモザイク処理により生成された画像データDT4を示す。 図23(B)において、“〇”は、画像データDT1における画素値Vの位置を示し、“□”は、画像データDT4における画素値Vの位置を示している。
 図24Aは、画素ブロック100Rについてのリモザイク処理を表したものであり、図24Bは、画素ブロック100Gr,100Gbについてのリモザイク処理を表したものであり、図24Cは、画素ブロック100Bについてもリモザイク処理を表したものである。図24A~24Cにおいて、(A)は画像データDT1を示し、(B)はリモザイク処理により生成された画像データDT4を示す。
 画像データDT4では、4つの画素値VGr4,VR4,VB4,VGb4がベイヤー配列により配列される。画像データ生成部16は、画像データDT1における画素値Vの修正を行うとともに画素値Vの再配置を行うことにより、このような画像データDT4を生成する。
 具体的には、画像データ生成部16は、図24Aに示したように、画像データDT1における複数の画素値VR1に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VR4を生成する。同様に、画像データ生成部16は、図24Bに示したように、画像データDT1における複数の画素値VGr1,VGb1に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VGr4,VGb4を生成する。画像データ生成部16は、図24Cに示したように、画像データDT1における複数の画素値VB1に基づいて、例えば、補完処理を行うことにより、一面にわたる画素値Vを算出し、その一面にわたる画素値Vに基づいて、画素値VB4を生成する。
 このようにして、画像データ生成部16は、図23(A)に示した画像データDT1に基づいて、図23(C)に示した画像データDT4を生成する。そして、画像データ生成部16は、この画像データDT4に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDP(図10(C))を生成する。
 また、信号処理部15の位相差データ生成部17は、図22に示したように、画像データDT1に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。すなわち、画像データDT1は、複数の画素ペア90Aにおける左に配置された受光画素Pでの画素値Vを有する画像データ(画像データDT11)と、複数の画素ペア90Aにおける右に配置された受光画素Pでの画素値Vを有する画像データ(画像データDT12)とを含む。よって、位相差データ生成部17は、この画像データDT1(画像データDT11,DT12)に基づいて、位相差データDFを生成することができる。
 ここで、撮像モードMCは、本開示における「第3の撮像モード」の一具体例に対応する。画像データDT1における画素値は、本開示における「第1の画素値」の一具体例に対応する。画像データDT2における画素値は、本開示における「第2の画素値」の一具体例に対応する。画像データDT3における画素値は、本開示における「第3の画素値」の一具体例に対応する。画像データDT4における画素値は、本開示における「第4の画素値」の一具体例に対応する。
 このように、撮像装置1では、それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素Pを有する複数の画素ブロック100を設けるようにした。これらの複数の受光画素Pは、それぞれが2つの受光画素Pを含む複数の画素ペア90Aに区分されるようにした。そして、これらの複数の画素ペア90Aに対応する位置に複数のレンズ101をそれぞれ設けるようにした。これにより、撮像装置1では、画素アレイ11の全面にわたり、高い解像度で位相差データDFを生成することができる。よって、例えば、このような撮像装置1が搭載されたカメラでは、例えば様々なズーム倍率において、精度が高いオートフォーカスを実現することができる。その結果、撮像装置1では、画質を高めることができる。
 また、撮像装置1では、ある画素ブロック100における複数の受光画素の数が、他のある画素ブロック100における複数の受光画素の数よりも多くした。具体的には、この例では、画素ブロック100Grにおける受光画素PGrの数、および画素ブロック100Gbにおける受光画素PGbの数を、画素ブロック100Rにおける受光画素PRの数、および画素ブロック100Bにおける受光画素PBの数よりも多くした。これにより、例えば、緑色の受光感度を高めることができ、撮像画像の画質を高めることができる。
 また、撮像装置1では、3つの撮像モードMA~MCを設け、撮像モードMB,MCにおいてリモザイク処理を行うようにした。これにより、撮像装置1では、特に撮像モードMBにおけるリモザイク処理により、撮像モードMBにおける有効画素数が調整され、ズーム倍率を変更した場合における有効画素数の変化を低減することができるので、撮像画像の画質の変化を抑えることができる。
[効果]
 以上のように本実施の形態の撮像装置1では、それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素を有する複数の画素ブロックを設けるようにした。これらの複数の受光画素Pは、それぞれがX軸方向に並設される2つの受光画素Pを含む複数の画素ペア90Aに区分されるようにした。そして、これらの複数の画素ペア90Aに対応する位置に複数のレンズをそれぞれ設けるようにした。これにより、精度が高いオートフォーカスを実現することができる。更に、複数の画素ペア90Aのそれぞれは、X軸方向に隣り合う2つの受光画素Pの境界において1つ浮遊拡散層を共有するようにした。これにより、浮遊拡散層の容量が小さくなるため、高感度な位相差検出ができるようになる。よって、画質を高めることが可能となる。
 また、本実施の形態の撮像装置1では、画素ブロック100R,100Gr,100Gb,100Bを構成する複数の受光画素Pは、Y軸方向に隣り合う2つの受光画素Pを画素ペア90BとしてY軸方向に周期的に配置するようにした。更に、X軸方向に隣り合う2つの受光画素Pを画素ペア90Bが互いに鏡像構造をとなるようにした。これにより、面積効率を向上することができる。
 また、本実施の形態の撮像装置1では、画素ペア90Aを構成する、X軸方向に隣り合う2つの受光画素Pの境界に配置される浮遊拡散層は、X軸方向に沿って対向する2つのトランジスタTRGのゲートの中心を通る線分に対してY軸方向にずれて配置されるようにした。具体的には、素子分離部115をSTIで構成する場合には、浮遊拡散層は素子分離部115に近接するようにした。また、素子分離部115を不純物層で構成する場合には、浮遊拡散層は素子分離部115から遠ざかるように配置した。これにより、浮遊拡散層の白点化を抑制することができる。
 更に、本実施の形態の撮像装置1では、画素ブロック100R,100Gr,100Gb,100BからなるユニットUに設けられた複数の浮遊拡散層、複数のトランジスタTRGのゲート、画素ブロック100R,100Gr,100Gb,100B毎に設けられた複数の画素トランジスタ(トランジスタRST,AMP,SEL,FDG)および各種配線(複数の接続配線FDL、複数の制御線TRGL,RSTL,SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)は、それぞれ、ユニットUの中心に対して点対称に配置するようにした。これにより、互いに同じ受光画素Pの配置パターンを有する画素ブロック100Grと画素ブロック100Gbおよび画素ブロックRと画素ブロックBの変換効率が同等となる。よって、後段処理での補正回路の簡略化および特性のばらつきを低減することができる。
 更にまた、本実施の形態の撮像装置1では、各画素ブロック100R,100Gr,100Gb,100Bにおいて4個または5個の浮遊拡散層とトランジスタAMPのゲートとを接続する接続配線FDLに対して、複数の制御線TRGLの一部が沿うようにした。これにより、接続配線FDLと制御線TRGLとのカップリングが向上すると共に、接続配線FDLとその他の複数の制御線RSTL,SELL,FDGLおよび複数の信号線VSLとのカップリングが抑制される。よって、制御線TRGLによる転送補助効果が向上させることができる。
<2.変形例>
[変形例1]
 上記実施の形態では、半導体基板111に対して固定電荷を印加するためのウェルコンタクト領域WellConを、図10等に示したように、X軸方向に並設される画素トランジスタの間に設ける例を示したが、これに限定されるものではない。これに代えて、例えば図32に示したように、X軸方向に隣り合う画素ペア90Aの間の、例えば受光部112の間に配置してもよい。
 これにより、画素トランジスタのゲート長を拡大することができる。例えば、トランジスタAMPのゲート長を拡大した場合には、例えばランダムテレグラフノイズ(RTS)を低減することができる。トランジスタSEL、RSTのゲート長を拡大した場合には、閾値電圧(Vth)やカットオフ等のトランジスタの特性のばらつきを低減することができる。
[変形例2]
 上記実施の形態では、2行×2列で配置された4つの画素ブロック100R,100Gr,100Gb,100Bを最小繰り返し単位(ユニットU)とした例を示したが、これに限らない。これに代えて、例えば図33に示したように、画素ブロック100R,100Gr,100Gb,100Bを2つずつ、計8個の画素ブロックを最小繰り返し単位としてもよい。その場合、計8個の画素ブロックは、例えば4行×2列で配置される。具体的には、互いに同じ配置パターンを有する2個の画素ブロック100Rおよび2個の画素ブロック100Bと、2個の画素ブロック100Grおよび2個の画素ブロック100Gbとを、X軸方向およびY軸方向に交互に配置する。更に、このとき、電源電圧VDDの共有率を高める。
 例えば、上記実施の形態では、図34の(A)に示したように、例えば2個のユニットUに亘って[FD/FDG/RST/VDD/AMP/SEL/VSL]/[FD/FDG/RST/VDD]/[FD/FDG/RST/VDD/AMP/VSL]/[FD/FDG/RST/VDD]のように画素トランジスタの間に4個のVDDが設けられる。これに対して、本変形例では、図34の(B)に示したように、[FD/FDG/RST/VDD/AMP/SEL/VSL]/[FD/FDG/VDD/RST/FDG/FD]/[VSL/SEL/AMP/VDD/RST/FDG/FD]のように画素トランジスタの間に設けられるVDDは3個となる。
 これにより、面積効率を向上させることができる。具体的には、画素トランジスタのゲート長を拡大することができ、例えば、トランジスタAMPのゲート長を拡大した場合には、例えばランダムテレグラフノイズ(RTS)を低減することができる。トランジスタSEL、RSTのゲート長を拡大した場合には、閾値電圧(Vth)やカットオフ等のトランジスタの特性のばらつきを低減することができる。
[変形例3]
 図35は、本開示の変形例3に係る撮像装置(撮像装置1A)の垂直方向の断面構成の一例を表したものである。図36は、図35に示した撮像装置1Aの概略構成の一例を表したものである。撮像装置1Aは、半導体基板211に、光電変換を行う受光画素Pを有する第1基板210と、半導体基板221に、受光画素Pから出力された電荷に基づく画像信号を出力する読み出し回路42を有する第2基板220とが積層された3次元構造を有する撮像装置である。
 撮像装置1Aは、3つの基板(第1基板210、第2基板220および第3基板230)がこの順に積層されたものである。
 第1基板210は、上記のように、半導体基板211に、光電変換を行う複数の受光画素Pを有している。複数の受光画素Pは、第1基板210における画素アレイ31内に行列状に設けられている。第2基板220は、半導体基板221に、受光画素Pから出力された電荷に基づく画素信号を出力する読み出し回路42を4つの受光画素P毎に1つずつ有している。第2基板220は、行方向に延在する複数の画素駆動線43と、列方向に延在する複数の垂直信号線44とを有している。第3基板230は、半導体基板231に、画素信号を処理するロジック回路52を有している。ロジック回路32は、例えば、垂直駆動回路53、カラム信号処理回路54、水平駆動回路55およびシステム制御回路56を有している。ロジック回路52(具体的には水平駆動回路55)は、受光画素P毎の出力電圧Voutを外部に出力する。ロジック回路52では、例えば、ソース電極およびドレイン電極と接する不純物拡散領域の表面に、CoSiやNiSi等のサリサイド (Self Aligned Silicide)プロセスを用いて形成されたシリサイドからなる低抵抗領域が形成されていてもよい。
 垂直駆動回路53は、例えば、複数の受光画素Pを行単位で順に選択する。カラム信号処理回路54は、例えば、垂直駆動回路53によって選択された行の各受光画素Pから出力される画素信号に対して、相関二重サンプリング(Correlated Double Sampling:CDS)処理を施す。カラム信号処理回路54は、例えば、CDS処理を施すことにより、画素信号の信号レベルを抽出し、各受光画素Pの受光量に応じた画素データを保持する。水平駆動回路55は、例えば、カラム信号処理回路54に保持されている画素データを順次、外部に出力する。システム制御回路56は、例えば、ロジック回路52内の各ブロック(垂直駆動回路53、カラム信号処理回路54および水平駆動回路55)の駆動を制御する。
 撮像装置1Aは、上記のように、第1基板210、第2基板220および第3基板230がこの順に積層された構成を有し、さらに、第1基板210の裏面(光入射面)側に、カラーフィルタ240および受光レンズ250を備えている。カラーフィルタ240および受光レンズ250は、それぞれ、例えば、受光画素P毎に1つずつ設けられている。つまり、撮像装置1Aは、裏面照射型の撮像装置である。
 第1基板210は、半導体基板211の表面(面211S1)上に絶縁層46を積層して構成されている。第1基板210は、層間絶縁膜251の一部として、絶縁層246を有している。絶縁層246は、半導体基板211と、後述の半導体基板221との間に設けられている。半導体基板211は、シリコン基板で構成されている。半導体基板211は、例えば、表面の一部およびその近傍に、pウェル242を有しており、それ以外の領域(pウェル242よりも深い領域)に、pウェル242とは異なる導電型のPD241を有している。pウェル242は、p型の半導体領域で構成されている。PD241は、pウェル242とは異なる導電型(具体的にはn型)の半導体領域で構成されている。半導体基板211は、pウェル242内に、pウェル242とは異なる導電型(具体的にはn型)の半導体領域として、浮遊拡散層(FD)を有している。
 第1基板210は、フォトダイオード、転送トランジスタTRおよび浮遊拡散層を受光画素P毎に有している。第1基板210は、半導体基板211の面211S1側(光入射面側とは反対側、第2基板220側)の一部に、転送トランジスタTRおよび浮遊拡散層が設けられた構成となっている。第1基板210は、各受光画素Pを分離する素子分離部243を有している。素子分離部243は、半導体基板211の法線方向(半導体基板211の表面に対して垂直な方向)に延在して形成されている。素子分離部243は、互いに隣接する2つの受光画素Pの間に設けられている。素子分離部243は、互いに隣接する受光画素P同士を電気的に分離する。素子分離部243は、例えば、酸化シリコンによって構成されている。素子分離部243は、例えば、半導体基板211を貫通している。第1基板210は、例えば、さらに、素子分離部243の側面であって、且つ、フォトダイオード側の面に接するpウェル層244を有している。pウェル層244は、フォトダイオードとは異なる導電型(具体的にはp型)の半導体領域で構成されている。第1基板210は、例えば、さらに、半導体基板211の裏面(面211S2)に接する固定電荷膜245を有している。固定電荷膜245は、半導体基板211の受光面側の界面準位に起因する暗電流の発生を抑制するため、負に帯電している。固定電荷膜245は、例えば、負の固定電荷を有する絶縁膜によって形成されている。そのような絶縁膜の材料としては、例えば、酸化ハフニウム、酸化ジルコン、酸化アルミニウム、酸化チタンまたは酸化タンタルが挙げられる。固定電荷膜245が誘起する電界により、半導体基板211の受光面側の界面にホール蓄積層が形成される。このホール蓄積層によって、界面からの電子の発生が抑制される。カラーフィルタ240は、半導体基板211の裏面側に設けられている。カラーフィルタ240は、例えば、固定電荷膜245に接して設けられており、固定電荷膜245を介して受光画素Pと対向する位置に設けられている。受光レンズ250は、例えば、カラーフィルタ240に接して設けられており、カラーフィルタ240および固定電荷膜245を介して受光画素Pと対向する位置に設けられている。
 第2基板220は、半導体基板221上に絶縁層252を積層して構成されている。絶縁層252は、第2基板220は、層間絶縁膜251の一部として、絶縁層252を有している。絶縁層252は、半導体基板221と、半導体基板231との間に設けられている。半導体基板221は、シリコン基板で構成されている。第2基板220は、4つの受光画素P毎に、1つの読み出し回路222を有している。第2基板220は、半導体基板221の表面(第3基板230と対向する面221S1)側の一部に読み出し回路222が設けられた構成となっている。第2基板220は、半導体基板211の表面(面211S1)に対して半導体基板221の裏面(面21S2)を向けて第1基板210に貼り合わされている。つまり、第2基板220は、第1基板210に、フェイストゥーバックで貼り合わされている。第2基板220は、さらに、半導体基板221と同一の層内に、半導体基板221を貫通する絶縁層253を有している。第2基板220は、層間絶縁膜251の一部として、絶縁層253を有している。絶縁層253は、後述の貫通配線254の側面を覆うように設けられている。
 第1基板210および第2基板220からなる積層体は、層間絶縁膜251と、層間絶縁膜251内に設けられた貫通配線254を有している。上記積層体は、受光画素P毎に、1つの貫通配線254を有している。貫通配線254は、半導体基板221の法線方向に延びており、層間絶縁膜251のうち、絶縁層253を含む箇所を貫通して設けられている。第1基板210および第2基板220は、貫通配線254によって互いに電気的に接続されている。具体的には、貫通配線254は、浮遊拡散層および後述の接続配線255に電気的に接続されている。なお、貫通配線254は、周囲の絶縁層246,252,253との間に、例えば、酸素吸蔵効果を有する金属を含む金属層を有することが好ましい。これにより、貫通配線254を形成することによって形成された開口を介した酸素の侵入を防ぐことが可能となる。
 第1基板210および第2基板220からなる積層体は、さらに、層間絶縁膜251内に設けられると共に、例えば、半導体基板211のpウェル242および第2基板220内の配線や、転送ゲートTGおよび画素駆動線43に電気的に接続される貫通配線(図示せず)を有している。また、転送ゲートTGは縦型のゲート構造を有し、素子分離部115の深さよりも深く形成されている。また、転送ゲートTGの位置は、平面視において受光画素Pの中心から外れた位置に配置されている。
 第2基板220は、例えば、絶縁層252内に、読み出し回路42や半導体基板221と電気的に接続された複数の接続部259を有している。第2基板220は、さらに、例えば、絶縁層252上に配線層256を有している。配線層256は、例えば、絶縁層257と、絶縁層257内に設けられた複数の画素駆動線43および複数の垂直信号線424を有している。配線層256は、さらに、例えば、絶縁層257内に複数の接続配線255を4つの受光画素P毎に1つずつ有している。接続配線255は、読み出し回路42を共有する4つの受光画素Pに含まれる浮遊拡散層に電気的に接続された各貫通配線254を互いに電気的に接続している。
 配線層256は、さらに、例えば、絶縁層257内に複数のパッド電極258を有している。各パッド電極258は、例えば、Cu(銅)、Al(アルミニウム)等の金属で形成されている。各パッド電極258は、配線層256の表面に露出している。各パッド電極258は、第2基板220と第3基板230との電気的な接続と、第2基板220と第3基板230との貼り合わせに用いられる。複数のパッド電極258は、例えば、画素駆動線223および垂直信号線224毎に1つずつ設けられている。
 第3基板230は、例えば、半導体基板231上に層間絶縁膜261を積層して構成されている。なお、第3基板230は、後述するように、第2基板220に、表面側の面同士で貼り合わされていることから、第3基板230内の構成について説明する際には、上下の説明が、図面での上下方向とは逆となっている。半導体基板231は、シリコン基板で構成されている。第3基板230は、半導体基板231の表面(面231S1)側の一部にロジック回路52が設けられた構成となっている。第3基板230は、さらに、例えば、層間絶縁膜261上に配線層262を有している。配線層262は、例えば、絶縁層263と、絶縁層263内に設けられた複数のパッド電極264を有している。複数のパッド電極264は、ロジック回路52と電気的に接続されている。各パッド電極264は、例えば、Cu(銅)で形成されている。各パッド電極264は、配線層262の表面に露出している。各パッド電極264は、第2基板220と第3基板230との電気的な接続と、第2基板220と第3基板230との貼り合わせに用いられる。また、パッド電極264は、必ずしも複数でなくてもよく、1つでもロジック回路52と電気的に接続が可能である。第2基板220および第3基板230は、パッド電極258,264同士の接合によって、互いに電気的に接続されている。つまり、転送トランジスタTRのゲート(転送ゲートTG)は、貫通配線254と、パッド電極258,264とを介して、ロジック回路52に電気的に接続されている。第3基板230は、半導体基板221の表面(面221S1)側に半導体基板231の表面(面231S1)を向けて第2基板220に貼り合わされている。つまり、第3基板230は、第2基板220に、フェイストゥーフェイスで貼り合わされている。
 このように、本変形例では、フォトダイオードと画素トランジスタ(読み出し回路42)とを異なる基板に設けるようにした。これにより、上記実施の形態の効果に加えて、フォトダイオードの面積を拡大することができ、感度や飽和容量を増加させることが可能となる。また、画素トランジスタの面積も拡大することができる。例えば、トランジスタAMPのゲート長を拡大した場合には、例えばランダムテレグラフノイズ(RTS)を低減することが可能となる。トランジスタSEL、RSTのゲート長を拡大した場合には、閾値電圧(Vth)やカットオフ等のトランジスタ特性のばらつきを低減することが可能となる。
[変形例4]
 上記実施の形態では、図12において変換効率を切り替えるためのトランジスタFDGを追加した例を示したが、その際の画素ブロック(例えば、画素ブロック100R,100Gr)の構成を図37A~図37Dに示す。図37Aは、トランジスタFDGを追加した際の画素ブロック100Grの構成の一例を表したものである。図37Bは、トランジスタFDGを追加した際の画素ブロック100Grの構成の他の例を表したものである。図37Cは、トランジスタFDGを追加した際の画素ブロック100Rの構成の一例を表したものである。図37Dは、トランジスタFDGを追加した際の画素ブロック100Rの構成の他の例を表したものである。
 また、複数のSubFDは、1つのトランジスタFDGにつき1つ配置してもよいし、複数のトランジスタFDGで共有していてもよい。また、複数のSubFDは、隣接する接続配線FDLが兼ねていてもよい。
[変形例5]
 図38は、本開示の変形例5に係る、例えば配線層123に設けられた各種配線(複数のSubFDの接続配線SubFDL、複数の制御線SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図39は、図38に示した画素ブロックの構成を表す回路図である。なお、図39では、各画素ブロック(画素ブロック100Gb,100R)を構成する複数の受光画素Pを1つのPDで表し簡略化している。
 8個の受光画素Pからなる画素ブロック100R,100Bと、10個の受光画素Pからなる画素ブロック100Gr,100Gbとが、SubFDを介して互いにFDを共有するようにしてもよい。SubFDは、FDGトランジスタとRSTトランジスタの間のノードに接続される、低変換効率駆動時の容量を確保するためのメタル配線であり、本開示における「変換効率切り替え用配線」の一具体例に相当する。
 具体的には、例えば図38に示したように、Y軸方向に隣り合う画素ブロック100Gbの変換効率切り替え用の配線(SubFD)と、画素ブロック100RのSubFDとを接続配線SubFDLを介して互いに接続する。例えば図39に示したように、接続されたSubFDの一端は、画素ブロック100GbのトランジスタRSTのソースおよびトランジスタFDGのドレインと接続され、他端は画素ブロック100RのトランジスタRSTのソースおよびトランジスタFDGのドレインと接続される。また、Y軸方向に隣り合う画素ブロック100BのSubFDと、画素ブロック100GrのSubFDとを接続配線SubFDLを介して電気的に接続する。図示していないが、接続されたSubFDの一端は、画素ブロック100BのトランジスタRSTのソースおよびトランジスタFDGのドレインと接続され、他端は画素ブロック100GrのトランジスタRSTのソースおよびトランジスタFDGのドレインと接続される。
 なお、図38では、便宜上、接続配線SubFDLの線幅をSubFDの線幅よりも狭く示したがこれに限定されるものではない。実際には、接続配線SubFDLの線幅は、SubFDの線幅と同等に形成される。
 以上により、Y軸方向に隣り合う画素ブロック(例えば、画素ブロック100Gbと画素ブロック100R、または、画素ブロック100Bと画素ブロック100Gr)は、互いに画素ブロックにそれぞれ設けられたSubFDの容量を効率的に利用できるようになり、ダイナミックレンジを拡大させることが可能となる。加えて、低変換効率(Low)時の変換効率をより低下させることが可能となる。
 また、上記実施の形態等の撮像装置1のユニットUでは、8個の受光画素Pからなる画素ブロック100R,100Bと、10個の受光画素Pからなる画素ブロック100Gr,100Grとの間で変換効率に差分が生じる。そのため、後段の補正回路において変換効率を一致させることが望ましい。
 これに対して本変形例では、Y軸方向に隣り合う、8個の受光画素Pからなる画素ブロック100Rと10個の受光画素Pからなる画素ブロック100Gbとの間、8個の受光画素Pからなる画素ブロック100Bと10個の受光画素Pからなる画素ブロック100Grとの間において、それぞれ、SubFDを介してFDを共有するようにした。これにより、ユニットU内においてFDを共有する構成画素数が共に18個となるため、低変換効率(Low)時の変換効率の差が小さくなる。よって、上記実施の形態等において変換効率の差分に対応するためにLow系統用に2系統設けられていたアナログ回路を共通化することが可能となる。
 更に、本変形例では、Y軸方向に隣り合う画素ブロック間で共有されるSubFDを、それぞれの画素ブロックのトランジスタRSTのソースに接続するようにしたので、高変換効率(High)時には、FDを共有する画素ブロックの少なくとも一方のトランジスタRSTをオン状態にし、トランジスタFDGをオフ状態にすることにより、SubFDが電源電位(VDD)に固定される。これにより、FD-FDカップリング容量が低減される。よって、SubFDを共有する画素ブロック間の信号の混色を低減することが可能となる。
[変形例6]
 図40は、本開示の変形例6に係る、例えば配線層123に設けられた各種配線(複数のSubFDの接続配線SubFDL、複数の制御線SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。図41は、図40に示した画素ブロックの構成を表す回路図である。なお、図41では、各画素ブロック(画素ブロック100Gb,100R)を構成する複数の受光画素Pを1つのPDで表し簡略化している。
 上記変形例5のように、Y軸方向に隣り合う、画素ブロック100GbのトランジスタRSTのソースおよびトランジスタFDGのドレインと、画素ブロック100RのトランジスタRSTのソースおよびトランジスタFDGのドレインとに接続されるSubFDの間、画素ブロック100BのトランジスタRSTのソースおよびトランジスタFDGのドレインと、画素ブロック100GrのトランジスタRSTのソースおよびトランジスタFDGのドレインとに接続されるSubFDの間には、それぞれ、スイッチ素子117を配置するようにしてもよい。具体的には、SubFDの一部をスイッチ素子117の近傍で他の配線層(例えば、配線層122)にビアを介して落とし、スイッチ素子117のオン/オフの切り替えによってSubFDの接続と分離とを制御する。
 例えば、高変換効率(High)時にはスイッチ素子117をオフ状態、低変換効率(Low)時にはスイッチ素子117をオン状態にする。これにより、高変換効率(High)時にSubFDは電気的に浮遊状態となるため、SubFDを介したFD-FDカップリングが抑制される。よって、SubFDを共有する画素ブロック間(例えば、画素ブロック100Gbと画素ブロック100Rとの間、画素ブロック100Gbと画素ブロック100Bとの間)の信号の混色を低減することが可能となる。
[変形例7]
 図42は、本開示の変形例7に係る、画素ブロックの構成を表す回路図である。なお、図42では、各画素ブロック(画素ブロック100Gb,100R)を構成する複数の受光画素Pを1つのPDで表し簡略化している。図43は、図42に示した画素ブロックにおける高変換効率換駆動時および低変換効率駆動時の各トランジスタのタイミングチャート図である。
 上記変形例5では、高変換効率(High)時にSubFDを電源電位(VDD)に固定する例を示したが、これに限定されるものではない。例えば、図42に示したように、トランジスタRSTのドレインを別の電源線(VB)に接続し、画素アレイ外に配置した切り替えスイッチを使って、画素をリセットする際は電源電位(VDD)に接続し、蓄積期間および高変換効率(High)時は固定電位(例えば、GND)に接続してもよい。
 これにより、上記変形例5と同様に、SubFDを共有する画素ブロック間(例えば、画素ブロック100Gbと画素ブロック100Rとの間、画素ブロック100Gbと画素ブロック100Bとの間)の信号の混色を低減することが可能となる。加えて、上記変形例5のようにSubFDをVDDに電位固定した場合には、信号に電源ノイズが乗る(電源電圧変動除去比;PSRR)虞があるが、本変形例のようにGNDに固定することにより、PSRRを防止することが可能となる。
[変形例8]
 図44は、本開示の変形例8に係る、画素ブロックの構成を表す回路図である。なお、図44では、各画素ブロック(画素ブロック100Gb,100R)を構成する複数の受光画素Pを1つのPDで表し簡略化している。
 上記変形例5~7では、画素ブロック100R,100Gr,100Gb,100BにおいてトランジスタRSTおよびトランジスタFDGが直列に接続されている例を示したが、これに限定されるものではない。トランジスタRSTおよびトランジスタFDGは、図44に示したように、FDに対して並列に接続されていてもよい。
 このように、FDに対するトランジスタRSTおよびトランジスタFDGの接続を直列および並列の両方を選択できるようにすることで、レイアウトの自由度を向上させることができる。
[変形例9]
 図45は、本開示の変形例9に係る、例えば配線層123に設けられた各種配線(複数のSubFDの接続配線SubFDL、複数の制御線SELL、複数の信号線VSL、基準電位線VSSおよび電源線VDDL)を画素ブロック100R,100Gr,100Gb,100Bの外形と共に表したものである。
 上記変形例5~8では、Y軸方向に隣り合う、画素ブロック100Gbと画素ブロック100RとにおいてSubFDを、画素ブロック100Bと画素ブロック100GrとにおいてSubFDを共有するようにしたが、これに限定されるものではない。SubFDは、X軸方向に隣り合う画素ブロック100Grと画素ブロック100Rとにおいて、画素ブロック100Gbと画素ブロック100Bとにおいて共有するようにしてもよい。
 このように、X軸方向またはY軸方向に隣り合う画素ブロック100R,100Gr,100Gb,100BにおいてSubFDを共有できるようにすることで、レイアウトや駆動の設計の自由度を向上させることができる。
[その他の変形例]
 また、これらの変形例は互いに組み合わせてもよい。例えば、Y軸方向に隣り合う、画素ブロック100Gbと画素ブロック100RとにおいてSubFDを、画素ブロック100Bと画素ブロック100GrとにおいてSubFDを共有したうえで、さらにX軸方向に隣り合う画素ブロック100Grと画素ブロック100Rとにおいて、画素ブロック100Gbと画素ブロック100Bを共有してもよい。これにより、低変換効率時にさらに変換効率を低くすることが可能となる。
<3.撮像装置の使用例>
 図47は、上記実施の形態に係る撮像装置1の使用例を表すものである。上述した撮像装置1は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビジョンや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<4.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図48は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図48に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図48の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図49は、撮像部12031の設置位置の例を示す図である。
 図49では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図49には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。車両に搭載される撮像装置では、撮像画像の画質を高めることができる。その結果、車両制御システム12000では、車両の衝突回避あるいは衝突緩和機能、車間距離に基づく追従走行機能、車速維持走行機能、車両の衝突警告機能、車両のレーン逸脱警告機能等を、高い精度で実現できる。
 以上、実施の形態および変形例、ならびにそれらの具体的な応用例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、画素アレイにおける画素ブロックの配置、および画素ブロックにおける受光画素Pの配置は、上記実施の形態などに記載された配置に限定されるものではなく、様々な配置が可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、撮像画像の画質を高めることができる。
(1)
 それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素を有し、前記複数の受光画素は、それぞれが第1の方向に隣り合う2つの受光画素を含む複数の第1の画素ペアに区分された複数の画素ブロックと、
 前記複数の第1の画素ペアに対応する位置にそれぞれ設けられた複数のレンズと、
 前記複数の第1の画素ペアの前記第1の方向に隣り合う2つの受光画素の境界に配置され、それぞれが前記複数の第1の画素ペアにおいて共有された複数の浮遊拡散層と
 を備えた撮像装置。
(2)
 前記複数の受光画素のそれぞれに設けられた、受光量に応じた電荷を光電変換により生成する複数の受光部と、前記複数の受光部のそれぞれにおいて生成された前記電荷を前記複数の浮遊拡散層に転送する複数の第1のトランジスタとをさらに有し、
 前記複数の第1のトランジスタのそれぞれのゲートは、前記複数の第1の画素ペアのそれぞれにおいて、前記複数の浮遊拡散層を間にして前記第1の方向に沿って対向配置され、
 前記複数の浮遊拡散層のそれぞれは、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分に対して法線方向にずれて配置される、前記(1)に記載の撮像装置。
(3)
 前記複数の浮遊拡散層上には、それぞれ、複数の浮遊拡散層コンタクトがさらに設けられており、
 前記複数の浮遊拡散層コンタクトは、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分上または前記複数の浮遊拡散層と共に、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分に対して法線方向にずれて配置される、前記(2)に記載の撮像装置。
(4)
 前記複数の画素ブロック毎に設けられた複数の第2のトランジスタをさらに有し、
 前記複数の第2のトランジスタは、前記複数の第1のトランジスタとは、前記第1の方向と交差する第2の方向に異なる位置において前記第1の方向に沿って設けられており、
 前記複数の受光部と前記複数の第2のトランジスタとは第1の素子分離部によって電気的に分離される、前記(2)または(3)に記載の撮像装置。
(5)
 前記第1の素子分離部は絶縁層を含んで形成されており、
 前記複数の浮遊拡散層は、平面視において前記第1の素子分離部寄りに設けられている、前記(4)に記載の撮像装置。
(6)
 前記第1の素子分離部は不純物層を含んで形成されており、
 前記複数の浮遊拡散層は、平面視において前記第1の素子分離部から遠ざかる方向に設けられている、前記(4)に記載の撮像装置。
(7)
 前記第1の方向において隣り合う前記複数の第2のトランジスタの間にそれぞれ設けられ、前記第1の方向において隣り合う前記複数の第2のトランジスタを互いに電気的に分離する複数の第2の素子分離部をさらに有する、前記(4)乃至(6)のうちのいずれか1つに記載の撮像装置。
(8)
 前記複数の第2の素子分離部は、絶縁層または不純物層を含んで形成されている、前記(7)に記載の撮像装置。
(9)
 前記複数の受光画素は、前記第1の方向と交差する第2の方向に隣り合う2つの受光画素を第2の画素ペアとして前記第2の方向に周期的に配置され、且つ、前記第1の方向に隣り合う2つの前記第2の画素ペアは互いに鏡像構造を有する、前記(1)乃至(8)のうちのいずれか1つに記載の撮像装置。
(10)
 対向する第1の面および第2の面を有し、前記複数の受光画素がマトリクス状に配置されると共に、前記複数の受光部のそれぞれが、前記複数の受光画素毎に埋め込み形成された半導体基板をさらに有し、
 前記複数のレンズは前記半導体基板の前記第2の面側に設けられ、前記複数の浮遊拡散層、前記複数の第1のトランジスタおよび前記複数の第2のトランジスタはそれぞれ前記半導体基板の前記第1の面に設けられる、前記(3)乃至(9)のうちのいずれか1つに記載の撮像装置。
(11)
 前記半導体基板の前記第1の面には、前記半導体基板に固定電位を印加する複数の基板コンタクトがさらに設けられる、前記(10)に記載の撮像装置。
(12)
 前記複数の基板コンタクトは、平面視において、前記第1の方向に沿って設けられた前記複数の第2のトランジスタの間に設けられる、前記(11)に記載の撮像装置。
(13)
 前記複数の基板コンタクトは、平面視において、前記第1の方向に隣り合う前記複数の受光部の間にそれぞれ設けられる、前記(11)に記載の撮像装置。
(14)
 前記複数の画素ブロックのそれぞれにおいて、前記第1の方向と交差する第2の方向に並ぶ2つの前記第1の画素ペアは、前記第1の方向においてずれて配置されている、前記(1)乃至(13)のうちのいずれか1つに記載の撮像装置。
(15)
 前記複数の画素ブロックは、第1の画素ブロックと、第2の画素ブロックとを含み、
 前記第1の画素ブロックにおいて、前記複数の受光画素は、第1の配置パターンで配置され、
 前記第2の画素ブロックにおいて、前記複数の受光画素は、第2の配置パターンで配置される、前記(1)乃至(14)のうちのいずれか1つに記載の撮像装置。
(16)
 前記複数の画素ブロックは、最小繰り返し単位として2行×2列に配置された、2つの前記第1の画素ブロックおよび2つの前記第2の画素ブロックを有し、
 前記2つの第1の画素ブロックと、前記2つの第2の画素ブロックとは互いに交差する対角線上に配置される、前記(15)に記載の撮像装置。
(17)
 前記第1の画素ブロックにおける前記複数の受光画素の数は、前記第2の画素ブロックにおける前記複数の受光画素の数より多く、
 前記2つの第1の画素ブロックに含まれる前記複数の受光画素は、緑色の前記カラーフィルタを含み、
 前記2つの第2の画素ブロックのうちの一方の前記第2の画素ブロックに含まれる前記複数の受光画素は、赤色の前記カラーフィルタを含み、
 前記2つの第2の画素ブロックのうちの他方の前記第2の画素ブロックに含まれる前記複数の受光画素は、青色の前記カラーフィルタを含む、前記(16)に記載の撮像装置。
(18)
 前記複数の受光画素のそれぞれに設けられた、受光量に応じた電荷を光電変換により生成する複数の受光部と、前記複数の受光部のそれぞれにおいて生成された前記電荷を前記複数の浮遊拡散層に転送する複数の第1のトランジスタと、
 前記複数の画素ブロック毎に、前記複数の第1のトランジスタとは前記第1の方向と交差する第2の方向に異なる位置において前記第1の方向に沿って設けられた複数の第2のトランジスタとをさらに有し、
 前記最小繰り返し単位において、前記複数の浮遊拡散層、前記複数の第1のトランジスタおよび前記複数の第2のトランジスタは、平面視において、前記最小繰り返し単位の中心に対して点対称に配置される、前記(16)または(17)に記載の撮像装置。
(19)
 前記最小繰り返し単位において、前記2つの第1の画素ブロックおよび前記2つの第2の画素ブロックのそれぞれに設けられた前記複数の浮遊拡散層、前記複数の第1のトランジスタ、前記複数の第2のトランジスタおよび基準電位を供給する基準電位線に接続される複数の配線は、平面視において、前記最小繰り返し単位の中心に対して点対称に配置される、前記(16)乃至(18)のうちのいずれか1つに記載の撮像装置。
(20)
 前記第2のトランジスタとして、増幅トランジスタ、選択トランジスタおよびリセットトランジスタを有し、
 1つの前記画素ブロックにおいて設けられた前記複数の浮遊拡散層は互いに連続する第1の配線を介して前記増幅トランジスタに接続され、
 前記第1の配線を含む配線層内には、1つの前記画素ブロックにおいて設けられた前記複数の第1のトランジスタに接続される制御線の一部が、前記第1の配線に沿って設けられている、前記(19)に記載の撮像装置。
(21)
 前記第2のトランジスタとして変換効率切替トランジスタをさらに有する、前記(20)に記載の撮像装置。
(22)
 前記複数の画素ブロック毎に前記第1の方向に沿って設けられる複数の第2のトランジスタをさらに有し、
 前記複数の第2トランジスタは、前記第1の方向および前記第2の方向のそれぞれに周期的に配置され、前記第1の方向の繰り返し周期は前記第2の方向の繰り返し周期よりも大きい、前記(4)乃至(21)のうちのいずれか1つに記載の撮像装置。
(23)
 前記第1の方向の繰り返し周期は、前記第2の方向の繰り返し周期の2倍である、前記(22)に記載の撮像装置。
(24)
 前記複数の受光部、前記複数の浮遊拡散層および前記第1のトランジスタが設けられた第1基板と、
 前記第2のトランジスタを含む読み出し回路が設けられた第2基板と、
 前記第1基板と前記第2基板とを電気的に接続する貫通配線とをさらに有する、前記(4)乃至(23)のうちのいずれか1つに記載の撮像装置。
(25)
 前記複数の第1のトランジスタのそれぞれのゲートは、平面視において前記複数の受光画素それぞれの中心部から外れた位置に設けられている、前記(2)乃至(24)のうちのいずれか1つに記載の撮像装置。
(26)
 前記複数の第1のトランジスタのそれぞれのゲートは縦型のゲート構造を有し、前記第1の素子分離部よりも深い、前記(4)乃至(25)のうちのいずれか1つに記載の撮像装置。
(27)
 前記第1の画素ブロックと前記第2の画素ブロックとは、変換効率切り替え用配線を介して互いに電気的に接続されている、前記(21)乃至(26)のうちのいずれか1つに記載の撮像装置。
(28)
 前記変換効率切り替え用配線の間にスイッチ素子をさらに有し、
 前記スイッチ素子を介して前記第1の画素ブロックと前記第2の画素ブロックとの電気的に接続と分離がなされる、前記(27)に記載の撮像装置。
(29)
 前記変換効率切り替え用配線は、高変換効率駆動時に電源電位に固定される、前記(27)または(28)に記載の撮像装置。
(30)
 前記変換効率切り替え用配線は、高変換効率駆動時にグランド電位に固定される、前記(27)または(28)に記載の撮像装置。
(31)
 前記リセットトランジスタのドレインに電源線を接続し、前記複数の受光画素がアレイ状に配置されてなる画素アレイ外に配置した切り替えスイッチを使って電圧を切り替える、前記(27)乃至(30)のうちのいずれか1つに記載の撮像装置。
(32)
 前記リセットトランジスタと前記変換効率切替トランジスタとは直列に接続されている、前記(27)乃至(31)のうちのいずれか1つに記載の撮像装置。
(33)
 前記リセットトランジスタと前記変換効率切替トランジスタとは並列に接続されている、前記(27)乃至(31)のうちのいずれか1つに記載の撮像装置。
(34)
 前記変換効率切り替え用配線は、行方向に隣接する前記第1の画素ブロックと前記第2の画素ブロックとを接続する、前記(27)乃至(33)のうちのいずれか1つに記載の撮像装置。
(35)
 前記変換効率切り替え用配線は、列方向に隣接する前記第1の画素ブロックと前記第2の画素ブロックとを接続する、前記(27)乃至(33)のうちのいずれか1つに記載の撮像装置。
 本出願は、日本国特許庁において2021年8月31日に出願された日本特許出願番号2021-141880号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (35)

  1.  それぞれが、互いに同じ色のカラーフィルタを含む複数の受光画素を有し、前記複数の受光画素は、それぞれが第1の方向に隣り合う2つの受光画素を含む複数の第1の画素ペアに区分された複数の画素ブロックと、
     前記複数の第1の画素ペアに対応する位置にそれぞれ設けられた複数のレンズと、
     前記複数の第1の画素ペアの前記第1の方向に隣り合う2つの受光画素の境界に配置され、それぞれが前記複数の第1の画素ペアにおいて共有された複数の浮遊拡散層と
     を備えた撮像装置。
  2.  前記複数の受光画素のそれぞれに設けられた、受光量に応じた電荷を光電変換により生成する複数の受光部と、前記複数の受光部のそれぞれにおいて生成された前記電荷を前記複数の浮遊拡散層に転送する複数の第1のトランジスタとをさらに有し、
     前記複数の第1のトランジスタのそれぞれのゲートは、前記複数の第1の画素ペアのそれぞれにおいて、前記複数の浮遊拡散層を間にして前記第1の方向に沿って対向配置され、
     前記複数の浮遊拡散層のそれぞれは、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分に対して法線方向にずれて配置される、請求項1に記載の撮像装置。
  3.  前記複数の浮遊拡散層上には、それぞれ、複数の浮遊拡散層コンタクトがさらに設けられており、
     前記複数の浮遊拡散層コンタクトは、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分上または前記複数の浮遊拡散層と共に、前記第1の方向に沿って対向配置された前記複数の第1のトランジスタのそれぞれのゲートの中心を通る線分に対して法線方向にずれて配置される、請求項2に記載の撮像装置。
  4.  前記複数の画素ブロック毎に設けられた複数の第2のトランジスタをさらに有し、
     前記複数の第2のトランジスタは、前記複数の第1のトランジスタとは、前記第1の方向と交差する第2の方向に異なる位置において前記第1の方向に沿って設けられており、
     前記複数の受光部と前記複数の第2のトランジスタとは第1の素子分離部によって電気的に分離される、請求項2に記載の撮像装置。
  5.  前記第1の素子分離部は絶縁層を含んで形成されており、
     前記複数の浮遊拡散層は、平面視において前記第1の素子分離部寄りに設けられている、請求項4に記載の撮像装置。
  6.  前記第1の素子分離部は不純物層を含んで形成されており、
     前記複数の浮遊拡散層は、平面視において前記第1の素子分離部から遠ざかる方向に設けられている、請求項4に記載の撮像装置。
  7.  前記第1の方向において隣り合う前記複数の第2のトランジスタの間にそれぞれ設けられ、前記第1の方向において隣り合う前記複数の第2のトランジスタを互いに電気的に分離する複数の第2の素子分離部をさらに有する、請求項4に記載の撮像装置。
  8.  前記複数の第2の素子分離部は、絶縁層または不純物層を含んで形成されている、請求項7に記載の撮像装置。
  9.  前記複数の受光画素は、前記第1の方向と交差する第2の方向に隣り合う2つの受光画素を第2の画素ペアとして前記第2の方向に周期的に配置され、且つ、前記第1の方向に隣り合う2つの前記第2の画素ペアは互いに鏡像構造を有する、請求項1に記載の撮像装置。
  10.  対向する第1の面および第2の面を有し、前記複数の受光画素がマトリクス状に配置されると共に、前記複数の受光部のそれぞれが、前記複数の受光画素毎に埋め込み形成された半導体基板をさらに有し、
     前記複数のレンズは前記半導体基板の前記第2の面側に設けられ、前記複数の浮遊拡散層、前記複数の第1のトランジスタおよび前記複数の第2のトランジスタはそれぞれ前記半導体基板の前記第1の面に設けられる、請求項3に記載の撮像装置。
  11.  前記半導体基板の前記第1の面には、前記半導体基板に固定電位を印加する複数の基板コンタクトがさらに設けられる、請求項10に記載の撮像装置。
  12.  前記複数の基板コンタクトは、平面視において、前記第1の方向に沿って設けられた前記複数の第2のトランジスタの間に設けられる、請求項11に記載の撮像装置。
  13.  前記複数の基板コンタクトは、平面視において、前記第1の方向に隣り合う前記複数の受光部の間にそれぞれ設けられる、請求項11に記載の撮像装置。
  14.  前記複数の画素ブロックのそれぞれにおいて、前記第1の方向と交差する第2の方向に並ぶ2つの前記第1の画素ペアは、前記第1の方向においてずれて配置されている、請求項1に記載の撮像装置。
  15.  前記複数の画素ブロックは、第1の画素ブロックと、第2の画素ブロックとを含み、
     前記第1の画素ブロックにおいて、前記複数の受光画素は、第1の配置パターンで配置され、
     前記第2の画素ブロックにおいて、前記複数の受光画素は、第2の配置パターンで配置される、請求項1に記載の撮像装置。
  16.  前記複数の画素ブロックは、最小繰り返し単位として2行×2列に配置された、2つの前記第1の画素ブロックおよび2つの前記第2の画素ブロックを有し、
     前記2つの第1の画素ブロックと、前記2つの第2の画素ブロックとは互いに交差する対角線上に配置される、請求項15に記載の撮像装置。
  17.  前記第1の画素ブロックにおける前記複数の受光画素の数は、前記第2の画素ブロックにおける前記複数の受光画素の数より多く、
     前記2つの第1の画素ブロックに含まれる前記複数の受光画素は、緑色の前記カラーフィルタを含み、
     前記2つの第2の画素ブロックのうちの一方の前記第2の画素ブロックに含まれる前記複数の受光画素は、赤色の前記カラーフィルタを含み、
     前記2つの第2の画素ブロックのうちの他方の前記第2の画素ブロックに含まれる前記複数の受光画素は、青色の前記カラーフィルタを含む、請求項16に記載の撮像装置。
  18.  前記複数の受光画素のそれぞれに設けられた、受光量に応じた電荷を光電変換により生成する複数の受光部と、前記複数の受光部のそれぞれにおいて生成された前記電荷を前記複数の浮遊拡散層に転送する複数の第1のトランジスタと、
     前記複数の画素ブロック毎に、前記複数の第1のトランジスタとは前記第1の方向と交差する第2の方向に異なる位置において前記第1の方向に沿って設けられた複数の第2のトランジスタとをさらに有し、
     前記最小繰り返し単位において、前記複数の浮遊拡散層、前記複数の第1のトランジスタおよび前記複数の第2のトランジスタは、平面視において、前記最小繰り返し単位の中心に対して点対称に配置される、請求項16に記載の撮像装置。
  19.  前記最小繰り返し単位において、前記2つの第1の画素ブロックおよび前記2つの第2の画素ブロックのそれぞれに設けられた前記複数の浮遊拡散層、前記複数の第1のトランジスタ、前記複数の第2のトランジスタおよび基準電位を供給する基準電位線に接続される複数の配線は、平面視において、前記最小繰り返し単位の中心に対して点対称に配置される、請求項16に記載の撮像装置。
  20.  前記第2のトランジスタとして、増幅トランジスタ、選択トランジスタおよびリセットトランジスタを有し、
     1つの前記画素ブロックにおいて設けられた前記複数の浮遊拡散層は互いに連続する第1の配線を介して前記増幅トランジスタに接続され、
     前記第1の配線を含む配線層内には、1つの前記画素ブロックにおいて設けられた前記複数の第1のトランジスタに接続される制御線の一部が、前記第1の配線に沿って設けられている、請求項19に記載の撮像装置。
  21.  前記第2のトランジスタとして変換効率切替トランジスタをさらに有する、請求項20に記載の撮像装置。
  22.  前記複数の画素ブロック毎に前記第1の方向に沿って設けられる複数の第2のトランジスタをさらに有し、
     前記複数の第2トランジスタは、前記第1の方向および前記第2の方向のそれぞれに周期的に配置され、前記第1の方向の繰り返し周期は前記第2の方向の繰り返し周期よりも大きい、請求項4に記載の撮像装置。
  23.  前記第1の方向の繰り返し周期は、前記第2の方向の繰り返し周期の2倍である、請求項22に記載の撮像装置。
  24.  前記複数の受光部、前記複数の浮遊拡散層および前記第1のトランジスタが設けられた第1基板と、
     前記第2のトランジスタを含む読み出し回路が設けられた第2基板と、
     前記第1基板と前記第2基板とを電気的に接続する貫通配線とをさらに有する、請求項4に記載の撮像装置。
  25.  前記複数の第1のトランジスタのそれぞれのゲートは、平面視において前記複数の受光画素それぞれの中心部から外れた位置に設けられている、請求項2に記載の撮像装置。
  26.  前記複数の第1のトランジスタのそれぞれのゲートは縦型のゲート構造を有し、前記第1の素子分離部よりも深い、請求項4に記載の撮像装置。
  27.  前記第1の画素ブロックと前記第2の画素ブロックとは、変換効率切り替え用配線を介して互いに電気的に接続されている、請求項21に記載の撮像装置。
  28.  前記変換効率切り替え用配線の間にスイッチ素子をさらに有し、
     前記スイッチ素子を介して前記第1の画素ブロックと前記第2の画素ブロックとの電気的に接続と分離がなされる、請求項27に記載の撮像装置。
  29.  前記変換効率切り替え用配線は、高変換効率駆動時に電源電位に固定される、請求項27に記載の撮像装置。
  30.  前記変換効率切り替え用配線は、高変換効率駆動時にグランド電位に固定される、請求項27に記載の撮像装置。
  31.  前記リセットトランジスタのドレインに電源線を接続し、前記複数の受光画素がアレイ状に配置されてなる画素アレイ外に配置した切り替えスイッチを使って電圧を切り替える、請求項27に記載の撮像装置。
  32.  前記リセットトランジスタと前記変換効率切替トランジスタとは直列に接続されている、請求項27に記載の撮像装置。
  33.  前記リセットトランジスタと前記変換効率切替トランジスタとは並列に接続されている、請求項27に記載の撮像装置。
  34.  前記変換効率切り替え用配線は、行方向に隣接する前記第1の画素ブロックと前記第2の画素ブロックとを接続する、請求項27に記載の撮像装置。
  35.  前記変換効率切り替え用配線は、列方向に隣接する前記第1の画素ブロックと前記第2の画素ブロックとを接続する、請求項27に記載の撮像装置。
PCT/JP2022/024389 2021-08-31 2022-06-17 撮像装置 Ceased WO2023032416A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP22864004.1A EP4398592A1 (en) 2021-08-31 2022-06-17 Imaging device
KR1020247005214A KR20240051127A (ko) 2021-08-31 2022-06-17 촬상 장치
JP2023545107A JPWO2023032416A1 (ja) 2021-08-31 2022-06-17
CN202280057528.5A CN117837152A (zh) 2021-08-31 2022-06-17 成像装置
US18/293,042 US20240373140A1 (en) 2021-08-31 2022-06-17 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-141880 2021-08-31
JP2021141880 2021-08-31

Publications (1)

Publication Number Publication Date
WO2023032416A1 true WO2023032416A1 (ja) 2023-03-09

Family

ID=85412074

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024389 Ceased WO2023032416A1 (ja) 2021-08-31 2022-06-17 撮像装置

Country Status (7)

Country Link
US (1) US20240373140A1 (ja)
EP (1) EP4398592A1 (ja)
JP (1) JPWO2023032416A1 (ja)
KR (1) KR20240051127A (ja)
CN (1) CN117837152A (ja)
TW (1) TW202329677A (ja)
WO (1) WO2023032416A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010103667A (ja) * 2008-10-22 2010-05-06 Sony Corp 固体撮像装置、固体撮像装置の駆動方法および撮像装置
JP2010212288A (ja) * 2009-03-06 2010-09-24 Renesas Electronics Corp 撮像装置
JP2013038312A (ja) * 2011-08-10 2013-02-21 Fujifilm Corp Mos型固体撮像素子及び撮像装置
WO2013100036A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子
WO2016098640A1 (ja) 2014-12-18 2016-06-23 ソニー株式会社 固体撮像素子、および電子装置
WO2017126326A1 (ja) * 2016-01-20 2017-07-27 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器
JP2019140237A (ja) * 2018-02-09 2019-08-22 キヤノン株式会社 光電変換装置および撮像システム
JP2021141880A (ja) 2019-09-30 2021-09-24 進展工業株式会社 尿処理材及び尿処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5471117B2 (ja) * 2009-07-24 2014-04-16 ソニー株式会社 固体撮像装置とその製造方法並びにカメラ
US9749556B2 (en) * 2015-03-24 2017-08-29 Semiconductor Components Industries, Llc Imaging systems having image sensor pixel arrays with phase detection capabilities
CN108700664A (zh) * 2017-02-06 2018-10-23 松下知识产权经营株式会社 三维运动取得装置及三维运动取得方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010103667A (ja) * 2008-10-22 2010-05-06 Sony Corp 固体撮像装置、固体撮像装置の駆動方法および撮像装置
JP2010212288A (ja) * 2009-03-06 2010-09-24 Renesas Electronics Corp 撮像装置
JP2013038312A (ja) * 2011-08-10 2013-02-21 Fujifilm Corp Mos型固体撮像素子及び撮像装置
WO2013100036A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子
WO2016098640A1 (ja) 2014-12-18 2016-06-23 ソニー株式会社 固体撮像素子、および電子装置
WO2017126326A1 (ja) * 2016-01-20 2017-07-27 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器
JP2019140237A (ja) * 2018-02-09 2019-08-22 キヤノン株式会社 光電変換装置および撮像システム
JP2021141880A (ja) 2019-09-30 2021-09-24 進展工業株式会社 尿処理材及び尿処理方法

Also Published As

Publication number Publication date
US20240373140A1 (en) 2024-11-07
KR20240051127A (ko) 2024-04-19
EP4398592A1 (en) 2024-07-10
TW202329677A (zh) 2023-07-16
CN117837152A (zh) 2024-04-05
JPWO2023032416A1 (ja) 2023-03-09

Similar Documents

Publication Publication Date Title
US11336860B2 (en) Solid-state image capturing device, method of driving solid-state image capturing device, and electronic apparatus
US11688747B2 (en) Solid-state imaging device and electronic apparatus
US20230238404A1 (en) Solid-state imaging device and electronic apparatus
US11632510B2 (en) Solid-state imaging device and electronic device
US10819928B2 (en) Imaging system and imaging apparatus for detection of abnormalities associated with the imaging system
US12062677B2 (en) Imaging apparatus
EP3975551B1 (en) Imaging device
US11025846B2 (en) Imaging system, imaging apparatus, and control apparatus
CN114008783B (zh) 摄像装置
US20250006751A1 (en) Imaging device and electronic apparatus
WO2023032416A1 (ja) 撮像装置
EP4425559A1 (en) Imaging device
US20250063254A1 (en) Imaging element and electronic apparatus
WO2024195367A1 (ja) 撮像装置
WO2023243222A1 (ja) 撮像装置
WO2024135307A1 (ja) 固体撮像装置
WO2023021774A1 (ja) 撮像装置及び撮像装置を備える電子機器

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023545107

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280057528.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022864004

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22864004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022864004

Country of ref document: EP

Effective date: 20240402

WWW Wipo information: withdrawn in national office

Ref document number: 2022864004

Country of ref document: EP