[go: up one dir, main page]

WO2021111848A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021111848A1
WO2021111848A1 PCT/JP2020/042499 JP2020042499W WO2021111848A1 WO 2021111848 A1 WO2021111848 A1 WO 2021111848A1 JP 2020042499 W JP2020042499 W JP 2020042499W WO 2021111848 A1 WO2021111848 A1 WO 2021111848A1
Authority
WO
WIPO (PCT)
Prior art keywords
voltage
transistor
pixel
unit
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/042499
Other languages
English (en)
French (fr)
Inventor
柴田 智彦
清茂 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to CN202080078555.1A priority Critical patent/CN114731376A/zh
Priority to EP20895066.7A priority patent/EP4072126A4/en
Priority to US17/769,580 priority patent/US12028629B2/en
Priority to KR1020227017664A priority patent/KR20220103729A/ko
Priority to JP2021562545A priority patent/JP7638898B2/ja
Publication of WO2021111848A1 publication Critical patent/WO2021111848A1/ja
Anticipated expiration legal-status Critical
Priority to US18/670,610 priority patent/US12335642B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • H04N25/622Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming by controlling anti-blooming drains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/709Circuitry for control of the power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/18Complementary metal-oxide-semiconductor [CMOS] image sensors; Photodiode array image sensors
    • H10F39/182Colour image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/191Photoconductor image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/802Geometry or disposition of elements in pixels, e.g. address-lines or gate electrodes
    • H10F39/8023Disposition of the elements in pixels, e.g. smaller elements in the centre of the imager compared to larger elements at the periphery
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/809Constructional details of image sensors of hybrid image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/811Interconnections

Definitions

  • This disclosure relates to a solid-state image sensor and an electronic device.
  • CMOS Complementary Metal Oxide Semiconductor
  • CIS CMOS Image Sensor
  • photoelectric conversion films using holes as carriers for photoelectric conversion include quantum dots, InGaAs (iridium gallium arsenide) sensors, and organic compounds.
  • a solid-state image sensor using InGaAs as a photoelectric conversion film has a low dark current and a narrower energy band gap than silicon, and can capture long-wavelength light such as infrared light, so it can be applied to high-sensitivity infrared cameras and the like. Is expected.
  • Japanese Unexamined Patent Publication No. 2001-197368 Japanese Unexamined Patent Publication No. 11-355664 Japanese Unexamined Patent Publication No. 2019-041226 JP-A-2002-330346
  • a solid-state image sensor and an electronic device for improving the characteristics of the CMOS image sensor are provided.
  • the solid-state imaging device includes a photoelectric conversion unit that generates a light charge, a first charge holding unit that is connected to the photoelectric conversion unit and holds the light charge generated by the photoelectric conversion unit, and the above-mentioned. Controls the voltage value of the first transistor for discharging the optical charge held by the first charge holding unit to the outside and the off voltage applied to the gate of the first transistor when the first transistor is turned off. It is equipped with a voltage control unit.
  • the conventional CMOS image sensor is an electron readout, and a blooming countermeasure is taken by forming a bar flow path that discharges the electrons stored in the photodiode (PD) to the power supply.
  • some conventional CMOS image sensors have an discharge (OFG: Overflow Gate) transistor that discharges electric charge to a constant voltage source.
  • the photoelectric conversion film formed by using the InGaAs sensor uses holes as carriers for photoelectric conversion. The holes generated from the photoelectric conversion film and the electrons are recombined, and the amount of reduced electrons is treated as a signal.
  • the reverse bias voltage applied to the photoelectric conversion film becomes smaller as the holes recombine with the electrons and the SN voltage rises.
  • the reverse bias voltage is a voltage obtained by subtracting the SN voltage from the bias voltage.
  • the bias voltage becomes almost 0, the electric field between the PN junctions of the photoelectric conversion film becomes small, and the current due to the holes flowing from the photoelectric conversion film to the reading circuit decreases.
  • the current due to the holes flowing to the read circuit decreases, the current due to the holes diffusing into the N region increases, and the diffused holes are attracted by the electric field between the PN junctions of the adjacent pixels and flow into the adjacent pixels, causing blooming. appear.
  • MOSFET P-type transistor
  • the setting of the barrier against holes formed in MIMO has a trade-off relationship between the amount of suppression of blooming occurrence and the amount of saturation signal. That is, if the barrier is raised, the amount of saturation signal increases, but the possibility of blooming increases. On the other hand, when the barrier is lowered, the amount of suppression of the occurrence of blooming increases, but the amount of saturation signal decreases.
  • OPB Optical Black
  • the image sensor according to the present embodiment adjusts the ease of forming an overflow path, that is, the height of the barrier by changing the gate voltage of the emission transistor, and suppresses and saturates the occurrence of blooming according to each pixel.
  • the amount of charge Qs is secured.
  • FIG. 1 is a block diagram showing a schematic configuration example of an electronic device according to the first embodiment.
  • the electronic device 100 includes, for example, an image pickup lens 101, an image sensor 102, a processor 103, and a storage unit 104.
  • the image pickup lens 101 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the image sensor 102.
  • the light receiving surface may be a surface on which the photoelectric conversion elements in the image sensor 102 are arranged.
  • the image sensor 102 photoelectrically converts the incident light to generate image data. Further, the image sensor 102 executes predetermined signal processing such as noise removal and white balance adjustment on the generated image data.
  • the storage unit 104 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and records image data or the like input from the image sensor 102.
  • the processor 103 may include, for example, an application processor that is configured by using a CPU (Central Processing Unit) or the like and executes an operating system, various application software, or the like, a GPU (Graphics Processing Unit), a baseband processor, or the like.
  • the processor 103 executes various processes as necessary for the image data input from the image sensor 102, the image data read from the storage unit 104, and the like, executes display to the user, and provides a predetermined network. Send to the outside via.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the processor 103 executes various processes as necessary for the image data input from the image sensor 102, the image data read from the storage unit 104, and the like, executes display to the user, and provides a predetermined network. Send to the outside via.
  • FIG. 2 is a block diagram showing a schematic configuration example of the image sensor according to the first embodiment.
  • the image sensor 102 is a CMOS type image sensor.
  • the CMOS type image sensor is an image sensor created by applying or partially using a CMOS process.
  • the image sensor 102 is composed of a back-illuminated image sensor. This image sensor 102 corresponds to an example of a “solid-state image sensor”.
  • the image sensor 102 has, for example, a stack structure in which a semiconductor chip on which a pixel array 121 is formed and a semiconductor chip on which peripheral circuits are formed are laminated.
  • Peripheral circuits include, for example, a vertical drive circuit 122, a column processing circuit 123, a horizontal drive circuit 124, and a system control unit 125.
  • the image sensor 102 further includes a signal processing unit 126 and a data storage unit 127.
  • the signal processing unit 126 and the data storage unit 127 may be provided on the same semiconductor chip as the peripheral circuit, or may be provided on another semiconductor chip.
  • unit pixels (hereinafter, may be simply referred to as “pixels”) 120 having a photoelectric conversion element that generates and accumulates electric charges according to the amount of received light are arranged in the row direction and the column direction, that is, It has a configuration in which it is arranged in a two-dimensional lattice in a matrix.
  • the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction)
  • the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction).
  • the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row with respect to the matrix-shaped pixel array.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one.
  • One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 122.
  • the vertical drive circuit 122 is composed of a shift register, an address decoder, and the like, and drives each pixel 120 of the pixel array 121 at the same time or in units of rows. That is, the vertical drive circuit 122, together with the system control unit 125 that controls the vertical drive circuit 122, constitutes a drive unit that controls the operation of each pixel 120 of the pixel array 121. Although the specific configuration of the vertical drive circuit 122 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read-out scanning system selectively scans the pixels 120 of the pixel array 121 in a row-by-row manner in order to read a signal from the pixels 120.
  • the signal read from the pixel 120 is an analog signal.
  • the sweep-out scanning system performs sweep-out scanning for the read-out line on which read-out scanning is performed by the read-out scanning system, ahead of the read-out scan by the exposure time.
  • the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of the pixel 120 in the read row. Then, by sweeping out (resetting) unnecessary charges with this sweep-out scanning system, a so-called electronic shutter operation is performed.
  • the electronic shutter operation refers to an operation of discarding the electric charge of the photoelectric conversion element and starting a new exposure (starting the accumulation of electric charge).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that. Then, the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as the exposure period) in the pixel 120.
  • the signal output from each pixel 120 of the pixel row selectively scanned by the vertical drive circuit 122 is input to the column processing circuit 123 through each of the vertical signal lines VSL for each pixel column.
  • the column processing circuit 123 performs predetermined signal processing on the signal output from each pixel 120 of the selected row through the vertical signal line VSL for each pixel column of the pixel array 121, and temporarily processes the pixel signal after the signal processing. Hold the target.
  • the column processing circuit 123 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel 120.
  • the column processing circuit 123 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 124 is composed of a shift register, an address decoder, and the like, and sequentially selects a read circuit (hereinafter, referred to as a pixel circuit) corresponding to the pixel sequence of the column processing circuit 123.
  • a read circuit hereinafter, referred to as a pixel circuit
  • the system control unit 125 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 122, the column processing circuit 123, and the horizontal drive circuit 124. Drive control such as.
  • the signal processing unit 126 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing circuit 123.
  • the data storage unit 127 temporarily stores the data required for the signal processing in the signal processing unit 126.
  • the image data output from the signal processing unit 126 may be, for example, executed by a processor 103 or the like in the electronic device 100 equipped with the image sensor 102, or transmitted to the outside via a predetermined network. You may.
  • FIG. 3 is a circuit diagram of a pixel circuit and a voltage control circuit according to the first embodiment.
  • the pixel 120 has a pixel circuit 1 and a voltage control circuit 2 shown in FIG.
  • the pixel 120 having the pixel circuit 1 corresponds to an example of a “solid-state image sensor”.
  • the pixel circuit 1 includes a photoelectric conversion film (also referred to as a photoelectric conversion unit) 10, a reset (RST: Reset) transistor 11, an amplifier (AMP: Amplifier) transistor 12, and a selection (SEL: Select) transistor 13. Further, the pixel circuit 1 has a transfer (TRG: Transfer Gate) transistor 14 and an output (OFG: Overflow Gate) transistor 15. Further, the pixel circuit 1 includes a sense node (SN) 21 which is a diffusion layer of the source of the transfer transistor 14 and the drain of the discharge transistor 15, and an FD (floating diffusion) 20 which is a floating diffusion layer. Further, the pixel circuit 1 according to the present embodiment has capacitors 16 and 17. The pixel circuit 1 according to the present embodiment is an FD holding type GS (Global shutter) pixel circuit.
  • GS Global shutter
  • the photoelectric conversion film 10 is a photoelectric conversion film in which holes formed by using an InGaAs sensor are used as carriers for photoelectric conversion.
  • the photoelectric conversion film 10 also includes, for example, InAsSb (indium arsenide antimony), InAs (indium arsenide), InSb (indium antimony), HgCdTe (mercury cadmium tellurium), Ge (germanium), and quantum (Q: Quantum) dots. Alternatively, it may be formed using an organic compound or the like.
  • the photoelectric conversion film 10 corresponds to an example of a "photoelectric conversion unit".
  • the output terminal of the photoelectric conversion film 10 is connected to the source of the discharge transistor 15, the source of the transfer transistor 14, and the SN 21 connected to the capacitor 16.
  • the discharge transistor 15 the source is connected to the SN21 and the drain is connected to the low voltage source VDC.
  • the transfer transistor 14 the source is connected to the SN21 and the drain is connected to the FD20.
  • the output terminal of the FD 20 is connected to the source of the reset transistor 11, the gate of the amplification transistor 12, and the capacitor 17.
  • the drain of the reset transistor 11 is connected to the low voltage source VDC.
  • the drain of the amplification transistor 12 is connected to the voltage source VDD.
  • the source of the amplification transistor 12 is connected to the drain of the selection transistor 13. Then, the source of the selection transistor 13 is connected to the output signal line.
  • the capacitor 16 is connected to the output terminal of the photoelectric conversion film 10.
  • the capacitor 17 is connected to the FD 20.
  • the output terminal of the photoelectric conversion film 10 is connected to the SN 21.
  • the photoelectric conversion film 10 outputs holes, which are photoelectric conversion carriers, from the output terminal.
  • the SN 21 is connected to the output terminal of the photoelectric conversion film 10, the source of the discharge transistor 15, and the source of the transfer transistor 14. Further, the SN 21 has a capacitor 16 which is a high-capacity element.
  • One terminal of the capacitor 16 is connected to the SN21 as described above, and the other terminal is connected to the counter electrode. Any voltage such as a constant voltage source (VDD) or a ground potential (GND) can be used as the counter electrode voltage.
  • VDD constant voltage source
  • GND ground potential
  • the electric charge held by the SN 21 provided with the capacitor 16 is discharged to the low voltage source VDC when the discharge transistor 15 is turned on.
  • the transfer transistor 14 is turned on, the electric charge held by the SN 21 provided with the capacitor 16 is transferred to the FD 20.
  • the discharge transistor 15 is a MPa. As described above, the discharge transistor 15 has a source connected to the SN 21 and a drain connected to the low voltage source VDC. Further, the gate of the discharge transistor 15 is connected to the discharge control signal line.
  • the discharge transistor 15, which is a MIMO, is turned on when a voltage equal to or lower than the threshold voltage is applied to the gate. Further, the discharge transistor 15 is turned off when a voltage larger than the threshold voltage is applied to the gate. That is, the discharge transistor 15 is set with a barrier when a voltage larger than the threshold voltage, which is an off voltage, is applied to the gate.
  • the emission transistor 15 is turned on, the electric charge held in the photoelectric conversion film 10 and the capacitor 16 is discharged to the low voltage source VDC, and the photoelectric conversion film 10 is reset.
  • the gate voltage applied to the gate of the discharge transistor 15 two types of voltages are used according to the maximum value of the required saturated charge amount.
  • One is the gate voltage when the securing of the saturated charge amount is prioritized by maximizing the saturated charge amount and raising the barrier.
  • the gate voltage in this case is referred to as "saturated charge amount priority gate voltage”.
  • the other one is the gate voltage when the suppression of blooming is prioritized by reducing the saturated charge amount and lowering the barrier.
  • the gate voltage in this case is called “blooming priority gate voltage”. Since the emission transistor 15 is a bromo and holes are accumulated, the lower the potential of the barrier, the higher the barrier to holes, and the higher the potential of the barrier, the lower the barrier to holes.
  • the gate voltage for giving priority to the saturated charge amount is higher than the gate voltage for giving priority to blooming.
  • the output voltage when the saturated charge amount is maximum is 360 mV.
  • the output voltage is 180 mV when the saturated charge amount is maximum.
  • the gate voltage is the gate voltage for giving priority to the saturated charge amount
  • the barrier in the emission transistor 15 becomes high and it becomes difficult to form an overflow path connecting the SN21 and the low voltage source VDC, so that the saturated charge amount increases.
  • the gate voltage is the blooming priority gate voltage
  • the barrier is lowered in the emission transistor 15 and an overflow path connecting the SN 21 and the low voltage source VDC is easily formed, so that the saturated charge amount is reduced.
  • the gate voltage of the emission transistor 15 is determined according to the position on the pixel array 121. For example, in the case of the pixel 120 adjacent to the OPB pixel, the gate voltage of the emission transistor 15 is the blooming priority gate voltage. On the other hand, in the case of the pixel 120 located inside the pixel array 121, the gate voltage of the emission transistor 15 is the gate voltage for giving priority to the saturated charge amount.
  • the transfer transistor 14 is also a MPa. As described above, the transfer transistor 14 has a source connected to the output terminal of the photoelectric conversion film 10 and a drain connected to the FD 20. Further, the gate of the transfer transistor 14 is connected to the transfer signal line.
  • the transfer transistor 14, which is a polypeptide, is turned on when a voltage equal to or lower than the threshold voltage is applied to the gate by a signal sent from the transfer signal line. Further, the transfer transistor 14 is turned off when a voltage larger than the threshold voltage is applied to the gate. When the transfer transistor 14 is turned on, the electric charge generated by the photoelectric conversion film 10 and accumulated in the capacitor 16 is transferred to the FD 20.
  • the FD 20 is connected to the drain of the transfer transistor 14, the source of the reset transistor 11, and the gate of the amplification transistor 12 as described above. Further, the FD 20 has a capacitor 17 which is a high-capacity element.
  • One terminal of the capacitor 17 is connected to the FD 20 as described above, and the other terminal is connected to the counter electrode. Any voltage such as a constant voltage source (VDD) or a ground potential (GND) can be used as the counter electrode voltage.
  • VDD constant voltage source
  • GND ground potential
  • the electric charge held in the SN 21 provided with the capacitor 17 is transferred when the transfer transistor 14 is turned on, and the transferred electric charge is accumulated and held.
  • the FD 20 applies a voltage generated by the electric charge held in the capacitor 17 or the like to the gate of the amplification transistor 12.
  • the FD 20 turns on the amplification transistor 12 by applying a voltage equal to or higher than the threshold voltage to the gate of the amplification transistor 12.
  • the reset transistor 11 is turned on, the electric charge held by the FD 20 including the capacitor 17 is discharged to the low power supply VDC, and the FD 20 is reset.
  • the pixels 16 and 17 are provided in the pixel circuit 1 to secure the capacitance in the SN 21 and the FD 20, but the capacitors 16 and 17 may not be provided.
  • the reset transistor 11 is a MPa. As described above, the reset transistor 11 is connected to the path where the source is connected to the FD 20, and the drain is connected to the low voltage source VDC. Further, the gate of the reset transistor 11 is connected to the reset signal line. The reset transistor 11 is turned on when a voltage equal to or lower than the threshold voltage is applied to the gate. Further, the reset transistor 11 is turned off when a voltage larger than the threshold voltage is applied to the gate. When the reset transistor 11 is turned on, the electric charge accumulated in the FD 20 is discharged to the low voltage source VDC to reset the FD 20 including the capacitor 17.
  • the amplification transistor 12 is an NMOS. As described above, the amplification transistor 12 has a gate connected to the path connected to the FD 20, a source connected to the voltage source VDD, and a drain connected to the source of the selection transistor 13. The amplification transistor 12 is turned on when a voltage equal to or higher than the threshold voltage is applied to the gate by the electric charge output from the FD 20. Further, the amplification transistor 12 is turned off when a voltage smaller than the threshold voltage is applied to the gate. When the amplification transistor 12 is turned on, the current input from the voltage source VDD is output to the selection transistor 13. That is, the amplification transistor 12 outputs a signal based on the electric charge held in the FD 20 to the selection transistor 13.
  • the selection transistor 13 is an NMOS. As described above, in the selection transistor 13, the source is connected to the drain of the amplification transistor 12, and the drain is connected to the output signal line. Further, the gate of the selection transistor 13 is connected to the selection signal line. Since the selection transistor 13 is an NMOS, it is turned on when a voltage equal to or higher than the threshold voltage is applied to the gate. Further, the selection transistor 13 is turned off when a voltage smaller than the threshold voltage is applied to the gate. When the selection transistor 13 is turned on, the signal output by the amplification transistor 12 is output as a pixel signal to the output signal line. That is, the selection transistor 13 controls the selection of pixels at the time of reading by determining whether or not to output the pixel signal from the pixel circuit 1.
  • the voltage control circuit 2 is a circuit that adjusts the gate voltage of the discharge transistor 15.
  • the voltage control circuit 2 includes a bias voltage source 111, a power supply 112, a feedback control unit 113, a voltage control unit 114, and a row control circuit 150.
  • the row control circuit 150 includes a plurality of buffers 115 corresponding to each row of the pixel array 121.
  • the pixel circuit 1 is described for one buffer 115 in FIG. 3, the row control circuit 150 actually collects the pixels 120 included in one row of the pixel array 121 in one buffer 115. To control.
  • the bias voltage source 111 is a constant voltage source that outputs a bias voltage having a predetermined voltage.
  • the bias voltage source 111 supplies a predetermined voltage to the power supply 112.
  • the power supply 112 is, for example, a linear regulator, a charge pump, a switching regulator, or the like.
  • the input of the bias voltage is received from the bias voltage source 111. Further, the power supply 112 receives the input of the feedback signal from the feedback control unit 113. Then, the power supply 112 adjusts the voltage according to the feedback signal and outputs the voltage. For example, if the feedback signal is a signal that represents a difference from the reference voltage, the voltage is adjusted to reduce the difference.
  • the feedback control unit 113 receives the input of the output voltage of the power supply 112. Further, the feedback control unit 113 receives input of information on the designated gate voltage among the saturated charge amount priority gate voltage and the blooming priority gate voltage from the voltage control unit 114. Then, the feedback control unit 113 compares the output voltage of the power supply 112 with the designated gate voltage to generate a feedback signal. For example, the feedback control unit 113 calculates the difference between the output voltage of the power supply 112 and the designated gate voltage to obtain a feedback signal. Then, the feedback control unit 113 outputs the generated feedback signal to the power supply 112.
  • the voltage control unit 114 receives input of gate voltage setting information as to whether to use the saturated charge amount priority gate voltage or the blooming priority gate voltage as the gate voltage for each row in the pixel array 121. After that, the voltage control unit 114 holds the gate voltage setting information for each row in its own register. Then, the voltage control unit 114 outputs the gate voltage information specified in the setting information to the feedback control unit 113 line by line. Here, the voltage control unit 114 may notify the feedback control unit 113 of the gate voltage value itself, or may notify the feedback control unit 113 of information representing each gate voltage value.
  • the information representing the value of the gate voltage is preset information such that, for example, "0" represents the gate voltage for giving priority to the saturated charge amount, and "1" represents the gate voltage for giving priority to blooming.
  • the voltage control unit 114 has a timing generator. Then, the voltage control unit 114 outputs the on / off timing pulse of the discharge transistor 15 to the buffer 115.
  • the buffer 115 holds the voltage input from the power supply 112. Then, the buffer 115 applies the held voltage to the gate of the discharge transistor 15 in accordance with the timing pulse input from the voltage control unit 114.
  • the discharge transistor 15 is made conductive to reset the photoelectric conversion film 10, the SN 21 and the capacitor 16. After that, by turning off the discharge transistor 15, the electric charge generated by the photoelectric conversion film 10 is accumulated and held in the SN 21 and the capacitor 16. The operations from resetting the photoelectric conversion film 10 to holding the electric charge in the capacitor 16 are performed simultaneously in all the pixels 120 arranged in the pixel array 121. As a result, a global shutter is realized. The period from the reset of the photoelectric conversion film 10 to the retention of the electric charge in the capacitor 16 corresponds to the exposure period.
  • the reset transistor 11 is made conductive to reset the capacitor 17 and the FD 20.
  • the reset transistor 11 is turned off and the transfer transistor 14 is turned on.
  • the electric charges accumulated in the SN 21 and the capacitor 16 are transferred to the FD 20, and are accumulated and held in the capacitors 17 and the FD 20.
  • the barrier potential generated by the discharge transistor 15 is set lower than that of the saturated charge amount priority gate voltage.
  • the barrier is low. Therefore, an overflow path via the discharge transistor 15 is easily formed as compared with the case of the gate voltage for giving priority to the saturated charge amount. As a result, the occurrence of blooming can be further suppressed as compared with the case of the gate voltage for giving priority to the saturated charge amount.
  • the barrier generated by the emission transistor 15 is low, the saturated charge amount is smaller than that in the case of the saturated charge amount priority gate voltage.
  • the gate voltage of the discharge transistor 15 is the gate voltage for giving priority to the saturated charge amount
  • the potential of the barrier generated by the discharge transistor 15 is set higher than that in the case of the gate voltage for blooming priority.
  • the barrier is high. Therefore, the saturated charge amount is larger than that in the case of the blooming priority gate voltage.
  • the barrier generated by the discharge transistor 15 is high, it is difficult to form an overflow path through the discharge transistor 15 as compared with the case of the gate voltage for giving priority to the saturated charge amount. Therefore, the occurrence of blooming may increase as compared with the case of the gate voltage for blooming priority.
  • the amplification transistor 12 generates a pixel signal according to the electric charge held in the FD 20.
  • the selection transistor 13 the pixel signal generated by the amplification transistor 12 is output to the output signal line.
  • the operations from the reset of the FD 20 to the output of the pixel signal are sequentially performed for each pixel circuit 1 arranged in the pixel array 121.
  • a frame which is a pixel signal for one screen is generated.
  • FIG. 4 is a diagram showing an example of an output voltage and a blooming state according to the gate voltage of the discharge transistor.
  • Graph 201 is a graph showing the output voltage and the accumulation time in each pixel 120 when the High voltage of the gate voltage is set to the highest first voltage among the three states.
  • the graph 202 is a graph showing the output voltage and the accumulation time in each pixel 120 when the high voltage of the gate voltage is set to the second voltage lower than that in the case of the graph 201.
  • FIG. 203 is a graph showing the output voltage and the accumulation time in each pixel 120 when the high voltage of the gate voltage is set to a third voltage lower than that in the case of the graph 202.
  • the vertical axis represents the output voltage and the horizontal axis represents the charge accumulation time.
  • the curves 221 in the graphs 201 to 203 are the output voltages of the pixels 120 inside the aperture pixels in the effective pixel region.
  • the curve 222 is the output voltage of the pixel 120 at the end of the aperture pixel in the effective pixel region.
  • the curve 223 is the output voltage of the pixel 120 in the first row from the aperture pixel of the OPB pixel.
  • the curve 223 is the output voltage of the pixel 120 in the second row from the aperture pixel of the OPB pixel.
  • the image 211 represents the blooming occurrence state in the case of the graph 201
  • the image 212 represents the blooming occurrence state in the case of the graph 202
  • the image 213 represents the blooming occurrence state in the case of the graph 203.
  • the portion shown by the broken line in the images 211 to 213 corresponds to the end portion of the opening pixel.
  • the output voltage of each pixel 120 is higher than in other cases. That is, it can be seen that when the gate voltage is the first voltage, the amount of saturated charge is larger than in other cases. However, as shown in image 211, blooming is greatly generated in the region extending from the end of the opening pixel to the OPB pixel.
  • the gate voltage is set to the second voltage V, as shown in Graph 202, the output voltage of each pixel 120 is reduced as compared with the case where the gate voltage is the first voltage.
  • the occurrence of blooming is reduced as compared with the case where the gate voltage is the first voltage.
  • the output voltage of each pixel 120 is further reduced as compared with the case where the gate voltage is the second voltage.
  • image 213 it can be said that the occurrence of blooming is further reduced as compared with the case where the gate voltage is the second voltage, and the blooming is substantially suppressed.
  • the gate voltage of the emission transistor 15 By lowering the gate voltage of the emission transistor 15 in this way, the amount of saturated charge is reduced, and the image quality is lowered by that amount, but the occurrence of blooming can be suppressed. Therefore, it is preferable to increase the gate voltage inside the aperture pixel and decrease the gate voltage at the end of the aperture pixel.
  • the pixel circuit 1 according to the present embodiment is an FD holding type and has a photoelectric conversion film 10 that uses holes as a photoelectric conversion carrier. Then, in the pixel circuit 1 according to the present embodiment, MIMO is used as the discharge transistor 15, and either the saturated charge amount priority gate voltage or the blooming priority gate voltage is used as the gate voltage of the discharge transistor 15.
  • the pixel circuit 1 can store holes in the discharge transistor 15, and can form an overflow path before the holes flow out to the adjacent pixels 120 to discharge the holes. it can. Further, by switching the gate voltage of the discharge transistor 15, it is possible to adjust the ease of forming an overflow path and the amount of saturated charge. That is, it is possible to suppress the occurrence of blooming and increase the amount of saturated charge. Therefore, the suppression of blooming and the amount of saturated electric charge can be adjusted according to the demand for each pixel 120, and the image quality can be improved.
  • the types of gate voltages may be three or more. In that case, the occurrence of blooming and the amount of saturated electric charge can be finely adjusted for each pixel.
  • the gate voltage is switched according to the predetermined gate voltage setting, but the pixel circuit 1 according to the present modification sets the gate voltage from the subsequent image processing. Control.
  • the voltage control unit 114 captures an image of the entire area of the pixel array 121. Then, the voltage control unit 114 identifies the pixel in which blooming occurs for image processing. Then, when blooming occurs, the voltage control unit 114 blooms the gate voltage of the emission transistor 15 of the pixel 120 in which blooming occurs if the current gate voltage of the pixel 120 is the gate voltage for giving priority to the saturated charge amount. Decide to change to the priority gate voltage. Then, the voltage control unit 114 outputs the gate voltage of the pixel 120 in which blooming has occurred to the feedback control unit 113 as a blooming priority gate voltage.
  • the voltage control unit 114 determines the pixel 120 in which blooming has occurred, but this determination process may be executed by an external computer.
  • the gate voltage is switched according to a predetermined gate voltage setting, but in the pixel circuit 1 according to the present modification, the gate voltage is matched with the analog gain. To control.
  • the image sensor 102 can adjust the analog gain. For example, it is possible to set whether to perform 10-bit AD (Analog / Digital) conversion at 100 mV or to perform 10-bit AD conversion at 50 mV by increasing the analog gain.
  • 10-bit AD Analog / Digital
  • the voltage control unit 114 receives the input of the specified gain. Then, the voltage control unit 114 adjusts the gate voltage of the discharge transistor 15 so that the saturated charge amount becomes smaller as the gain increases. For example, when the analog gain is doubled, the voltage control unit 114 sets the gate voltage of the emission transistor 15 so that the saturated charge amount is halved.
  • the gate voltage of the discharge transistor 15 is variable, but the gate voltage of the transfer transistor 14 may be variable together with the gate voltage of the reset transistor 11.
  • FIG. 5 is a circuit diagram showing an example of a pixel circuit using a photodiode.
  • the pixel circuit 1 in FIG. 5 has a photodiode 18 arranged on a silicon substrate.
  • the electrons generated by the photodiode 18 are accumulated and held in the emission transistor 15.
  • the photodiode 18 in this case corresponds to an example of the "photoelectric conversion unit".
  • the emission transistor 15 is an NMOS. If the emission transistor 15 is an NMOS, lowering the potential of the barrier raises the barrier, makes it difficult to form an overflow path, and increases the amount of saturated charge. On the contrary, by increasing the potential of the barrier, the barrier is lowered, an overflow path is easily formed, and the occurrence of blooming is further suppressed, but the amount of saturated charge is reduced.
  • the emission transistor 15 is set with a barrier when a voltage lower than the threshold voltage, which is an off voltage, is applied to the gate.
  • FIG. 6 is a circuit diagram of a 3-transistor type pixel circuit.
  • the pixel circuit 1 composed of the three transistors shown in FIG. 6 it is possible to suppress the occurrence of blooming and adjust the saturated charge amount by changing the gate voltage of the reset transistor 11.
  • FIG. 7 is a circuit diagram of a pixel circuit and a voltage control circuit according to the second embodiment.
  • the image sensor 102 according to the embodiment is different from the first embodiment in that the external power source adjusts the power source.
  • description of the same operation as the operation of each part in the first embodiment will be omitted.
  • the external power supply 116 is connected to the buffer 115 of the image sensor 102 according to the present embodiment.
  • the output voltage is set in the external power supply 116 by using the information of the gate voltage setting according to the desired saturated charge amount.
  • the external power supply 116 outputs the set voltage.
  • FIG. 7 the state in which the external power supply 116 outputs one type of voltage to the row control circuit 150 is described, but in reality, the external power supply 116 can select a different type of voltage for each row. As such, a plurality of types of voltages are output to the row control circuit.
  • the external power supply 116 outputs a saturated charge amount priority gate voltage or a blooming priority gate voltage that can be selected by each row.
  • the buffer 115 receives the voltage input from the external power supply 116 and stores it. Then, the buffer 115 applies a gate voltage to the gate of the discharge transistor 15 in accordance with the on / off pulse signal input from the voltage control unit 114.
  • the image sensor 102 receives an input of a voltage corresponding to the saturated charge amount from the external power supply 116, and applies the voltage to the discharge transistor 15 as a gate voltage.
  • the gate voltage applied to the discharge transistor 15 can be adjusted even by using the external power supply 116, and the occurrence of blooming can be suppressed and the sum-of-bar charge amount can be adjusted to improve the image quality.
  • the gate voltage can be adjusted according to the subsequent image processing as in the modification (1) of the first embodiment. In that case, it is preferable to notify the external power supply 116 of the information obtained from the subsequent image processing.
  • the voltage control unit 114 may determine the pixel 120 in which blooming occurs due to image processing, and may notify the determination result to the external power supply 116.
  • FIG. 8 is a diagram showing a connection state of the row control circuit in the image sensor according to the third embodiment.
  • the image sensor 102 according to this embodiment uses the same gate voltage for all the emission transistors 15 of the pixel circuits 1 included in the pixel array 121.
  • the power supply 112 has one wiring capable of variable potential output with respect to the row control circuit 150.
  • the power supply 112 receives control from the voltage control unit 114 and outputs a designated gate voltage to the row control circuit 150.
  • a saturated charge amount priority gate voltage and a blooming priority gate voltage are used will be described as an example.
  • the power supply 112 When it is desired to suppress blooming in the entire pixel array 121, the power supply 112 outputs a blooming priority gate voltage.
  • the power supply 112 outputs the saturated charge amount priority gate voltage.
  • the row control circuit 150 has a buffer 115 for each row of the pixel array 121. Then, each buffer 115 is connected to the gate of the discharge transistor 15 included in the pixel circuit 1 of each row of the pixel array 121.
  • the row control circuit 150 receives the input of the gate voltage and holds it in each buffer 115. Then, the row control circuit 150 applies the gate voltage held in the buffer 115 according to the on / off of each discharge transistor 15. As a result, the same gate voltage is applied to the emission transistors 15 included in the pixel circuits 1 in all rows.
  • the same gate voltage is applied to the emission transistors 15 included in the pixel circuits 1 in all rows of the pixel array 121.
  • the gate voltage of the voltage for suppressing the blooming is used in the emission transistor 15 in the pixel circuit 1 of all the pixels 120 of the pixel array 121.
  • the gate voltage of the voltage for increasing the saturated charge amount is used in the emission transistor 15 in the pixel circuit 1 of all the pixels 120 of the pixel array 121.
  • FIG. 9 is a diagram showing a connection state of the row control circuit in the image sensor according to the fourth embodiment.
  • the image sensor 102 according to this embodiment applies a different gate voltage for each row included in the pixel array 121.
  • the power supply 112 has wirings capable of variable potential output for the row control circuit 150 for the number of gate voltage types.
  • the power supply 112 outputs various gate voltages to each wiring. For example, when three types of voltages are used as the gate voltage, the power supply 112 has three wires extending to the row control circuit 150. Then, the power supply 112 outputs three different gate voltages to each wiring.
  • the row control circuit 150 has a buffer 115 for each row of the pixel array 121. Then, each buffer 115 is connected to the gate of the discharge transistor 15 included in the pixel circuit 1 of each row of the pixel array 121. Further, each buffer 115 is connected to a switch that can select any of the wirings extending from the power supply 112.
  • the row control circuit 150 receives input of setting information of the gate voltage applied to each row from the voltage control unit 114. Then, the row control circuit 150 connects the buffer 115 corresponding to each row to the wiring to which the gate voltage of the type to be applied to each row is input according to the setting information of the gate voltage of each row.
  • the row control circuit 150 receives an input of a different type of gate voltage for each wiring, and causes each buffer 115 connected to each wiring to hold the voltage input in that wiring. Then, the row control circuit 150 applies the gate voltage held in the buffer 115 to the discharge transistor 15 included in the pixel circuit 1 of each row according to the on / off of each discharge transistor 15. As a result, a different gate voltage of the discharge transistor 15 is applied for each row.
  • a different gate voltage is applied to the emission transistor 15 included in the pixel circuit 1 for each row of the pixel array 121.
  • a gate voltage for suppressing blooming is applied to the discharge transistor 15 for a row having pixels 120 for which blooming is desired to be suppressed, and a gate for increasing the saturation charge amount is applied to a row having pixels 120 for which the saturation charge amount is desired to be increased.
  • a voltage can be applied to the discharge transistor 15. As a result, the image sensor 102 can generate a more appropriate image.
  • FIG. 10 is a diagram showing a connection state of the row control circuit in the image sensor according to the fifth embodiment.
  • the image sensor 102 according to this embodiment applies a different gate voltage to each region of the pixel array 121.
  • the pixels 120 of the pixel array 121 are, for example, region-divided in a grid pattern. Then, the gate of the emission transistor 15 included in the pixel circuit 1 of each pixel 120 is connected by one wiring.
  • the power supply 112 has wirings capable of variable potential output for the row control circuit 150 for the number of gate voltage types.
  • the power supply 112 outputs various gate voltages to each wiring. For example, when three types of voltages are used as the gate voltage, the power supply 112 has three wires extending to the row control circuit 150. Then, the power supply 112 outputs three different gate voltages to each wiring.
  • the row control circuit 150 has a buffer 115 for each row of the pixel array 121. Then, each buffer 115 is connected to a wiring extending from the gate of the discharge transistor 15 included in the pixel circuit 1 in each region of the pixel array 121. Further, each buffer 115 is connected to a switch that can select any of the wirings extending from the power supply 112.
  • the row control circuit 150 receives input of setting information of the gate voltage applied to each region from the voltage control unit 114. Then, the row control circuit 150 connects the buffer 115 corresponding to each row to the wiring to which the gate voltage of the type to be applied to each region is input according to the setting information of the gate voltage in each region.
  • the row control circuit 150 receives an input of a different type of gate voltage for each wiring, and causes each buffer 115 connected to each wiring to hold the voltage input in that wiring. Then, the row control circuit 150 applies the gate voltage held in the buffer 115 to the discharge transistor 15 of the pixel circuit 1 in each region according to the on / off of each discharge transistor 15. As a result, a different gate voltage of the discharge transistor 15 is applied for each region.
  • a different gate voltage is applied to the emission transistor 15 included in the pixel circuit 1 for each region of the pixel array 121.
  • a gate voltage for suppressing blooming is applied to the emission transistor 15, and for a region having pixels 120 for which the saturation charge amount is desired to be increased, a gate voltage for increasing the saturation charge amount is applied. It can be applied to the discharge transistor 15.
  • FIG. 11A is a diagram showing a planar configuration of the light receiving element.
  • FIG. 11B is a diagram showing a cross-sectional configuration taken along the line BB'of FIG. 11A.
  • each pixel circuit 1 described in each embodiment and its modification is applicable to the light receiving element shown in FIGS. 11A and 11B.
  • the light receiving element 501 is applied to an infrared sensor or the like using a compound semiconductor material such as a group III-V semiconductor, and is, for example, a visible region (for example, 380 nm or more and less than 780 nm) to a short infrared region (for example, 780 nm or more). It has a photoelectric conversion function for light having a wavelength (less than 2400 nm).
  • the light receiving element 501 is provided with, for example, a plurality of light receiving unit regions P (pixels P) arranged two-dimensionally (FIG. 11B).
  • the light receiving element 501 is applied to an infrared sensor or the like using a compound semiconductor material such as a group III-V semiconductor, and is, for example, a visible region (for example, 380 nm or more and less than 780 nm) to a short infrared region (for example, 780 nm). It has a photoelectric conversion function for light having a wavelength (more than 2400 nm).
  • the light receiving element 501 is provided with, for example, a plurality of light receiving unit regions P (pixels P) arranged two-dimensionally.
  • the light receiving element 501 has an element region R1 in the central portion and a peripheral region R2 provided outside the element region R1 and surrounding the element region R1 (FIG. 11A).
  • the light receiving element 501 has a conductive film 515B provided from the element region R1 to the peripheral region R2.
  • the conductive film 515B has an opening in a region facing the central portion of the element region R1.
  • the light receiving element 501 has a laminated structure of an element substrate 510 and a read circuit board 520.
  • One surface of the element substrate 510 is a light incident surface (light incident surface S1), and the surface opposite to the light incident surface S1 (the other surface) is a bonding surface (joining surface S2) with the reading circuit board 520. ..
  • the element substrate 510 has a wiring layer 510W, a first electrode 511, a semiconductor layer 510S (first semiconductor layer), a second electrode 515, and a passivation film 516 in this order from a position close to the read circuit board 520.
  • the facing surface and the end surface (side surface) of the semiconductor layer 510S with the wiring layer 510W are covered with an insulating film 517.
  • the read circuit board 520 is a so-called ROIC (Readout integrated circuit), and is an element substrate with the wiring layer 520W and the multilayer wiring layer 522C in contact with the junction surface S2 of the element substrate 510 and the wiring layer 520W and the multilayer wiring layer 522C in between. It has a semiconductor substrate 521 facing 510.
  • the element substrate 510 has a semiconductor layer 510S in the element region R1.
  • the region provided with the semiconductor layer 510S is the element region R1 of the light receiving element 501.
  • the region exposed from the conductive film 515B (the region facing the opening of the conductive film 515B) is the light receiving region.
  • the region covered with the conductive film 515B is the OPB (Optical Black) region R1B.
  • the OPB region R1B is provided so as to surround the light receiving region.
  • the OPB region R1B is used to obtain a black level pixel signal.
  • the device substrate 510 has an embedded layer 518 together with an insulating film 517 in the peripheral region R2.
  • the peripheral region R2 is provided with holes H1 and H2 that penetrate the element substrate 510 and reach the read circuit board 520.
  • light is incident on the semiconductor layer 510S from the light incident surface S1 of the element substrate 510 via the passivation film 516, the second electrode 515, and the second contact layer 514.
  • the signal charge photoelectrically converted by the semiconductor layer 510S moves through the first electrode 511 and the wiring layer 510W, and is read out by the read circuit board 520.
  • the configuration of each part will be described.
  • the wiring layer 510W is provided over the element region R1 and the peripheral region R2, and has a junction surface S2 with the read circuit board 520.
  • the joint surface S2 of the element substrate 510 is provided in the element region R1 and the peripheral region R2.
  • the joint surface S2 of the element region R1 and the joint surface S2 of the peripheral region R2 form the same plane.
  • the joint surface S2 of the peripheral region R2 is formed by providing the embedded layer 518.
  • the wiring layer 510W has a contact electrode 519E and a dummy electrode 519ED in, for example, the interlayer insulating films 519A and 519B.
  • an interlayer insulating film 519B is arranged on the reading circuit board 520 side
  • an interlayer insulating film 519A is arranged on the first contact layer 512 side
  • these interlayer insulating films 519A and 519B are laminated and provided.
  • the interlayer insulating films 519A and 519B are made of, for example, an inorganic insulating material.
  • the inorganic insulating material examples include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the interlayer insulating films 519A and 519B may be made of the same inorganic insulating material.
  • the contact electrode 519E is provided in, for example, the element region R1.
  • the contact electrode 519E is for electrically connecting the first electrode 511 and the reading circuit board 520, and is provided in the element region R1 for each pixel P.
  • the adjacent contact electrodes 519E are electrically separated by the embedded layer 518 and the interlayer insulating films 519A and 519B.
  • the contact electrode 519E is composed of, for example, a copper (Cu) pad and is exposed on the joint surface S2.
  • the dummy electrode 519ED is provided in, for example, the peripheral region R2.
  • the dummy electrode 519ED is connected to the dummy electrode 522ED of the wiring layer 520W described later.
  • the dummy electrode 519ED is formed in the same process as the contact electrode 519E, for example.
  • the dummy electrode 519ED is composed of, for example, a copper (Cu) pad and is exposed on the joint surface S2.
  • the first electrode 511 provided between the contact electrode 519E and the semiconductor layer 510S has a signal charge generated in the photoelectric conversion layer 513 (holes or electrons, hereinafter for convenience, the signal charge will be described as a hole). It is an electrode (anode) to which a voltage for reading is supplied, and is provided for each pixel P in the element region R1.
  • the first electrode 511 is provided so as to embed the opening of the insulating film 517, and is in contact with the semiconductor layer 510S (more specifically, the diffusion region 512A described later).
  • the first electrode 511 is larger than the opening of the insulating film 517, for example, and a part of the first electrode 511 is provided in the embedded layer 518.
  • the upper surface of the first electrode 511 (the surface on the semiconductor layer 510S side) is in contact with the diffusion region 512A, and the lower surface and a part of the side surface of the first electrode 511 are in contact with the embedded layer 518.
  • the adjacent first electrodes 511 are electrically separated by an insulating film 517 and an embedded layer 518.
  • the first electrode 511 is, for example, titanium (Ti), tungsten (W), titanium nitride (TiN), platinum (Pt), gold (Au), germanium (Ge), palladium (Pd), zinc (Zn), nickel. It is composed of a single substance of (Ni) and aluminum (Al), or an alloy containing at least one of them.
  • the first electrode 511 may be a single film of such a constituent material, or may be a laminated film in which two or more kinds are combined.
  • the first electrode 511 is composed of a laminated film of titanium and tungsten.
  • the thickness of the first electrode 511 is, for example, several tens of nm to several hundreds of nm.
  • the semiconductor layer 510S includes, for example, the first contact layer 512, the photoelectric conversion layer 513, and the second contact layer 514 from a position close to the wiring layer 510W.
  • the first contact layer 512, the photoelectric conversion layer 513, and the second contact layer 514 have the same planar shape with each other, and their end faces are arranged at the same positions in a plan view.
  • the first contact layer 512 is provided in common to all pixels P, for example, and is arranged between the insulating film 517 and the photoelectric conversion layer 513.
  • the first contact layer 512 is for electrically separating adjacent pixels P, and the first contact layer 512 is provided with, for example, a plurality of diffusion regions 512A.
  • a compound semiconductor material having a bandgap larger than the bandgap of the compound semiconductor material constituting the photoelectric conversion layer 513 for the first contact layer 512 it is possible to suppress a dark current.
  • n-type InP indium phosphide
  • the diffusion regions 512A provided in the first contact layer 512 are arranged apart from each other.
  • the diffusion region 512A is arranged for each pixel P, and the first electrode 511 is connected to each diffusion region 512A.
  • a diffusion region 512A is also provided in the OPB region R1B.
  • the diffusion region 512A is for reading out the signal charge generated in the photoelectric conversion layer 513 for each pixel P, and contains, for example, a p-type impurity. Examples of the p-type impurity include Zn (zinc) and the like. In this way, a pn junction interface is formed between the diffusion region 512A and the first contact layer 512 other than the diffusion region 512A, and adjacent pixels P are electrically separated.
  • the diffusion region 512A is provided, for example, in the thickness direction of the first contact layer 512, and is also provided in a part of the photoelectric conversion layer 513 in the thickness direction.
  • the photoelectric conversion layer 513 between the first electrode 511 and the second electrode 515, more specifically, between the first contact layer 512 and the second contact layer 514, is common to all pixels P, for example. It is provided.
  • the photoelectric conversion layer 513 absorbs light having a predetermined wavelength to generate a signal charge, and is made of, for example, a compound semiconductor material such as an i-type III-V group semiconductor. Examples of the compound semiconductor material constituting the photoelectric conversion layer 513 include InGaAs (indium gallium arsenide), InAsSb (indium arsenide antimony), InAs (indium arsenide), InSb (indium antimony) and HgCdTe (mercury cadmium tellurium). Can be mentioned.
  • the photoelectric conversion layer 513 may be formed of Ge (germanium). In the photoelectric conversion layer 513, for example, photoelectric conversion of light having a wavelength in the visible region to the short infrared region is performed.
  • the second contact layer 514 is provided in common to all pixels P, for example.
  • the second contact layer 514 is provided between the photoelectric conversion layer 513 and the second electrode 515 and is in contact with them.
  • the second contact layer 514 is a region in which the electric charge discharged from the second electrode 515 moves, and is composed of, for example, a compound semiconductor containing an n-type impurity.
  • n-type InP indium phosphide
  • the second electrode 515 is provided as an electrode common to each pixel P, for example, on the second contact layer 514 (on the light incident side) so as to be in contact with the second contact layer 514.
  • the second electrode 515 is for discharging a charge that is not used as a signal charge among the charges generated in the photoelectric conversion layer 513 (cathode). For example, when holes are read out from the first electrode 511 as signal charges, electrons can be discharged, for example, through the second electrode 515.
  • the second electrode 515 is made of a conductive film capable of transmitting incident light such as infrared rays.
  • ITO Indium Tin Oxide
  • ITOO In 2 O 3- TIO 2
  • the second electrode 515 may be provided in a grid pattern so as to partition adjacent pixels P, for example. A conductive material having low light transmittance can be used for the second electrode 515.
  • the passivation film 516 covers the second electrode 515 from the light incident surface S1 side.
  • the passivation film 516 may have an antireflection function.
  • silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ), tantalum oxide (Ta 2 O 3 ) and the like can be used.
  • the passivation film 516 has an opening 516H in the OPB region R1B.
  • the opening 516H is provided, for example, in a frame shape surrounding the light receiving region (FIG. 11A).
  • the opening 516H may be, for example, a quadrangular or circular hole in a plan view.
  • the conductive film 515B is electrically connected to the second electrode 515 by the opening 516H of the passivation film 516.
  • the insulating film 517 is provided between the first contact layer 512 and the embedded layer 518, and also includes the end face of the first contact layer 512, the end face of the photoelectric conversion layer 513, the end face of the second contact layer 514, and the second electrode 515. In the peripheral region R2, it is in contact with the passivation film 516.
  • the insulating film 517 is composed of, for example, an oxide such as silicon oxide (SiO X ) or aluminum oxide (Al 2 O 3 ).
  • the insulating film 517 may be formed by a laminated structure composed of a plurality of films.
  • the insulating film 517 may be made of a silicon (Si) -based insulating material such as silicon oxynitride (SiON), carbon-containing silicon oxide (SiOC), silicon nitride (SiN), and silicon carbide (SiC).
  • Si silicon oxynitride
  • SiOC carbon-containing silicon oxide
  • SiN silicon nitride
  • SiC silicon carbide
  • the thickness of the insulating film 517 is, for example, several tens of nm to several hundreds of nm.
  • the conductive film 515B is provided from the OPB region R1B to the hole H1 in the peripheral region R2.
  • the conductive film 515B is in contact with the second electrode 515 at the opening 516H of the passivation film 516 provided in the OPB region R1B, and is in contact with the wiring of the reading circuit board 520 (wiring 522CB described later) through the hole H1.
  • a voltage is supplied from the read circuit board 520 to the second electrode 515 via the conductive film 515B.
  • the conductive film 515B functions as a voltage supply path to such a second electrode 515 and also functions as a light-shielding film, and forms the OPB region R1B.
  • the conductive film 515B is made of a metal material containing, for example, tungsten (W), aluminum (Al), titanium (Ti), molybdenum (Mo), tantalum (Ta) or copper (Cu).
  • a passivation film may be provided on the conductive film 515B.
  • An adhesive layer B may be provided between the end of the second contact layer 514 and the second electrode 515. As will be described later, this adhesive layer B is used when forming the light receiving element 501, and plays a role of joining the semiconductor layer 510S to the temporary substrate.
  • the adhesive layer B is made of, for example, tetraethoxysilane (TEOS) or silicon oxide (SiO 2 ).
  • TEOS tetraethoxysilane
  • SiO 2 silicon oxide
  • the adhesive layer B is provided, for example, wider than the end face of the semiconductor layer 510S, and is covered with the embedded layer 518 together with the semiconductor layer 510S.
  • An insulating film 517 is provided between the adhesive layer B and the embedded layer 518.
  • the embedded layer 518 is for filling the step between the temporary substrate and the semiconductor layer 510S in the manufacturing process of the light receiving element 501. Although the details will be described later, in the present embodiment, since the embedded layer 518 is formed, it is possible to suppress the occurrence of defects in the manufacturing process due to the step between the semiconductor layer 510S and the temporary substrate 533.
  • the embedded layer 518 of the peripheral region R2 is provided between the wiring layer 10W and the insulating film 517, and between the wiring layer 510W and the passivation film 516, and has a thickness equal to or greater than the thickness of the semiconductor layer 510S, for example. There is.
  • the embedded layer 518 is provided so as to surround the semiconductor layer 510S, a region around the semiconductor layer 510S (peripheral region R2) is formed. As a result, the junction surface S2 with the read circuit board 520 can be provided in the peripheral region R2.
  • the thickness of the embedded layer 518 may be reduced, but the embedded layer 518 covers the semiconductor layer 510S in the thickness direction, and the entire end surface of the semiconductor layer 510S is filled. It is preferably covered with the inclusion layer 518.
  • the embedded layer 518 of the element region R1 is provided between the semiconductor layer 510S and the wiring layer 510W so as to cover the first electrode 511.
  • the surface of the embedded layer 518 on the joint surface S2 side is flattened, and in the peripheral region R2, the wiring layer 510W is provided on the surface of the flattened embedded layer 518.
  • an inorganic insulating material such as silicon oxide (SiO X ), silicon nitride (SiN), silicon oxynitride (SiON), carbon-containing silicon oxide (SiOC), and silicon carbide (SiC) is used. Can be done.
  • the wiring layer 510W including the interlayer insulating films 519A and 519B and the contact electrode 519E is formed above the embedded layer 518.
  • the read circuit board 520 including the wiring layer 520W is bonded to the element substrate 510 including the wiring layer 510W to form the light receiving element 501.
  • the contact electrode 519E of the wiring layer 510W and the contact electrode 522E of the wiring layer 520W are connected.
  • the contact electrodes 519E and 522E have, for example, a Cu pad, and the contact electrodes 519E and 522E are connected by direct bonding of the Cu pads.
  • the embedded layer 518 arranged below the copper film to be polished is required to have a hardness that can withstand the stress during polishing. Further, in order to directly bond the Cu pads of the contact electrodes 519E and 522E to each other, it is necessary to form the element substrate 510 and the read circuit substrate 520 extremely flat. Therefore, it is preferable that the embedded layer 518 arranged below the copper film has a hardness that can withstand the stress during polishing.
  • the constituent material of the embedded layer 518 is preferably a material having a higher hardness than the encapsulant or the organic material arranged around the die in a general semiconductor package.
  • the embedded layer 518 can be formed by forming a film of this inorganic insulating material by, for example, a CVD (Chemical Vapor Deposition) method, a sputtering method, or a coating method.
  • CVD Chemical Vapor Deposition
  • the embedded layer 518 is provided with holes H1 and H2 penetrating the embedded layer 518.
  • the holes H1 and H2 penetrate the wiring layer 510W together with the embedded layer 518 and reach the read circuit board 520.
  • the holes H1 and H2 have, for example, a quadrangular planar shape, and a plurality of holes H1 and H2 are provided so as to surround the element region R1 (FIG. 11A).
  • the hole H1 is provided at a position closer to the element region R1 than the hole H2, and the side wall and the bottom surface of the hole H1 are covered with the conductive film 515B.
  • This hole H1 is for connecting the second electrode 515 (conductive film 515B) and the wiring of the reading circuit board 520 (wiring 522CB described later), and connects the passivation film 516, the embedded layer 518, and the wiring layer 510W. It is provided through.
  • the hole H2 is provided at a position closer to the tip end E than the hole H1, for example.
  • the hole H2 penetrates the passivation film 516, the embedding layer 518, and the wiring layer 510W, and reaches the pad electrode (pad electrode 522P described later) of the read circuit board 520.
  • An electrical connection between the outside and the light receiving element 501 is made through the hole H2.
  • the holes H1 and H2 do not have to reach the read circuit board 520.
  • the holes H1 and H2 may reach the wiring of the wiring layer 510W, and this wiring may be connected to the wiring 522CB and the pad electrode 522P of the read circuit board 520.
  • the holes H1 and H2 may penetrate the adhesive layer B.
  • the holes and electrons generated in the photoelectric conversion layer 513 are read out from the first electrode 511 and the second electrode 515.
  • the distance between the first electrode 511 and the second electrode 515 is a distance sufficient for photoelectric conversion and not too far apart. That is, it is preferable to reduce the thickness of the element substrate 510.
  • the distance between the first electrode 511 and the second electrode 515 or the thickness of the element substrate 510 is 10 ⁇ m or less, further 7 ⁇ m or less, and further 5 ⁇ m or less.
  • the semiconductor substrate 521 of the read circuit board 520 faces the element substrate 510 with the wiring layer 520W and the multilayer wiring layer 522C in between.
  • the semiconductor substrate 521 is made of, for example, silicon (Si).
  • a plurality of transistors are provided in the vicinity of the surface of the semiconductor substrate 521 (the surface on the wiring layer 520W side).
  • a read out circuit is configured for each pixel P by using the plurality of transistors.
  • the pixel circuit 1 described in each embodiment and modification can be used.
  • the wiring layer 520W has, for example, the interlayer insulating film 522A and the interlayer insulating film 522B in this order from the element substrate 510 side, and these interlayer insulating films 522A and 522B are laminated and provided.
  • a contact electrode 522E and a dummy electrode 522ED are provided in the interlayer insulating film 522A.
  • the multilayer wiring layer 522C is provided so as to face the element substrate 510 with the wiring layer 520W in between.
  • a pad electrode 522P and a plurality of wirings 522CB are provided in the multilayer wiring layer 522C.
  • the interlayer insulating films 522A and 522B are made of, for example, an inorganic insulating material. Examples of the inorganic insulating material include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the contact electrode 522E is for electrically connecting the first electrode 511 and the wiring 522CB, and is provided in the element region R1 for each pixel P.
  • the contact electrode 522E is in contact with the contact electrode 519E at the joint surface S2 of the element substrate 510.
  • the adjacent contact electrodes 522E are electrically separated by an interlayer insulating film 522A.
  • the dummy electrode 522ED provided in the peripheral region R2 is in contact with the dummy electrode 519ED at the joint surface S2 of the element substrate 510.
  • the dummy electrode 522ED is formed in the same process as the contact electrode 522E, for example.
  • the contact electrode 522E and the dummy electrode 522ED are composed of, for example, a copper (Cu) pad, and are exposed on the surface of the read circuit board 520 facing the element board 510. That is, for example, CuCu bonding is performed between the contact electrode 519E and the contact electrode 522E, and between the dummy electrode 519ED and the dummy electrode 522ED. This makes it possible to miniaturize the pixel P.
  • the wiring 522CB connected to the contact electrode 519E is connected to a transistor provided near the surface of the semiconductor substrate 521, and the first electrode 511 and the reading circuit are connected to each pixel P. ..
  • the wiring 522CB connected to the conductive film 515B via the hole H1 is connected to, for example, a predetermined potential.
  • one of the charges (for example, holes) generated in the photoelectric conversion layer 513 is read out from the first electrode 511 to the reading circuit via the contact electrodes 519E and 522E, and is generated in the photoelectric conversion layer 513.
  • the other side of the electric charge (for example, an electron) is discharged from the second electrode 515 to a predetermined potential via the conductive film 515B.
  • the pad electrode 522P provided in the peripheral region R2 is for making an electrical connection with the outside.
  • a hole H2 that penetrates the element substrate 510 and reaches the pad electrode 522P is provided in the vicinity of the chip end E of the light receiving element 501, and is electrically connected to the outside through the hole H2.
  • the connection is made, for example, by a method such as wire bonding or bumping.
  • a predetermined potential may be supplied from the external terminal arranged in the hole H2 to the second electrode 515 via the hole H2, the wiring 522CB of the read circuit board 520, and the conductive film 515B. ..
  • the signal voltage read from the first electrode 511 is read out to the reading circuit of the semiconductor substrate 521 via the contact electrodes 519E and 522E, and passes through this reading circuit. It may be output to an external terminal arranged in the hole H2.
  • the signal voltage may be output to the external terminal together with the read circuit via, for example, another circuit included in the read circuit board 520.
  • Other circuits include, for example, signal processing circuits and output circuits.
  • the thickness of the read circuit board 520 is preferably larger than the thickness of the element board 510.
  • the thickness of the read circuit board 520 is preferably 2 times or more, further 5 times or more, and further 10 times or more larger than the thickness of the element substrate 510.
  • the thickness of the read circuit board 520 is, for example, 100 ⁇ m or more, 150 ⁇ m or more, or 200 ⁇ m or more.
  • the read circuit board 520 having such a large thickness ensures the mechanical strength of the light receiving element 501.
  • the read circuit board 520 may include only one layer of the semiconductor board 521 forming the circuit, and further includes a board such as a support board in addition to the semiconductor board 521 forming the circuit. May be good.
  • FIG. 12 is a diagram showing a cross-sectional configuration of another light receiving element.
  • each pixel circuit 1 described in each embodiment and its modification is applicable to the light receiving element shown in FIG.
  • each pixel 602 in the pixel array region is divided into a normal pixel 602A or a charge emission pixel 602B depending on the control of the reset transistor, and the pixel structure is either the normal pixel 602A or the charge emission pixel 602B. Is the same, so it will be described simply as pixel 602.
  • the charge emission pixel 602B is arranged on the outermost side of the pixel array region.
  • a capacitive element of each pixel 602, a reset transistor, an amplification transistor, and a read circuit of a selection transistor are formed for each pixel on a semiconductor substrate 612 made of a single crystal material such as single crystal silicon (Si).
  • An N-type semiconductor thin film 641 is formed on the entire surface of the pixel array region on the upper side of the semiconductor substrate 612 on the light incident side.
  • As the N-type semiconductor thin film 641, InGaP, InAlP, InGaAs, InAlAs, and further compound semiconductors having a chalcopyrite structure are used as the N-type semiconductor thin film 641, InGaP, InAlP, InGaAs, InAlAs, and further compound semiconductors having a chalcopyrite structure are used.
  • a compound semiconductor having a chalcopyrite structure is a material that can obtain a high light absorption coefficient and high sensitivity over a wide wavelength range, and is preferably used as an N-type semiconductor thin film 641 for photoelectric conversion.
  • Such a compound semiconductor having a chalcopyrite structure is composed of elements around Group IV elements such as Cu, Al, Ga, In, S, and Se, and is composed of CuGaInS-based mixed crystals, CuAlGaInS-based mixed crystals, and CuAlGaInSse-based. Examples include mixed crystals.
  • the read circuit arranged on the semiconductor substrate 612 the pixel circuit 1 described in each embodiment and each modification can be applied.
  • the material of the N-type semiconductor thin film 641 in addition to the compound semiconductor described above, amorphous silicon (Si), germanium (Ge), quantum (Q: Quantum) dot photoelectric conversion film, organic photoelectric conversion film and the like are used. Is also possible. Here, it is assumed that an InGaAs compound semiconductor is used as the N-type semiconductor thin film 641.
  • a high-concentration P-type layer 642 constituting a pixel electrode is formed for each pixel on the lower side of the N-type semiconductor thin film 641 on the semiconductor substrate 612 side. Then, between the high-concentration P-type layers 642 formed for each pixel, an N-type layer 643 as a pixel separation region for separating each pixel 602 is formed of, for example, a compound semiconductor such as InP.
  • the N-type layer 643 has a role of preventing a dark current as well as a function as a pixel separation region.
  • an N-type layer 644 having a higher concentration than that of the N-type semiconductor thin film 641 is formed by using a compound semiconductor such as InP used as a pixel separation region.
  • the high-concentration N-type layer 644 functions as a barrier layer for preventing the backflow of charges generated by the N-type semiconductor thin film 641.
  • compound semiconductors such as InGaAs, InP, and InAlAs can be used.
  • An antireflection film 645 is formed on the high-concentration N-type layer 644 as a barrier layer.
  • the material of the antireflection film 645 includes, for example, silicon nitride (SiN), hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), zirconium oxide (ZrO 2 ), tantalum oxide (Ta 2 Ta 5 ), and oxidation. Titanium (TiO 2 ) or the like can be used.
  • Either one of the high-concentration N-type layer 644 and the antireflection film 645 also functions as the upper upper electrode of the electrodes sandwiching the N-type semiconductor thin film 641 on the upper and lower sides, and the high-concentration N-type as the upper electrode.
  • a predetermined voltage Va is applied to the layer 644 or the antireflection film 645.
  • a color filter 646 and an on-chip lens 647 are further formed on the antireflection film 645.
  • the color filter 646 is a filter that transmits light (wavelength light) of either R (red), G (green), or B (blue), and is arranged in a so-called Bayer array in the pixel array region, for example. There is.
  • a passivation layer 651 and an insulating layer 652 are formed under the high-concentration P-type layer 642 constituting the pixel electrode and the N-type layer 643 as the pixel separation region.
  • the connection electrodes 653A and 653B and the bump electrode 654 are formed so as to penetrate the passivation layer 651 and the insulating layer 652.
  • the connection electrodes 653A and 653B and the bump electrode 654 electrically connect the high-concentration P-type layer 642 constituting the pixel electrode and the capacitance element 622 that stores electric charges.
  • the normal pixel 602A and the charge emission pixel 602B are configured as described above and have the same pixel structure. However, the reset transistor control method is different between the normal pixel 602A and the charge emission pixel 602B.
  • the reset transistor In the normal pixel 602A, the reset transistor is turned on and off based on the reset signal according to the charge generation period (light receiving period) by the photoelectric conversion unit, the reset period of the potential of the capacitive element before the start of light receiving, and the like, but the charge is released. In pixel 602B, the reset transistor is always controlled to be on. As a result, the electric charge generated by the photoelectric conversion unit is discharged to the ground, and a constant voltage Va is always applied to the electric charge emission pixel 602B.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 13 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 14 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 14 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle runs autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above. Specifically, the pixels 120 having the configurations illustrated in FIGS. 3, 5 to 10 can be applied to the imaging unit 12031.
  • the technique according to the present disclosure to the image pickup unit 12031, it is possible to obtain a photographed image that is easier to see by appropriately adjusting the balance between the suppression of blooming occurrence and the amount of saturated charge, thereby reducing driver fatigue. It becomes possible to do.
  • FIG. 15 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 15 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as a pneumoperitoneum tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 16 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the above-mentioned imaging conditions such as frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. Good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the endoscope 11100 and the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the pixels 120 having the configurations illustrated in FIGS. 3, 5 to 10 can be applied to the endoscope 11100 and the image pickup unit 11402 of the camera head 11102.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • a photoelectric conversion unit that generates a light charge and A first charge holding unit connected to the photoelectric conversion unit and holding a light charge generated by the photoelectric conversion unit, and a first charge holding unit.
  • a solid-state image sensor provided with a voltage control unit that controls a voltage value of an off voltage applied when the first transistor is turned off at the gate of the first transistor.
  • a second charge holding unit that holds the optical charge transferred from the first charge holding unit, and a second charge holding unit.
  • the solid-state image sensor according to (1) further comprising a fifth transistor arranged on a wiring connecting the fourth transistor and the signal line.
  • the photoelectric conversion unit includes InGaAs (indium gallium arsenide), InAsSb (indium arsenide antimonide), InAs (indium arsenide), InSb (indium antimonide), HgCdTe (mercury cadmium tellurium), Ge (germanium), quantum dots or organic compounds.
  • the photoelectric conversion unit is a photodiode, and is The solid-state image sensor according to (1) or (2) above, wherein the first transistor is an N-type MOS transistor.
  • the voltage control unit receives an input of a supply voltage whose voltage value has been switched by an external power source, and uses the supply voltage to change the voltage value of the off voltage to any one of the above (1) to (6).
  • the solid-state imaging device according to item 1. (9) A pixel array unit in which multiple pixels are arranged in the matrix direction, A drive circuit that drives a pixel to be read out in the plurality of pixels, A processing circuit that reads a pixel signal from the pixel to be read, which is driven by the drive circuit, The solid-state image pickup apparatus according to any one of (1) to (8), further comprising a drive circuit and a control unit for controlling the processing circuit.
  • the solid-state image sensor according to any one of (1) to (11), wherein the voltage control unit controls the timing of supplying the voltage held by each of the plurality of buffers to one or the plurality of rows.
  • (13) Solid-state image sensor and An optical system that forms an image of incident light on the light receiving surface of the solid-state image sensor, A processor that controls the solid-state image sensor, With The solid-state image sensor A photoelectric conversion unit that generates a light charge and A first charge holding unit connected to the photoelectric conversion unit and holding a light charge generated by the photoelectric conversion unit, and a first charge holding unit. A first transistor for discharging the optical charge held by the first charge holding unit to the outside, A voltage control unit that controls the voltage value of the off voltage applied to the gate of the first transistor when the first transistor is turned off. Electronic equipment equipped with.
  • Pixel circuit 2 Voltage control circuit 10
  • Photoelectric conversion film 11 Reset transistor 12 Amplification transistor 13
  • Selective transistor 14 Transfer transistor 15
  • Ejection transistor 16 17
  • Capacitor 20 Floating diffusion (FD) 21
  • Sense node (SN) 100
  • Electronic equipment 101 Imaging lens 102
  • Image sensor 103
  • Processor 104
  • Storage unit 111
  • Bias voltage source 112
  • Power supply 113
  • Feedback control unit 114
  • Voltage control unit 115 Buffer External power supply 120 pixels 121 Pixel array 122 Vertical drive circuit 123
  • Column processing circuit 124 Horizontal drive circuit 125
  • System control unit 126
  • Data storage unit 150 line control circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

イメージセンサ(102)は、光電荷を生成する光電変換部(10)と、光電変換部(10)に接続され、光電変換部(10)により生成された光電荷を保持するセンスノード(SN)(21)と、センスノード(SN)(21)が保持する光電荷を外部へ排出するための排出トランジスタ(15)と、排出トランジスタ(15)のゲートに排出トランジスタ(15)をオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部(114)とを備える。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 近年、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ(CIS:CMOS Image Sensor)等の固体撮像素子の普及が著しく、様々な分野でフィルム式の撮影装置と置き換えて活用されている。固体撮像素子は、通常の可視光の撮影においてフィルム式の撮影装置に代えて活用されていることはもちろん、紫外線や赤外線、X線やガンマ線といった非可視光の撮影における活用も顕著である。
 さらに、固体撮像素子の中に光電変換膜を有する撮像装置の中には、光電変換のキャリアとして正孔を取り扱う撮像装置が存在する。例えば、正孔を光電変換のキャリアとする光電変換膜には、量子(Q:Quantum)dot、InGaAs(イリジウムガリウムヒ素)センサ及び有機化合物などがある。特に光電変換膜としてInGaAsを用いた固体撮像素子は、暗電流が低く、且つエネルギーバンドギャップがシリコンより狭く赤外光などの長波長の光を捉えられるため、高感度の赤外線カメラなどへの応用が期待されている。
特開2001-197368号公報 特開平11-355664号公報 特開2019-041226号公報 特開2002-330346号公報
 しかしながら、正孔を光電変換のキャリアとした場合、飽和した正孔を定電圧源に逃がす経路であるオーバーフローパスを適切に画素回路中に形成することが困難である。その場合、光電変換膜を介して隣接画素に飽和以降の電荷が流入し、ブルーミングが発生するという問題がある。
 そこで、本開示では、CMOSイメージセンサの特性を向上させる固体撮像装置及び電子機器を提供する。
 本開示によれば、固体撮像装置は、光電荷を生成する光電変換部と、前記光電変換部に接続され、前記光電変換部により生成された光電荷を保持する第1電荷保持部と、前記第1電荷保持部が保持する前記光電荷を外部へ排出するための第1トランジスタと、前記第1トランジスタのゲートに前記第1トランジスタをオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部とを備える。
第1の実施形態に係る電子機器の概略構成例を示すブロック図である。 第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。 第1の実施形態に係る画素回路の回路図である。 排出トランジスタのゲート電圧に応じた出力電圧及びブルーミングの状態の一例を表す図である。 フォトダイオードを用いた画素回路の一例を示す回路図である。 3トランジスタ型の画素回路の回路図である。 第2の実施形態に係る画素回路及び電圧制御回路の回路図である。 第3の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。 第4の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。 第5の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。 受光素子の平面構成を表す図である。 図11AのB-B’線に沿った断面構成を表す図である。 他の受光素子の断面構成を表す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
  1.第1の実施形態
  2.第2の実施形態
  3.第3の実施形態
  4.第4の実施形態
  5.第5の実施形態
  6.適用例
  7.移動体への応用例
  8.内視鏡手術システムへの応用例
(1.第1の実施形態)
 従来のCMOSイメージセンサは、電子読み出しであり、フォトダイオード(PD)で溜めた電子を電源へ排出するおバーフローパスを形成することで、ブルーミング対策が為されている。また、従来のCMOSイメージセンサには、定電圧源へ電荷を排出させる排出(OFG:Overflow Gate)トランジスタを有するものがある。一方、InGaAsセンサを用いて形成される光電変換膜は、正孔を光電変換のキャリアとする。光電変換膜から発生した正孔と電子とを再結合させて、電子が減った分を信号として取り扱う。そのため、N型MOSトランジスタ(NMOS)を用いた読出回路では、正孔を溜めることが困難であり、正孔用のオーバーフローパスを形成することが困難である。そのため、InGaAsセンサを用いた光電変換膜と繋がる拡散層であるセンスノード(SN:Sense Node)の電圧は、上部電極Vtopの電圧まで上昇してしまう。
 光電変換膜に印加する逆バイアス電圧は、正孔が電子と再結合し、SNの電圧が上昇することで小さくなる。逆バイアス電圧は、バイアス電圧からSNの電圧を減算した電圧である。バイアス電圧がほぼ0になると、光電変換膜のPN接合間の電界が小さくなり、光電変換膜から読出回路へ流れる正孔による電流が減少する。読出回路へ流れる正孔による電流が減った分、N領域中へ拡散する正孔による電流が増え、拡散した正孔が隣接画素のPN接合間の電界に引かれ隣接画素へ流入してブルーミングが発生する。
 そこで、ブルーミング対策の1つとして、オーバーフローパスを形成してSNの電圧の上昇を抑える方法がある。そのために、光電変換膜から出力される正孔を受けるMOSトランジスタをP型トランジスタ(PMOS)とすることが考えられる。PMOSを配置することで、SNにおいて正孔の蓄積が可能となり、読出回路内にオーバーフローパスを形成できる。読出回路内の正孔用のオーバーフローパスにより、逆バイアスを一定に保ちつつ、イメージセンサを駆動することができ、光電変換膜内のブルーミングを抑制することが期待できる。
 ただし、PMOSおいて形成される正孔に対する障壁の設定は、ブルーミングの発生の抑制量と飽和信号量とのトレードオフの関係となる。すなわち、障壁を高くすると、飽和信号量は増えるが、ブルーミングの発生する可能性が増加する。これに対して、障壁を低くした場合、ブルーミングの発生の抑制量は増えるが、飽和信号量が減少してしまう。画素アレイにおいて、OPB(Optical Black)画素に隣接する有効画素領域内の画素では、ブルーミングを抑制することが重要であるが、有効画素領域内部の画素では飽和信号量を確保して画質を向上させることが重要である。
 しかしながら、従来の画素ではMOSトランジスタにおける障壁の設定は固定であるため、ブルーミング優先又は飽和信号量優先のいずれかが予め選択され、各画素に対する要望に応えることは困難であった。そこで、本実施形態に係る撮像素子は、排出トランジスタのゲート電圧を変更することで、オーバーフローパス形成の容易さ、すなわち障壁の高さを調整し、各画素に合わせてブルーミングの発生を抑制及び飽和電荷量Qsの確保を行う。
[電子機器の構成]
 図1は、第1の実施形態に係る電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器100は、例えば、撮像レンズ101、イメージセンサ102、プロセッサ103及び記憶部104を備える。
 撮像レンズ101は、入射光を集光してその像をイメージセンサ102の受光面に結像する光学系の一例である。受光面とは、イメージセンサ102における光電変換素子が配列する面であってよい。イメージセンサ102は、入射光を光電変換して画像データを生成する。また、イメージセンサ102は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。
 記憶部104は、例えば、フラッシュメモリやDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等で構成され、イメージセンサ102から入力された画像データ等を記録する。
 プロセッサ103は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサや、GPU(Graphics Processing Unit)やベースバンドプロセッサなどが含まれ得る。プロセッサ103は、イメージセンサ102から入力された画像データや記憶部104から読み出した画像データ等に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワークを介して外部へ送信したりする。
[イメージセンサの構成]
 図2は、第1の実施形態に係るイメージセンサの概略構成例を示すブロック図である。イメージセンサ102は、CMOS型のイメージセンサである。ここで、CMOS型のイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。例えば、イメージセンサ102は、裏面照射型のイメージセンサで構成される。このイメージセンサ102が、「固体撮像装置」の一例にあたる。
 本実施形態に係るイメージセンサ102は、例えば、画素アレイ121が形成された半導体チップと、周辺回路が形成された半導体チップとが積層されたスタック構造を有する。周辺回路には、例えば、垂直駆動回路122、カラム処理回路123、水平駆動回路124及びシステム制御部125が含まれる。
 イメージセンサ102は更に、信号処理部126及びデータ格納部127を備える。信号処理部126及びデータ格納部127は、周辺回路と同じ半導体チップに設けられてもよいし、別の半導体チップに設けられてもよい。
 画素アレイ121は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)120が行方向及び列方向に、すなわち、行列状に2次元格子状に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。画素120の具体的な回路構成や画素構造の詳細については後述する。
 画素アレイ121では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図2では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、垂直駆動回路122の各行に対応した出力端に接続されている。
 垂直駆動回路122は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ121の各画素120を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路122は、その垂直駆動回路122を制御するシステム制御部125と共に、画素アレイ121の各画素120の動作を制御する駆動部を構成している。この垂直駆動回路122はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備える。
 読出し走査系は、画素120から信号を読み出すために、画素アレイ121の画素120を行単位で順に選択走査する。画素120から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の画素120の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、画素120における電荷の蓄積期間(露光期間ともいう)となる。
 垂直駆動回路122によって選択走査された画素行の各画素120から出力される信号は、画素列ごとに垂直信号線VSLの各々を通してカラム処理回路123に入力される。カラム処理回路123は、画素アレイ121の画素列ごとに、選択行の各画素120から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路123は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素120内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。カラム処理回路123は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路124は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路123の画素列に対応する読出回路(以下、画素回路という)を順番に選択する。この水平駆動回路124による選択走査により、カラム処理回路123において画素回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部125は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路122、カラム処理回路123、及び、水平駆動回路124などの駆動制御を行う。
 信号処理部126は、少なくとも演算処理機能を有し、カラム処理回路123から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部127は、信号処理部126での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 なお、信号処理部126から出力された画像データは、例えば、イメージセンサ102を搭載する電子機器100におけるプロセッサ103等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。
[第1の実施形態に係る画素回路の構成]
 図3は、第1の実施形態に係る画素回路及び電圧制御回路の回路図である。画素120は、図3に示す画素回路1及び電圧制御回路2を有する。この画素回路1を有する画素120が、「固体撮像装置」の一例にあたる。
 画素回路1は、光電変換膜(光電変換部ともいう)10、リセット(RST:Reset)トランジスタ11、増幅(AMP:Amplifier)トランジスタ12及び選択(SEL:Select)トランジスタ13を有する。また、画素回路1は、転送(TRG:Transfer Gate)トランジスタ14及び排出(OFG:Overflow Gate)トランジスタ15を有する。また、画素回路1は、転送トランジスタ14のソース及び排出トランジスタ15のドレインの拡散層であるセンスノード(SN)21及び浮遊拡散層であるFD(フローティングディフュージョン)20を備える。さらに、本実施形態に係る画素回路1は、キャパシタ16及び17を有する。本実施形態に係る画素回路1は、FD保持型GS(Global shutter)の画素回路である。
 本実施形態に係る光電変換膜10は、InGaAsセンサを用いて形成される正孔を光電変換のキャリアとする光電変換膜である。光電変換膜10は、他にも例えば、InAsSb(インジウム砒素アンチモン)、InAs(インジウム砒素)、InSb(インジムアンチモン)、HgCdTe(水銀カドミウムテルル)、Ge(ゲルマニウム)、量子(Q:Quantum)ドット又は有機化合物などを用いて形成されてもよい。この光電変換膜10が、「光電変換部」の一例にあたる。
 本実施形態に係る光電変換膜10の出力端子は、排出トランジスタ15のソース、転送トランジスタ14のソース及びキャパシタ16に接続されるSN21に接続される。排出トランジスタ15は、ソースがSN21に接続され、ドレインが低電圧源VDRに接続される。転送トランジスタ14は、ソースがSN21に接続され、ドレインがFD20に接続される。FD20の出力端子は、リセットトランジスタ11のソース、増幅トランジスタ12のゲート及びキャパシタ17に接続される。リセットトランジスタ11のドレインは、低電圧源VDRに接続される。また、増幅トランジスタ12のドレインは電圧源VDDに接続される。また、増幅トランジスタ12のソースは選択トランジスタ13のドレインに接続される。そして、選択トランジスタ13のソースは出力信号線に接続される。また、キャパシタ16は、光電変換膜10の出力端子に接続される。また、キャパシタ17は、FD20に接続される。
 上述したように、光電変換膜10の出力端子は、SN21に接続される。光電変換膜10は、光電変換キャリアである正孔を出力端子から出力する。
 SN21は、上述したように、光電変換膜10の出力端子、排出トランジスタ15のソース、転送トランジスタ14のソースに接続される。さらに、SN21は、高容量素子であるキャパシタ16を有する。
 キャパシタ16は、一方の端子が上述したようにSN21に接続され、他方の端子が対向電極に接続される。この対極電圧には、定電圧源(VDD)や接地電位(GND)などの任意の電圧を用いることができる。キャパシタ16は、光電変換膜10から出力された電荷を蓄積して保持する。
 キャパシタ16を備えたSN21が保持する電荷は、排出トランジスタ15がオンになると低電圧源VDRへ排出される。これに対して、転送トランジスタ14がオンになると、キャパシタ16を備えたSN21が保持する電荷は、FD20へ転送される。
 排出トランジスタ15は、PMOSである。排出トランジスタ15は、上述したようにソースがSN21に接続され、ドレインが低電圧源VDRに接続される。さらに、排出トランジスタ15のゲートは、排出制御信号線に接続される。
 PMOSである排出トランジスタ15は、ゲートに閾値電圧以下の電圧が印加されるとオンになる。また、排出トランジスタ15は、ゲートに閾値電圧より大きい電圧が印加されるとオフになる。すなわち、排出トランジスタ15は、ゲートにオフ電圧である閾値電圧より大きい電圧が印加される場合に障壁が設定される。排出トランジスタ15は、オンになることで光電変換膜10及びキャパシタ16に保持された電荷を低電圧源VDRへ排出させ、光電変換膜10をリセットする。
 さらに、排出トランジスタ15のゲートに印加されるゲート電圧として、要求される飽和電荷量の最大値に応じて2種類の電圧が使用される。1つは、飽和電荷量を最大にして障壁を高くすることで飽和電荷量の確保を優先する場合のゲート電圧である。この場合のゲート電圧を「飽和電荷量優先用ゲート電圧」という。また、他の1つは飽和電荷量を小さくして障壁を低くすることでブルーミング発生の抑制を優先する場合のゲート電圧である。この場合のゲート電圧を「ブルーミング優先用ゲート電圧」という。排出トランジスタ15はPMOSであり正孔が蓄積されるので、障壁の電位が低いほど正孔に対する障壁は高くなり、障壁の電位が高いほど正孔に対する障壁は低くなる。そこで、飽和電荷量優先用ゲート電圧は、ブルーミング優先用ゲート電圧よりも高い。例えば、飽和電荷量優先用ゲート電圧の場合、飽和電荷量が最大の時の出力電圧が360mVとなる。また、ブルーミング優先用ゲート電圧の場合、飽和電荷量が最大の時の出力電圧が180mVとなる。
 ゲート電圧が飽和電荷量優先用ゲート電圧である場合、排出トランジスタ15では、障壁が高くなりSN21と低電圧源VDRとを結ぶオーバーフローパスを形成し難くなるため、飽和電荷量が増大する。一方、ゲート電圧がブルーミング優先用ゲート電圧である場合、排出トランジスタ15では、障壁が低くなりSN21と低電圧源VDRとを結ぶオーバーフローパスを形成し易くなるため、飽和電荷量は減少する。
 各画素120は、画素アレイ121における位置に応じて排出トランジスタ15のゲート電圧が決定される。例えば、OPB画素に隣接する画素120の場合、排出トランジスタ15のゲート電圧は、ブルーミング優先用ゲート電圧となる。一方、画素アレイ121の内部に位置する画素120の場合、排出トランジスタ15のゲート電圧は、飽和電荷量優先用ゲート電圧となる。
 転送トランジスタ14も、PMOSである。転送トランジスタ14は、上述したように、ソースが光電変換膜10の出力端子に接続され、ドレインがFD20に接続される。さらに、転送トランジスタ14のゲートは、転送信号線に接続される。PMOSである転送トランジスタ14は、転送信号線から送られた信号によりゲートに閾値電圧以下の電圧が印加されるとオンになる。また、転送トランジスタ14は、ゲートに閾値電圧より大きい電圧が印加されるとオフになる。転送トランジスタ14は、オンになると光電変換膜10により生成されキャパシタ16に蓄積された電荷をFD20へ転送する。
 FD20は、上述したように転送トランジスタ14のドレイン、リセットトランジスタ11のソース及び増幅トランジスタ12のゲートに接続される。さらに、FD20は、高容量素子であるキャパシタ17を有する。
 キャパシタ17は、一方の端子が上述したようにFD20に接続され、他方の端子が対向電極に接続される。この対極電圧には、定電圧源(VDD)や接地電位(GND)などの任意の電圧を用いることができる。キャパシタ17は、SN21から転送された電荷を蓄積して保持する。
 キャパシタ17を備えたFD20は、転送トランジスタ14がオンになることでキャパシタ17を備えたSN21に保持された電荷が転送され、転送されてきた電荷を蓄積保持する。FD20は、キャパシタ17などに保持された電荷により発生する電圧を増幅トランジスタ12のゲートに印加する。FD20は、増幅トランジスタ12のゲートに閾値電圧以上の電圧を印加することで増幅トランジスタ12をオンにする。また、リセットトランジスタ11がオンになると、キャパシタ17を含むFD20が保持する電荷は低電源VDRへ排出され、FD20はリセットされる。
 ここで、本実施形態では、画素回路1にSN21及びFD20における容量を確保するためのキャパシタ16及び17を設けたが、このキャパシタ16及び17は設けなくてもよい。
 リセットトランジスタ11は、PMOSである。リセットトランジスタ11は、上述したように、ソースがFD20に繋がる経路に接続され、ドレインが低電圧源VDRに接続される。さらに、リセットトランジスタ11のゲートは、リセット信号線に接続される。リセットトランジスタ11は、ゲートに閾値電圧以下の電圧が印加されるとオンになる。また、リセットトランジスタ11は、ゲートに閾値電圧より大きい電圧が印加されるとオフになる。リセットトランジスタ11は、オンになることでFD20に蓄積された電荷を低電圧源VDRへ排出させてキャパシタ17を含むFD20をリセットする。
 増幅トランジスタ12は、NMOSである。増幅トランジスタ12は、上述したように、ゲートがFD20に繋がる経路に接続され、ソースが電圧源VDDに接続され、ドレインが選択トランジスタ13のソースに接続される。増幅トランジスタ12は、FD20から出力された電荷によりゲートに閾値電圧以上の電圧が印加されるとオンになる。また、増幅トランジスタ12は、ゲートに閾値電圧より小さい電圧が印加されるとオフになる。増幅トランジスタ12は、オンになると電圧源VDDから入力された電流を選択トランジスタ13へ出力する。すなわち、増幅トランジスタ12は、FD20に保持された電荷に基づく信号を選択トランジスタ13へ出力する。
 選択トランジスタ13は、NMOSである。選択トランジスタ13は、上述したように、ソースが増幅トランジスタ12のドレインに接続され、ドレインが出力信号線に接続される。また、選択トランジスタ13のゲートは、選択信号線に接続される。選択トランジスタ13は、NMOSであるので、ゲートに閾値電圧以上の電圧が印加されるとオンになる。また、選択トランジスタ13は、ゲートに閾値電圧より小さい電圧が印加されるとオフになる。選択トランジスタ13は、オンになると増幅トランジスタ12が出力した信号を画素信号として出力信号線へ出力する。すなわち、選択トランジスタ13は、画素回路1から画素信号を出力するか否かを決定することで、読み出し時における画素の選択を制御する。
 次に、電圧制御回路2について説明する。電圧制御回路2は、排出トランジスタ15のゲート電圧を調整する回路である。電圧制御回路2は、バイアス電圧源111、電源112、フィードバック制御部113、電圧制御部114及び行制御回路150を有する。行制御回路150は、画素アレイ121の各行にそれぞれ対応する複数のバッファ115を備える。ここで、図3では1つのバッファ115に対して画素回路1を記載したが、実際には、行制御回路150は、1つのバッファ115で画素アレイ121の1つの行に含まれる画素120をまとめて制御する。
 バイアス電圧源111は、所定の電圧を有するバイアス電圧を出力する定電圧源である。バイアス電圧源111は、所定の電圧を電源112に供給する。
 電源112は、例えば、リニアレギュレータ、チャージポンプ又はスイッチングレギュレータなどである。バイアス電圧の入力をバイアス電圧源111から受ける。また、電源112は、フィードバック信号の入力をフィードバック制御部113から受ける。そして、電源112は、フィードバック信号に応じて電圧を調整して出力する。例えば、フィードバック信号が基準電圧との差を表す信号の場合、その差分を減らすように電圧を調整する。
 フィードバック制御部113は、電源112の出力電圧の入力を受ける。また、フィードバック制御部113は、飽和電荷量優先用ゲート電圧又はブルーミング優先用ゲート電圧のうち指定されたゲート電圧の情報の入力を電圧制御部114から受ける。そして、フィードバック制御部113は、電源112の出力電圧と指定されたゲート電圧とを比較して、フィードバック信号を生成する。例えば、フィードバック制御部113は、電源112の出力電圧と指定されたゲート電圧との差分を算出してフィードバック信号とする。そして、フィードバック制御部113は、生成したフィードバック信号を電源112へ出力する。
 電圧制御部114は、画素アレイ121における行毎にゲート電圧として飽和電荷量優先用ゲート電圧又はブルーミング優先用ゲート電圧のいずれを用いるかのゲート電圧の設定情報の入力を受ける。その後、電圧制御部114は、自己が有するレジスタ内に、行毎のゲート電圧の設定情報を保持する。そして、電圧制御部114は、設定情報で指定されたゲート電圧の情報を行毎にフィードバック制御部113へ出力する。ここで、電圧制御部114は、ゲート電圧の値そのものをフィードバック制御部113に通知してもよいし、各ゲート電圧の値を表す情報をフィードバック制御部113に通知してもよい。ゲート電圧の値を表す情報とは、例えば、「0」であれば飽和電荷量優先用ゲート電圧を表し、「1」であればブルーミング優先用ゲート電圧を表すなど予め設定された情報である。
 また、電圧制御部114は、タイミングジェネレータを有する。そして、電圧制御部114は、排出トランジスタ15のオンオフのタイミングパルスをバッファ115へ出力する。
 バッファ115は、電源112から入力される電圧を保持する。そして、バッファ115は、電圧制御部114から入力されたタイミングパルスに合わせて、保持する電圧を排出トランジスタ15のゲートに印加する。
[第1の実施形態に係る画素回路の動作]
 ここで、図3の画素回路1における画素信号生成の流れについて説明する。まず、排出トランジスタ15を導通させて、光電変換膜10、SN21及びキャパシタ16をリセットする。その後、排出トランジスタ15をオフにすることで、光電変換膜10で生成された電荷がSN21及びキャパシタ16に蓄積され保持される。この光電変換膜10のリセットからキャパシタ16への電荷の保持までの操作は、画素アレイ121に配置された全ての画素120において同時に行われる。これにより、グローバルシャッタが実現される。なお、光電変換膜10のリセットからキャパシタ16への電荷の保持までの期間は露光期間に該当する。
 次に、リセットトランジスタ11を導通させて、キャパシタ17及びFD20をリセットする。次に、リセットトランジスタ11をオフにし、且つ、転送トランジスタ14をオンにする。これにより、SN21及びキャパシタ16に蓄積された電荷がFD20に転送されキャパシタ17及びFD20にて蓄積されて保持される。
 そして、転送トランジスタ14をオンにしてFD20に正孔を蓄積している状態で、排出トランジスタ15により生成される障壁の電位をFD20の電位が上回った場合、排出トランジスタ15を経由するオーバーフローパスが形成される。これにより、SN21の電位が上昇するため、FD20の飽和によるFD20間のオーバーフローが回避される。
 ここで、排出トランジスタ15のゲート電圧が、ブルーミング優先用ゲート電圧の場合、排出トランジスタ15により生成される障壁の電位は、飽和電荷量優先用ゲート電圧の場合に比べて障壁の電位が低く設定され、障壁は低くなる。そのため、排出トランジスタ15を経由するオーバーフローパスが、飽和電荷量優先用ゲート電圧の場合に比べて容易に形成される。これにより、飽和電荷量優先用ゲート電圧の場合に比べて、ブルーミングの発生をより抑制することができる。これに対して、排出トランジスタ15により生成される障壁が低いため、飽和電荷量は飽和電荷量優先用ゲート電圧の場合に比べて少なくなる。
 一方、排出トランジスタ15のゲート電圧が、飽和電荷量優先用ゲート電圧の場合、排出トランジスタ15により生成される障壁の電位は、ブルーミング優先用ゲート電圧の場合に比べて障壁の電位が高く設定され、障壁は高くなる。そのため、飽和電荷量はブルーミング優先用ゲート電圧の場合に比べて多くなる。これに対して、排出トランジスタ15により生成される障壁が高いため、排出トランジスタ15を経由するオーバーフローパスが、飽和電荷量優先用ゲート電圧の場合に比べて形成され難い。そのため、ブルーミング優先用ゲート電圧の場合に比べて、ブルーミングの発生が増加する場合がある。
 また、転送トランジスタ14がオフの状態で蓄積された正孔の電位が転送トランジスタ14により生成される障壁の電位よりも上回った場合、転送トランジスタ14を経由するオーバーフローパスが形成される。そして、転送トランジスタ14により生成される障壁の電位を下回った分の正孔がオーバーフローパスを介して排出される。
 また、リセットトランジスタ11がオフの状態で蓄積された正孔の電位がリセットトランジスタ11により生成される障壁の電位よりも上回った場合、リセットトランジスタ11を経由するオーバーフローパスが形成される。そして、リセットトランジスタ11により生成される障壁の電位を上回った分の正孔がオーバーフローパスを介して排出される。
 増幅トランジスタ12は、FD20に保持された電荷に応じた画素信号を生成する。次に、選択トランジスタ13を導通させることにより、増幅トランジスタ12により生成された画素信号が出力信号線に出力される。このFD20のリセットから画素信号の出力までの操作は、画素アレイ121に配置された画素回路1毎に順次行う。画素アレイ121の全ての画素回路1で画素信号の出力の処理が行われることで、1画面分の画素信号であるフレームが生成される。
 図4は、排出トランジスタのゲート電圧に応じた出力電圧及びブルーミングの状態の一例を表す図である。グラフ201は、ゲート電圧のHigh電圧を3つの状態の中で最も高い第1電圧にした場合の各画素120における出力電圧と蓄積時間とを表すグラフである。グラフ202は、ゲート電圧のHigh電圧をグラフ201の場合よりも低い第2電圧にした場合の各画素120における出力電圧と蓄積時間とを表すグラフである。グラフ203は、ゲート電圧のHigh電圧をグラフ202の場合よりも低い第3電圧にした場合の各画素120における出力電圧と蓄積時間とを表すグラフである。グラフ201~203は、いずれも縦軸で出力電圧を表し、横軸で電荷の蓄積時間を表す。そして、グラフ201~203における曲線221は、有効画素領域内の開口画素の内部の画素120の出力電圧である。また、曲線222は、有効画素領域内の開口画素の端部の画素120の出力電圧である。また、曲線223は、OPB画素の開口画素から1行目の画素120の出力電圧である。また、曲線223は、OPB画素の開口画素から2行目の画素120の出力電圧である。
 また、画像211は、グラフ201の場合のブルーミングの発生状態を表し、画像212は、グラフ202の場合のブルーミングの発生状態を表し、画像213は、グラフ203の場合のブルーミングの発生状態を表す。画像211~画像213において破線で示した部分が開口画素の端部にあたる。
 ゲート電圧が第1電圧の場合、グラフ201に示すように、各画素120の出力電圧は他の場合に比べて高い。すなわち、ゲート電圧が第1電圧の場合、飽和電荷量が他の場合に比べて多いことが分かる。ただし、画像211に示すように開口画素の端部からOPB画素に亘る領域においてブルーミングが大きく発生している。これに対して、ゲート電圧を第2電圧Vにした場合、グラフ202に示すように、各画素120の出力電圧は、ゲート電圧が第1電圧の場合に比べて減少する。ただし、画像212に示すように、ブルーミングの発生は、ゲート電圧が第1電圧の場合に比べて減少する。さらに、ゲート電圧を第3電圧にした場合、グラフ203に示すように、各画素120の出力電圧は、ゲート電圧が第2電圧の場合に比べてさらに減少する。ただし、画像213に示すように、ブルーミングの発生は、ゲート電圧が第2電圧の場合に比べてさらに減少し、ほぼブルーミングが抑えられているといえる。
 このように、排出トランジスタ15のゲート電圧を下げることで、飽和電荷量が少なくなり、その分画質は落ちるが、ブルーミングの発生を抑制することができる。そこで、開口画素の内部ではゲート電圧を高くして、開口画素の端部ではゲート電圧を低くすることが好ましい。
[作用・効果]
 以上に説明したように、本実施形態に係る画素回路1は、FD保持型であり、光電変換キャリアとして正孔を使用する光電変換膜10を有する。そして、本実施形態に係る画素回路1は、排出トランジスタ15としてPMOSが用いられ、且つ、排出トランジスタ15のゲート電圧として飽和電荷量優先用ゲート電圧又はブルーミング優先用ゲート電圧のいずれかが用いられる。
 これにより、本実施形態に係る画素回路1は、排出トランジスタ15に正孔を溜めることができ、隣接する画素120に正孔が流出する前にオーバーフローパスを形成して正孔を排出することができる。さらに、排出トランジスタ15のゲート電圧を切替えることで、オーバーフローパス形成のし易さと飽和電荷量とを調整することができる。すなわち、ブルーミングの発生の抑制や飽和電荷量を増加させることが可能である。したがって、各画素120に対する要求に応じて、ブルーミングの抑制と飽和電荷量とを調整することができ、画質を向上させることができる。
 また、本実施形態では、2種類のゲート電圧を用いたが、ゲート電圧の種類は3つ以上であってもよい。その場合、各画素毎に合わせてブルーミングの発生と飽和電荷量との調整を細かく行うことができる。
[第1の実施形態の変形例(1)]
 第1の実施形態に係る画素回路1では、予め決められたゲート電圧の設定に合わせてゲート電圧の切り替えが行われたが、本変形例に係る画素回路1は、後段画像処理からゲート電圧を制御する。
 電圧制御部114は、画素アレイ121の全エリアの画像を取り込む。そして、電圧制御部114は、画像処理を行うブルーミングの発生した画素を特定する。そして、電圧制御部114は、ブルーミングが発生している場合、ブルーミングが発生した画素120における現在のゲート電圧が飽和電荷量優先用ゲート電圧であれば、その画素の排出トランジスタ15のゲート電圧をブルーミング優先用ゲート電圧に変更することを決定する。そして、電圧制御部114は、ブルーミングが発生した画素120のゲート電圧をブルーミング優先用ゲート電圧としてフィードバック制御部113へ出力する。
 このような構成にすることで、ブルーミングの発生箇所の画素120のブルーミングの発生を抑えることができ、画質を維持しつつブルーミングの発生を低減することができる。
 また、本実施例では、電圧制御部114がブルーミングの発生した画素120を判定したが、この判定処理は外部のコンピュータに実行させてもよい。
[第1の実施形態の変形例(2)]
 第1の実施形態に係る画素回路1では、予め決められたゲート電圧の設定に合わせてゲート電圧の切り替えが行われたが、本変形例に係る画素回路1は、アナログゲインに合わせてゲート電圧を制御する。
 イメージセンサ102は、アナログゲインを調整することができる。例えば、100mVで10ビットのAD(Analog/Digital)変換を行うか、アナログゲインを上げて50mVで10ビットのAD変換を行うかといった設定ができる。
 電圧制御部114は、指定されたゲインの入力を受ける。そして、電圧制御部114は、ゲインの増加に応じて、飽和電荷量が小さくなるように排出トランジスタ15のゲート電圧を調整する。例えば、アナログゲインが2倍になった場合、電圧制御部114は、飽和電荷量が1/2になるように排出トランジスタ15のゲート電圧を設定する。
 このような構成にすることで、ブルーミングを抑えつつ、無駄な電荷の発生を抑制することができる。
[第1の実施形態の変形例(3)]
 また、以上の説明では、排出トランジスタ15のゲート電圧を可変としたが、リセットトランジスタ11のゲート電圧とともに、転送トランジスタ14のゲート電圧を可変としてもよい。このような構成を採用することで、転送トランジスタ14においてもオーバーフローパスを形成ことでSN21に蓄積される正孔を排出することも可能である。
[第1の実施形態の変形例(4)]
 また、以上の説明では、InGaAsセンサを用いた光電変換膜10を有する画素回路1について説明したが、図5に示すようなシリコンの半導体基板にフォトダイオード18を配置した画素回路1に適用することも可能である。図5は、フォトダイオードを用いた画素回路の一例を示す回路図である。図5における画素回路1は、シリコン基板に配置されたフォトダイオード18を有する。フォトダイオード18で生成された電子が排出トランジスタ15に蓄積されて保持される。この場合のフォトダイオード18が、「光電変換部」の一例にあたる。
 この場合、排出トランジスタ15は、NMOSである。排出トランジスタ15がNMOSであれば、障壁の電位を低くすることで障壁が高くなりオーバーフローパスが形成され難くなり飽和電荷量が増加する。逆に、障壁の電位を高くすることで障壁が低くなりオーバーフローパスが容易に形成されブルーミングの発生がより抑制されるが、飽和電荷量は少なくなる。排出トランジスタ15は、ゲートにオフ電圧である閾値電圧より低い電圧が印加される場合に障壁が設定される。
[第1の実施形態の変形例(5)]
 また、以上の説明では、グローバルシャッタの機能を有する画素回路1について説明したが、ローリングシャッターの機能を有する画素回路1に対しても適用可能である。図6は、3トランジスタ型の画素回路の回路図である。例えば、図6に示す3つのトランジスタで構成される画素回路1を用いる場合、リセットトランジスタ11のゲート電圧を変化させることで、ブルーミング発生の抑制と飽和電荷量とを調整することが可能である。
(2.第2の実施形態)
 図7は、第2の実施形態に係る画素回路及び電圧制御回路の回路図である。実施形態に係るイメージセンサ102は、電源の調整を外部電源に行わせることが実施例1と異なる。以下の説明では、第1の実施形態における各部の動作と同じ動作については説明を省略する。
 外部電源116は、本実施形態に係るイメージセンサ102のバッファ115に接続される。外部電源116には、所望する飽和電荷量に応じたゲート電圧の設定の情報を用いて、出力する電圧が設定される。外部電源116は、設定された電圧を出力する。ここで、図7では、外部電源116が行制御回路150に対して1種類の電圧を出力する状態を記載したが、実際には、外部電源116は、行毎に異なる種類の電圧が選択可能なように、複数種類の電圧を行制御回路に対して出力する。例えば、外部電源116は、各行が選択可能な飽和電荷量優先用ゲート電圧又はブルーミング優先用ゲート電圧を出力する。
 バッファ115は、電圧の入力を外部電源116から受けて蓄積する。そして、バッファ115は、電圧制御部114から入力されたオンオフのパルス信号に合わせて排出トランジスタ15のゲートにゲート電圧を印加する。
 以上に説明したように、本実施形態に係るイメージセンサ102は、飽和電荷量に応じた電圧の入力を外部電源116から受け、その電圧をゲート電圧として排出トランジスタ15に印加する。このように、外部電源116を用いても排出トランジスタ15へ印加するゲート電圧を調整することができ、ブルーミングの発生の抑制と棒和電荷量とを調整して画質を向上させることができる。
 また、外部電源116から電圧の入力を受ける構成であっても、第1の実施形態の変形例(1)と同様に後段画像処理にしたがってゲート電圧を調整することが可能である。その場合、外部電源116に対して後段画像処理から得た情報を通知することが好ましい。例えば、画像処理によるブルーミングが発生する画素120の判定は電圧制御部114が行い、その判定結果を外部電源116へ通知する構成であってもよい。
(3.第3の実施形態)
 図8は、第3の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。本実施例に係るイメージセンサ102は、画素アレイ121に含まれる全ての画素回路1の排出トランジスタ15に対して同じゲート電圧を用いる。
 電源112は、行制御回路150に対して可変電位出力が可能な配線を1本有する。電源112は、電圧制御部114からの制御を受けて、指定されたゲート電圧を行制御回路150へ出力する。例えば、飽和電荷量優先用ゲート電圧とブルーミング優先用ゲート電圧を用いる場合を例に説明する。画素アレイ121の全体においてブルーミングを抑えたい場合、電源112は、ブルーミング優先用ゲート電圧を出力する。これに対して、画素アレイ121の全体において飽和電荷量を増加させたい場合、電源112は、飽和電荷量優先用ゲート電圧を出力する。
 行制御回路150は、画素アレイ121の行毎にバッファ115を有する。そして、各バッファ115は、画素アレイ121の各行の画素回路1が有する排出トランジスタ15のゲートに接続される。
 行制御回路150は、ゲート電圧の入力を受け、各バッファ115に保持する。そして、行制御回路150は、各排出トランジスタ15のオンオフに応じてバッファ115に保持されたゲート電圧を印加する。これにより、全ての行の画素回路1が有する排出トランジスタ15には同じゲート電圧が印加される。
 以上に説明したように、本実施例に係るイメージセンサ102では、画素アレイ121の全ての行の画素回路1が有する排出トランジスタ15に同じゲート電圧が印加される。これにより、画素アレイ121のブルーミングを抑えたい場合には、ブルーミングを抑える電圧のゲート電圧が画素アレイ121の全ての画素120の画素回路1における排出トランジスタ15で用いられる。また、画素アレイ121の飽和電荷量を増やして画質を向上させる場合、飽和電荷量を増加させる電圧のゲート電圧が画素アレイ121の全ての画素120の画素回路1における排出トランジスタ15で用いられる。これにより、画素アレイ121毎にブルーミングの発生抑制と飽和電荷量とを調整することができる。
(4.第4の実施形態)
 図9は、第4の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。本実施例に係るイメージセンサ102は、画素アレイ121に含まれる行毎に異なるゲート電圧を印加する。
 電源112は、行制御回路150に対して可変電位出力が可能な配線をゲート電圧の種類の本数分有する。電源112は、各配線に各種のゲート電圧を出力する。例えば、ゲート電圧として3種類の電圧を用いる場合、電源112は、行制御回路150へ延びる3本の配線を有する。そして、電源112は、それぞれの配線に3種類の異なるゲート電圧を出力する。
 行制御回路150は、画素アレイ121の行毎にバッファ115を有する。そして、各バッファ115は、画素アレイ121の各行の画素回路1が有する排出トランジスタ15のゲートに接続される。さらに、各バッファ115は、電源112から延びる配線のいずれかを選択可能なスイッチに接続される。
 行制御回路150は、各行に印加するゲート電圧の設定情報の入力を電圧制御部114から受ける。そして、行制御回路150は、各行のゲート電圧の設定情報にしたがって、各行に印加する種類のゲート電圧が入力される配線に各行に対応するバッファ115を接続する。
 行制御回路150は、配線毎に異なる種類のゲート電圧の入力を受け、各配線に接続された各バッファ115にその配線で入力された電圧を保持させる。そして、行制御回路150は、各排出トランジスタ15のオンオフに応じてバッファ115に保持されたゲート電圧を各行の画素回路1が有する排出トランジスタ15に印加する。これにより、行毎に異なる排出トランジスタ15のゲート電圧が印加される。
 以上に説明したように、本実施例に係るイメージセンサ102では、画素アレイ121の行毎に、画素回路1が有する排出トランジスタ15に異なるゲート電圧が印加される。これにより、画素アレイ121の行毎に、ブルーミングの発生の抑制と飽和電荷量を調整することができる。例えば、ブルーミングを抑えたい画素120を有する行に対してはブルーミングを抑えるゲート電圧を排出トランジスタ15に印加し、飽和電荷量を増やしたい画素120を有する行に対しては飽和電荷量を増加させるゲート電圧を排出トランジスタ15に印加することができる。これにより、イメージセンサ102は、より適切な画像を生成することができる。
(5.第5の実施形態)
 図10は、第5の実施形態に係るイメージセンサにおける行制御回路の接続状態を表す図である。本実施例に係るイメージセンサ102は、画素アレイ121の領域毎に異なるゲート電圧を印加する。
 本実施例に係る画素アレイ121の画素120は、例えば、格子状に領域分割される。そして、各画素120の画素回路1が有する排出トランジスタ15のゲートは、1つの配線で接続される。
 電源112は、行制御回路150に対して可変電位出力が可能な配線をゲート電圧の種類の本数分有する。電源112は、各配線に各種のゲート電圧を出力する。例えば、ゲート電圧として3種類の電圧を用いる場合、電源112は、行制御回路150へ延びる3本の配線を有する。そして、電源112は、それぞれの配線に3種類の異なるゲート電圧を出力する。
 行制御回路150は、画素アレイ121の行毎にバッファ115を有する。そして、各バッファ115は、画素アレイ121の各領域の画素回路1が有する排出トランジスタ15のゲートから延びる配線に接続される。さらに、各バッファ115は、電源112から延びる配線のいずれかを選択可能なスイッチに接続される。
 行制御回路150は、各領域に印加するゲート電圧の設定情報の入力を電圧制御部114から受ける。そして、行制御回路150は、各領域のゲート電圧の設定情報にしたがって、各領域に印加する種類のゲート電圧が入力される配線に各行に対応するバッファ115を接続する。
 行制御回路150は、配線毎に異なる種類のゲート電圧の入力を受け、各配線に接続された各バッファ115にその配線で入力された電圧を保持させる。そして、行制御回路150は、各排出トランジスタ15のオンオフに応じてバッファ115に保持されたゲート電圧を各領域の画素回路1が有する排出トランジスタ15に印加する。これにより、領域毎に異なる排出トランジスタ15のゲート電圧が印加される。
 以上に説明したように、本実施例に係るイメージセンサ102では、画素アレイ121の領域毎に、画素回路1が有する排出トランジスタ15に異なるゲート電圧が印加される。これにより、画素アレイ121の領域毎に、ブルーミングの発生の抑制と飽和電荷量を調整することができる。例えば、ブルーミングを抑えたい画素120を有する領域においてはブルーミングを抑えるゲート電圧を排出トランジスタ15に印加し、飽和電荷量を増やしたい画素120を有する領域に対しては飽和電荷量を増加させるゲート電圧を排出トランジスタ15に印加することができる。これにより、画素アレイ121の領域毎にブルーミングの発生抑制と飽和電荷量とを調整することができ、より適切な画像を生成することができる。さらに、領域を細かく分割することで、各画素におけるブルーミングの発生抑制と飽和電荷量との調整を細かく行うことができ、より適切な画像を生成することができる。
(6.適用例)
 ここで、以上の各実施形態で説明した画素回路1が適用可能な構成例について説明する。図11Aは、受光素子の平面構成を表す図である。図11Bは、図11AのB-B’線に沿った断面構成を表す図である。例えば、各実施形態及びその変形例において説明した各画素回路1は、図11A及び11Bに示す受光素子に適用可能である。
 受光素子501は、例えばIII-V族半導体などの化合物半導体材料を用いた赤外線センサ等に適用されるものであり、例えば、可視領域(例えば380nm以上780nm未満)~短赤外領域(例えば780nm以上2400nm未満)の波長の光に、光電変換機能を有している。この受光素子501には、例えば2次元配置された複数の受光単位領域P(画素P)が設けられている(図11B)。
 この受光素子501は、例えばIII-V族半導体などの化合物半導体材料を用いた赤外線センサ等に適用されるものであり、例えば、可視領域(例えば380nm以上780nm未満)~短赤外領域(例えば780nm以上2400nm未満)の波長の光に、光電変換機能を有している。この受光素子501には、例えば2次元配置された複数の受光単位領域P(画素P)が設けられている。
 受光素子501は、中央部の素子領域R1と、素子領域R1の外側に設けられ、素子領域R1を囲む周辺領域R2とを有している(図11A)。受光素子501は、素子領域R1から周辺領域R2にわたって設けられた導電膜515Bを有している。この導電膜515Bは、素子領域R1の中央部に対向する領域に開口を有している。
 受光素子501は、素子基板510および読出回路基板520の積層構造を有している。素子基板510の一方の面は光入射面(光入射面S1)であり、光入射面S1と反対の面(他方の面)が、読出回路基板520との接合面(接合面S2)である。
 素子基板510は、読出回路基板520に近い位置にから、配線層510W、第1電極511、半導体層510S(第1半導体層)、第2電極515およびパッシベーション膜516をこの順に有している。半導体層510Sの配線層510Wとの対向面および端面(側面)は、絶縁膜517により覆われている。読出回路基板520は、いわゆるROIC(Readout integrated circuit)であり、素子基板510の接合面S2に接する配線層520Wおよび多層配線層522Cと、この配線層520Wおよび多層配線層522Cを間にして素子基板510に対向する半導体基板521とを有している。
 素子基板510は素子領域R1に半導体層510Sを有している。換言すれば、半導体層510Sが設けられた領域が、受光素子501の素子領域R1である。素子領域R1のうち、導電膜515Bから露出された領域(導電膜515Bの開口に対向する領域)が、受光領域である。素子領域R1のうち、導電膜515Bで覆われた領域は、OPB(Optical Black)領域R1Bである。OPB領域R1Bは、受光領域を囲むように設けられている。OPB領域R1Bは、黒レベルの画素信号を得るために用いられる。素子基板510は、周辺領域R2に、絶縁膜517とともに埋込層518を有している。周辺領域R2には、素子基板510を貫通し、読出回路基板520に達する穴H1,H2が設けられている。受光素子501では、素子基板510の光入射面S1から、パッシベーション膜516、第2電極515および第2コンタクト層514を介して半導体層510Sに光が入射するようになっている。半導体層510Sで光電変換された信号電荷は、第1電極511および配線層510Wを介して移動し、読出回路基板520で読みだされる。以下、各部の構成について説明する。
 配線層510Wは、素子領域R1および周辺領域R2にわたって設けられ、読出回路基板520との接合面S2を有している。受光素子501では、この素子基板510の接合面S2が素子領域R1および周辺領域R2に設けられ、例えば素子領域R1の接合面S2と周辺領域R2の接合面S2とは、同一平面を構成している。後述するように、受光素子501では、埋込層518を設けることにより周辺領域R2の接合面S2が形成される。
 配線層510Wは、例えば層間絶縁膜519A,519B中に、コンタクト電極519Eおよびダミー電極519EDを有している。例えば、読出回路基板520側に層間絶縁膜519Bが、第1コンタクト層512側に層間絶縁膜519Aが配置され、これら層間絶縁膜519A,519Bが積層して設けられている。層間絶縁膜519A,519Bは、例えば、無機絶縁材料により構成されている。この無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al),酸化ケイ素(SiO)および酸化ハフニウム(HfO)等が挙げられる。層間絶縁膜519A、519Bを同一の無機絶縁材料により構成するようにしてもよい。
 コンタクト電極519Eは、例えば、素子領域R1に設けられている。このコンタクト電極519Eは、第1電極511と読出回路基板520とを電気的に接続するためのものであり、素子領域R1に画素P毎に設けられている。隣り合うコンタクト電極519Eは、埋込層518および層間絶縁膜519A、519Bにより電気的に分離されている。コンタクト電極519Eは、例えば銅(Cu)パッドにより構成されており、接合面S2に露出されている。ダミー電極519EDは、例えば、周辺領域R2に設けられている。このダミー電極519EDは、後述の配線層520Wのダミー電極522EDに接続されている。このダミー電極519EDおよびダミー電極522EDを設けることにより、周辺領域R2の強度を向上させることが可能となる。ダミー電極519EDは、例えば、コンタクト電極519Eと同一工程で形成されている。ダミー電極519EDは、例えば銅(Cu)パッドにより構成されており、接合面S2に露出されている。
 コンタクト電極519Eと半導体層510Sとの間に設けられた第1電極511は、光電変換層513で発生した信号電荷(正孔または電子、以下便宜上、信号電荷が正孔であるとして説明する。)を読みだすための電圧が供給される電極(アノード)であり、素子領域R1に画素P毎に設けられている。第1電極511は、絶縁膜517の開口を埋め込むように設けられ、半導体層510S(より具体的には、後述の拡散領域512A)に接している。第1電極511は、例えば、絶縁膜517の開口よりも大きく、第1電極511の一部は、埋込層518に設けられている。即ち、第1電極511の上面(半導体層510S側の面)は、拡散領域512Aに接し、第1電極511の下面および側面の一部は埋込層518に接している。隣り合う第1電極511は、絶縁膜517および埋込層518により電気的に分離されている。
 第1電極511は、例えば、チタン(Ti),タングステン(W),窒化チタン(TiN),白金(Pt),金(Au),ゲルマニウム(Ge),パラジウム(Pd),亜鉛(Zn),ニッケル(Ni)およびアルミニウム(Al)のうちのいずれかの単体、またはそれらのうちの少なくとも1種を含む合金により構成されている。第1電極511は、このような構成材料の単膜であってもよく、あるいは、2種以上を組み合わせた積層膜であってもよい。例えば、第1電極511は、チタンおよびタングステンの積層膜により構成されている。第1電極511の厚みは、例えば数十nm~数百nmである。
 半導体層510Sは、例えば、配線層510Wに近い位置から、第1コンタクト層512、光電変換層513および第2コンタクト層514を含んでいる。第1コンタクト層512、光電変換層513および第2コンタクト層514は、互いに同じ平面形状を有し、各々の端面は、平面視で同じ位置に配置されている。
 第1コンタクト層512は、例えば、全ての画素Pに共通して設けられ、絶縁膜517と光電変換層513との間に配置されている。第1コンタクト層512は、隣り合う画素Pを電気的に分離するためのものであり、第1コンタクト層512には、例えば複数の拡散領域512Aが設けられている。第1コンタクト層512に、光電変換層513を構成する化合物半導体材料のバンドギャップよりも大きなバンドギャップの化合物半導体材料を用いることにより、暗電流を抑えることも可能となる。第1コンタクト層512には、例えばn型のInP(インジウムリン)を用いることができる。
 第1コンタクト層512に設けられた拡散領域512Aは、互いに離間して配置されている。拡散領域512Aは、画素P毎に配置され、それぞれの拡散領域512Aに第1電極511が接続されている。OPB領域R1Bにも拡散領域512Aが設けられている。拡散領域512Aは、光電変換層513で発生した信号電荷を画素P毎に読み出すためのものであり、例えば、p型不純物を含んでいる。p型不純物としては、例えばZn(亜鉛)等が挙げられる。このように、拡散領域512Aと、拡散領域512A以外の第1コンタクト層512との間にpn接合界面が形成され、隣り合う画素Pが電気的に分離されるようになっている。拡散領域512Aは、例えば第1コンタクト層512の厚み方向に設けられ、光電変換層513の厚み方向の一部にも設けられている。
 第1電極511と第2電極515との間、より具体的には、第1コンタクト層512と第2コンタクト層514との間の光電変換層513は、例えば、全ての画素Pに共通して設けられている。この光電変換層513は、所定の波長の光を吸収して、信号電荷を発生させるものであり、例えば、i型のIII-V族半導体などの化合物半導体材料により構成されている。光電変換層513を構成する化合物半導体材料としては、例えば、InGaAs(インジウムガリウム砒素)、InAsSb(インジウム砒素アンチモン)、InAs(インジウム砒素)、InSb(インジムアンチモン)およびHgCdTe(水銀カドミウムテルル)等が挙げられる。Ge(ゲルマニウム)により光電変換層513を構成するようにしてもよい。光電変換層513では、例えば、可視領域から短赤外領域の波長の光の光電変換がなされるようになっている。
 第2コンタクト層514は、例えば、全ての画素Pに共通して設けられている。この第2コンタクト層514は、光電変換層513と第2電極515との間に設けられ、これらに接している。第2コンタクト層514は、第2電極515から排出される電荷が移動する領域であり、例えば、n型の不純物を含む化合物半導体により構成されている。第2コンタクト層514には、例えば、n型のInP(インジウムリン)を用いることができる。
 第2電極515は、例えば各画素Pに共通の電極として、第2コンタクト層514上(光入射側)に、第2コンタクト層514に接するように設けられている。第2電極515は、光電変換層513で発生した電荷のうち、信号電荷として用いられない電荷を排出するためのものである(カソード)。例えば、正孔が、信号電荷として第1電極511から読み出される場合には、この第2電極515を通じて例えば電子を排出することができる。第2電極515は、例えば赤外線などの入射光を透過可能な導電膜により構成されている。第2電極515には、例えば、ITO(Indium Tin Oxide)またはITiO(In-TiO)等を用いることができる。第2電極515は、例えば、隣り合う画素Pを仕切るように、格子状に設けられていてもよい。この第2電極515には、光透過性の低い導電材料を用いることが可能である。
 パッシベーション膜516は、第2電極515を光入射面S1側から覆っている。パッシベーション膜516は、反射防止機能を有していてもよい。パッシベーション膜516には、例えば窒化シリコン(SiN)、酸化アルミニウム(Al),酸化ケイ素(SiO)および酸化タンタル(Ta)等を用いることができる。パッシベーション膜516は、OPB領域R1Bに開口516Hを有している。開口516Hは、例えば、受光領域を囲む額縁状に設けられている(図11A)。開口516Hは、例えば平面視で四角形状または円状の孔であってもよい。このパッシベーション膜516の開口516Hにより、第2電極515に導電膜515Bが電気的に接続されている。
 絶縁膜517は、第1コンタクト層512と埋込層518との間に設けられるとともに、第1コンタクト層512の端面、光電変換層513の端面、第2コンタクト層514の端面および第2電極515の端面を覆い、周辺領域R2ではパッシベーション膜516に接している。この絶縁膜517は、例えば、酸化シリコン(SiO)または酸化アルミニウム(Al)等の酸化物を含んで構成されている。複数の膜からなる積層構造により絶縁膜517を構成するようにしてもよい。絶縁膜517は、例えば酸窒化シリコン(SiON),炭素含有酸化シリコン(SiOC),窒化シリコン(SiN)およびシリコンカーバイド(SiC)などのシリコン(Si)系絶縁材料により構成するようにしてもよい。絶縁膜517の厚みは、例えば数十nm~数百nmである。
 導電膜515Bは、OPB領域R1Bから周辺領域R2の穴H1にわたって設けられている。この導電膜515Bは、OPB領域R1Bに設けられたパッシベーション膜516の開口516Hで第2電極515に接するとともに、穴H1を介して読出回路基板520の配線(後述の配線522CB)に接している。これにより、読出回路基板520から導電膜515Bを介して第2電極515に電圧が供給されるようになっている。導電膜515Bは、このような第2電極515への電圧供給経路として機能するとともに、遮光膜としての機能を有し、OPB領域R1Bを形成する。導電膜515Bは、例えば、タングステン(W)、アルミニウム(Al)、チタン(Ti)、モリブデン(Mo)、タンタル(Ta)または銅(Cu)を含む金属材料により構成されている。導電膜515B上にパッシベーション膜が設けられていてもよい。
 第2コンタクト層514の端部と第2電極515との間に、接着層Bが設けられていてもよい。この接着層Bは、後述するように、受光素子501を形成する際に用いられるものであり、半導体層510Sを仮基板に接合する役割を担っている。接着層Bは、例えばテトラエトキシシラン(TEOS)または酸化シリコン(SiO)等により構成されている。接着層Bは、例えば、半導体層510Sの端面よりも拡幅して設けられ、半導体層510Sとともに、埋込層518に覆われている。接着層Bと埋込層518との間には、絶縁膜517が設けられている。
 埋込層518は、受光素子501の製造工程で、仮基板と半導体層510Sとの段差を埋めるためのものである。詳細は後述するが、本実施の形態では、この埋込層518を形成するので、半導体層510Sと仮基板533との段差に起因した製造工程の不具合の発生が抑えられる。
 周辺領域R2の埋込層518は、配線層10Wと絶縁膜517との間、および配線層510Wとパッシベーション膜516との間に設けられ、例えば、半導体層510Sの厚み以上の厚みを有している。ここでは、この埋込層518が半導体層510Sを囲んで設けられているので、半導体層510Sの周囲の領域(周辺領域R2)が形成される。これにより、この周辺領域R2に読出回路基板520との接合面S2を設けることができるようになっている。周辺領域R2に接合面S2が形成されていれば、埋込層518の厚みを小さくしてもよいが、埋込層518が半導体層510Sを厚み方向にわたって覆い、半導体層510Sの端面全面が埋込層518に覆われていることが好ましい。埋込層518が、絶縁膜517を介して半導体層510Sの端面全面を覆うことにより、半導体層510Sへの水分の浸入を効果的に抑えることができる。素子領域R1の埋込層518は、第1電極511を覆うように、半導体層510Sと配線層510Wとの間に設けられている。
 接合面S2側の埋込層518の面は平坦化されており、周辺領域R2では、この平坦化された埋込層518の面に配線層510Wが設けられている。埋込層518には、例えば、酸化シリコン(SiO),窒化シリコン(SiN),酸窒化シリコン(SiON),炭素含有酸化シリコン(SiOC)およびシリコンカーバイド(SiC)等の無機絶縁材料を用いることができる。
 受光素子501を製造する工程では、埋込層518を形成した後、埋込層518の上方に、層間絶縁膜519A、519Bとコンタクト電極519Eとを含む配線層510Wが形成される。この配線層510Wを含む素子基板510に、配線層520Wを含む読出回路基板520が貼り合わされて受光素子501が形成される。このとき、配線層510Wのコンタクト電極519Eと、配線層520Wのコンタクト電極522Eとが接続される。コンタクト電極519E、522Eは、例えばCuパッドを有しており、このCuパッドの直接接合により、コンタクト電極519E,522E接続されるようになっている。コンタクト電極519EをCMP(Chemical Mechanical Polishing)法を用いて形成するとき、研磨対象の銅膜の下方に配置された埋込層518には、研磨時の応力に耐え得る硬度が求められる。また、コンタクト電極519E、522EのCuパッド同士を直接接合させるためには、素子基板510および読出回路基板520を極めて平坦に形成することが必要である。このため、銅膜の下方に配置される埋込層518は、研磨時の応力に耐え得る硬度を有していることが好ましい。具体的には、埋込層518の構成材料は、一般的な半導体パッケージにおいてダイの周囲に配置される封止剤や有機材料よりも硬度が高い材料であることが好ましい。このような高い硬度を有する材料としては、例えば、無機絶縁材料が挙げられる。この無機絶縁材料を、例えばCVD(Chemical Vapor Deposition)法、スパッタ法あるいはコーティング法で成膜することにより、埋込層518を形成することができる。
 埋込層518には、埋込層518を貫通する穴H1、H2が設けられている。この穴H1、H2は、埋込層518とともに、配線層510Wを貫通し、読出回路基板520に達している。穴H1、H2は、例えば、四角形状の平面形状を有し、素子領域R1を囲むように、各々複数の穴H1、H2が設けられている(図11A)。穴H1は、穴H2よりも素子領域R1に近い位置に設けられており、穴H1の側壁および底面は、導電膜515Bに覆われている。この穴H1は、第2電極515(導電膜515B)と読出回路基板520の配線(後述の配線522CB)とを接続するためのものであり、パッシベーション膜516、埋込層518および配線層510Wを貫通して設けられている。
 穴H2は、例えば、穴H1よりもチップ端Eに近い位置に設けられている。この穴H2は、パッシベーション膜516、埋込層518および配線層510Wを貫通し、読出回路基板520のパッド電極(後述のパッド電極522P)に達している。この穴H2を介して、外部と受光素子501との電気的な接続が行われるようになっている。穴H1、H2は、読出回路基板520に達していなくてもよい。例えば、穴H1、H2が、配線層510Wの配線に達し、この配線が読出回路基板520の配線522CB、パッド電極522Pに接続されていてもよい。穴H1、H2は、接着層Bを貫通していてもよい。
 光電変換層513で発生した正孔および電子は、第1電極511および第2電極515から読み出される。この読出し動作を高速に行うためには、第1電極511と第2電極515との間の距離を、光電変換するに足る距離であってかつ離間し過ぎない距離にすることが好ましい。即ち、素子基板510の厚みを小さくすることが好ましい。例えば、第1電極511と第2電極515との間の距離または素子基板510の厚みは、10μm以下、さらには、7μm以下、さらには5μm以下である。
 読出回路基板520の半導体基板521は、配線層520Wおよび多層配線層522Cを間にして、素子基板510に対向している。この半導体基板521は、例えば、シリコン(Si)により構成されている。半導体基板521の表面(配線層520W側の面)近傍には、複数のトランジスタが設けられている。例えば、この複数のトランジスタを用いて、画素P毎に、読出回路(Read Out Circuit)が構成されている。この読出回路として、各実施形態及び変形例で説明した画素回路1を用いることが可能である。配線層520Wは、例えば、素子基板510側から、層間絶縁膜522Aおよび層間絶縁膜522Bをこの順に有しており、これら層間絶縁膜522A、522Bは積層して設けられている。例えば、層間絶縁膜522A中に、コンタクト電極522Eおよびダミー電極522EDが設けられている。多層配線層522Cは、配線層520Wを間にして素子基板510に対向して設けられている。例えば、この多層配線層522C中に、パッド電極522Pおよび複数の配線522CBが設けられている。層間絶縁膜522A、522Bは、例えば、無機絶縁材料により構成されている。この無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al),酸化ケイ素(SiO)および酸化ハフニウム(HfO)等が挙げられる。
 コンタクト電極522Eは、第1電極511と配線522CBとを電気的に接続するためのものであり、素子領域R1に、画素P毎に設けられている。このコンタクト電極522Eは、素子基板510の接合面S2でコンタクト電極519Eに接している。隣り合うコンタクト電極522Eは、層間絶縁膜522Aにより電気的に分離されている。
 周辺領域R2に設けられたダミー電極522EDは、素子基板510の接合面S2でダミー電極519EDに接している。このダミー電極522EDは、例えば、コンタクト電極522Eと同一工程で形成されている。コンタクト電極522Eおよびダミー電極522EDは、例えば銅(Cu)パッドにより構成されており、読出回路基板520の素子基板510との対向面に露出されている。即ち、コンタクト電極519Eとコンタクト電極522Eとの間、および、ダミー電極519EDとダミー電極522EDとの間で例えばCuCu接合がなされている。これにより、画素Pを微細化することが可能となる。
 コンタクト電極519Eに接続された配線522CBは、半導体基板521の表面近傍に設けられたトランジスタに接続されており、画素P毎に、第1電極511と読出回路とが接続されるようになっている。穴H1を介して導電膜515Bに接続された配線522CBは、例えば所定の電位に接続されている。このように、光電変換層513で発生した電荷の一方(例えば、正孔)は、第1電極511から、コンタクト電極519E、522Eを介して読出回路に読み出され、光電変換層513で発生した電荷の他方(例えば、電子)は、第2電極515から、導電膜515Bを介して、所定の電位に排出されるようになっている。
 周辺領域R2に設けられたパッド電極522Pは、外部と電気的な接続を行うためのものである。受光素子501のチップ端E近傍には、素子基板510を貫通し、パッド電極522Pに達する穴H2が設けられ、この穴H2を介して外部と電気的な接続がなされるようになっている。接続は、例えば、ワイヤーボンドまたはバンプ等の方法によりなされる。例えば、穴H2内に配置された外部端子から、第2電極515に、穴H2、読出回路基板520の配線522CBおよび導電膜515Bを介して所定の電位が供給されるようになっていてもよい。光電変換層513での光電変換の結果、第1電極511から読み出された信号電圧が、コンタクト電極519E、522Eを介して、半導体基板521の読出回路に読み出され、この読出回路を経由して穴H2内に配置された外部端子に出力されるようになっていてもよい。信号電圧は、読出回路とともに、例えば、読出回路基板520に含まれる他の回路を経由して外部端子に出力されるようになっていてもよい。他の回路とは、例えば、信号処理回路および出力回路等である。
 読出回路基板520の厚みは、素子基板510の厚みよりも大きいことが好ましい。例えば、読出回路基板520の厚みは、素子基板510の厚みよりも、2倍以上、さらには、5倍以上、さらには、10倍以上大きいことが好ましい。あるいは、読出回路基板520の厚みは、例えば、100μm以上、あるいは、150μm以上、あるいは、200μm以上である。このような大きな厚みを有する読出回路基板520により、受光素子501の機械強度が確保される。なお、この読出回路基板520は、回路を形成する半導体基板521を1層のみ含むものであってもよいし、回路を形成する半導体基板521の他に、支持基板などの基板をさらに備えていてもよい。
 図12は、他の受光素子の断面構成を表す図である。例えば、各実施形態及びその変形例において説明した各画素回路1は、図12に示す受光素子に適用可能である。
 図12においては、画素アレイ領域内の各画素602が、リセットトランジスタの制御の違いによって、通常画素602Aかまたは電荷放出画素602Bに分けられるが、画素構造は通常画素602Aと電荷放出画素602Bのどちらも同一であるので、単に画素602として説明する。なお、電荷放出画素602Bは、画素アレイ領域の最も外側に配置されている。
 各画素602の容量素子、リセットトランジスタ、増幅トランジスタ、及び、選択トランジスタの読出回路が、例えば単結晶シリコン(Si)などの単結晶材料からなる半導体基板612に画素ごとに形成されている。
 半導体基板612の光入射側である上側には、N型の半導体薄膜641が、画素アレイ領域の全面に形成されている。N型の半導体薄膜641は、InGaP、InAlP、InGaAs、InAlAs、さらにはカルコパイライト構造の化合物半導体が用いられる。カルコパイライト構造の化合物半導体は、高い光吸収係数と、広い波長域に渡る高い感度が得られる材料であり、光電変換用のN型の半導体薄膜641として好ましく用いられる。このようなカルコパイライト構造の化合物半導体は、Cu、Al、Ga、In、S、Seなど、IV族元素の周囲の元素を用いて構成され、CuGaInS系混晶、CuAlGaInS系混晶、およびCuAlGaInSSe系混晶等が例示される。この半導体基板612に配置される読出回路として、各実施形態及び各変形例で説明した画素回路1が適用可能である。
 また、N型の半導体薄膜641の材料には、上述した化合物半導体の他、アモルファスシリコン(Si)、ゲルマニウム(Ge)、量子(Q:Quantum)ドット光電変換膜、有機光電変換膜などを用いることも可能である。ここでは、N型の半導体薄膜641として、InGaAsの化合物半導体が用いられているものとする。
 N型の半導体薄膜641の半導体基板612側である下側には、画素電極を構成する高濃度のP型層642が、画素ごとに形成されている。そして、画素ごとに形成された高濃度のP型層642の間には、各画素602を分離する画素分離領域としてのN型層643が、例えば、InP等の化合物半導体で形成されている。このN型層643は、画素分離領域としての機能の他、暗電流を防止する役割も有する。
 一方、N型の半導体薄膜641の光入射側である上側にも、画素分離領域として用いたInP等の化合物半導体を用いて、N型の半導体薄膜641よりも高濃度のN型層644が形成されている。この高濃度のN型層644は、N型の半導体薄膜641で生成された電荷の逆流を防止するバリア層として機能する。高濃度のN型層644の材料には、例えば、InGaAs、InP、InAlAsなどの化合物半導体を用いることができる。
 バリア層としての高濃度のN型層644の上には、反射防止膜645が形成されている。反射防止膜645の材料には、例えば、窒化シリコン(SiN)、酸化ハフニウム(HfO)、酸化アルミニウム(Al)、酸化ジルコニウム(ZrO)、酸化タンタル(TaTa)、酸化チタン(TiO)などを用いることができる。
 高濃度のN型層644または反射防止膜645のいずれか一方は、N型の半導体薄膜641を上下に挟む電極のうちの上側の上部電極としても機能し、上部電極としての高濃度のN型層644または反射防止膜645には、所定の電圧Vaが印加される。
 反射防止膜645の上には、カラーフィルタ646及びオンチップレンズ647がさらに形成されている。カラーフィルタ646は、R(赤)、G(緑)、またはB(青)のいずれかの光(波長光)を透過させるフィルタであり、例えば、画素アレイ領域において、いわゆるベイヤ配列で配置されている。
 画素電極を構成する高濃度のP型層642と、画素分離領域としてのN型層643の下側には、パッシベーション層651および絶縁層652が形成されている。そして、接続電極653A及び653Bとバンプ電極654が、パッシベーション層651および絶縁層652を貫通するように形成されている。接続電極653A及び653Bとバンプ電極654は、画素電極を構成する高濃度のP型層642と、電荷を蓄積する容量素子622とを電気的に接続する。
 通常画素602A及び電荷放出画素602Bは、以上のように構成されており、同一の画素構造を有している。しかしながら、通常画素602A及び電荷放出画素602Bとでは、リセットトランジスタの制御方法が異なる。
 通常画素602Aでは、光電変換部による電荷の生成期間(受光期間)、受光開始前の容量素子の電位のリセット期間等に応じて、リセットトランジスタが、リセット信号に基づいてオンオフされるが、電荷放出画素602Bでは、リセットトランジスタが、常にオンに制御されている。これにより、光電変換部で生成された電荷はグランドへ排出され、電荷放出画素602Bには常に一定の電圧Vaが印加される。
(7.移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図13は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図13に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図13の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図14は、撮像部12031の設置位置の例を示す図である。
 図14では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図14には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図3、5~10に例示した構成を有する画素120は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、ブルーミングの発生抑制と飽和電荷量とのバランスを適切に調整することで、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 (8.内視鏡手術システムへの応用例)
 また、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図15は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図15では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図16は、図15に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102の撮像部11402に適用され得る。具体的には、図3、5~10に例示した構成を有する画素120は、内視鏡11100や、カメラヘッド11102の撮像部11402に適用することができる。内視鏡11100や、カメラヘッド11102の撮像部11402に本開示に係る技術を適用することにより、ブルーミングの発生抑制と飽和電荷量とのバランスを適切に調整することで、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
 なお、本技術は以下のような構成を取ることもできる。
(1)
 光電荷を生成する光電変換部と、
 前記光電変換部に接続され、前記光電変換部により生成された光電荷を保持する第1電荷保持部と、
 前記第1電荷保持部が保持する前記光電荷を外部へ排出するための第1トランジスタと、
 前記第1トランジスタのゲートに前記第1トランジスタをオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部と
 を備えた固体撮像装置。
(2)
 前記第1電荷保持部から転送された前記光電荷を保持する第2電荷保持部と、
 前記第1電荷保持部と前記第2電荷保持部とを結ぶ配線上に配置された第2トランジスタと、
 前記第2電荷保持部と定電圧源とを結ぶ配線上に配置された第3トランジスタと、
 前記第2電荷保持部に保持された前記光電荷の電荷量に応じた電圧値の画素信号を信号線に出力する第4トランジスタと、
 前記第4トランジスタと前記信号線とを結ぶ配線上に配置された第5トランジスタと
 をさらに備えた前記(1)に記載の固体撮像装置。
(3)
 前記光電変換部は、InGaAs(インジウムガリウム砒素)、InAsSb(インジウム砒素アンチモン)、InAs(インジウム砒素)、InSb(インジムアンチモン)、HgCdTe(水銀カドミウムテルル)、Ge(ゲルマニウム)、量子ドット又は有機化合物のいずれかを含み
 前記第1トランジスタは、P型のMOS(Metal Oxide Semiconductor)トランジスタである
 前記(1)又は(2)に記載の固体撮像装置。
(4)
 前記光電変換部は、フォトダイオードであり、
 前記第1トランジスタは、N型のMOSトランジスタである
 前記(1)又は(2)に記載の固体撮像装置。
(5)
 前記光電変換部から延びる電極と前記第1電荷保持部から延びる電極とが直接接合されて導通される前記(1)~(4)のいずれか1項に記載の固体撮像装置。
(6)
 前記光電変換部から延びる端子と前記第1電荷保持部から延びる端子とがバンプ電極により接続されて導通される前記(1)~(4)のいずれか1項に記載の固体撮像装置。
(7)
 電源から出力された電圧の電圧値を制御して前記第1トランジスタの前記ゲートに印加するフィードバック制御部をさらに備え、
 前記電圧制御部は、ゲート電圧の情報を前記フィードバック制御部へ出力することで、前記オフ電圧の前記電圧値を変更する前記(1)~(6)のいずれか1項に記載の固体撮像装置。
(8)
 前記電圧制御部は、外部電源により前記電圧値が切り替えられた供給電圧の入力を受け、前記供給電圧を用いて前記オフ電圧の前記電圧値を変更する前記(1)~(6)のいずれか1項に記載の固体撮像装置。
(9)
 複数の画素が行列方向に配置された画素アレイ部と、
 複数の前記画素における読み出し対象の画素を駆動する駆動回路と、
 前記駆動回路により駆動された前記読み出し対象の画素から画素信号を読み出す処理回路と、
 前記駆動回路及び前記処理回路を制御する制御部と
 を備えた前記(1)~(8)のいずれか1項に記載の固体撮像装置。
(10)
 前記電圧制御部は、前記画素アレイ部における1又は複数の前記行毎に、前記オフ電圧の前記電圧値を変更する前記(9)に記載の固体撮像装置。
(11)
 前記画素アレイ部は、複数の領域に区分けされ、
 前記電圧制御部は、複数の前記領域毎に、前記オフ電圧の前記電圧値を変更する
 前記(9)に記載の固体撮像装置。
(12)
 1又は複数の前記行毎に設けられ、前記第1トランジスタの前記ゲートに印加する電圧をそれぞれ保持する複数のバッファをさらに備え、
 前記電圧制御部は、前記複数のバッファそれぞれが保持する前記電圧を1又は複数の前記行に供給するタイミングを制御する
 前記(1)~(11)のいずれか1項に記載の固体撮像装置。
(13)
 固体撮像装置と、
 入射光を前記固体撮像装置の受光面に結像する光学系と、
 前記固体撮像装置を制御するプロセッサと、
 を備え、
 前記固体撮像装置は、
 光電荷を生成する光電変換部と、
 前記光電変換部に接続され、前記光電変換部により生成された光電荷を保持する第1電荷保持部と、
 前記第1電荷保持部が保持する前記光電荷を外部へ排出するための第1トランジスタと、
 前記第1トランジスタのゲートに前記第1トランジスタをオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部と、
 を備えた電子機器。
 1 画素回路
 2 電圧制御回路
 10 光電変換膜
 11 リセットトランジスタ
 12 増幅トランジスタ
 13 選択トランジスタ
 14 転送トランジスタ
 15 排出トランジスタ
 16、17 キャパシタ
 20 フローティングディフュージョン(FD)
 21 センスノード(SN)
 100 電子機器
 101 撮像レンズ
 102 イメージセンサ
 103 プロセッサ
 104 記憶部
 111 バイアス電圧源
 112 電源
 113 フィードバック制御部
 114 電圧制御部
 115 バッファ
 116 外部電源
 120 画素
 121 画素アレイ
 122 垂直駆動回路
 123 カラム処理回路
 124 水平駆動回路
 125 システム制御部
 126 信号処理部
 127 データ格納部
 150 行制御回路

Claims (13)

  1.  光電荷を生成する光電変換部と、
     前記光電変換部に接続され、前記光電変換部により生成された光電荷を保持する第1電荷保持部と、
     前記第1電荷保持部が保持する前記光電荷を外部へ排出するための第1トランジスタと、
     前記第1トランジスタのゲートに前記第1トランジスタをオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部と
     を備えた固体撮像装置。
  2.  前記第1電荷保持部から転送された前記光電荷を保持する第2電荷保持部と、
     前記第1電荷保持部と前記第2電荷保持部とを結ぶ配線上に配置された第2トランジスタと、
     前記第2電荷保持部と定電圧源とを結ぶ配線上に配置された第3トランジスタと、
     前記第2電荷保持部に保持された前記光電荷の電荷量に応じた電圧値の画素信号を信号線に出力する第4トランジスタと、
     前記第4トランジスタと前記信号線とを結ぶ配線上に配置された第5トランジスタと
     をさらに備えた請求項1に記載の固体撮像装置。
  3.  前記光電変換部は、InGaAs(インジウムガリウム砒素)、InAsSb(インジウム砒素アンチモン)、InAs(インジウム砒素)、InSb(インジムアンチモン)、HgCdTe(水銀カドミウムテルル)、Ge(ゲルマニウム)、量子ドット又は有機化合物のいずれかを含み
     前記第1トランジスタは、P型のMOS(Metal Oxide Semiconductor)トランジスタである
     請求項1に記載の固体撮像装置。
  4.  前記光電変換部は、フォトダイオードであり、
     前記第1トランジスタは、N型のMOSトランジスタである
     請求項1に記載の固体撮像装置。
  5.  前記光電変換部から延びる電極と前記第1電荷保持部から延びる電極とが直接接合されて導通される請求項1に記載の固体撮像装置。
  6.  前記光電変換部から延びる端子と前記第1電荷保持部から延びる端子とがバンプ電極により接続されて導通される請求項1に記載の固体撮像装置。
  7.  電源から出力された電圧の電圧値を制御して前記第1トランジスタの前記ゲートに印加するフィードバック制御部をさらに備え、
     前記電圧制御部は、ゲート電圧の情報を前記フィードバック制御部へ出力することで、前記オフ電圧の前記電圧値を変更する請求項1に記載の固体撮像装置。
  8.  前記電圧制御部は、外部電源により前記電圧値が切り替えられた供給電圧の入力を受け、前記供給電圧を用いて前記オフ電圧の前記電圧値を変更する請求項1に記載の固体撮像装置。
  9.  複数の画素が行列方向に配置された画素アレイ部と、
     複数の前記画素における読み出し対象の画素を駆動する駆動回路と、
     前記駆動回路により駆動された前記読み出し対象の画素から画素信号を読み出す処理回路と、
     前記駆動回路及び前記処理回路を制御する制御部と
     を備えた請求項1に記載の固体撮像装置。
  10.  前記電圧制御部は、前記画素アレイ部における1又は複数の前記行毎に、前記オフ電圧の前記電圧値を変更する請求項9に記載の固体撮像装置。
  11.  前記画素アレイ部は、複数の領域に区分けされ、
     前記電圧制御部は、複数の前記領域毎に、前記オフ電圧の前記電圧値を変更する
     請求項9に記載の固体撮像装置。
  12.  1又は複数の前記行毎に設けられ、前記第1トランジスタの前記ゲートに印加する電圧をそれぞれ保持する複数のバッファをさらに備え、
     前記電圧制御部は、前記複数のバッファそれぞれが保持する前記電圧を1又は複数の前記行に供給するタイミングを制御する
     請求項1に記載の固体撮像装置。
  13.  固体撮像装置と、
     入射光を前記固体撮像装置の受光面に結像する光学系と、
     前記固体撮像装置を制御するプロセッサと、
     を備え、
     前記固体撮像装置は、
     光電荷を生成する光電変換部と、
     前記光電変換部に接続され、前記光電変換部により生成された光電荷を保持する第1電荷保持部と、
     前記第1電荷保持部が保持する前記光電荷を外部へ排出するための第1トランジスタと、
     前記第1トランジスタのゲートに前記第1トランジスタをオフにする際に印加するオフ電圧の電圧値を制御する電圧制御部と、
     を備えた電子機器。
PCT/JP2020/042499 2019-12-02 2020-11-13 固体撮像装置及び電子機器 Ceased WO2021111848A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202080078555.1A CN114731376A (zh) 2019-12-02 2020-11-13 固体摄像装置和电子设备
EP20895066.7A EP4072126A4 (en) 2019-12-02 2020-11-13 SOLID STATE IMAGING DEVICE AND ELECTRONIC DEVICE
US17/769,580 US12028629B2 (en) 2019-12-02 2020-11-13 Solid-state imaging device and electronic device
KR1020227017664A KR20220103729A (ko) 2019-12-02 2020-11-13 고체 촬상 장치 및 전자 기기
JP2021562545A JP7638898B2 (ja) 2019-12-02 2020-11-13 固体撮像装置及び電子機器
US18/670,610 US12335642B2 (en) 2019-12-02 2024-05-21 Solid-state imaging device and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019218405 2019-12-02
JP2019-218405 2019-12-02

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/769,580 A-371-Of-International US12028629B2 (en) 2019-12-02 2020-11-13 Solid-state imaging device and electronic device
US18/670,610 Continuation US12335642B2 (en) 2019-12-02 2024-05-21 Solid-state imaging device and electronic device

Publications (1)

Publication Number Publication Date
WO2021111848A1 true WO2021111848A1 (ja) 2021-06-10

Family

ID=76221577

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042499 Ceased WO2021111848A1 (ja) 2019-12-02 2020-11-13 固体撮像装置及び電子機器

Country Status (7)

Country Link
US (2) US12028629B2 (ja)
EP (1) EP4072126A4 (ja)
JP (1) JP7638898B2 (ja)
KR (1) KR20220103729A (ja)
CN (1) CN114731376A (ja)
TW (1) TW202137748A (ja)
WO (1) WO2021111848A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114551488A (zh) * 2022-02-10 2022-05-27 中国科学院上海技术物理研究所 一种共栅控的铟镓砷阵列光电探测器结构

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10248035A (ja) * 1997-03-04 1998-09-14 Sony Corp ブルーミング防止構造を備えた固体撮像素子のダイナミックレンジ拡大方法
JP2001197368A (ja) 1999-10-22 2001-07-19 Hyundai Electronics Ind Co Ltd イメージセンサ
JP2002330346A (ja) 2001-05-02 2002-11-15 Fujitsu Ltd Cmosセンサ回路
JP2004111590A (ja) * 2002-09-18 2004-04-08 Sony Corp 固体撮像装置およびその駆動制御方法
JP2010192659A (ja) * 2009-02-18 2010-09-02 Panasonic Corp 撮像装置
JP2015153962A (ja) * 2014-02-18 2015-08-24 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
WO2017169216A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器
JP2019041226A (ja) 2017-08-24 2019-03-14 株式会社リコー 固体撮像素子及び撮像装置
JP2019145875A (ja) * 2018-02-15 2019-08-29 キヤノン株式会社 撮像装置および撮像システム、および移動体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5846070B2 (ja) * 1979-02-13 1983-10-14 松下電器産業株式会社 固体撮像装置
JP3871439B2 (ja) 1998-06-05 2007-01-24 松下電器産業株式会社 固体撮像装置およびその駆動方法
US8184191B2 (en) * 2006-08-09 2012-05-22 Tohoku University Optical sensor and solid-state imaging device
JP4252078B2 (ja) * 2006-09-28 2009-04-08 三洋電機株式会社 光検出装置
JP5637384B2 (ja) * 2010-12-15 2014-12-10 ソニー株式会社 固体撮像素子および駆動方法、並びに電子機器
JP6037170B2 (ja) * 2013-04-16 2016-11-30 ソニー株式会社 固体撮像装置およびその信号処理方法、並びに電子機器
US9560296B2 (en) * 2014-12-05 2017-01-31 Qualcomm Incorporated Pixel readout architecture for full well capacity extension
JP6947160B2 (ja) * 2016-02-29 2021-10-13 ソニーグループ株式会社 固体撮像素子
EP3468170B1 (en) * 2016-05-24 2021-08-11 Sony Group Corporation Solid-state imaging element and imaging apparatus
US10121813B2 (en) * 2017-03-28 2018-11-06 Luminar Technologies, Inc. Optical detector having a bandpass filter in a lidar system
FR3072564B1 (fr) * 2017-10-25 2019-10-18 Universite De Lille 1 Sciences Et Technologies Capteur optique
JP6728268B2 (ja) * 2018-04-26 2020-07-22 キヤノン株式会社 撮像装置、撮像システム、および、移動体
JP7310098B2 (ja) * 2018-07-10 2023-07-19 富士通株式会社 赤外線検出器の制御回路及び制御方法、撮像装置
DE102018216199A1 (de) * 2018-09-24 2020-03-26 Robert Bosch Gmbh Bildsensorelement zur Ausgabe von einem Bildsignal und Verfahren zur Herstellung eines Bildsensorelements zur Ausgabe von einem Bildsignal
US11095842B2 (en) * 2019-07-26 2021-08-17 Omnivision Technologies, Inc. Image sensor with electronic global shutter and differential sensing using reset-sampling capacitor shared among multiple image storage capacitors

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10248035A (ja) * 1997-03-04 1998-09-14 Sony Corp ブルーミング防止構造を備えた固体撮像素子のダイナミックレンジ拡大方法
JP2001197368A (ja) 1999-10-22 2001-07-19 Hyundai Electronics Ind Co Ltd イメージセンサ
JP2002330346A (ja) 2001-05-02 2002-11-15 Fujitsu Ltd Cmosセンサ回路
JP2004111590A (ja) * 2002-09-18 2004-04-08 Sony Corp 固体撮像装置およびその駆動制御方法
JP2010192659A (ja) * 2009-02-18 2010-09-02 Panasonic Corp 撮像装置
JP2015153962A (ja) * 2014-02-18 2015-08-24 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
WO2017169216A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器
JP2019041226A (ja) 2017-08-24 2019-03-14 株式会社リコー 固体撮像素子及び撮像装置
JP2019145875A (ja) * 2018-02-15 2019-08-29 キヤノン株式会社 撮像装置および撮像システム、および移動体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114551488A (zh) * 2022-02-10 2022-05-27 中国科学院上海技术物理研究所 一种共栅控的铟镓砷阵列光电探测器结构

Also Published As

Publication number Publication date
CN114731376A (zh) 2022-07-08
US20230300479A1 (en) 2023-09-21
KR20220103729A (ko) 2022-07-22
US12028629B2 (en) 2024-07-02
EP4072126A4 (en) 2023-01-25
TW202137748A (zh) 2021-10-01
EP4072126A1 (en) 2022-10-12
JPWO2021111848A1 (ja) 2021-06-10
US12335642B2 (en) 2025-06-17
US20240348944A1 (en) 2024-10-17
JP7638898B2 (ja) 2025-03-04

Similar Documents

Publication Publication Date Title
KR102805549B1 (ko) 촬상 소자 및 반도체 소자
WO2021140920A1 (ja) 固体撮像装置、撮像装置及び撮像システム
CN114747206B (zh) 固态摄像装置和电子设备
US20210029309A1 (en) Solid-state image device and imaging apparatus
US12075177B2 (en) Semiconductor device, imaging element, and electronic device
JP2021089978A (ja) 半導体素子および電子機器
US12335642B2 (en) Solid-state imaging device and electronic device
KR20220109383A (ko) 반도체 소자 및 전자 기기
TWI860419B (zh) 透過光量檢測電路、受光元件及電子機器
TWI882039B (zh) 固態成像裝置及電子裝置
JP7577643B2 (ja) 撮像素子および撮像装置
TWI902728B (zh) 固態成像裝置及電子裝置
CN110291636A (zh) 成像器件和电子装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20895066

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021562545

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227017664

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020895066

Country of ref document: EP

Effective date: 20220704