[go: up one dir, main page]

WO2024116302A1 - 光検出素子 - Google Patents

光検出素子 Download PDF

Info

Publication number
WO2024116302A1
WO2024116302A1 PCT/JP2022/044090 JP2022044090W WO2024116302A1 WO 2024116302 A1 WO2024116302 A1 WO 2024116302A1 JP 2022044090 W JP2022044090 W JP 2022044090W WO 2024116302 A1 WO2024116302 A1 WO 2024116302A1
Authority
WO
WIPO (PCT)
Prior art keywords
wiring
light
photoelectric conversion
unit
semiconductor layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/044090
Other languages
English (en)
French (fr)
Inventor
良治 蓮見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to PCT/JP2022/044090 priority Critical patent/WO2024116302A1/ja
Publication of WO2024116302A1 publication Critical patent/WO2024116302A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors

Definitions

  • This disclosure relates to a light detection element.
  • Patent Document 1 An element that detects light has been proposed, which has pixels that receive light and perform photoelectric conversion, and pixel separation sections that use trenches (grooves) (Patent Document 1).
  • the photodetector element of one embodiment of the present disclosure includes a first semiconductor layer having a plurality of photoelectric conversion units that convert light into electric signals, a separation unit provided in the first semiconductor layer to surround the photoelectric conversion units, and a first wiring layer stacked on the first semiconductor layer, the first wiring having first wiring capable of transmitting a signal that controls a pixel including the photoelectric conversion units.
  • the first wiring extends in a direction different from the direction perpendicular to the side of the separation unit.
  • FIG. 1 is a block diagram showing an example of an overall configuration of an image sensor which is an example of a light detection element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a pixel configuration of an imaging element according to an embodiment of the present disclosure. 1 is a diagram for explaining a configuration example of an imaging element according to an embodiment of the present disclosure. 1 is a diagram illustrating an example of a cross-sectional configuration of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a planar configuration of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a planar configuration of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a planar configuration of an imaging element according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram showing an example of an overall configuration of an image sensor which is an example of a light detection element according to an
  • FIG. 2 is a diagram illustrating an example of a planar configuration of an imaging element according to an embodiment of the present disclosure.
  • 1A to 1C are diagrams for explaining leakage of light into adjacent pixels due to reflection in an image sensor according to an embodiment of the present disclosure.
  • FIG. 1 is a diagram illustrating an example of the configuration of an imaging element according to a comparative example of the present disclosure.
  • 11A and 11B are diagrams for explaining leakage of light into adjacent pixels due to reflection in an image sensor according to a comparative example of the present disclosure.
  • FIG. 11 is a diagram showing an example of an image obtained by an imaging element according to a comparative example of the present disclosure.
  • 1A and 1B are diagrams illustrating an example of the arrangement of an FD shared unit of an image sensor according to an embodiment of the present disclosure.
  • FIG. 1A and 1B are diagrams illustrating an example of the arrangement of an FD shared unit of an image sensor according to an embodiment of the present disclosure.
  • 1A and 1B are diagrams illustrating an example of the arrangement of an FD shared unit of an image sensor according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a layout of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a layout of an imaging element according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a layout of an imaging element according to an embodiment of the present disclosure.
  • 13 is a diagram showing an example of the arrangement of an FD shared unit of an image sensor according to a first modified example of the present disclosure.
  • FIG. 13 is a diagram showing an example of the arrangement of an FD shared unit of an image sensor according to a first modified example of the present disclosure.
  • FIG. 13 is a diagram showing an example of the arrangement of an FD shared unit of an image sensor according to a first modified example of the present disclosure.
  • FIG. 11 is a diagram for explaining a configuration example of an imaging element according to a second modified example of the present disclosure.
  • FIG. 13 is a diagram for explaining another example configuration of an imaging element according to Modification 2 of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of a cross-sectional configuration of an imaging element according to a third modified example of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of a planar configuration of an imaging element according to a third modified example of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of a planar configuration of an imaging element according to a third modified example of the present disclosure.
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system; 4 is an explanatory diagram showing an example of the installation positions of an outside-vehicle information detection unit and an imaging unit;
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system.
  • 2 is a block diagram showing an example of the functional configuration of a camera head and a CCU.
  • Preferred embodiment 1 is a block diagram showing an example of the overall configuration of an image sensor which is an example of a light detection element according to an embodiment of the present disclosure.
  • the light detection element is an element capable of detecting incident light.
  • the image sensor 1 which is a light detection element has a plurality of pixels P having a photoelectric conversion unit, and is configured to perform photoelectric conversion on the incident light to generate a signal.
  • the image sensor 1 can be applied to an image sensor, a distance measurement sensor, and the like.
  • the optical detection element disclosed herein may also be applied as a distance measurement sensor capable of measuring distances using the Time Of Flight (TOF) method.
  • the optical detection element (image sensor 1) may also be applied as a sensor capable of detecting events, for example, an event-driven sensor (called an Event Vision Sensor (EVS), Event Driven Sensor (EDS), Dynamic Vision Sensor (DVS), etc.).
  • EVS Event Vision Sensor
  • EDS Event Driven Sensor
  • DVS Dynamic Vision Sensor
  • the photoelectric conversion unit of each pixel P of the image sensor 1 is, for example, a photodiode, and is configured to be capable of photoelectric conversion of light.
  • the image sensor 1 has an area (pixel section 101) in which multiple pixels P are two-dimensionally arranged in a matrix.
  • the image sensor 1 captures incident light (image light) from a subject via an optical system (not shown) that includes an optical lens.
  • the image sensor 1 captures an image of the subject formed by the optical lens.
  • the image sensor 1 photoelectrically converts the received light to generate a pixel signal.
  • the image sensor 1 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image sensor 1 has, for example, a pixel driving unit 111, a signal processing unit 112, a control unit 113, and a processing unit 114 in a peripheral region of a pixel unit 101.
  • the image sensor 1 is provided with a plurality of control lines L1 and a plurality of signal lines L2.
  • the imaging element 1 is provided with control lines L1, which are signal lines capable of transmitting signals that control the pixels P.
  • control lines L1 are signal lines capable of transmitting signals that control the pixels P.
  • a plurality of control lines L1 are wired for each pixel row made up of a plurality of pixels P aligned in the row direction.
  • the control lines L1 are configured to transmit control signals for reading out signals from the pixels P.
  • the control lines L1 can also be considered drive lines that transmit signals that drive the pixels P.
  • the image sensor 1 is also provided with a signal line L2 capable of transmitting a signal from the pixel P.
  • a signal line L2 is wired for each pixel column made up of a plurality of pixels P aligned in the column direction.
  • the signal line L2 is configured to transmit a signal output from the pixel P.
  • the pixel driving unit 111 is composed of multiple circuits including a shift register, an address decoder, etc.
  • the pixel driving unit 111 (driving circuit) is configured to be able to control each pixel P of the pixel unit 101.
  • the pixel driving unit 111 generates signals for controlling the pixels P and outputs them to each pixel P of the pixel unit 101 via control lines L1.
  • the pixel driving unit 111 generates, for example, signals for controlling transfer transistors, signals for controlling reset transistors, etc., and supplies them to each pixel P via control lines L1.
  • the pixel driving unit 111 can also be said to be a pixel control unit configured to be able to control each pixel P.
  • the signal processing unit 112 is configured to be able to perform signal processing of the input pixel signals.
  • the signal processing unit 112 has, for example, a load circuit unit, an AD (Analog Digital) conversion unit, a horizontal selection switch, etc.
  • the signals output from each pixel P selected and scanned by the pixel driving unit 111 are input to the signal processing unit 112 via a signal line L2.
  • the signal processing unit 112 (signal processing circuit) performs signal processing such as AD conversion of the pixel P signal and CDS (Correlated Double Sampling).
  • the signals of each pixel P transmitted through each of the signal lines L2 are subjected to signal processing by the signal processing unit 112 and output to the processing unit 114.
  • the processing unit 114 is configured to be able to perform signal processing on the input signal.
  • the processing unit 114 is configured, for example, by a circuit that performs various types of signal processing on pixel signals.
  • the processing unit 114 may include a processor and a memory.
  • the processing unit 114 (processing circuit) performs signal processing on pixel signals input from the signal processing unit 112, and outputs the processed pixel signals.
  • the processing unit 114 can perform various types of signal processing, for example, noise reduction processing, tone correction processing, etc.
  • the control unit 113 is configured to be able to control each unit of the image sensor 1.
  • the control unit 113 receives an externally provided clock, data instructing the operating mode, etc., and can also output data such as internal information of the image sensor 1.
  • the control unit 113 (control circuit) has a timing generator configured to be able to generate various timing signals.
  • the control unit 113 controls the driving of peripheral circuits such as the pixel driving unit 111 and the signal processing unit 112 based on the various timing signals (pulse signals, clock signals, etc.) generated by the timing generator.
  • the control unit 113 and the processing unit 114 may be configured as an integrated unit.
  • the pixel driving unit 111, the signal processing unit 112, the control unit 113, the processing unit 114, etc. may be provided on one semiconductor substrate, or may be provided separately on multiple semiconductor substrates.
  • the image sensor 1 may have a structure (a stacked structure) formed by stacking multiple substrates.
  • FIG. 2 is a diagram showing an example of the configuration of a pixel of the image sensor according to the embodiment.
  • the pixel P includes a photoelectric conversion unit 12, a transistor TG, a floating diffusion (FD), a transistor AMP, a transistor SEL, and a transistor RST.
  • Transistor TG, transistor AMP, transistor SEL, and transistor RST are each MOS transistors (MOSFETs) having gate, source, and drain terminals.
  • transistors TG, AMP, SEL, and RST are each composed of an NMOS transistor.
  • the transistor of pixel P may be composed of a PMOS transistor.
  • the photoelectric conversion unit 12 is configured to be capable of generating electric charge by photoelectric conversion.
  • the photoelectric conversion unit 12 is a photodiode (PD) that converts incident light into an electric charge.
  • the photoelectric conversion unit 12 performs photoelectric conversion to generate an electric charge according to the amount of received light.
  • the transistor TG is configured to be capable of transferring the charge photoelectrically converted by the photoelectric conversion unit 12 to the FD. As shown in FIG. 2, the transistor TG is controlled by a signal STG to electrically connect or disconnect the photoelectric conversion unit 12 and the FD.
  • the transistor TG is a transfer transistor, and can transfer the charge photoelectrically converted and stored in the photoelectric conversion unit 12 to the FD.
  • the FD is an accumulation unit and is configured to be able to accumulate the transferred charge.
  • the FD can accumulate the charge photoelectrically converted by the photoelectric conversion unit 12.
  • the FD can also be considered a retention unit capable of retaining the transferred charge.
  • the FD accumulates the transferred charge and converts it into a voltage according to the capacity of the FD.
  • the transistor AMP is configured to generate and output a signal based on the charge accumulated in the FD.
  • the gate of the transistor AMP is electrically connected to the FD, and the voltage converted by the FD is input to the gate.
  • the drain of the transistor AMP is connected to a power supply line that supplies a power supply voltage VDD, and the source of the transistor AMP is connected to a signal line L2 via the transistor SEL.
  • the transistor AMP is an amplifying transistor, and can generate a signal based on the charge accumulated in the FD, i.e., a signal based on the voltage of the FD, and output it to the signal line L2.
  • the transistor SEL is configured to be capable of controlling the output of a pixel signal.
  • the transistor SEL is controlled by a signal SSEL, and is configured to be capable of outputting a signal from the transistor AMP to a signal line L2.
  • the transistor SEL is a selection transistor, and can control the output timing of the pixel signal.
  • the transistor SEL may be provided between the power supply line to which the power supply voltage VDD is applied and the transistor AMP. Furthermore, the transistor SEL may be omitted as necessary.
  • Transistor RST is configured to be able to reset the voltage of FD.
  • transistor RST is electrically connected to a power line to which power supply voltage VDD is applied, and configured to reset the charge of pixel P.
  • Transistor RST is controlled by signal SRST, and can reset the charge accumulated in FD and reset the voltage of FD.
  • Transistor RST can discharge the charge accumulated in photoelectric conversion unit 12 via transistor TG.
  • Transistor RST is a reset transistor.
  • the pixel driving unit 111 (see FIG. 1) supplies control signals to the gates of the transistors TG, SEL, RST, etc. of each pixel P via the control line L1 described above, turning the transistors on (conducting state) or off (non-conducting state).
  • the multiple control lines L1 of the image sensor 1 include a line (readout line) that transmits a signal STG that controls the transistor TG, a line (selection line) that transmits a signal SSEL that controls the transistor SEL, a line (reset line) that transmits a signal SRST that controls the transistor RST, etc.
  • Transistors TG, SEL, RST, etc. are turned on and off by pixel drive unit 111.
  • Pixel drive unit 111 controls signals STG, SSEL, SRST, etc. input to each pixel P, causing transistor AMP of each pixel P to output a signal to signal line L2.
  • FIG. 3 is a diagram for explaining an example of the configuration of an image sensor according to an embodiment.
  • the image sensor 1 has a first semiconductor layer 100, a first wiring layer 110, and a second wiring layer 120.
  • the image sensor 1 has a configuration in which the first semiconductor layer 100, the first wiring layer 110, and the second wiring layer 120 are stacked in the Z-axis direction.
  • the direction of incidence of light from the subject being measured is the Z-axis direction
  • the direction perpendicular to the Z-axis direction is the X-axis direction
  • the direction perpendicular to the Z-axis and X-axis directions is the Y-axis direction.
  • directions may be indicated based on the direction of the arrow in Figure 3.
  • the imaging element 1 is provided with a plurality of pixels P, each having a photoelectric conversion unit 12.
  • the first semiconductor layer 100 has a plurality of photoelectric conversion units 12 (photodiodes (PD)).
  • the plurality of photoelectric conversion units 12 are arranged two-dimensionally.
  • the first semiconductor layer 100 is provided with a separation unit 30, as shown in FIG. 3.
  • the isolation section 30 is provided between adjacent photoelectric conversion sections 12, and isolates the photoelectric conversion sections 12.
  • the isolation section 30 is provided in the first semiconductor layer 100 so as to surround the photoelectric conversion sections 12.
  • the isolation section 30 has a trench (groove section) provided at the boundary between adjacent pixels P (or photoelectric conversion sections 12).
  • the isolation section 30 has an FTI (Full Trench Isolation) structure, and is provided so as to penetrate the first semiconductor layer 100.
  • the isolation section 30 can also be referred to as an inter-pixel isolation wall or inter-pixel isolation section.
  • the separation section 30 is arranged in a lattice pattern so as to surround each of the multiple photoelectric conversion sections 12.
  • the separation section 30 is, for example, formed continuously so as to surround each photoelectric conversion section 12.
  • the separation section 30 is formed for each pixel P (or photoelectric conversion section 12). It can also be said that the image sensor 1 has a separation section 30 for each pixel P.
  • the separation section 30 is formed so as to surround the photoelectric conversion section 12 on all four sides, and has four sides 31 in a plan view. Each of the four sides 31 is a straight side in the XY plane.
  • the separation unit 30 is, for example, configured using a material having a refractive index lower than the refractive index of the surrounding medium. As an example, a gap (cavity) is provided within the trench of the separation unit 30. The provision of the separation unit 30 suppresses light leakage to the surrounding pixels P.
  • the trench of the separation unit 30 may be filled with an oxide film (e.g., a silicon oxide film), polysilicon, a metal material, or the like.
  • the first wiring layer 110 and the second wiring layer 120 each include, for example, a conductor film and an insulating film, and have a plurality of wirings and vias (VIA), an interlayer insulating film, etc.
  • the wiring of the first wiring layer 110 (wiring 91 in FIG. 3) and the wiring of the second wiring layer 120 (wiring 92 in FIG. 3) are formed using, for example, aluminum (Al), copper (Cu), tungsten (W), etc.
  • Each of the wirings of the first wiring layer 110 and the second wiring layer 120 may be composed using other metal materials.
  • the interlayer insulating film is formed using, for example, silicon oxide (SiO), silicon nitride (SiN), silicon oxynitride (SiON), etc.
  • the wiring 91 is formed in the first wiring layer 110 and is located on the first semiconductor layer 100. In the first wiring layer 110, a plurality of wirings 91 are arranged spaced apart from each other. In the first wiring layer 110, the above-mentioned control line L1 (see Figures 1 and 2) is provided as the wiring 91.
  • the wiring 91 is capable of transmitting a signal that controls the pixel P.
  • the multiple wirings 91 (control lines L1) of the first wiring layer 110 include, as described above, for example, a wiring (readout line) that transmits a signal STG, a wiring (selection line) that transmits a signal SSEL, a wiring (reset line) that transmits a signal SRST, etc.
  • the pixel driving unit 111 can supply the signal STG, signal SSEL, signal SRST, etc. to each pixel P via the wirings 91 of the first wiring layer 110, and control the operation of each pixel P.
  • the wiring 92 is formed in the second wiring layer 120 and is located on the first wiring layer 110. In the second wiring layer 120, a plurality of wirings 92 are arranged spaced apart from each other. In the second wiring layer 120, the above-mentioned signal line L2 (see Figures 1 and 2) is provided as the wiring 92.
  • the wiring 92 is capable of transmitting a signal from the pixel P.
  • the wiring 92 is electrically connected to the transistor AMP of the pixel P and transmits the signal output from the pixel P to the signal processing unit 112.
  • Each pixel P of the image sensor 1 can output a pixel signal based on the charge accumulated in the FD to the signal processing unit 112 via the wiring 92 of the second wiring layer 120.
  • the wiring 91 and wiring 92 are arranged to extend in a direction different from the direction perpendicular to the side 31 of the separation section 30 in a plan view.
  • the wiring 91 extends in the first wiring layer 110 in a direction intersecting with two adjacent sides 31 of the separation section 30.
  • the wiring 91 is arranged to extend in a direction intersecting with two adjacent sides 31 in the vertical direction.
  • the angle between the side 31 of the separation section 30 and the extension direction of the wiring 91 is greater than or equal to 40° and less than or equal to 50° in a plan view.
  • the wiring 92 extends in a direction intersecting with two adjacent sides 31 of the separation section 30.
  • the wiring 92 is provided so as to extend in a direction intersecting with two adjacent sides 31 in the left-right direction.
  • the angle between the side 31 of the separation section 30 and the direction in which the wiring 92 extends is greater than or equal to 40° and less than or equal to 50°.
  • the wiring 91 is arranged so that the angle between the side 31 of the separation section 30 and the extension direction of the wiring 91 (the X-axis direction in FIG. 3) is 45° in plan view.
  • the wiring 91 is arranged at an angle of 45° with respect to the side 31 of the separation section 30. It can also be said that the drawing direction of the wiring 91 is at an angle of 45° with respect to the side 31 of the separation section 30.
  • the wiring 91 may be formed so that the angle between the side 31 of the separation section 30 and the extension direction of the wiring 91 is approximately 45°, as long as the specified performance can be achieved.
  • the wiring 92 is arranged so that the angle between the side 31 of the separation section 30 and the direction in which the wiring 92 extends (the Y-axis direction in FIG. 3) is 45° in plan view.
  • the wiring 92 is arranged at an angle of 45° with respect to the side 31 of the separation section 30. It can also be said that the drawing direction of the wiring 92 is at an angle of 45° with respect to the side 31 of the separation section 30.
  • the wiring 92 may be formed so that the angle between the side 31 of the separation section 30 and the direction in which the wiring 92 extends is approximately 45°, as long as a predetermined performance can be achieved.
  • the wiring 91 and the wiring 92 are arranged so that the direction in which the wiring 91 extends and the direction in which the wiring 92 extends are perpendicular to each other.
  • FIG. 4 is a diagram showing an example of a cross-sectional configuration of an image sensor according to an embodiment.
  • FIGS. 5A to 5C are diagrams showing an example of a planar configuration of an image sensor according to an embodiment.
  • FIG. 5A shows an example of the layout of the photoelectric conversion units 12 of the image sensor 1.
  • FIG. 5B shows an example of the layout of the wiring 91 of the first wiring layer 110
  • FIG. 5C shows an example of the layout of the wiring 92 of the second wiring layer 120.
  • FIGS. 5B and 5C respectively show the orientation of the wiring 91 of the first wiring layer 110 including the control line L1, and the orientation of the wiring 92 of the second wiring layer 120 including the signal line L2.
  • the image sensor 1 has a light receiving section 10 and a light guiding section 20.
  • the light receiving section 10 has a first semiconductor layer 100 having a first surface 11S1 and a second surface 11S2 that face each other.
  • the first semiconductor layer 100 is formed of, for example, a semiconductor substrate (e.g., a silicon substrate).
  • a light guide section 20 is provided on the first surface 11S1 side of the first semiconductor layer 100.
  • a multi-layer wiring layer 200 is provided on the second surface 11S2 side of the first semiconductor layer 100.
  • the multi-layer wiring layer 200 is configured to include a first wiring layer 110 and a second wiring layer 120.
  • the second surface 11S2 of the first semiconductor layer 100 is an element formation surface on which elements such as transistors are formed.
  • a gate electrode, a gate oxide film, etc. are provided on the second surface 11S2 of the first semiconductor layer 100.
  • the imaging element 1 has a configuration in which a light receiving section 10, a light guiding section 20, and a multi-layer wiring layer 200 are stacked in the Z-axis direction.
  • the light guiding section 20 is provided on the side where light from the optical system is incident, and the multi-layer wiring layer 200 is provided on the side opposite to the side where the light is incident.
  • the imaging element 1 is a so-called back-illuminated type imaging element.
  • a plurality of photoelectric conversion sections 12 are provided along the first surface 11S1 and the second surface 11S2 of the first semiconductor layer 100.
  • a plurality of photoelectric conversion sections 12 are embedded and formed in the first semiconductor layer 100.
  • a plurality of photoelectric conversion sections 12 are arranged side by side, as shown in FIG. 5A.
  • the photoelectric conversion unit 12 of the pixel P is configured to, for example, perform photoelectric conversion on infrared light to generate an electric charge.
  • the pixel P can receive near-infrared light (NIR light), perform photoelectric conversion, and generate a pixel signal.
  • the imaging element 1 is, for example, a back-illuminated image sensor configured to be capable of detecting NIR light.
  • An infrared image (NIR image) can be generated using the pixel signals of each pixel P obtained by the imaging element 1.
  • a separation section 30 using a trench is formed between adjacent photoelectric conversion sections 12.
  • the separation section 30 may be formed to reach the second surface 11S2 of the first semiconductor layer 100. In the example shown in FIG. 4, the separation section 30 penetrates the first semiconductor layer 100 between adjacent photoelectric conversion sections 12.
  • the wiring 91 of the first wiring layer 110 is wired in the left-right direction (X-axis direction) in FIG. 5B so that the angle between the side 31 of the separation section 30 and the direction in which the wiring 91 extends is 45° in a plan view.
  • the wiring 92 of the second wiring layer 120 is wired in the up-down direction (Y-axis direction) in FIG. 5C so that the angle between the side 31 of the separation section 30 and the direction in which the wiring 92 extends is 45° in a plan view.
  • each transistor of the pixel P described above transistor TG, transistor SEL, transistor RST, transistor AMP, etc. is formed.
  • the light guide unit 20 is stacked on the light receiving unit 10 in a thickness direction perpendicular to the first surface 11S1 of the first semiconductor layer 100.
  • the light guide unit 20 has a lens unit 21, and guides light incident from above to the light receiving unit 10.
  • the lens unit 21 is an optical member also known as an on-chip lens.
  • the lens unit 21 is provided above the photoelectric conversion unit 12, for example, for each pixel P or for each set of pixels P.
  • the photoelectric conversion unit 12 photoelectrically converts the light that enters through the lens unit 21.
  • the imaging element 1 may have, for example, a filter that transmits infrared light, an RGB color filter, etc., between the lens unit 21 and the photoelectric conversion unit 12.
  • the image sensor 1 is provided with an insulating layer 25 and a light-shielding portion 26.
  • the insulating layer 25 is provided between the layer in which the lens portion 21 is provided and the layer in which the photoelectric conversion portion 12 is provided.
  • the insulating layer 25 is formed, for example, using an oxide film, a nitride film, an oxynitride film, or the like.
  • the insulating layer 25 may be formed of a single layer film made of one of an oxide film (e.g., a silicon oxide film), a nitride film (e.g., a silicon nitride film), an oxynitride film, or the like, or a laminated film made of two or more of these.
  • the material and configuration of the insulating layer 25 are not particularly limited.
  • the insulating layer 25 may be formed, for example, using a metal compound (metal oxide, metal nitride, etc.) or may be formed using other insulating materials.
  • the insulating layer 25 can also be called a planarization layer (planarization film).
  • the light guide portion 20 may be formed to include the insulating layer 25 and the light-shielding portion 26.
  • the light-shielding portion 26 (light-shielding film) is made of a material that blocks light, and is provided at the boundary between adjacent pixels P.
  • the light-shielding portion 26 (light-shielding material) is formed, for example, on the insulating layer 25, and is located above the separation portion 30 in the example shown in FIG. 4.
  • the light-shielding portion 26 is made of, for example, a metal material that blocks light (aluminum (Al), tungsten (W), copper (Cu), etc.). In the example shown in FIG. 4, the light-shielding portion 26 is located at the boundary between adjacent lens portions 21, and prevents light from leaking to surrounding pixels.
  • the light-shielding portion 26 may be made of a material that absorbs light.
  • the positions of the lens section 21, the light shielding section 26, the separator 30, the photoelectric conversion section 12, etc. can be configured to vary depending on the distance from the center of the pixel section 101 (pixel array), i.e., the image height.
  • the positions of the lens section 21, the light shielding section 26, the photoelectric conversion section 12, etc. are adjusted depending on the image height, and pupil correction is performed.
  • the light shielding section 26 is shifted from the boundary between adjacent lens sections 21 and from the position of the separator 30 in accordance with the incident direction of light from the subject.
  • the pixel P is configured, for example, as shown in FIG. 4.
  • some of the light incident on the photoelectric conversion unit 12 of a pixel P through the lens unit 21 may reach the multilayer wiring layer 200, be reflected and scattered by the wiring in the multilayer wiring layer 200, and be incident (re-incident) on the photoelectric conversion unit 12 of a surrounding pixel P.
  • Some of the light incident on the photoelectric conversion section 12 through the lens section 21 may pass through the photoelectric conversion section 12 and be reflected by the wiring 91 of the first wiring layer 110 (or the wiring 92 of the second wiring layer 120) as shown by the dashed arrow in FIG. 4, and pass under the separation section 30 and leak into the surrounding pixels P.
  • the light reflected by the wiring 91 of the first wiring layer 110 (or the wiring 92 of the second wiring layer 120) may pass through the separation section 30 and leak into the surrounding pixels P, causing color mixing.
  • a large amount of reflected light may leak into only one pixel P located in a specific direction from that pixel P, resulting in a large difference in the amount of light leaking between surrounding pixels. This may result in a decrease in the quality of the image generated using the pixel signals and a decrease in the accuracy of light detection.
  • the phenomenon of light leaking into adjacent pixels may occur, which tends to result in a decrease in image quality and a decrease in the accuracy of near-infrared light detection.
  • the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are arranged to extend in a direction different from the direction perpendicular to the side 31 of the separation section 30 in a plan view. This makes it possible to disperse reflected light and reduce the difference in the amount of light leaking into each pixel P.
  • FIG. 6 is a diagram for explaining leakage of light into adjacent pixels due to reflection in an image sensor according to an embodiment.
  • FIG. 6 shows a schematic diagram of light reflected and scattered at a central pixel P leaking into surrounding pixels P.
  • the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are wired in the X-axis direction and the Y-axis direction.
  • the wiring 91 and the wiring 92 are arranged at an angle of 45° with respect to the side 31 of the separation section 30.
  • a portion of the light incident on the central pixel P is reflected in the X-axis direction and the Y-axis direction due to the influence of the layout of the wiring 91 and wiring 92.
  • Light reflected by the wiring 91 or wiring 92 of the central pixel P leaks into the pixels P located up and down or left and right from the central pixel P and into the pixels P located diagonally from the central pixel P.
  • reflected light can be made to be incident on the pixels P that contact the surface (surface portion) of the central pixel P and the pixels P that contact the corners (corner portions) of the central pixel P.
  • the imaging element 1 can guide light that passes through the photoelectric conversion unit 12 of a pixel P and enters the multilayer wiring layer 200 to each pixel P surrounding that pixel P, thereby reducing the difference in the amount of light leaking into each pixel P. This makes it possible to suppress deterioration in image quality and suppress deterioration in the accuracy of light detection.
  • the imaging element 1 according to this embodiment will be further described in comparison with a comparative example.
  • FIG. 7 is a diagram showing an example of the configuration of an image sensor according to a comparative example.
  • the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are arranged to extend in a direction perpendicular to the side 31 of the separation section 30.
  • FIG. 8 is a diagram for explaining leakage of light into adjacent pixels due to reflection in the image sensor according to the comparative example.
  • FIG. 9 is a diagram showing an example of an image obtained by the image sensor according to the comparative example.
  • the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are arranged at an angle of 45° with respect to the side 31 of the separation section 30. This allows the reflected light to be dispersed to pixels located up and down or left and right from the pixel where the light is incident, and to pixels located diagonally from the pixel where the light is incident. This makes it possible to prevent the occurrence of diamond-shaped or cross-shaped images caused by reflected light, improving the image quality. It also makes it possible to suppress a decrease in the accuracy of light detection.
  • FIGS. 10A to 10C are diagrams showing examples of the arrangement of FD sharing units in an image sensor according to an embodiment.
  • FD sharing units 40 including multiple pixels P may be arranged in an array.
  • the FD sharing unit 40 is composed of, for example, four adjacent pixels P.
  • the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are inclined at 45° with respect to the side 31 of the separation section 30. Therefore, as shown in Figures 10A to 10C, the shapes of the regions of the FD sharing units 40a, 40b, and 40c in the first semiconductor layer 100, the first wiring layer 110, and the second wiring layer 120 are different from each other.
  • the FD shared units 40b in the first wiring layer 110 have a horizontally elongated shape and are arranged with a half-period shift between rows of vertically adjacent FD shared units 40b.
  • a control line L1 is wired in common to multiple FD shared units 40b arranged in the row direction (left-right direction).
  • the FD shared unit 40c in the second wiring layer 120 has a shape that is the same as the FD shared unit 40b in the first wiring layer 110 rotated by 90 degrees.
  • the signal line L2 is wired in common to multiple FD shared units 40c arranged in the column direction (vertical direction).
  • FIGS. 11A to 11C are diagrams showing layout examples of an image sensor according to an embodiment.
  • FIG. 11A shows a layout example in the first semiconductor layer 100.
  • FIG. 11B shows a layout example in the first wiring layer 110, and
  • FIG. 11C shows a layout example in the second wiring layer 120.
  • the first wiring layer 110 is provided with photodiodes (PD), transistors TG (TG1 to TG4), transistors AMP, transistors SEL, transistors RST, etc., which are photoelectric conversion units 12.
  • PD photodiodes
  • transistors TG TG1 to TG4
  • transistors AMP transistors SEL
  • transistors RST etc.
  • 2 ⁇ 2 pixels consisting of four adjacent pixels P share an FD.
  • the FD sharing unit 40 is a unit that shares one FD, and multiple pixels of the FD sharing unit 40 (four pixels P in FIG. 1) share one FD.
  • the shapes of the FD sharing units 40 in the first semiconductor layer 100, the first wiring layer 110, and the second wiring layer 120 are different from one another. Therefore, vias (VIAs) connecting the transistors, etc. of the first semiconductor layer 100 and the wiring 91 of the first wiring layer 110 are formed in the overlapping region of the FD sharing unit 40a of the first semiconductor layer 100 and the FD sharing unit 40b of the first wiring layer 110. In FIG. 11A, the vias are illustrated as white circles. In each FD sharing unit 40, multiple vias are arranged within the overlapping region.
  • the vias connecting the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are formed in the area where the area of the FD sharing unit 40b of the first wiring layer 110 and the area of the FD sharing unit 40c of the second wiring layer 120 overlap. In FIG. 11B, these vias are illustrated by white circles. In each FD sharing unit 40, the wiring 91 of the first wiring layer 110 and the wiring 92 of the second wiring layer 120 are electrically connected through the vias, as shown in FIG. 11B and FIG. 11C.
  • the photodetector element includes a first semiconductor layer (first semiconductor layer 100) having a plurality of photoelectric conversion units (photoelectric conversion units 12) that photoelectrically convert light, an isolation unit (isolation unit 30) provided in the first semiconductor layer so as to surround the photoelectric conversion units, and a first wiring layer (first wiring layer 110) having first wiring (wiring 91) capable of transmitting a signal that controls a pixel including the photoelectric conversion units and stacked on the first semiconductor layer.
  • the first wiring extends in a direction different from the direction perpendicular to the side of the isolation unit in a plan view.
  • the wiring 91 of the first wiring layer 110 extends in a direction different from the direction perpendicular to the side 31 of the separation section 30 in a plan view. This makes it possible to disperse reflected light and reduce the difference in the amount of light leaking into each pixel P. This makes it possible to suppress deterioration in image quality. It is possible to realize a light detection element with good detection performance.
  • FIG. 13 is a diagram for explaining a configuration example of an image sensor according to Modification 2.
  • the image sensor 1 may have a second semiconductor layer 150. At least a part of each transistor of the pixel P may be provided in the second semiconductor layer 150.
  • the above-mentioned transistor TG, transistor AMP, transistor SEL, and transistor RST can be arranged separately in the first semiconductor layer 100 and the second semiconductor layer 150, thereby suppressing an increase in chip area.
  • the transistor TG can be arranged in the first semiconductor layer 100
  • the transistor AMP, transistor SEL, and transistor RST can be arranged in the second semiconductor layer 150.
  • the second semiconductor layer 150 may be provided between the first semiconductor layer 100 and the first wiring layer 110, as shown in FIG. 13. Also, the second semiconductor layer 150 may be provided between the first wiring layer 110 and the second wiring layer 120, as shown in FIG. 14.
  • Fig. 15 is a diagram showing an example of a cross-sectional configuration of an image sensor according to Modification 3.
  • the photoelectric conversion unit 12 of the image sensor 1 may have a quadrangular pyramid shape on the first surface 11S1 side of the first semiconductor layer 100. That is, the image sensor 1 has a photoelectric conversion unit 12 with an inverted quadrangular pyramid groove structure on the light receiving surface side, and has a moth-eye structure.
  • FIGS. 16A and 16B are diagrams showing an example of the planar configuration of an image sensor according to Modification Example 3.
  • FIG. 16A and FIG. 16B show an example of the substrate surface orientation of the photoelectric conversion unit 12 of a pixel P.
  • the angle between the base 15 of the pyramid of the photoelectric conversion unit 12 and the side 31 of the separation unit 30 in a planar view is greater than or equal to 40° and less than or equal to 50°.
  • the photoelectric conversion section 12 may be provided so that the angle between the base 15 of the pyramid and the side 31 of the separation section 30 is 45°. This makes it possible to reduce the anisotropy of reflection and scattering in the multi-layer wiring layer 200, as in the case of the above-described embodiment. This makes it possible to suppress the deterioration of image quality and also suppress the deterioration of the accuracy of light detection.
  • the photoelectric conversion section 12 may be provided so that the base 15 of the pyramid is aligned with the side 31 of the separation section 30.
  • the photoelectric conversion section 12 is formed so that the base 15 of the pyramid is parallel to the side 31 of the separation section 30.
  • the size of the moth-eye structure can be increased, making it possible to improve the light receiving sensitivity.
  • the image sensor 1 according to this modified example may also have the second semiconductor layer 150 described above.
  • the light detection element (imaging element 1) can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as described below.
  • Digital cameras, mobile devices with camera functions, and other devices that take images for viewing. Automatic stopping and other safe driving, and recognition of the driver's condition, etc.
  • Devices used for traffic purposes such as in-vehicle sensors that capture images of the rear, surroundings, and interior of the vehicle, surveillance cameras that monitor moving vehicles and roads, and distance measuring sensors that measure distances between vehicles, etc.
  • Devices used in home appliances such as televisions, refrigerators, and air conditioners to take pictures and operate the devices according to the gestures taken.
  • Endoscopes and devices for taking blood vessel images by receiving infrared light are endoscopes and devices for taking blood vessel images by receiving infrared light.
  • Equipment for medical and healthcare purposes such as security cameras for crime prevention and cameras for person authentication
  • Skin measuring devices that take pictures of the skin and scalp
  • Equipment for beauty purposes such as microscopes for taking pictures, equipment for sports purposes, such as action cameras and wearable cameras, cameras for monitoring the condition of fields and crops, etc.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
  • FIG. 17 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • Also shown as functional components of the integrated control unit 12050 are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
  • the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
  • radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
  • the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
  • the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images.
  • the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, characters on the road surface, etc. based on the received images.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information inside the vehicle.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
  • the microcomputer 12051 can calculate the control target values of the driving force generating device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output a control command to the drive system control unit 12010.
  • the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an ADAS (Advanced Driver Assistance System), including avoiding or mitigating vehicle collisions, following based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 can also control the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, thereby performing cooperative control aimed at automatic driving, which allows the vehicle to travel autonomously without relying on the driver's operation.
  • the microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside-vehicle information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside-vehicle information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching high beams to low beams.
  • the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 18 shows an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle cabin of the vehicle 12100.
  • the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the top of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
  • the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
  • FIG. 18 shows an example of the imaging ranges of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
  • an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for detecting phase differences.
  • the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
  • the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by forcibly decelerating or steering the vehicle to avoid a collision via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
  • the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
  • the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology of the present disclosure can be applied to, for example, the imaging unit 12031.
  • the imaging element 1 etc. can be applied to the imaging unit 12031.
  • the technology according to the present disclosure (Application example to endoscopic surgery system)
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 19 is a diagram showing an example of the general configuration of an endoscopic surgery system to which the technology disclosed herein (the present technology) can be applied.
  • an operator (doctor) 11131 is shown using an endoscopic surgery system 11000 to perform surgery on a patient 11132 on a patient bed 11133.
  • the endoscopic surgery system 11000 is composed of an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, a support arm device 11120 that supports the endoscope 11100, and a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.
  • the tip of the tube 11101 has an opening into which an objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens towards an object to be observed inside the body cavity of the patient 11132.
  • the endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the object of observation is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor to generate an electrical signal corresponding to the observation light, i.e., an image signal corresponding to the observed image.
  • the image signal is sent to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the overall operation of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), in order to display an image based on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 under the control of the CCU 11201, displays an image based on the image signal that has been subjected to image processing by the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode) and supplies the endoscope 11100 with irradiation light when photographing the surgical site, etc.
  • a light source such as an LED (Light Emitting Diode) and supplies the endoscope 11100 with irradiation light when photographing the surgical site, etc.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) of the endoscope 11100.
  • the treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc.
  • the insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon.
  • the recorder 11207 is a device capable of recording various types of information related to the surgery.
  • the printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies illumination light to the endoscope 11100 when photographing the surgical site can be composed of a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • the white light source is composed of a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so that the white balance of the captured image can be adjusted in the light source device 11203.
  • the light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals.
  • the image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.
  • the light source device 11203 may be configured to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band of light is irradiated compared to the light irradiated during normal observation (i.e., white light), and a predetermined tissue such as blood vessels on the surface of the mucosa is photographed with high contrast, so-called narrow band imaging is performed.
  • fluorescent observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • excitation light is irradiated to the body tissue and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and excitation light corresponding to the fluorescent wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image.
  • the light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
  • FIG. 20 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 19.
  • the camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging element.
  • the imaging element constituting the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type).
  • each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining these.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display. By performing 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site.
  • 3D dimensional
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.
  • the driving unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be adjusted appropriately.
  • the communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201, and supplies them to the camera head control unit 11405.
  • the control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.
  • the above-mentioned frame rate, exposure value, magnification, focus, and other imaging conditions may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 also transmits to the camera head 11102 a control signal for controlling the operation of the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, etc.
  • the image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electrical signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.
  • the technology of the present disclosure can be suitably applied to, for example, the imaging unit 11402 provided in the camera head 11102 of the endoscope 11100.
  • the technology of the present disclosure can be suitably applied to the imaging unit 11402, the sensitivity of the imaging unit 11402 can be increased, and a high-definition endoscope 11100 can be provided.
  • the photodetector of one embodiment of the present disclosure includes a first semiconductor layer having a plurality of photoelectric conversion units, a separation unit provided in the first semiconductor layer to surround the photoelectric conversion units, and a first wiring layer stacked on the first semiconductor layer, the first wiring having a first wiring capable of transmitting a signal for controlling a pixel including the photoelectric conversion unit.
  • the first wiring extends in a direction different from the direction perpendicular to the side of the separation unit. This makes it possible to disperse reflected light and suppress deterioration in image quality. It becomes possible to realize a photodetector with good detection performance.
  • the present disclosure may have the following configurations. (1) a first semiconductor layer having a plurality of photoelectric conversion units that convert light into electricity; an isolation portion provided in the first semiconductor layer so as to surround the photoelectric conversion portion; a first wiring layer having a first wiring capable of transmitting a signal for controlling a pixel including the photoelectric conversion unit and stacked on the first semiconductor layer; The light-detecting element, wherein the first wiring extends in a direction different from a direction perpendicular to a side of the separation portion in a plan view.
  • the second wiring layer includes, as the second wiring, a wiring electrically connected to the second transistor and capable of transmitting a signal based on the charge accumulated in the accumulation section.
  • the photoelectric conversion portion has a quadrangular pyramid shape on a first surface side of the first semiconductor layer,
  • the light detection element according to any one of (5) to (12), wherein, in a plan view, a base of the quadrangular pyramid is inclined at an angle of 40° to 50° with respect to a side of the separation portion.
  • the photoelectric conversion portion has a quadrangular pyramid shape on a first surface side of the first semiconductor layer,
  • the photodetector according to any one of (5) to (13), wherein the photoelectric conversion unit is provided such that a base side of the quadrangular pyramid is inclined at 45° with respect to a side of the separation unit in a plan view.
  • the photoelectric conversion portion has a quadrangular pyramid shape on a first surface side of the first semiconductor layer, The light detection element according to any one of (5) to (14), wherein a base of the quadrangular pyramid is provided along a side of the separation portion in a plan view.
  • a lens provided on a first surface side of the first semiconductor layer;

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示の一実施形態の光検出素子は、光を光電変換する複数の光電変換部を有する第1半導体層と、前記第1半導体層において前記光電変換部を囲むように設けられる分離部と、前記光電変換部を含む画素を制御する信号を伝えることが可能な第1配線を有し、前記第1半導体層に積層される第1配線層とを備える。前記第1配線は、平面視において、前記分離部の辺と直交する方向とは異なる方向に延びている。

Description

光検出素子
 本開示は、光検出素子に関する。
 光を受光して光電変換する画素とトレンチ(溝)を用いた画素分離部とを有し、光を検出する素子が提案されている(特許文献1)。
特開2020-13910号公報
 光を検出する素子では、検出性能を向上させることが望ましい。
 良好な検出性能を有する光検出素子を提供することが望まれる。
 本開示の一実施形態の光検出素子は、光を光電変換する複数の光電変換部を有する第1半導体層と、第1半導体層において光電変換部を囲むように設けられる分離部と、光電変換部を含む画素を制御する信号を伝えることが可能な第1配線を有し、第1半導体層に積層される第1配線層とを備える。第1配線は、平面視において、分離部の辺と直交する方向とは異なる方向に延びている。
本開示の実施の形態に係る光検出素子の一例である撮像素子の全体構成の一例を示すブロック図である。 本開示の実施の形態に係る撮像素子の画素の構成例を示す図である。 本開示の実施の形態に係る撮像素子の構成例を説明するための図である。 本開示の実施の形態に係る撮像素子の断面構成の一例を示す図である。 本開示の実施の形態に係る撮像素子の平面構成の一例を示す図である。 本開示の実施の形態に係る撮像素子の平面構成の一例を示す図である。 本開示の実施の形態に係る撮像素子の平面構成の一例を示す図である。 本開示の実施の形態に係る撮像素子における反射による隣接画素への光の漏れ込みを説明するための図である。 本開示の比較例に係る撮像素子の構成例を示す図である。 本開示の比較例に係る撮像素子における反射による隣接画素への光の漏れ込みを説明するための図である。 本開示の比較例に係る撮像素子により得られる画像の一例を示す図である。 本開示の実施の形態に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の実施の形態に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の実施の形態に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の実施の形態に係る撮像素子のレイアウト例を示す図である。 本開示の実施の形態に係る撮像素子のレイアウト例を示す図である。 本開示の実施の形態に係る撮像素子のレイアウト例を示す図である。 本開示の変形例1に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の変形例1に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の変形例1に係る撮像素子のFD共有ユニットの配置例を示す図である。 本開示の変形例2に係る撮像素子の構成例を説明するための図である。 本開示の変形例2に係る撮像素子の別の構成例を説明するための図である。 本開示の変形例3に係る撮像素子の断面構成の一例を示す図である。 本開示の変形例3に係る撮像素子の平面構成の一例を示す図である。 本開示の変形例3に係る撮像素子の平面構成の一例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.使用例
 4.応用例
<1.実施の形態>
 図1は、本開示の実施の形態に係る光検出素子の一例である撮像素子の全体構成の一例を示すブロック図である。光検出素子は、入射する光を検出可能な素子である。光検出素子である撮像素子1は、光電変換部を有する複数の画素Pを有し、入射した光を光電変換して信号を生成するように構成される。撮像素子1は、イメージセンサ、測距センサ等に適用され得る。
 本開示に係る光検出素子は、TOF(Time Of Flight)方式の距離計測が可能な測距センサとしても適用され得る。光検出素子(撮像素子1)は、イベントを検出可能なセンサ、例えば、イベント駆動型のセンサ(EVS(Event Vision Sensor)、EDS(Event Driven Sensor)、DVS(Dynamic Vision Sensor)等と呼ばれる)としても適用され得る。
 撮像素子1の各画素Pの光電変換部は、例えばフォトダイオードであり、光を光電変換可能に構成される。図1に示す例では、撮像素子1は、複数の画素Pが行列状に2次元配置された領域(画素部101)を有している。
 撮像素子1は、光学レンズを含む光学系(不図示)を介して、被写体からの入射光(像光)を取り込む。撮像素子1は、光学レンズにより形成される被写体の像を撮像する。撮像素子1は、受光した光を光電変換して画素信号を生成する。撮像素子1は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
[撮像素子の概略構成]
 撮像素子1は、図1に示す例のように、画素部101の周辺領域に、例えば、画素駆動部111、信号処理部112、制御部113、及び処理部114等を有する。また、撮像素子1には、複数の制御線L1と、複数の信号線L2が設けられる。
 撮像素子1には、画素Pを制御する信号を伝えることが可能な信号線である制御線L1が設けられる。画素部101では、例えば、行方向に並ぶ複数の画素Pにより構成される画素行ごとに、複数の制御線L1が配線される。制御線L1は、画素Pからの信号読み出しのための制御信号を伝送するように構成される。制御線L1は、画素Pを駆動する信号を伝送する駆動線ともいえる。
 また、撮像素子1には、画素Pからの信号を伝えることが可能な信号線である信号線L2が設けられる。画素部101には、例えば、列方向に並ぶ複数の画素Pにより構成される画素列ごとに、信号線L2が配線される。信号線L2は、画素Pから出力される信号を伝送するように構成される。
 画素駆動部111は、シフトレジスタ、アドレスデコーダ等を含む複数の回路によって構成される。画素駆動部111(駆動回路)は、画素部101の各画素Pを制御可能に構成される。画素駆動部111は、画素Pを制御するための信号を生成し、制御線L1を介して画素部101の各画素Pへ出力する。画素駆動部111は、例えば、転送トランジスタを制御する信号、リセットトランジスタを制御する信号等を生成し、制御線L1によって各画素Pに供給する。画素駆動部111は、各画素Pを制御可能に構成された画素制御部ともいえる。
 信号処理部112は、入力される画素の信号の信号処理を実行可能に構成される。信号処理部112は、例えば、負荷回路部、AD(Analog Digital)変換部、水平選択スイッチ等を有する。画素駆動部111によって選択走査された各画素Pから出力される信号は、信号線L2を介して信号処理部112に入力される。信号処理部112(信号処理回路)は、画素Pの信号のAD変換、CDS(Correlated Double Sampling:相関二重サンプリング)等の信号処理を行う。信号線L2の各々を通して伝送される各画素Pの信号は、信号処理部112により信号処理が施され、処理部114に出力される。
 処理部114は、入力される信号に対して信号処理を実行可能に構成される。処理部114は、例えば、画素信号に対して各種の信号処理を施す回路により構成される。処理部114は、プロセッサ及びメモリを含んでいてもよい。処理部114(処理回路)は、信号処理部112から入力される画素の信号に対して信号処理を行い、処理後の画素の信号を出力する。処理部114は、例えば、ノイズ低減処理、階調補正処理等の各種の信号処理を行い得る。
 制御部113は、撮像素子1の各部を制御可能に構成される。制御部113は、外部から与えられるクロック、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力し得る。制御部113(制御回路)は、各種のタイミング信号を生成可能に構成されたタイミングジェネレータを有する。制御部113は、タイミングジェネレータで生成された各種のタイミング信号(パルス信号、クロック信号等)に基づき、画素駆動部111及び信号処理部112等の周辺回路の駆動制御を行う。なお、制御部113及び処理部114は、一体的に構成されていてもよい。
 画素駆動部111、信号処理部112、制御部113、処理部114等は、1つの半導体基板に設けられていてもよいし、複数の半導体基板に分けて設けられていてもよい。撮像素子1は、複数の基板を積層して構成された構造(積層構造)を有していてもよい。
[画素の構成]
 図2は、実施の形態に係る撮像素子の画素の構成例を示す図である。画素Pは、光電変換部12と、トランジスタTGと、フローティングディフュージョン(FD)と、トランジスタAMPと、トランジスタSELと、トランジスタRSTとを有する。
 トランジスタTG、トランジスタAMP、トランジスタSEL、及びトランジスタRSTは、それぞれ、ゲート、ソース、ドレインの端子を有するMOSトランジスタ(MOSFET)である。図2に示す例では、トランジスタTG,AMP,SEL,RSTは、それぞれNMOSトランジスタにより構成される。なお、画素Pのトランジスタは、PMOSトランジスタにより構成されてもよい。
 光電変換部12は、光電変換により電荷を生成可能に構成される。図2に示す例では、光電変換部12は、フォトダイオード(PD)であり、入射する光を電荷に変換する。光電変換部12は、光電変換を行って受光量に応じた電荷を生成する。
 トランジスタTGは、光電変換部12で光電変換された電荷をFDに転送可能に構成される。図2に示すように、トランジスタTGは、信号STGにより制御され、光電変換部12とFDとを電気的に接続または切断する。トランジスタTGは、転送トランジスタであり、光電変換部12で光電変換されて蓄積された電荷をFDに転送し得る。
 FDは、蓄積部であり、転送された電荷を蓄積可能に構成される。FDは、光電変換部12で光電変換された電荷を蓄積し得る。FDは、転送された電荷を保持可能な保持部ともいえる。FDは、転送された電荷を蓄積し、FDの容量に応じた電圧に変換する。
 トランジスタAMPは、FDに蓄積された電荷に基づく信号を生成して出力するように構成される。図2に示すように、トランジスタAMPのゲートは、FDと電気的に接続され、FDで変換された電圧が入力される。トランジスタAMPのドレインは、電源電圧VDDが供給される電源線に接続され、トランジスタAMPのソースは、トランジスタSELを介して信号線L2に接続される。トランジスタAMPは、増幅トランジスタであり、FDに蓄積された電荷に基づく信号、即ちFDの電圧に基づく信号を生成し、信号線L2へ出力し得る。
 トランジスタSELは、画素の信号の出力を制御可能に構成される。トランジスタSELは、信号SSELにより制御され、トランジスタAMPからの信号を信号線L2に出力可能に構成される。トランジスタSELは、選択トランジスタであり、画素の信号の出力タイミングを制御し得る。なお、トランジスタSELは、電源電圧VDDが与えられる電源線とトランジスタAMPとの間に設けられてもよい。また、必要に応じて、トランジスタSELを省略してもよい。
 トランジスタRSTは、FDの電圧をリセット可能に構成される。図2に示す例では、トランジスタRSTは、電源電圧VDDが与えられる電源線と電気的に接続され、画素Pの電荷のリセットを行うように構成される。トランジスタRSTは、信号SRSTにより制御され、FDに蓄積された電荷をリセットし、FDの電圧をリセットし得る。なお、トランジスタRSTは、トランジスタTGを介して、光電変換部12に蓄積された電荷を排出し得る。トランジスタRSTは、リセットトランジスタである。
 画素駆動部111(図1参照)は、上述した制御線L1を介して、各画素PのトランジスタTG、トランジスタSEL、トランジスタRST等のゲートに制御信号を供給し、トランジスタをオン状態(導通状態)又はオフ状態(非導通状態)とする。撮像素子1の複数の制御線L1には、トランジスタTGを制御する信号STGを伝送する配線(読み出し線)、トランジスタSELを制御する信号SSELを伝送する配線(選択線)、トランジスタRSTを制御する信号SRSTを伝送する配線(リセット線)等が含まれる。
 トランジスタTG、トランジスタSEL、トランジスタRST等は、画素駆動部111によってオンオフ制御される。画素駆動部111は、各画素Pに入力される信号STG、信号SSEL、信号SRST等を制御することによって、各画素PのトランジスタAMPから信号を信号線L2に出力させる。
 図3は、実施の形態に係る撮像素子の構成例を説明するための図である。撮像素子1は、図3に示すように、第1半導体層100、第1配線層110、及び第2配線層120を有する。撮像素子1は、第1半導体層100と、第1配線層110と、第2配線層120とがZ軸方向に積層された構成を有している。
 図3に示すように、計測対象である被写体からの光の入射方向をZ軸方向、Z軸方向に直交する方向をX軸方向、Z軸方向及びX軸方向に直交する方向をY軸方向とする。以降の図において、図3の矢印の方向を基準として方向を表記する場合もある。
 撮像素子1には、光電変換部12をそれぞれ有する複数の画素Pが設けられる。第1半導体層100は、図3に模式的に示すように、複数の光電変換部12(フォトダイオード(PD))を有する。第1半導体層100では、複数の光電変換部12が2次元状に設けられる。また、第1半導体層100には、図3に示すように分離部30が設けられる。
 分離部30は、隣り合う光電変換部12の間に設けられ、光電変換部12間を分離する。分離部30は、第1半導体層100において光電変換部12を囲むように設けられる。分離部30は、隣り合う画素P(又は光電変換部12)の境界に設けられるトレンチ(溝部)を有する。図3及び図4に示す例では、分離部30は、FTI(Full Trench Isolation)構造を有し、第1半導体層100を貫通するように設けられる。分離部30は、画素間分離壁または画素間分離部ともいえる。
 分離部30は、複数の光電変換部12の各々を囲むように格子状に設けられる。分離部30は、例えば、各光電変換部12を取り囲むように連続的に形成される。撮像素子1では、分離部30は、各画素P(又は光電変換部12)に対して形成される。撮像素子1は、画素P毎に分離部30を有するともいえる。分離部30は、図3に示す例のように、光電変換部12の四方を囲むように形成され、平面視において4つの辺31を有する。4つの辺31は、XY平面において、それぞれ直線状の辺となっている。
 分離部30は、例えば、周囲の媒質の屈折率よりも低い屈折率を有する材料を用いて構成される。分離部30のトレンチ内には、一例として、空隙(空洞)が設けられる。分離部30が設けられることで、周囲の画素Pに光が漏れることが抑制される。分離部30のトレンチには、酸化膜(例えばシリコン酸化膜)、ポリシリコン、金属材料等が埋め込まれていてもよい。
 第1配線層110及び第2配線層120は、それぞれ、例えば、導体膜および絶縁膜を含み、複数の配線およびビア(VIA)、層間絶縁膜などを有する。第1配線層110の配線(図3では配線91)、及び第2配線層120の配線(図3では配線92)は、例えば、アルミニウム(Al)、銅(Cu)、タングステン(W)等を用いて形成される。第1配線層110及び第2配線層120の各々の配線は、他の金属材料を用いて構成されてもよい。層間絶縁膜は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、酸窒化シリコン(SiON)等を用いて形成される。
 配線91は、第1配線層110に形成され、第1半導体層100上に位置している。第1配線層110では、複数の配線91が互いに離間して配置される。第1配線層110には、配線91として、上述した制御線L1(図1、図2参照)が設けられる。配線91は、画素Pを制御する信号を伝えることが可能な配線である。
 第1配線層110の複数の配線91(制御線L1)には、上述したように、例えば、信号STGを伝送する配線(読み出し線)、信号SSELを伝送する配線(選択線)、信号SRSTを伝送する配線(リセット線)等が含まれる。画素駆動部111は、第1配線層110の配線91を介して、信号STG、信号SSEL、信号SRST等を各画素Pに供給し、各画素Pの動作を制御し得る。
 配線92は、第2配線層120に形成され、第1配線層110上に位置している。第2配線層120では、複数の配線92が互いに離間して配置される。第2配線層120には、配線92として、上述した信号線L2(図1、図2参照)が設けられる。配線92は、画素Pからの信号を伝えることが可能な配線である。
 配線92は、画素PのトランジスタAMPに電気的に接続され、画素Pから出力される信号を信号処理部112へ伝送する。撮像素子1の各画素Pは、第2配線層120の配線92を介して、FDに蓄積された電荷に基づく画素信号を信号処理部112へ出力し得る。
 撮像素子1では、配線91及び配線92は、平面視において、分離部30の辺31と直交する方向とは異なる方向に延びるように設けられる。配線91は、第1配線層110において、分離部30における隣り合う2つの辺31と交差する方向に延びている。図3に示す例では、配線91は、上下方向に隣り合う2つの辺31と交差する方向に延びるように設けられる。例えば、撮像素子1では、平面視において、分離部30の辺31と配線91が延びる方向とがなす角(角度)が、40°以上50°以下となっている。
 配線92は、第2配線層120において、分離部30における隣り合う2つの辺31と交差する方向に延びている。図3に示す例では、配線92は、左右方向に隣り合う2つの辺31と交差する方向に延びるように設けられる。例えば、撮像素子1では、平面視において、分離部30の辺31と配線92が延びる方向とがなす角は、40°以上50°以下となっている。
 本実施の形態では、配線91は、図3に示す例のように、平面視において、分離部30の辺31と配線91が延びる方向(図3ではX軸方向)とがなす角が45°となるように設けられる。配線91は、分離部30の辺31に対して、45°傾いて配置されている。分離部30の辺31に対して、配線91の引き出し方向が45°傾いているともいえる。なお、配線91は、所定の性能を達成することができる限りにおいて、分離部30の辺31と配線91が延びる方向とがなす角が略45°となるように形成すればよい。
 配線92は、平面視において、分離部30の辺31と配線92が延びる方向(図3ではY軸方向)とがなす角が45°となるように設けられる。配線92は、分離部30の辺31に対して、45°傾いて配置されている。分離部30の辺31に対して、配線92の引き出し方向が45°傾いているともいえる。なお、配線92は、所定の性能を達成することができる限りにおいて、分離部30の辺31と配線92が延びる方向とがなす角が略45°となるように形成すればよい。また、配線91及び配線92は、配線91が延びる方向と配線92が延びる方向とが直交するように設けられる。
 図4は、実施の形態に係る撮像素子の断面構成の一例を示す図である。また、図5A~図5Cは、実施の形態に係る撮像素子の平面構成の一例を示す図である。図5Aは、撮像素子1の光電変換部12の配置例を示している。また、図5Bは、第1配線層110の配線91の配置例を示し、図5Cは、第2配線層120の配線92の配置例を示している。図5B、図5Cは、それぞれ、制御線L1を含む第1配線層110の配線91の向き、信号線L2を含む第2配線層120の配線92の向きを表している。
 撮像素子1は、図4に示す例のように、受光部10と、導光部20とを有する。受光部10は、対向する第1面11S1及び第2面11S2を有する第1半導体層100を有する。第1半導体層100は、例えば、半導体基板(例えばシリコン基板)により構成される。
 第1半導体層100の第1面11S1側に、導光部20が設けられる。第1半導体層100の第2面11S2側には、多層配線層200が設けられる。多層配線層200は、第1配線層110及び第2配線層120を含んで構成される。第1半導体層100の第2面11S2は、トランジスタ等の素子が形成される素子形成面である。第1半導体層100の第2面11S2には、ゲート電極、ゲート酸化膜等が設けられる。
 撮像素子1は、受光部10と、導光部20と、多層配線層200とがZ軸方向に積層された構成を有する。光学系からの光が入射する側に導光部20が設けられ、光が入射する側とは反対側に多層配線層200が設けられる。撮像素子1は、いわゆる裏面照射型の撮像素子である。
 受光部10では、第1半導体層100の第1面11S1及び第2面11S2に沿って、複数の光電変換部12が設けられる。例えば、第1半導体層100では、複数の光電変換部12が埋め込み形成される。第1半導体層100では、図5Aに示すように、複数の光電変換部12が並んで配置される。
 画素Pの光電変換部12は、例えば、赤外光を光電変換して電荷を生成するように構成される。画素Pは、近赤外光(NIR光)を受光して光電変換し、画素信号を生成し得る。撮像素子1は、例えば、NIR光を検出可能に構成された裏面照射型イメージセンサである。撮像素子1によって得られる各画素Pの画素信号を用いて、赤外画像(NIR画像)を生成することができる。
 第1半導体層100では、隣り合う光電変換部12の間に、トレンチを用いた分離部30が形成される。分離部30は、第1半導体層100の第2面11S2まで達するように形成されてもよい。図4に示す例では、分離部30は、隣り合う複数の光電変換部12の間において、第1半導体層100を貫通している。
 第1配線層110の配線91は、平面視において、分離部30の辺31と配線91が延びる方向とがなす角が45°となるように、図5Bでは左右方向(X軸方向)に配線される。また、第2配線層120の配線92は、平面視において、分離部30の辺31と配線92が延びる方向とがなす角が45°となるように、図5Cでは上下方向(Y軸方向)に配線される。
 第1半導体層100及び多層配線層200には、例えば、上述した画素Pの各トランジスタ(トランジスタTG、トランジスタSEL、トランジスタRST、トランジスタAMP等)が形成される。
 導光部20は、第1半導体層100の第1面11S1と直交する厚さ方向において、受光部10に積層される。導光部20は、レンズ部21を有し、上方から入射する光を受光部10側へ導く。レンズ部21は、オンチップレンズとも呼ばれる光学部材である。レンズ部21は、例えば、画素P毎または複数の画素P毎に、光電変換部12の上方に設けられる。
 レンズ部21には、撮像レンズ等の光学系(不図示)を介して被写体からの光が入射する。光電変換部12は、レンズ部21を介して入射する光を光電変換する。なお、撮像素子1は、例えばレンズ部21と光電変換部12との間に、赤外光を透過するフィルタ、RGBのカラーフィルタ等を有していてもよい。
 また、図4に示す例では、撮像素子1には、絶縁層25と、遮光部26とが設けられる。絶縁層25は、レンズ部21が設けられる層と、光電変換部12が設けられる層との間に設けられる。絶縁層25は、例えば、酸化膜、窒化膜、酸窒化膜等を用いて構成される。絶縁層25は、酸化膜(例えばシリコン酸化膜)、窒化膜(例えばシリコン窒化膜)、酸窒化膜等のうちの1種よりなる単層膜、又はこれらのうちの2種以上よりなる積層膜により形成されてもよい。絶縁層25の材料及び構成は、特に限定されるものではない。絶縁層25は、例えば、金属化合物(金属酸化物、金属窒化物等)を用いて構成されてもよいし、他の絶縁材料を用いて構成されてよい。絶縁層25は、平坦化層(平坦化膜)ともいえる。なお、導光部20は、絶縁層25及び遮光部26を含んで構成されてもよい。
 遮光部26(遮光膜)は、光を遮る部材により構成され、隣り合う複数の画素Pの境界に設けられる。遮光部26(遮光部材)は、例えば、絶縁層25上に形成され、図4に示す例では分離部30の上方に位置している。遮光部26は、例えば、光を遮光する金属材料(アルミニウム(Al)、タングステン(W)、銅(Cu)等)により構成される。図4に示す例では、遮光部26は、隣り合うレンズ部21の境界に位置し、周囲の画素に光が漏れることを抑制する。なお、遮光部26は、光を吸収する材料により構成されてもよい。
 撮像素子1では、レンズ部21、遮光部26、分離部30、及び光電変換部12等の位置が、画素部101(画素アレイ)の中心からの距離、即ち、像高に応じて異なるように構成され得る。レンズ部21、遮光部26、及び光電変換部12等の位置が像高に応じて調整され、瞳補正が行われる。画素部101の中央部分よりも外側に位置する周辺部分、即ち画素部101の中央から離れた領域では、被写体からの光の入射方向に対応して、遮光部26は、隣り合うレンズ部21の境界からシフトし、また分離部30の位置からシフトして設けられる。なお、画素部101の中央領域では、画素Pは、例えば図4に示すように構成される。
 撮像素子1では、レンズ部21を介して或る画素Pの光電変換部12に入射した光の一部は、多層配線層200に到達して多層配線層200の配線で反射、散乱され、周辺の画素Pの光電変換部12に入射(再入射)する場合がある。この場合、多層配線層200の配線が延びる方向、又は多層配線層200の配線が延びる方向と直交する方向に、光が多く反射される傾向がある。
 レンズ部21を介して光電変換部12に入射した光の一部は、例えば、図4において破線矢印で示すように、光電変換部12を透過して第1配線層110の配線91(又は第2配線層120の配線92)で反射され、分離部30の下方を通って周囲の画素Pに漏れ込む場合がある。また、例えば、第1配線層110の配線91(又は第2配線層120の配線92)で反射された光が、分離部30を透過して周囲の画素Pに漏れ込み、混色が生じるおそれもある。
 多層配線層200の配線のレイアウトによっては、その或る画素Pから特定の方向に位置する画素Pにのみ反射光が多く漏れ込み、周辺画素間で漏れ込む光の光量に大きな差異が生じるおそれがある。このため、画素信号を用いて生成される画像の画質低下、光検出の精度の低下が生じるおそれがある。特に近赤外光等の長波長の光を受光する画素の場合に、隣接画素へ光が漏れ込む現象が生じ、画像の画質低下、近赤外光の検出精度の低下が生じ易い傾向がある。
 そこで、本実施の形態に係る撮像素子1では、上述したように、第1配線層110の配線91及び第2配線層120の配線92は、平面視において、分離部30の辺31に直交する方向とは異なる方向に延びるように設けられる。これにより、反射光を分散させることができ、各画素Pに漏れ込む光の光量の差異を低減することが可能となる。
 図6は、実施の形態に係る撮像素子における反射による隣接画素への光の漏れ込みを説明するための図である。図6では、中央の画素Pで反射・散乱された光が周囲の画素Pに漏れ込むことを模式的に表している。撮像素子1では、上述したように、第1配線層110の配線91及び第2配線層120の配線92は、X軸方向及びY軸方向に配線される。配線91及び配線92は、分離部30の辺31に対して45°傾いて配置される。
 図6に模式的に示すように、中央の画素Pに入射した光の一部は、配線91及び配線92のレイアウトの影響により、X軸方向及びY軸方向へ反射される。中央の画素Pから上下方向または左右方向に位置する画素Pと、中央の画素Pから斜め方向に位置する画素Pに、中央の画素Pの配線91又は配線92で反射された光が漏れ込むことになる。即ち、中央の画素Pの面(面部)に接する画素Pと、中央の画素Pの角(角部)に接する画素Pに、反射光を入射させることができる。
 本実施の形態に係る撮像素子1は、画素Pの光電変換部12を通過して多層配線層200に入射した光を、その画素Pの周囲の各画素Pへ導き、各画素Pに漏れ込む光の光量の差を低減することができる。画像の画質低下を抑制し、光検出の精度の低下を抑制することが可能となる。以下では、比較例と対比して、本実施の形態に係る撮像素子1についてさらに説明する。
 図7は、比較例に係る撮像素子の構成例を示す図である。比較例は、図7に示すように、第1配線層110の配線91及び第2配線層120の配線92が、分離部30の辺31と直交する方向に延びるように配置される場合である。図8は、比較例に係る撮像素子における反射による隣接画素への光の漏れ込みを説明するための図である。また、図9は、比較例に係る撮像素子により得られる画像の一例を示す図である。
 比較例の場合、図8に示すように、中央の画素Pの光電変換部12を透過した光は、配線91及び配線92のレイアウトの影響により、中央の画素Pから上下方向または左右方向に位置する画素Pへ反射される。このため、比較例の場合は、光が入射した画素(図8では中央の画素P)から上下方向または左右方向に位置する画素と、光が入射した画素から斜め方向に位置する画素とで、漏れ込む反射光の光量が大きく異なり、画素の信号に反射光に起因する差異が生じてしまう。
 このため、比較例では、長波長のスポット光が中央の画素Pに入射する場合、図9に示すように、反射光に起因するダイヤモンド形状(又は十字形状)の画像が生成され、画質が低下する。また、画像に含まれる物体のエッジ検出を行うことが困難となる。特に、FTI構造の分離部30を有する撮像素子の場合に、ダイヤモンド状(十字状)の特徴的な出力画像が顕著に生じやすい。
 これに対し、本実施の形態では、上述したように、第1配線層110の配線91及び第2配線層120の配線92が、分離部30の辺31に対して45°傾いて設けられる。これにより、光が入射した画素から上下方向または左右方向に位置する画素と、光が入射した画素から斜め方向に位置する画素に、反射光を分散させることができる。このため、反射光に起因するダイヤモンド状または十字状の画像が生じることを防ぐことができ、画像の画質を改善することができる。また、光検出の精度の低下を抑制することが可能となる。
 図10A~図10Cは、実施の形態に係る撮像素子のFD共有ユニットの配置例を示す図である。撮像素子1では、図10Aに示す例のように、複数の画素Pを含むFD共有ユニット40が、アレイ状に配置されていてもよい。FD共有ユニット40は、例えば、隣り合う4つの画素Pにより構成される。
 本実施の形態では、上述したように、第1配線層110の配線91及び第2配線層120の配線92が分離部30の辺31に対して45°傾いて設けられる。このため、図10A~図10Cに示すように、第1半導体層100、第1配線層110、及び第2配線層120の各々におけるFD共有ユニット40a,40b,40cの領域の形状が互いに異なっている。
 第1配線層110のFD共有ユニット40bは、図10Bに示すように、横長の形状を有し、上下に隣り合うFD共有ユニット40bの行の間で半周期ずれて配置される。第1配線層110では、行方向(左右方向)に並ぶ複数のFD共有ユニット40bに共通して、制御線L1が配線される。
 第2配線層120のFD共有ユニット40cは、図10Cに示すように、第1配線層110のFD共有ユニット40bの形状を90°回したような形状となる。第2配線層120では、列方向(上下方向)に並ぶ複数のFD共有ユニット40cに共通して、信号線L2が配線される。
 図11A~図11Cは、実施の形態に係る撮像素子のレイアウト例を示す図である。図11Aは、第1半導体層100、第1配線層110、及び第2配線層120のうち、第1半導体層100におけるレイアウト例を示している。図11Bは、第1配線層110におけるレイアウト例を示し、図11Cは、第2配線層120におけるレイアウト例を示している。
 図11Aに示すように、第1配線層110には、光電変換部12であるフォトダイオード(PD)、トランジスタTG(TG1~TG4)、トランジスタAMP、トランジスタSEL、トランジスタRST等が設けられる。FD共有ユニット40では、隣り合う4つの画素Pにより構成される2×2画素がFDを共有する。FD共有ユニット40は1つのFDを共有する単位であり、FD共有ユニット40の複数の画素(図1では4つの画素P)が1つのFDを共有する。
 第1半導体層100、第1配線層110、及び第2配線層120の各々におけるFD共有ユニット40の形状は、互いに異なっている。このため、第1半導体層100のトランジスタ等と第1配線層110の配線91とを結ぶビア(VIA)は、第1半導体層100のFD共有ユニット40aの領域と、第1配線層110のFD共有ユニット40bの領域とが重なり合う領域内に形成される。図11Aでは、ビアを白丸で図示している。各FD共有ユニット40では、その重なり合う領域の範囲内において複数のビアが配置される。
 また、第1配線層110の配線91と第2配線層120の配線92とを結ぶビアは、第1配線層110のFD共有ユニット40bの領域と、第2配線層120のFD共有ユニット40cの領域とが重なり合う領域内に形成される。図11Bでは、これらのビアを白丸で図示している。各FD共有ユニット40では、ビアを介して、図11B及び図11Cに示すように、第1配線層110の配線91と第2配線層120の配線92とが電気的に接続される。
[作用・効果]
 本実施の形態に係る光検出素子は、光を光電変換する複数の光電変換部(光電変換部12)を有する第1半導体層(第1半導体層100)と、第1半導体層において光電変換部を囲むように設けられる分離部(分離部30)と、光電変換部を含む画素を制御する信号を伝えることが可能な第1配線(配線91)を有し、第1半導体層に積層される第1配線層(第1配線層110)とを備える。第1配線は、平面視において、分離部の辺と直交する方向とは異なる方向に延びている。
 本実施の形態に係る光検出素子(撮像素子1)では、第1配線層110の配線91は、平面視において、分離部30の辺31と直交する方向とは異なる方向に延びている。このため、反射光を分散させることができ、各画素Pに漏れ込む光の光量の差異を低減することができる。このため、画像の画質低下を抑制することができる。良好な検出性能を有する光検出素子を実現することが可能となる。
 次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜説明を省略する。
<2.変形例>
(2-1.変形例1)
 上述した実施の形態では、画素P及びFD共有ユニット40の構成例について説明したが、画素P及びFD共有ユニット40の構成は上述した例に限られない。例えば、図12A~図12Cに模式的に示すように、FD共有ユニット40は、2×4画素がFDを共有する構成を有していてもよい。この場合、図12B及び図12Cに示すように、第1配線層110のFD共有ユニット40bの形状と第2配線層120のFD共有ユニット40cの形状を、同一の形状(例えば正方形の形状)とすることが可能となる。
(2-2.変形例2)
 図13は、変形例2に係る撮像素子の構成例を説明するための図である。撮像素子1は、図13に示すように、第2半導体層150を有していてもよい。第2半導体層150には、画素Pの各トランジスタの少なくとも一部が設けられ得る。
 例えば、上述したトランジスタTG、トランジスタAMP、トランジスタSEL、及びトランジスタRSTが、第1半導体層100と第2半導体層150に分けて配置され、チップ面積の増大を抑えることができる。一例として、第1半導体層100にトランジスタTGを配置し、第2半導体層150にトランジスタAMP、トランジスタSEL、及びトランジスタRSTを配置してもよい。
 なお、第2半導体層150は、図13に示すように、第1半導体層100と第1配線層110との間に設けるようにしてもよい。また、図14に示すように、第2半導体層150を、第1配線層110と第2配線層120との間に設けるようにしてもよい。
(2-3.変形例3)
 図15は、変形例3に係る撮像素子の断面構成の一例を示す図である。撮像素子1の光電変換部12は、図15に模式的に示すように、第1半導体層100の第1面11S1側に、四角錐の形状を有していてもよい。即ち、撮像素子1は、受光面側に逆四角錐型の溝構造の光電変換部12を有し、モスアイ構造を有する。
 図16A及び図16Bは、変形例3に係る撮像素子の平面構成の一例を示す図である。図16A及び図16Bでは、画素Pの光電変換部12の基板面方位の一例を図示している。撮像素子1では、平面視において、光電変換部12の四角錐の底辺15と、分離部30の辺31とがなす角は、40°以上50°以下となっている。
 図16Aに示すように、四角錐の底辺15と分離部30の辺31とがなす角が45°となるように、光電変換部12を設けてもよい。これにより、上述した実施の形態の場合と同様に、多層配線層200における反射・散乱の異方性を緩和することができる。画像の画質低下を抑制し、また、光検出の精度の低下を抑制することが可能となる。
 なお、図16Bに示すように、四角錐の底辺15が分離部30の辺31に沿うように、光電変換部12を設けてもよい。図16Bに示す例では、四角錐の底辺15と分離部30の辺31とが平行となるように、光電変換部12が形成されている。図16Aの場合と比較して、モスアイ構造のサイズを大きくすることができ、受光感度を向上させることが可能となる。なお、本変形例に係る撮像素子1も、上述した第2半導体層150を有していてもよい。
<3.使用例>
 本開示に係る光検出素子(撮像素子1)は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビジョンや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<4.応用例>
(移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図17は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図18は、撮像部12031の設置位置の例を示す図である。
 図18では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図18には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る移動体制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、撮像素子1等は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、高精細な撮影画像を得ることができ、移動体制御システムにおいて撮影画像を利用した高精度な制御を行うことができる。
(内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図19は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図19では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図20は、図19に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100のカメラヘッド11102に設けられた撮像部11402に好適に適用され得る。撮像部11402に本開示に係る技術を適用することにより、撮像部11402を高感度化することができ、高精細な内視鏡11100を提供することができる。
 以上、実施の形態、変形例および使用例ならびに応用例を挙げて本開示を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上述した変形例は、上記実施の形態の変形例として説明したが、各変形例の構成を適宜組み合わせることができる。
 本開示の一実施形態の光検出素子は、複数の光電変換部を有する第1半導体層と、第1半導体層において光電変換部を囲むように設けられる分離部と、光電変換部を含む画素を制御する信号を伝えることが可能な第1配線を有し、第1半導体層に積層される第1配線層とを備える。第1配線は、平面視において、分離部の辺と直交する方向とは異なる方向に延びている。このため、反射光を分散させることができ、画像の画質低下を抑制することができる。良好な検出性能を有する光検出素子を実現することが可能となる。
 なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。また、本開示は以下のような構成をとることも可能である。
(1)
 光を光電変換する複数の光電変換部を有する第1半導体層と、
 前記第1半導体層において前記光電変換部を囲むように設けられる分離部と、
 前記光電変換部を含む画素を制御する信号を伝えることが可能な第1配線を有し、前記第1半導体層に積層される第1配線層と
 を備え、
 前記第1配線は、平面視において、前記分離部の辺と直交する方向とは異なる方向に延びている
 光検出素子。
(2)
 前記第1配線は、平面視において、前記分離部における隣り合う2つの辺と交差する方向に延びている
 前記(1)に記載の光検出素子。
(3)
 平面視において、前記分離部の辺と前記第1配線が延びる方向とがなす角が40°以上50°以下である
 前記(1)または(2)に記載の光検出素子。
(4)
 前記第1配線は、平面視において、前記分離部の辺と前記第1配線が延びる方向とがなす角が45°となるように設けられている
 前記(1)から(3)のいずれか1つに記載の光検出素子。
(5)
 前記画素からの信号を伝えることが可能な第2配線を有し、前記第1配線層に積層される第2配線層を備え、
 前記第2配線は、前記第2配線層において、前記分離部の辺と前記第1配線が延びる方向の各々と交差する方向に延びている
 前記(1)から(4)のいずれか1つに記載の光検出素子。
(6)
 平面視において、前記分離部の辺と前記第2配線が延びる方向とがなす角が40°以上50°以下である
 前記(5)に記載の光検出素子。
(7)
 前記第2配線は、平面視において、前記分離部の辺と前記第2配線が延びる方向とがなす角が45°となるように設けられている
 前記(5)または(6)に記載の光検出素子。
(8)
 前記第2配線は、平面視において、前記第1配線が延びる方向と前記第2配線が延びる方向とが直交するように設けられる
 前記(5)から(7)のいずれか1つに記載の光検出素子。
(9)
 前記画素は、前記光電変換部と、電荷を蓄積可能な蓄積部と、前光電変換部で光電変換された電荷を前記蓄積部に転送可能な第1トランジスタと、前記蓄積部に蓄積された電荷に基づく信号を出力可能な第2トランジスタとを有する
 前記(5)から(8)のいずれか1つに記載の光検出素子。
(10)
 前記第1配線層は、前記第1配線として、前記第1トランジスタを制御する信号を伝えることが可能な配線を含む
 前記(5)から(9)のいずれか1つに記載の光検出素子。
(11)
 前記第2配線層は、前記第2配線として、前記第2トランジスタに電気的に接続され、前記蓄積部に蓄積された電荷に基づく信号を伝えることが可能な配線を含む
 前記(5)から(10)のいずれか1つに記載の光検出素子。
(12)
 前記第1半導体層と前記第1配線層との間、又は前記第1配線層と前記第2配線層との間に設けられる第2半導体層を有し、
 前記第1半導体層は、前記第1トランジスタを有し、
 前記第2半導体層は、前記第2トランジスタを有する
 前記(5)から(11)のいずれか1つに記載の光検出素子。
(13)
 前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
 平面視において、前記四角錐の底辺は、前記分離部の辺に対して40°以上50°以下傾いている
 前記(5)から(12)のいずれか1つに記載の光検出素子。
(14)
 前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
 前記光電変換部は、平面視において、前記四角錐の底辺が前記分離部の辺に対して45°傾くように設けられている
 前記(5)から(13)のいずれか1つに記載の光検出素子。
(15)
 前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
 平面視において、前記四角錐の底辺は、前記分離部の辺に沿うように設けられている
 前記(5)から(14)のいずれか1つに記載の光検出素子。
(16)
 前記分離部は、隣り合う複数の前記光電変換部の間において前記第1半導体層を貫通する
 前記(5)から(15)のいずれか1つに記載の光検出素子。
(17)
 前記光検出素子は、裏面照射型の撮像素子である
 前記(5)から(16)のいずれか1つに記載の光検出素子。
(18)
 前記第1半導体層の第1面側に設けられるレンズを有し、
 前記第1配線層は、前記第1半導体層の第1面とは反対の第2面側に設けられる
 前記(5)から(17)のいずれか1つに記載の光検出素子。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (18)

  1.  光を光電変換する複数の光電変換部を有する第1半導体層と、
     前記第1半導体層において前記光電変換部を囲むように設けられる分離部と、
     前記光電変換部を含む画素を制御する信号を伝えることが可能な第1配線を有し、前記第1半導体層に積層される第1配線層と
     を備え、
     前記第1配線は、平面視において、前記分離部の辺と直交する方向とは異なる方向に延びている
     光検出素子。
  2.  前記第1配線は、平面視において、前記分離部における隣り合う2つの辺と交差する方向に延びている
     請求項1に記載の光検出素子。
  3.  平面視において、前記分離部の辺と前記第1配線が延びる方向とがなす角が40°以上50°以下である
     請求項1に記載の光検出素子。
  4.  前記第1配線は、平面視において、前記分離部の辺と前記第1配線が延びる方向とがなす角が45°となるように設けられている
     請求項1に記載の光検出素子。
  5.  前記画素からの信号を伝えることが可能な第2配線を有し、前記第1配線層に積層される第2配線層を備え、
     前記第2配線は、前記第2配線層において、前記分離部の辺と前記第1配線が延びる方向の各々と交差する方向に延びている
     請求項1に記載の光検出素子。
  6.  平面視において、前記分離部の辺と前記第2配線が延びる方向とがなす角が40°以上50°以下である
     請求項5に記載の光検出素子。
  7.  前記第2配線は、平面視において、前記分離部の辺と前記第2配線が延びる方向とがなす角が45°となるように設けられている
     請求項5に記載の光検出素子。
  8.  前記第2配線は、平面視において、前記第1配線が延びる方向と前記第2配線が延びる方向とが直交するように設けられる
     請求項5に記載の光検出素子。
  9.  前記画素は、前記光電変換部と、電荷を蓄積可能な蓄積部と、前光電変換部で光電変換された電荷を前記蓄積部に転送可能な第1トランジスタと、前記蓄積部に蓄積された電荷に基づく信号を出力可能な第2トランジスタとを有する
     請求項5に記載の光検出素子。
  10.  前記第1配線層は、前記第1配線として、前記第1トランジスタを制御する信号を伝えることが可能な配線を含む
     請求項9に記載の光検出素子。
  11.  前記第2配線層は、前記第2配線として、前記第2トランジスタに電気的に接続され、前記蓄積部に蓄積された電荷に基づく信号を伝えることが可能な配線を含む
     請求項9に記載の光検出素子。
  12.  前記第1半導体層と前記第1配線層との間、又は前記第1配線層と前記第2配線層との間に設けられる第2半導体層を有し、
     前記第1半導体層は、前記第1トランジスタを有し、
     前記第2半導体層は、前記第2トランジスタを有する
     請求項9に記載の光検出素子。
  13.  前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
     平面視において、前記四角錐の底辺は、前記分離部の辺に対して40°以上50°以下傾いている
     請求項5に記載の光検出素子。
  14.  前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
     前記光電変換部は、平面視において、前記四角錐の底辺が前記分離部の辺に対して45°傾くように設けられている
     請求項5に記載の光検出素子。
  15.  前記光電変換部は、前記第1半導体層の第1面側において四角錐の形状を有し、
     平面視において、前記四角錐の底辺は、前記分離部の辺に沿うように設けられている
     請求項5に記載の光検出素子。
  16.  前記分離部は、隣り合う複数の前記光電変換部の間において前記第1半導体層を貫通する
     請求項5に記載の光検出素子。
  17.  前記光検出素子は、裏面照射型の撮像素子である
     請求項5に記載の光検出素子。
  18.  前記第1半導体層の第1面側に設けられるレンズを有し、
     前記第1配線層は、前記第1半導体層の第1面とは反対の第2面側に設けられる
     請求項5に記載の光検出素子。
PCT/JP2022/044090 2022-11-30 2022-11-30 光検出素子 Ceased WO2024116302A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/044090 WO2024116302A1 (ja) 2022-11-30 2022-11-30 光検出素子

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/044090 WO2024116302A1 (ja) 2022-11-30 2022-11-30 光検出素子

Publications (1)

Publication Number Publication Date
WO2024116302A1 true WO2024116302A1 (ja) 2024-06-06

Family

ID=91323419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/044090 Ceased WO2024116302A1 (ja) 2022-11-30 2022-11-30 光検出素子

Country Status (1)

Country Link
WO (1) WO2024116302A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004095966A (ja) * 2002-09-02 2004-03-25 Fujitsu Ltd 固体撮像装置及び画像読み出し方法
JP2007189085A (ja) * 2006-01-13 2007-07-26 Sony Corp 固体撮像装置
JP2021168316A (ja) * 2018-07-13 2021-10-21 ソニーセミコンダクタソリューションズ株式会社 センサ素子および電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004095966A (ja) * 2002-09-02 2004-03-25 Fujitsu Ltd 固体撮像装置及び画像読み出し方法
JP2007189085A (ja) * 2006-01-13 2007-07-26 Sony Corp 固体撮像装置
JP2021168316A (ja) * 2018-07-13 2021-10-21 ソニーセミコンダクタソリューションズ株式会社 センサ素子および電子機器

Similar Documents

Publication Publication Date Title
US12506976B2 (en) Solid-state imaging device and electronic apparatus
JP7753091B2 (ja) 固体撮像装置および電子機器
TWI779025B (zh) 影像感測器及用於製造影像感測器之方法
US20240395838A1 (en) Imaging device
US20230215889A1 (en) Imaging element and imaging device
JP7631226B2 (ja) 固体撮像装置および電子機器
JP2024174999A (ja) 撮像装置
US20240038807A1 (en) Solid-state imaging device
WO2023234069A1 (ja) 撮像装置および電子機器
WO2023079835A1 (ja) 光電変換装置
WO2024116302A1 (ja) 光検出素子
JP7665537B2 (ja) 固体撮像素子および電子機器
JP7316340B2 (ja) 固体撮像装置および電子機器
WO2024142627A1 (en) Photodetector and electronic apparatus
US20260033026A1 (en) Photodetection device and ranging system
WO2024057814A1 (ja) 光検出装置および電子機器
WO2024024515A1 (ja) 光検出素子および測距システム
WO2024252897A1 (ja) 光検出装置および電子機器
WO2024127853A1 (ja) 光検出装置及び電子機器
WO2025198036A1 (ja) 光検出装置および電子機器
WO2023188899A1 (ja) 光検出装置及び電子機器
WO2024202748A1 (ja) 光検出装置および電子機器
JP2025026279A (ja) 撮像装置
WO2025150446A1 (ja) 光検出装置および電子機器
WO2024203630A1 (ja) 光検出装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22967135

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22967135

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP