WO2025041370A1 - 光検出装置および電子機器 - Google Patents
光検出装置および電子機器 Download PDFInfo
- Publication number
- WO2025041370A1 WO2025041370A1 PCT/JP2024/008972 JP2024008972W WO2025041370A1 WO 2025041370 A1 WO2025041370 A1 WO 2025041370A1 JP 2024008972 W JP2024008972 W JP 2024008972W WO 2025041370 A1 WO2025041370 A1 WO 2025041370A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- photoelectric conversion
- pixel
- conversion element
- wavelength
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10F—INORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
- H10F39/00—Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
- H10F39/10—Integrated devices
- H10F39/12—Image sensors
- H10F39/18—Complementary metal-oxide-semiconductor [CMOS] image sensors; Photodiode array image sensors
Definitions
- This disclosure relates to a light detection device and electronic equipment.
- a light detection device includes an optical layer having a plurality of structures arranged in a first direction, a plurality of first pixels each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the spacing between the first pixels is different from the spacing between the second pixels.
- the light receiving area of the first photoelectric conversion element is different from the light receiving area of the second photoelectric conversion element.
- a light detection device includes an optical layer having a plurality of structures arranged in a first direction, a plurality of first pixels each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the spacing between the first pixels is different from the spacing between the second pixels.
- the first pixels have a first light-shielding member provided between the optical layer and the first photoelectric conversion element and having a first opening through which light is incident.
- the second pixels have a second light-shielding member provided between the optical layer and the second photoelectric conversion element and having a second opening through which light is incident.
- a photodetector includes an optical layer having a plurality of structures arranged in a first direction, a first pixel having a first lens and a first photoelectric conversion element that receives light of a first wavelength through the optical layer and the first lens, and a second pixel having a second lens and a second photoelectric conversion element that receives light of a second wavelength through the optical layer and the second lens, wherein the size of the first lens is different from the size of the second lens.
- a photodetector includes an optical layer having a plurality of structures arranged in a first direction, a first pixel having a first filter and a first photoelectric conversion element that receives light of a first wavelength through the optical layer and the first filter, and a second pixel having a second filter and a second photoelectric conversion element that receives light of a second wavelength through the optical layer and the second filter, the first filter and the second filter having different thicknesses or materials.
- An electronic device includes an optical system and a photodetector that receives light transmitted through the optical system.
- the photodetector includes an optical layer having a plurality of structures arranged in a first direction, a plurality of first pixels each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the spacing between the first pixels is different from the spacing between the second pixels.
- the light receiving area of the first photoelectric conversion element is different from the light receiving area of the second photoelectric conversion element.
- An optical detection device includes an optical layer having a plurality of first structures arranged in a first direction, a first photoelectric conversion element provided in a semiconductor layer, a first filter provided between the optical layer and the first photoelectric conversion element and transmitting light of a first wavelength, and a first light-guiding member provided between the first filter and the first photoelectric conversion element and guiding light incident through the optical layer and the first filter to the first photoelectric conversion element.
- an electronic device includes an optical system and a photodetector that receives light transmitted through the optical system.
- the photodetector includes an optical layer having a plurality of first structures arranged to be aligned in a first direction, a first photoelectric conversion element provided in a semiconductor layer, a first filter provided between the optical layer and the first photoelectric conversion element and transmitting light of a first wavelength, and a first light guiding member provided between the first filter and the first photoelectric conversion element and guiding light incident through the optical layer and the first filter to the first photoelectric conversion element.
- FIG. 1 is a block diagram illustrating an example of a schematic configuration of an imaging device which is an example of a light detection device according to a first embodiment of the present disclosure.
- FIG. 2 is a diagram for explaining an example of a circuit configuration of a pixel of the imaging device according to the first embodiment of the present disclosure.
- FIG. 3 is a diagram illustrating an example of a planar configuration of the imaging device according to the first embodiment of the present disclosure.
- FIG. 4 is a diagram illustrating an example of a cross-sectional configuration of the imaging device according to the first embodiment of the present disclosure.
- FIG. 5A is a diagram for explaining an example of a planar configuration of a light guiding section of the imaging device according to the first embodiment of the present disclosure.
- FIG. 1 is a block diagram illustrating an example of a schematic configuration of an imaging device which is an example of a light detection device according to a first embodiment of the present disclosure.
- FIG. 2 is a diagram for explaining an example of a circuit configuration of a
- FIG. 5B is a diagram for explaining an example of a planar configuration of the light guiding section of the imaging device according to the first embodiment of the present disclosure.
- FIG. 6 is a diagram for explaining a configuration example of an imaging device according to the first embodiment of the present disclosure.
- FIG. 7 is a diagram for explaining a configuration example of the imaging device according to the first embodiment of the present disclosure.
- FIG. 8A is a diagram for explaining a configuration example of an imaging device according to the first embodiment of the present disclosure.
- FIG. 8B is a diagram for explaining a configuration example of the imaging device according to the first embodiment of the present disclosure.
- FIG. 8C is a diagram for explaining a configuration example of the imaging device according to the first embodiment of the present disclosure.
- FIG. 8A is a diagram for explaining a configuration example of an imaging device according to the first embodiment of the present disclosure.
- FIG. 8B is a diagram for explaining a configuration example of the imaging device according to the first embodiment of the present disclosure.
- FIG. 8C is
- FIG. 9 is a diagram illustrating an example of quantum efficiency of a pixel of an imaging device according to a comparative example of the present disclosure.
- FIG. 10 is a diagram illustrating an example of the quantum efficiency of a pixel of the imaging device according to the first embodiment of the present disclosure.
- FIG. 11A is a diagram for explaining another configuration example of the photodetector according to the first embodiment of the present disclosure.
- FIG. 11B is a diagram for explaining another configuration example of the photodetector according to the first embodiment of the present disclosure.
- FIG. 11C is a diagram for explaining another configuration example of the photodetector according to the first embodiment of the present disclosure.
- FIG. 12 is a diagram illustrating an example of a planar configuration of an imaging device according to the first modification of the present disclosure.
- FIG. 12 is a diagram illustrating an example of a planar configuration of an imaging device according to the first modification of the present disclosure.
- FIG. 13 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to the first modification of the present disclosure.
- FIG. 14 is a diagram illustrating an example of quantum efficiency of a pixel of an imaging device according to a comparative example of the present disclosure.
- FIG. 15 is a diagram illustrating an example of the quantum efficiency of a pixel of an imaging device according to the first modification of the present disclosure.
- FIG. 16 is a diagram illustrating an example of a planar configuration of an imaging device according to the second embodiment of the present disclosure.
- FIG. 17 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to the second embodiment of the present disclosure.
- FIG. 18 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to the second embodiment of the present disclosure.
- FIG. 19 is a diagram for explaining another configuration example of the imaging device according to the second embodiment of the present disclosure.
- FIG. 20 is a diagram illustrating an example of a planar configuration of an imaging device according to the third embodiment of the present disclosure.
- FIG. 21 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to a third embodiment of the present disclosure.
- FIG. 22 is a diagram for explaining another configuration example of the imaging device according to the third embodiment of the present disclosure.
- FIG. 23 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to a fourth embodiment of the present disclosure.
- FIG. 24 is a diagram for explaining another configuration example of the imaging device according to the fourth embodiment of the present disclosure.
- FIG. 25 is a diagram illustrating an example of a cross-sectional configuration of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 26 is a diagram for explaining a configuration example of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 27 is a diagram illustrating an example of a cross-sectional configuration at different image height positions of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 28 is a diagram for explaining a configuration example of an imaging device according to a fifth embodiment of the present disclosure. As shown in FIG. FIG. FIG.
- FIG. 29 is a diagram for explaining a configuration example of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 30 is a diagram for explaining a configuration example of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 31 is a diagram for explaining an example of a cross-sectional configuration of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 32 is a diagram for explaining an example of a planar configuration of an imaging device according to the fifth embodiment of the present disclosure.
- FIG. 33 is a diagram for explaining an example of a cross-sectional configuration of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 30 is a diagram for explaining a configuration example of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 31 is a diagram for explaining an example of a cross-sectional configuration of an imaging device according to a fifth embodiment of the present disclosure.
- FIG. 32 is a diagram for explaining an example of a planar configuration of an imaging device according to
- First embodiment 1 is a block diagram showing an example of a schematic configuration of an imaging device which is an example of a light detection device according to a first embodiment of the present disclosure.
- the light detection device is a device capable of detecting incident light.
- the imaging device 1 which is a light detection device has a plurality of pixels P each having a photoelectric conversion unit (photoelectric conversion element) and is configured to perform photoelectric conversion of the incident light to generate a signal.
- the imaging device 1 captures incident light (image light) from a subject to be measured via an optical system including an optical lens.
- the imaging device 1 captures an image of the subject formed by the optical lens.
- the imaging device 1 can generate pixel signals by photoelectrically converting the received light (e.g. visible light, infrared light, etc.).
- the imaging device 1, which is a light detection device, is a device that can receive incident light and generate a signal, and can also be called a light receiving device.
- a plurality of control lines Lread are wired to the pixel section 100 for each pixel row made up of a plurality of pixels P arranged in the horizontal direction (row direction).
- the control lines Lread are configured to transmit control signals for reading out signals from the pixels P.
- the control lines Lread can also be considered drive lines (pixel drive lines) that transmit signals that drive the pixels P.
- the signal line VSL is a signal line capable of transmitting a signal from a pixel P, and is connected to the pixel P of the pixel unit 100 and the signal processing unit 112.
- the pixel unit 100 for example, one or more signal lines VSL are wired for each pixel column composed of multiple pixels P lined up in the vertical direction (column direction).
- the signal line VSL is configured to be able to transmit a signal output from the pixel P.
- multiple signal lines VSL may be provided for one pixel column.
- the imaging device 1 may have multiple signal lines VSL for each pixel column.
- the pixel control unit 111 is configured to be able to control each pixel P of the pixel unit 100.
- the pixel control unit 111 is a control circuit and is configured with multiple circuits including, for example, a buffer, a shift register, an address decoder, etc.
- the pixel control unit 111 generates signals for controlling the pixels P and outputs them to each pixel P of the pixel unit 100 via the control line Lread.
- the pixel control unit 111 is controlled by the control unit 113 and controls the pixels P of the pixel unit 100.
- the processing unit 114 is configured to be able to perform signal processing on the input signal.
- the processing unit 114 is a processing circuit, and is configured, for example, by a circuit that performs various types of signal processing on pixel signals.
- the processing unit 114 may include a processor and a memory.
- the processing unit 114 performs signal processing on pixel signals input from the signal processing unit 112, and outputs the processed pixel signals.
- the processing unit 114 can perform various types of signal processing, for example, noise reduction processing, tone correction processing, etc.
- the control unit 113 is configured to be able to control each unit of the imaging device 1.
- the control unit 113 receives an externally provided clock, data instructing the operation mode, etc., and can also output data such as internal information of the imaging device 1.
- the control unit 113 is a control circuit, and has, for example, a timing generator configured to be able to generate various timing signals.
- the control unit 113 performs drive control of the pixel control unit 111, the signal processing unit 112, etc., based on the various timing signals (pulse signals, clock signals, etc.) generated by the timing generator.
- the pixel section 100, pixel control section 111, signal processing section 112, etc. described above may be provided on a single substrate.
- the pixel control section 111, signal processing section 112, control section 113, processing section 114, etc. may be provided on a single semiconductor substrate, or may be provided separately on multiple semiconductor substrates.
- the imaging device 1 may have a layered structure formed by stacking multiple substrates. Some or all of the signal processing section 112, control section 113, and processing section 114 may be configured integrally.
- FIG. 2 is a diagram for explaining an example of a circuit configuration of a pixel of the imaging device according to the first embodiment.
- the pixel P has a photoelectric conversion unit 12 (photoelectric conversion element) and a readout circuit 20.
- the photoelectric conversion unit 12 is configured to receive light and generate a signal.
- the readout circuit 20 is configured to be capable of outputting a signal based on charges photoelectrically converted.
- the readout circuit 20 can read out a pixel signal based on the charges photoelectrically converted by the photoelectric conversion unit 12.
- the read circuit 20 includes, as an example, a transistor TRG, a floating diffusion FD, a transistor AMP, a transistor SEL, and a transistor RST.
- the transistors TRG, AMP, SEL, and RST are each MOS transistors (MOSFETs) having gate, source, and drain terminals.
- the transistors TRG, AMP, SEL, and RST are each composed of an NMOS transistor.
- the transistor of pixel P may be composed of a PMOS transistor.
- the transistor TRG is a transfer transistor and is configured to be able to transfer the charge photoelectrically converted by the photoelectric conversion unit 12 to the floating diffusion FD.
- the transistor TRG is controlled by a signal STRG, and electrically connects or disconnects the photoelectric conversion unit 12 and the floating diffusion FD.
- the transistor TRG can transfer the charge photoelectrically converted and accumulated by the photoelectric conversion unit 12 to the floating diffusion FD.
- the floating diffusion FD is an accumulation section and is configured to be able to accumulate the transferred charge.
- the floating diffusion FD can accumulate the charge photoelectrically converted by the photoelectric conversion section 12.
- the floating diffusion FD can also be said to be a retention section capable of retaining the transferred charge.
- the floating diffusion FD accumulates the transferred charge and converts it into a voltage according to the capacity of the floating diffusion FD.
- the transistor AMP is configured to generate and output a signal based on the charge accumulated in the floating diffusion FD.
- the transistor AMP is an amplifying transistor, and can generate and output a signal based on the charge converted by the photoelectric conversion unit 12.
- the gate of the transistor AMP is electrically connected to the floating diffusion FD, and the voltage converted by the floating diffusion FD is input.
- the drain of the transistor AMP is connected to a power supply line that supplies the power supply voltage VDD.
- the source of the transistor AMP is connected to the signal line VSL via the transistor SEL.
- the transistor AMP is configured to generate a signal based on the charge stored in the floating diffusion FD, i.e., a signal based on the voltage of the floating diffusion FD, and output it to the signal line VSL.
- the transistor SEL is configured to be capable of controlling the output of a pixel signal.
- the transistor SEL is electrically connected in series with the transistor AMP.
- the transistor SEL is controlled by a signal SSEL, and is configured to be capable of outputting a signal from the transistor AMP to a signal line VSL.
- the transistor SEL is a selection transistor, and can control the output timing of the pixel signal.
- the transistor RST is configured to be able to reset the voltage of the floating diffusion FD.
- the transistor RST is electrically connected to a power supply line to which a power supply voltage VDD is applied, and is configured to reset the charge of the pixel P.
- the transistor RST is a reset transistor.
- the pixel control unit 111 (see FIG. 1) of the imaging device 1 supplies control signals to the gates of the transistors TRG, SEL, RST, etc. of each pixel P via the control line Lread described above, turning the transistors on (conducting) or off (non-conducting).
- the multiple control lines Lread for each pixel row of the imaging device 1 include, for example, a wiring line that transmits a signal STRG that controls the transistor TRG, a wiring line that transmits a signal SSEL that controls the transistor SEL, a wiring line that transmits a signal SRST that controls the transistor RST, etc.
- the readout circuit 20 may be configured to be able to change the conversion efficiency (gain) when converting charge into voltage.
- the readout circuit 20 may have a switching transistor used to set the conversion efficiency.
- the switching transistor is electrically connected between the floating diffusion FD and the transistor RST.
- the semiconductor layer 10 is composed of a semiconductor substrate, for example, a Si (silicon) substrate.
- the semiconductor layer 10 may be an SOI (silicon on insulator) substrate, a SiGe (silicon germanium) substrate, a SiC (silicon carbide) substrate, or the like.
- the semiconductor layer 10 may be composed of a III-V group compound semiconductor material, or may be formed using other semiconductor materials.
- a plurality of photoelectric conversion units 12 are provided along the faces 11S1 and 11S2 of the semiconductor layer 10.
- a plurality of photoelectric conversion units 12 are embedded in the semiconductor layer 10.
- the photoelectric conversion units 12 are provided between the faces 11S1 and 11S2 of the semiconductor layer 10.
- the photoelectric conversion units 12 photoelectrically convert light incident through the optical layer 70 and the insulating layer 80.
- the photoelectric conversion units 12 can also be called a photoelectric conversion layer.
- the multi-layer wiring layer 90 is provided by stacking on the semiconductor layer 10.
- the multi-layer wiring layer 90 includes, for example, a conductor film and an insulating film, and has multiple wirings and vias (VIAs), etc.
- the multi-layer wiring layer 90 has a configuration in which multiple wirings are stacked via an insulating film serving as an interlayer insulating film (interlayer insulating layer).
- the multi-layer wiring layer 90 includes, for example, two or more layers, or three or more layers of wirings.
- the insulating layer 80 is provided between the optical layer 70, in which the light guide section 60 is provided, and the semiconductor layer 10.
- the insulating layer 80 is a spacer layer.
- the insulating layer 80 is formed so as to be laminated on the semiconductor layer 10.
- the insulating layer 80 is formed using an insulating film such as an oxide film, a nitride film, or an oxynitride film.
- the separation portion 30 may be formed in the semiconductor layer 10 so as to surround the photoelectric conversion portion 12 of each pixel P.
- the separation portion 30 may be provided so as to penetrate the semiconductor layer 10. That is, the separation portion 30 may be formed so as to reach the surface 11S2 of the semiconductor layer 10.
- the separation portion 30 may also be referred to as a pixel separation portion or a pixel separation wall.
- An insulating film such as a silicon oxide film, a silicon nitride film, or an aluminum oxide film, is provided in the trench of the isolation unit 30.
- the trench of the isolation unit 30 may be filled with polysilicon, a metal material, or other insulating material.
- the isolation unit 30 may be composed of a semiconductor region (a p-type semiconductor region or an n-type semiconductor region) formed by ion implantation.
- the separation section 30 may be formed using other insulating materials having a low refractive index.
- a gap may be provided within the trench of the separation section 30.
- the separation section 30 is provided to prevent the charge photoelectrically converted in the photoelectric conversion section 12 of the pixel P from leaking to the surrounding pixels P (or photoelectric conversion sections 12). It also prevents unnecessary light from leaking to the surrounding pixels P, and can prevent, for example, color mixing.
- the light-shielding member 40 is a light-shielding portion (light-shielding film) made of a material that blocks light, and is provided on the surface 11S1 side of the semiconductor layer 10.
- the light-shielding member 40 is provided in the insulating layer 80 and is located on the surface 11S1 of the semiconductor layer 10.
- the light-shielding member 40 is provided, for example, around the photoelectric conversion section 12 in the insulating layer 80. It can also be said that the light-shielding member 40 is disposed by replacing a part of the insulating layer 80.
- the insulating layer 80 is formed so as to cover the light-shielding member 40, and is provided so as to fill the opening 45.
- the imaging device 1 may have at least one of a fixed charge film and an anti-reflection film on the surface 11S1 side of the semiconductor layer 10.
- the fixed charge film and the anti-reflection film are made of a metal compound (metal oxide, metal nitride, etc.) and can also be called a metal compound layer.
- the fixed charge film and anti-reflection film are provided, for example, between the semiconductor layer 10 and the insulating layer 80.
- the fixed charge film is a film having a fixed charge, and can be formed using a high dielectric material.
- the fixed charge film is made of a metal oxide such as hafnium oxide or aluminum oxide.
- the fixed charge film is, for example, a film having a negative fixed charge.
- the fixed charge film is provided to suppress the generation of dark current at the interface of the semiconductor layer 10.
- the fixed charge film may be formed of another metal oxide film, or may be formed using a metal nitride film or a metal oxynitride film.
- a film having a positive fixed charge may be provided as the fixed charge film.
- the anti-reflection film may be made of an insulating material such as silicon nitride (SiN), silicon oxide (SiO), or aluminum oxide (AlO), or may be made of other materials.
- the insulating layer 80 may be made to include at least one of a fixed charge film and an anti-reflection film.
- the optical layer 70 of the imaging device 1 is provided above the photoelectric conversion unit 12, for example, as shown in the example in FIG. 4.
- Light from a subject that is the object to be measured is incident on the optical layer 70.
- light that has passed through an optical system such as an imaging lens is incident on the multiple structures 51 of the optical layer 70.
- the structures 51 are structures whose size is equal to or smaller than a predetermined wavelength of the incident light.
- the optical layer 70 (or the light guide section 60) has a plurality of structures 51 that are nanostructures, and is configured to guide light from the measurement target to the photoelectric conversion section 12.
- the structures 51 have, for example, a size equal to or smaller than the wavelength range of the light to be measured.
- the structures 51 may have a size equal to or smaller than the wavelength range of visible light, or may have a size equal to or smaller than the wavelength range of infrared light.
- the structures 51 are, for example, columnar (pillar-shaped) structures. As an example, the structures 51 have a cylindrical shape.
- the multiple structures 51 of the optical layer 70 are arranged side by side in the left-right direction (X-axis direction) of the page, sandwiching a part of the filling member 55.
- the shape of the structures 51 can be changed as appropriate, and may be a circle or a square in a plan view.
- the shape of the structures 51 may be a polygon, an ellipse, a cross, or any other shape.
- the optical layer 70 has a filling member 55 provided around the structures 51.
- the filling member 55 is provided in the optical layer 70 so as to fill the periphery of the structures 51.
- the filling member 55 is formed on the insulating layer 80 so as to fill the spaces between adjacent structures 51.
- the filling member 55 can also be called a protective member (protective layer).
- the filling member 55 may be formed so as to cover the structures 51.
- the filling member 55 may be formed so as to cover the entirety of the plurality of structures 51. It can also be said that the structures 51 are provided within the filling member 55 and are disposed by replacing a portion of the filling member 55.
- the optical layer 70 is configured, for example, as a spectroscopic layer that splits light.
- the optical layer 70 is configured, for example, to impart a phase delay to incident light and guide the light.
- a plurality of structures 51 are arranged so as to impart a desired phase profile to the incident light.
- the plurality of structures 51 are arranged so as to be aligned in the X-axis direction and the Y-axis direction in a planar view, as in the example shown in FIG. 5A or FIG. 5B.
- the material, size, arrangement number, etc. of the structures 51 are determined so that light of a specific wavelength band to be detected branches off and travels to the photoelectric conversion unit 12 of the desired pixel P.
- the size, arrangement interval, etc. of the structures 51 in the pixel P of each color are set to obtain a desired light collection range for each color pixel P.
- the structures 51 of the light guide unit 60 of each pixel Pr, pixel Pg, pixel Pb can be formed so that their sizes (e.g. width, height), arrangement positions, etc. are different.
- the optical layer 70 of the imaging device 1 imparts different phase delays to light in multiple wavelength ranges, for example, light in the first wavelength range to the third wavelength range.
- the imaging device 1 it is possible to separate light incident on the optical layer 70 into light in the first wavelength range, light in the second wavelength range, and light in the third wavelength range.
- FIGS. 6 and 7 are diagrams for explaining an example configuration of an imaging device according to a first embodiment.
- FIG. 6 illustrates pixel Pb, which is a B pixel, and pixel Pg, which is a G pixel.
- FIG. 7 illustrates pixel Pg, which is a G pixel, and pixel Pr, which is an R pixel.
- dashed arrow Lb typically represents blue light.
- Solid arrow Lg typically represents green light
- dashed arrow Lr typically represents red light.
- the light guiding section 60 of pixel Pg is configured to be able to propagate, of the incident light, green (G) light to the photoelectric conversion section 12 of that pixel Pg, and blue (B) light to the photoelectric conversion section 12 of pixel Pb.
- the light guiding section 60 of pixel Pg is also configured to propagate, of the incident light, red (R) light to the photoelectric conversion section 12 of pixel Pr.
- the light guiding section 60 of pixel Pg splits the incident light, and guides, of the incident light, light in the blue wavelength range toward pixel Pb, and light in the red wavelength range toward pixel Pr.
- the multiple pixels surrounding pixel Pg guide the green wavelength light of the incident light toward pixel Pg.
- the green light incident on pixel Pg and the green light incident on each of the pixels surrounding pixel Pg can be concentrated on the photoelectric conversion unit 12 of pixel Pg.
- the photoelectric conversion unit 12 of pixel Pg can efficiently receive light in the green wavelength range and perform photoelectric conversion, generating an electric charge according to the amount of light received.
- the multiple pixels surrounding pixel Pr guide the red wavelength light of the incident light toward pixel Pr.
- the red light incident on pixel Pr and the red light incident on each of the pixels surrounding pixel Pr can be concentrated on the photoelectric conversion unit 12 of pixel Pr.
- the photoelectric conversion unit 12 of pixel Pr can efficiently receive light in the red wavelength range and perform photoelectric conversion, thereby generating an electric charge according to the amount of light received.
- light to be detected can be collected within pixel P from pixels surrounding pixel P.
- Light can be collected from an area larger than the size of one pixel, and the amount of light received by the photoelectric conversion unit 12 of pixel P can be increased.
- Light can be efficiently guided to the photoelectric conversion unit 12, improving quantum efficiency (QE). It becomes possible to improve sensitivity to incident light.
- QE quantum efficiency
- each pixel P of the imaging device 1 can receive the light incident through the structure 51 of the light-guiding section 60 and generate a pixel signal.
- the imaging device 1 can generate image data representing the subject image using the pixel signal obtained by photoelectric conversion in each pixel P.
- the imaging device 1 can generate image data (distance image data) related to the distance to an object using the pixel signal of each pixel.
- the light guide section 60 having the structure 51 can appropriately guide light in any wavelength range to the photoelectric conversion section 12 side. It is possible to improve the sensitivity to incident light.
- the photoelectric conversion units of pixels of each color have the same light receiving area, there is a risk that the amount of light incident on the photoelectric conversion unit for each pixel of each color will differ greatly depending on the distance between pixels of the same color, the characteristics of the metasurface layer, etc. It is conceivable that the difference between the sensitivity of a pixel of a certain color and the sensitivity of pixels of other colors will become large. For example, as shown in Figure 9, the quantum efficiency of each of the R pixels, G pixels, and B pixels will differ greatly.
- the quantum efficiency of the G pixel is significantly different from the quantum efficiency of the R pixel (or B pixel).
- the quantum efficiency of the R pixel or B pixel.
- differences in the distance between pixels of the same color differences in the area that can receive light through the metasurface layer in the pixels of each color may occur, increasing the difference in sensitivity between the pixels. This may result in degradation of the image quality of the image generated using the signals of the pixels of each color.
- the pixels P of each color are configured to have different sizes or structures.
- the pixels P of each color are configured, for example, to have different light receiving areas of the photoelectric conversion units 12.
- the light receiving area of the photoelectric conversion unit 12 of the G pixel is larger than the light receiving area of the photoelectric conversion unit 12 of the R pixel (or B pixel).
- FIGS. 11A to 11C are diagrams for explaining another example of the configuration of the photodetector according to the first embodiment.
- FIG. 11A to 11C show another example of the arrangement of pixels P of the pixel section 100 in the imaging device 1.
- the imaging device 1 may be provided with a pixel Pw that receives and photoelectrically converts W (white) light, i.e., a C (clear) pixel.
- a pixel Py that receives and photoelectrically converts light with a Ye (yellow) wavelength
- a pixel Pc that receives and photoelectrically converts light with a Cy (cyan) wavelength may be provided.
- the pixel that receives infrared light in a first wavelength range and performs photoelectric conversion, the pixel that receives infrared light in a second wavelength range and performs photoelectric conversion, and the pixel that receives infrared light in a third wavelength range and performs photoelectric conversion may be configured to have different sizes or structures.
- the photodetector may be configured so that the light receiving area of the photoelectric conversion unit differs for each type of pixel.
- the photodetector includes an optical layer (optical layer 70) having a plurality of structures (structures 51) arranged in a first direction (e.g., the X-axis direction), a plurality of first pixels (e.g., pixel Pg), each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels (e.g., pixel Pb), each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the spacing between the first pixels is different from the spacing between the second pixels.
- the light receiving area of the first photoelectric conversion element is different from the light receiving area of the second photoelectric conversion element.
- an optical layer 70 having a plurality of structures 51 is provided.
- the distance between the pixels Pg is different from the distance between the pixels Pb.
- the light receiving area of the photoelectric conversion unit 12 of the pixel Pg is different from the light receiving area of the photoelectric conversion unit 12 of the pixel Pb.
- Fig. 12 is a diagram showing an example of a planar configuration of an imaging device according to a first modification of the present disclosure.
- Fig. 13 is a diagram showing an example of a cross-sectional configuration of the imaging device according to the first modification.
- Pixel Pr may be configured so that the photoelectric conversion unit 12 of pixel Pr has a light receiving area larger than the light receiving area of the photoelectric conversion unit 12 of pixel Pg.
- pixel Pb may be configured so that the photoelectric conversion unit 12 of pixel Pb has a light receiving area larger than the light receiving area of the photoelectric conversion unit 12 of pixel Pg.
- the size of the photoelectric conversion unit 12 of pixel Pr is larger than the size of the photoelectric conversion unit 12 of pixel Pg, and the light receiving area of the photoelectric conversion unit 12 of pixel Pr is larger than the light receiving area of the photoelectric conversion unit 12 of pixel Pg.
- the width of the photoelectric conversion unit 12 of pixel Pr in the X-axis direction (or Y-axis direction) is larger than the width of the photoelectric conversion unit 12 of pixel Pg.
- the size of the photoelectric conversion unit 12 of pixel Pb is larger than the size of the photoelectric conversion unit 12 of pixel Pg, and the light receiving area of the photoelectric conversion unit 12 in pixel Pb is larger than the light receiving area of the photoelectric conversion unit 12 in pixel Pg.
- the width in the X-axis direction (or Y-axis direction) of the photoelectric conversion unit 12 of pixel Pb is larger than the width of the photoelectric conversion unit 12 of pixel Pg.
- the quantum efficiency of each of the R pixels, G pixels, and B pixels will differ significantly, as shown in Figure 14.
- the quantum efficiency of the R pixel (or B pixel) is smaller than that of the G pixel.
- the light receiving area of the photoelectric conversion unit 12 of the R pixel may be larger than the light receiving area of the photoelectric conversion unit 12 of the G pixel.
- the difference in quantum efficiency between the R pixel, G pixel, and B pixel can be reduced. This makes it possible to prevent the image quality from deteriorating.
- FIG. 16 is a diagram showing an example of the planar configuration of an imaging device according to a second embodiment of the present disclosure.
- FIGS. 17 and 18 are diagrams showing an example of the cross-sectional configuration of an imaging device according to the second embodiment.
- the openings 45 in the light-shielding member 40 of each pixel P may be configured to have different sizes.
- the photoelectric conversion units 12 of the pixels P of each color may all be the same size.
- the imaging device 1 is configured, for example, so that the openings 45 (width, area, etc.) of the light-shielding member 40 are different for each type of pixel P.
- the area over which the photoelectric conversion unit 12 receives light varies depending on the size of the openings 45.
- the photoelectric conversion unit 12 of the pixel P of each color can have a light-receiving area corresponding to the size of the openings 45 of that pixel P.
- the size of the opening 45 provided for pixel Pg may be larger than the size of the opening 45 provided for pixel Pb. It can also be said that the light-shielding member having the opening 45 in pixel Pg (referred to as light-shielding member 40g) and the light-shielding member having the opening 45 in pixel Pb (referred to as light-shielding member 40b) have different areas (opening areas).
- the size of the opening 45 provided for pixel Pg may be larger than the size of the opening 45 provided for pixel Pr. It can also be said that the light shielding member 40g having the opening 45 in pixel Pg and the light shielding member having the opening 45 in pixel Pr (referred to as light shielding member 40r) have different opening areas.
- the width W1 of the opening 45 of the light shielding member 40g is larger than the width W2 of the opening 45 of the light shielding member 40b.
- the area that the photoelectric conversion unit 12 of pixel Pg can receive light is larger than the area that the photoelectric conversion unit 12 of pixel Pb can receive light.
- the width W1 of the opening 45 of the light shielding member 40g may be larger than the width W3 of the opening 45 of the light shielding member 40r.
- the area that the photoelectric conversion unit 12 of pixel Pg can receive light is larger than the area that the photoelectric conversion unit 12 of pixel Pr can receive light.
- the light shielding members 40g, 40b, and 40r are, for example, formed continuously and provided integrally.
- the light shielding members 40g, 40b, and 40r may be provided integrally or separately from each other.
- the imaging device 1 is configured so that the size of the opening 45 in the pixel P of each color is different.
- the opening area in the pixel P of each color is adjusted, making it possible to reduce the difference in quantum efficiency between the pixels P of each color. It becomes possible to prevent degradation in the image quality of the image generated using the pixel signals of each pixel.
- FIG. 19 is a diagram for explaining another example configuration of the imaging device according to the second embodiment.
- the size of the opening 45 provided for pixel Pg may be smaller than the size of the opening 45 provided for pixel Pb (or pixel Pr).
- the imaging device 1 may be configured so that the opening 45 of pixel Pg has a smaller area (opening area) than the opening 45 of pixel Pb (or pixel Pr).
- the photodetector includes an optical layer (optical layer 70) having a plurality of structures arranged in a first direction, a plurality of first pixels (e.g., pixel Pg) each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels (e.g., pixel Pb) each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the interval between the first pixels is different from the interval between the second pixels.
- the first pixel has a first light-shielding member (e.g., light-shielding member 40g) provided between the optical layer and the first photoelectric conversion element and having a first opening (opening 45) through which light is incident.
- the second pixel has a second light-shielding member (e.g., light-shielding member 40b) provided between the optical layer and the second photoelectric conversion element and having a second opening through which light is incident.
- the width of the first opening is different from the width of the second opening.
- the photodetector according to this embodiment includes an optical layer 70 having a plurality of structures 51, a pixel Pg having a light-shielding member 40g, and a pixel Pb having a light-shielding member 40b.
- the width of the opening 45 of the light-shielding member 40g is different from the width of the opening 45 of the light-shielding member 40b. This makes it possible for the photodetector (imaging device 1) to appropriately improve the sensitivity of each pixel. It is possible to realize a photodetector capable of improving characteristics with respect to incident light.
- FIG. 20 is a diagram showing an example of the planar configuration of an imaging device according to a third embodiment of the present disclosure.
- FIG. 21 is a diagram showing an example of the cross-sectional configuration of an imaging device according to the third embodiment.
- the imaging device 1 according to this embodiment has a lens 81.
- the lens 81 (lens portion) guides light incident from above to the photoelectric conversion portion 12.
- the lens 81 is provided above the photoelectric conversion unit 12, for example, for each pixel P or for each set of pixels P.
- the lens 81 is formed on the light-shielding member 40 having the opening 45 in the insulating layer 80.
- the lens 81 is a lens that collects light, and is an optical member also called an inner lens.
- Light from the subject to be measured enters the lens 81 through the optical layer 70.
- the lens 81 guides the light that enters through the light guide section 60 of the optical layer 70 to the photoelectric conversion section 12 side of the pixel P.
- the photoelectric conversion section 12 of the pixel P receives the light that enters through the optical layer 70, the lens 81, and the opening 45, and performs photoelectric conversion.
- the size of the lens 81 in each pixel P is configured to be different.
- the imaging device 1 is configured so that the size (width, area, etc.) of the lens 81 is different for each type of pixel P.
- the size of the lens 81 provided in pixel Pg is different from the size of the lens 81 provided in pixel Pr (or pixel Pb).
- the size of the lens 81 of pixel Pg may be larger than the size of the lens 81 of pixel Pb, as in the example shown in FIG. 21.
- the size of the lens 81 of pixel Pg may also be larger than the size of the lens 81 of pixel Pr.
- the width in the X-axis direction (or Y-axis direction) and the height (thickness) in the Z-axis direction of the lens 81 of pixel Pg are set so that light is focused onto the photoelectric conversion unit 12 of pixel Pg from a wider range than that of pixel Pr (or pixel Pb).
- the in-vehicle information detection unit 12040 detects information inside the vehicle.
- a driver state detection unit 12041 that detects the state of the driver is connected.
- the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
- FIG. 49 shows an example of the installation position of the imaging unit 12031.
- At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
- at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for phase difference detection.
- At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
- the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
- the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
- the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
- the technology according to the present disclosure can be applied to, for example, the imaging unit 12031.
- the imaging device 1 or the like can be applied to the imaging unit 12031.
- the endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101.
- the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.
- the tip of the tube 11101 has an opening into which an objective lens is fitted.
- a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens towards an object to be observed inside the body cavity of the patient 11132.
- the endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.
- the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the overall operation of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), in order to display an image based on the image signal.
- a CPU Central Processing Unit
- GPU Graphics Processing Unit
- the treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc.
- the insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon.
- the recorder 11207 is a device capable of recording various types of information related to the surgery.
- the printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.
- the light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals.
- the image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.
- the light source device 11203 may be configured to supply light of a predetermined wavelength band corresponding to special light observation.
- special light observation for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band of light is irradiated compared to the light irradiated during normal observation (i.e., white light), and a specific tissue such as blood vessels on the surface of the mucosa is photographed with high contrast, so-called narrow band imaging is performed.
- fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
- excitation light is irradiated to body tissue and fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and excitation light corresponding to the fluorescence wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image.
- the light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
- FIG. 51 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 50.
- the camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
- the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
- the camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.
- the lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
- the lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.
- the imaging unit 11402 is composed of an imaging element.
- the imaging element constituting the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type).
- each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining these.
- the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display. By performing 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site.
- 3D dimensional
- the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
- the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.
- the driving unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be adjusted appropriately.
- the communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201.
- the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
- the communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201, and supplies them to the camera head control unit 11405.
- the control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.
- the above-mentioned frame rate, exposure value, magnification, focus, and other imaging conditions may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal.
- the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
- the camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
- the communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102.
- the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
- the communication unit 11411 also transmits to the camera head 11102 a control signal for controlling the operation of the camera head 11102.
- the image signal and the control signal can be transmitted by electrical communication, optical communication, etc.
- the image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.
- the control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
- the control unit 11413 also causes the display device 11202 to display the captured image showing the surgical site, etc., based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 can recognize surgical tools such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc., by detecting the shape and color of the edges of objects included in the captured image. When the control unit 11413 causes the display device 11202 to display the captured image, it may use the recognition result to superimpose various types of surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can proceed with the surgery reliably.
- various image recognition techniques such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc.
- the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electrical signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable of these.
- communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.
- the technology of the present disclosure can be suitably applied to, for example, the imaging unit 11402 provided in the camera head 11102 of the endoscope 11100.
- the technology of the present disclosure it is possible to provide a high-definition endoscope 11100.
- an imaging device has been described as an example, but the light detection device of the present disclosure may be, for example, a device that receives incident light and converts the light into an electric charge.
- the output signal may be a signal of image information or a signal of distance measurement information.
- the light detection device (imaging device) may be applied to an image sensor, a distance measurement sensor, and the like. Note that the present disclosure is not limited to back-illuminated image sensors, but may also be applied to front-illuminated image sensors.
- the optical detection device disclosed herein may also be applied as a distance measurement sensor capable of measuring distances using the Time Of Flight (TOF) method.
- the light receiving element (photoelectric conversion unit) of each pixel may be an APD (Avalanche Photo Diode).
- the light receiving element may be configured, for example, by a SPAD (Single Photon Avalanche Diode).
- the optical detection device (imaging device) may also be applied as a sensor capable of detecting events, for example, an event-driven sensor (called an Event Vision Sensor (EVS), Event Driven Sensor (EDS), Dynamic Vision Sensor, etc.).
- EVS Event Vision Sensor
- EDS Event Driven Sensor
- Dynamic Vision Sensor etc.
- the photodetector of one embodiment of the present disclosure includes an optical layer having a plurality of structures, a plurality of first pixels each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the spacing between the first pixels is different from the spacing between the second pixels.
- the light receiving area of the first photoelectric conversion element is different from the light receiving area of the second photoelectric conversion element.
- the photodetector of one embodiment of the present disclosure includes an optical layer having a plurality of structures, a plurality of first pixels each having a first photoelectric conversion element that receives light of a first wavelength through the optical layer, and a plurality of second pixels each having a second photoelectric conversion element that receives light of a second wavelength through the optical layer.
- the distance between the first pixels is different from the distance between the second pixels.
- the first pixel has a first light-shielding member provided between the optical layer and the first photoelectric conversion element and having a first opening through which light is incident.
- the second pixel has a second light-shielding member provided between the optical layer and the second photoelectric conversion element and having a second opening through which light is incident.
- the width of the first opening is different from the width of the second opening.
- a third photoelectric conversion element provided in the semiconductor layer; a third filter provided between the optical layer and the third photoelectric conversion element, the third filter transmitting light of a third wavelength;
- the first light guiding member, the second light guiding member, and the third light guiding member are each a lens that condenses light, the first filter transmits light in a green wavelength range as the light of the first wavelength, the second filter transmits light in a blue wavelength range as the second wavelength light, the third filter transmits light in a red wavelength range as the third wavelength light,
- the first light guiding member, the second light guiding member, and the third light guiding member are each a waveguide that guides light, the first filter transmits light in a green wavelength range as the light of the first wavelength, the second filter transmits light in a blue wavelength range as the second wavelength light, the third filter transmits light in a red wavelength range as the third wavelength light,
- the light detection device wherein a size of the first light guiding member is larger than a size of the second light guiding member and smaller than a size of the third light guiding member.
- the first light guiding member, the second light guiding member, and the third light guiding member each have a plurality of second structures and condense incident light; the first filter transmits light in a green wavelength range as the light of the first wavelength, the second filter transmits light in a blue wavelength range as the second wavelength light, the third filter transmits light in a red wavelength range as the third wavelength light,
- the optical detection device described in (33) wherein a proportion of the second structure in the first light guiding member is greater than a proportion of the second structure in the second light guiding member and is smaller than a proportion of the second structure in the third light guiding member.
- An optical system a light detection device that receives light transmitted through the optical system;
- the light detection device includes: an optical layer having a plurality of first structures arranged to be aligned in a first direction; a first photoelectric conversion element provided in the semiconductor layer; a first filter provided between the optical layer and the first photoelectric conversion element, the first filter transmitting light of a first wavelength; a first light guiding member provided between the first filter and the first photoelectric conversion element, guiding light incident via the optical layer and the first filter to the first photoelectric conversion element.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なる。前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる。
Description
本開示は、光検出装置および電子機器に関する。
オンチップレンズと、カラーフィルタ層と、メタマテリアル層を有する積層膜と、光電変換部を有し、光を検出する装置が提案されている(特許文献1)。
光を検出する装置では、入射光に対する特性を向上させることが望ましい。
入射光に対する特性を向上可能な光検出装置を提供することが望まれる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1画素は、光学層と第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有する。第2画素は、光学層と第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有する。第1開口部の幅は、第2開口部の幅とは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、第1レンズと、光学層及び第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2レンズと、光学層及び第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1レンズの大きさは、第2レンズの大きさとは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、第1フィルタと、光学層及び第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2フィルタと、光学層及び第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1フィルタと第2フィルタとは、互いに異なる厚さ又は材料を有する。
本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを有する。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、半導体層に設けられる第1光電変換素子と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材とを備える。
本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、半導体層に設けられる第1光電変換素子と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材とを有する。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1画素は、光学層と第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有する。第2画素は、光学層と第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有する。第1開口部の幅は、第2開口部の幅とは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、第1レンズと、光学層及び第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2レンズと、光学層及び第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1レンズの大きさは、第2レンズの大きさとは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、第1フィルタと、光学層及び第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2フィルタと、光学層及び第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1フィルタと第2フィルタとは、互いに異なる厚さ又は材料を有する。
本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを有する。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、半導体層に設けられる第1光電変換素子と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材とを備える。
本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、半導体層に設けられる第1光電変換素子と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材とを有する。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.適用例
7.応用例
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.適用例
7.応用例
<1.第1の実施の形態>
図1は、本開示の第1の実施の形態に係る光検出装置の一例である撮像装置の概略構成の一例を示すブロック図である。光検出装置は、入射する光を検出可能な装置である。光検出装置である撮像装置1は、光電変換部(光電変換素子)を有する複数の画素Pを有し、入射した光を光電変換して信号を生成するように構成される。
図1は、本開示の第1の実施の形態に係る光検出装置の一例である撮像装置の概略構成の一例を示すブロック図である。光検出装置は、入射する光を検出可能な装置である。光検出装置である撮像装置1は、光電変換部(光電変換素子)を有する複数の画素Pを有し、入射した光を光電変換して信号を生成するように構成される。
撮像装置1は、光学レンズを含む光学系(不図示)を透過した光を受光して信号を生成し得る。撮像装置1は、例えば、複数の画素Pが設けられた半導体基板(例えばシリコン基板)を用いて構成される。撮像装置1の各画素Pの光電変換部は、例えばフォトダイオード(PD)であり、光を光電変換可能に構成される。
撮像装置1は、一例として、図1に示すように、複数の画素Pが行列状に2次元配置された領域(画素部100)を、撮像エリアとして有する。撮像装置1の画素部100は、複数の画素Pが配置される画素アレイであり、受光領域ともいえる。各画素Pの光電変換部は、光電変換領域ともいえる。
撮像装置1は、光学レンズを含む光学系を介して、計測対象である被写体からの入射光(像光)を取り込む。撮像装置1は、光学レンズにより形成される被写体の像を撮像する。撮像装置1は、受光した光(例えば可視光、赤外光等)を光電変換して画素信号を生成し得る。光検出装置である撮像装置1は、入射した光を受光して信号を生成可能な装置であり、受光装置ともいえる。
撮像装置1(光検出装置)は、一例として、イメージセンサとして構成され得る。撮像装置1は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像装置1は、複数の半導体層を積層して構成された構造(積層構造)を有し得る。撮像装置1は、デジタルスチルカメラ、ビデオカメラ、携帯電話等、各種の電子機器に利用可能である。
[撮像装置の概略構成]
撮像装置1は、一例として、図1に示す例のように、画素部100と、画素制御部111と、信号処理部112と、制御部113と、処理部114を有する。また、撮像装置1には、例えば、複数の制御線Lreadと、複数の信号線VSLが設けられる。制御線Lreadは、画素Pを制御する信号を伝えることが可能な信号線であり、画素制御部111と画素部100の画素Pとに接続される。
撮像装置1は、一例として、図1に示す例のように、画素部100と、画素制御部111と、信号処理部112と、制御部113と、処理部114を有する。また、撮像装置1には、例えば、複数の制御線Lreadと、複数の信号線VSLが設けられる。制御線Lreadは、画素Pを制御する信号を伝えることが可能な信号線であり、画素制御部111と画素部100の画素Pとに接続される。
図1に示す例では、画素部100には、水平方向(行方向)に並ぶ複数の画素Pにより構成される画素行ごとに、複数の制御線Lreadが配線される。制御線Lreadは、画素Pからの信号読み出しのための制御信号を伝送するように構成される。制御線Lreadは、画素Pを駆動する信号を伝送する駆動線(画素駆動線)ともいえる。
信号線VSLは、画素Pからの信号を伝えることが可能な信号線であり、画素部100の画素Pと信号処理部112とに接続される。画素部100には、例えば、垂直方向(列方向)に並ぶ複数の画素Pにより構成される画素列ごとに、1つ又は複数の信号線VSLが配線される。信号線VSLは、画素Pから出力される信号を伝送可能に構成される。撮像装置1では、1つの画素列に対して、複数の信号線VSLが設けられてもよい。撮像装置1は、画素列ごとに複数の信号線VSLを有し得る。
画素制御部111は、画素部100の各画素Pを制御可能に構成される。画素制御部111は、制御回路であり、例えば、バッファ、シフトレジスタ、アドレスデコーダ等を含む複数の回路によって構成される。画素制御部111は、画素Pを制御するための信号を生成し、制御線Lreadを介して画素部100の各画素Pへ出力する。画素制御部111は、制御部113により制御され、画素部100の画素Pの制御を行う。
画素制御部111は、例えば、画素Pの転送トランジスタを制御する信号、選択トランジスタを制御する信号、及びリセットトランジスタを制御する信号など、画素Pを制御するための信号を生成し、制御線Lreadによって各画素Pに供給する。画素制御部111は、各画素Pから画素信号を読み出す制御を行い得る。画素制御部111は、各画素Pを駆動可能に構成された画素駆動部ともいえる。なお、画素制御部111と制御部113とを併せて、画素制御部ということもできる。
信号処理部112は、入力される画素の信号の信号処理を実行可能に構成される。信号処理部112は、信号処理回路であり、例えば、負荷回路、AD(Analog Digital)変換回路、水平選択スイッチ等を有する。負荷回路は、一例として、画素Pの増幅トランジスタに電流を供給可能な電流源により構成される。負荷回路は、例えば、画素Pの増幅トランジスタと共にソースフォロア回路を構成する。
信号処理部112は、信号線VSLを介して画素Pから読み出される信号を増幅するように構成された増幅回路を有していてもよい。負荷回路、増幅回路、及びAD変換回路等は、例えば、複数の信号線VSLの各々に対して設けられる。画素部100の画素列ごとに、負荷回路、増幅回路、及びAD変換回路等が設けられ得る。
画素制御部111によって選択走査された各画素Pから出力される信号は、信号線VSLを介して信号処理部112に入力される。信号処理部112は、例えば、画素Pの信号のAD変換、CDS(Correlated Double Sampling:相関二重サンプリング)等の信号処理を行い得る。信号線VSLの各々を通して伝送される各画素Pの信号は、信号処理部112により信号処理が施され、処理部114に出力される。
処理部114は、入力される信号に対して信号処理を実行可能に構成される。処理部114は、処理回路であり、例えば、画素信号に対して各種の信号処理を施す回路により構成される。処理部114は、プロセッサ及びメモリを含んでいてもよい。処理部114は、信号処理部112から入力される画素の信号に対して信号処理を行い、処理後の画素の信号を出力する。処理部114は、例えば、ノイズ低減処理、階調補正処理等の各種の信号処理を行い得る。
制御部113は、撮像装置1の各部を制御可能に構成される。制御部113は、外部から与えられるクロック、動作モードを指令するデータ等を受け取り、また、撮像装置1の内部情報等のデータを出力し得る。制御部113は、制御回路であり、例えば、各種のタイミング信号を生成可能に構成されたタイミングジェネレータを有する。制御部113は、タイミングジェネレータで生成された各種のタイミング信号(パルス信号、クロック信号等)に基づき、画素制御部111及び信号処理部112等の駆動制御を行う。
上述した画素部100と、画素制御部111及び信号処理部112等とは、1つの基板に設けられてもよい。また、画素制御部111、信号処理部112、制御部113、処理部114等は、1つの半導体基板に設けられてもよく、複数の半導体基板に分けて設けられてもよい。撮像装置1は、複数の基板を積層して構成された積層構造を有していてもよい。信号処理部112、制御部113、及び処理部114の一部又は全部は、一体的に構成されていてもよい。
[画素の構成]
図2は、第1の実施の形態に係る撮像装置の画素の回路構成の一例を説明するための図である。画素Pは、光電変換部12(光電変換素子)と、読み出し回路20とを有する。光電変換部12は、光を受光して信号を生成するように構成される。読み出し回路20は、光電変換された電荷に基づく信号を出力可能に構成される。読み出し回路20は、光電変換部12で光電変換された電荷に基づく画素信号を読み出し得る。
図2は、第1の実施の形態に係る撮像装置の画素の回路構成の一例を説明するための図である。画素Pは、光電変換部12(光電変換素子)と、読み出し回路20とを有する。光電変換部12は、光を受光して信号を生成するように構成される。読み出し回路20は、光電変換された電荷に基づく信号を出力可能に構成される。読み出し回路20は、光電変換部12で光電変換された電荷に基づく画素信号を読み出し得る。
光電変換部12は、受光部(受光素子)であり、光電変換により電荷を生成可能に構成される。図2に示す例では、光電変換部12は、フォトダイオード(PD)であり、入射する光を電荷に変換する。光電変換部12は、光電変換を行って受光量に応じた電荷を生成し得る。
読み出し回路20は、一例として、トランジスタTRGと、フローティングディフュージョンFDと、トランジスタAMPと、トランジスタSELと、トランジスタRSTとを有する。トランジスタTRG、トランジスタAMP、トランジスタSEL、及びトランジスタRSTは、それぞれ、ゲート、ソース、ドレインの端子を有するMOSトランジスタ(MOSFET)である。
図2に示す例では、トランジスタTRG、トランジスタAMP、トランジスタSEL、及びトランジスタRSTは、それぞれNMOSトランジスタにより構成される。なお、画素Pのトランジスタは、PMOSトランジスタにより構成されてもよい。
トランジスタTRGは、転送トランジスタであり、光電変換部12で光電変換された電荷をフローティングディフュージョンFDに転送可能に構成される。トランジスタTRGは、信号STRGにより制御され、光電変換部12とフローティングディフュージョンFDとを電気的に接続または切断する。トランジスタTRGは、光電変換部12で光電変換されて蓄積された電荷をフローティングディフュージョンFDに転送し得る。
フローティングディフュージョンFDは、蓄積部であり、転送された電荷を蓄積可能に構成される。フローティングディフュージョンFDは、光電変換部12で光電変換された電荷を蓄積し得る。フローティングディフュージョンFDは、転送された電荷を保持可能な保持部ともいえる。フローティングディフュージョンFDは、転送された電荷を蓄積し、フローティングディフュージョンFDの容量に応じた電圧に変換する。
トランジスタAMPは、フローティングディフュージョンFDに蓄積された電荷に基づく信号を生成して出力するように構成される。トランジスタAMPは、増幅トランジスタであり、光電変換部12で変換された電荷に基づく信号を生成して出力し得る。
トランジスタAMPのゲートは、フローティングディフュージョンFDと電気的に接続され、フローティングディフュージョンFDで変換された電圧が入力される。図2に示す例では、トランジスタAMPのドレインは、電源電圧VDDが供給される電源線に接続される。
トランジスタAMPのソースは、トランジスタSELを介して信号線VSLに接続される。トランジスタAMPは、フローティングディフュージョンFDに蓄積された電荷に基づく信号、即ちフローティングディフュージョンFDの電圧に基づく信号を生成し、信号線VSLへ出力するように構成される。
トランジスタSELは、画素の信号の出力を制御可能に構成される。トランジスタSELは、例えば、図2に示す例のように、トランジスタAMPと電気的に直列に接続される。トランジスタSELは、信号SSELにより制御され、トランジスタAMPからの信号を信号線VSLに出力可能に構成される。トランジスタSELは、選択トランジスタであり、画素の信号の出力タイミングを制御し得る。
トランジスタSELは、光電変換部12で変換された電荷に基づく信号を出力可能に構成される。トランジスタSELは、画素Pの画素信号を信号線VSLへ出力し得る。なお、トランジスタSELは、電源電圧VDDが与えられる電源線とトランジスタAMPとの間に、電気的に直列に接続されてもよい。また、必要に応じて、トランジスタSELを省略してもよい。
トランジスタRSTは、フローティングディフュージョンFDの電圧をリセット可能に構成される。図2に示す例では、トランジスタRSTは、電源電圧VDDが与えられる電源線と電気的に接続され、画素Pの電荷のリセットを行うように構成される。トランジスタRSTは、リセットトランジスタである。
トランジスタRSTは、信号SRSTにより制御され、フローティングディフュージョンFDに蓄積された電荷をリセットし、フローティングディフュージョンFDの電圧をリセットし得る。図2に示す例では、トランジスタRSTは、電源線とフローティングディフュージョンFDとを電気的に接続し、フローティングディフュージョンFDに蓄積された電荷を排出し得る。なお、トランジスタRSTは、トランジスタTRGを介して、光電変換部12に蓄積された電荷を排出し得る。
撮像装置1の画素制御部111(図1参照)は、上述した制御線Lreadを介して、各画素PのトランジスタTRG、トランジスタSEL、トランジスタRST等のゲートに制御信号を供給し、トランジスタをオン状態(導通状態)又はオフ状態(非導通状態)とする。
撮像装置1の画素行ごとの複数の制御線Lreadには、一例として、トランジスタTRGを制御する信号STRGを伝送する配線、トランジスタSELを制御する信号SSELを伝送する配線、トランジスタRSTを制御する信号SRSTを伝送する配線等が含まれる。
なお、読み出し回路20は、電荷を電圧に変換する際の変換効率(ゲイン)を変更可能に構成されてもよい。例えば、読み出し回路20は、変換効率の設定に用いる切り替えトランジスタを有し得る。切り替えトランジスタは、一例として、フローティングディフュージョンFDとトランジスタRSTとの間に電気的に接続される。
読み出し回路20では、切り替えトランジスタがオン状態となることで、画素PのフローティングディフュージョンFDに付加される容量が大きくなり、変換効率が切り替えられる。切り替えトランジスタは、トランジスタAMPのゲートに接続される容量を切り替え、変換効率を変更し得る。
トランジスタTRG、トランジスタSEL、トランジスタRST、及び、切り替えトランジスタ等は、画素制御部111によってオンオフ制御される。画素制御部111は、各画素Pの読み出し回路20を制御することによって、各画素Pから画素信号を信号線VSLに出力させる。画素制御部111は、各画素Pの画素信号を信号線VSLへ読み出す制御を行い得る。
[撮像装置の構成]
図3は、第1の実施の形態に係る撮像装置の平面構成の一例を示す図である。図3は、撮像装置1における画素部100の画素Pの配置例を示している。撮像装置1の画素部100には、複数種類の画素(例えば、R画素、G画素、B画素)が設けられる。各画素Pは、それぞれ光電変換部12を有する。撮像装置1は、後述するが、複数の構造体を用いて構成される光学層(メタサーフェス層)を有する。
図3は、第1の実施の形態に係る撮像装置の平面構成の一例を示す図である。図3は、撮像装置1における画素部100の画素Pの配置例を示している。撮像装置1の画素部100には、複数種類の画素(例えば、R画素、G画素、B画素)が設けられる。各画素Pは、それぞれ光電変換部12を有する。撮像装置1は、後述するが、複数の構造体を用いて構成される光学層(メタサーフェス層)を有する。
なお、図3に示すように、被写体からの光の入射方向をZ軸方向、Z軸方向に直交する紙面左右方向をX軸方向、Z軸方向及びX軸方向に直交する紙面上下方向をY軸方向とする。以降の図において、図3の矢印の方向を基準として方向を表記する場合もある。
撮像装置1の画素部100に設けられた複数の画素Pには、一例として、赤(R)の光を受光する光電変換部12を有する画素Pr(R画素)と、緑(G)の光を受光する光電変換部12を有する画素Pg(G画素)と、青(B)の光を受光する光電変換部12を有する画素Pb(B画素)が含まれる。
画素Prの光電変換部12は、計測対象である被写体からの光のうち、主に赤の波長域の光を受光して光電変換する。画素Pgの光電変換部12は、被写体からの光のうち、主に緑の波長域の光を受光して光電変換する。また、画素Pbの光電変換部12は、主に青の波長域の光を受光して光電変換する。画素部100では、複数の画素Pr、複数の画素Pg、及び複数の画素Pbが繰り返し配置される。画素Pr、画素Pg、及び画素Pbは、一例として、ベイヤー配列(即ちRGGB配列)に従って配置される。
画素部100では、1つの画素Prと、2つの画素Pgと、1つの画素Pbにより構成される2×2画素が、繰り返し設けられる。画素部100は、図3に示すように、画素Prと画素Pgとが交互に設けられる画素行と、画素Pgと画素Pbとが交互に設けられる画素行とを有し得る。
画素部100において、複数の画素Prは、水平方向(X方向)と垂直方向(Y方向)とに並ぶように配置される。また、複数の画素Pbも、水平方向と垂直方向に並ぶように配置される。複数の画素Pgは、斜め方向にも並ぶように配置される。画素Pgの数(密度)は、画素Pr(又は画素Pb)の数(密度)よりも多い。
撮像装置1では、例えば、図3に示す例のように、各色の画素Pの配置間隔が異なる。画素Pg同士の間隔は、画素Pr同士の間隔(又は画素Pb同士の間隔)と異なる。画素部100の各画素Pgと各画素Pr(又は各画素Pb)とでは、同色画素間の間隔(距離)が異なっている。例えば、最も近い2つの画素Pg間の間隔は、最も近い2つの画素Pr間の間隔とは異なる。
図3に示す例では、複数の画素Pgの間隔(距離)は、複数の画素Prの間隔よりも小さい。また、複数の画素Pgの間隔は、複数の画素Pbの間隔よりも小さい。例えば、斜め方向に隣り合う画素Pg間の間隔は、X軸方向(又はY軸方向)に並ぶ画素Pr間の間隔(又は画素Pb間の間隔)よりも短い。
画素Pr、画素Pg、及び画素Pbは、それぞれ、R成分の画素信号、G成分の画素信号、及びB成分の画素信号を生成し得る。撮像装置1は、RGBの画素信号を得ることができる。なお、画素Pの配置は、上述した例に限られず、適宜変更可能である。
画素部100に設けられる複数の画素Pには、Cy(シアン)の光を受光して光電変換する画素、Ye(イエロー)の光を受光して光電変換する画素、Mg(マゼンタ)の光を受光して光電変換する画素等が含まれてもよい。W(ホワイト)の光、即ち入射光の全波長域の光を受光する画素であるC(Clear)画素を設けてもよい。また、赤外光を受光する画素(IR画素)を設けてもよい。
撮像装置1では、各種の画素Pは、互いに異なる大きさ又は構造を有するように構成される。例えば、撮像装置1は、各色の画素P毎に、光電変換部12(フォトダイオード)の受光面積が異なるように構成される。一例として、画素Pgの光電変換部12が光を受光する面積と、画素Pr(又は画素Pb)の光電変換部12が光を受光する面積とは異なる。
画素Pgは、例えば、画素Pgの光電変換部12が画素Prの光電変換部12の受光面積よりも大きい受光面積を有するように構成される。また、画素Pgは、画素Pgの光電変換部12が画素Pbの光電変換部12の受光面積よりも大きい受光面積を有するように構成され得る。画素Pgは、例えば、画素Pr(又は画素Pb)のサイズよりも大きい。
図3に示す例では、画素Pgの光電変換部12の大きさは、画素Prの光電変換部12の大きさよりも大きく、画素Pgの光電変換部12の受光面積は、画素Prの光電変換部12の受光面積よりも大きい。画素Pgの光電変換部12のX軸方向(又はY軸方向)における幅は、画素Prの光電変換部12の幅よりも大きくなっている。
また、図3に示す例では、画素Pgの光電変換部12の大きさは、画素Pbの光電変換部12の大きさよりも大きく、画素Pgにおける光電変換部12の受光面積は、画素Pbにおける光電変換部12の受光面積よりも大きい。画素Pgの光電変換部12のX軸方向(又はY軸方向)における幅は、画素Pbの光電変換部12の幅よりも大きくなっている。
画素Pgの光電変換部12の受光面積は、例えば、画素Pr(又は画素Pb)の光電変換部12の受光面積の1.5倍であってよい。画素Pr、画素Pg、画素Pbの光電変換部12の受光面積の比は、一例として、1:1.5:1となる。また、例えば、画素Pgの光電変換部12の受光面積は、画素Pr(又は画素Pb)の光電変換部12の受光面積の1.4倍または1.6倍としてもよい。
図4は、第1の実施の形態に係る撮像装置の断面構成の一例を示す図である。撮像装置1は、例えば、図4に示すように、光学層70と、絶縁層80と、半導体層10と、多層配線層90とを有する。撮像装置1は、光学層70と、絶縁層80と、半導体層10と、多層配線層90とがZ軸方向に積層された構成を有する。光が入射する側から、光学層70と、絶縁層80と、半導体層10と、多層配線層90とが設けられる。
光学層70は、複数の構造体51を有し、入射した光を光電変換部12側に導光するように構成される。光学層70は、ナノ構造体である構造体51が設けられる層である。図4に示す例では、複数の構造体51を含む光学層70は、絶縁層80に積層して設けられている。光学層70は、メタマテリアル(メタサーフェス)技術を利用した光学素子であり、メタサーフェス層(又はメタマテリアル層)といえる。
光学層70は、複数の構造体51と、構造体51の周囲に設けられる充填部材55とを有する。光学層70の構造体51は、例えば、柱状(ピラー状)の形状を有する。構造体51及び充填部材55は、互いに異なる屈折率を有する材料を用いて構成される。光学層70は、図4に示す例のように、画素P毎または複数の画素P毎(即ち所定数の画素P毎)に、複数の構造体51と充填部材55を含む導光部60(導光部材)を有し得る。
半導体層10は、図4に示すように、対向する面11S1及び面11S2を有する。面11S2は、面11S1とは反対側の面である。半導体層10の面11S1は、受光面(光入射面)である。半導体層10の面11S2は、トランジスタ等の素子が形成される素子形成面である。半導体層10の面11S2には、ゲート電極、ゲート絶縁膜(例えばゲート酸化膜)等が設けられる。
半導体層10は、半導体基板、例えばSi(シリコン)基板により構成される。半導体層10は、SOI(Silicon On Insulator)基板、SiGe(シリコンゲルマニウム)基板、SiC(シリコンカーバイド)基板等であってもよい。半導体層10は、III-V族の化合物半導体材料により構成されてもよく、他の半導体材料を用いて形成されてもよい。
図4に示す例では、半導体層10の面11S1側に、絶縁層80及び光学層70等が設けられる。光学層70及び絶縁層80は、半導体層10の面11S1と直交する厚さ方向において、半導体層10に積層して設けられる。半導体層10の面11S2側には、多層配線層90が設けられる。光学系からの光が入射する側に構造体51を含む光学層70が設けられ、光が入射する側とは反対側に多層配線層90が設けられる。撮像装置1は、いわゆる裏面照射型の撮像装置である。
半導体層10では、半導体層10の面11S1及び面11S2に沿って、複数の光電変換部12(光電変換素子)が設けられる。半導体層10には、例えば、複数の光電変換部12が埋め込み形成される。光電変換部12は、半導体層10の面11S1と面11S2との間に設けられている。光電変換部12は、光学層70及び絶縁層80を介して入射する光を光電変換する。光電変換部12は、光電変換層ともいえる。
多層配線層90は、半導体層10に積層して設けられる。多層配線層90は、例えば、導体膜および絶縁膜を含み、複数の配線およびビア(VIA)等を有する。多層配線層90は、層間絶縁膜(層間絶縁層)としての絶縁膜を介して、複数の配線が積層された構成を有する。多層配線層90は、例えば2層以上、又は3層以上の配線を含む。
多層配線層90の配線は、例えば、アルミニウム(Al)、銅(Cu)、タングステン(W)等の金属材料を用いて形成される。なお、多層配線層90の配線は、ポリシリコン(Poly-Si)、その他の導電材料を用いて構成されてもよい。層間絶縁膜は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、酸窒化シリコン(SiON)等を用いて形成される。
半導体層10及び多層配線層90には、例えば、画素P毎または複数の画素P毎に、上述した読み出し回路20(図2参照)が設けられる。また、上述した画素制御部111、信号処理部112、制御部113、処理部114等(図1参照)は、半導体層10とは別の基板、又は、半導体層10及び多層配線層90に設けられ得る。
絶縁層80は、導光部60が設けられる光学層70と、半導体層10との間に設けられる。絶縁層80は、スペーサ層である。図4に示す例では、絶縁層80は、半導体層10に積層するように形成される。絶縁層80は、一例として、酸化膜、窒化膜、酸窒化膜等の絶縁膜を用いて構成される。
絶縁層80は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、酸化アルミニウム(AlO)等の絶縁材料を用いて形成される。絶縁層80は、酸化シリコン等の低屈折率の材料によって構成されてもよく、計測対象とする波長域の光を透過する他の材料によって構成されてもよい。絶縁層80は、平坦化層(平坦化膜)ともいえる。なお、光学層70は、絶縁層80を含んで構成されてもよい。
撮像装置1は、図4に示すように、分離部30を有する。分離部30は、隣り合う複数の光電変換部12の間に設けられ、光電変換部12間を分離する。分離部30の少なくとも一部は、隣り合う画素P(又は光電変換部12)の境界に設けられる。分離部30は、例えば、トレンチ(溝部)を用いて構成される。
分離部30は、半導体層10において、各画素Pの光電変換部12をそれぞれ囲むように形成され得る。分離部30は、半導体層10を貫通するように設けられてもよい。即ち、分離部30は、半導体層10の面11S2まで達するように形成されてもよい。分離部30は、画素分離部または画素分離壁ともいえる。
分離部30のトレンチ内には、絶縁膜、例えばシリコン酸化膜、シリコン窒化膜、酸化アルミニウム膜等が設けられる。分離部30のトレンチには、ポリシリコン、金属材料、他の絶縁材料等が埋め込まれていてもよい。分離部30は、イオン注入によって形成される半導体領域(p型の半導体領域またはn型の半導体領域)によって構成されてもよい。
分離部30は、低屈折率を有する他の絶縁材料を用いて形成されてもよい。分離部30のトレンチ内には、空隙(空洞)を設けるようにしてもよい。撮像装置1では、分離部30が設けられることで、画素Pの光電変換部12で光電変換された電荷が周囲の画素P(又は光電変換部12)へ漏れることが抑制される。また、不要な光が周囲の画素Pに漏れることを抑制し、例えば、混色が生じることを抑制することができる。
撮像装置1には、図3及び図4に示す例のように、遮光部材40が設けられる。撮像装置1は、複数の開口部45が設けられた遮光部材40を有する。開口部45は、光学層70からの光が入射する開口(ホール)である。図3及び図4に示す例では、画素P毎に、光電変換部12の上方に、1つの開口部45を有する遮光部材40が配置されるともいえる。
遮光部材40は、光を遮る部材により構成された遮光部(遮光膜)であり、半導体層10の面11S1側に設けられる。図4に示す例では、遮光部材40は、絶縁層80に設けられ、半導体層10の面11S1上に位置する。遮光部材40は、例えば、絶縁層80において光電変換部12の周囲に設けられる。遮光部材40は、絶縁層80の一部に置換して配置されるともいえる。絶縁層80は、遮光部材40を覆うように形成され、開口部45を充填するように設けられる。
遮光部材40の開口部45は、一例として、図3に示すように、平面視において四角形又は多角形の形状を有し得る。画素Pr及び画素Pbでは、遮光部材40の開口部45は、それぞれ、四角形(例えば正方形)の形状を有する。画素Pgの開口部45は、例えば、八角形の形状を有する。なお、各画素Pにおける開口部45の形状は、適宜変更可能であり、六角形、楕円形、その他の形状であってもよい。
画素Pの光電変換部12は、開口部45を介して、光学層70からの光を受光する。光電変換部12は、光学層70から開口部45を介して入射した光を受光し、光電変換により電荷を生成し得る。撮像装置1では、遮光部材40が設けられることで、周囲の画素Pに光が漏れることが抑制される。不要な光が周囲に漏れることを抑制し、混色が生じることを抑制することができる。
撮像装置1は、半導体層10の面11S1側に、固定電荷膜及び反射防止膜の少なくとも一方を有していてもよい。固定電荷膜及び反射防止膜は、一例として、金属化合物(金属酸化物、金属窒化物等)によって構成され、金属化合物層ともいえる。
固定電荷膜及び反射防止膜は、例えば、半導体層10と絶縁層80との間に設けられる。固定電荷膜は、固定電荷を有する膜であり、高誘電材料を用いて形成され得る。固定電荷膜は、一例として、酸化ハフニウム、酸化アルミニウム等の金属酸化物により構成される。固定電荷膜は、例えば、負の固定電荷を有する膜である。
撮像装置1では、固定電荷膜が設けられることで、半導体層10の界面における暗電流の発生が抑制される。なお、固定電荷膜は、他の金属酸化膜により構成されてもよく、金属窒化膜または金属酸窒化膜を用いて構成されてもよい。固定電荷膜として、正の固定電荷を有する膜を設けるようにしてもよい。
反射防止膜は、一例として、酸化ハフニウム、酸化タンタル等の金属酸化物により構成される。反射防止膜は、半導体層10の面11S1側に設けられ、反射を低減(抑制)する。反射防止膜は、例えば、固定電荷膜と積層するように設けられる。
反射防止膜は、窒化シリコン(SiN)、酸化シリコン(SiO)、酸化アルミニウム(AlO)等の絶縁材料を用いて構成されてもよく、他の材料を用いて構成されてもよい。なお、絶縁層80は、固定電荷膜及び反射防止膜の少なくとも一方を含んで構成されてもよい。
撮像装置1の光学層70は、例えば、図4に示す例のように、光電変換部12の上方に設けられる。光学層70には、計測対象物である被写体からの光が入射する。光学層70の複数の構造体51には、例えば、撮像レンズ等の光学系を透過した光が入射する。構造体51は、入射する光の所定波長以下の大きさの構造体である。
光学層70(又は導光部60)は、ナノ構造体である複数の構造体51を有し、計測対象からの光を光電変換部12へ導光するように構成される。構造体51は、例えば、計測対象とする光の波長域以下の大きさを有する。構造体51は、可視光の波長域以下の大きさを有していてもよく、赤外光の波長域以下の大きさを有していてもよい。
構造体51は、例えば、柱状(ピラー状)の構造体である。構造体51は、一例として、円柱状の形状を有する。光学層70の複数の構造体51は、充填部材55の一部を挟んで、紙面左右方向(X軸方向)に互いに並んで配置される。なお、構造体51の形状は、適宜変更可能であり、平面視において円形または四角形の形状であってもよい。構造体51の形状は、多角形、楕円、十字形、又はその他の形状であってもよい。
光学層70は、構造体51の周囲に設けられる充填部材55を有する。充填部材55は、光学層70において、構造体51の周囲を充填するように設けられる。例えば、充填部材55は、絶縁層80上において、隣り合う複数の構造体51の間を充填するように形成される。充填部材55は、保護部材(保護層)ともいえる。
充填部材55は、構造体51を覆うように形成されてもよい。充填部材55は、例えば、複数の構造体51の全体を覆うように形成され得る。構造体51は、充填部材55内に設けられ、充填部材55の一部に置換して配置されるともいえる。
光学層70は、ナノ構造体である構造体51を利用し、光を光電変換部12側へ伝搬させる。構造体51は、メタアトム、ナノアトム、メタサーフェス構造体、微細構造体などとも称される。構造体51は、例えば、ピラー(柱状部材)であり、ナノピラーともいえる。光学層70は、光を導光(伝搬)する光学素子(光学部材)といえる。
光学層70は、例えば、光を分光する分光層として構成される。光学層70は、例えば、入射する光に位相遅延を与え、光を導光するように構成される。光学層70では、入射光に対して所望の位相プロファイルを与えるように、複数の構造体51が配置される。複数の構造体51は、一例として、図5Aまたは図5Bに示す例のように、平面視において、X軸方向およびY軸方向に並ぶように設けられる。
撮像装置1の各画素Pでは、入射光の所定波長以下の間隔で、複数の構造体51が配置され得る。一例として、X軸方向およびY軸方向において、可視光の波長域以下の間隔で、複数の構造体51が設けられる。なお、画素Pでは、赤外光の波長域以下の間隔で、複数の構造体51が配置されてもよい。
光学層70の構造体51は、隣の媒質の屈折率とは異なる屈折率を有する。図4等に示す例では、構造体51は、充填部材55の屈折率とは異なる屈折率を有する。構造体51は、構造体51の周囲に形成される媒質層、即ち充填部材55の屈折率とは異なる屈折率を有する。充填部材55は、構造体51とは異なる屈折率を有する材料層ともいえる。
光学層70の構造体51は、例えば、充填部材55の屈折率より高い屈折率を有する。構造体51は、充填部材55の屈折率よりも高い屈折率を有する材料により構成され得る。構造体51は、例えば、酸化チタン(TiO)を用いて構成される。なお、構造体51は、シリコン、ポリシリコン(Poly-Si)、アモルファスシリコン(a-Si)、ゲルマニウム(Ge)等を用いて形成されてもよい。
構造体51は、チタン(Ti)、ハフニウム(Hf)、ジルコニウム(Zr)、アルミニウム(Al)、タンタル(Ta)、インジウム(In)、ニオブ(Nb)等の単体、酸化物、窒化物、酸窒化物、或いはこれらの複合物から構成されてもよい。構造体51は、他の金属化合物(金属酸化物、金属窒化物等)により構成されてもよい。
光学層70の構造体51は、充填部材55の屈折率より低い屈折率を有していてもよい。構造体51は、充填部材55の屈折率よりも低い屈折率を有する材料により構成され得る。例えば、構造体51は、フッ化マグネシウム(MgF)を用いて構成されてもよい。
構造体51は、酸化シリコン、窒化シリコン、窒化酸化シリコン、炭化シリコン、酸化炭化シリコン、その他のシリコン化合物を用いて形成されてもよい。また、構造体51は、有機材料を用いて構成されてもよい。構造体51は、シロキサン系樹脂、スチレン系樹脂、アクリル系樹脂等を用いて構成されてもよい。構造体51は、ビーズ(フィラー)を用いて形成されてもよい。
充填部材55は、一例として、酸化物、窒化物、酸窒化物等の無機材料を用いて構成される。充填部材55は、例えば、酸化シリコン、窒化シリコン、酸窒化シリコン、炭化シリコン等により構成されてもよい。なお、充填部材55及び絶縁層80の一部又は全部は、一体的に構成されてもよい。充填部材55は、有機材料を用いて構成されてもよい。
充填部材55は、シロキサン系樹脂、スチレン系樹脂、アクリル系樹脂等を用いて構成されてもよい。これらの樹脂のいずれかにフッ素を含有した材料によって、充填部材55が構成されてもよい。これらの樹脂のいずれかに、その樹脂よりも高い(又は低い)屈折率を有するビーズを内填した材料を用いて、充填部材55を形成してもよい。
構造体51及び充填部材55の材料は、周囲の媒質との屈折率差、計測対象となる入射光の波長域等に応じて選択され得る。構造体51及び充填部材55は、無機材料を用いて構成されてもよく、有機材料を用いて構成されてもよい。また、構造体51又は充填部材55は、空隙(空洞)を用いて構成されてもよい。例えば、充填部材55は、空気(空隙)を含んで構成されてもよい。
光学層70は、例えば、構造体51とその周囲の媒質との屈折率差によって、入射する光に位相遅延を生じさせ、光の波面を制御し得る。光学層70は、例えば、構造体51と、構造体51の周囲の充填部材55とによって入射光に対して位相遅延を与えることで、光の伝搬方向を調整し得る。
計測対象からの入射光のうち任意の波長域の光が所望の方向に進むように、構造体51及び充填部材55の材料(各材料の光学定数)、構造体51の大きさ(幅(直径)、高さ等)、ピッチ(配置間隔)等が定められる。例えば、構造体51の材料(屈折率)、寸法、ピッチ、充填部材55の材料(屈折率)などが設定され得る。
光学層70(又は導光部60)は、一例として、入射する光を分光可能な分光部(分光素子)として構成される。光学層70(又は導光部60)は、スプリッタ(カラースプリッタ)ともいえる。光学層70は、カラースプリッタ層、又は波長分離層ともいえる。光学層70(又は導光部60)は、光をリダイレクトするように構成された光学素子ともいえる。
光学層70は、例えば、光の波長に応じて異なる位相遅延量を与えることによって光の伝搬方向を調整し、入射光を各波長域の光に分離することができる。光学層70による各波長の光の伝搬方向は、構造体51の素材(屈折率)、幅、高さ、配置位置(ピッチ)等によって調整可能である。
一例として、撮像装置1では、検出対象とする特定の波長帯の光が所望の画素Pの光電変換部12へ分岐して進むように、構造体51の素材、大きさ、配置数などが定められる。例えば、各色の画素P毎に所望の集光範囲を得るために、各色の画素Pにおける構造体51の大きさ、配置間隔等が設定される。例えば、画素Pr、画素Pg、画素Pbの各導光部60の構造体51は、各々の大きさ(例えば幅、高さ)、配置位置等が異なるように形成され得る。
光学層70は、図4に示す例のように、反射防止膜65とストッパー膜66を有し得る。反射防止膜65(反射抑制膜)は、例えば、構造体51に対して、光が入射する側に設けられる。反射防止膜65は、一例として、図4に示すように、複数の構造体51を覆うように設けられ、反射を低減(抑制)する。
ストッパー膜66は、例えば、構造体51と絶縁層80との間に設けられる。ストッパー膜66は、撮像装置1の製造時において、エッチングのストッパー膜(ストッパー層)となる。ストッパー膜66が設けられることで、構造体51の加工制御性を改善することができる。なお、ストッパー膜66は、反射防止膜(反射抑制膜)としても機能し得る。
撮像装置1では、各画素Pは、例えば、同色画素間の距離、光学層70の光学特性等に応じて、異なる大きさ又は構造を有するように構成される。例えば、撮像装置1は、図3及び図4に示す例のように、画素Pgの光電変換部12と画素Pr(又は画素Pb)の光電変換部12とが異なる受光面積を有するように構成される。
撮像装置1では、例えば、図3及び図4に示す例のように、画素Pgの光電変換部12の大きさ(幅、面積等)は、画素Prの光電変換部12の大きさよりも大きくてもよい。また、画素Pgの光電変換部12の大きさは、画素Pbの光電変換部12の大きさよりも大きくてもよい。
図3及び図4に示す例では、画素Pgの光電変換部12のX軸方向の幅は、画素Pr(又は画素Pb)の光電変換部12の幅よりも大きい。画素Pgの光電変換部12の光を受光する面積は、画素Pr(又は画素Pb)の光電変換部12の光を受光する面積よりも大きくなっている。
撮像装置1の光学層70は、複数の波長域の光、例えば第1の波長域~第3の波長域の光にそれぞれ異なる位相遅延を与える。撮像装置1では、光学層70に入射した光を、第1の波長域の光、第2の波長域の光、及び第3の波長域の光に分けることが可能となる。
光学層70の導光部60は、入射した光から、第1の波長域の光、第2の波長域の光、第3の波長域の光を分けるように構成され得る。一例として、撮像装置1は、光学層70によって、第1の波長光~第3の波長光としての青色光、緑色光、及び赤色光の各々の進行方向を調整し得る。
図6及び図7は、第1の実施の形態に係る撮像装置の構成例を説明するための図である。図6では、図4と同様に、B画素である画素Pbと、G画素である画素Pgとを図示している。図7では、G画素である画素Pgと、R画素である画素Prとを図示している。また、図6及び図7において、破線矢印Lbは、青色光を模式的に表している。実線矢印Lgは、緑色光を模式的に表しており、破線矢印Lrは、赤色光を模式的に表している。
画素Pbの導光部60は、入射する光のうち、青(B)の光をその画素Pbの光電変換部12へ、緑(G)の光を画素Pgの光電変換部12へそれぞれ伝搬可能に構成される。また、画素Pbの導光部60は、入射する光のうち、赤(R)の光を画素Prの光電変換部12へ伝搬するように構成される。画素Pbの導光部60は、入射光のスプリットを行い、入射した光のうち、緑の波長域の光を画素Pgの方へ導き、赤の波長域の光を画素Prの方へ導く。
画素Pgの導光部60は、入射する光のうち、緑(G)の光をその画素Pgの光電変換部12へ、青(B)の光を画素Pbの光電変換部12へそれぞれ伝搬可能に構成される。また、画素Pgの導光部60は、入射する光のうち、赤(R)の光を画素Prの光電変換部12へ伝搬するように構成される。画素Pgの導光部60は、入射光のスプリットを行い、入射した光のうち、青の波長域の光を画素Pbの方へ導き、赤の波長域の光を画素Prの方へ導く。
画素Prの導光部60は、入射する光のうち、赤(R)の光をその画素Prの光電変換部12へ、緑(G)の光を画素Pgの光電変換部12へそれぞれ伝搬可能に構成される。また、画素Prの導光部60は、入射する光のうち、青(B)の光を画素Pbの光電変換部12へ伝搬するように構成される。画素Prの導光部60は、入射光のスプリットを行い、入射した光のうち、緑の波長域の光を画素Pgの方へ導き、青の波長域の光を画素Pbの方へ導く。
こうして、図8Aにおいて矢印で模式的に示すように、画素Pbを囲む複数の画素は、入射光のうち青の波長の光を画素Pbの方へ導く。画素Pbに入射する青色光と、画素Pbの周囲の画素の各々に入射する青色光とを、画素Pbの光電変換部12へ集光させることができる。画素Pbの光電変換部12は、青の波長域の光を効率よく受光して光電変換を行い、受光量に応じた電荷を生成することが可能となる。
図8Bにおいて矢印で模式的に示すように、画素Pgを囲む複数の画素は、入射光のうち緑の波長の光を画素Pgの方へ導く。画素Pgに入射する緑色光と、画素Pgの周囲の画素の各々に入射する緑色光とを、画素Pgの光電変換部12へ集光させることができる。画素Pgの光電変換部12は、緑の波長域の光を効率よく受光して光電変換を行い、受光量に応じた電荷を生成することが可能となる。
また、図8Cにおいて矢印で模式的に示すように、画素Prを囲む複数の画素は、入射光のうち赤の波長の光を画素Prの方へ導く。画素Prに入射する赤色光と、画素Prの周囲の画素の各々に入射する赤色光とを、画素Prの光電変換部12へ集光させることができる。画素Prの光電変換部12は、赤の波長域の光を効率よく受光して光電変換を行い、受光量に応じた電荷を生成することが可能となる。
このように、撮像装置1では、画素Pの周辺画素からも、検出対象の光を画素P内に集めることができる。1画素サイズより大きな範囲から光を集光することができ、画素Pの光電変換部12の受光量を増やすことができる。光電変換部12へ効率よく光を導くことができ、量子効率(QE)を向上させることができる。入射光に対する感度を向上させることが可能となる。
撮像装置1の各画素Pには、上述のように、光学層70を介して、計測対象である被写体からの光が入射する。各画素Pは、導光部60の構造体51を介して入射する光を受光して、画素信号を生成し得る。撮像装置1は、各画素Pにおける光電変換によって得られる画素信号を用いて、被写体像を示す画像データを生成し得る。
また、例えば、撮像装置1は、各画素の画素信号を用いて、物体までの距離に関する画像データ(距離画像データ)を生成し得る。本実施の形態では、構造体51を有する導光部60によって、任意の波長域の光を、光電変換部12側へ適切に導光することができる。入射光に対する感度を向上させることが可能となる。
仮に各色の画素の光電変換部が同じ受光面積を有する場合、同色画素間の距離、メタサーフェス層の特性等によっては、各色の画素毎に、光電変換部に入射する光の光量に大きな差異が生じるおそれがある。或る色の画素の感度と、他の色の画素の感度との差が大きくなることが考えられる。例えば、図9に示すように、R画素とG画素とB画素の各々の量子効率が、大きく異なってしまう。
図9に示す比較例の場合、G画素の量子効率とR画素(又はB画素)の量子効率とが、大きく異なる。例えば、同色画素間の距離が異なることに起因して、各色の画素においてメタサーフェス層を介して受光可能な面積に差異が生じ、画素間の感度差が増大し得る。このため、各色の画素の信号を用いて生成される画像の画質劣化が生じるおそれがある。
本実施の形態に係る撮像装置1では、各色の画素Pは、異なる大きさ又は構造を有するように構成される。各色の画素Pは、例えば、光電変換部12の受光面積が異なるように構成される。図3及び図4等に示す例では、G画素の光電変換部12の受光面積は、R画素(又はB画素)の光電変換部12の受光面積よりも大きい。この場合、図10に示すように、R画素とG画素とB画素の各々の量子効率の差を小さくすることが可能となる。このため、画像の画質低下を抑制することが可能となる。
撮像装置1は、例えば、画素Pgが拡大され、画素Pr及び画素Pbが縮小された構造を有する。これにより、各色の画素Pの感度の差を低減することが可能となる。感度差に起因する画質劣化が生じることを回避しつつ、光学層70(メタサーフェス層)による感度の向上を図ることができる。良好な検出性能を有する光検出装置を実現することが可能となる。
図11A~図11Cは、第1の実施の形態に係る光検出装置の別の構成例を説明するための図である。図11A~図11Cは、撮像装置1における画素部100の画素Pの別の配置例を示している。撮像装置1には、W(ホワイト)の光を受光して光電変換する画素、即ちC(クリア)画素である画素Pwを設けてもよい。また、Ye(イエロー)の波長の光を受光して光電変換する画素Py、Cy(シアン)の波長の光を受光して光電変換する画素Pcを設けるようにしてもよい。
図11Aに示す例のように、例えば、画素Prと画素Pwと画素Pbとを、RCCB配列となるように配置してもよい。また、図11Bに示す例のように、画素Prと画素Pwと画素Pgとが、RCCG配列となるように配置されてもよい。図11Cに示す例のように、画素Prと画素Pyと画素Pcとが、RYYCy配列となるように配置されてもよい。
本開示に係る光検出装置は、赤外光を波長に応じて分光する装置にも適用可能である。光検出装置(撮像装置)は、複数の波長帯域の赤外光を検出する装置としても構成され得る。光検出装置(撮像装置)の光学層(又は導光部)は、例えば、入射した赤外光を、第1の波長域の赤外光、第2の波長域の赤外光、及び第3の波長域の赤外光等に分光するように構成され得る。
第1の波長域の赤外光を受光して光電変換する画素と、第2の波長域の赤外光を受光して光電変換する画素と、第3の波長域の赤外光を受光して光電変換する画素とが、互いに異なる大きさ又は構造を有するように構成され得る。例えば、光検出装置は、各種の画素毎に、光電変換部の受光面積が異なるように構成されてもよい。
[作用・効果]
本実施の形態に係る光検出装置は、第1方向(例えばX軸方向)に並ぶように設けられる複数の構造体(構造体51)を有する光学層(光学層70)と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素(例えば画素Pg)と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素(例えば画素Pb)とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。
本実施の形態に係る光検出装置は、第1方向(例えばX軸方向)に並ぶように設けられる複数の構造体(構造体51)を有する光学層(光学層70)と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素(例えば画素Pg)と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素(例えば画素Pb)とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。
本実施の形態に係る光検出装置では、複数の構造体51を有する光学層70が設けられる。画素Pg同士の間隔は、画素Pb同士の間隔とは異なる。画素Pgの光電変換部12の受光面積は、画素Pbの光電変換部12の受光面積とは異なる。このため、光検出装置(撮像装置1)は、各画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜説明を省略する。
(変形例1)
上述した実施の形態では、撮像装置の構成例について説明したが、撮像装置の構成は上述した例に限られない。図12は、本開示の変形例1に係る撮像装置の平面構成の一例を示す図である。また、図13は、変形例1に係る撮像装置の断面構成の一例を示す図である。
上述した実施の形態では、撮像装置の構成例について説明したが、撮像装置の構成は上述した例に限られない。図12は、本開示の変形例1に係る撮像装置の平面構成の一例を示す図である。また、図13は、変形例1に係る撮像装置の断面構成の一例を示す図である。
画素Prは、画素Prの光電変換部12が画素Pgの光電変換部12の受光面積よりも大きい受光面積を有するように構成されてもよい。また、画素Pbは、画素Pbの光電変換部12が画素Pgの光電変換部12の受光面積よりも大きい受光面積を有するように構成されてもよい。
図12及び図13に示す例では、画素Prの光電変換部12の大きさは、画素Pgの光電変換部12の大きさよりも大きく、画素Prの光電変換部12の受光面積は、画素Pgの光電変換部12の受光面積よりも大きい。画素Prの光電変換部12のX軸方向(又はY軸方向)における幅は、画素Pgの光電変換部12の幅よりも大きくなっている。
また、画素Pbの光電変換部12の大きさは、画素Pgの光電変換部12の大きさよりも大きく、画素Pbにおける光電変換部12の受光面積は、画素Pgにおける光電変換部12の受光面積よりも大きい。画素Pbの光電変換部12のX軸方向(又はY軸方向)における幅は、画素Pgの光電変換部12の幅よりも大きくなっている。
仮に各色の画素の光電変換部が同じ受光面積を有する場合、同色画素間の距離、メタサーフェス層の特性等によっては、図14に示すように、R画素とG画素とB画素の各々の量子効率が、大きく異なってしまう。図14に示す比較例の場合、R画素(又はB画素)は、G画素と比べて、量子効率が小さくなっている。
そこで、図12及び図13に示す例のように、R画素(又はB画素)の光電変換部12の受光面積は、G画素の光電変換部12の受光面積よりも大きくてもよい。この場合、図15に示すように、R画素とG画素とB画素の各々の量子効率の差を小さくすることができる。画像の画質が低下することを抑制することが可能となる。
<2.第2の実施の形態>
次に、本開示の第2の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
次に、本開示の第2の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
図16は、本開示の第2の実施の形態に係る撮像装置の平面構成の一例を示す図である。図17及び図18は、第2の実施の形態に係る撮像装置の断面構成の一例を示す図である。本実施の形態に係る撮像装置1では、各画素Pの遮光部材40における開口部45の大きさが異なるように構成され得る。なお、各色の画素Pの光電変換部12は、共に同じ大きさを有していてよい。
撮像装置1は、例えば、各種の画素P毎に、遮光部材40の開口部45(幅、面積等)が異なるように構成される。この場合、開口部45の大きさに応じて、光電変換部12が光を受光する面積が変わる。各色の画素Pの光電変換部12は、その画素Pの開口部45の大きさに対応した受光面積を有し得る。
画素Pgに対して設けられる開口部45の大きさは、画素Pbに対して設けられる開口部45の大きさよりも大きくてもよい。画素Pgにおける開口部45を有する遮光部材(遮光部材40gと称する)と、画素Pbにおける開口部45を有する遮光部材(遮光部材40bと称する)とが、互いに異なる面積(開口面積)を有するともいえる。
また、画素Pgに対して設けられる開口部45の大きさは、画素Prに対して設けられる開口部45の大きさよりも大きくてもよい。画素Pgにおける開口部45を有する遮光部材40gと、画素Prにおける開口部45を有する遮光部材(遮光部材40rと称する)とが、互いに異なる開口面積を有するともいえる。
図17に示す例では、遮光部材40gの開口部45の幅W1は、遮光部材40bの開口部45の幅W2よりも大きい。画素Pgの光電変換部12が受光可能な面積は、画素Pbの光電変換部12が受光可能な面積よりも大きくなる。また、図18に示すように、遮光部材40gの開口部45の幅W1は、遮光部材40rの開口部45の幅W3よりも大きくてもよい。画素Pgの光電変換部12が受光可能な面積は、画素Prの光電変換部12が受光可能な面積よりも大きくなる。
なお、図16~図18に示す例では、遮光部材40gと遮光部材40bと遮光部材40rとは、例えば、連続して形成され、一体に設けられる。遮光部材40gと遮光部材40bと遮光部材40rとは、一体に設けられてもよく、互いに分離して設けられてもよい。
本実施の形態に係る撮像装置1は、各色の画素Pにおける開口部45の大きさが異なるように構成される。各色の画素Pにおける開口面積が調整され、各色の画素P間の量子効率の差を小さくすることが可能となる。各画素の画素信号を用いて生成される画像の画質低下を防ぐことが可能となる。
図19は、第2の実施の形態に係る撮像装置の別の構成例を説明するための図である。画素Pgに対して設けられる開口部45の大きさは、画素Pb(又は画素Pr)に対して設けられる開口部45の大きさよりも小さくてもよい。例えば、光学層70の光学特性に応じて、撮像装置1は、画素Pgの開口部45が画素Pb(又は画素Pr)の開口部45よりも小さい面積(開口面積)を有するように構成されてもよい。
[作用・効果]
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素(例えば画素Pg)と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素(例えば画素Pb)とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1画素は、光学層と第1光電変換素子との間に設けられ、光が入射する第1開口部(開口部45)を有する第1遮光部材(例えば遮光部材40g)を有する。第2画素は、光学層と第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材(例えば遮光部材40b)を有する。第1開口部の幅は、第2開口部の幅とは異なる。
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素(例えば画素Pg)と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素(例えば画素Pb)とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1画素は、光学層と第1光電変換素子との間に設けられ、光が入射する第1開口部(開口部45)を有する第1遮光部材(例えば遮光部材40g)を有する。第2画素は、光学層と第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材(例えば遮光部材40b)を有する。第1開口部の幅は、第2開口部の幅とは異なる。
本実施の形態に係る光検出装置は、複数の構造体51を有する光学層70と、遮光部材40gを有する画素Pgと、遮光部材40bを有する画素Pbとを備える。遮光部材40gの開口部45の幅は、遮光部材40bの開口部45の幅とは異なる。このため、光検出装置(撮像装置1)は、各画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
<3.第3の実施の形態>
次に、本開示の第3の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
次に、本開示の第3の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
図20は、本開示の第3の実施の形態に係る撮像装置の平面構成の一例を示す図である。図21は、第3の実施の形態に係る撮像装置の断面構成の一例を示す図である。本実施の形態に係る撮像装置1は、図20及び図21に示すように、レンズ81を有する。レンズ81(レンズ部)は、上方から入射する光を光電変換部12側へ導く。
レンズ81は、例えば、画素P毎または複数の画素P毎に、光電変換部12の上方に設けられる。図21に示す例では、レンズ81は、絶縁層80において、開口部45を有する遮光部材40の上に形成される。レンズ81は、光を集光するレンズであり、インナーレンズとも呼ばれる光学部材である。
レンズ81には、光学層70を介して、計測対象である被写体からの光が入射する。レンズ81は、光学層70の導光部60を介して入射する光を、画素Pの光電変換部12側へ導く。画素Pの光電変換部12は、光学層70とレンズ81と開口部45とを介して入射する光を受光して光電変換する。
本実施の形態に係る撮像装置1では、各画素Pにおけるレンズ81の大きさが異なるように構成される。例えば、撮像装置1は、各種の画素P毎に、レンズ81の大きさ(幅、面積等)が異なるように構成される。一例として、画素Pgに設けられるレンズ81の大きさと、画素Pr(又は画素Pb)に設けられるレンズ81の大きさとは異なる。
画素Pgのレンズ81の大きさは、図21に示す例のように、画素Pbのレンズ81の大きさよりも大きくてもよい。また、画素Pgのレンズ81の大きさは、画素Prのレンズ81の大きさよりも大きくてもよい。例えば、画素Pr(又は画素Pb)と比較して、より広い範囲から画素Pgの光電変換部12へ光が集光されるように、画素Pgのレンズ81のX軸方向(又はY軸方向)における幅、及びZ軸方向における高さ(厚さ)等が設定される。
本実施の形態に係る撮像装置1は、各色の画素Pにおけるレンズ81の大きさが異なるように構成される。各色の画素Pにおけるレンズ81の大きさを調整することで、各色の画素P間の量子効率の差を小さくすることができる。画像の画質低下を抑制することが可能となる。
図22は、第3の実施の形態に係る撮像装置の別の構成例を説明するための図である。画素Pgに対して設けられるレンズ81の大きさは、画素Pb(又は画素Pr)に対して設けられるレンズ81の大きさよりも小さくてもよい。例えば、光学層70の光学特性に応じて、画素Pgのレンズ81は、画素Pb(又は画素Pr)のレンズ81の幅よりも小さい幅を有するように構成されてもよい。
[作用・効果]
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、第1レンズ(レンズ81)と、光学層及び第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素(例えば画素Pg)と、第2レンズと、光学層及び第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素(例えば画素Pb)とを備える。第1レンズの大きさは、第2レンズの大きさとは異なる。
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、第1レンズ(レンズ81)と、光学層及び第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素(例えば画素Pg)と、第2レンズと、光学層及び第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素(例えば画素Pb)とを備える。第1レンズの大きさは、第2レンズの大きさとは異なる。
本実施の形態に係る光検出装置では、複数の構造体51を有する光学層70が設けられる。画素Pgのレンズ81の大きさは、画素Pbのレンズ81の大きさとは異なる。このため、光検出装置(撮像装置1)は、各画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
<4.第4の実施の形態>
次に、本開示の第4の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
次に、本開示の第4の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
図23は、本開示の第4の実施の形態に係る撮像装置の断面構成の一例を示す図である。本実施の形態に係る撮像装置1は、図23に示すように、フィルタ85を有する。フィルタ85は、入射する光のうちの特定の波長域の光を選択的に透過させるように構成される。
フィルタ85は、例えば、画素P毎または複数の画素P毎に、光電変換部12の上方に設けられる。画素Pの光電変換部12は、光学層70及びフィルタ85を介して入射する光を光電変換する。図23に示す例では、フィルタ85は、絶縁層80において、遮光部材40の開口部45に対して設けられる。例えば、フィルタ85の少なくとも一部が、開口部45内に設けられる。
フィルタ85は、例えば、RGBのカラーフィルタである。撮像装置1では、例えば、画素Prは、赤(R)の光を透過するフィルタ85を有する。画素Pgは、緑(G)の光を透過するフィルタ85を有する。また、画素Pbは、青(B)の光を透過するフィルタ85を有する。なお、フィルタ85は、Cy(シアン)、Ye(イエロー)、Mg(マゼンタ)等の補色系のカラーフィルタであってもよい。また、赤外光を透過するフィルタを配置してもよい。
本実施の形態に係る撮像装置1では、各種の画素Pのフィルタ85は、異なる厚さ又は材料を有し、互いに異なる透過率を有するように構成される。例えば、撮像装置1は、各色の画素P毎に、フィルタ85の厚さ(高さ)が異なるように構成される。一例として、画素Pgに設けられるフィルタ85の厚さと、画素Pr(又は画素Pb)に設けられるフィルタ85の厚さとは異なる。
各色の画素Pのフィルタ85は、互いに異なる透過率を有する材料を用いて構成されてもよい。一例として、画素Pgのフィルタ85は、画素Pr(又は画素Pb)のフィルタ85の透過率よりも低い透過率を有する材料を用いて構成されてもよい。
図23に示す例では、画素Pgのフィルタ85のZ軸方向における厚さ(高さ)は、画素Pbのフィルタ85の厚さ(高さ)よりも小さい。また、画素Pgのフィルタ85の厚さは、画素Prのフィルタ85の厚さよりも小さくてもよい。これにより、画素Pgの光電変換部12の受光量を増加させることが可能となる。
本実施の形態に係る撮像装置1では、例えば、各色の画素Pにおけるフィルタ85の厚さ又は材料が異なる。各色の画素Pのフィルタ85は、互いに異なる透過率を有するように構成され得る。このため、各色の画素Pのフィルタ85における光の透過量を調整し、各色の画素P間の量子効率の差を小さくすることが可能となる。画像の画質低下が生じることを防ぐことが可能となる。
図24は、第4の実施の形態に係る撮像装置の別の構成例を説明するための図である。画素Pgに対して設けられるフィルタ85の透過率は、画素Pb(又は画素Pr)に対して設けられるフィルタ85の透過率よりも小さくてもよい。例えば、光学層70の光学特性に応じて、画素Pgのフィルタ85は、画素Pb(又は画素Pr)のフィルタ85の厚さよりも大きい厚さを有していてもよい。
[作用・効果]
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、第1フィルタ(フィルタ85)と、光学層及び第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素(例えば画素Pg)と、第2フィルタと、光学層及び第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素(例えば画素Pb)とを備える。第1フィルタと第2フィルタとは、互いに異なる厚さ又は材料を有する。
本実施の形態に係る光検出装置は、第1方向に並ぶように設けられる複数の構造体を有する光学層(光学層70)と、第1フィルタ(フィルタ85)と、光学層及び第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素(例えば画素Pg)と、第2フィルタと、光学層及び第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素(例えば画素Pb)とを備える。第1フィルタと第2フィルタとは、互いに異なる厚さ又は材料を有する。
本実施の形態に係る光検出装置では、複数の構造体51を有する光学層70が設けられる。画素Pgのフィルタ85と画素Pbのフィルタ85とは、互いに異なる厚さ又は材料を有する。このため、光検出装置(撮像装置1)は、各画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
<5.第5の実施の形態>
次に、本開示の第5の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
次に、本開示の第5の実施の形態について説明する。以下では、上述した実施の形態と同様の構成部分については同一の符号を付し、適宜説明を省略する。
図25は、本開示の第5の実施の形態に係る撮像装置の断面構成の一例を示す図である。本実施の形態に係る撮像装置1は、図25に示すように、フィルタ85と、導光部材75を含む光学層71を有する。フィルタ85及び光学層71は、光学層70と半導体層10との間に設けられる。図25に示す例では、フィルタ85及び光学層71は、絶縁層80に設けられる。
撮像装置1は、光学層70と、フィルタ85と、光学層71と、半導体層10と、多層配線層90とがZ軸方向に積層された構成を有する。光が入射する側から、光学層70と、フィルタ85と、光学層71と、半導体層10と、多層配線層90とが設けられる。
フィルタ85は、上述のように、入射光のうち特定の波長域の光を選択的に透過させるように構成される。フィルタ85は、RGBのカラーフィルタ、赤外光を透過するフィルタ等である。フィルタ85は、例えば、画素P毎または複数の画素P毎に、光学層70と光学層71との間に設けられる。
光学層71は、複数の導光部材75を有し、入射した光を光電変換部12側に導光するように構成される。光学層71は、導光部材75(導光部)を利用し、光を光電変換部12側へ伝搬させる。光学層71は、例えば、光学層70とフィルタ85とを介して入射する光を集光するように構成される。光学層71は、光を集光する集光層ともいえる。
導光部材75は、例えば、レンズ81により構成される。導光部材75は、光を集光するレンズ81であり、インナーレンズともいえる。導光部材75としてのレンズ81は、光学層70の導光部60とフィルタ85とを介して入射する光を、画素Pの光電変換部12側へ導く。画素Pの光電変換部12は、光学層70とフィルタ85と光学層71(集光層)とを介して入射する光を受光して光電変換する。
レンズ81は、例えば、窒化シリコン(SiN)、酸化シリコン(SiO)、樹脂材料等により構成される。なお、レンズ81は、アモルファスシリコン(a-Si)により構成されてもよく、その他の材料を用いて形成されてもよい。レンズ81は、絶縁層80の絶縁膜(例えばシリコン酸化膜)の屈折率よりも高い屈折率を有する他の材料を用いて形成されてもよい。
レンズ81の構成(形状、大きさ等)は、適宜変更可能であり、例えば矩形状のレンズであってもよい。導光部材75は、他の例として、光を導く導波路として構成されてもよい。また、導光部材75は、複数の構造体(例えば高屈折率部材)を有し、光を集光するように構成されてもよい。導光部材75は、光を集光する光学部材として構成され、集光部材ともいえる。
本実施の形態に係る撮像装置1では、フィルタ85と光電変換部12との間に、導光部材75が設けられる。このため、図26において矢印で模式的に示す例のように、光電変換部12へ適切に光を導光することができる。光電変換部12に効率よく光を導くことができ、量子効率(QE)を向上させることができる。入射光に対する感度をより向上させることが可能となる。
撮像装置1では、導光部材75が設けられることで、集光スポットの偏心量を小さくすることができる。斜入射光の場合も、光電変換部12へ適切に光を導光することが可能となる。このため、像高が低い領域の画素Pと像高が高い領域の画素Pとで、入射光に対する感度に大きな差異が生じることを防ぐことができる。画素毎に1画素サイズよりも広い範囲から光を集めつつ、シェーディングを抑制することが可能となる。
撮像装置1をレンズ交換式のカメラに適用する場合、様々な射出瞳距離に対応して、斜入射光に対する特性を改善させることができる。光電変換部12における光の受光量を増加させ、量子効率を改善させることができる。画素信号を用いて生成される画像の画質低下を抑制することが可能となる。
また、本実施の形態では、導光部材75は、上述したように、フィルタ85と光電変換部12との間に設けられる。フィルタ85上に導光部材75を配置して光学層70によって導光部材75側へ光を集光する場合と比較して、撮像装置1を低背化しつつ、斜入射特性を改善することが可能となる。また、フィルタ85の構成材料(例えば顔料)に起因する感度ムラの増大を防ぐことができる。
図27は、第5の実施の形態に係る撮像装置の異なる像高の位置における断面構成例を示す図である。図27は、図25の場合よりも、画素部100(画素アレイ)の中心からの距離、即ち、像高が高い領域における断面構成の一例を示している。なお、画素部100の中央領域では、画素Pは、例えば、上述した図25に示すように構成される。
撮像装置1の画素部100の中央部分には、例えば、光学レンズからの光がほぼ垂直に入射する。中央部分よりも外側に位置する周辺部分、即ち画素部100の中央から離れた領域には、図27において矢印で模式的に示す例のように、光が斜めに入射する。撮像装置1では、各画素Pにおける導光部60、フィルタ85、導光部材75、遮光部材40等の位置が、画素部100の中心からの距離、即ち、像高に応じて異なるように構成され得る。
図27に示すように、例えば、導光部材75としてのレンズ81は、光電変換部12に対して、画素部100の中央側にずらして配置される。図27に示す例では、導光部材75は、画素Pの光電変換部12に対して、右方向にシフトして設けられるともいえる。また、画素Pの導光部60、フィルタ85、遮光部材40等も、その画素Pの光電変換部12に対して画素部100の中央側にずらして配置され得る。
図27に示す例では、光学層70(又は光学層71)と半導体層10との積層方向(Z軸方向)と直交する方向において、導光部材75の中心位置は、光電変換部12の中心位置と異なっている。画素Pの導光部材75の中心は、その画素Pの光電変換部12の中心よりも画素部100の中心に近い位置にある。光学層70と半導体層10との積層方向と直交する平面において、画素Pの導光部60、フィルタ85、及び遮光部材40の各々の中心も、その画素Pの光電変換部12の中心よりも画素部100の中心に近い位置に位置し得る。
光電変換部12の中心と遮光部材40の中心(即ち開口部45の中心)との距離d1、光電変換部12の中心と導光部材75の中心との距離d2、光電変換部12の中心とフィルタ85の中心との距離d3、光電変換部12の中心と導光部60の中心との距離d4とすると、遮光部材40及び導光部材75及びフィルタ85及び導光部60は、d1≦d2≦d3≦d4を満たすように形成され得る。
撮像装置1の画素部100では、上述のように、導光部材75の位置およびフィルタ85の位置等が、像高に応じて調整され、瞳補正を適切に行うことができる。図28において矢印で模式的に示すように、光電変換部12へ適切に光を導くことができる。各画素Pの光電変換部12へ入射する光の光量が低下することを抑制し、入射光に対する感度が低下することを抑制することが可能となる。
図29及び図30は、第5の実施の形態に係る撮像装置の構成例を説明するための図である。撮像装置1では、各種の画素P毎に、導光部材75の大きさが異なるように構成されてもよい。例えば、各色の画素P毎に、レンズ81の曲率が異なるように構成される。一例として、画素Pgのレンズ81のZ軸方向の厚さ(高さ)と、画素Pr(又は画素Pb)のレンズ81のZ軸方向の厚さとは異なる。
画素Pgの導光部材75は、例えば、図29に示す例のように、画素Pgのレンズ81が画素Pbのレンズ81の曲率よりも大きい曲率を有するように構成される。また、画素Prの導光部材75は、例えば、図30に示す例のように、画素Prのレンズ81が画素Pgのレンズ81の曲率よりも大きい曲率を有するように構成され得る。
画素Pgのレンズ81の曲率は、例えば、画素Pbのレンズ81の曲率よりも大きく、画素Prのレンズ81の曲率よりも小さい。検出対象の光の波長域に対応して、各色の画素Pの導光部材75のレンズパワーを調整することで、各色の画素Pの量子効率を改善させることができる。画像の画質低下を抑制することが可能となる。
図31は、第5の実施の形態に係る撮像装置の断面構成の一例を説明するための図である。また、図32は、撮像装置の平面構成の一例を説明するための図である。撮像装置1は、例えば、図31及び図32に示す例のように、位相差検出に利用可能な画素P2a及び画素P2bを有し得る。
画素P2a及び画素P2bは、開口部45が設けられた遮光部材40を有し、撮像レンズ等の光学系の互いに異なる領域を通過した光を受光するように構成される。画素P2a,P2bは、位相差画素(又は像面位相差画素)といえる。撮像装置1では、例えば、画素部100の全面において、複数の画素P2a及び複数の画素P2bが離散的に設けられる。
撮像装置1では、画素P2aの光電変換部12と画素P2bの光電変換部12によって、光学系の互いに異なる領域を通過した光が受光され、瞳分割が行われる。一方の光電変換部12で光電変換された電荷に基づく画素信号と、他方の光電変換部12で光電変換された電荷に基づく画素信号とを用いることで、位相差データ(位相差情報)を得ることができる。位相差データを用いることで、位相差AF(Auto Focus)を行うことができる。
画素P2a及び画素P2bは、例えば、それぞれ、フィルタ85として、W(ホワイト)に対応したフィルタ、即ち入射光の全波長域の光を透過させるフィルタを有していてもよい。画素P2a及び画素P2bには、RGBのカラーフィルタ、赤外光を透過するフィルタ等のフィルタ85を設けなくてもよい。
撮像装置1では、画素P2a,P2bに導光部材75が設けられることで、計測対象としての被写体からの光を光電変換部12へ適切に導くことができる。このため、位相差検出の精度が低下することを抑制し、AF性能の低下を抑制することが可能となる。斜入射光に対する特性を改善することができ、例えば位相差検出が可能なAFエリアが制限されてしまうことを回避することが可能となる。
図33は、第5の実施の形態に係る撮像装置の断面構成の一例を説明するための図である。また、図34は、撮像装置の平面構成の一例を説明するための図である。撮像装置1の各画素Pは、それぞれ、複数の光電変換部12(図33及び図34に示す例では、光電変換部12a、光電変換部12b)を有していてもよい。撮像装置1では、光電変換部12aと光電変換部12bによって、撮像レンズ等の光学系の互いに異なる領域を通過した光が受光され、瞳分割が行われる。
光電変換部12aで変換された電荷に基づく画素信号と、光電変換部12bで変換された電荷に基づく画素信号とを用いることで、位相差データを得ることができ、位相差AFを行うことができる。撮像装置1の画素P(R画素、G画素、B画素等)は、位相差検出に利用可能な画素でもあり、位相差画素(又は像面位相差画素)ともいえる。
図35A~図35Gは、第5の実施の形態に係る撮像装置の製造方法の一例を示す図である。まず、図35Aに示すように、半導体層10に、各画素Pの光電変換部12、分離部30(分離領域)等を形成する。そして、図35Bに示すように、半導体層10上に、遮光部材40を形成した後、導光部材75として、例えばレンズ81を形成する。
次に、レンズ81及び遮光部材40を覆うように絶縁膜(例えばSiO2膜)を形成し、CMP(Chemical Mechanical Polishing)を行うことによって、図35Cに示すように、光学層71を含む絶縁層80(スペーサ層)が形成される。そして、図35Dに示すように、絶縁層80の絶縁膜の上に、各画素Pのフィルタ85を形成する。
次に、図35Eに示すように、フィルタ85上に、絶縁層80の一部を構成する絶縁膜(例えばSiO2膜)を形成する。そして、絶縁層80上に高屈折材料からなる高屈折率部(例えばSiN膜又はTiO膜)を形成した後、リソグラフィ及びエッチングによって高屈折率部を部分的に除去することで、図35Fに示すように、構造体51が形成される。なお、絶縁層80と構造体51との間に、ストッパー膜66を設けてもよい。
そして、図35Gに示すように、複数の構造体51の周囲に充填部材55を形成し、充填部材55に対して平坦化処理を行う。構造体51及び充填部材55の上に、反射防止膜65を設けてもよい。以上のような製造方法によって、図25等に示す撮像装置1を製造することができる。なお、上述した製造方法は、あくまでも一例であって、他の製造方法を採用してもよい。
[作用・効果]
本実施の形態に係る光検出装置は、第1方向(例えばX軸方向)に並ぶように設けられる複数の第1構造体(構造体51)を有する光学層(光学層70)と、半導体層(半導体層10)に設けられる第1光電変換素子(光電変換部12)と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタ(フィルタ85)と、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材(導光部材75)とを備える。
本実施の形態に係る光検出装置は、第1方向(例えばX軸方向)に並ぶように設けられる複数の第1構造体(構造体51)を有する光学層(光学層70)と、半導体層(半導体層10)に設けられる第1光電変換素子(光電変換部12)と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタ(フィルタ85)と、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材(導光部材75)とを備える。
本実施の形態に係る光検出装置(撮像装置1)では、複数の構造体51を有する光学層70と、導光部材75が設けられる。このため、光学層70を介して入射する光を光電変換部12へ適切に導くことができる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜説明を省略する。
(変形例2)
図36及び図37は、本開示の変形例2に係る撮像装置の構成例を説明するための図である。図37は、図36の場合よりも、画素部100(画素アレイ)の中心からの距離、即ち、像高が高い領域における断面構成の一例を示している。撮像装置1は、図36又は図37に示す例のように、遮光部材41を有し得る。
図36及び図37は、本開示の変形例2に係る撮像装置の構成例を説明するための図である。図37は、図36の場合よりも、画素部100(画素アレイ)の中心からの距離、即ち、像高が高い領域における断面構成の一例を示している。撮像装置1は、図36又は図37に示す例のように、遮光部材41を有し得る。
遮光部材41は、光を遮る部材により構成された遮光部(遮光膜)であり、隣り合う導光部材75の間に設けられる。図36に示す例では、遮光部材41は、隣り合う複数のレンズ81の間に設けられる。遮光部材41は、例えば、壁状の構造体であり、遮光壁ともいえる。遮光部材41は、例えば、絶縁層80において導光部材75の周囲に設けられる。
遮光部材41(遮光壁)は、導光部材75としてのレンズ81の側部に位置する。遮光部材41は、平面視において、導光部材75(レンズ81)の四方を囲むように設けられ得る。遮光部材41は、例えば、隣り合う複数の導光部材75の間から、遮光部材40に達するように設けられる。なお、遮光部材41は、図36に示す例のように、フィルタ85の近傍まで設けられてもよい。
遮光部材41は、例えば、光を吸収する材料により構成され、入射した光を吸収する。遮光部材41は、一例として、タングステン(W)により構成される。遮光部材41は、導光部材75の周囲に入射する不要な光を吸収する。なお、遮光部材41は、光を遮光する他の材料を用いて形成されてもよい。
撮像装置1では、遮光部材41の位置が、画素部100の中心からの距離に応じて異なるように構成され得る。例えば、図37に示す例のように、遮光部材41は、光電変換部12に対して、画素部100の中央側にずらして配置される。図37に示す例では、遮光部材41は、画素Pの光電変換部12に対して、右方向にシフトして設けられる。
撮像装置1では、遮光部材41が設けられることで、周囲の画素への光の漏れ込みを抑制することができる。不要な光が周囲に漏れることを抑制し、混色が生じることを抑制することができる。また、フレアが生じることを抑制し、画像の画質低下を防ぐことが可能となる。
図38は、変形例2に係る撮像装置の別の構成例を説明するための図である。遮光部材41は、図38に示す例のように、遮光部材41の上端部(先端部)が導光部材75としてのレンズ81の上端部(先端部)よりも下方に位置するように設けられてもよい。この場合、斜入射特性を改善させることが期待できる。
(変形例3)
図39は、変形例3に係る撮像装置の構成例を説明するための図である。導光部材75は、光を導く導波路76により構成されてもよい。撮像装置1は、導光部材75によって光電変換部12へ光を導く導波路構造を有し得る。図39に示す例では、導波路76は、光学層70及びフィルタ85を介して入射する光を、光電変換部12側へ伝搬するように構成される。
図39は、変形例3に係る撮像装置の構成例を説明するための図である。導光部材75は、光を導く導波路76により構成されてもよい。撮像装置1は、導光部材75によって光電変換部12へ光を導く導波路構造を有し得る。図39に示す例では、導波路76は、光学層70及びフィルタ85を介して入射する光を、光電変換部12側へ伝搬するように構成される。
導波路76は、例えば、導波路76の周囲の部材、即ち絶縁層80の絶縁膜とは異なる屈折率を有する材料により構成される。導波路76を構成する材料は、周囲の媒質との屈折率差、計測対象とする光の波長域等に応じて選択され得る。導波路76は、例えば、高屈折率材料により構成され、高屈折率部ともいえる。
導波路76は、一例として、窒化シリコン(SiN)によって構成される。なお、導波路76は、TiO、a-Si、GaN、ZnS、ZnSe等を用いて構成されてもよい。導波路76は、シリコン化合物または金属化合物により構成されてもよく、その他の材料を用いて形成されてもよい。
導光部材75としての導波路76は、導光部60とフィルタ85とを介して入射する光を、画素Pの光電変換部12側へ導く。画素Pの光電変換部12は、光学層70とフィルタ85と光学層71とを介して入射する光を受光して光電変換する。本変形例の場合も、導光部材75によって光電変換部12へ効率よく光を導くことができ、量子効率を向上させることができる。入射光に対する感度を向上させることが可能となる。
図40及び図41は、変形例3に係る撮像装置の構成例を説明するための図である。撮像装置1では、例えば、各種の画素P毎に、導光部材75の大きさが異なるように構成され得る。例えば、各色の画素P毎に、導波路76の径(幅)が異なるように構成されてよい。一例として、画素Pgの導波路76のX軸方向(又はY軸方向)における幅と、画素Pr(又は画素Pb)の導波路76のX軸方向(又はY軸方向)における幅とは異なる。
図40及び図41に示す例のように、画素Pgの導波路76の大きさ(幅、断面積)は、例えば、画素Pbの導波路76の大きさよりも大きく、画素Prの導波路76の大きさよりも小さくてよい。検出対象の光の波長域に対応して、各色の画素Pの導光部材75(導波路76)の大きさを調整することで、各色の画素Pの量子効率を改善させることができる。
(変形例4)
図42は、変形例4に係る撮像装置の構成例を説明するための図である。光学層71は、複数の構造体52と、構造体52の周囲に設けられる充填部材56とを有する。光学層71の構造体52は、一例として、柱状の形状を有する。構造体52及び充填部材56は、例えば、互いに異なる屈折率を有する材料を用いて構成される。
図42は、変形例4に係る撮像装置の構成例を説明するための図である。光学層71は、複数の構造体52と、構造体52の周囲に設けられる充填部材56とを有する。光学層71の構造体52は、一例として、柱状の形状を有する。構造体52及び充填部材56は、例えば、互いに異なる屈折率を有する材料を用いて構成される。
光学層71の導光部材75は、複数の構造体52と充填部材56を含み、光を集光するように構成され得る。構造体52は、例えば、計測対象とする光の波長域以下の大きさを有する。充填部材56は、構造体52の周囲を充填するように配置される。充填部材56は、保護部材または支持部材ともいえる。
構造体52は、充填部材56の屈折率とは異なる屈折率を有する。構造体52は、構造体52の周囲に形成される媒質層、即ち充填部材56の屈折率とは異なる屈折率を有する。充填部材56は、構造体52とは異なる屈折率を有する材料層ともいえる。
光学層71の構造体52は、例えば、充填部材56の屈折率より高い屈折率を有する。構造体52は、充填部材56の屈折率よりも高い屈折率を有する材料により構成され得る。構造体52は、例えば、窒化シリコンを用いて構成される。構造体52は、TiO、a-Si、GaN、ZnS、ZnSe等により構成されてもよく、他の材料を用いて形成されてもよい。
充填部材56は、例えば、酸化シリコン、窒化シリコン、酸窒化シリコン、又は炭化シリコン等により構成される。充填部材56は、他のシリコン化合物を用いて形成されてもよい。また、充填部材56は、樹脂材料によって構成されてもよい。
構造体52及び充填部材56の材料は、周囲の媒質との屈折率差、計測対象となる入射光の波長域等に応じて選択され得る。構造体52及び充填部材56は、無機材料を用いて構成されてもよく、有機材料を用いて構成されてもよい。また、構造体52又は充填部材56は、空隙(空洞)を用いて構成されてもよい。例えば、充填部材56は、空気(空隙)を含んで構成されてもよい。
光学層71の構造体52は、例えば、高屈折率材料により構成され、高屈折率部材(高屈折率部)ともいえる。光学層71では、例えば、所望の屈折率分布が得られるように、複数の構造体52が配置される。複数の構造体52は、一例として、図43Aまたは図43Bに示す例のように、同心円状の形状を有していてもよい。
構造体52を有する導光部材75は、導光部60とフィルタ85とを介して入射する光を、画素Pの光電変換部12側へ導く。画素Pの光電変換部12は、光学層70とフィルタ85と光学層71とを介して入射する光を受光して光電変換する。本変形例の場合も、導光部材75によって光電変換部12へ効率よく光を導くことができ、量子効率を向上させることができる。入射光に対する感度を向上させることが可能となる。
図44及び図45は、変形例4に係る撮像装置の構成例を説明するための図である。撮像装置1では、例えば、各種の画素P毎に、導光部材75(又は画素P)における構造体52が占める割合が異なるように構成され得る。例えば、各色の画素P毎に、構造体52の配置数、構造体52の大きさ等が異なるように構成される。
一例として、画素Pgの導光部材75における構造体52が占める割合と、画素Pr(又は画素Pb)の導光部材75における構造体52が占める割合とは異なる。画素Pgの導光部材75における構造体52が占める割合は、例えば、画素Pbの導光部材75における構造体52が占める割合よりも大きくてよい。
また、画素Pgの導光部材75における構造体52が占める割合は、画素Prの導光部材75における構造体52が占める割合よりも小さくてよい。検出対象の光の波長域に対応して、各色の画素Pにおける構造体52が占める割合が調整され、構造体52と充填部材56の屈折率(実効屈折率)を設定することができる。このため、各色の画素Pの量子効率を改善させることができる。
(変形例5)
図46は、変形例5に係る撮像装置の構成例を説明するための図である。撮像装置1の光学層70は、複数層(複数段)の構造体51を用いて構成されてもよい。導光部60は、複数層の構造体51を有し、入射した光を光電変換部12側に導光するように構成される。撮像装置1は、互いに積層するように設けられた複数の構造体(図46に示す例では、2層(2段)の構造体51)を有する。
図46は、変形例5に係る撮像装置の構成例を説明するための図である。撮像装置1の光学層70は、複数層(複数段)の構造体51を用いて構成されてもよい。導光部60は、複数層の構造体51を有し、入射した光を光電変換部12側に導光するように構成される。撮像装置1は、互いに積層するように設けられた複数の構造体(図46に示す例では、2層(2段)の構造体51)を有する。
光学層70(又は導光部60)は、3層、又は4層以上の複数の構造体が積層された積層構造を有していてもよい。なお、光学層70の導光部材75は、レンズ81により構成されてもよく、導波路76により構成されてもよい。また、例えば、導光部材75は、上述のように、構造体52を用いて構成されてもよい。
<6.適用例>
上記撮像装置1等は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図47は、電子機器1000の概略構成を表したものである。
上記撮像装置1等は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図47は、電子機器1000の概略構成を表したものである。
電子機器1000は、例えば、レンズ群1001と、撮像装置1と、DSP(Digital Signal Processor)回路1002と、フレームメモリ1003と、表示部1004と、記録部1005と、操作部1006と、電源部1007とを有し、バスライン1008を介して相互に接続されている。
レンズ群1001は、被写体からの入射光(像光)を取り込んで撮像装置1の撮像面上に結像するものである。撮像装置1は、レンズ群1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号としてDSP回路1002に供給する。
DSP回路1002は、撮像装置1から供給される信号を処理する信号処理回路である。DSP回路1002は、撮像装置1からの信号を処理して得られる画像データを出力する。フレームメモリ1003は、DSP回路1002により処理された画像データをフレーム単位で一時的に保持するものである。
表示部1004は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、撮像装置1で撮像された動画または静止画の画像データを、半導体メモリやハードディスク等の記録媒体に記録する。
操作部1006は、ユーザによる操作に従い、電子機器1000が所有する各種の機能についての操作信号を出力する。電源部1007は、DSP回路1002、フレームメモリ1003、表示部1004、記録部1005および操作部1006の動作電源となる各種の電源を、これら供給対象に対して適宜供給するものである。
<7.応用例>
(移動体への応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
(移動体への応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図48は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図48に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図48の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図49は、撮像部12031の設置位置の例を示す図である。
図49では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図49には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る移動体制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、撮像装置1等は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、高精細な撮影画像を得ることが可能となる。移動体制御システムにおいて撮影画像を利用した高精度な制御を行うことが可能となる。
(内視鏡手術システムへの応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
図50は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
図50では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
図51は、図50に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100のカメラヘッド11102に設けられた撮像部11402に好適に適用され得る。撮像部11402に本開示に係る技術を適用することにより、高精細な内視鏡11100を提供することが可能となる。
以上、実施の形態、変形例および適用例ならびに応用例を挙げて本開示を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上述した変形例は、上記実施の形態の変形例として説明したが、各変形例の構成を適宜組み合わせることができる。
上記実施の形態等では、撮像装置を例示して説明するようにしたが、本開示の光検出装置は、例えば、入射する光を受光し、光を電荷に変換するものであればよい。出力される信号は、画像情報の信号でもよいし、測距情報の信号でもよい。光検出装置(撮像装置)は、イメージセンサ、測距センサ等に適用され得る。なお、本開示は、裏面照射型イメージセンサに限定されるものではなく、表面照射型イメージセンサにも適用可能である。
本開示に係る光検出装置は、TOF(Time Of Flight)方式の距離計測が可能な測距センサとしても適用され得る。各画素の受光素子(光電変換部)は、APD(Avalanche Photo Diode:アバランシェフォトダイオード)であってもよい。受光素子は、例えば、SPAD(単一光子アバランシェダイオード)により構成され得る。光検出装置(撮像装置)は、イベントを検出可能なセンサ、例えば、イベント駆動型のセンサ(EVS(Event Vision Sensor)、EDS(Event Driven Sensor)、DVS(Dynamic Vision Sensor)等と呼ばれる)としても適用され得る。
本開示の一実施形態の光検出装置は、複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1光電変換素子の受光面積は、第2光電変換素子の受光面積とは異なる。このため、光検出装置は、画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
本開示の一実施形態の光検出装置は、複数の構造体を有する光学層と、光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素とを備える。第1画素同士の間隔は、第2画素同士の間隔とは異なる。第1画素は、光学層と第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有する。第2画素は、光学層と第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有する。第1開口部の幅は、第2開口部の幅とは異なる。このため、光検出装置は、画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
本開示の一実施形態の光検出装置は、複数の構造体を有する光学層と、第1レンズと、光学層及び第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2レンズと、光学層及び第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1レンズの大きさは、第2レンズの大きさとは異なる。このため、光検出装置は、画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
本開示の一実施形態の光検出装置は、複数の構造体を有する光学層と、第1フィルタと、光学層及び第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、第2フィルタと、光学層及び第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素とを備える。第1フィルタと第2フィルタとは、互いに異なる厚さ又は材料を有する。このため、光検出装置は、画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
本開示の一実施形態の光検出装置は、第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、半導体層に設けられる第1光電変換素子と、光学層と第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、第1フィルタと第1光電変換素子との間に設けられ、光学層と第1フィルタとを介して入射する光を第1光電変換素子へ導く第1導光部材とを備える。このため、光検出装置は、画素の感度を適切に向上させることが可能となる。入射光に対する特性を向上可能な光検出装置を実現することが可能となる。
なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。また、本開示は以下のような構成をとることも可能である。
(1)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
光検出装置。
(2)
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも大きい
前記(1)に記載の光検出装置。
(3)
前記第1画素同士の間隔は、前記第2画素同士の間隔よりも小さい
前記(1)または(2)に記載の光検出装置。
(4)
前記第1画素は、前記第2画素のサイズよりも大きい
前記(1)から(3)のいずれか1つに記載の光検出装置。
(5)
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも小さい
前記(1)に記載の光検出装置。
(6)
前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
前記(1)から(5)のいずれか1つに記載の光検出装置。
(7)
前記第1開口部の幅は、前記第2開口部の幅よりも大きい
前記(6)に記載の光検出装置。
(8)
前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
前記(6)または(7)に記載の光検出装置。
(9)
前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光する
前記(1)から(8)のいずれか1つに記載の光検出装置。
(10)
前記光学層を介して第3波長の光を受光する第3光電変換素子を有する第3画素をさらに備え、
前記第1光電変換素子の受光面積は、前記第3光電変換素子の受光面積とは異なる
前記(1)から(9)のいずれか1つに記載の光検出装置。
(11)
前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光し、
前記第3光電変換素子は、前記第3波長の光として、赤色の波長域の光を受光する
前記(10)に記載の光検出装置。
(12)
前記複数の構造体は、平面視において、前記第1方向と、前記第1方向に交差する第2方向に並ぶように設けられている
前記(1)から(11)のいずれか1つに記載の光検出装置。
(13)
前記構造体は、柱状の形状を有する
前記(1)から(12)のいずれか1つに記載の光検出装置。
(14)
前記光学層は、入射光のうち、前記第1波長の光を前記第1光電変換素子へ導き、前記第2波長の光を前記第2光電変換素子へ導く
前記(1)から(13)のいずれか1つに記載の光検出装置。
(15)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
光検出装置。
(16)
前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
前記(15)に記載の光検出装置。
(17)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1レンズと、前記光学層及び前記第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2レンズと、前記光学層及び前記第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1レンズの大きさは、前記第2レンズの大きさとは異なる
光検出装置。
(18)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1フィルタと、前記光学層及び前記第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2フィルタと、前記光学層及び前記第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1フィルタと前記第2フィルタとは、互いに異なる厚さ又は材料を有する
光検出装置。
(19)
前記第1フィルタと前記第2フィルタとは、互いに異なる透過率を有する
前記(18)に記載の光検出装置。
(20)
光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を有し、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
電子機器。
(21)
第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を備える光検出装置。
(22)
前記第1導光部材は、前記光学層と前記第1フィルタとを介して入射する光を集光する
前記(21)に記載の光検出装置。
(23)
前記第1導光部材は、光を集光するレンズである
前記(21)または(22)に記載の光検出装置。
(24)
前記第1導光部材は、光を導く導波路である
前記(21)または(22)に記載の光検出装置。
(25)
前記第1導光部材は、複数の第2構造体を有し、入射する光を集光する
前記(21)または(22)に記載の光検出装置。
(26)
前記半導体層に設けられる第2光電変換素子と、
前記光学層と前記第2光電変換素子との間に設けられ、第2波長の光を透過する第2フィルタと、
前記第2フィルタと前記第2光電変換素子との間に設けられ、前記光学層と前記第2フィルタとを介して入射する光を前記第2光電変換素子へ導く第2導光部材と
をさらに備える
前記(21)または(22)に記載の光検出装置。
(27)
前記第1導光部材及び前記第2導光部材は、それぞれ、光を集光するレンズであり、
前記第1導光部材の曲率は、前記第2導光部材の曲率とは異なっている
前記(26)に記載の光検出装置。
(28)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きい
前記(27)に記載の光検出装置。
(29)
前記第1導光部材及び前記第2導光部材は、それぞれ、光を導く導波路であり、
前記第1導光部材の大きさは、前記第2導光部材の大きさとは異なっている
前記(26)に記載の光検出装置。
(30)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きい
前記(29)に記載の光検出装置。
(31)
前記第1導光部材及び前記第2導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合とは異なっている
前記(26)に記載の光検出装置。
(32)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きい
前記(31)に記載の光検出装置。
(33)
前記半導体層に設けられる第3光電変換素子と、
前記光学層と前記第3光電変換素子との間に設けられ、第3波長の光を透過する第3フィルタと、
前記第3フィルタと前記第3光電変換素子との間に設けられ、前記光学層と前記第3フィルタとを介して入射する光を前記第3光電変換素子へ導く第3導光部材と
をさらに備える
前記(26)に記載の光検出装置。
(34)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を集光するレンズであり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きく、かつ前記第3導光部材の曲率よりも小さい
前記(33)に記載の光検出装置。
(35)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を導く導波路であり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きく、かつ前記第3導光部材の大きさよりも小さい
前記(33)に記載の光検出装置。
(36)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きく、かつ前記第3導光部材における前記第2構造体が占める割合よりも小さい
前記(33)に記載の光検出装置。
(37)
前記第1導光部材の周囲に設けられる第3遮光部材をさらに備える
前記(21)から(36)のいずれか1つに記載の光検出装置。
(38)
前記第3遮光部材の高さは、前記第1導光部材の高さよりも低い
前記(37)に記載の光検出装置。
(39)
前記第1光電変換素子と前記第1導光部材とをそれぞれ有する複数の第1画素を含む画素アレイを備え、
前記画素アレイの中心からの距離に応じて、前記第1光電変換素子の中心と前記第1導光部材の中心との距離が異なっている
前記(21)から(38)のいずれか1つに記載の光検出装置。
(40)
光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を有する
電子機器。
(1)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
光検出装置。
(2)
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも大きい
前記(1)に記載の光検出装置。
(3)
前記第1画素同士の間隔は、前記第2画素同士の間隔よりも小さい
前記(1)または(2)に記載の光検出装置。
(4)
前記第1画素は、前記第2画素のサイズよりも大きい
前記(1)から(3)のいずれか1つに記載の光検出装置。
(5)
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも小さい
前記(1)に記載の光検出装置。
(6)
前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
前記(1)から(5)のいずれか1つに記載の光検出装置。
(7)
前記第1開口部の幅は、前記第2開口部の幅よりも大きい
前記(6)に記載の光検出装置。
(8)
前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
前記(6)または(7)に記載の光検出装置。
(9)
前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光する
前記(1)から(8)のいずれか1つに記載の光検出装置。
(10)
前記光学層を介して第3波長の光を受光する第3光電変換素子を有する第3画素をさらに備え、
前記第1光電変換素子の受光面積は、前記第3光電変換素子の受光面積とは異なる
前記(1)から(9)のいずれか1つに記載の光検出装置。
(11)
前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光し、
前記第3光電変換素子は、前記第3波長の光として、赤色の波長域の光を受光する
前記(10)に記載の光検出装置。
(12)
前記複数の構造体は、平面視において、前記第1方向と、前記第1方向に交差する第2方向に並ぶように設けられている
前記(1)から(11)のいずれか1つに記載の光検出装置。
(13)
前記構造体は、柱状の形状を有する
前記(1)から(12)のいずれか1つに記載の光検出装置。
(14)
前記光学層は、入射光のうち、前記第1波長の光を前記第1光電変換素子へ導き、前記第2波長の光を前記第2光電変換素子へ導く
前記(1)から(13)のいずれか1つに記載の光検出装置。
(15)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
光検出装置。
(16)
前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
前記(15)に記載の光検出装置。
(17)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1レンズと、前記光学層及び前記第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2レンズと、前記光学層及び前記第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1レンズの大きさは、前記第2レンズの大きさとは異なる
光検出装置。
(18)
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1フィルタと、前記光学層及び前記第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2フィルタと、前記光学層及び前記第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1フィルタと前記第2フィルタとは、互いに異なる厚さ又は材料を有する
光検出装置。
(19)
前記第1フィルタと前記第2フィルタとは、互いに異なる透過率を有する
前記(18)に記載の光検出装置。
(20)
光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を有し、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
電子機器。
(21)
第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を備える光検出装置。
(22)
前記第1導光部材は、前記光学層と前記第1フィルタとを介して入射する光を集光する
前記(21)に記載の光検出装置。
(23)
前記第1導光部材は、光を集光するレンズである
前記(21)または(22)に記載の光検出装置。
(24)
前記第1導光部材は、光を導く導波路である
前記(21)または(22)に記載の光検出装置。
(25)
前記第1導光部材は、複数の第2構造体を有し、入射する光を集光する
前記(21)または(22)に記載の光検出装置。
(26)
前記半導体層に設けられる第2光電変換素子と、
前記光学層と前記第2光電変換素子との間に設けられ、第2波長の光を透過する第2フィルタと、
前記第2フィルタと前記第2光電変換素子との間に設けられ、前記光学層と前記第2フィルタとを介して入射する光を前記第2光電変換素子へ導く第2導光部材と
をさらに備える
前記(21)または(22)に記載の光検出装置。
(27)
前記第1導光部材及び前記第2導光部材は、それぞれ、光を集光するレンズであり、
前記第1導光部材の曲率は、前記第2導光部材の曲率とは異なっている
前記(26)に記載の光検出装置。
(28)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きい
前記(27)に記載の光検出装置。
(29)
前記第1導光部材及び前記第2導光部材は、それぞれ、光を導く導波路であり、
前記第1導光部材の大きさは、前記第2導光部材の大きさとは異なっている
前記(26)に記載の光検出装置。
(30)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きい
前記(29)に記載の光検出装置。
(31)
前記第1導光部材及び前記第2導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合とは異なっている
前記(26)に記載の光検出装置。
(32)
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きい
前記(31)に記載の光検出装置。
(33)
前記半導体層に設けられる第3光電変換素子と、
前記光学層と前記第3光電変換素子との間に設けられ、第3波長の光を透過する第3フィルタと、
前記第3フィルタと前記第3光電変換素子との間に設けられ、前記光学層と前記第3フィルタとを介して入射する光を前記第3光電変換素子へ導く第3導光部材と
をさらに備える
前記(26)に記載の光検出装置。
(34)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を集光するレンズであり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きく、かつ前記第3導光部材の曲率よりも小さい
前記(33)に記載の光検出装置。
(35)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を導く導波路であり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きく、かつ前記第3導光部材の大きさよりも小さい
前記(33)に記載の光検出装置。
(36)
前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きく、かつ前記第3導光部材における前記第2構造体が占める割合よりも小さい
前記(33)に記載の光検出装置。
(37)
前記第1導光部材の周囲に設けられる第3遮光部材をさらに備える
前記(21)から(36)のいずれか1つに記載の光検出装置。
(38)
前記第3遮光部材の高さは、前記第1導光部材の高さよりも低い
前記(37)に記載の光検出装置。
(39)
前記第1光電変換素子と前記第1導光部材とをそれぞれ有する複数の第1画素を含む画素アレイを備え、
前記画素アレイの中心からの距離に応じて、前記第1光電変換素子の中心と前記第1導光部材の中心との距離が異なっている
前記(21)から(38)のいずれか1つに記載の光検出装置。
(40)
光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を有する
電子機器。
本出願は、日本国特許庁において2023年8月23日に出願された日本特許出願番号2023-135400号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。
Claims (40)
- 第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
光検出装置。 - 前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも大きい
請求項1に記載の光検出装置。 - 前記第1画素同士の間隔は、前記第2画素同士の間隔よりも小さい
請求項2に記載の光検出装置。 - 前記第1画素は、前記第2画素のサイズよりも大きい
請求項2に記載の光検出装置。 - 前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積よりも小さい
請求項1に記載の光検出装置。 - 前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
請求項1に記載の光検出装置。 - 前記第1開口部の幅は、前記第2開口部の幅よりも大きい
請求項6に記載の光検出装置。 - 前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
請求項6に記載の光検出装置。 - 前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光する
請求項1に記載の光検出装置。 - 前記光学層を介して第3波長の光を受光する第3光電変換素子を有する第3画素をさらに備え、
前記第1光電変換素子の受光面積は、前記第3光電変換素子の受光面積とは異なる
請求項1に記載の光検出装置。 - 前記第1光電変換素子は、前記第1波長の光として、緑色の波長域の光を受光し、
前記第2光電変換素子は、前記第2波長の光として、青色の波長域の光を受光し、
前記第3光電変換素子は、前記第3波長の光として、赤色の波長域の光を受光する
請求項10に記載の光検出装置。 - 前記複数の構造体は、平面視において、前記第1方向と、前記第1方向に交差する第2方向に並ぶように設けられている
請求項1に記載の光検出装置。 - 前記構造体は、柱状の形状を有する
請求項1に記載の光検出装置。 - 前記光学層は、入射光のうち、前記第1波長の光を前記第1光電変換素子へ導き、前記第2波長の光を前記第2光電変換素子へ導く
請求項1に記載の光検出装置。 - 第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を備え、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1画素は、前記光学層と前記第1光電変換素子との間に設けられ、光が入射する第1開口部を有する第1遮光部材を有し、
前記第2画素は、前記光学層と前記第2光電変換素子との間に設けられ、光が入射する第2開口部を有する第2遮光部材を有し、
前記第1開口部の幅は、前記第2開口部の幅とは異なる
光検出装置。 - 前記第1遮光部材と前記第2遮光部材とは、一体に設けられている
請求項15に記載の光検出装置。 - 第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1レンズと、前記光学層及び前記第1レンズを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2レンズと、前記光学層及び前記第2レンズを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1レンズの大きさは、前記第2レンズの大きさとは異なる
光検出装置。 - 第1方向に並ぶように設けられる複数の構造体を有する光学層と、
第1フィルタと、前記光学層及び前記第1フィルタを介して第1波長の光を受光する第1光電変換素子とを有する第1画素と、
第2フィルタと、前記光学層及び前記第2フィルタを介して第2波長の光を受光する第2光電変換素子とを有する第2画素と
を備え、
前記第1フィルタと前記第2フィルタとは、互いに異なる厚さ又は材料を有する
光検出装置。 - 前記第1フィルタと前記第2フィルタとは、互いに異なる透過率を有する
請求項18に記載の光検出装置。 - 光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の構造体を有する光学層と、
前記光学層を介して第1波長の光を受光する第1光電変換素子をそれぞれ有する複数の第1画素と、
前記光学層を介して第2波長の光を受光する第2光電変換素子をそれぞれ有する複数の第2画素と
を有し、
前記第1画素同士の間隔は、前記第2画素同士の間隔とは異なり、
前記第1光電変換素子の受光面積は、前記第2光電変換素子の受光面積とは異なる
電子機器。 - 第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を備える光検出装置。 - 前記第1導光部材は、前記光学層と前記第1フィルタとを介して入射する光を集光する
請求項21に記載の光検出装置。 - 前記第1導光部材は、光を集光するレンズである
請求項21に記載の光検出装置。 - 前記第1導光部材は、光を導く導波路である
請求項21に記載の光検出装置。 - 前記第1導光部材は、複数の第2構造体を有し、入射する光を集光する
請求項21に記載の光検出装置。 - 前記半導体層に設けられる第2光電変換素子と、
前記光学層と前記第2光電変換素子との間に設けられ、第2波長の光を透過する第2フィルタと、
前記第2フィルタと前記第2光電変換素子との間に設けられ、前記光学層と前記第2フィルタとを介して入射する光を前記第2光電変換素子へ導く第2導光部材と
をさらに備える
請求項21に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材は、それぞれ、光を集光するレンズであり、
前記第1導光部材の曲率は、前記第2導光部材の曲率とは異なっている
請求項26に記載の光検出装置。 - 前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きい
請求項27に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材は、それぞれ、光を導く導波路であり、
前記第1導光部材の大きさは、前記第2導光部材の大きさとは異なっている
請求項26に記載の光検出装置。 - 前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きい
請求項29に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合とは異なっている
請求項26に記載の光検出装置。 - 前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きい
請求項31に記載の光検出装置。 - 前記半導体層に設けられる第3光電変換素子と、
前記光学層と前記第3光電変換素子との間に設けられ、第3波長の光を透過する第3フィルタと、
前記第3フィルタと前記第3光電変換素子との間に設けられ、前記光学層と前記第3フィルタとを介して入射する光を前記第3光電変換素子へ導く第3導光部材と
をさらに備える
請求項26に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を集光するレンズであり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の曲率は、前記第2導光部材の曲率よりも大きく、かつ前記第3導光部材の曲率よりも小さい
請求項33に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、光を導く導波路であり、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材の大きさは、前記第2導光部材の大きさよりも大きく、かつ前記第3導光部材の大きさよりも小さい
請求項33に記載の光検出装置。 - 前記第1導光部材及び前記第2導光部材及び前記第3導光部材は、それぞれ、複数の第2構造体を有し、入射する光を集光し、
前記第1フィルタは、前記第1波長の光として、緑色の波長域の光を透過し、
前記第2フィルタは、前記第2波長の光として、青色の波長域の光を透過し、
前記第3フィルタは、前記第3波長の光として、赤色の波長域の光を透過し、
前記第1導光部材における前記第2構造体が占める割合は、前記第2導光部材における前記第2構造体が占める割合よりも大きく、かつ前記第3導光部材における前記第2構造体が占める割合よりも小さい
請求項33に記載の光検出装置。 - 前記第1導光部材の周囲に設けられる第3遮光部材をさらに備える
請求項21に記載の光検出装置。 - 前記第3遮光部材の高さは、前記第1導光部材の高さよりも低い
請求項37に記載の光検出装置。 - 前記第1光電変換素子と前記第1導光部材とをそれぞれ有する複数の第1画素を含む画素アレイを備え、
前記画素アレイの中心からの距離に応じて、前記第1光電変換素子の中心と前記第1導光部材の中心との距離が異なっている
請求項21に記載の光検出装置。 - 光学系と、
前記光学系を透過した光を受光する光検出装置と
を備え、
前記光検出装置は、
第1方向に並ぶように設けられる複数の第1構造体を有する光学層と、
半導体層に設けられる第1光電変換素子と、
前記光学層と前記第1光電変換素子との間に設けられ、第1波長の光を透過する第1フィルタと、
前記第1フィルタと前記第1光電変換素子との間に設けられ、前記光学層と前記第1フィルタとを介して入射する光を前記第1光電変換素子へ導く第1導光部材と
を有する
電子機器。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023-135400 | 2023-08-23 | ||
| JP2023135400A JP2025030261A (ja) | 2023-08-23 | 2023-08-23 | 光検出装置および電子機器 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025041370A1 true WO2025041370A1 (ja) | 2025-02-27 |
Family
ID=94731929
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/008972 Pending WO2025041370A1 (ja) | 2023-08-23 | 2024-03-08 | 光検出装置および電子機器 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2025030261A (ja) |
| WO (1) | WO2025041370A1 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170263657A1 (en) * | 2016-01-15 | 2017-09-14 | Taiwan Semiconductor Manufacturing Company, Ltd. | Image Sensor Device and Method |
| WO2023013554A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーセミコンダクタソリューションズ株式会社 | 光検出器及び電子機器 |
| WO2023013408A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーセミコンダクタソリューションズ株式会社 | 光検出器、光検出器の製造方法及び電子機器 |
-
2023
- 2023-08-23 JP JP2023135400A patent/JP2025030261A/ja active Pending
-
2024
- 2024-03-08 WO PCT/JP2024/008972 patent/WO2025041370A1/ja active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170263657A1 (en) * | 2016-01-15 | 2017-09-14 | Taiwan Semiconductor Manufacturing Company, Ltd. | Image Sensor Device and Method |
| WO2023013554A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーセミコンダクタソリューションズ株式会社 | 光検出器及び電子機器 |
| WO2023013408A1 (ja) * | 2021-08-06 | 2023-02-09 | ソニーセミコンダクタソリューションズ株式会社 | 光検出器、光検出器の製造方法及び電子機器 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025030261A (ja) | 2025-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN118922943A (zh) | 光检测装置 | |
| JP7503399B2 (ja) | 固体撮像装置及びその製造方法、並びに電子機器 | |
| KR20250105636A (ko) | 광검출기, 전자 장치 및 광학 소자 | |
| WO2023167027A1 (ja) | 光検出装置及び電子機器 | |
| JP2024059430A (ja) | 光検出装置 | |
| WO2025041370A1 (ja) | 光検出装置および電子機器 | |
| WO2025053221A1 (en) | Photodetector, optical element, and electronic apparatus | |
| WO2025053220A1 (en) | Photodetector, optical element, and electronic apparatus | |
| WO2025018080A1 (ja) | 光検出装置、光学素子、および電子機器 | |
| WO2024084991A1 (en) | Photodetector, electronic apparatus, and optical element | |
| WO2024142640A1 (en) | Optical element, photodetector, and electronic apparatus | |
| WO2024162113A1 (ja) | 光検出装置、光学素子、および電子機器 | |
| WO2024162114A1 (ja) | 光検出装置、光学素子、および電子機器 | |
| WO2024142627A1 (en) | Photodetector and electronic apparatus | |
| WO2025253793A1 (ja) | 光検出装置および電子機器 | |
| WO2026004401A1 (ja) | 光検出装置および電子機器 | |
| WO2025164103A1 (ja) | 光検出装置、光学素子、および電子機器 | |
| WO2025121000A1 (ja) | 光検出装置 | |
| WO2025192164A1 (ja) | 光検出装置および電子機器 | |
| WO2025204244A1 (ja) | 光検出装置、光検出装置の製造方法、および電子機器 | |
| WO2025121422A1 (ja) | 光検出装置 | |
| WO2025263193A1 (ja) | 光検出装置 | |
| WO2024252897A1 (ja) | 光検出装置および電子機器 | |
| WO2024202672A1 (ja) | 光検出装置および電子機器 | |
| WO2024237002A1 (ja) | 光検出装置および電子機器 |