WO2022038033A1 - Systeme d'acquisition d'images - Google Patents
Systeme d'acquisition d'images Download PDFInfo
- Publication number
- WO2022038033A1 WO2022038033A1 PCT/EP2021/072466 EP2021072466W WO2022038033A1 WO 2022038033 A1 WO2022038033 A1 WO 2022038033A1 EP 2021072466 W EP2021072466 W EP 2021072466W WO 2022038033 A1 WO2022038033 A1 WO 2022038033A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- polarizer
- radiation
- sensor
- pixels
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1318—Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Definitions
- This description relates generally to image acquisition systems and, more particularly, fingerprint acquisition systems, for example, on mobile phones.
- Fingerprint acquisition systems are used in many fields in order, for example, to secure devices, secure buildings, control access or control the identity of individuals.
- One embodiment overcomes all or part of the drawbacks of known fingerprint acquisition systems.
- One embodiment provides an image acquisition system comprising: a single sensor with organic photodetectors, at least a first light source adapted to emit only a first radiation in the red and/or near infrared, and a processing unit; and in which: the sensor and the first source are carried by a single frame, the sensor is adapted to capture images, the processing unit is configured to extract from said images information relating to the veins and to the fingerprint of a finger, and the first light source is adapted to emit the first radiation in a direction opposite to the frame.
- the first radiation comprises only wavelengths comprised in the band from 600 nm to 1100 nm, preferably between 630 nm to 940 nm.
- the system comprises a first polarizer, the first radiation from the first light source then passes through the first polarizer before reaching the sensor.
- the first polarizer covers the first light source on the side opposite the frame.
- the first light source comprises one or more light-emitting diodes.
- each photodetector delimits a pixel, each pixel being substantially square, the length of the sides of each pixel preferably being of the order of 50 ⁇ m.
- the system comprises, in order: the chassis; the sensor; an optical filter; a second light source; and a protective layer.
- the second light source is adapted to emit a second radiation in the visible.
- the optical filter is an angular filter.
- the system comprises a second polarizer covering the sensor on the side of the sensor opposite the frame.
- the second polarizer is located: between the optical filter and the second light source; or between the optical filter and the sensor.
- the second polarizer is formed on a substrate.
- the first polarizer and the second polarizer are linear polarizers.
- the first polarizer carries out a polarization in a first direction
- the second polarizer comprises a first part carrying out a polarization in the first direction and a second part carrying out a polarization in a second direction, perpendicular to the first direction.
- the pixels of the sensor are surmounted by the first parts or the second parts with an alternation, so that two pixels surmounted by a first part are separated by one to nineteen pixels, preferably nine pixels, surmounted by a second part.
- the first part of the second polarizer has an area equal to at least the area of four pixels.
- the repetition pitch of the first parts is equal to the dimension of three to twenty pixels, preferably ten pixels.
- the senor is separated from the first light source by one or more walls opaque to the first radiation.
- the first source is covered with an angular filter.
- the sensor picks up first rays, from the first radiation, polarized in the first direction by the first polarizer then in the second direction by the second polarizer and second rays, from the first radiation, polarized in the first direction by the first polarizer then in the first direction by the second polarizer.
- Figure 1 shows a block diagram, partial and schematic, an example of an image acquisition system
- Figure 2 shows, in a sectional view, partial and schematic, an embodiment of an image acquisition device
- FIG. 3 represents, by a block diagram, an example of implementation of an image acquisition method
- Figure 4 shows, in a sectional view, partial and schematic, another embodiment of an image acquisition device
- Figure 5 shows, in a sectional view, partial and schematic, part of the image acquisition device shown in Figure 2;
- FIG. 6 represents, by a top view, partial and schematic, an embodiment of the part of the image acquisition device represented in FIG. 5;
- FIG. 7 represents, by a partial and schematic top view, another embodiment of the part of the image acquisition device represented in FIG. 5;
- FIG. 8 represents, by a block diagram, another example of implementation of an image acquisition method
- Figure 9 shows, in a sectional view, partial and schematic, a structure with a polarizer
- FIG. 10 shows, in a partial and schematic sectional view, yet another embodiment of an image acquisition device
- FIG. 11 shows, in a partial and schematic sectional view, yet another embodiment of an image acquisition device.
- a layer or a film is said to be opaque to radiation when the transmittance of the radiation through the layer or the film is less than 10%.
- a layer or a film is said to be transparent to radiation when the transmittance of the radiation through the layer or the film is greater than 10%, preferably greater than 50%.
- all the elements of the optical system which are opaque to radiation have a transmittance which is less than half, preferably less than a fifth, more preferably less than a tenth, of the transmittance the weakest of the elements of the optical system transparent to said radiation.
- the term "useful radiation" is used to refer to the electromagnetic radiation passing through the optical system in operation.
- optical element of micrometric size is used to refer to an optical element formed on one face of a support whose maximum dimension, measured parallel to said face, is greater than 1 ⁇ m and less than 1 ⁇ m. mm.
- each optical element of micrometric size corresponds to a lens of micrometric size, or microlens, composed two diopters.
- these embodiments can also be put implemented with other types of micrometric-sized optical elements, each micrometric-sized optical element being able to correspond, for example, to a micrometric-sized Fresnel lens, to a micrometric-sized gradient index lens or to a micrometer-sized diffraction grating.
- visible light is called electromagnetic radiation whose wavelength is between 400 nm and 700 nm, and, in this range, red light is electromagnetic radiation whose wavelength is between 600 nm and 700 nm.
- Infrared radiation is electromagnetic radiation with a wavelength between 700 nm and 1 mm. In infrared radiation, a distinction is made in particular between near infrared radiation, the wavelength of which is between 700 nm and 1.1 ⁇ m.
- the refractive index of a medium is defined as being the refractive index of the material constituting the medium for the range of wavelengths of the useful radiation picked up by the sensor d pictures.
- the refractive index is considered to be substantially constant over the range of wavelengths of the useful radiation, for example equal to the average of the refractive index over the range of wavelengths of the useful radiation picked up by the sensor of pictures.
- the expressions “about”, “approximately”, “substantially”, and “of the order of” mean to within 10%, preferably within 5%.
- the expressions “all the elements”, “all the elements”, “each element”, mean between 95% and 100% of the elements. [0050] Unless otherwise specified, the expression “it comprises only the elements” means that it comprises, at least 90% of the elements, preferably that it comprises at least 95% of the elements.
- Figure 1 shows a block diagram, partial and schematic, an example of an image acquisition system.
- the image acquisition system illustrated in FIG. 1, comprises: an image acquisition device 1 (DEVICE); and a processing unit 2 (PU).
- DEVICE image acquisition device 1
- PU processing unit 2
- the processing unit 2 preferably comprises signal processing means provided by the device 1, not shown in Figure 1.
- the processing unit 2 comprises, for example, a microprocessor.
- the device 1 and the processing unit 2 are preferably connected by a connection 3.
- the device 1 and the processing unit 2 are, for example, integrated in the same circuit.
- Figure 2 shows, by a sectional view, partial and schematic, an embodiment of a device 11.
- FIG. 2 illustrates an embodiment of the device 1 illustrated in FIG. 1.
- the device 11 can, for example, be coupled to a processing unit and be integrated into the image acquisition system as described in relation to Figure 1.
- the device 11 is, for example, part of a mobile phone.
- the device 11 illustrated in FIG. 2 comprises: an optical sensor 13; at least a first light source 17; and a frame 23 (Mid frame).
- the optical sensor 13 is suitable for capturing images. Images captured by the optical sensor 13 are extracted from the information relating to the veins and to the fingerprint of a finger 15 located above the upper face of the device 11. The extraction of this information is carried out by the unit of treatment illustrated in Figure 1.
- the first source 17 and the optical sensor 13 are carried by the frame 23.
- the lower faces (in the orientation of Figure 2) of the first source 17 and the optical sensor 13 are on the frame 23 and in contact with frame 23.
- the first light source 17 is adapted to emit only a first radiation 19 red and / or infrared.
- the first source 17 emits the radiation 19 mainly in a direction opposite to the frame 23.
- the first source 17 emits the radiation 19 mainly in the direction of a screen 21.
- the screen 21 is preferably located on the side of the upper face of the optical sensor 13 (in the orientation of FIG. 2) and comprises a lower face substantially parallel to the upper face of the frame 23.
- the device 11 comprises several first light sources 17 located around the optical sensor 13.
- Each first source 17 is composed of one or more light-emitting diodes (LED, Light-Emitting Diode).
- the radiation 19 corresponds to light radiation in the red and/or the infrared, that is to say radiation whose set of wavelengths which compose it is between 600 nm and 1700 n. More preferably, the radiation 19 corresponds to light radiation, the set of wavelengths of which it is composed is between 600 nm and 1100 nm, and is even more preferably between 630 nm and 940 nm.
- the device 11 comprises a succession of superimposed layers of different natures.
- the device 11 comprises, from top to bottom, in the orientation of the figure: a layer 25, preferably a protective window (Cover glass); the screen 21, consisting of a panel of one or more organic light-emitting diodes (OLED, Organic Light-Emitting Diode) (OLED panel), or a liquid crystal display or LCD (Liquid Crystal Display).
- the screen 21 constitutes a second light source adapted to emit only a second radiation 27 in the visible; the optical sensor 13 composed of:
- An image sensor 31 (Image sensor); frame 23; a battery 33 (Battery); and a rear shell 35 (Back cover).
- the embodiments of the devices and other stacks of FIGS. 2, 4 to 7 and 10 to 11 are represented in space according to a direct orthogonal XYZ frame, the Y axis of the XYZ frame being orthogonal to the upper face of the image sensor 31.
- the radiation 27 corresponds to light radiation in the visible, that is to say radiation of which at least one of the wavelengths which compose it is between 400 nm and 800 nm.
- the radiation 27 corresponds to light radiation of which at least one of the wavelengths which compose it is between 400 nm and 650 nm.
- the radiation 27 corresponds to a radiation, the set of wavelengths of which it is composed is between 400 nm and 700 nm, and is, even more preferably, between 460 nm and 600 nm.
- the layer 25 is, for example, tempered glass.
- Layer 25 preferably has a thickness between 25 ⁇ m and 2 mm, preferably between 600 ⁇ m and 1.5 mm.
- layer 25 is partially transparent, preferably transparent, to radiation 19 and 27.
- layer 25 is, in a preferred embodiment, transparent to wavelengths between 400 nm and 1700 nm. More preferably, layer 25 is transparent to wavelengths between 400 nm and 1100 nm.
- the screen 21 is composed of a single OLED.
- the OLED panel can, depending on the application, be pixelated or not.
- the OLED panel preferably rests on a substrate.
- screen 21 has a thickness of between 200 ⁇ m and 400 ⁇ m.
- the device 11 does not include a layer 25.
- the screen 21 is therefore, for example, oriented so that the substrate, on which the OLED panel rests, faces the finger 15 The substrate is thus used as a protective layer.
- the frame 23 is preferably made of plastic or a metallic material and has, for example, a thickness of between 1 mm and 4 mm.
- a telephone application preferably an intelligent telephone (smartphone)
- electronic components of the telephone are transferred to the frame 23.
- the rear shell 35 is preferably made of plastic, glass or a metallic material and has, for example, a thickness of between 200 ⁇ m and 2 mm.
- the angular filter 29 is adapted to filter the incident radiation according to the incidence of the radiation with respect to the Y axis.
- the angular filter 29 is more particularly adapted so that the image sensor 31 receives only the rays whose respective incidences relative to the Y axis are less than a maximum incidence of less than 45°, preferably less than 30°, more preferably less than 10°, even more preferably less than 4°.
- the angular filter 29 is adapted to block the rays of the incident radiation whose respective incidences with respect to the Y axis are greater than the maximum incidence.
- the image sensor 31 is a sensor with photodetectors or organic photodiodes (OPD, Organic Photodiode).
- OPD Organic Photodiode
- the photodiodes are, for example, integrated on a substrate with CMOS transistors (Complementary Metal Oxide Semiconductor, complementary metal oxide semiconductor) or a substrate with thin film transistors (TFT or Thin-Film Transistor).
- CMOS transistors Complementary Metal Oxide Semiconductor, complementary metal oxide semiconductor
- TFT Thin-Film Transistor
- the photodiodes of the image sensor 31 comprise, for example, a mixture of organic semiconductor polymers such as poly(3-hexylthiophene) or poly(3-hexylthiophene-2,5-diyl), known under the name P3HT, mixed with methyl [6,6]-phenyl-C61-butanoate (N-type semiconductor), known under the name PCBM.
- the photodiodes of the image sensor 31 comprise, for example, small molecules, that is to say molecules having molar masses of less than 500 g/mol, preferably less than 200 g/mol.
- the photodiodes can be inorganic photodiodes, for example, made from amorphous silicon or crystalline silicon.
- the photodiodes are composed of quantum boxes (quantum dots).
- the substrate is, for example, silicon, preferably monocrystalline silicon.
- the channel, source and drain regions of TFT transistors are for example made of amorphous silicon (a-Si or amorphous Silicon), indium, gallium, zinc and oxide (IGZO Indium Gallium Zinc Oxide) or low temperature polycrystalline silicon (LTPS or Low Temperature Polycrystalline Silicon).
- the image sensor 31 is preferably sensitive to the wavelengths of the radiations 19 and 27.
- the optical sensor 13 further comprises, from top to bottom, in the orientation of Figure 2: the angular filter 29; the image sensor 31; a shielding layer 37, preferably a copper layer (Copper sheet) having a thickness of between 25 ⁇ m and 200 ⁇ m; a layer 39 of heat dissipation (Heat dissipation sheet), for example, in graphite having a thickness of between 25 ⁇ m and 200 ⁇ m; and a shock absorbing layer 41 (Cushion), for example, made of a polymeric foam having a thickness of between 25 ⁇ m and 200 ⁇ m.
- a shielding layer 37 preferably a copper layer (Copper sheet) having a thickness of between 25 ⁇ m and 200 ⁇ m
- a layer 39 of heat dissipation Heat dissipation sheet
- Cushion shock absorbing layer 41
- the layers 37, 39 and 41 of the optical sensor 13 are optional layers.
- Adhesive layers making it possible to fix all or part of the aforementioned layers together may be present.
- the optical sensor 13 comprises: an adhesive layer 43 (Adhesive) between the image sensor 31 and the layer 37 of shielding; an adhesive layer 45 (Adhesive) between the layer 41 shock absorption and frame 23; and an adhesive layer 47 (OCA), for example optically partially transparent, preferably optically transparent and non-diffusing (Optically Clear Adhesive, OCA), between the angular filter 29 and the image sensor 31.
- a layer is considered to be "non-scattering" if the rays of a beam passing through it emerge in a scattering cone having a half angle (at the top of the cone) less than approximately 3.5 degrees.
- the layers 43, 45 and 47 are, for example, made from acrylic components. They preferably each have a thickness of between 12.5 ⁇ m and 50 ⁇ m, for example, of the order of 25 ⁇ m.
- the device 11 comprises an optional adhesive layer 49, optically partially transparent, for example transparent, and non-diffusing (OCA), located between the layer 25 and the screen 21.
- the layer 49 is preferably partially transparent, for example transparent, and non-scattering for the wavelengths of radiation 19 and 27.
- Layer 49 is, for example partially transparent, for example transparent for the wavelengths included between 400 nm and 1700 nm, and preferably between 400 nm and 1100 nm.
- the screen 21, the layer 25, the layer 49, the chassis 23 and the rear shell 35 are called outer layers and all have substantially the same area (in the XZ plane ) .
- the optical sensor 13 and the layers which compose it have an area (in the XZ plane) equal to or less than that of the external layers, that is to say the layer 25 , layer 49, the screen 21, the frame 23 and the rear shell 35.
- the optical sensor 13 has an area (in the XZ plane) smaller than that of the external layers.
- the optical sensor 13 is centered on the upper face of the frame 23.
- the device 11 comprises peripheral stacks 51 arranged on each side of the optical sensor 13.
- the peripheral stacks 51 extend vertically (along the Y axis) from the underside of the screen 21 towards the frame 23.
- the peripheral stacks 51 extend horizontally (along the Z axis) from the peripheral end of the device 11 to a limit close to the optical sensor 13, so as to leave a space 61 between the optical sensor 13 and the peripheral stacks 51.
- the space 61 is preferably extended by a space 63 located between the upper face of the optical sensor 13 and the screen 21.
- the spaces 61 and 63 are, for example, filled with air, partial vacuum or resin.
- the space 63 is, for example, filled with a partially transparent material, preferably transparent, to the radiations 19 and 27.
- the material filling the space 63 has a lower refractive index of at least 0, 1, preferably at least 0.15, with respect to the refractive index of the material of the optical sensor 13.
- the material of the optical sensor 13 has a refractive index between 1.5 and 1.6.
- the space 63 is for example a layer of air, a layer of resin or a layer of adhesive. low refractive index, having a refractive index in the range of 1.34 to 1.45.
- the term "low" refractive index means a refractive index less than 1.5, and of "high" refractive index, a refractive index greater than or equal to 1.5.
- the low refractive index resin and the low refractive index adhesive are for example colored and thus allow wavelength filtering.
- the peripheral stacks 51 have, for example, a function of supporting the screen 21 on the frame 23.
- the peripheral stacks 51 preferably comprise layers similar, by their functions, to the layers making up the optical sensor 13.
- the peripheral stacks 51 thus comprise: an adhesive layer 59 (Adhesive), similar to the adhesive layer 43, having a thickness of between 25 ⁇ m and 200 ⁇ m; a shielding layer 53 (Copper sheet), optional and similar to shielding layer 37, having a thickness of between 25 ⁇ m and 200 ⁇ m; a heat dissipation sheet 55, optional and similar to layer 39, having a thickness of between 25 ⁇ m and 200 ⁇ m; and an optional shock absorption (Cushion) layer 57 similar to layer 41, having a thickness between 25 ⁇ m and 200 ⁇ m.
- the adhesive layer 59 is, according to the embodiment illustrated in FIG. 2, on the lower face of the screen 21 and in contact with the lower face of the screen 21.
- the device 11 comprises housings 65 (Housing) located on the upper face of the frame 23.
- the housings 65 can be aligned with the stacks 51 and have an area ( in the XZ plane) similar to the area of the stacks 51 or an area different from the area of the stacks 51.
- the housings 65 facilitate, for example, the assembly of the screen 21 on the frame 23 and in particular the positioning of the optical sensor 13.
- each stack 51 is preferably in contact with the housing 65 underlying.
- the frame 23 comprises, for example, a printed circuit board, not shown in FIG. 2, on the face opposite that on which the image sensor 31 is arranged (underside of the frame 23 in FIG. 2).
- FIG. 3 represents, by a block diagram, an example of implementation of an image acquisition method.
- FIG. 3 illustrates, by a block diagram, the implementation of a method for acquiring images of the finger 15 (FIG. 2) for the extraction of information concerning the veins and the fingerprints digits of finger 15.
- a first stream relates to the acquisition of images by the image sensor 31.
- a second stream relates to the processing carried out on the images taken.
- the first flow is preceded by a step 66 (Finger on display) of placing the finger 15 on the surface of the protective layer or pane 25 (FIG. 2).
- the first and the second stream comprise a first phase of image acquisition and processing intended for fingerprint recognition followed by a second phase image acquisition and processing for vein recognition.
- the first phase of the first stream begins with a step 67 of switching on the "visible" source 21 (Visible source ON) .
- Step 67 is followed by a step 68 of acquisition (Image 1 acquisition) and storage of a first image.
- the second phase of the first flow includes the switching on of the "infrared" source 17 (step 71, IR Source ON).
- Step 71 is followed by: a step 72 of switching off the source 21 (Visible source OFF) and a step 73 of acquiring and storing a second image (Image 2 acquisition); or a step 77 of acquiring and storing a third image (Image 2' acquisition).
- the first phase of the second flow includes a step
- step 73 if the acquired image was acquired in step 73 (source 21 off), the image is processed, during a step 74 (Image 2 processing), in order to extract an image of veins 75 (Veins feature) .
- step 77 the image is processed, during a step 78 (Image 2' processing) in order to to extract therefrom an image from which the first image is subtracted to obtain an image of veins 79 (Veins feature).
- the two phases of the first flow are executed before executing the two phases of the second flow.
- the first phases of the first and second streams are executed before the execution of the second phases of the first and second streams. Furthermore, the order of the phases can be reversed in one of the fluxes or in the other.
- Figure 4 shows, by a sectional view, partial and schematic, another embodiment of a device 81.
- device 81 is similar to device 11 illustrated in FIG. 2, except that it comprises two polarizers.
- the device 81 comprises: at least one first polarizer 83; and a second polarizer 85.
- Each first polarizer 83 preferably covers a single first source 17.
- each source 17 is covered, along the Y axis, by a first polarizer 83.
- the radiation 19 from the first source 17 thus passes through , preferably, the first polarizer 83 before reaching the finger 15.
- the number of first polarizers 83 is preferably equal to the number of first sources 17, so that each first source 17 is associated with a single first polarizer 83 and each first polarizer 83 is associated with a single first source 17.
- each first polarizer 83 has an area (in the XZ plane) equal to or greater than the area of the source 17 with which it is associated.
- the second polarizer 85 is located on the upper face of the angular filter 29, in contact with the upper face of the angular filter 29, and has a similar area (in the XZ plane). to the surface of the angular filter 29.
- the second polarizer 85 is located between the angular filter 29 and the image sensor 31.
- the first polarizer(s) 83 and the second polarizer 85 are rectilinear, or in other words linear.
- the first polarizer(s) 83 polarize in a first direction, which will be referred to below as the horizontal direction.
- the second polarizer 85 is composed of: one or more first parts which polarize in a second direction, perpendicular to the first direction, which will be referred to below as the vertical direction; and one or more second parts which polarize in the horizontal direction.
- FIGS. 5 and 6 The arrangement of the first and second parts of the second polarizer 85 is illustrated in FIGS. 5 and 6.
- Figure 5 shows, by a partial and schematic sectional view, part of the image acquisition device 81 shown in Figure 4.
- FIG. 5 illustrates a stack 87 of the image sensor 31, of the layer 47, of the angular filter 29, of the second polarizer 85 and of the screen 21.
- the angular filter 29 comprises, from top to bottom: a layer 89 comprising an array of microlenses 91 covered by a filling layer 93; a substrate 95 on which the microlenses 91 are formed; and a matrix comprising walls 97 opaque, at least partially, to radiation 19 and 27 (FIG. 4) and openings 99, the openings 99 being filled by the material of the layer 47.
- the substrate 95 can be made of a transparent polymer which does not absorb at least the wavelengths considered, here in the visible and infrared range.
- This polymer can in particular be poly(ethylene terephthalate) PET, poly(methyl methacrylate) PMMA, polymer of inecyclic olefin (COP), polyimide (PI) or polycarbonate (PC).
- the thickness of the substrate 95 can, for example, vary between 1 ⁇ m and 100 ⁇ m, preferably between 10 ⁇ m and 100 ⁇ m.
- the substrate 95 can correspond to a colored filter, to a polarizer, to a half-wave plate or to a quarter-wave plate.
- the lenses 91 can be made of silica, of PMMA, of a positive photosensitive resin, of PET, of poly(ethylene naphthalate) (PEN), of COP, of polydimethylsiloxane (PDMS)/silicone, of epoxy resin or in acrylate resin.
- the lenses 91 can be formed by flowing blocks of a photoresist.
- the lenses 91 can further be formed by molding on a layer of PET, PEN, COP, PDMS/silicone, epoxy resin or acrylate resin.
- the lenses 91 are converging lenses each having a focal distance f of between 1 ⁇ m and 100 ⁇ m, preferably between 1 ⁇ m and 70 ⁇ m. According to one embodiment, all the lenses 91 are substantially identical.
- the lenses 91 and the substrate 95 are preferably made of transparent or partially transparent materials, that is to say transparent in a part of the spectrum considered for the domain concerned, for example the imagery, on the range of wavelengths corresponding to the wavelengths used during exposure.
- the layer 93 is a layer which matches the shape of the lenses 91.
- the layer 93 can be obtained from an optically transparent adhesive (Optically Clear Adhesive - OCA), in particular an optically transparent adhesive liquid, or of a material with a low refractive index, or of an epoxy/acrylate adhesive, or of a film of a gas or of a gaseous mixture, for example air.
- an optically transparent adhesive Optically Clear Adhesive - OCA
- an optically transparent adhesive liquid or of a material with a low refractive index, or of an epoxy/acrylate adhesive, or of a film of a gas or of a gaseous mixture, for example air.
- the openings 99 are, for example, filled with air, with a partial vacuum or with a material that is at least partially transparent in the visible and infrared domains.
- the optical axes of the lenses 91 are preferably directed along the Y axis.
- Each aperture 99 is preferably associated with a single lens 91.
- the optical axes of the lenses 91 are preferably centered with the centers of the apertures 99.
- the diameter of the lenses 91 is preferably greater than the maximum size of the section (perpendicular to the optical axis of the lenses 91) of the apertures 99.
- the image sensor 31 comprises photodetectors 103 delimiting pixels 105.
- the term pixel is used throughout the description to define a part of the image sensor 31 comprising a single photodetector 103.
- the denomination pixel can apply to the scale of the image sensor 31 but also to the scale of the stack 87.
- a pixel is the set of layers, constituting said stack, plumb with the pixel of the image sensor 31.
- the term pixel unless otherwise specified, refers to a pixel at the scale of the stack 87.
- Each photodetector 103 is preferably associated with at least four apertures 99 (and four lenses 91). Preferably, each photodetector 103 is associated with exactly four apertures 99.
- a pixel 105 corresponds to each part of the stack 87 comprising, among other things, a photodetector 103 surmounted by four openings 99, themselves surmounted by four lenses 91.
- Each pixel 105 has, preferably, a substantially square shape seen in a direction perpendicular to the upper face of the image sensor 31.
- the area of each pixel corresponds to a square whose dimension on one side is between 32 ⁇ m and 100 ⁇ m, preferably between 50.8 ⁇ m and 80 ⁇ m.
- the area of a pixel is, more preferably, equal to a square of approximately 50.8 ⁇ m by 50.8 ⁇ m.
- Each pixel 105 can be associated with a number of lenses 91 different from four, depending on the diameter of the lenses 91, their network arrangement and the dimensions of the pixels 105.
- a pixel 105 comprises a photodetector 103 surmounted by four openings 99.
- the angular filter 29 comprising the openings 99 can be rolled onto the image sensor 31 without prior alignment of the angular filter 29 on the image sensor 31.
- Certain lenses 91 and apertures 99 can then be located, in the orientation of the stack, that is to say along the Y direction, straddling two photodetectors 103.
- the stack 87 comprises the second polarizer 85 on the upper face of the optical filter 29, more precisely on the upper face of the layer 93.
- Figure 6 shows, by a top view, partial and schematic, an embodiment of the part of the image acquisition device shown in Figure 5.
- FIG. 6 illustrates an embodiment of the arrangement of the first parts 107 and second parts 109 of the second polarizer 85 (FIG. 5).
- each first part 107 and each second part 109 of the second polarizer 85 has a substantially square shape in the view of FIG. 6.
- the area of each first part 107 and each second part 109 of the second polarizer 85 is equal to the area of a pixel 105 (FIG. 5), or, for example, a square of about 50.8 ⁇ m by 50.8 ⁇ m.
- the first parts 107 and second parts 109 of the polarizer 85 are formed on the surface of the angular filter 29 (FIG. 5) so that one pixel 105 out of two is covered by a first part 107 and one pixel 105 out of two, different from the previous ones, or covered by a second part 109.
- Each part 107 and each part 109 is aligned with a pixel 105 and a photodetector 103.
- two of the pixels 105 are covered by first parts 107 and two of the pixels 105, different from the preceding pixels 105, are, for example, covered by second parts 109.
- the repetition pitch of the first parts 107 can be greater than one pixel.
- the repetition pitch of the first parts 107 can be between two pixels 105 and twenty pixels 105, preferably between five pixels 105 and fifteen pixels 105, and more preferably equal to about ten pixels 105.
- the number of first parts 107 is then different and, for example, less than the number of second parts 109.
- the first parts 107 can be arranged so that, for example, within a set of eight pixels (two columns of pixels by four rows of pixels), two first parts 107 are formed on the surface of the angular filter 29 so as to cover two pixels of the same column.
- the first parts 107 can be arranged so that, for example, within a set of eight pixels (two columns of pixels by four rows of pixels), two first parts 107 are formed on the surface of the angular filter 29 so as to to cover two pixels, not adjacent, located within two different columns. In other words, a square repeat pattern of four pixels is repeated on two consecutive rows offset by one pixel. In these two embodiments, the repetition pitch of the first parts 107 is two pixels, however these embodiments are easily adaptable for a repetition pitch of the first parts 107 greater than two pixels.
- the second polarizer 85 is, for example, formed by successive deposits of the first parts 107 and the second parts 109 on the surface of the angular filter 29.
- FIG. 7 represents, by a partial and schematic top view, another embodiment of the part of the image acquisition device represented in FIG. 5.
- FIG. 7 illustrates another embodiment of the arrangement of the first parts 107 and second parts 109 of the second polarizer 85 (FIG. 5).
- the first parts 107 and second parts 109 of the second polarizer 85 are formed arbitrarily on the surface of the angular filter 29 (FIG. 5).
- each first part 107 of the second polarizer 85 has a larger area (in the XZ plane) than the area of each first part 107 of the second polarizer 85 shown in Figure 6.
- each first part 107 of the second polarizer 85 is formed on the upper face of the angular filter 29 without prior alignment of the latter with the photodetectors 103 or the underlying lenses 91.
- each first part 107 has a substantially square shape in the view of Figure 7.
- each first part 107 has an area (in contact with the layer 93, Figure 5 ) making it possible to fully cover, on the upper face of the angular filter 29, at least one pixel 105 (or a photodetector 103) and this regardless of its location on the upper face of the angular filter 29.
- the area of each first part 107 is at least equal to the area of four pixels 105.
- the area of each first part 107 is between the area of four pixels 105 and the area of six pixels 105.
- the area of each first part 107 is equal to the area of four pixels 105.
- the second polarizer 85 is, for example, formed by successive deposits of the first parts 107 and the second parts 109 on the surface of the angular filter 29.
- the repetition pitch of the first parts 107 is between a distance corresponding to the dimension of three pixels and a distance corresponding to the dimension of twenty pixels.
- the repetition pitch is between a distance corresponding to the dimension of eight pixels and a distance corresponding to the dimension of fifteen pixels. More preferably, the repetition pitch of the first parts 107 is equal to a distance corresponding to the dimension of ten pixels.
- the distribution of the first parts 107 is aligned, that is to say that the repetition is done in rows and columns, or shifted, that is to say that the distribution is shifted by one or more pixels by one row to the next or from one column to the next.
- the second polarizer 85 is located between the angular filter 29 and the image sensor 31, more precisely, between the layer 47 and the image sensor 31 (FIG. 5).
- An advantage of the embodiments and modes of implementation described previously in relation to FIGS. 4 to 7 is that they make it possible to simultaneously take an image under radiation 19 polarized horizontally then, after reflection on the finger 5, horizontally (that is to say an image under radiation 19 having passed through two aligned polarizers) and an image under radiation 19 polarized horizontally then, after reflection on the finger 15, vertically (that is to say an image under the radiation 19 having crossed two crossed polarizers).
- FIG. 8 represents, by a block diagram, another example of implementation of an image acquisition method.
- FIG. 8 illustrates a method allowing the acquisition of images and the processing thereof in the case of a device comprising the source 17.
- a first stream relates to the acquisition of images by the image sensor 31.
- a second stream relates to the processing carried out on the acquired images.
- the first flow begins with a step 123 of positioning the finger 15 on the upper face of the layer 25 (Finger on display).
- Step 123 is followed by a step 125 in which the position of the finger 15 is detected (Detecting finger position) and localized on the layer 25.
- the detection of the position of the finger 15 can be carried out by a detection element included in the image acquisition device or by an element internal to the image sensor 31, for example one of its electrodes.
- the first flow comprises, in a subsequent step 127, the switching on of the source 17 (IR source ON).
- Step 127 is followed by a step 129 of acquiring an image, of dividing this image into two distinct images depending on whether the pixels are associated with a first part 107 or a second part 109 of the second polarizer 85, and storage of these images (image acquisition).
- the first image is the image which is associated with the photodetectors 105 (FIG. 5) surmounted by a first part 107 of the second polarizer 85.
- the radiation 19 is polarized by the first polarizer 83 in horizontal (H) then, after reflection on the finger 15, is polarized by the first part 107 of the second polarizer 85 in vertical (V), before reaching the image sensor 31.
- the second image is the image associated with the photodetectors 105 (FIG. 5) surmounted by a second part 109 of the second polarizer 85.
- the radiation 19 is polarized by the first polarizer 83 in horizontal (H) then, after reflection on the finger 15, is polarized by the second part 109 of the second polarizer 85 in horizontal (H), before reaching the image sensor 31.
- the second stream comprises two phases respectively dedicated to the separate processing of the two images and to the processing of the combination of the two images.
- the first phase of the second flow comprises the processing of the first acquired image (HV output of block 129) in order to extract therefrom, in a step 131, an image comprising volume information on the finger 15 (Volume information (veins ) ) .
- Volume information is called information which required the penetration of light into the volume of the finger 15 in order to be acquired.
- the information concerning the veins for example their number, their shape or their arrangement within the finger, is, for example, volume information.
- the first phase of the second stream further comprises the processing of the second acquired image (output HH of block 129) in order to extract therefrom, in a step 133, an image comprising surface and volume information on the finger 15 (Surface and volume information) .
- the second phase of the second flow comprises a step 135 during which the information coming from the first image and the information coming from the second image are processed together in order to extract only surface information (Surface information (fingerprint)). .
- This may include the determination of a third image corresponding to the difference, possibly weighted, between the second image and the first image.
- surface information the information which required the reflection of light on the surface of the finger to be acquired.
- the information concerning the fingerprints is, for example, areal information. This is for example an image of the grooves and ridges of fingerprints.
- Figure 9 shows, by a sectional view, partial and schematic, a structure 111 provided with a polarizer 85.
- FIG. 9 illustrates an embodiment of a structure 111 in which the second polarizer 85 has been formed on the surface of a support or substrate 113.
- the second polarizer 85 shown in Figure 9 is identical to the second polarizer 85 shown in Figure 5.
- the second polarizer 85 in Figure 9 is however formed on the support 113, unlike Figure 5 where the polarizer 85 is formed on the angular filter 29.
- the support 113 can be made of a transparent polymer which does not absorb, at least, the wavelengths considered, here in the visible and infrared range.
- This polymer may in particular be poly(ethylene terephthalate) (PET), poly(methyl methacrylate) (EMMA), polymer of inecyclic olefin (COP), polyimide (PI) or polycarbonate (PC).
- Substrate 113 is preferably PET.
- the thickness of the substrate 113 can vary from 1 ⁇ m to 100 ⁇ m, preferably from 10 ⁇ m to 50 ⁇ m.
- the support 113 can correspond to a colored filter, to a half-wave plate or to a quarter-wave plate.
- the arrangement of the first parts 107 and the second parts 109 of the second polarizer 85 illustrated in FIG. 9 is similar to the arrangement of the parts 107 and 109 of the second polarizer 85 illustrated in FIG. 7.
- the structure 111 is mounted in the stack 87 of FIG. 5, in place of the second polarizer 85, above the angular filter 29.
- the structure 111 is mounted in the stack 87 of FIG. 5, replacing the second polarizer 85, between the filter 29 and the image sensor 31, more precisely, between the layer 47 and the image sensor 31.
- the polarizer 85 is formed under the substrate 113.
- the lower face of the polarizer 85 is then in contact with the upper face of the angular filter 29 or in contact with the upper face of the image sensor 31 depending on whether structure 111 is positioned on angular filter 15 or between angular filter 29 and image sensor 31.
- FIG. 10 represents, by a partial and schematic sectional view, yet another embodiment of an image acquisition device.
- FIG. 10 illustrates a device 115 similar to device 81 illustrated in FIG. 4, except that it comprises one or more walls 117 that are opaque to radiation 19, around optical sensor 13.
- the wall 117 covers all the side edges of the optical sensor 13 extending from the frame 23 until it is flush with the upper face of the angular filter 29.
- Each wall 117 extends from the frame 23 to the upper face of the angular filter 29 over a width (according to the direction X in figure 10) equal to or greater than the width (in the direction X in figure 10) of the source 17.
- the radiation 19 coming from the first source 17 is perceived by the optical sensor 13 only if it is reflected on the finger 15.
- the optical sensor 13 is therefore not disturbed by the radiation 19 which is not reflected or direct.
- FIG. 11 represents, by a partial and schematic sectional view, yet another embodiment of an image acquisition device.
- FIG. 11 illustrates an image acquisition device 119 similar to device 81 illustrated in FIG. 4 except that it comprises an angular filter 121 between each source 17 and its associated first polarizer 83.
- the device 119 comprises a number of angular filters 121 equal to the number of sources 17 and first polarizers 83.
- Each angled filter 121 is preferably composed of a matrix of radiation-opaque walls 19 and apertures surmounted by an array of lenses (not shown). Each angular filter has for example an area (in the XZ plane) similar to the area of the first polarizer 83 with which it is associated.
- each filter 121 is positioned on the upper face of the first polarizer 83 with which it is associated.
- the radiation 19 coming from the first source 17 is, at the output of the angular filter 121, substantially collimated
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Input (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
La présente description concerne un système d'acquisition d'images (11) comprenant : un unique capteur (31) à photodétecteurs organiques, au moins une première source lumineuse (17) adaptée à émettre uniquement un premier rayonnement (19) dans le rouge et/ou le proche infrarouge, et une unité de traitement; et dans lequel : le capteur et la première source sont portés par un unique châssis (23), le capteur est adapté à capter des images, l'unité de traitement est configurée pour extraire desdites images des informations relatives aux veines et à l'empreinte digitale d'un doigt (15), et la première source lumineuse est adaptée à émettre le premier rayonnement dans une direction opposée au châssis.
Description
DESCRIPTION
Système d'acquisition d'images
La présente demande revendique la priorité de la demande de brevet français numéro 2008533 déposée le 17 août 2020 et ayant pour titre "système d'acquisition d'images", dont le contenu est incorporé par référence dans les limites autorisées par la loi.
Domaine technique
[0001] La présente description concerne de façon générale les systèmes d'acquisition d'images et, plus particulièrement, les systèmes d'acquisition d'empreintes digitales, par exemple, sur des téléphones portables.
Technique antérieure
[0002] Les systèmes d'acquisition d'empreintes digitales sont utilisés dans de nombreux domaines afin, par exemple, de sécuriser des appareils, sécuriser des bâtiments, contrôler des accès ou contrôler l'identité d'individus.
[0003] Alors que les données, informations, accès protégés par des capteurs d'empreintes se multiplient, les systèmes d'acquisition des empreintes digitales sont la cible de nombreuses fraudes.
[0004] Les fraudes les plus courantes sont les photocopies de doigts ou d'empreintes digitales ou la reconstitution de doigts ou d'empreintes digitales en résine, silicone ou gélatine .
Résumé de l'invention
[0005] Il existe un besoin d'améliorer et de sécuriser les systèmes d'acquisition d'empreintes digitales.
[0006] Un mode de réalisation pallie tout ou partie des inconvénients des systèmes d'acquisition d'empreintes digitales connus.
[0007] Un mode de réalisation prévoit un système d'acquisition d'images comprenant : un unique capteur à photodétecteurs organiques, au moins une première source lumineuse adaptée à émettre uniquement un premier rayonnement dans le rouge et/ou le proche infrarouge, et une unité de traitement ; et dans lequel : le capteur et la première source sont portés par un unique châssis, le capteur est adapté à capter des images, l'unité de traitement est configurée pour extraire desdites images des informations relatives aux veines et à l'empreinte digitale d'un doigt, et la première source lumineuse est adaptée à émettre le premier rayonnement dans une direction opposée au châssis .
[0008] Selon un mode de réalisation, le premier rayonnement comprend uniquement des longueurs d'onde comprises dans la bande de 600 nm à 1100 nm, de préférence entre 630 nm à 940 nm.
[0009] Selon un mode de réalisation, le système comprend un premier polariseur, le premier rayonnement issu de la première source lumineuse traverse alors le premier polariseur avant d'atteindre le capteur.
[0010] Selon un mode de réalisation, le premier polariseur recouvre la première source lumineuse du côté opposé au châssis .
[0011] Selon un mode de réalisation, la première source lumineuse comprend une ou des diodes électroluminescentes.
[0012] Selon un mode de réalisation, chaque photodétecteur délimite un pixel, chaque pixel étant sensiblement carré, la
longueur des cotés de chaque pixel étant, de préférence, de l'ordre de 50 pm.
[0013] Selon un mode de réalisation, le système comprend, dans l'ordre : le châssis ; le capteur ; un filtre optique ; une deuxième source lumineuse ; et une couche de protection.
[0014] Selon un mode de réalisation, la deuxième source lumineuse est adaptée à émettre un deuxième rayonnement dans le visible.
[0015] Selon un mode de réalisation, le filtre optique est un filtre angulaire.
[0016] Selon un mode de réalisation, le système comprend un deuxième polariseur recouvrant le capteur du côté du capteur opposé au châssis.
[0017] Selon un mode de réalisation, le deuxième polariseur est situé : entre le filtre optique et la deuxième source lumineuse ; ou entre le filtre optique et le capteur.
[0018] Selon un mode de réalisation, le deuxième polariseur est formé sur un substrat.
[0019] Selon un mode de réalisation, le premier polariseur et le deuxième polariseur sont des polariseurs linéaires.
[0020] Selon un mode de réalisation : le premier polariseur réalise une polarisation dans une première direction ; et le deuxième polariseur comprend une première partie réalisant une polarisation dans la première direction et une
deuxième partie réalisant une polarisation dans une deuxième direction, perpendiculaire à la première direction.
[0021] Selon un mode de réalisation, les pixels du capteur sont surmontés par les premières parties ou les deuxièmes parties avec une alternance, de sorte que deux pixels surmontés par une première partie soient séparés par un à dix-neuf pixels, de préférence neufs pixels, surmontés par une deuxième partie.
[0022] Selon un mode de réalisation, la première partie du deuxième polariseur a une superficie égale au moins à la superficie de quatre pixels.
[0023] Selon un mode de réalisation, le pas de répétition des premières parties est égal à la dimension de trois à vingt pixels, de préférence de dix pixels.
[0024] Selon un mode de réalisation, le capteur est séparé de la première source lumineuse par un ou des murs opaques au premier rayonnement.
[0025] Selon un mode de réalisation, la première source est recouverte d'un filtre angulaire.
[0026] Selon un mode de réalisation, le capteur capte des premiers rayons, issus du premier rayonnement, polarisés selon la première direction par le premier polariseur puis selon la deuxième direction par le deuxième polariseur et des deuxièmes rayons, issus du premier rayonnement, polarisés selon la première direction par le premier polariseur puis selon la première direction par le deuxième polariseur.
Brève description des dessins
[0027] Ces caractéristiques et avantages, ainsi que d'autres, seront exposés en détail dans la description suivante de modes de réalisation particuliers faite à titre non limitatif en relation avec les figures jointes parmi lesquelles :
[0028] la figure 1 représente par un schéma blocs, partiel et schématique, un exemple de système d'acquisition d ' images ;
[0029] la figure 2 représente, par une vue en coupe, partielle et schématique, un mode de réalisation d'un dispositif d'acquisition d'images ;
[0030] la figure 3 représente, par un schéma blocs, un exemple de mise en oeuvre d'un procédé d'acquisition d ' images ;
[0031] la figure 4 représente, par une vue en coupe, partielle et schématique, un autre mode de réalisation d'un dispositif d'acquisition d'images ;
[0032] la figure 5 représente, par une vue en coupe, partielle et schématique, une partie du dispositif d'acquisition d'images représenté en figure 2 ;
[0033] la figure 6 représente, par une vue de dessus, partielle et schématique, un mode de réalisation de la partie du dispositif d'acquisition d'images représentée en figure 5 ;
[0034] la figure 7 représente, par une vue de dessus, partielle et schématique, un autre mode de réalisation de la partie du dispositif d'acquisition d'images représentée en figure 5 ;
[0035] la figure 8 représente, par un schéma blocs, un autre exemple de mise en oeuvre d'un procédé d'acquisition d ' images ;
[0036] la figure 9 représente, par une vue en coupe, partielle et schématique, une structure dotée d'un polariseur ;
[0037] la figure 10 représente, par une vue en coupe, partielle et schématique, encore un autre mode de réalisation d'un dispositif d'acquisition d'images ; et
[0038] la figure 11 représente, par une vue en coupe, partielle et schématique, encore un autre mode de réalisation d'un dispositif d'acquisition d'images.
Description des modes de réalisation
[0039] De mêmes éléments ont été désignés par de mêmes références dans les différentes figures. En particulier, les éléments structurels et/ou fonctionnels communs aux différents modes de réalisation peuvent présenter les mêmes références et peuvent disposer de propriétés structurelles, dimensionnelles et matérielles identiques.
[0040] Par souci de clarté, seuls les étapes et éléments utiles à la compréhension des modes de réalisation décrits ont été représentés et sont détaillés. En particulier, la réalisation du système d'acquisition d'images et de ses composants n'a été détaillée que succinctement, les modes de réalisation et les modes de mise en oeuvre décrits étant compatibles avec les réalisations usuelles des systèmes d'acquisition d'images connus.
[0041] Sauf précision contraire, lorsque l'on fait référence à deux éléments connectés entre eux, cela signifie directement connectés sans éléments intermédiaires autres que des conducteurs, et lorsque l'on fait référence à deux éléments reliés (en anglais "coupled") entre eux, cela signifie que ces deux éléments peuvent être connectés ou être reliés par l'intermédiaire d'un ou plusieurs autres éléments.
[0042] Dans la description qui suit, lorsque l'on fait référence à des qualificatifs de position absolue, tels que les termes "avant", "arrière", "haut", "bas", "gauche", "droite", etc., ou relative, tels que les termes "dessus",
"dessous", "supérieur", "inférieur", etc., ou à des qualificatifs d'orientation, tels que les termes "horizontal", "vertical", etc., il est fait référence sauf précision contraire à l'orientation des figures.
[0043] Dans la suite de la description, sauf précision contraire, une couche ou un film est dit opaque à un rayonnement lorsque la transmittance du rayonnement au travers de la couche ou du film est inférieure à 10 %. Dans la suite de la description, une couche ou un film est dit transparent à un rayonnement lorsque la transmittance du rayonnement au travers de la couche ou du film est supérieure à 10 %, de préférence, supérieure à 50 %. Selon un mode de réalisation, pour un même système optique, tous les éléments du système optique qui sont opaques à un rayonnement ont une transmittance qui est inférieure à la moitié, de préférence inférieure au cinquième, plus préférentiellement inférieure au dixième, de la transmittance la plus faible des éléments du système optique transparents audit rayonnement. Dans la suite de la description, on appelle "rayonnement utile" le rayonnement électromagnétique traversant le système optique en fonctionnement.
[0044] Dans la suite de la description, on appelle "élément optique de taille micrométrique" un élément optique formé sur une face d'un support dont la dimension maximale, mesurée parallèlement à ladite face, est supérieure à 1 pm et inférieure à 1 mm.
[0045] Des modes de réalisation de systèmes optiques vont maintenant être décrits pour des systèmes optiques comprenant une matrice d'éléments optiques de taille micrométrique dans le cas où chaque élément optique de taille micrométrique correspond à une lentille de taille micrométrique, ou microlentille, composée de deux dioptres. Toutefois, il est clair que ces modes de réalisation peuvent également être mis
en oeuvre avec d'autres types d'éléments optiques de taille micrométrique, chaque élément optique de taille micrométrique pouvant correspondre, par exemple, à une lentille de Fresnel de taille micrométrique, à une lentille à gradient d'indice de taille micrométrique ou à un réseau de diffraction de taille micrométrique.
[0046] Dans la suite de la description, on appelle lumière visible un rayonnement électromagnétique dont la longueur d'onde est comprise entre 400 nm et 700 nm, et, dans cette plage, lumière rouge un rayonnement électromagnétique dont la longueur d'onde est comprise entre 600 nm et 700 nm. On appelle rayonnement infrarouge un rayonnement électromagnétique dont la longueur d'onde est comprise entre 700 nm et 1 mm. Dans le rayonnement infrarouge, on distingue notamment le rayonnement infrarouge proche dont la longueur d'onde est comprise entre 700 nm et 1,1 pm.
[0047] Pour les besoins de la présente description, l'indice de réfraction d'un milieu est défini comme étant l'indice de réfraction du matériau constitutif du milieu pour la plage de longueurs d'onde du rayonnement utile capté par le capteur d'images. L'indice de réfraction est considéré sensiblement constant sur la plage de longueurs d'onde du rayonnement utile, par exemple égal à la moyenne de l'indice de réfraction sur la plage de longueurs d'onde du rayonnement utile capté par le capteur d'images.
[0048] Sauf précision contraire, les expressions "environ", "approximativement", "sensiblement", et "de l'ordre de" signifient à 10 % près, de préférence à 5 % près.
[0049] Sauf précision contraire, les expressions "l'ensemble des éléments", "tous les éléments", "chaque élément", signifient entre 95 % et 100 % des éléments.
[0050] Sauf précision contraire, l'expression "il comprend uniquement les éléments" signifie qu'il comprend, à au moins 90 % les éléments, de préférence qu'il comprend à au moins 95 % les éléments.
[0051] La figure 1 représente par un schéma blocs, partiel et schématique, un exemple de système d'acquisition d'images.
[0052] Le système d'acquisition d'images, illustré en figure 1, comprend : un dispositif d'acquisition d'images 1 (DEVICE) ; et une unité de traitement 2 (PU) .
[0053] L'unité de traitement 2 comprend, de préférence, des moyens de traitement des signaux fournis par le dispositif 1, non représentés en figure 1. L'unité de traitement 2 comprend, par exemple, un microprocesseur.
[0054] Le dispositif 1 et l'unité de traitement 2 sont, de préférence, reliés par une liaison 3. Le dispositif 1 et l'unité de traitement 2 sont, par exemple, intégrés dans un même circuit.
[0055] La figure 2 représente, par une vue en coupe, partielle et schématique, un mode de réalisation d'un dispositif 11.
[0056] Plus particulièrement, la figure 2 illustre un exemple de réalisation du dispositif 1 illustré en figure 1. Le dispositif 11 peut, par exemple, être couplé à une unité de traitement et s'intégrer dans le système d'acquisition d'images tel que décrit en relation avec la figure 1. Le dispositif 11 fait, par exemple, partie d'un téléphone portable .
[0057] Le dispositif 11 illustré en figure 2 comprend : un capteur optique 13 ; au moins une première source lumineuse 17 ; et un châssis 23 (Mid frame) .
[0058] Le capteur optique 13 est adapté à capter des images. Des images captées par le capteur optique 13 sont extraites des informations relatives aux veines et à l'empreinte digitale d'un doigt 15 situé au dessus de la face supérieure du dispositif 11. L'extraction de ces informations est réalisée par l'unité de traitement illustrée en figure 1.
[0059] La première source 17 et le capteur optique 13 sont portés par le châssis 23. De préférence, les faces inférieures (dans l'orientation de la figure 2) de la première source 17 et du capteur optique 13 sont sur le châssis 23 et en contact avec le châssis 23.
[0060] La première source lumineuse 17 est adaptée à émettre uniquement un premier rayonnement 19 rouge et/ou infrarouge. La première source 17 émet le rayonnement 19 principalement dans une direction opposée au châssis 23. En d'autres termes, selon le mode de réalisation illustré en figure 2, la première source 17 émet le rayonnement 19 principalement en direction d'un écran 21. L'écran 21 est, de préférence, situé du coté de la face supérieure du capteur optique 13 (dans l'orientation de la figure 2) et comprend une face inférieure sensiblement parallèle à la face supérieure du châssis 23. Selon le mode de réalisation de la figure 2, le dispositif 11 comprend plusieurs premières sources lumineuses 17 situées autour du capteur optique 13. Chaque première source 17 est composée d'une ou plusieurs diodes électroluminescentes (LED, Light-Emitting Diode) .
[0061] Le rayonnement 19 correspond à un rayonnement lumineux dans le rouge et/ou l'infrarouge, c'est-à-dire à un rayonnement dont l'ensemble des longueurs d'onde qui le composent est compris entre 600 nm et 1700 nm. Plus préférentiellement, le rayonnement 19 correspond à un rayonnement lumineux dont l'ensemble des longueurs d'onde qui le composent est compris entre 600 nm et 1100 nm, et est
encore plus préférentiellement compris entre 630 nm et 940 nm.
[0062] Selon le mode de réalisation illustré en figure 2, le dispositif 11 comporte une succession de couches superposées de natures différentes. Le dispositif 11 comprend de haut en bas, dans l'orientation de la figure : une couche 25, de préférence, une vitre de protection (Cover glass) ; l'écran 21, composé d'un panneau d'une ou plusieurs diodes électroluminescentes organiques (OLED, Organic Light- Emitting Diode) (OLED panel) , ou un écran à cristaux liquides ou LCD (Liquid Crystal Display) . L'écran 21 constitue une deuxième source lumineuse adaptée à émettre uniquement un deuxième rayonnement 27 dans le visible ; le capteur optique 13 composé :
- d'un filtre optique 29, de préférence un filtre angulaire (Angular filter) ; et
- d'un capteur d'images 31 (Image sensor) ; le châssis 23 ; une batterie 33 (Battery) ; et une coque arrière 35 (Back cover) .
[0063] Dans la présente description, les modes de réalisation des dispositifs et autres empilements des figures 2, 4 à 7 et 10 à 11 sont représentés dans l'espace selon un repère XYZ orthogonal direct, l'axe Y du repère XYZ étant orthogonal à la face supérieure du capteur d'images 31.
[0064] Le rayonnement 27 correspond à un rayonnement lumineux dans le visible, c'est-à-dire à un rayonnement dont au moins une des longueurs d'onde qui le composent est comprise entre 400 nm et 800 nm. De préférence, le rayonnement 27 correspond à un rayonnement lumineux dont au moins une des longueurs d'onde qui le composent est compris entre 400 nm et 650 nm. Plus préférentiellement, le rayonnement 27 correspond à un
rayonnement dont l'ensemble des longueurs d'onde qui le composent est compris entre 400 nm et 700 nm, et est, encore plus préférentiellement, compris entre 460 nm et 600 nm.
[0065] La couche 25 est, par exemple, en verre trempé. La couche 25 a, de préférence, une épaisseur comprise entre 25 pm et 2 mm, de préférence, entre 600 pm et 1,5 mm.
[0066] Selon le mode de réalisation illustré en figure 2, la couche 25 est partiellement transparente, de préférence transparente, aux rayonnements 19 et 27. Ainsi, la couche 25 est, dans un mode de réalisation préféré, transparente aux longueurs d'onde comprises entre 400 nm et 1700 nm. Plus préférentiellement, la couche 25 est transparente aux longueurs d'onde comprises entre 400 nm et 1100 nm.
[0067] Selon un mode de réalisation, l'écran 21 est composé d'une unique OLED. Le panneau d'OLED peut selon les applications être pixélisé ou non. Le panneau d'OLED repose, de préférence, sur un substrat. Par exemple, l'écran 21 a une épaisseur comprise entre 200 pm et 400 pm.
[0068] Selon un mode de réalisation, le dispositif 11 ne comprend pas de couche 25. L'écran 21 est donc, par exemple, orienté de sorte que le substrat, sur lequel repose le panneau d'OLED, fasse face au doigt 15. Le substrat est ainsi utilisé comme couche de protection.
[0069] Le châssis 23 est, de préférence, réalisé en plastique ou en un matériau métallique et a, par exemple, une épaisseur comprise entre 1 mm et 4 mm. A titre d'exemple, dans le cas d'une application téléphonique, de préférence d'un téléphone intelligent (smartphone) , des composants électroniques du téléphone sont reportés sur le châssis 23.
[0070] La coque arrière 35 est, de préférence, réalisée en plastique, en verre ou en un matériau métallique et a, par exemple, une épaisseur comprise entre 200 pm et 2 mm.
[0071] Le filtre angulaire 29 est adapté à filtrer le rayonnement incident en fonction de l'incidence du rayonnement par rapport à l'axe Y.
[0072] Le filtre angulaire 29 est plus particulièrement adapté à ce que le capteur d'images 31 reçoive seulement les rayons dont les incidences respectives par rapport à l'axe Y sont inférieures à une incidence maximale inférieure à 45°, de préférence inférieure à 30°, plus préférentiellement inférieure à 10°, encore plus préférentiellement inférieure à 4°. Le filtre angulaire 29 est adapté à bloquer les rayons du rayonnement incident dont les incidences respectives par rapport à l'axe Y sont supérieures à l'incidence maximale.
[0073] Le capteur d'images 31 est un capteur à photodétecteurs ou photodiodes organiques (OPD, Organic Photodiode) . Les photodiodes sont, par exemple, intégrées sur un substrat à transistors CMOS (Complementary Metal Oxide Semiconductor, semiconducteur oxyde métal complémentaire) ou un substrat à transistors en couches minces (TFT ou Thin-Film Transistor) . Les photodiodes du capteur d'images 31 comprennent, par exemple, un mélange de polymères semiconducteurs organiques comme le poly ( 3-hexylthiophène ) ou le poly ( 3-hexylthiophène-2 , 5-diyl ) , connu sous la dénomination P3HT, mélangé avec le [ 6, 6] -phényl-C61-butanoate de méthyle (semiconducteur de type N) , connu sous la dénomination PCBM. Les photodiodes du capteur d'images 31 comprennent, par exemple, des petites molécules, c'est-à-dire des molécules ayant des masses molaires inférieures à 500 g/mol, de préférence, inférieures à 200 g/mol. Les photodiodes peuvent être des photodiodes non organiques, par exemple, réalisées à base de silicium amorphe ou silicium cristallin. A titre d'exemple, les photodiodes sont composées de boites quantiques (quantum dots) .
[0074] Le substrat est, par exemple, en silicium, de préférence en silicium monocristallin. Les régions de canal, de source et de drain des transistors TFT sont par exemple en silicium amorphe (a-Si ou amorphous Silicon) , en indium, gallium, zinc et oxyde (IGZO Indium Gallium Zinc Oxide) ou en silicium polycristallin basse température (LTPS ou Low Temperature Polycrystalline Silicon) .
[0075] Le capteur d'images 31 est, de préférence, sensible aux longueurs d'onde des rayonnements 19 et 27.
[0076] Le capteur optique 13 comprend, en outre, de haut en bas, dans l'orientation de la figure 2 : le filtre angulaire 29 ; le capteur d'images 31 ; une couche 37 de blindage, de préférence, une couche en cuivre (Copper sheet) ayant une épaisseur comprise entre 25 pm et 200 pm ; une couche 39 de dissipation thermique (Heat dissipation sheet) , par exemple, en graphite ayant une épaisseur comprise entre 25 pm et 200 pm ; et une couche 41 d'absorption de chocs (Cushion) , par exemple, en une mousse polymère ayant une épaisseur comprise entre 25 pm et 200 pm.
[0077] Les couches 37, 39 et 41 du capteur optique 13 sont des couches optionnelles.
[0078] Des couches adhésives permettant de fixer tout ou partie des couches susmentionnées entre elles peuvent être présentes .
[0079] Selon le mode de réalisation illustré en figure 2, le capteur optique 13 comprend : une couche 43 adhésive (Adhesive) entre le capteur d'images 31 et la couche 37 de blindage ; une couche 45 adhésive (Adhesive) entre la couche 41
d'absorption des chocs et le châssis 23 ; et une couche 47 adhésive (OCA) , par exemple optiquement partiellement transparente, de préférence optiquement transparente et non diffusante (Optically Clear Adhesive, OCA) , entre le filtre angulaire 29 et le capteur d'images 31.
[0080] Au sens de la présente description, on considère qu'une couche est "non diffusante" si les rayons d'un faisceau qui la traverse ressortent dans un cône de diffusion ayant un demi angle (au sommet du cône) inférieur à environ 3,5 degrés.
[0081] Les couches 43, 45 et 47 sont, par exemple, réalisées à base de composants acryliques. Elles ont, de préférence, chacune une épaisseur comprise entre 12,5 pm et 50 pm, par exemple, de l'ordre de 25 pm.
[0082] Selon le mode de réalisation illustré en figure 2, le dispositif 11 comprend une couche 49 adhésive optionnelle, optiquement partiellement transparente, par exemple transparente, et non diffusante (OCA) , située entre la couche 25 et l'écran 21. La couche 49 est, de préférence, partiellement transparente, par exemple transparente, et non diffusante pour les longueurs d'onde des rayonnements 19 et 27. La couche 49 est, par exemple partiellement transparente, par exemple, transparente pour les longueurs d'onde comprises entre 400 nm et 1700 nm, et, de préférence comprises entre 400 nm et 1100 nm.
[0083] Selon le mode de réalisation illustré en figure 2, l'écran 21, la couche 25, la couche 49, le châssis 23 et la coque arrière 35 sont appelés couches externes et ont sensiblement tous la même superficie (dans le plan XZ) .
[0084] Dans le dispositif 11 représenté en figure 2, le capteur optique 13 et les couches qui le composent ont une superficie (dans le plan XZ) égale ou inférieure à celle des couches externes, c'est-à-dire la couche 25, la couche 49,
l'écran 21, le châssis 23 et la coque arrière 35. De préférence, le capteur optique 13 a une superficie (dans le plan XZ) inférieure à celle des couches externes.
[0085] Par exemple, le capteur optique 13 est centré sur la face supérieure du châssis 23.
[0086] Selon le mode de réalisation de la figure 2, le dispositif 11 comprend des empilements périphériques 51 disposés de chaque côté du capteur optique 13. Les empilements périphériques 51 s'étendent verticalement (selon l'axe Y) de la face inférieure de l'écran 21 en direction du châssis 23.
[0087] Les empilements périphériques 51 s'étendent horizontalement (selon l'axe Z) de l'extrémité périphérique du dispositif 11 jusqu'à une limite proche du capteur optique 13, de sorte à laisser un espace 61 entre le capteur optique 13 et les empilements périphériques 51. L'espace 61 se prolonge, de préférence, par un espace 63 situé entre la face supérieure du capteur optique 13 et l'écran 21. Les espaces 61 et 63 sont, par exemple, remplis d'air, d'un vide partiel ou d'une résine.
[0088] L'espace 63 est, par exemple, rempli par un matériau partiellement transparent, de préférence transparent, aux rayonnements 19 et 27. Le matériau de remplissage de l'espace 63 a un indice de réfraction inférieur d'au moins 0,1, de préférence d'au moins 0,15, par rapport à l'indice de réfraction du matériau du capteur optique 13.
[0089] Par exemple, le matériau du capteur optique 13 a un indice de réfraction compris entre 1,5 et 1, 6. L'espace 63 est par exemple une couche d'air, une couche de résine ou une couche d'adhésif à faible indice de réfraction, ayant un indice de réfraction de l'ordre de 1,34 à 1,45.
[0090] Dans la suite de la description, on qualifie de "faible" indice de réfraction, un indice de réfraction
inférieur à 1,5, et de "fort" indice de réfraction, un indice de réfraction supérieur ou égal à 1,5. La résine à faible indice de réfraction et l'adhésif à faible indice de réfraction sont par exemple colorés et permettent ainsi un filtrage en longueur d'onde.
[0091] Les empilements périphériques 51 ont, par exemple, une fonction de support de l'écran 21 sur le châssis 23.
[0092] Les empilements périphériques 51 comprennent, de préférence, des couches similaires, par leurs fonctions, aux couches composant le capteur optique 13.
[0093] Les empilements périphériques 51 comprennent ainsi : une couche 59 adhésive (Adhesive) , similaire à la couche 43 adhésive, ayant une épaisseur comprise entre 25 pm et 200 pm ; une couche 53 de blindage (Copper sheet) , optionnelle et similaire à la couche 37 de blindage, ayant une épaisseur comprise entre 25 pm et 200 pm ; une couche 55 de dissipation thermique (Heat dissipation sheet) , optionnelle et similaire à la couche 39, ayant une épaisseur comprise entre 25 pm et 200 pm ; et une couche 57 d'absorption de chocs (Cushion) , optionnelle et similaire à la couche 41, ayant une épaisseur comprise entre 25 pm et 200 pm.
[0094] La couche 59 adhésive est, selon le mode de réalisation illustré en figure 2, sur la face inférieure de l'écran 21 et en contact avec la face inférieure de l'écran 21.
[0095] Par ailleurs, selon le mode de réalisation illustré en figure 2, le dispositif 11 comprend des logements 65 (Housing) situés sur la face supérieure du châssis 23. Les logements 65 peuvent être alignés avec les empilements 51 et avoir une superficie (dans le plan XZ) similaire à la
superficie des empilements 51 ou une superficie différente de la superficie des empilements 51. Les logements 65 facilitent, par exemple, l'assemblage de l'écran 21 sur le châssis 23 et notamment le positionnement du capteur optique 13.
[0096] Contrairement à ce qui est représenté en figure 2, chaque empilement 51 est, de préférence, au contact du logement 65 sous-jacent.
[0097] Le châssis 23 comprend, par exemple, une carte imprimée, non représentée en figure 2, sur la face opposée à celle où est disposé le capteur d'images 31 (face inférieure du châssis 23 en figure 2) .
[0098] La figure 3 représente, par un schéma blocs, un exemple de mise en oeuvre d'un procédé d'acquisition d'images.
[0099] Plus particulièrement, la figure 3 illustre, par un schéma blocs, la mise en oeuvre d'un procédé d'acquisition d'images du doigt 15 (figure 2) pour l'extraction d'informations concernant les veines et les empreintes digitales du doigt 15.
[0100] Ce procédé se décompose en deux flux. Un premier flux concerne l'acquisition d'images par le capteur d'images 31. Un deuxième flux concerne le traitement opéré sur les images prises. Le premier flux est précédé par une étape 66 (Finger on display) de mise en place du doigt 15 à la surface de la couche ou vitre de protection 25 (figure 2) .
[0101] Selon le mode de mise en oeuvre illustré en figure 3, le premier et le deuxième flux comprennent une première phase d'acquisition et de traitement d'images à destination d'une reconnaissance d'empreintes digitales suivie d'une deuxième phase d'acquisition et de traitement d'images à destination d'une reconnaissance de veines.
[0102] La première phase du premier flux commence par une étape 67 de mise en marche de la source 21 "visible" (Visible
source ON) . L'étape 67 est suivie par une étape 68 d'acquisition (Image 1 acquisition) et de stockage d'une première image.
[0103] La deuxième phase du premier flux comporte la mise en marche de la source 17 "infrarouge" (étape 71, IR Source ON) .
[0104] L'étape 71 est suivie par : une étape 72 d'extinction de la source 21 (Visible source OFF) et une étape 73 d'acquisition et de stockage d'une deuxième image (Image 2 acquisition) ; ou une étape 77 d'acquisition et de stockage d'une troisième image (Image 2' acquisition) .
[0105] La première phase du deuxième flux comporte une étape
69 de traitement de la première image acquise (Image 1 processing) , afin d'en extraire une image des empreintes digitales 70 (Fingerprint feature) .
[0106] Lors de la deuxième phase, si l'image acquise l'a été dans l'étape 73 (source 21 éteinte) , l'image est traitée, lors d'une étape 74 (Image 2 processing) , afin d'en extraire une image de veines 75 (Veins feature) .
[0107] A défaut, si l'image acquise lors de la deuxième phase l'a été dans l'étape 77 (source 21 allumée) , l'image est traitée, lors d'une étape 78 (Image 2' processing) afin d'en extraire une image à laquelle on soustrait la première image pour avoir une image de veines 79 (Veins feature) .
[0108] Les flux et phases peuvent être imbriqués de diverses manières .
[0109] Par exemple, les deux phases du premier flux sont exécutées avant d'exécuter les deux phases du deuxième flux.
[0110] Selon un autre exemple, les premières phases des premier et deuxième flux sont exécutées avant l'exécution des deuxièmes phases des premier et deuxième flux.
[0111] En outre, l'ordre des phases peut être inversé dans l'un des flux ou dans l'autre.
[0112] La figure 4 représente, par une vue en coupe, partielle et schématique, un autre mode de réalisation d'un dispositif 81.
[0113] Plus particulièrement, en figure 4, le dispositif 81 est similaire au dispositif 11 illustré en figure 2 à la différence près qu'il comprend deux polariseurs.
[0114] Le dispositif 81 comprend : au moins un premier polariseur 83 ; et un deuxième polarisateur 85.
[0115] Chaque premier polariseur 83 recouvre, de préférence, une unique première source 17. Par exemple, chaque source 17 est recouverte, selon l'axe Y, par un premier polariseur 83. Le rayonnement 19 issu de la première source 17 traverse ainsi, de préférence, le premier polariseur 83 avant d'atteindre le doigt 15.
[0116] Le nombre de premiers polariseurs 83 est, de préférence, égal au nombre de premières sources 17, de sorte que chaque première source 17 soit associée à un unique premier polariseur 83 et que chaque premier polariseur 83 soit associé à une unique première source 17.
[0117] Selon le mode de réalisation de la figure 4, chaque premier polariseur 83 a une superficie (dans le plan XZ) égale ou supérieure à la superficie de la source 17 auquel il est associé .
[0118] Selon le mode de réalisation illustré en figure 4, le deuxième polariseur 85 est situé sur la face supérieure du filtre angulaire 29, en contact avec la face supérieure du filtre angulaire 29, et a une superficie (dans le plan XZ) similaire à la superficie du filtre angulaire 29.
[0119] En variante, le deuxième polariseur 85 est situé entre le filtre angulaire 29 et le capteur d'images 31.
[0120] Selon le mode de réalisation illustré en figure 4, le ou les premiers polariseurs 83 et le deuxième polariseur 85 sont rectilignes, ou dit autrement linéaires.
[0121] Selon le mode de réalisation illustré en figure 4, le ou les premiers polariseurs 83 polarisent dans une première direction, que l'on appellera, par la suite direction horizontale .
[0122] Selon le mode de réalisation illustré en figure 4, le deuxième polariseur 85 est composé de : une ou plusieurs premières parties qui polarisent dans une seconde direction, perpendiculaire à la première direction, que l'on appellera par la suite direction verticale ; et une ou plusieurs deuxièmes parties qui polarisent selon la direction horizontale.
[0123] L'agencement des premières et deuxièmes parties du deuxième polariseur 85 est illustré en figures 5 et 6.
[0124] La figure 5 représente, par une vue en coupe, partielle et schématique, une partie du dispositif d'acquisition d'images 81 représenté en figure 4.
[0125] Plus particulièrement, la figure 5 illustre un empilement 87 du capteur d'images 31, de la couche 47, du filtre angulaire 29, du deuxième polariseur 85 et de l'écran 21.
[0126] Selon le mode de réalisation illustré en figure 5, le filtre angulaire 29 comprend, de haut en bas : une couche 89 comprenant un réseau de microlentilles 91 recouvertes par une couche 93 de remplissage ; un substrat 95 sur lequel les microlentilles 91 sont f o rmé es ; et
une matrice comprenant des murs 97 opaques, au moins partiellement, aux rayonnements 19 et 27 (figure 4) et des ouvertures 99, les ouvertures 99 étant comblées par le matériau de la couche 47.
[0127] Le substrat 95 peut être en un polymère transparent qui n'absorbe pas au moins les longueurs d'onde considérées, ici dans le domaine du visible et de l'infrarouge. Ce polymère peut notamment être en poly ( téréphtalate d'éthylène) PET, en poly (métacrylate de méthyle) PMMA, en polymère d' oléf inecyclique (COP) , en polyimide (PI) ou en polycarbonate (PC) . L'épaisseur du substrat 95 peut, par exemple, varier entre 1 pm et 100 pm, de préférence entre 10 pm et 100 pm. Le substrat 95 peut correspondre à un filtre coloré, à un polariseur, à une lame demi-onde ou à une lame quart d'onde.
[0128] Les lentilles 91 peuvent être réalisées en silice, en PMMA, en une résine photosensible positive, en PET, en poly (naphtalate d'éthylène) (PEN) , en COP, en polydiméthylsiloxane (PDMS) /silicone, en résine époxy ou en résine acrylate. Les lentilles 91 peuvent être formées par fluage de blocs d'une résine photosensible. Les lentilles 91 peuvent, en outre, être formées par moulage sur une couche de PET, de PEN, de COP, de PDMS/silicone, de résine époxy ou de résine acrylate. Les lentilles 91 sont des lentilles convergentes ayant chacune une distance focale f comprise entre 1 pm et 100 pm, de préférence entre 1 pm et 70 pm. Selon un mode de réalisation, toutes les lentilles 91 sont sensiblement identiques.
[0129] Selon le présent mode de réalisation, les lentilles 91 et le substrat 95 sont, de préférence, réalisés dans des matériaux transparents ou partiellement transparents, c'est à-dire transparents dans une partie du spectre considéré pour le domaine visé, par exemple l'imagerie, sur la plage de
longueurs d'onde correspondant aux longueurs d'onde utilisées lors de l'exposition.
[0130] Selon un mode de réalisation, la couche 93 est une couche qui épouse la forme des lentilles 91. La couche 93 peut être obtenue à partir d'un adhésif optiquement transparent (Optically Clear Adhesive - OCA) , notamment un adhésif optiquement transparent liquide, ou d'un matériau à bas indice de réfraction, ou d'une colle epoxy/acrylate, ou d'un film d'un gaz ou d'un mélange gazeux, par exemple de l'air.
[0131] Les ouvertures 99 sont, par exemple, remplies d'air, de vide partiel ou d'un matériau au moins partiellement transparent dans les domaines du visible et de l'infrarouge.
[0132] Les axes optiques des lentilles 91 sont, de préférence, dirigés selon l'axe Y.
[0133] Chaque ouverture 99 est, de préférence, associée à une seule lentille 91. Les axes optiques des lentilles 91 sont, de préférence, centrés avec les centres des ouvertures 99. Le diamètre des lentilles 91 est, de préférence, supérieur à la taille maximale de la section (perpendiculaire à l'axe optique des lentilles 91) des ouvertures 99.
[0134] Selon le mode de réalisation illustré en figure 5, le capteur d'images 31 comprend des photodétecteurs 103 délimitant des pixels 105. On utilise le terme pixel dans l'ensemble de la description pour définir une partie du capteur d'images 31 comprenant un unique photodétecteur 103. La dénomination pixel peut s'appliquer à l'échelle du capteur d'images 31 mais aussi à l'échelle de l'empilement 87. A l'échelle de l'empilement 87, un pixel est l'ensemble des couches, constituant ledit empilement, à l'aplomb du pixel du capteur d'images 31. Dans l'ensemble de cette description, le
terme pixel, sauf précision contraire, fait référence à un pixel à l'échelle de l'empilement 87.
[0135] Chaque photodétecteur 103 est, de préférence, associé à au moins quatre ouvertures 99 (et quatre lentilles 91) . De préférence, chaque photodétecteur 103 est associé à exactement quatre ouvertures 99.
[0136] Dans l'exemple de la figure 5, un pixel 105 correspond à chaque partie de l'empilement 87 comprenant, entre autres, un photodétecteur 103 surmonté par quatre ouvertures 99, elles-mêmes surmontées par quatre lentilles 91. Chaque pixel 105 a, de préférence, une forme sensiblement carrée vu selon une direction perpendiculaire à la face supérieure du capteur d'images 31. Par exemple, la superficie de chaque pixel correspond à un carré dont la dimension d'un côté est comprise entre 32 pm et 100 pm, de préférence, comprise entre 50,8 pm et 80 pm. La superficie d'un pixel est, plus préférentiellement, égale à un carré d'environ 50,8 pm par 50,8 pm .
[0137] Chaque pixel 105 peut être associé à un nombre de lentilles 91 différent de quatre et ce en fonction du diamètre des lentilles 91, de leur arrangement en réseau et des dimensions des pixels 105.
[0138] Dans l'exemple de la figure 5, un pixel 105 comprend un photodétecteur 103 surmonté par quatre ouvertures 99. En pratique, le filtre angulaire 29 comprenant les ouvertures 99 peut être laminé sur le capteur d'images 31 sans alignement préalable du filtre angulaire 29 sur le capteur d'images 31. Certaines lentilles 91 et ouvertures 99 peuvent alors être situées, dans l'orientation de l'empilement, c'est-à-dire selon la direction Y, à cheval sur deux photodétecteurs 103.
[0139] Selon le mode de réalisation illustré en figure 5, l'empilement 87 comprend le deuxième polariseur 85 sur la
face supérieure du filtre optique 29, plus précisément sur la face supérieure de la couche 93.
[0140] La figure 6 représente, par une vue de dessus, partielle et schématique, un mode de réalisation de la partie du dispositif d'acquisition d'images représentée en figure 5.
[0141] Plus particulièrement, la figure 6 illustre un mode de réalisation de l'agencement des premières parties 107 et deuxièmes parties 109 du deuxième polariseur 85 (figure 5) .
[0142] Selon le mode de réalisation illustré en figure 6, chaque première partie 107 et chaque deuxième partie 109 du deuxième polariseur 85 a une forme sensiblement carrée dans la vue de la figure 6. Par exemple, la superficie de chaque première partie 107 et chaque deuxième partie 109 du deuxième polariseur 85 est égale à la superficie d'un pixel 105 (figure 5) , soit, par exemple, un carré d'environ 50,8 pm par 50,8 pm.
[0143] Selon le mode de réalisation illustré en figure 6, les premières parties 107 et deuxièmes parties 109 du polariseur 85 sont formées à la surface du filtre angulaire 29 (figure 5) de façon à ce qu'un pixel 105 sur deux soit recouvert par une première partie 107 et un pixel 105 sur deux, différent des précédents, soit recouvert par une deuxième partie 109. Chaque partie 107 et chaque partie 109 est alignée avec un pixel 105 et un photodétecteur 103. Pour chaque groupement carré de quatre pixels 105, deux des pixels 105 sont recouverts par des premières parties 107 et deux des pixels 105, différents des pixels 105 précédents, sont, par exemple, recouverts par des deuxièmes parties 109.
[0144] En variante, le pas de répétition des premières parties 107 peut être supérieur à un pixel. Le pas de répétition des premières parties 107 peut être compris entre deux pixels 105 et vingt pixels 105, de préférence compris entre cinq pixels 105 et quinze pixels 105, et plus
préférentiellement égal à environ dix pixels 105. En d'autres termes, le nombre de premières parties 107 est alors différent et, par exemple, inférieur au nombre de deuxièmes parties 109. Les premières parties 107 peuvent être agencées de sorte que, par exemple, au sein d'un ensemble de huit pixels (deux colonnes de pixels par quatre lignes de pixels) , deux premières parties 107 sont formées à la surface du filtre angulaire 29 de façon à recouvrir deux pixels d'une même colonne. Les premières parties 107 peuvent être agencées de sorte que, par exemple, au sein d'un ensemble de huit pixels (deux colonnes de pixels par quatre lignes de pixels) , deux premières parties 107 sont formées à la surface du filtre angulaire 29 de façon à recouvrir deux pixels, non adjacents, situés au sein de deux colonnes différentes. En d'autres termes, un motif de répétition carré de quatre pixels est répété sur deux lignes consécutives décalées d'un pixel. Dans ces deux modes de réalisation, le pas de répétition des premières parties 107 est de deux pixels, toutefois ces modes de réalisations sont aisément adaptables pour un pas de répétition des premières parties 107 supérieur à deux pixels.
[0145] Selon un mode de mise en oeuvre, le deuxième polariseur 85 est, par exemple, formé par dépôts successifs des premières parties 107 et des deuxièmes parties 109 à la surface du filtre angulaire 29.
[0146] A titre de variante, pour chaque groupement carré de quatre pixels, uniquement un pixel 105 est recouvert par une première partie, les trois autres pixels étant recouverts par des deuxièmes parties 109.
[0147] La figure 7 représente, par une vue de dessus, partielle et schématique, un autre mode de réalisation de la partie du dispositif d'acquisition d'images représentée en figure 5.
Tl
[0148] Plus particulièrement, la figure 7 illustre un autre mode de réalisation de l'agencement des premières parties 107 et deuxièmes parties 109 du deuxième polariseur 85 (figure 5) .
[0149] De préférence, les premières parties 107 et deuxièmes parties 109 du deuxième polariseur 85 sont formées arbitrairement à la surface du filtre angulaire 29 (figure 5) .
[0150] En figure 7, chaque première partie 107 du deuxième polariseur 85 a une superficie plus importante (dans le plan XZ) que la superficie de chaque première partie 107 du deuxième polariseur 85 illustré en figure 6.
[0151] Selon le mode de réalisation illustré en figure 7, chaque première partie 107 du deuxième polariseur 85 est formée sur la face supérieure du filtre angulaire 29 sans alignement préalable de celle-ci avec les photodétecteurs 103 ou les lentilles 91 sous-jacentes.
[0152] Selon le mode de réalisation illustré en figure 7, chaque première partie 107 a une forme sensiblement carrée dans la vue de la figure 7. De préférence, chaque première partie 107 a une superficie (en contact avec la couche 93, figure 5) permettant de couvrir intégralement, sur la face supérieure du filtre angulaire 29, au moins un pixel 105 (ou un photodétecteur 103) et ce peu importe son emplacement sur la face supérieure du filtre angulaire 29. Ainsi, la superficie de chaque première partie 107 est au moins égale à la superficie de quatre pixels 105. De préférence, la superficie de chaque première partie 107 est comprise entre la superficie de quatre pixels 105 et la superficie de six pixels 105. Par exemple, la superficie de chaque première partie 107 est égale à la superficie de quatre pixels 105. La face supérieure du filtre optique 29, non recouverte par les premières parties 107, est recouverte par des deuxièmes
parties 109. Les positions relatives entre les pixels 105 et les premières et deuxièmes parties 107, 109 n'étant pas connues, une étape de calibration peut être prévue pour déterminer les positions des pixels recouverts par les premières parties 107, par exemple en éclairant le dispositif d'acquisition d'images avec un rayonnement polarisé par exemple horizontalement de sorte que seuls les pixels recouverts par des deuxièmes parties capteront un rayonnement
[0153] Selon un mode de mise en oeuvre, le deuxième polariseur 85 est, par exemple, formé par dépôts successifs des premières parties 107 et des deuxièmes parties 109 à la surface du filtre angulaire 29.
[0154] Selon un mode de réalisation, le pas de répétition des premières parties 107 est compris entre une distance correspondant à la dimension de trois pixels et une distance correspondant à la dimension de vingt pixels. De préférence, le pas de répétition est compris entre une distance correspondant à la dimension de huit pixels et une distance correspondant à la dimension de quinze pixels. Plus préférentiellement, le pas de répétition des premières parties 107 est égal à une distance correspondant à la dimension de dix pixels. La répartition des premières parties 107 est alignée, c'est-à-dire que la répétition se fait en lignes et en colonnes, ou décalée, c'est-à-dire que la répartition est décalée d'un ou plusieurs pixels d'une ligne à la suivante ou d'une colonne à la suivante.
[0155] Selon un mode de réalisation, non représenté, le deuxième polariseur 85 est situé entre le filtre angulaire 29 et le capteur d'images 31, plus précisément, entre la couche 47 et le capteur d'images 31 (figure 5) .
[0156] Un avantage des modes de réalisation et des modes de mise en oeuvre décrits précédemment en relation avec les figures 4 à 7 est qu'ils permettent de prendre simultanément
une image sous le rayonnement 19 polarisé horizontalement puis, après réflexion sur le doigt 5, horizontalement (c'est- à-dire une image sous le rayonnement 19 ayant traversé deux polariseurs alignés) et une image sous le rayonnement 19 polarisé horizontalement puis, après réflexion sur le doigt 15, verticalement (c'est-à-dire une image sous le rayonnement 19 ayant traversé deux polariseurs croisés) .
[0157] La figure 8 représente, par un schéma blocs, un autre exemple de mise en oeuvre d'un procédé d'acquisition d'images.
[0158] Plus particulièrement, la figure 8 illustre un procédé permettant l'acquisition d'images et le traitement de celles- ci dans le cas d'un dispositif comprenant la source 17.
[0159] Ce procédé se décompose en deux flux. Un premier flux concerne l'acquisition d'images par le capteur d'images 31. Un deuxième flux concerne le traitement opéré sur les images acquises .
[0160] Selon le mode de mise en oeuvre illustré en figure 8, le premier flux commence par une étape 123 de mise en place du doigt 15 sur la face supérieure de la couche 25 (Finger on display) . L'étape 123 est suivie par une étape 125 dans laquelle la position du doigt 15 est détectée (Detecting finger position) et localisée sur la couche 25. La détection de la position du doigt 15 peut être réalisée par un élément de détection inclus dans le dispositif d'acquisition d'images ou par un élément interne au capteur d'images 31, par exemple une de ses électrodes.
[0161] Le premier flux comprend, dans une étape 127 ultérieure, la mise en marche de la source 17 (IR source ON) .
[0162] L'étape 127 est suivie par une étape 129 d'acquisition d'une image, de division de cette image en deux images distinctes selon que les pixels sont associés à une première
partie 107 ou une deuxième partie 109 du deuxième polariseur 85, et de stockage de ces images (Image acquisition) .
[0163] La première image est l'image qui est associée aux photodétecteurs 105 (figure 5) surmontés par une première partie 107 du deuxième polariseur 85. Ainsi, avant d'atteindre le photodétecteur 105, le rayonnement 19 est polarisé par le premier polariseur 83 en horizontal (H) puis, après réflexion sur le doigt 15, est polarisé par la première partie 107 du deuxième polariseur 85 en vertical (V) , avant d'atteindre le capteur d'images 31.
[0164] La deuxième image est l'image associée aux photodétecteurs 105 (figure 5) surmontés par une deuxième partie 109 du deuxième polariseur 85. Ainsi, avant d'atteindre le photodétecteur 105, le rayonnement 19 est polarisé par le premier polariseur 83 en horizontal (H) puis, après réflexion sur le doigt 15, est polarisé par la deuxième partie 109 du deuxième polariseur 85 en horizontal (H) , avant d'atteindre le capteur d'images 31.
[0165] Le deuxième flux comporte deux phases respectivement dédiées au traitement séparé des deux images et au traitement de la combinaison des deux images.
[0166] La première phase du deuxième flux comporte le traitement de la première image acquise (sortie HV du bloc 129) afin d'en extraire, dans une étape 131, une image comprenant des informations volumiques sur le doigt 15 (Volume information (veins) ) . On appelle informations volumiques, les informations qui ont nécessité la pénétration de la lumière dans le volume du doigt 15 pour être acquises. Les informations concernant les veines, par exemple leur nombre, leur forme ou leur agencement au sein du doigt, sont, par exemple, des informations volumiques.
[0167] La première phase du deuxième flux comporte, en outre, le traitement de la deuxième image acquise (sortie HH du bloc 129) afin d'en extraire, dans une étape 133, une image comprenant des informations surfaciques et volumiques sur le doigt 15 (Surface and volume information) .
[0168] La deuxième phase du deuxième flux comporte une étape 135 au cours de laquelle les informations provenant de la première image et les informations provenant de la deuxième image sont traitées ensemble afin d'extraire des informations uniquement surfaciques (Surface information (fingerprint) ) . Ceci peut comprendre la détermination d'une troisième image correspondant à la différence, éventuellement pondérée, entre la deuxième image et la première image. On appelle informations surfaciques, les informations qui ont nécessité la réflexion de la lumière à la surface du doigt pour être acquises. Les informations concernant les empreintes digitales sont, par exemple, des informations surfaciques. Il s'agit par exemple d'une image des sillons et des crêtes des empreintes digitales.
[0169] La figure 9 représente, par une vue en coupe, partielle et schématique, une structure 111 dotée d'un polariseur 85.
[0170] Plus particulièrement, la figure 9 illustre un mode de réalisation d'une structure 111 dans laquelle le deuxième polariseur 85 a été formé à la surface d'un support ou substrat 113.
[0171] De préférence, le deuxième polariseur 85 illustré en figure 9 est identique au deuxième polariseur 85 illustré en figure 5. Le deuxième polariseur 85 en figure 9 est toutefois formé sur le support 113, à la différence de la figure 5 où le polariseur 85 est formé sur le filtre angulaire 29. Ceci permet de façon avantageuse de réaliser le deuxième polariseur 85 séparément des autres éléments de l'empilement 87.
[0172] Le support 113 peut être en un polymère transparent qui n'absorbe pas, au moins, les longueurs d'onde considérées, ici dans le domaine du visible et de l'infrarouge. Ce polymère peut notamment être en poly ( téréphtalate d'éthylène) (PET) , en poly (métacrylate de méthyle) (EMMA) , en polymère d' oléf inecyclique (COP) , en polyimide (PI) ou en polycarbonate (PC) . Le substrat 113 est, de préférence, en PET. L'épaisseur du substrat 113 peut varier de 1 pm à 100 pm, de préférence de 10 pm à 50 pm. Le support 113 peut correspondre à un filtre coloré, à une lame demi-onde ou à une lame quart d'onde.
[0173] L'agencement des premières parties 107 et des deuxièmes parties 109 du deuxième polariseur 85 illustré en figure 9 est similaire à l'agencement des parties 107 et 109 du deuxième polariseur 85 illustré en figure 7.
[0174] Selon un mode de réalisation, la structure 111 est montée dans l'empilement 87 de la figure 5, à la place du deuxième polariseur 85, au dessus du filtre angulaire 29.
[0175] Selon un mode de réalisation, la structure 111 est montée dans l'empilement 87 de la figure 5, en remplacement du deuxième polariseur 85, entre le filtre 29 et le capteur d'images 31, plus précisément, entre la couche 47 et le capteur d'images 31.
[0176] En variante, le polariseur 85 est formé sous le substrat 113. Lors du report de la structure 111, la face inférieure du polariseur 85 est alors au contact de la face supérieure du filtre angulaire 29 ou au contact de la face supérieure du capteur d'images 31 selon que la structure 111 est positionnée sur le filtre angulaire 15 ou entre le filtre angulaire 29 et le capteur d'images 31.
[0177] La figure 10 représente, par une vue en coupe, partielle et schématique, encore un autre mode de réalisation d'un dispositif d'acquisition d'images.
[0178] Plus particulièrement, la figure 10 illustre un dispositif 115 similaire au dispositif 81 illustré en figure 4 à la différence près qu'il comprend un ou des murs 117 opaques au rayonnement 19, autour du capteur optique 13.
[0179] Selon un mode de réalisation, le mur 117 recouvre tous les bords latéraux du capteur optique 13 en s'étendant du châssis 23 jusqu'à affleurer la face supérieure du filtre angulaire 29.
[0180] Selon un mode de réalisation, chaque première source
17 est séparée du capteur optique 13 par un mur 117. Il y a ainsi autant de murs 117 que de sources 17. Chaque mur 117 s'étend du châssis 23 jusqu'à la face supérieure du filtre angulaire 29 sur une largeur (selon la direction X en figure 10) égale ou supérieure à la largeur (selon la direction X en figure 10) de la source 17.
[0181] Un avantage du mode de réalisation illustré en figure
10 est que le rayonnement 19 issu de la première source 17 est perçu par le capteur optique 13 uniquement si elle se reflète sur le doigt 15. Le capteur optique 13 n'est donc pas perturbé par le rayonnement 19 non reflété ou direct.
[0182] La figure 11 représente, par une vue en coupe, partielle et schématique, encore un autre mode de réalisation d'un dispositif d'acquisition d'images.
[0183] Plus particulièrement, la figure 11 illustre un dispositif d'acquisition d'images 119 similaire au dispositif 81 illustré en figure 4 à la différence près qu'il comprend un filtre angulaire 121 entre chaque source 17 et son premier polariseur 83 associé.
[0184] Selon un mode de réalisation, le dispositif 119 comprend un nombre de filtres angulaires 121 égal au nombre de sources 17 et de premiers polarisateurs 83.
[0185] Chaque filtre angulaire 121 est, de préférence, composé d'une matrice de murs opaques au rayonnement 19 et d'ouvertures surmontée par un réseau de lentilles (non représentés) . Chaque filtre angulaire a par exemple une superficie (dans le plan XZ) similaire à la superficie du premier polariseur 83 auquel il est associé.
[0186] En variante, chaque filtre 121 est positionné sur la face supérieure du premier polariseur 83 auquel il est associé
[0187] Un avantage du mode de réalisation illustré en figure
11 est que le rayonnement 19 issu de la première source 17 est, en sortie du filtre angulaire 121, sensiblement collimaté
[0188] Un avantage des modes de réalisation et des modes de mise en oeuvre décrits est qu'ils permettent de réduire considérablement les possibilités de fraudes sur des capteurs d'empreintes digitales.
[0189] Encore un autre avantage des modes de réalisation et des modes de mise en oeuvre décrits est qu'ils permettent de réduire les coûts de fabrication car un unique capteur est utilisé pour capter le rayonnement visible et le rayonnement infrarouge .
[0190] Divers modes de réalisation et variantes ont été décrits. La personne du métier comprendra que certaines caractéristiques de ces divers modes de réalisation et variantes pourraient être combinées, et d'autres variantes apparaîtront à la personne du métier. En particulier, les modes de réalisation et de mises en oeuvre décrits peuvent être combinés. Les modes de réalisations décrits ne se limitent pas aux exemples de dimensions et de matériaux mentionnés ci-dessus.
[ 0191 ] Enfin, la mise en oeuvre pratique des modes de réalisation et variantes décrits est à la portée de la personne du métier à partir des indications fonctionnelles données ci-dessus .
Claims
REVENDICATIONS Système d'acquisition d'images (11 ; 81 ; 115 ; 119) comprenant : au moins une première source lumineuse (17) , portée par un châssis (23) et adaptée à émettre uniquement un premier rayonnement (19) dans le rouge et/ou le proche infrarouge dans une direction opposée au châssis ; une unité de traitement (2) ; et dans l'ordre : un unique capteur (31) à photodétecteurs organiques (103) , porté par ledit châssis et adapté à capter des images, un filtre optique angulaire (29) , une deuxième source lumineuse (21) , une couche de protection (25) , l'unité de traitement étant configurée pour extraire desdites images des informations relatives aux veines et/ou à l'empreinte digitale d'un doigt (15) . Système selon la revendication 1, dans lequel le premier rayonnement (19) comprend uniquement des longueurs d'onde comprises dans la bande de 600 nm à 1100 nm, de préférence entre 630 nm à 940 nm. Système selon la revendication 1 ou 2, comprenant un premier polariseur (83) et dans lequel le premier rayonnement (19) issu de la première source lumineuse (17) traverse le premier polariseur (83) avant d'atteindre le capteur ( 31 ) . Système selon la revendication 3, dans lequel le premier polariseur (83) recouvre la première source lumineuse (17) du côté opposé au châssis (23) .
Système selon l'une quelconque des revendications 1 à 4, dans lequel la première source lumineuse (17) comprend une ou des diodes électroluminescentes. Système selon l'une quelconque des revendications 1 à 5, dans lequel chaque photodétecteur (103) délimite un pixel (105) , chaque pixel étant sensiblement carré, la longueur des cotés de chaque pixel étant, de préférence, de l'ordre de 50 pm. Système selon l'une quelconque des revendications 1 à 6, comprenant, dans l'ordre : le châssis (23) ; le capteur (31) ; un filtre optique (29) ; la deuxième source lumineuse (21) ; et une couche de protection (25) . Système selon l'une quelconque des revendications 1 à 7, dans lequel la deuxième source lumineuse (21) est choisie parmi une diode électroluminescente organique et un écran à cristaux liquides. Système selon l'une quelconque des revendications 1 à 8, dans lequel la deuxième source lumineuse (21) est adaptée à émettre un deuxième rayonnement (27) dans le visible. Système selon l'une quelconque des revendications 1 à 9 dans leur rattachement à la revendication 3, comprenant un deuxième polariseur (85) recouvrant le capteur (31) du côté du capteur opposé au châssis (23) . Système selon la revendication 10, dans lequel le deuxième polariseur (85) est situé : entre le filtre optique (29) et la deuxième source lumineuse (21) ; ou entre le filtre optique (29) et le capteur (31) .
Système selon la revendication 10 ou 11, dans lequel le deuxième polariseur (85) est formé sur un substrat (113) Système selon l'une quelconque des revendications 10 à 12, dans lequel le premier polariseur (83) et le deuxième polariseur (85) sont des polariseurs linéaires. Système selon l'une quelconque des revendications 10 à 13, dans lequel : le premier polariseur (83) réalise une polarisation dans une première direction (H) ; et le deuxième polariseur (85) comprend une première partie (107) réalisant une polarisation dans la première direction (H) et une deuxième partie (109) réalisant une polarisation dans une deuxième direction (V) , perpendiculaire à la première direction. Système selon la revendication 14, dans lequel les pixels du capteur sont surmontés par les premières parties ou les deuxièmes parties avec une alternance, de sorte que deux pixels surmontés par une première partie (107) soient séparés par un à dix-neuf pixels, de préférence neufs pixels, surmontés par une deuxième partie. Système selon la revendication 14 ou 15, dans lequel la première partie (107) du deuxième polariseur (85) a une superficie égale au moins à la superficie de quatre pixels (105) . Système selon la revendication 16, dans lequel le pas de répétition des premières parties est égal à la dimension de trois à vingt pixels, de préférence de dix pixels. Système selon l'une quelconque des revendications 10 à 17, dans lequel le capteur (31) capte des premiers rayons, issus du premier rayonnement (19) , polarisés selon la première direction par le premier polariseur (83) puis
selon la deuxième direction (HV) par le deuxième polariseur (85) et des deuxièmes rayons, issus du premier rayonnement, polarisés selon la première direction par le premier polariseur (83) puis selon la première direction (HH) par le deuxième polariseur (85) . Système selon l'une quelconque des revendications 1 à
18, dans lequel le capteur (31) est séparé de la première source lumineuse (17) par un ou des murs opaques (117) au premier rayonnement (19) . Système selon l'une quelconque des revendications 1 à
19, dans lequel la première source (17) est recouverte d'un filtre angulaire (121) .
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FRFR2008533 | 2020-08-17 | ||
| FR2008533A FR3113430B1 (fr) | 2020-08-17 | 2020-08-17 | Système d'acquisition d'images |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022038033A1 true WO2022038033A1 (fr) | 2022-02-24 |
Family
ID=74045582
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2021/072466 Ceased WO2022038033A1 (fr) | 2020-08-17 | 2021-08-12 | Systeme d'acquisition d'images |
Country Status (3)
| Country | Link |
|---|---|
| CN (1) | CN217641336U (fr) |
| FR (1) | FR3113430B1 (fr) |
| WO (1) | WO2022038033A1 (fr) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR3139236A1 (fr) * | 2022-08-30 | 2024-03-01 | Isorg | Dispositif imageur |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2008533A1 (fr) | 1968-05-15 | 1970-01-23 | Blakeslee Et Co | |
| US20170337413A1 (en) * | 2016-05-23 | 2017-11-23 | InSyte Systems | Integrated light emitting display and sensors for detecting biologic characteristics |
| US20180150671A1 (en) * | 2016-11-28 | 2018-05-31 | Lg Display Co., Ltd. | Electroluminescent display device integrated with fingerprint sensor |
| FR3063596A1 (fr) * | 2017-03-06 | 2018-09-07 | Isorg | Systeme d'acquisition d'images |
| WO2018167456A1 (fr) * | 2017-03-17 | 2018-09-20 | Cambridge Display Technology Limited | Appareil d'imagerie d'empreinte digitale et de veine |
| WO2020136495A1 (fr) * | 2018-12-28 | 2020-07-02 | 株式会社半導体エネルギー研究所 | Dispositif d'affichage |
-
2020
- 2020-08-17 FR FR2008533A patent/FR3113430B1/fr not_active Expired - Fee Related
-
2021
- 2021-08-12 WO PCT/EP2021/072466 patent/WO2022038033A1/fr not_active Ceased
- 2021-08-17 CN CN202121926155.XU patent/CN217641336U/zh not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2008533A1 (fr) | 1968-05-15 | 1970-01-23 | Blakeslee Et Co | |
| US20170337413A1 (en) * | 2016-05-23 | 2017-11-23 | InSyte Systems | Integrated light emitting display and sensors for detecting biologic characteristics |
| US20180150671A1 (en) * | 2016-11-28 | 2018-05-31 | Lg Display Co., Ltd. | Electroluminescent display device integrated with fingerprint sensor |
| FR3063596A1 (fr) * | 2017-03-06 | 2018-09-07 | Isorg | Systeme d'acquisition d'images |
| WO2018167456A1 (fr) * | 2017-03-17 | 2018-09-20 | Cambridge Display Technology Limited | Appareil d'imagerie d'empreinte digitale et de veine |
| WO2020136495A1 (fr) * | 2018-12-28 | 2020-07-02 | 株式会社半導体エネルギー研究所 | Dispositif d'affichage |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3113430B1 (fr) | 2024-01-05 |
| FR3113430A1 (fr) | 2022-02-18 |
| CN217641336U (zh) | 2022-10-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12261230B2 (en) | Single photon avalanche diode and manufacturing method, detector array, and image sensor | |
| EP3824326B1 (fr) | Systeme optique et son procede de fabrication | |
| FR3064112A1 (fr) | Dispositif imageur optique | |
| EP3949358B1 (fr) | Dispositif a capteur optique | |
| WO2022038033A1 (fr) | Systeme d'acquisition d'images | |
| WO2022128337A1 (fr) | Filtre angulaire optique | |
| EP4196904A1 (fr) | Systeme d'acquisition d'images | |
| WO2021116231A1 (fr) | Filtre optique adapté pour corriger le bruit électronique d'un capteur | |
| EP4196905A1 (fr) | Dispositif d'acquisition d'images | |
| WO2022128336A1 (fr) | Filtre angulaire optique | |
| EP4260105A1 (fr) | Filtre angulaire optique | |
| EP3949359B1 (fr) | Dispositif a capteur optique | |
| EP4264341A1 (fr) | Filtre angulaire optique | |
| WO2022128376A1 (fr) | Dispositif d'acquisition d'images | |
| WO2023222604A1 (fr) | Filtre optique pour photodétecteurs | |
| FR3060811A1 (fr) | Dispositif d'acquisition d'empreintes digitales | |
| FR3144661A3 (fr) | Capteur d'empreintes digital et capacitif | |
| FR3155298A1 (fr) | Camera polarimétrique | |
| CN114664914A (zh) | 一种显示面板 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 21758382 Country of ref document: EP Kind code of ref document: A1 |