DE102021111422A1 - Device and method for contactless recording of fingerprints and handprints - Google Patents
Device and method for contactless recording of fingerprints and handprints Download PDFInfo
- Publication number
- DE102021111422A1 DE102021111422A1 DE102021111422.5A DE102021111422A DE102021111422A1 DE 102021111422 A1 DE102021111422 A1 DE 102021111422A1 DE 102021111422 A DE102021111422 A DE 102021111422A DE 102021111422 A1 DE102021111422 A1 DE 102021111422A1
- Authority
- DE
- Germany
- Prior art keywords
- hand
- camera
- lighting unit
- parts
- der
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1312—Sensors therefor direct reading, e.g. contactless acquisition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1318—Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon, welche äquivalent zu kontaktbasierten Abdrücken sind.Die Aufgabe der Erfindung wird gelöst, durch Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand umfassend:- eine im oberen Bereich der Vorrichtung zur Fingerabdruckaufnahme (4) vorhandene Aussparung (30), die einem Nutzer zur Groborientierung der korrekten Handpositionierung (31) dient,- eine Beleuchtungseinheit (1) zum Beleuchten der Hand oder Teile davon (3) mit strukturiertem Licht,eine Kamera (2) zum Erfassen von Licht der Beleuchtungseinheit (1), das von der Hand oder Teilen davon (3) in einer Objektebene (21) der Kamera (2) diffus reflektiert wird, wobei- eine nichtverschwindende Differenz der Abstände von Kamera und Beleuchtungseinheit zur Objektebene (17) vorhanden ist, um eine Position der Hand oder Teilen davon (3) in Bezug auf den Schärfentiefenbereich (9) der Kamera (2) mittels eines Verfahrens zur Strukturgrößenermittlung in einem von der Kamera (2) aufgenommenen Bild zu bestimmen, und- eine Recheneinheit (29) zur Positionsberechnung mittels Strukturgrößenermittlung und zur Berechnung des Fingerabdruckbildes.The invention relates to a device and method for non-contact optical recording of the papillary structure of a hand or parts thereof, which are equivalent to contact-based impressions. The object of the invention is achieved by a device and method for non-contact optical recording of the papillary structure of a hand comprising: - an im a recess (30) in the upper area of the device for fingerprint recording (4), which serves a user for rough orientation of the correct hand positioning (31), - a lighting unit (1) for illuminating the hand or parts thereof (3) with structured light, a camera (2) for capturing light from the lighting unit (1), which is diffusely reflected by the hand or parts thereof (3) in an object plane (21) of the camera (2), wherein- a non-vanishing difference in the distances between the camera and the lighting unit to the Object plane (17) is present to determine a position of the hand or parts thereof (3) with respect to the Sch to determine the focal depth range (9) of the camera (2) by means of a method for determining the structure size in an image recorded by the camera (2), and a computing unit (29) for calculating the position by determining the structure size and for calculating the fingerprint image.
Description
Die Erfindung betrifft eine Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon, welche äquivalent zu kontaktbasierten Abdrücken sind.The invention relates to a device and method for contact-free optical recording of the papillary structure of a hand or parts thereof, which are equivalent to contact-based impressions.
Behördenkonforme (kontaktbasierte) Mehrfingerscanner zeichnen sich dadurch aus, dass das Bildfeld mindestens 3,2" x 3,0" (B x H) bei einer Abtastung von 500 ppi beträgt. Bezieht man nun bei einer kontaktlosen Aufnahme eines Fingers mit ein, dass die gekrümmte Oberfläche eines Fingers bis zu einem definierten Toleranzwinkel 7, wie in
Bekannte Vorrichtungen zur berührungslosen Aufnahmen von Fingerabdrücken haben unterschiedlichste Ansätze, wie die Hand- oder Fingerposition begrenzt oder erfasst werden kann.
So offenbart die
Die
So reveals the
the
Aus der
In der
Weitere Vorrichtungen zum optischen Abbilden der Papillarstruktur von Fingern, die ähnlich aufwändige Zusatzeinrichtungen zur Positionserkennung aufweisen, sind aus der
In the
Other devices for optical imaging of the papillary structure of fingers, which have similarly complex additional devices for position detection, are from
Ferner ist in der
Der Erfindung liegt die Aufgabe zugrunde, eine neue Möglichkeit zur kontaktlosen Fingerabdruckaufnahme einer Hand oder Teilen davon zu finden, die eine echtzeitfähige Handabstandserkennung zur 3D-Bilddatenaufnahme von Fingerabdrücken gestattet, ohne zusätzliche Abstandssensoren oder Hilfsrahmen zur Abstandszuweisung gegenüber einer hochauflösenden Kamera zu benötigen.The invention is based on the object of finding a new possibility for contactless fingerprint recording of a hand or parts thereof, which allows real-time hand distance detection for 3D image data recording of fingerprints without requiring additional distance sensors or auxiliary frames for distance assignment compared to a high-resolution camera.
Erfindungsgemäß wird die Aufgabe gemäß den Ansprüchen 1 gelöst. Vorteilhafte Ausführungen sind in den untergeordneten Ansprüchen beschrieben.According to the invention, the object of
Die Erfindung geht von der Überlegung aus, dass eine exakte Kenntnis über die aktuelle Handposition vonnöten ist, um die 3D-Aufnahme bzw. Verarbeitung zu starten oder um dem Nutzer des Scanners Korrekturvorschläge zur Handpositionierung mitzuteilen.
Die Erfindung basiert auf der Grundidee, bei kontaktlosen Fingerabdruckaufnahmen für die Handabstandserkennung (Handposition) und zur Erzeugung hochgenauer 3D-Bilddaten von der Hand oder Teilen davon mittels einer besonders angeordneten Kamera-Projektor-Kombination und einer strukturierten Beleuchtung der Hand auf zusätzliche vielteilige Abstandssensoren zu verzichten. Dabei werden die 3D-Bilddaten der vorgelagerten Abstandserkennung aus dem Kamerabild ermittelt, bei Vorliegen einer zulässigen Handposition aus einer hochauflösend aufgenommenen Fingerabdruckaufnahme pixelweise die hochgenauen 3D-Bilddaten rekonstruiert und in einem nachgelagerten Verfahren in ein zweidimensionales Fingerabdruckbild umgewandelt.
Die Handpositionserkennung soll dabei ohne zusätzliche Sensorik, bauräumliche Begrenzungsmaßnahmen oder aufwändige Scanverfahren als Abstandsbestimmung zwischen Hand und Kamera mit geringem Rechenaufwand erfolgen und als Abstandsinformation dafür genutzt werden, entweder dem Benutzer der Vorrichtung Korrekturvorschläge zur Positionskorrektur der Hand anzubieten oder um die Kamera entsprechend zu fokussieren oder um die hochgenaue Rekonstruktion der 3D-Bilddaten zu starten, wenn die korrekte Position zur Aufnahme der Hand vorliegt.
Die Vorrichtung umfasst eine Beleuchtungseinheit zum Beleuchten eines Raumbereichs mit strukturiertem Licht, in welchem auch der Schärfentiefenbereich der Kamera liegt, wobei die Kamera zum Erfassen von Licht, das von einer Hand oder Teilen davon in der Objektebene diffus reflektiert wird, ausgebildet ist. Dazu weist die Beleuchtungseinheit einen unterschiedlichen Abstand zum Schärfentiefenbereich der Kamera auf, da ausschließlich dann die Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera eine Funktion des Abstands der Hand zur Kamera ist, um somit eine schnelle räumliche Positionierung der Hand oder Teilen davon derer in Bezug auf die Vorrichtung zur Fingerabdruckaufnahme durch die Strukturgrößenbestimmung generieren zu können.The invention is based on the consideration that exact knowledge of the current hand position is required in order to start the 3D recording or processing or in order to communicate correction suggestions for hand positioning to the user of the scanner.
The invention is based on the basic idea of dispensing with additional multi-part distance sensors for contactless fingerprint recordings for hand distance detection (hand position) and for generating highly precise 3D image data from the hand or parts thereof by means of a specially arranged camera-projector combination and structured illumination of the hand . The 3D image data of the upstream distance detection is determined from the camera image, if there is a permissible hand position from a high-resolution The high-precision 3D image data is reconstructed pixel by pixel from the fingerprint image taken and converted into a two-dimensional fingerprint image in a downstream process.
The hand position detection should take place without additional sensors, spatial limitations or complex scanning methods as a distance determination between hand and camera with little computing effort and used as distance information either to offer the user of the device correction suggestions for the position correction of the hand or to focus the camera accordingly or to start the high-precision reconstruction of the 3D image data when the correct position for recording the hand is available.
The device includes an illumination unit for illuminating a spatial area with structured light, in which the depth of field of the camera also lies, the camera being designed to capture light that is diffusely reflected from a hand or parts thereof in the object plane. For this purpose, the lighting unit has a different distance to the depth of field of the camera, since only then is the structural size of the structured illumination on the camera sensor a function of the distance between the hand and the camera, in order to enable quick spatial positioning of the hand or parts of it in relation to to be able to generate on the device for taking fingerprints by determining the structure size.
Durch die Erfindung wird eine neue Möglichkeit zur kontaktlosen Fingerabdruckaufnahme einer Hand oder Teilen davon realisiert, die eine echtzeitfähige Handabstandserkennung zur 3D-Bilddatenaufnahme von Fingerabdrücken gestattet, ohne zusätzliche Abstandssensoren oder Hilfsrahmen zur Abstandszuweisung gegenüber einer hochauflösenden Kamera zu benötigen.The invention provides a new possibility for contactless fingerprint recording of a hand or parts thereof, which allows real-time hand distance detection for 3D image data recording of fingerprints without requiring additional distance sensors or auxiliary frames for distance assignment compared to a high-resolution camera.
Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen und Abbildungen näher erläutert. Dabei zeigen:
-
1 : ein Prinzipschema der Erfindung zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon; -
2 : schematisch die Definition eines Toleranzwinkels, der bei der herkömmlichen Fingerabdruckaufnahme auf einer Kontaktfläche entsteht; -
3 : die Bildschärfe im Sinne einer Modulationstransferfunktion (MTF) über der Emissionswellenlänge der Beleuchtungseinheit; -
4 : den Zusammenhang zwischen einer Strukturgröße auf dem Lichtmodulator der Beleuchtungseinheit, die in der Strukturgröße in der Objektebene und entsprechend auf dem Kamerasensor abgebildet wird; -
5 : die Darstellung des Zusammenhanges zwischen Objektabstand und gemessener Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera für ein periodisches Muster des strukturierten Lichts; -
6 : die Darstellung des Zusammenhanges zwischen Objektabstand und gemessener Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera für ein nichtperiodisches Muster des strukturierten Lichts; -
7 : eine bevorzugte Ausführung der Erfindung mit einem Projektor und einer Kamera, deren optische Achsen parallel zueinander ausgerichtet sind und unterschiedliche Abstände zur Objektebene aufweisen; -
8 : eine weitere bevorzugte Ausführung vergleichbar mit7 , bei der Kamera und Beleuchtungseinheit in einer Scheimpflug-Geometrie angeordnet sind; -
9 : eine bevorzugte Ausführung in Modifikation von8 , bei der die Strahlengänge der Kamera und der Beleuchtungseinheit über Umlenkspiegel gefaltet sind; -
10 : eine weitere bevorzugte Ausführung der Erfindung mit einem Projektor als Beleuchtungseinheit und zwei Kameras, wobei der Projektor einen wesentlichen Unterschied im Abstand zur Hand oder Teilen davon im Vergleich zu den beiden Kameras aufweist; -
11 : eine weitere gegenüber10 modifizierte Ausführung der Erfindung mit zwei Projektoren und drei Kameras, wobei die Projektoren einen wesentlichen Unterschied im Abstand zu Hand oder Teilen davon im Vergleich zu den drei Kameras aufweisen; -
12 : ein Blockdiagramm einer beispielhaften Konfiguration erfindungsgemäßen Verfahrens; -
13 : einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung der Hand oder Teilen davon; -
14 : einen weiteren beispielhaften Ablaufplan für das Verfahren zur Positionserkennung im Sinne des Abstandes und der Rotation der Hand oder Teilen davon, -
15 : eine schematische Abbildung einer möglichen Ausgestaltungsform der Vorrichtung; -
16 : eine schematische Darstellung korrekter und nicht-korrekter Handpositionierung beispielhaft; -
17 : eine schematische Abbildung einer möglichen Ausgestaltungsform der Vorrichtung inklusive eines als Display ausgestalteten Feedbackmoduls.
-
1 : a schematic diagram of the invention for non-contact optical recording of the papillary structure of a hand or parts thereof; -
2 : Schematic of the definition of a tolerance angle that arises in conventional fingerprint recording on a contact surface; -
3 : the image sharpness in terms of a modulation transfer function (MTF) versus the emission wavelength of the illumination unit; -
4 : the relationship between a structure size on the light modulator of the lighting unit, which is imaged in the structure size in the object plane and correspondingly on the camera sensor; -
5 : the representation of the relationship between the object distance and the measured structure size of the structured illumination on the camera sensor for a periodic pattern of the structured light; -
6 : the representation of the relationship between the object distance and the measured structure size of the structured illumination on the camera sensor for a non-periodic pattern of the structured light; -
7 : a preferred embodiment of the invention with a projector and a camera, the optical axes of which are aligned parallel to one another and have different distances from the object plane; -
8th : Another preferred embodiment comparable to7 , in which the camera and lighting unit are arranged in a Scheimpflug geometry; -
9 : a preferred embodiment in modification of8th , in which the beam paths of the camera and the lighting unit are folded via deflection mirrors; -
10 : another preferred embodiment of the invention with a projector as the lighting unit and two cameras, the projector having a significant difference in distance to the hand or parts thereof compared to the two cameras; -
11 : another opposite10 modified embodiment of the invention with two projectors and three cameras, the projectors having a significant difference in distance to the hand or parts thereof compared to the three cameras; -
12 1 is a block diagram of an exemplary configuration of the method according to the invention; -
13 : an exemplary flow chart for the method for position detection of the hand or parts thereof; -
14 : another exemplary flowchart for the method for position detection in terms of the distance and the rotation of the hand or parts thereof, -
15 1: a schematic illustration of a possible embodiment of the device; -
16 : a schematic representation of correct and incorrect hand positioning as an example; -
17 1: a schematic depiction of a possible embodiment of the device including a feedback module designed as a display.
Die Erfindung beinhaltet gemäß der schematischen Darstellung von
Gemäß der Erfindung wird der Tiefenmessbereich 24 beschrieben als der Bereich, in dem sich das Sichtfeld der Beleuchtungseinheit 13 der Beleuchtungseinheit 1 und Sichtfeld der Kamera 14 im 3D-Raum überlagern, wie in
According to the invention, the
Die in der Vorrichtung 4 enthaltene Beleuchtungseinheit 1 wird beschrieben durch eine optische Achse 11, einen räumlichen 2D-Intensitätsmodulator, ein Sichtfeld der Beleuchtungseinheit 13 und eine Lichtquelle. Umfasst die Beleuchtungseinheit 1 zusätzlich noch ein Objektiv zur Abbildung des räumlichen 2D-Intensitätsmodulators, wird sie nachfolgend als Projektor 25 bezeichnet. Eine Beleuchtungseinheit 1 im Sinne der Erfindung dient der Emission von strukturiertem Licht, insbesondere der Emission einer Wellenlänge (inkl. spektraler Verbreiterung). Es kann auch vorgesehen sein, dass die Beleuchtungseinheit 1 zwei oder drei Wellenlängen zu emittieren vermag. Eine zweckmäßige Form der Beleuchtungseinheit 1 kann zum Beispiel eine oder mehrere LEDs oder einen oder mehrere Laser (nicht gezeichnet) beinhalten.The
Eine weitere Ausführungsart der Beleuchtungseinheit 1 emittiert ein breites Lichtspektrum, wie beispielsweise Weißlicht-LEDs, Lichtquellen basierend auf thermischer Strahlung (Glühlampe) oder Gasentladungslampen.Another embodiment of the
In einer Ausgestaltung der Erfindung liegt das Emissionsspektrum der Beleuchtungseinheit 1 im Bereich 350 nm bis 1000 nm. In einer weiteren Ausgestaltung der Erfindung, s.
In einer bevorzugten Ausführungsvariante der Erfindung ist der Arbeitsabstand 26 der Kamera 2 nicht weniger als 50 mm und nicht mehr als 1500 mm. Die untere Grenze ergibt sich durch einen ausreichenden Abstand zwischen der Hand 3 (oder Teilen davon) und Kamera 2, um Berührungen zu vermeiden. Die obere Grenze ergibt sich aus bautechnischen Gründen.In a preferred embodiment of the invention, the working
In einer weiteren bevorzugten Ausführungsvariante der Erfindung ist der Arbeitsabstand 26 der Kamera 2 nicht weniger als 200 mm und nicht mehr als 400 mm.In a further preferred embodiment variant of the invention, the working
In einer bevorzugten Ausführungsvariante der Erfindung ist der Abstand 28 der Beleuchtungseinheit 1 zur mittleren Schärfentiefenebene 27 der Kamera 2 (oder eventuell weiterer Kameras 2) nicht weniger als 50 mm und nicht mehr als 1400 mm. In einer weiteren bevorzugten Ausführungsvariante ist der Abstand 28 der Beleuchtungseinheit 1 zur mittleren Schärfentiefenebene 27 der (wenigstens einen) Kamera 2 nicht weniger als 130 mm und nicht mehr als 400 mm.In a preferred embodiment of the invention, the
Die Kamera 2 der Vorrichtung 4, beschrieben durch eine optische Achse 12 der Kamera 2, einen Sensor und ein auf den Sensor abbildendes Objektiv, weist ein Sichtfeld 14 und einen Schärfentiefenbereich 9 auf, welcher durch eine untere Grenze 10 des Schärfentiefenbereichs 9 und eine obere Grenze 8 des Schärfentiefenbereichs 9 limitiert wird. Ausschließlich im Schärfentiefenbereich 9 können die Papillarstrukturen der Hand 3 (oder Teilen davon) hochqualitativ und auf dem Sensor der Kamera 2 abgebildet werden gemäß den behördlichen Vorgaben (FBI-Richtlinie, Appendix F: U.S. Department of Justice, Federal Bureau of Investigation, „Electronic Biometrie Transmission Specification (EBTS) with Technical and Operational Updates“, Version 10.0.9, 22. Mai 2018).
In vorteilhafter Ausgestaltung im Sinne der Erfindung umfasst eine Kamera 2 einen Bildsensor und ein Objektiv. Der Bildsensor im Sinne der Erfindung ist eine Einrichtung, die ein optisches Signal in ein elektrisches, welches die Bildinformation enthält, umwandelt. Dem Bildsensor (bzw. dem Ausgang der Kamera 2) nachgelagert kann erfindungsgemäß eine Recheneinheit 29 sein, die zur Bildinformationsverarbeitung dient. Im Speziellen dient die Recheneinheit 29 auch der Berechnung der räumlichen Information aus dem Bild des Bildsensors, im Speziellen der 3D-Erfassung einer Hand 3 oder eines Fingers mit der Papillarstruktur.
In einer vorteilhaften Ausgestaltung (gemäß
In einer weiteren bevorzugten Ausgestaltung, wie in
In an advantageous embodiment within the meaning of the invention, a
In an advantageous embodiment (according to
In a further preferred embodiment, as in
Ein 2D-Intensitätsmodulator im Sinne der Erfindung kann einen digitalen Lichtmodulator umfassen, bestehend zum Beispiel aus einem oder mehreren DLP-Chips (engl. Digital Light Processing), einem oder mehreren LCDs (engl. Liquid Crystal Device) oder einem oder mehreren LCoS (engl. Liquid Crystal on Silicon). Außerdem können erfindungsgemäß auch analoge Lichtmodulatoren wie Masken, Dias, oder Streu- und Phasenmodulationsscheiben (zur Erzeugung von Specklemustern) Verwendung finden. In weiteren bevorzugten Ausführungen der Erfindung kommen eine Beleuchtungseinheit 1 bzw. ein Projektor 25 und zwei Kameras 2 zum Einsatz, wobei die Beleuchtungseinheit 1 bzw. der Projektor 25 einen unterschiedlichen Abstand zum Schärfentiefenbereich 9 verglichen mit dem Arbeitsabstand 26 der Kamera(s) 2 aufweist (s.
In einer bevorzugten Ausführung der Erfindung besitzt die Vorrichtung 4 ein Feedbackmodul 35, welches dem Nutzer über akustische, haptische oder visuelle Signale oder Kombinationen davon, Information über die korrekte Aufnahme, Korrekturvorschläge für die Handposition oder weitere Informationen zugänglich macht.
In einer weiteren bevorzugten Ausführung der Erfindung ist das Feedbackmodul 35 als Anzeigeeinheit 36 in Form eines Displays ausgeführt oder kann auch als eine LED-Zeile im oberen Bereich der Vorrichtung 4 integriert sein.A 2D intensity modulator within the meaning of the invention can comprise a digital light modulator consisting, for example, of one or more DLP chips (Digital Light Processing), one or more LCDs (Liquid Crystal Device) or one or more LCoS ( .Liquid Crystal on Silicon). In addition, according to the invention, analog light modulators such as masks, slides, or scatter and phase modulation discs (for generating speckle patterns) can also be used. In further preferred embodiments of the invention, a
In a preferred embodiment of the invention, the
In a further preferred embodiment of the invention, the
Das erfindungsgemäße Verfahren zur echtzeitfähigen Bestimmung des Abstandes der Hand 3 (oder Teilen davon) zur Kamera 2 beruht auf den unterschiedlichen Abständen der Kamera(s) 2 und der Beleuchtungseinheit(en) 1 zur Hand 3 in der Objektebene 21 (siehe
Grundidee dabei ist die Vermessung der Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2. Entsprechend der Nomenklatur in
Man kann mathematisch zeigen, dass die gemessene Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2 (Sc) eine nichtkonstante Funktion des Abstands 16 (Ac) der Kamera 2 zur Objektebene 21 ist, wann immer eine Differenz 17 (δ ≠ 0) der Abstände von Kamera 2 und Beleuchtungseinheit 1 zur Objektebene 21 vorhanden ist.
The basic idea here is the measurement of the
One can show mathematically that the measured
Dies bedeutet wiederum, dass für δ ≠ 0 der Abstand 16 der Kamera 2 zur Objektebene 21 (Ac) bestimmt werden kann, wenn man die von der Beleuchtungseinheit 1 projizierte Strukturgröße 18 der strukturierten Beleuchtung vom Projektor 25 auf dem Sensor der Kamera 2 (Sc) vermessen kann, was das Grundproblem der Abstandsmessung löst.
Im Falle der Projektion periodischer oder quasi-periodischer Muster, z.B. ein- oder zweidimensionale Sinusmuster oder Punktmuster, lässt sich die abgebildete Strukturgröße Sc beispielsweise einfach und effizient aus der diskreten Fouriertransformation (DFT) oder deren schnelle Implementierungen (FFT) über eine lokale Maximumsuche im Frequenzraum bestimmen. Über eine Wavelet-Transformation ist dies auch möglich.
Dazu sind in
In
Wendet man das hier beschriebene Verfahren auf mehrere Teilbilder an, kann eine in der Auflösung reduzierte Tiefenkarte der aufgenommenen und beleuchteten Szene erzeugt werden, wodurch es möglich ist, die Rotation der Hand 3 zu bestimmen.
Für die Bestimmung der korrekten Handpositionierung 31 werden ein Abstand der Hand 3 (oder Teilen davon) sowie die Rotation (Verdrehung), bezogen auf den Schärfentiefenbereich 9, bestimmt. Für eine korrekte Handpositionierung 31, s.
are in
In
If the method described here is applied to a plurality of partial images, a depth map of the recorded and illuminated scene with reduced resolution can be generated, which makes it possible to determine the rotation of the
For the determination of the
In einer bevorzugten Ausführungsvariante der Erfindung wird die Datenaufnahme von einer Recheneinheit 29 angefordert, was ein Trigger-Signal auf einem Datenbus auslöst. Dieses führt in der Vorrichtung 4 dazu, dass mindestens eine Beleuchtungseinheit 1 ein Streifenmuster projiziert und synchron von mindestens einer Kamera 2 ein Bild der Hand 3 oder Teile davon mit projiziertem Streifenmuster aufgenommen wird. Dieses wird über einen weiteren Datenbus an die Datenverarbeitungseinheit der Recheneinheit 29 weitergeleitet, in der die Abstandsbestimmung durch eine Maximumsuche im Frequenzraum des gesamten Bildes und die Rotationsbestimmung durch eine Analyse der Maxima im Frequenzraum von Rasterelementen des Bildes durchgeführt werden. Auf Basis der Analyseergebnisse erfolgt eine Korrekturbestimmung, welche über einen weiteren Datenbus dem Nutzer als Feedback auf einer Anzeigeeinheit 36 zur Verfügung gestellt wird. Anschließend startet eine weitere Aufnahme, bei akzeptabler Positionierung der Hand 3 im Tiefenmessbereich 24, welches dem Nutzer über die Anzeigeeinheit 36 mitgeteilt wird, kann entweder mit einer neuen Datenaufnahme über die Kamera 2 oder mit der Datenverarbeitung zu einem 3D-Bild oder zu einem Fingerabdruckbild fortgefahren werden.
-
1 zeigt eine Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einerHand 3 oder Teilen davon,wobei die Vorrichtung 4eine Beleuchtungseinheit 1 zum Beleuchten einer Hand 3 (oder Teile davon) mit strukturiertem Licht undmindestens eine Kamera 2 zum Erfassen von Licht, das von einerHand 3 oder eines Teils einerHand 3 ineiner Objektebene 21 diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 15, 16der Abstände von Beleuchtungseinheit 1 und Kamera 2zur Objektebene 21 vorhanden ist und dieKamera 2einen Schärfentiefenbereich 9 besitzt, der durch eine obere Grenze 8 desSchärfentiefenbereichs 9 und eine untere Grenze 10 desSchärfentiefenbereichs 9 beschränkt ist. Eine schnelle Messung der Handposition ist innerhalb des Tiefenmessbereiches 24 möglich, der durch den Überlagerungsbereichaus dem Sichtfeld 14der Kamera 2und dem Sichtfeld 13der Beleuchtungseinheit 1 gegeben ist und der Teile desSchärfentiefenbereichs 9der Kamera 2 beinhaltet. -
2 zeigt bildlich dieDefinition eines Toleranzwinkels 7, welcher bei der herkömmlichen Fingerabdruckaufnahme auf einer Kontaktfläche 6 den Bereich der aufgenommenen Haut beschränkt und der auch bei der kontaktlosen Aufnahme entsprechend den (behördlichen) Anforderungen abgebildet werden muss. -
3 zeigt die Bildschärfe im Sinne einer Modulationstransferfunktion (MTF) über der Emissionswellenlänge derBeleuchtungseinheit 1.Oberhalb von 640 nm wird das FBI-Kriterium an die Schärfe an keiner Stelle erreicht. Die Bildschärfe wurde berechnet für ein optisch abbildendes System mit einem Arbeitsabstand von 200 mm bei 2,5.einer Blendenzahl von -
4 zeigt zusätzlich zu den in1 dargestellten Größen den Zusammenhang auf zwischen einer Strukturgröße 19 auf demLichtmodulator der Beleuchtungseinheit 1, die inder Strukturgröße 20 inder Objektebene 21 abgebildet wird.Die Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor derKamera 2 ist dabei eine Funktion des Abstands 16der Kamera 2zur Objektebene 21,wenn die Differenz 17 15, 16der Abstände von Beleuchtungseinheit 1 und Kamera 2zur Objektebene 21 nicht verschwindend ist. -
5 zeigt ein Verfahrensbeispiel für die Darstellung des Zusammenhanges zwischen Abstand 16der Kamera 2zur Objektebene 21 und gemessener Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor derKamera 2 für ein periodisches Muster des strukturierten Lichts der Beleuchtungseinheit 1, was zur Berechnung des Abstandes 16der Kamera 2 zur realen Objektebene 21 dient, in der diePositionierung der Hand 3 oder Teilen davon erfolgt ist. -
6 verdeutlicht für ein nichtperiodisches Muster der Beleuchtungseinheit 1 ein weiteres Verfahrensbeispiel für die Darstellung des Zusammenhanges zwischen Abstand 16der Kamera 2zur Objektebene 21 und gemessener Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor derKamera 2. -
7 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einerHand 3 oder Teilen davon,wobei die Vorrichtung 4einen Projektor 25 zum Beleuchten der Hand mit strukturiertem Licht sowie eine Kamera 2 zum Erfassen von Licht, das von derHand 3 oder eines Teils davon diffus reflektiert wird, umfasst,wobei ein Projektor 25als Beleuchtungseinheit 1 im Wesentlichen eine nichtverschwindende Differenz 17 15, 16der Abstände von Beleuchtungseinheit 1 und Kamera 2zur Objektebene 21 aufweist, um die in5 und 6 beschriebenen Verfahren zur Positionsbestimmung der Hand 3 (oder Teilen davon) anwenden zu können. -
8 zeigt eine bevorzugte Ausführung vergleichbarmit 7 , jedoch mit dem Unterschied, dassKamera 2 und Beleuchtungseinheit 1 in einer Scheimpflug-Geometrie angeordnet sind. Dadurch ergeben sich die Vorteile, dass einerseits im Kamerabild keine durch dieBeleuchtungseinheit 1 nicht ausgeleuchteten Bereiche auftreten können und andererseits der Schärfentiefenbereich 9von Kamera 2 und Beleuchtungseinheit 1 parallel überlappend ausgerichtet sein können. -
9 zeigt eine bevorzugte Ausführung aufbauend auf8 mit dem Unterschied, dass dieStrahlengänge der Kamera 2 und der Beleuchtungseinheit 1über Umlenkspiegel 5 gefaltet sind, um eine kompaktere, raumsparende Bauweise der Vorrichtung 4 zu erreichen. -
10 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einerHand 3 oder Teilen davon,wobei die Vorrichtung 4einen Projektor 25 zum Beleuchten derHand 3 mit strukturiertem Licht und zwei Kameras 2 zum Erfassen von Licht, das von einerHand 3 oder eines Teils davon diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 15, 16der Abstände von Beleuchtungseinheit 1 und Kamera(s) 2zur Objektebene 21 vorhanden ist. Durch diese Konfiguration einer zusätzlichen Kamera 2 ist es möglich, das räumliche Sichtfeld im Sinne eines höheren Toleranzwinkels 7 zu erweitern. -
11 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einerHand 3 oder Teilen davon,wobei die Vorrichtung 4zwei Projektoren 25 zum Beleuchten derHand 3 mit strukturiertem Licht sowie drei Kameras 2 zum Erfassen von Licht, das von einerHand 3 oder eines Teils davon diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 15, 16 von Beleuchtungseinheit(en) 1 und Kamera(s) 2der Abstände zur Objektebene 21 vorhanden ist. -
12 zeigt ein Blockdiagramm einer beispielhaften Konfiguration, wobei die Datenaufnahme von der Recheneinheit 29 angefordert wird, was ein Trigger-Signal auf einem Datenbus auslöst, welcher inder Vorrichtung 4 dazu führt, dassein Projektor 25 als spezielle Ausführung der Beleuchtungseinheit 1 ein Streifenmuster projiziert und synchron von einerKamera 2 ein Bild von der zu messendenHand 3 mit dem projizierten Streifenmuster aufgenommen wird. Das Bild wird über einen weiteren Datenbus an die Datenverarbeitung der Recheneinheit 29 weitergeleitet wird, in der die Höhenbestimmung und Rotationsbestimmung der Handpositionierung durchgeführt werden, auf Basis von deren Ergebnissen eine Korrekturbestimmung erfolgt, welche über einen weiteren Datenbus dem Nutzer ein Feedback auf einer Anzeigeeinheit 36 zur Verfügung stellt. -
13 zeigt einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung, bei dem nach dem Starten des Verfahrens dieAnsteuerung der Kamera 2 zu dem Erhalt von Bilddaten führt, wonach der Schritt Bilddaten versenden anRecheneinheit 29 eine Datenverarbeitung zur Erkennung der Handposition erfolgt, wobei bei unkorrekte Handpositionierung imSinne fehlerhafter Abstände 32 eine Korrektur der Position angefordert wird und dies über dieAnzeigeeinheit 36 dem Nutzer signalisiert wird. Danach startet eine weitere Aufnahme; bei akzeptabler Handposition ist das Verfahren zur exakten Positionsbestimmung beendet und eine akzeptable Positionierung derHand 3im Schärfentiefenbereich 9 gewährleistet die fehlerfreie und hochauflösende Bildaufnahme der Papillarstruktur einerHand 3 oder einzelnen Fingern davon. -
14 zeigt einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung, bei dem nach dem Starten des Verfahrens dieAnsteuerung der Kamera 2 zu dem Erhalt von Bilddaten führt, wonach der Schritt Bilddaten versenden anRecheneinheit 29 eine Datenverarbeitung zur Erkennung der Handposition erfolgt, wobei bei unkorrekte Handpositionierung imSinne fehlerhafter Abstände 32 eine Korrektur der Position angefordert wird und dies über dieAnzeigeeinheit 36 dem Nutzer signalisiert wird. Anschließend startet eine weitere Aufnahme, bei akzeptabler Handposition wird die Rotation der Hand analysiert, wobei bei unkorrekte Handpositionierung imSinne fehlerhafter Rotation 33 eine Korrektur der Rotation angefordert wird und dies über dieAnzeigeeinheit 36 dem Nutzer signalisiert wird. Danach startet eine weitere Aufnahme; bei akzeptabler Handrotation ist das Verfahren zur exakten Positionsbestimmung beendet und eine akzeptable Positionierung der Hand inder Schärfentiefenbereich 9 gewährleistet die fehlerfreie und hochauflösende Bildaufnahme der Papillarstruktur einerHand 3 oder Teilen davon. -
15 zeigt beispielhaft die Ausgestaltung der Vorrichtung zur Fingerabdruckaufnahme 4 mit einer an der Oberseite angebrachten Aussparung 30 für die korrekte Handpositionierung 31, die dem Nutzer zugewandt ist. -
16 zeigt die korrekte Handpositionierung 31, bei der die Hand oder Teile derer korrekt zwischen oberer Grenze 8 desSchärfentiefenbereichs 9 und untere Grenze 10 desSchärfentiefenbereichs 9 liegen. Außerdem wird eine unkorrekte Handpositionierung imSinne fehlerhafter Abstände 32 der Hand oder Teile derer dargestellt. Außerdem wird eine unkorrekte Handpositionierung imSinne fehlerhafter Rotation 33der Hand 3 dargestellt. -
17 zeigt beispielhaft die Ausgestaltung der der Vorrichtung zur Fingerabdruckaufnahme 4 mit einer an der Oberseite angebrachten Aussparung 30 für die korrekte Handpositionierung 31, die dem Nutzer zugewandt ist inklusive eines Feedbackmoduls 35, welches als Anzeigeeinheit 36 (Display) ausgestaltet ist.
-
1 shows adevice 4 for non-contact optical recording of the papillary structure of ahand 3 or parts thereof, thedevice 4 having alighting unit 1 for illuminating a hand 3 (or parts thereof) with structured light and at least onecamera 2 for detecting light emitted by aHand 3 or a part of ahand 3 is diffusely reflected in anobject plane 21, with essentially anon-vanishing difference 17 of the 15, 16 of thedistances illumination unit 1 andcamera 2 to theobject plane 21 being present and thecamera 2 having a depth offield 9, which is limited by anupper limit 8 of the depth offield 9 and alower limit 10 of the depth offield 9 . A quick measurement of the hand position is possible within thedepth measurement range 24 , which is given by the overlapping range from the field ofview 14 of thecamera 2 and the field ofview 13 of thelighting unit 1 and which includes parts of the depth offield 9 of thecamera 2 . -
2 shows the definition of atolerance angle 7, which in conventional fingerprint recording on acontact surface 6 limits the area of the recorded skin and which must also be mapped in contactless recording in accordance with the (official) requirements. -
3 shows the image sharpness in terms of a modulation transfer function (MTF) over the emission wavelength of theillumination unit 1. Above 640 nm, the FBI criterion for sharpness is not achieved at any point. The sharpness of the image was calculated for an optical imaging system with a working distance of 200 mm and an f-number of 2.5. -
4 shows in addition to the in1 sizes shown on the relationship between astructure size 19 on the light modulator of thelighting unit 1, which is imaged in thestructure size 20 in theobject plane 21. Thestructure size 18 of the structured illumination on the sensor of thecamera 2 is a function of thedistance 16 of thecamera 2 to theobject plane 21 if thedifference 17 of the 15, 16 of thedistances illumination unit 1 andcamera 2 to theobject plane 21 is not negligible. -
5 shows a method example for the representation of the relationship between thedistance 16 of thecamera 2 to theobject plane 21 and the measuredstructure size 18 of the structured illumination on the sensor of thecamera 2 for a periodic pattern of the structured light of theillumination unit 1, which is used to calculate thedistance 16 of thecamera 2 serves for thereal object plane 21, in which the positioning of thehand 3 or parts thereof has taken place. -
6 1 illustrates another pattern for a non-periodic pattern of thelighting unit 1 Process example for the representation of the relationship between thedistance 16 of thecamera 2 to theobject plane 21 and the measuredstructure size 18 of the structured illumination on the sensor of thecamera 2. -
7 shows a preferred embodiment of thedevice 4 for non-contact optical recording of the papillary structure of ahand 3 or parts thereof, thedevice 4 having aprojector 25 for illuminating the hand with structured light and acamera 2 for detecting light from thehand 3 or a part of which is diffusely reflected, with aprojector 25 as thelighting unit 1 essentially having anon-vanishing difference 17 in the 15, 16 from thedistances lighting unit 1 and thecamera 2 to theobject plane 21, in order to5 and6 to be able to apply the method described for determining the position of the hand 3 (or parts thereof). -
8th shows a preferred embodiment comparable to7 , but with the difference thatcamera 2 andlighting unit 1 are arranged in a Scheimpflug geometry. This results in the advantages that on the one hand no areas not illuminated by theillumination unit 1 can appear in the camera image and on the other hand the depth offield 9 of thecamera 2 and theillumination unit 1 can be aligned parallel to overlap. -
9 shows a preferred embodiment based on8th with the difference that the beam paths of thecamera 2 and thelighting unit 1 are folded via deflection mirrors 5 in order to achieve a more compact, space-saving design of thedevice 4. -
10 shows a preferred embodiment of thedevice 4 for non-contact optical recording of the papillary structure of ahand 3 or parts thereof, thedevice 4 having aprojector 25 for illuminating thehand 3 with structured light and twocameras 2 for detecting light from ahand 3 or part of it is diffusely reflected, with essentially anon-vanishing difference 17 of the 15, 16 from thedistances lighting unit 1 and the camera(s) 2 to theobject plane 21 being present. This configuration of anadditional camera 2 makes it possible to expand the spatial field of view in terms of ahigher tolerance angle 7 . -
11 shows a preferred embodiment of thedevice 4 for non-contact optical recording of the papillary structure of ahand 3 or parts thereof, thedevice 4 having twoprojectors 25 for illuminating thehand 3 with structured light and threecameras 2 for detecting light from ahand 3 or part of it is diffusely reflected, wherein essentially anon-vanishing difference 17 of the 15, 16 from the lighting unit(s) 1 and camera(s) 2 to thedistances object plane 21 is present. -
12 shows a block diagram of an exemplary configuration, the data acquisition being requested by thearithmetic unit 29, which triggers a trigger signal on a data bus, which in thedevice 4 causes aprojector 25 as a special version of thelighting unit 1 to project a stripe pattern and synchronously an image of thehand 3 to be measured with the projected stripe pattern is recorded by acamera 2 . The image is forwarded via a further data bus to the data processing unit of thearithmetic unit 29, in which the determination of the height and rotation of the hand positioning are carried out, on the basis of the results of which a correction is determined, which provides the user with feedback on adisplay unit 36 via a further data bus provides. -
13 shows an exemplary flow chart for the method for position detection, in which, after starting the method, the activation ofcamera 2 leads to the receipt of image data, after which the step of sending image data to processingunit 29 involves data processing to identify the hand position, with incorrect hand positioning in the In the sense ofincorrect distances 32, a correction of the position is requested and this is signaled to the user via thedisplay unit 36. Then another recording starts; if the hand position is acceptable, the method for determining the exact position is ended and an acceptable positioning of thehand 3 in the depth offield 9 ensures error-free and high-resolution imaging of the papillary structure of ahand 3 or individual fingers thereof. -
14 shows an exemplary flow chart for the method for position detection, in which, after starting the method, the activation ofcamera 2 leads to the receipt of image data, after which the step of sending image data to processingunit 29 involves data processing to identify the hand position, with incorrect hand positioning in the In the sense ofincorrect distances 32, a correction of the position is requested and this is signaled to the user via thedisplay unit 36. Then another recording starts, if the hand position is acceptable, the rotation of the hand is analyzed, and if the hand is incorrect positioning in terms of incorrect rotation 33 a correction of the rotation is requested and this is signaled to the user via thedisplay unit 36 . Then another recording starts; If the hand rotation is acceptable, the method for determining the exact position is ended and an acceptable positioning of the hand in the depth offield 9 ensures error-free and high-resolution imaging of the papillary structure of ahand 3 or parts thereof. -
15 shows an example of the configuration of the device for takingfingerprints 4 with arecess 30 attached to the upper side for the correct positioning of thehand 31, which faces the user. -
16 shows thecorrect hand positioning 31, in which the hand or parts of it lie correctly between theupper limit 8 of the depth offield 9 and thelower limit 10 of the depth offield 9. In addition, incorrect hand positioning in the sense ofincorrect distances 32 of the hand or parts thereof is shown. In addition, an incorrect hand positioning in the sense ofincorrect rotation 33 of thehand 3 is shown. -
17 shows an example of the configuration of the device forfingerprint recording 4 with arecess 30 attached to the top forcorrect hand positioning 31, which faces the user, including afeedback module 35, which is configured as a display unit 36 (display).
BezugszeichenlisteReference List
- 11
- Beleuchtungseinheitlighting unit
- 22
- Kameracamera
- 33
- Hand (oder Teile davon)hand (or parts thereof)
- 44
- Vorrichtung zur FingerabdruckaufnahmeDevice for fingerprint recording
- 55
- Umlenkspiegeldeflection mirror
- 66
- Kontaktflächecontact surface
- 77
- Toleranzwinkeltolerance angle
- 88th
- obere Grenze des Schärfentiefenbereichsupper limit of the depth of field
- 99
- Schärfentiefenbereichdepth of field
- 1010
- untere Grenze des Schärfentiefenbereichslower limit of the depth of field
- 1111
- optische Achse der Beleuchtungseinheitoptical axis of the lighting unit
- 1212
- optische Achse der Kameraoptical axis of the camera
- 1313
- Sichtfeld der BeleuchtungseinheitField of view of the lighting unit
- 1414
- Sichtfeld der Kamerafield of view of the camera
- 1515
- Abstand der Beleuchtungseinheit zur ObjektebeneDistance of the lighting unit to the object plane
- 1616
- Abstand der Kamera zur ObjektebeneDistance of the camera to the object plane
- 1717
- Differenz der Abstände von Kamera und Beleuchtungseinheit zur ObjektebeneDifference in the distances from the camera and lighting unit to the object plane
- 1818
- Strukturgröße der strukturierten Beleuchtung auf dem Sensor der KameraStructure size of the structured illumination on the camera sensor
- 1919
- Strukturgröße auf Lichtmodulator des ProjektorsStructure size on the projector's light modulator
- 2020
- Strukturgröße der strukturierten Beleuchtung in der ObjektebeneStructure size of the structured illumination in the object plane
- 2121
- Objektebeneobject level
- 2222
- effektive Brennweite des Kameraobjektivseffective focal length of the camera lens
- 2323
- effektive Brennweite der Beleuchtungseinheiteffective focal length of the lighting unit
- 2424
- Tiefenmessbereichdepth measurement range
- 2525
- Projektorprojector
- 2626
- Arbeitsabstand der Kameraworking distance of the camera
- 2727
- mittlere Schärfentiefenebenemedium depth of field
- 2828
- Abstand Beleuchtungseinheit zur mittleren SchärfentiefenebeneDistance of the illumination unit to the mean depth of field
- 2929
- Recheneinheitunit of account
- 3030
- Aussparungrecess
- 3131
- korrekte Handpositionierungcorrect hand positioning
- 3232
- unkorrekte Handpositionierung im Sinne fehlerhafter Abständeincorrect hand positioning in terms of incorrect spacing
- 3333
- unkorrekte Handpositionierung im Sinne fehlerhafter Rotationincorrect hand positioning in terms of incorrect rotation
- 3434
- BildanalyseImage Analysis
- 3535
- Feedbackmodulfeedback module
- 3636
- Anzeigeeinheitdisplay unit
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 10460145 B2 [0003]US10460145B2 [0003]
- US 8600123 B2 [0003]US 8600123 B2 [0003]
- KR 20190097706 A1 [0004]KR 20190097706 A1 [0004]
- DE 102019126419 A1 [0004]DE 102019126419 A1 [0004]
- US 8971588 B2 [0004]US 8971588 B2 [0004]
- US 8953854 B2 [0004]US8953854B2 [0004]
- WO 2018/073335 A1 [0004]WO 2018/073335 A1 [0004]
- CN 104361315 B [0004]CN 104361315B [0004]
- US 9734381 B2 [0004]US9734381B2 [0004]
- US 8224064 B1 [0004]US8224064B1 [0004]
- US 9396382 B2 [0004]US 9396382 B2 [0004]
- US 8391590 B2 [0004]US8391590B2 [0004]
- US 10885297 B2 [0005]US 10885297 B2 [0005]
Claims (16)
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111422.5A DE102021111422A1 (en) | 2021-05-04 | 2021-05-04 | Device and method for contactless recording of fingerprints and handprints |
| JP2023567129A JP7693242B2 (en) | 2021-05-04 | 2022-05-04 | Device and method for contactless recording of fingerprints and handprints |
| US18/557,026 US12511945B2 (en) | 2021-05-04 | 2022-05-04 | Device and method for contactless recording of fingerprints and handprints |
| PCT/EP2022/062031 WO2022233964A1 (en) | 2021-05-04 | 2022-05-04 | Device and method for contactless recording of fingerprints and handprints |
| EP22727171.5A EP4334913A1 (en) | 2021-05-04 | 2022-05-04 | Device and method for contactless recording of fingerprints and handprints |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111422.5A DE102021111422A1 (en) | 2021-05-04 | 2021-05-04 | Device and method for contactless recording of fingerprints and handprints |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102021111422A1 true DE102021111422A1 (en) | 2022-11-10 |
Family
ID=81877853
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021111422.5A Pending DE102021111422A1 (en) | 2021-05-04 | 2021-05-04 | Device and method for contactless recording of fingerprints and handprints |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12511945B2 (en) |
| EP (1) | EP4334913A1 (en) |
| JP (1) | JP7693242B2 (en) |
| DE (1) | DE102021111422A1 (en) |
| WO (1) | WO2022233964A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102022115810A1 (en) * | 2022-06-24 | 2024-01-04 | IDloop GmbH | DEVICE FOR CONTACTLESS RECORDING OF BIOMETRIC DATA FROM SKIN AREAS |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023111938A1 (en) * | 2023-05-08 | 2024-11-14 | IDloop GmbH | METHOD FOR CONTACTLESS CAPTURE OF BIOMETRIC DATA FROM BIOMETRIC FEATURES BY MEANS OF A CAPTURE DEVICE AND DEVICE FOR CONTACTLESS CAPTURE OF BIOMETRIC DATA FROM BIOMETRIC FEATURES |
| EP4468261A1 (en) * | 2023-05-24 | 2024-11-27 | AIT Austrian Institute of Technology GmbH | Method for finger pose correction in 2d fingerprint images |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8224064B1 (en) | 2003-05-21 | 2012-07-17 | University Of Kentucky Research Foundation, Inc. | System and method for 3D imaging using structured light illumination |
| US8391590B2 (en) | 2010-03-04 | 2013-03-05 | Flashscan3D, Llc | System and method for three-dimensional biometric data feature detection and recognition |
| US8600123B2 (en) | 2010-09-24 | 2013-12-03 | General Electric Company | System and method for contactless multi-fingerprint collection |
| US8953854B2 (en) | 2012-08-08 | 2015-02-10 | The Hong Kong Polytechnic University | Contactless 3D biometric feature identification system and method thereof |
| CN104361315A (en) | 2014-10-27 | 2015-02-18 | 浙江工业大学 | 3D (three-dimensional) fingerprint recognition device based on monocular and multi-view stereoscopic machine vision |
| US8971588B2 (en) | 2011-03-30 | 2015-03-03 | General Electric Company | Apparatus and method for contactless high resolution handprint capture |
| US9396382B2 (en) | 2012-08-17 | 2016-07-19 | Flashscan3D, Llc | System and method for a biometric image sensor with spoofing detection |
| US9734381B2 (en) | 2014-12-17 | 2017-08-15 | Northrop Grumman Systems Corporation | System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors |
| WO2018073335A1 (en) | 2016-10-19 | 2018-04-26 | Smart Secure Id In Sweden Ab | System and method for contactless biometric authentication |
| KR20190097706A (en) | 2018-02-13 | 2019-08-21 | 위드로봇 주식회사 | Apparatus and method for contactless fingerprint recognition |
| US10460145B2 (en) | 2017-05-10 | 2019-10-29 | Idemia Identity & Security France | Device for capturing imprints |
| DE102019126419A1 (en) | 2019-05-08 | 2020-11-12 | Docter Optics Se | Device for the optical imaging of features of a hand |
| US10885297B2 (en) | 2016-08-11 | 2021-01-05 | Thales Dis France Sa | Non-contact capture device for capturing biometric data |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01287785A (en) * | 1988-05-16 | 1989-11-20 | Fujitsu Ltd | Irregular shape detecting device |
| US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
| JP4403053B2 (en) * | 2004-11-12 | 2010-01-20 | 三菱電機株式会社 | Fingerprint reader |
| JP4298644B2 (en) | 2004-12-17 | 2009-07-22 | 三菱電機株式会社 | Fingerprint verification device, fingerprint verification method, fingerprint verification program, and fingerprint registration device |
| JP2006189917A (en) * | 2004-12-28 | 2006-07-20 | Olympus Corp | Mobile information terminal |
| JP4308220B2 (en) | 2006-04-24 | 2009-08-05 | 富士通株式会社 | Personal recognition device |
| US20080107309A1 (en) * | 2006-11-03 | 2008-05-08 | Cerni Consulting, Llc | Method and apparatus for biometric identification |
| US8660324B2 (en) * | 2010-03-29 | 2014-02-25 | Raytheon Company | Textured pattern sensing using partial-coherence speckle interferometry |
| WO2012041826A1 (en) * | 2010-09-28 | 2012-04-05 | Icognize Gmbh | Method and device for the non-contact detection of biometric features |
| US8340456B1 (en) * | 2011-10-13 | 2012-12-25 | General Electric Company | System and method for depth from defocus imaging |
| JP5949912B2 (en) | 2012-05-22 | 2016-07-13 | 富士通株式会社 | Biological information processing apparatus, biological information processing method, and program |
| JP2017093904A (en) * | 2015-11-26 | 2017-06-01 | シャープ株式会社 | Imaging device and biometric authentication device |
| JP6801434B2 (en) * | 2016-12-20 | 2020-12-16 | 富士通株式会社 | Bioimage processing device, bioimage processing method and bioimage processing program |
-
2021
- 2021-05-04 DE DE102021111422.5A patent/DE102021111422A1/en active Pending
-
2022
- 2022-05-04 US US18/557,026 patent/US12511945B2/en active Active
- 2022-05-04 EP EP22727171.5A patent/EP4334913A1/en active Pending
- 2022-05-04 WO PCT/EP2022/062031 patent/WO2022233964A1/en not_active Ceased
- 2022-05-04 JP JP2023567129A patent/JP7693242B2/en active Active
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8224064B1 (en) | 2003-05-21 | 2012-07-17 | University Of Kentucky Research Foundation, Inc. | System and method for 3D imaging using structured light illumination |
| US8391590B2 (en) | 2010-03-04 | 2013-03-05 | Flashscan3D, Llc | System and method for three-dimensional biometric data feature detection and recognition |
| US8600123B2 (en) | 2010-09-24 | 2013-12-03 | General Electric Company | System and method for contactless multi-fingerprint collection |
| US8971588B2 (en) | 2011-03-30 | 2015-03-03 | General Electric Company | Apparatus and method for contactless high resolution handprint capture |
| US8953854B2 (en) | 2012-08-08 | 2015-02-10 | The Hong Kong Polytechnic University | Contactless 3D biometric feature identification system and method thereof |
| US9396382B2 (en) | 2012-08-17 | 2016-07-19 | Flashscan3D, Llc | System and method for a biometric image sensor with spoofing detection |
| CN104361315A (en) | 2014-10-27 | 2015-02-18 | 浙江工业大学 | 3D (three-dimensional) fingerprint recognition device based on monocular and multi-view stereoscopic machine vision |
| US9734381B2 (en) | 2014-12-17 | 2017-08-15 | Northrop Grumman Systems Corporation | System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors |
| US10885297B2 (en) | 2016-08-11 | 2021-01-05 | Thales Dis France Sa | Non-contact capture device for capturing biometric data |
| WO2018073335A1 (en) | 2016-10-19 | 2018-04-26 | Smart Secure Id In Sweden Ab | System and method for contactless biometric authentication |
| US10460145B2 (en) | 2017-05-10 | 2019-10-29 | Idemia Identity & Security France | Device for capturing imprints |
| KR20190097706A (en) | 2018-02-13 | 2019-08-21 | 위드로봇 주식회사 | Apparatus and method for contactless fingerprint recognition |
| DE102019126419A1 (en) | 2019-05-08 | 2020-11-12 | Docter Optics Se | Device for the optical imaging of features of a hand |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102022115810A1 (en) * | 2022-06-24 | 2024-01-04 | IDloop GmbH | DEVICE FOR CONTACTLESS RECORDING OF BIOMETRIC DATA FROM SKIN AREAS |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7693242B2 (en) | 2025-06-17 |
| EP4334913A1 (en) | 2024-03-13 |
| US12511945B2 (en) | 2025-12-30 |
| JP2024518920A (en) | 2024-05-08 |
| US20240221431A1 (en) | 2024-07-04 |
| WO2022233964A1 (en) | 2022-11-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3557523B1 (en) | Method for generating a correcting model of a camera for correcting an imaging error | |
| DE69434770T2 (en) | Ophthalmological instrument for determining the topography of the cornea | |
| EP4334913A1 (en) | Device and method for contactless recording of fingerprints and handprints | |
| EP1386141B1 (en) | Method and device for examining an object in a contactless manner, especially for examining the surface form of the same | |
| DE69526931T2 (en) | ELECTRONIC PALM READER WITH A LEVEL CONTACT SURFACE | |
| EP2079981B1 (en) | Device and method for the contactless detection of a three-dimensional contour | |
| EP2188661B1 (en) | Method and illumination device for optical contrast enhancement | |
| EP0419936B1 (en) | Process and apparatus for the phase indication of radiation, especially light radiation | |
| EP2863167B1 (en) | Method and device for measuring the deflection of light beams by an object structure or a medium | |
| DE102010040518A1 (en) | Image recording device, image display method and recording medium, and image recording program recorded thereon | |
| EP1693781B1 (en) | Process and arrangement for optical recording of biometric fingerdata | |
| CH692873A5 (en) | Device and method for the geometric calibration of CCD cameras. | |
| EP2093557A2 (en) | Method and device for determining the contact angle from the drop curvature radius by measuring the optical distance | |
| DE112009000516T5 (en) | Intra-oral imaging system and method based on conoscopic holography | |
| DE102016217628B4 (en) | A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system | |
| DE102014216390A1 (en) | projector | |
| EP2635872A1 (en) | Device and method for the optical 3d measurement of surfaces | |
| DE19757106A1 (en) | Topometer for reflecting surfaces | |
| EP3433669B1 (en) | Method and device for the determination of 3d-coordinates of at least one predetermined point of an object | |
| DE3789901T2 (en) | DISTANCE MEASUREMENT BY DIFFERENTIATION. | |
| DE102010029627B4 (en) | Apparatus and method for determining the structure of a specular surface of an object | |
| DE102020123387A1 (en) | IMAGE DETECTION DEVICE, PULSED LIGHTING DEVICE, AND PULSED LIGHTING METHOD | |
| WO2014114663A1 (en) | Optical device and method for determining spatial coordinates of surfaces of macroscopic objects by triangulating two line-scan cameras | |
| WO2011116761A1 (en) | Method for detecting biometric features | |
| DE2930193A1 (en) | Medical visual examination instrument - has light source with optical fibre and lens system magnifying image for TV camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R082 | Change of representative |
Representative=s name: LEOBLU PATENTANWAELTE ROLINEC WINTER PARTG MBB, DE |
|
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009280000 Ipc: G06V0030144000 |
|
| R012 | Request for examination validly filed | ||
| R081 | Change of applicant/patentee |
Owner name: IDLOOP GMBH, DE Free format text: FORMER OWNER: REINHOLD, BERND, DR. RER. NAT. , 07749 JENA, DE |