[go: up one dir, main page]

DE102021111422A1 - Device and method for contactless recording of fingerprints and handprints - Google Patents

Device and method for contactless recording of fingerprints and handprints Download PDF

Info

Publication number
DE102021111422A1
DE102021111422A1 DE102021111422.5A DE102021111422A DE102021111422A1 DE 102021111422 A1 DE102021111422 A1 DE 102021111422A1 DE 102021111422 A DE102021111422 A DE 102021111422A DE 102021111422 A1 DE102021111422 A1 DE 102021111422A1
Authority
DE
Germany
Prior art keywords
hand
camera
lighting unit
parts
der
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021111422.5A
Other languages
German (de)
Inventor
gleich Anmelder Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IDLOOP GMBH, DE
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102021111422.5A priority Critical patent/DE102021111422A1/en
Priority to JP2023567129A priority patent/JP7693242B2/en
Priority to US18/557,026 priority patent/US12511945B2/en
Priority to PCT/EP2022/062031 priority patent/WO2022233964A1/en
Priority to EP22727171.5A priority patent/EP4334913A1/en
Publication of DE102021111422A1 publication Critical patent/DE102021111422A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon, welche äquivalent zu kontaktbasierten Abdrücken sind.Die Aufgabe der Erfindung wird gelöst, durch Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand umfassend:- eine im oberen Bereich der Vorrichtung zur Fingerabdruckaufnahme (4) vorhandene Aussparung (30), die einem Nutzer zur Groborientierung der korrekten Handpositionierung (31) dient,- eine Beleuchtungseinheit (1) zum Beleuchten der Hand oder Teile davon (3) mit strukturiertem Licht,eine Kamera (2) zum Erfassen von Licht der Beleuchtungseinheit (1), das von der Hand oder Teilen davon (3) in einer Objektebene (21) der Kamera (2) diffus reflektiert wird, wobei- eine nichtverschwindende Differenz der Abstände von Kamera und Beleuchtungseinheit zur Objektebene (17) vorhanden ist, um eine Position der Hand oder Teilen davon (3) in Bezug auf den Schärfentiefenbereich (9) der Kamera (2) mittels eines Verfahrens zur Strukturgrößenermittlung in einem von der Kamera (2) aufgenommenen Bild zu bestimmen, und- eine Recheneinheit (29) zur Positionsberechnung mittels Strukturgrößenermittlung und zur Berechnung des Fingerabdruckbildes.The invention relates to a device and method for non-contact optical recording of the papillary structure of a hand or parts thereof, which are equivalent to contact-based impressions. The object of the invention is achieved by a device and method for non-contact optical recording of the papillary structure of a hand comprising: - an im a recess (30) in the upper area of the device for fingerprint recording (4), which serves a user for rough orientation of the correct hand positioning (31), - a lighting unit (1) for illuminating the hand or parts thereof (3) with structured light, a camera (2) for capturing light from the lighting unit (1), which is diffusely reflected by the hand or parts thereof (3) in an object plane (21) of the camera (2), wherein- a non-vanishing difference in the distances between the camera and the lighting unit to the Object plane (17) is present to determine a position of the hand or parts thereof (3) with respect to the Sch to determine the focal depth range (9) of the camera (2) by means of a method for determining the structure size in an image recorded by the camera (2), and a computing unit (29) for calculating the position by determining the structure size and for calculating the fingerprint image.

Description

Die Erfindung betrifft eine Vorrichtung und Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon, welche äquivalent zu kontaktbasierten Abdrücken sind.The invention relates to a device and method for contact-free optical recording of the papillary structure of a hand or parts thereof, which are equivalent to contact-based impressions.

Behördenkonforme (kontaktbasierte) Mehrfingerscanner zeichnen sich dadurch aus, dass das Bildfeld mindestens 3,2" x 3,0" (B x H) bei einer Abtastung von 500 ppi beträgt. Bezieht man nun bei einer kontaktlosen Aufnahme eines Fingers mit ein, dass die gekrümmte Oberfläche eines Fingers bis zu einem definierten Toleranzwinkel 7, wie in 2 schematisch dargestellt, mit 500 ppi abgetastet werden soll, um den gleichen Bereich zu erfassen wie bei kontaktbasierten Scannern, muss eine deutliche Überabtastung (> 500 ppi bezogen auf eine virtuelle Messebene) stattfinden. Die dabei anfallende Datenmenge kann in der Regel nur mit einem nicht vernachlässigbaren Zeitaufwand in 3D-Koordinaten umgewandelt werden, sodass eine Echtzeit-Kontrolle der Handposition im 3D-Raum mit der herkömmlichen Messtechnik schwierig ist. Für die eigentliche Messaufgabe, einen hochaufgelösten Fingerabdruck aufzunehmen, besitzt die Kamera 2 einen spezifischen eng begrenzten Schärfentiefenbereich, in dem die Papillarstruktur des Fingers, ausschließlich scharf abgebildet werden kann. Befindet sich die Hand oder der Finger außerhalb des Schärfentiefenbereichs der Kamera 2, ist eine detailgetreue Aufnahme nicht möglich.Authorities-compliant (contact-based) multi-finger scanners are characterized by the fact that the image field is at least 3.2" x 3.0" (W x H) with a scan of 500 ppi. If one now includes in a contactless recording of a finger that the curved surface of a finger up to a defined tolerance angle 7, as in 2 shown schematically, is to be scanned with 500 ppi, in order to capture the same area as with contact-based scanners, a clear overscan (> 500 ppi in relation to a virtual measurement plane) must take place. The resulting amount of data can usually only be converted into 3D coordinates with a non-negligible amount of time, so that real-time control of the hand position in 3D space is difficult with conventional measurement technology. For the actual measurement task of recording a high-resolution fingerprint, the camera 2 has a specific, narrowly limited depth of field in which the papillary structure of the finger can only be imaged sharply. If the hand or finger is outside the depth of field of the camera 2, a detailed picture is not possible.

Bekannte Vorrichtungen zur berührungslosen Aufnahmen von Fingerabdrücken haben unterschiedlichste Ansätze, wie die Hand- oder Fingerposition begrenzt oder erfasst werden kann.
So offenbart die US 10 460 145 B2 eine Vorrichtung zur berührungslosen optischen Aufnahme der Merkmale einer Hand zwei Beleuchtungsquellen und eine Kamera. Für die Aufnahme der Fingerabdrücke muss die Hand durch einen vertikal eingeschränkten Freiraum bewegt werden.
Die US 8 600 123 B2 beschreibt zur berührungslosen Fingerabdruckaufnahme eine Vorrichtung mit einem in drei Dimensionen bautechnisch beschränkten Aufnahmevolumen und wenigstens einer Kamera zur berührungslosen Aufnahme der Finger.
Known devices for contactless recording of fingerprints have a wide variety of approaches as to how the hand or finger position can be limited or recorded.
So reveals the U.S. 10,460,145 B2 a device for non-contact optical recording of the characteristics of a hand, two lighting sources and a camera. The hand has to be moved through a vertically restricted free space in order to take the fingerprints.
the U.S. 8,600,123 B2 describes a device for contactless fingerprint recording with a recording volume that is structurally limited in three dimensions and at least one camera for contactless recording of the fingers.

Aus der KR 2019 0097706 A1 ist eine Vorrichtung zur berührungslosen Fingerabdruckaufnahme bekannt, die zusätzlich zur Aufnahmekamera einen Entfernungssensor benötigt.
In der DE 10 2019 126 419 A1 ist die Vorrichtung zur berührungslosen Fingerabdruckaufnahme mit einer mehrfarbigen Beleuchtungseinheit und mindestens zwei Kameras zur 3-dimensionalen Erfassung der Papillarstruktur einer Hand ausgerüstet.
Weitere Vorrichtungen zum optischen Abbilden der Papillarstruktur von Fingern, die ähnlich aufwändige Zusatzeinrichtungen zur Positionserkennung aufweisen, sind aus der US 8 971 588 B2 , US 8 953 854 B2 , WO 2018/073335 A1 , CN 104361315 B , US 9 734 381 B2 , US 8 224 064 B1 , der US 9 396 382 B2 und US 8 391 590 B2 bekannt.
From the KR 2019 0097706 A1 a device for contactless fingerprint recording is known, which requires a distance sensor in addition to the recording camera.
In the DE 10 2019 126 419 A1 the device for contactless fingerprint recording is equipped with a multicolored lighting unit and at least two cameras for 3-dimensional recording of the papillary structure of a hand.
Other devices for optical imaging of the papillary structure of fingers, which have similarly complex additional devices for position detection, are from U.S. 8,971,588 B2 , U.S. 8,953,854 B2 , WO 2018/073335 A1 , CN 104361315B , U.S. 9,734,381 B2 , U.S. 8,224,064 B1 , the U.S. 9,396,382 B2 and U.S. 8,391,590 B2 known.

Ferner ist in der US 10 885 297 B2 eine Vorrichtung zur berührungslosen Aufnahme biometrischer Daten beschrieben, bei der eine Kamera und eine Lichtquelle in einen Bildaufnahmebereich gerichtet sind und eine Gehäuseführung mit einem Schaft, an dem ein über der Elektronikeinheit gehaltener Rahmen befestigt ist, der den Aufnahmebereich lateral umgibt und eine Eingangslücke für die Handeinführung aufweist. Dabei definiert der Schaft zum Rahmen den Abstand der zu vermessenden Hand zur Aufnahmekamera für die Hand- bzw. Fingerabbildung. Nachteilig ist jedoch, dass der Rahmen von dem Nutzer nicht berührt werden soll, er für unterschiedlich große Hände ausreichend Platz lassen muss und somit Spiel für deutliche Abweichungen vom eng begrenzen Bildaufnahmebereich der Kamera aufweist, wodurch der für qualitativ hochauflösende Fingeraufnahmen einzuhaltende Schärfentiefenbereich der Kameraoptik nicht gewährleistet werden kann.Furthermore, in the U.S. 10,885,297 B2 a device for the contactless recording of biometric data is described, in which a camera and a light source are directed into an image recording area and a housing guide with a shaft to which a frame held over the electronic unit is attached, which laterally surrounds the recording area and an entry gap for the insertion of the hand having. The shaft to the frame defines the distance between the hand to be measured and the recording camera for the hand or finger image. The disadvantage, however, is that the frame should not be touched by the user, it must leave enough space for hands of different sizes and thus has room for significant deviations from the narrowly limited image recording area of the camera, which means that the depth of field of the camera optics that must be maintained for high-resolution finger recordings is not guaranteed can be.

Der Erfindung liegt die Aufgabe zugrunde, eine neue Möglichkeit zur kontaktlosen Fingerabdruckaufnahme einer Hand oder Teilen davon zu finden, die eine echtzeitfähige Handabstandserkennung zur 3D-Bilddatenaufnahme von Fingerabdrücken gestattet, ohne zusätzliche Abstandssensoren oder Hilfsrahmen zur Abstandszuweisung gegenüber einer hochauflösenden Kamera zu benötigen.The invention is based on the object of finding a new possibility for contactless fingerprint recording of a hand or parts thereof, which allows real-time hand distance detection for 3D image data recording of fingerprints without requiring additional distance sensors or auxiliary frames for distance assignment compared to a high-resolution camera.

Erfindungsgemäß wird die Aufgabe gemäß den Ansprüchen 1 gelöst. Vorteilhafte Ausführungen sind in den untergeordneten Ansprüchen beschrieben.According to the invention, the object of claims 1 is achieved. Advantageous embodiments are described in the subordinate claims.

Die Erfindung geht von der Überlegung aus, dass eine exakte Kenntnis über die aktuelle Handposition vonnöten ist, um die 3D-Aufnahme bzw. Verarbeitung zu starten oder um dem Nutzer des Scanners Korrekturvorschläge zur Handpositionierung mitzuteilen.
Die Erfindung basiert auf der Grundidee, bei kontaktlosen Fingerabdruckaufnahmen für die Handabstandserkennung (Handposition) und zur Erzeugung hochgenauer 3D-Bilddaten von der Hand oder Teilen davon mittels einer besonders angeordneten Kamera-Projektor-Kombination und einer strukturierten Beleuchtung der Hand auf zusätzliche vielteilige Abstandssensoren zu verzichten. Dabei werden die 3D-Bilddaten der vorgelagerten Abstandserkennung aus dem Kamerabild ermittelt, bei Vorliegen einer zulässigen Handposition aus einer hochauflösend aufgenommenen Fingerabdruckaufnahme pixelweise die hochgenauen 3D-Bilddaten rekonstruiert und in einem nachgelagerten Verfahren in ein zweidimensionales Fingerabdruckbild umgewandelt.
Die Handpositionserkennung soll dabei ohne zusätzliche Sensorik, bauräumliche Begrenzungsmaßnahmen oder aufwändige Scanverfahren als Abstandsbestimmung zwischen Hand und Kamera mit geringem Rechenaufwand erfolgen und als Abstandsinformation dafür genutzt werden, entweder dem Benutzer der Vorrichtung Korrekturvorschläge zur Positionskorrektur der Hand anzubieten oder um die Kamera entsprechend zu fokussieren oder um die hochgenaue Rekonstruktion der 3D-Bilddaten zu starten, wenn die korrekte Position zur Aufnahme der Hand vorliegt.
Die Vorrichtung umfasst eine Beleuchtungseinheit zum Beleuchten eines Raumbereichs mit strukturiertem Licht, in welchem auch der Schärfentiefenbereich der Kamera liegt, wobei die Kamera zum Erfassen von Licht, das von einer Hand oder Teilen davon in der Objektebene diffus reflektiert wird, ausgebildet ist. Dazu weist die Beleuchtungseinheit einen unterschiedlichen Abstand zum Schärfentiefenbereich der Kamera auf, da ausschließlich dann die Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera eine Funktion des Abstands der Hand zur Kamera ist, um somit eine schnelle räumliche Positionierung der Hand oder Teilen davon derer in Bezug auf die Vorrichtung zur Fingerabdruckaufnahme durch die Strukturgrößenbestimmung generieren zu können.
The invention is based on the consideration that exact knowledge of the current hand position is required in order to start the 3D recording or processing or in order to communicate correction suggestions for hand positioning to the user of the scanner.
The invention is based on the basic idea of dispensing with additional multi-part distance sensors for contactless fingerprint recordings for hand distance detection (hand position) and for generating highly precise 3D image data from the hand or parts thereof by means of a specially arranged camera-projector combination and structured illumination of the hand . The 3D image data of the upstream distance detection is determined from the camera image, if there is a permissible hand position from a high-resolution The high-precision 3D image data is reconstructed pixel by pixel from the fingerprint image taken and converted into a two-dimensional fingerprint image in a downstream process.
The hand position detection should take place without additional sensors, spatial limitations or complex scanning methods as a distance determination between hand and camera with little computing effort and used as distance information either to offer the user of the device correction suggestions for the position correction of the hand or to focus the camera accordingly or to start the high-precision reconstruction of the 3D image data when the correct position for recording the hand is available.
The device includes an illumination unit for illuminating a spatial area with structured light, in which the depth of field of the camera also lies, the camera being designed to capture light that is diffusely reflected from a hand or parts thereof in the object plane. For this purpose, the lighting unit has a different distance to the depth of field of the camera, since only then is the structural size of the structured illumination on the camera sensor a function of the distance between the hand and the camera, in order to enable quick spatial positioning of the hand or parts of it in relation to to be able to generate on the device for taking fingerprints by determining the structure size.

Durch die Erfindung wird eine neue Möglichkeit zur kontaktlosen Fingerabdruckaufnahme einer Hand oder Teilen davon realisiert, die eine echtzeitfähige Handabstandserkennung zur 3D-Bilddatenaufnahme von Fingerabdrücken gestattet, ohne zusätzliche Abstandssensoren oder Hilfsrahmen zur Abstandszuweisung gegenüber einer hochauflösenden Kamera zu benötigen.The invention provides a new possibility for contactless fingerprint recording of a hand or parts thereof, which allows real-time hand distance detection for 3D image data recording of fingerprints without requiring additional distance sensors or auxiliary frames for distance assignment compared to a high-resolution camera.

Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen und Abbildungen näher erläutert. Dabei zeigen:

  • 1: ein Prinzipschema der Erfindung zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon;
  • 2: schematisch die Definition eines Toleranzwinkels, der bei der herkömmlichen Fingerabdruckaufnahme auf einer Kontaktfläche entsteht;
  • 3: die Bildschärfe im Sinne einer Modulationstransferfunktion (MTF) über der Emissionswellenlänge der Beleuchtungseinheit;
  • 4: den Zusammenhang zwischen einer Strukturgröße auf dem Lichtmodulator der Beleuchtungseinheit, die in der Strukturgröße in der Objektebene und entsprechend auf dem Kamerasensor abgebildet wird;
  • 5: die Darstellung des Zusammenhanges zwischen Objektabstand und gemessener Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera für ein periodisches Muster des strukturierten Lichts;
  • 6: die Darstellung des Zusammenhanges zwischen Objektabstand und gemessener Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera für ein nichtperiodisches Muster des strukturierten Lichts;
  • 7: eine bevorzugte Ausführung der Erfindung mit einem Projektor und einer Kamera, deren optische Achsen parallel zueinander ausgerichtet sind und unterschiedliche Abstände zur Objektebene aufweisen;
  • 8: eine weitere bevorzugte Ausführung vergleichbar mit 7, bei der Kamera und Beleuchtungseinheit in einer Scheimpflug-Geometrie angeordnet sind;
  • 9: eine bevorzugte Ausführung in Modifikation von 8, bei der die Strahlengänge der Kamera und der Beleuchtungseinheit über Umlenkspiegel gefaltet sind;
  • 10: eine weitere bevorzugte Ausführung der Erfindung mit einem Projektor als Beleuchtungseinheit und zwei Kameras, wobei der Projektor einen wesentlichen Unterschied im Abstand zur Hand oder Teilen davon im Vergleich zu den beiden Kameras aufweist;
  • 11: eine weitere gegenüber 10 modifizierte Ausführung der Erfindung mit zwei Projektoren und drei Kameras, wobei die Projektoren einen wesentlichen Unterschied im Abstand zu Hand oder Teilen davon im Vergleich zu den drei Kameras aufweisen;
  • 12: ein Blockdiagramm einer beispielhaften Konfiguration erfindungsgemäßen Verfahrens;
  • 13: einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung der Hand oder Teilen davon;
  • 14: einen weiteren beispielhaften Ablaufplan für das Verfahren zur Positionserkennung im Sinne des Abstandes und der Rotation der Hand oder Teilen davon,
  • 15: eine schematische Abbildung einer möglichen Ausgestaltungsform der Vorrichtung;
  • 16: eine schematische Darstellung korrekter und nicht-korrekter Handpositionierung beispielhaft;
  • 17: eine schematische Abbildung einer möglichen Ausgestaltungsform der Vorrichtung inklusive eines als Display ausgestalteten Feedbackmoduls.
The invention is explained in more detail below using exemplary embodiments and illustrations. show:
  • 1 : a schematic diagram of the invention for non-contact optical recording of the papillary structure of a hand or parts thereof;
  • 2 : Schematic of the definition of a tolerance angle that arises in conventional fingerprint recording on a contact surface;
  • 3 : the image sharpness in terms of a modulation transfer function (MTF) versus the emission wavelength of the illumination unit;
  • 4 : the relationship between a structure size on the light modulator of the lighting unit, which is imaged in the structure size in the object plane and correspondingly on the camera sensor;
  • 5 : the representation of the relationship between the object distance and the measured structure size of the structured illumination on the camera sensor for a periodic pattern of the structured light;
  • 6 : the representation of the relationship between the object distance and the measured structure size of the structured illumination on the camera sensor for a non-periodic pattern of the structured light;
  • 7 : a preferred embodiment of the invention with a projector and a camera, the optical axes of which are aligned parallel to one another and have different distances from the object plane;
  • 8th : Another preferred embodiment comparable to 7 , in which the camera and lighting unit are arranged in a Scheimpflug geometry;
  • 9 : a preferred embodiment in modification of 8th , in which the beam paths of the camera and the lighting unit are folded via deflection mirrors;
  • 10 : another preferred embodiment of the invention with a projector as the lighting unit and two cameras, the projector having a significant difference in distance to the hand or parts thereof compared to the two cameras;
  • 11 : another opposite 10 modified embodiment of the invention with two projectors and three cameras, the projectors having a significant difference in distance to the hand or parts thereof compared to the three cameras;
  • 12 1 is a block diagram of an exemplary configuration of the method according to the invention;
  • 13 : an exemplary flow chart for the method for position detection of the hand or parts thereof;
  • 14 : another exemplary flowchart for the method for position detection in terms of the distance and the rotation of the hand or parts thereof,
  • 15 1: a schematic illustration of a possible embodiment of the device;
  • 16 : a schematic representation of correct and incorrect hand positioning as an example;
  • 17 1: a schematic depiction of a possible embodiment of the device including a feedback module designed as a display.

Die Erfindung beinhaltet gemäß der schematischen Darstellung von 1 als Grundprinzip eine Vorrichtung zur Fingerabdruckaufnahme 4 und zur Messung eines Abstands 16 der Kamera 2 zu einer Objektebene 21, wobei die Kamera 2 zugleich zum kontaktlosen bzw. berührungslosen optischen Aufnehmen der Papillarstruktur wenigstens eines Fingers vorgesehen ist. Dabei umfasst die Vorrichtung 4 eine Beleuchtungseinheit 1 zum Beleuchten eines Tiefenmessbereichs 24 mit strukturiertem Licht und eine Kamera 2 zum Erfassen von Licht, das von einer Hand 3 oder einem Teil davon in der Objektebene 21 diffus reflektiert wird, wobei eine Differenz 17 des Abstandes 15 von Kamera 2 und des Abstandes 16 der Beleuchtungseinheit 1 zur Objektebene 21 vorhanden ist, aufweist.
Gemäß der Erfindung wird der Tiefenmessbereich 24 beschrieben als der Bereich, in dem sich das Sichtfeld der Beleuchtungseinheit 13 der Beleuchtungseinheit 1 und Sichtfeld der Kamera 14 im 3D-Raum überlagern, wie in 1 dargestellt. Dabei gibt es im Falle der parallelen Ausrichtung der optischen Achse 11 der Beleuchtungseinheit 1 und der optischen Achse 12 der Kamera 2 eine untere Grenze des Tiefenmessbereichs 24. Im Fall der Scheimpflug-Geometrie (siehe 8) von Kamera 2 und Beleuchtungseinheit 1, besitzt der Tiefenmessbereich 24 auch einen maximalen Abstand. Der Tiefenmessbereich 24 entspricht dabei dem Schärfentiefenbereich 9 der Kamera 2.
The invention includes according to the schematic representation of 1 as a basic principle a device for fingerprint recording 4 and for measuring a distance 16 of the camera 2 to an object plane 21, the camera 2 being provided at the same time for the contactless or non-contact optical recording of the papillary structure of at least one finger. The device 4 comprises an illumination unit 1 for illuminating a depth measurement area 24 with structured light and a camera 2 for capturing light that is diffusely reflected by a hand 3 or a part thereof in the object plane 21, with a difference 17 in the distance 15 of Camera 2 and the distance 16 of the lighting unit 1 to the object plane 21 is present, has.
According to the invention, the depth measurement area 24 is described as the area in which the field of view of the lighting unit 13 of the lighting unit 1 and the field of view of the camera 14 overlap in 3D space, as in FIG 1 shown. In the case of the parallel alignment of the optical axis 11 of the lighting unit 1 and the optical axis 12 of the camera 2, there is a lower limit of the depth measurement range 24. In the case of the Scheimpflug geometry (see 8th ) of camera 2 and lighting unit 1, the depth measuring area 24 also has a maximum distance. The depth measurement range 24 corresponds to the depth of field 9 of the camera 2.

Die in der Vorrichtung 4 enthaltene Beleuchtungseinheit 1 wird beschrieben durch eine optische Achse 11, einen räumlichen 2D-Intensitätsmodulator, ein Sichtfeld der Beleuchtungseinheit 13 und eine Lichtquelle. Umfasst die Beleuchtungseinheit 1 zusätzlich noch ein Objektiv zur Abbildung des räumlichen 2D-Intensitätsmodulators, wird sie nachfolgend als Projektor 25 bezeichnet. Eine Beleuchtungseinheit 1 im Sinne der Erfindung dient der Emission von strukturiertem Licht, insbesondere der Emission einer Wellenlänge (inkl. spektraler Verbreiterung). Es kann auch vorgesehen sein, dass die Beleuchtungseinheit 1 zwei oder drei Wellenlängen zu emittieren vermag. Eine zweckmäßige Form der Beleuchtungseinheit 1 kann zum Beispiel eine oder mehrere LEDs oder einen oder mehrere Laser (nicht gezeichnet) beinhalten.The illumination unit 1 contained in the device 4 is described by an optical axis 11, a 2D spatial intensity modulator, a field of view of the illumination unit 13 and a light source. If the lighting unit 1 also includes a lens for imaging the spatial 2D intensity modulator, it is referred to below as a projector 25 . An illumination unit 1 within the meaning of the invention is used to emit structured light, in particular to emit a wavelength (including spectral broadening). It can also be provided that the lighting unit 1 is able to emit two or three wavelengths. An expedient form of the lighting unit 1 can include, for example, one or more LEDs or one or more lasers (not shown).

Eine weitere Ausführungsart der Beleuchtungseinheit 1 emittiert ein breites Lichtspektrum, wie beispielsweise Weißlicht-LEDs, Lichtquellen basierend auf thermischer Strahlung (Glühlampe) oder Gasentladungslampen.Another embodiment of the lighting unit 1 emits a broad spectrum of light, such as white light LEDs, light sources based on thermal radiation (incandescent lamp) or gas discharge lamps.

In einer Ausgestaltung der Erfindung liegt das Emissionsspektrum der Beleuchtungseinheit 1 im Bereich 350 nm bis 1000 nm. In einer weiteren Ausgestaltung der Erfindung, s. 3, ist das Emissionsspektrum beschränkt auf 450 nm bis 550 nm, um die MTF Anforderungen des FBI zu erfüllen.In one embodiment of the invention, the emission spectrum of the lighting unit 1 is in the range from 350 nm to 1000 nm. In a further embodiment of the invention, see FIG. 3 , the emission spectrum is limited to 450 nm to 550 nm to meet FBI MTF requirements.

In einer bevorzugten Ausführungsvariante der Erfindung ist der Arbeitsabstand 26 der Kamera 2 nicht weniger als 50 mm und nicht mehr als 1500 mm. Die untere Grenze ergibt sich durch einen ausreichenden Abstand zwischen der Hand 3 (oder Teilen davon) und Kamera 2, um Berührungen zu vermeiden. Die obere Grenze ergibt sich aus bautechnischen Gründen.In a preferred embodiment of the invention, the working distance 26 of the camera 2 is no less than 50 mm and no more than 1500 mm. The lower limit results from a sufficient distance between hand 3 (or parts of it) and camera 2 to avoid touching. The upper limit results from structural reasons.

In einer weiteren bevorzugten Ausführungsvariante der Erfindung ist der Arbeitsabstand 26 der Kamera 2 nicht weniger als 200 mm und nicht mehr als 400 mm.In a further preferred embodiment variant of the invention, the working distance 26 of the camera 2 is not less than 200 mm and not more than 400 mm.

In einer bevorzugten Ausführungsvariante der Erfindung ist der Abstand 28 der Beleuchtungseinheit 1 zur mittleren Schärfentiefenebene 27 der Kamera 2 (oder eventuell weiterer Kameras 2) nicht weniger als 50 mm und nicht mehr als 1400 mm. In einer weiteren bevorzugten Ausführungsvariante ist der Abstand 28 der Beleuchtungseinheit 1 zur mittleren Schärfentiefenebene 27 der (wenigstens einen) Kamera 2 nicht weniger als 130 mm und nicht mehr als 400 mm.In a preferred embodiment of the invention, the distance 28 of the lighting unit 1 to the middle depth of field 27 of the camera 2 (or possibly other cameras 2) is no less than 50 mm and no more than 1400 mm. In a further preferred embodiment variant, the distance 28 of the lighting unit 1 to the middle focal depth plane 27 of the (at least one) camera 2 is not less than 130 mm and not more than 400 mm.

Die Kamera 2 der Vorrichtung 4, beschrieben durch eine optische Achse 12 der Kamera 2, einen Sensor und ein auf den Sensor abbildendes Objektiv, weist ein Sichtfeld 14 und einen Schärfentiefenbereich 9 auf, welcher durch eine untere Grenze 10 des Schärfentiefenbereichs 9 und eine obere Grenze 8 des Schärfentiefenbereichs 9 limitiert wird. Ausschließlich im Schärfentiefenbereich 9 können die Papillarstrukturen der Hand 3 (oder Teilen davon) hochqualitativ und auf dem Sensor der Kamera 2 abgebildet werden gemäß den behördlichen Vorgaben (FBI-Richtlinie, Appendix F: U.S. Department of Justice, Federal Bureau of Investigation, „Electronic Biometrie Transmission Specification (EBTS) with Technical and Operational Updates“, Version 10.0.9, 22. Mai 2018).
In vorteilhafter Ausgestaltung im Sinne der Erfindung umfasst eine Kamera 2 einen Bildsensor und ein Objektiv. Der Bildsensor im Sinne der Erfindung ist eine Einrichtung, die ein optisches Signal in ein elektrisches, welches die Bildinformation enthält, umwandelt. Dem Bildsensor (bzw. dem Ausgang der Kamera 2) nachgelagert kann erfindungsgemäß eine Recheneinheit 29 sein, die zur Bildinformationsverarbeitung dient. Im Speziellen dient die Recheneinheit 29 auch der Berechnung der räumlichen Information aus dem Bild des Bildsensors, im Speziellen der 3D-Erfassung einer Hand 3 oder eines Fingers mit der Papillarstruktur.
In einer vorteilhaften Ausgestaltung (gemäß 8) ist die Beleuchtungseinheit 1 mit einem Objektiv ausgestattet und bildet somit einen Projektor 25, wobei der als Beleuchtungseinheit 1 verwendete Projektor 25 mit strukturierter Beleuchtung und die Kamera 2 in Scheimpflug-Geometrie angebracht sind. Das bedeutet, dass Projektor 25 und Kamera 2 bezogen auf eine Objektebene 21 eine Abbildungsentzerrung nach Scheimpflug erfüllen.
In einer weiteren bevorzugten Ausgestaltung, wie in 9 skizziert, ist bzw. sind die Strahlengänge der Beleuchtungseinheit 1 und/oder der Kamera 2, über einen oder mehrere Umlenkspiegel 5 gefaltet, um eine kompakte Bauform zu ermöglichen.
The camera 2 of the device 4, described by an optical axis 12 of the camera 2, a sensor and a lens imaging the sensor, has a field of view 14 and a depth of field 9, which is defined by a lower limit 10 of the depth of field 9 and an upper limit 8 of the depth of field 9 is limited. Only in the depth of field 9 can the papillary structures of the hand 3 (or parts thereof) be imaged in high quality and on the sensor of the camera 2 in accordance with the official specifications (FBI guideline, Appendix F: US Department of Justice, Federal Bureau of Investigation, "Electronic Biometry Transmission Specification (EBTS) with Technical and Operational Updates, Version 10.0.9, May 22, 2018).
In an advantageous embodiment within the meaning of the invention, a camera 2 includes an image sensor and a lens. The image sensor within the meaning of the invention is a device that converts an optical signal into an electrical signal that contains the image information. According to the invention, downstream of the image sensor (or the output of the camera 2) can be a computing unit 29, which is used for image information processing. In particular, the computing unit 29 is also used to calculate the spatial information from the image of the image sensor, in particular the 3D detection of a hand 3 or a finger with the papillary structure.
In an advantageous embodiment (according to 8th ) the lighting unit 1 is equipped with a lens and thus forms a projector 25, the projector 25 used as the lighting unit 1 with structured lighting and the camera 2 being fitted in Scheimpflug geometry. This means that the projector 25 and camera 2 in relation to an object plane 21 fulfill an image rectification according to Scheimpflug.
In a further preferred embodiment, as in 9 outlined, is or are the beam paths of the lighting unit 1 and / or the camera 2, folded over one or more deflection mirrors 5 to enable a compact design.

Ein 2D-Intensitätsmodulator im Sinne der Erfindung kann einen digitalen Lichtmodulator umfassen, bestehend zum Beispiel aus einem oder mehreren DLP-Chips (engl. Digital Light Processing), einem oder mehreren LCDs (engl. Liquid Crystal Device) oder einem oder mehreren LCoS (engl. Liquid Crystal on Silicon). Außerdem können erfindungsgemäß auch analoge Lichtmodulatoren wie Masken, Dias, oder Streu- und Phasenmodulationsscheiben (zur Erzeugung von Specklemustern) Verwendung finden. In weiteren bevorzugten Ausführungen der Erfindung kommen eine Beleuchtungseinheit 1 bzw. ein Projektor 25 und zwei Kameras 2 zum Einsatz, wobei die Beleuchtungseinheit 1 bzw. der Projektor 25 einen unterschiedlichen Abstand zum Schärfentiefenbereich 9 verglichen mit dem Arbeitsabstand 26 der Kamera(s) 2 aufweist (s. 10) oder zwei Projektoren 25 bzw. zwei Beleuchtungseinheiten 1 und drei Kameras 2 zum Einsatz, wobei die Projektoren 25 bzw. die Beleuchtungseinheiten 1 einen unterschiedlichen Abstand zum Schärfentiefenbereich (9) verglichen mit dem Arbeitsabstand 26 der Kameras 2 aufweisen (s. 11).
In einer bevorzugten Ausführung der Erfindung besitzt die Vorrichtung 4 ein Feedbackmodul 35, welches dem Nutzer über akustische, haptische oder visuelle Signale oder Kombinationen davon, Information über die korrekte Aufnahme, Korrekturvorschläge für die Handposition oder weitere Informationen zugänglich macht.
In einer weiteren bevorzugten Ausführung der Erfindung ist das Feedbackmodul 35 als Anzeigeeinheit 36 in Form eines Displays ausgeführt oder kann auch als eine LED-Zeile im oberen Bereich der Vorrichtung 4 integriert sein.
A 2D intensity modulator within the meaning of the invention can comprise a digital light modulator consisting, for example, of one or more DLP chips (Digital Light Processing), one or more LCDs (Liquid Crystal Device) or one or more LCoS ( .Liquid Crystal on Silicon). In addition, according to the invention, analog light modulators such as masks, slides, or scatter and phase modulation discs (for generating speckle patterns) can also be used. In further preferred embodiments of the invention, a lighting unit 1 or a projector 25 and two cameras 2 are used, the lighting unit 1 or the projector 25 being at a different distance from the depth of field 9 compared to the working distance 26 of the camera(s) 2 ( s. 10 ) or two projectors 25 or two lighting units 1 and three cameras 2 are used, with the projectors 25 or the lighting units 1 being at a different distance from the depth of field (9) compared to the working distance 26 of the cameras 2 (see 11 ).
In a preferred embodiment of the invention, the device 4 has a feedback module 35 which makes information about the correct recording, correction suggestions for the hand position or other information accessible to the user via acoustic, haptic or visual signals or combinations thereof.
In a further preferred embodiment of the invention, the feedback module 35 is designed as a display unit 36 in the form of a display or can also be integrated as a row of LEDs in the upper area of the device 4 .

Das erfindungsgemäße Verfahren zur echtzeitfähigen Bestimmung des Abstandes der Hand 3 (oder Teilen davon) zur Kamera 2 beruht auf den unterschiedlichen Abständen der Kamera(s) 2 und der Beleuchtungseinheit(en) 1 zur Hand 3 in der Objektebene 21 (siehe 4).
Grundidee dabei ist die Vermessung der Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2. Entsprechend der Nomenklatur in 4 wird durch die Beleuchtungseinheit 1 eine räumlich variierende Struktur mit der Strukturgröße 20 in der Objektebene 21 (S0) projiziert. Die Strukturgröße 19 auf einem Lichtmodulator der Beleuchtungseinheit 1 ist dabei Sp. Der Abstand 15 der Beleuchtungseinheit 1 zur Objektebene 21 (Ap) beschreibt die Entfernung von einem als Beleuchtungseinheit 1 verwendeten Projektor 25 zur Hand 3 (oder Teilen davon) und Ac den Abstand 16 der Kamera 2 zur Objektebene 21 der Hand 3.
Man kann mathematisch zeigen, dass die gemessene Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2 (Sc) eine nichtkonstante Funktion des Abstands 16 (Ac) der Kamera 2 zur Objektebene 21 ist, wann immer eine Differenz 17 (δ ≠ 0) der Abstände von Kamera 2 und Beleuchtungseinheit 1 zur Objektebene 21 vorhanden ist. S C = f ( A c ) f u ¨ δ 0

Figure DE102021111422A1_0001
The method according to the invention for real-time determination of the distance of the hand 3 (or parts thereof) from the camera 2 is based on the different distances of the camera(s) 2 and the lighting unit(s) 1 from the hand 3 in the object plane 21 (see 4 ).
The basic idea here is the measurement of the structure size 18 of the structured illumination on the sensor of the camera 2. According to the nomenclature in 4 is projected by the lighting unit 1 a spatially varying structure with the structure size 20 in the object plane 21 (S 0 ). The structure size 19 on a light modulator of the lighting unit 1 is S p . The distance 15 of the lighting unit 1 to the object plane 21 (A p ) describes the distance from a projector 25 used as the lighting unit 1 to the hand 3 (or parts thereof) and A c describes the distance 16 of the camera 2 to the object plane 21 of the hand 3.
One can show mathematically that the measured structure size 18 of the structured illumination on the camera 2 sensor (Sc) is a non-constant function of the distance 16 (A c ) from the camera 2 to the object plane 21 whenever a difference 17 (δ ≠ 0) of the distances from camera 2 and lighting unit 1 to object plane 21 is present. S C = f ( A c ) f and ¨ right δ 0
Figure DE102021111422A1_0001

Dies bedeutet wiederum, dass für δ ≠ 0 der Abstand 16 der Kamera 2 zur Objektebene 21 (Ac) bestimmt werden kann, wenn man die von der Beleuchtungseinheit 1 projizierte Strukturgröße 18 der strukturierten Beleuchtung vom Projektor 25 auf dem Sensor der Kamera 2 (Sc) vermessen kann, was das Grundproblem der Abstandsmessung löst. A C = f ( S c ) f u ¨ δ 0

Figure DE102021111422A1_0002
This in turn means that for δ ≠ 0 the distance 16 of the camera 2 to the object plane 21 (A c ) can be determined if the structure size 18 of the structured illumination projected by the lighting unit 1 is taken from the projector 25 onto the sensor of the camera 2 (p c ) can be measured, which solves the basic problem of distance measurement. A C = f ( S c ) f and ¨ right δ 0
Figure DE102021111422A1_0002

Im Falle der Projektion periodischer oder quasi-periodischer Muster, z.B. ein- oder zweidimensionale Sinusmuster oder Punktmuster, lässt sich die abgebildete Strukturgröße Sc beispielsweise einfach und effizient aus der diskreten Fouriertransformation (DFT) oder deren schnelle Implementierungen (FFT) über eine lokale Maximumsuche im Frequenzraum bestimmen. Über eine Wavelet-Transformation ist dies auch möglich.
Dazu sind in 5 die Zwischenschritte des vorgestellten Verfahrens aufgezeigt für die Projektion eines Sinusmusters auf die Hand 3 oder Teile davon (Finger einer Hand) mittels eines Projektors 25, der einen abweichenden Abstand 15 zur Objektebene 21 hat, verglichen mit der Kamera 2, die für die Aufnahme angewendet wird. Für einen nahezu gleichen Abstand zur Hand 3 (oder Teilen davon) für Kamera 2 und Beleuchtungseinheit (1) ergibt sich im Kamerabild ein konstanter Streifenabstand bzw. konstante räumliche Frequenz (Kreise), wohingegen für den Fall, dass der Projektor 25 nur den halben Abstand zur Hand 3 hat, ein deutlicher Verlauf des Streifenabstandes mit dem Abstand 16 der Kamera 2 zur Objektebene 21 zu verzeichnen ist.
In 6 sind die Zwischenschritte des hier vorgestellten Verfahrens aufgezeigt für projizierte nichtperiodische Muster (Speckles). Für einen nahezu gleichen Abstand zur Objektebene 21 für Kamera 2 und Beleuchtungseinheit 1 ergibt sich im Kamerabild eine konstante Strukturgrößenverteilung bzw. konstante räumliche Frequenzverteilung (Kreise), wohingegen für den Fall, dass die Beleuchtungseinheit 1 nur den halben Abstand 16 zur Hand 3 (oder Teile davon) hat, ein deutlicher Verlauf der Strukturgrößenverteilung mit dem Abstand 16 der Kamera 2 zur Hand 3 zu verzeichnen ist.
Wendet man das hier beschriebene Verfahren auf mehrere Teilbilder an, kann eine in der Auflösung reduzierte Tiefenkarte der aufgenommenen und beleuchteten Szene erzeugt werden, wodurch es möglich ist, die Rotation der Hand 3 zu bestimmen.
Für die Bestimmung der korrekten Handpositionierung 31 werden ein Abstand der Hand 3 (oder Teilen davon) sowie die Rotation (Verdrehung), bezogen auf den Schärfentiefenbereich 9, bestimmt. Für eine korrekte Handpositionierung 31, s. 16, müssen die zu messenden Teile der Hand 3 planar im Schärfentiefenbereich 9 liegen. Die Bildanalyse 34 beschreibt allgemein das Verfahren, um aus der Strukturgröße 18 der strukturierten Beleuchtung von der Beleuchtungseinheit 1, abgebildet auf dem Sensor der Kamera 2, die Position und Ausrichtung der Hand 3 bezüglich der Kamera 2 zu ermitteln, wobei zuvor spezielle Ausführungen für die Verfahren beispielhaft aufgezeigt wurden, s. 5 und 6.
In the case of the projection of periodic or quasi-periodic patterns, e.g. one- or two-dimensional sinusoidal patterns or point patterns, the imaged structure size S c can be easily and efficiently derived from the discrete Fourier transform (DFT) or its fast implementation (FFT) via a local maximum search in the Determine frequency space. This is also possible via a wavelet transformation.
are in 5 the intermediate steps of the method presented are shown for the projection of a sinusoidal pattern onto the hand 3 or parts thereof (fingers of a hand) using a projector 25, which has a different distance 15 to the object plane 21 compared to the camera 2, which is used for the recording . For an almost equal distance to hand 3 (or parts of it) for camera 2 and lighting unit (1), a constant fringe distance or constant spatial frequency (circles) results in the camera image, whereas for the case that the projector 25 only has half the distance has at hand 3, a clear progression of the strip distance with the distance 16 of the camera 2 to the object plane 21 can be recorded.
In 6 the intermediate steps of the method presented here are shown for projected non-periodic patterns (speckles). For an almost identical distance from the object plane 21 for the camera 2 and the lighting unit 1, the camera image produces a constant structure size distribution or constant spatial frequency distribution (circles), whereas in the event that the lighting unit 1 is only half the distance 16 to hand 3 (or parts thereof), there is a clear course of the structure size distribution with the distance 16 of the camera 2 to hand 3 is to be recorded.
If the method described here is applied to a plurality of partial images, a depth map of the recorded and illuminated scene with reduced resolution can be generated, which makes it possible to determine the rotation of the hand 3 .
For the determination of the correct hand positioning 31, a distance of the hand 3 (or parts thereof) and the rotation (twisting), based on the depth of field 9, is determined. For correct hand positioning 31, s. 16 , the parts of the hand 3 to be measured must be planar in the depth of field 9. The image analysis 34 generally describes the method for determining the position and alignment of the hand 3 in relation to the camera 2 from the structure size 18 of the structured illumination from the illumination unit 1, imaged on the sensor of the camera 2, with specific explanations for the method beforehand have been shown as examples, s. 5 and 6 .

In einer bevorzugten Ausführungsvariante der Erfindung wird die Datenaufnahme von einer Recheneinheit 29 angefordert, was ein Trigger-Signal auf einem Datenbus auslöst. Dieses führt in der Vorrichtung 4 dazu, dass mindestens eine Beleuchtungseinheit 1 ein Streifenmuster projiziert und synchron von mindestens einer Kamera 2 ein Bild der Hand 3 oder Teile davon mit projiziertem Streifenmuster aufgenommen wird. Dieses wird über einen weiteren Datenbus an die Datenverarbeitungseinheit der Recheneinheit 29 weitergeleitet, in der die Abstandsbestimmung durch eine Maximumsuche im Frequenzraum des gesamten Bildes und die Rotationsbestimmung durch eine Analyse der Maxima im Frequenzraum von Rasterelementen des Bildes durchgeführt werden. Auf Basis der Analyseergebnisse erfolgt eine Korrekturbestimmung, welche über einen weiteren Datenbus dem Nutzer als Feedback auf einer Anzeigeeinheit 36 zur Verfügung gestellt wird. Anschließend startet eine weitere Aufnahme, bei akzeptabler Positionierung der Hand 3 im Tiefenmessbereich 24, welches dem Nutzer über die Anzeigeeinheit 36 mitgeteilt wird, kann entweder mit einer neuen Datenaufnahme über die Kamera 2 oder mit der Datenverarbeitung zu einem 3D-Bild oder zu einem Fingerabdruckbild fortgefahren werden.

  • 1 zeigt eine Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand 3 oder Teilen davon, wobei die Vorrichtung 4 eine Beleuchtungseinheit 1 zum Beleuchten einer Hand 3 (oder Teile davon) mit strukturiertem Licht und mindestens eine Kamera 2 zum Erfassen von Licht, das von einer Hand 3 oder eines Teils einer Hand 3 in einer Objektebene 21 diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 der Abstände 15, 16 von Beleuchtungseinheit 1 und Kamera 2 zur Objektebene 21 vorhanden ist und die Kamera 2 einen Schärfentiefenbereich 9 besitzt, der durch eine obere Grenze 8 des Schärfentiefenbereichs 9 und eine untere Grenze 10 des Schärfentiefenbereichs 9 beschränkt ist. Eine schnelle Messung der Handposition ist innerhalb des Tiefenmessbereiches 24 möglich, der durch den Überlagerungsbereich aus dem Sichtfeld 14 der Kamera 2 und dem Sichtfeld 13 der Beleuchtungseinheit 1 gegeben ist und der Teile des Schärfentiefenbereichs 9 der Kamera 2 beinhaltet.
  • 2 zeigt bildlich die Definition eines Toleranzwinkels 7, welcher bei der herkömmlichen Fingerabdruckaufnahme auf einer Kontaktfläche 6 den Bereich der aufgenommenen Haut beschränkt und der auch bei der kontaktlosen Aufnahme entsprechend den (behördlichen) Anforderungen abgebildet werden muss.
  • 3 zeigt die Bildschärfe im Sinne einer Modulationstransferfunktion (MTF) über der Emissionswellenlänge der Beleuchtungseinheit 1. Oberhalb von 640 nm wird das FBI-Kriterium an die Schärfe an keiner Stelle erreicht. Die Bildschärfe wurde berechnet für ein optisch abbildendes System mit einem Arbeitsabstand von 200 mm bei einer Blendenzahl von 2,5.
  • 4 zeigt zusätzlich zu den in 1 dargestellten Größen den Zusammenhang auf zwischen einer Strukturgröße 19 auf dem Lichtmodulator der Beleuchtungseinheit 1, die in der Strukturgröße 20 in der Objektebene 21 abgebildet wird. Die Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2 ist dabei eine Funktion des Abstands 16 der Kamera 2 zur Objektebene 21, wenn die Differenz 17 der Abstände 15, 16 von Beleuchtungseinheit 1 und Kamera 2 zur Objektebene 21 nicht verschwindend ist.
  • 5 zeigt ein Verfahrensbeispiel für die Darstellung des Zusammenhanges zwischen Abstand 16 der Kamera 2 zur Objektebene 21 und gemessener Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2 für ein periodisches Muster des strukturierten Lichts der Beleuchtungseinheit 1, was zur Berechnung des Abstandes 16 der Kamera 2 zur realen Objektebene 21 dient, in der die Positionierung der Hand 3 oder Teilen davon erfolgt ist.
  • 6 verdeutlicht für ein nichtperiodisches Muster der Beleuchtungseinheit 1 ein weiteres Verfahrensbeispiel für die Darstellung des Zusammenhanges zwischen Abstand 16 der Kamera 2 zur Objektebene 21 und gemessener Strukturgröße 18 der strukturierten Beleuchtung auf dem Sensor der Kamera 2.
  • 7 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand 3 oder Teilen davon, wobei die Vorrichtung 4 einen Projektor 25 zum Beleuchten der Hand mit strukturiertem Licht sowie eine Kamera 2 zum Erfassen von Licht, das von der Hand 3 oder eines Teils davon diffus reflektiert wird, umfasst, wobei ein Projektor 25 als Beleuchtungseinheit 1 im Wesentlichen eine nichtverschwindende Differenz 17 der Abstände 15, 16 von Beleuchtungseinheit 1 und Kamera 2 zur Objektebene 21 aufweist, um die in 5 und 6 beschriebenen Verfahren zur Positionsbestimmung der Hand 3 (oder Teilen davon) anwenden zu können.
  • 8 zeigt eine bevorzugte Ausführung vergleichbar mit 7, jedoch mit dem Unterschied, dass Kamera 2 und Beleuchtungseinheit 1 in einer Scheimpflug-Geometrie angeordnet sind. Dadurch ergeben sich die Vorteile, dass einerseits im Kamerabild keine durch die Beleuchtungseinheit 1 nicht ausgeleuchteten Bereiche auftreten können und andererseits der Schärfentiefenbereich 9 von Kamera 2 und Beleuchtungseinheit 1 parallel überlappend ausgerichtet sein können.
  • 9 zeigt eine bevorzugte Ausführung aufbauend auf 8 mit dem Unterschied, dass die Strahlengänge der Kamera 2 und der Beleuchtungseinheit 1 über Umlenkspiegel 5 gefaltet sind, um eine kompaktere, raumsparende Bauweise der Vorrichtung 4 zu erreichen.
  • 10 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand 3 oder Teilen davon, wobei die Vorrichtung 4 einen Projektor 25 zum Beleuchten der Hand 3 mit strukturiertem Licht und zwei Kameras 2 zum Erfassen von Licht, das von einer Hand 3 oder eines Teils davon diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 der Abstände 15, 16 von Beleuchtungseinheit 1 und Kamera(s) 2 zur Objektebene 21 vorhanden ist. Durch diese Konfiguration einer zusätzlichen Kamera 2 ist es möglich, das räumliche Sichtfeld im Sinne eines höheren Toleranzwinkels 7 zu erweitern.
  • 11 zeigt eine bevorzugte Ausführung der Vorrichtung 4 zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand 3 oder Teilen davon, wobei die Vorrichtung 4 zwei Projektoren 25 zum Beleuchten der Hand 3 mit strukturiertem Licht sowie drei Kameras 2 zum Erfassen von Licht, das von einer Hand 3 oder eines Teils davon diffus reflektiert wird, umfasst, wobei im Wesentlichen eine nichtverschwindende Differenz 17 der Abstände 15, 16 von Beleuchtungseinheit(en) 1 und Kamera(s) 2 zur Objektebene 21 vorhanden ist.
  • 12 zeigt ein Blockdiagramm einer beispielhaften Konfiguration, wobei die Datenaufnahme von der Recheneinheit 29 angefordert wird, was ein Trigger-Signal auf einem Datenbus auslöst, welcher in der Vorrichtung 4 dazu führt, dass ein Projektor 25 als spezielle Ausführung der Beleuchtungseinheit 1 ein Streifenmuster projiziert und synchron von einer Kamera 2 ein Bild von der zu messenden Hand 3 mit dem projizierten Streifenmuster aufgenommen wird. Das Bild wird über einen weiteren Datenbus an die Datenverarbeitung der Recheneinheit 29 weitergeleitet wird, in der die Höhenbestimmung und Rotationsbestimmung der Handpositionierung durchgeführt werden, auf Basis von deren Ergebnissen eine Korrekturbestimmung erfolgt, welche über einen weiteren Datenbus dem Nutzer ein Feedback auf einer Anzeigeeinheit 36 zur Verfügung stellt.
  • 13 zeigt einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung, bei dem nach dem Starten des Verfahrens die Ansteuerung der Kamera 2 zu dem Erhalt von Bilddaten führt, wonach der Schritt Bilddaten versenden an Recheneinheit 29 eine Datenverarbeitung zur Erkennung der Handposition erfolgt, wobei bei unkorrekte Handpositionierung im Sinne fehlerhafter Abstände 32 eine Korrektur der Position angefordert wird und dies über die Anzeigeeinheit 36 dem Nutzer signalisiert wird. Danach startet eine weitere Aufnahme; bei akzeptabler Handposition ist das Verfahren zur exakten Positionsbestimmung beendet und eine akzeptable Positionierung der Hand 3 im Schärfentiefenbereich 9 gewährleistet die fehlerfreie und hochauflösende Bildaufnahme der Papillarstruktur einer Hand 3 oder einzelnen Fingern davon.
  • 14 zeigt einen beispielhaften Ablaufplan für das Verfahren zur Positionserkennung, bei dem nach dem Starten des Verfahrens die Ansteuerung der Kamera 2 zu dem Erhalt von Bilddaten führt, wonach der Schritt Bilddaten versenden an Recheneinheit 29 eine Datenverarbeitung zur Erkennung der Handposition erfolgt, wobei bei unkorrekte Handpositionierung im Sinne fehlerhafter Abstände 32 eine Korrektur der Position angefordert wird und dies über die Anzeigeeinheit 36 dem Nutzer signalisiert wird. Anschließend startet eine weitere Aufnahme, bei akzeptabler Handposition wird die Rotation der Hand analysiert, wobei bei unkorrekte Handpositionierung im Sinne fehlerhafter Rotation 33 eine Korrektur der Rotation angefordert wird und dies über die Anzeigeeinheit 36 dem Nutzer signalisiert wird. Danach startet eine weitere Aufnahme; bei akzeptabler Handrotation ist das Verfahren zur exakten Positionsbestimmung beendet und eine akzeptable Positionierung der Hand in der Schärfentiefenbereich 9 gewährleistet die fehlerfreie und hochauflösende Bildaufnahme der Papillarstruktur einer Hand 3 oder Teilen davon.
  • 15 zeigt beispielhaft die Ausgestaltung der Vorrichtung zur Fingerabdruckaufnahme 4 mit einer an der Oberseite angebrachten Aussparung 30 für die korrekte Handpositionierung 31, die dem Nutzer zugewandt ist.
  • 16 zeigt die korrekte Handpositionierung 31, bei der die Hand oder Teile derer korrekt zwischen oberer Grenze 8 des Schärfentiefenbereichs 9 und untere Grenze 10 des Schärfentiefenbereichs 9 liegen. Außerdem wird eine unkorrekte Handpositionierung im Sinne fehlerhafter Abstände 32 der Hand oder Teile derer dargestellt. Außerdem wird eine unkorrekte Handpositionierung im Sinne fehlerhafter Rotation 33 der Hand 3 dargestellt.
  • 17 zeigt beispielhaft die Ausgestaltung der der Vorrichtung zur Fingerabdruckaufnahme 4 mit einer an der Oberseite angebrachten Aussparung 30 für die korrekte Handpositionierung 31, die dem Nutzer zugewandt ist inklusive eines Feedbackmoduls 35, welches als Anzeigeeinheit 36 (Display) ausgestaltet ist.
In a preferred embodiment of the invention, data acquisition is requested by a computing unit 29, which triggers a trigger signal on a data bus. In the device 4 this results in at least one lighting unit 1 projecting a stripe pattern and synchronously recording an image of the hand 3 or parts thereof with the projected stripe pattern by at least one camera 2 . This is forwarded via a further data bus to the data processing unit of the arithmetic unit 29, in which the distance is determined by searching for a maximum in the frequency space of the entire image and the determination of the rotation is carried out by analyzing the maximums in the frequency space of raster elements of the image. A correction is determined on the basis of the analysis results, which is made available to the user as feedback on a display unit 36 via a further data bus. Another recording then starts, with an acceptable positioning of the hand 3 in the depth measurement area 24, which is communicated to the user via the display unit 36, either with a new data recording via the camera 2 or with the data processing to a 3D image or to a fingerprint image will.
  • 1 shows a device 4 for non-contact optical recording of the papillary structure of a hand 3 or parts thereof, the device 4 having a lighting unit 1 for illuminating a hand 3 (or parts thereof) with structured light and at least one camera 2 for detecting light emitted by a Hand 3 or a part of a hand 3 is diffusely reflected in an object plane 21, with essentially a non-vanishing difference 17 of the distances 15, 16 of the illumination unit 1 and camera 2 to the object plane 21 being present and the camera 2 having a depth of field 9, which is limited by an upper limit 8 of the depth of field 9 and a lower limit 10 of the depth of field 9 . A quick measurement of the hand position is possible within the depth measurement range 24 , which is given by the overlapping range from the field of view 14 of the camera 2 and the field of view 13 of the lighting unit 1 and which includes parts of the depth of field 9 of the camera 2 .
  • 2 shows the definition of a tolerance angle 7, which in conventional fingerprint recording on a contact surface 6 limits the area of the recorded skin and which must also be mapped in contactless recording in accordance with the (official) requirements.
  • 3 shows the image sharpness in terms of a modulation transfer function (MTF) over the emission wavelength of the illumination unit 1. Above 640 nm, the FBI criterion for sharpness is not achieved at any point. The sharpness of the image was calculated for an optical imaging system with a working distance of 200 mm and an f-number of 2.5.
  • 4 shows in addition to the in 1 sizes shown on the relationship between a structure size 19 on the light modulator of the lighting unit 1, which is imaged in the structure size 20 in the object plane 21. The structure size 18 of the structured illumination on the sensor of the camera 2 is a function of the distance 16 of the camera 2 to the object plane 21 if the difference 17 of the distances 15, 16 of the illumination unit 1 and camera 2 to the object plane 21 is not negligible.
  • 5 shows a method example for the representation of the relationship between the distance 16 of the camera 2 to the object plane 21 and the measured structure size 18 of the structured illumination on the sensor of the camera 2 for a periodic pattern of the structured light of the illumination unit 1, which is used to calculate the distance 16 of the camera 2 serves for the real object plane 21, in which the positioning of the hand 3 or parts thereof has taken place.
  • 6 1 illustrates another pattern for a non-periodic pattern of the lighting unit 1 Process example for the representation of the relationship between the distance 16 of the camera 2 to the object plane 21 and the measured structure size 18 of the structured illumination on the sensor of the camera 2.
  • 7 shows a preferred embodiment of the device 4 for non-contact optical recording of the papillary structure of a hand 3 or parts thereof, the device 4 having a projector 25 for illuminating the hand with structured light and a camera 2 for detecting light from the hand 3 or a part of which is diffusely reflected, with a projector 25 as the lighting unit 1 essentially having a non-vanishing difference 17 in the distances 15, 16 from the lighting unit 1 and the camera 2 to the object plane 21, in order to 5 and 6 to be able to apply the method described for determining the position of the hand 3 (or parts thereof).
  • 8th shows a preferred embodiment comparable to 7 , but with the difference that camera 2 and lighting unit 1 are arranged in a Scheimpflug geometry. This results in the advantages that on the one hand no areas not illuminated by the illumination unit 1 can appear in the camera image and on the other hand the depth of field 9 of the camera 2 and the illumination unit 1 can be aligned parallel to overlap.
  • 9 shows a preferred embodiment based on 8th with the difference that the beam paths of the camera 2 and the lighting unit 1 are folded via deflection mirrors 5 in order to achieve a more compact, space-saving design of the device 4.
  • 10 shows a preferred embodiment of the device 4 for non-contact optical recording of the papillary structure of a hand 3 or parts thereof, the device 4 having a projector 25 for illuminating the hand 3 with structured light and two cameras 2 for detecting light from a hand 3 or part of it is diffusely reflected, with essentially a non-vanishing difference 17 of the distances 15, 16 from the lighting unit 1 and the camera(s) 2 to the object plane 21 being present. This configuration of an additional camera 2 makes it possible to expand the spatial field of view in terms of a higher tolerance angle 7 .
  • 11 shows a preferred embodiment of the device 4 for non-contact optical recording of the papillary structure of a hand 3 or parts thereof, the device 4 having two projectors 25 for illuminating the hand 3 with structured light and three cameras 2 for detecting light from a hand 3 or part of it is diffusely reflected, wherein essentially a non-vanishing difference 17 of the distances 15, 16 from the lighting unit(s) 1 and camera(s) 2 to the object plane 21 is present.
  • 12 shows a block diagram of an exemplary configuration, the data acquisition being requested by the arithmetic unit 29, which triggers a trigger signal on a data bus, which in the device 4 causes a projector 25 as a special version of the lighting unit 1 to project a stripe pattern and synchronously an image of the hand 3 to be measured with the projected stripe pattern is recorded by a camera 2 . The image is forwarded via a further data bus to the data processing unit of the arithmetic unit 29, in which the determination of the height and rotation of the hand positioning are carried out, on the basis of the results of which a correction is determined, which provides the user with feedback on a display unit 36 via a further data bus provides.
  • 13 shows an exemplary flow chart for the method for position detection, in which, after starting the method, the activation of camera 2 leads to the receipt of image data, after which the step of sending image data to processing unit 29 involves data processing to identify the hand position, with incorrect hand positioning in the In the sense of incorrect distances 32, a correction of the position is requested and this is signaled to the user via the display unit 36. Then another recording starts; if the hand position is acceptable, the method for determining the exact position is ended and an acceptable positioning of the hand 3 in the depth of field 9 ensures error-free and high-resolution imaging of the papillary structure of a hand 3 or individual fingers thereof.
  • 14 shows an exemplary flow chart for the method for position detection, in which, after starting the method, the activation of camera 2 leads to the receipt of image data, after which the step of sending image data to processing unit 29 involves data processing to identify the hand position, with incorrect hand positioning in the In the sense of incorrect distances 32, a correction of the position is requested and this is signaled to the user via the display unit 36. Then another recording starts, if the hand position is acceptable, the rotation of the hand is analyzed, and if the hand is incorrect positioning in terms of incorrect rotation 33 a correction of the rotation is requested and this is signaled to the user via the display unit 36 . Then another recording starts; If the hand rotation is acceptable, the method for determining the exact position is ended and an acceptable positioning of the hand in the depth of field 9 ensures error-free and high-resolution imaging of the papillary structure of a hand 3 or parts thereof.
  • 15 shows an example of the configuration of the device for taking fingerprints 4 with a recess 30 attached to the upper side for the correct positioning of the hand 31, which faces the user.
  • 16 shows the correct hand positioning 31, in which the hand or parts of it lie correctly between the upper limit 8 of the depth of field 9 and the lower limit 10 of the depth of field 9. In addition, incorrect hand positioning in the sense of incorrect distances 32 of the hand or parts thereof is shown. In addition, an incorrect hand positioning in the sense of incorrect rotation 33 of the hand 3 is shown.
  • 17 shows an example of the configuration of the device for fingerprint recording 4 with a recess 30 attached to the top for correct hand positioning 31, which faces the user, including a feedback module 35, which is configured as a display unit 36 (display).

BezugszeichenlisteReference List

11
Beleuchtungseinheitlighting unit
22
Kameracamera
33
Hand (oder Teile davon)hand (or parts thereof)
44
Vorrichtung zur FingerabdruckaufnahmeDevice for fingerprint recording
55
Umlenkspiegeldeflection mirror
66
Kontaktflächecontact surface
77
Toleranzwinkeltolerance angle
88th
obere Grenze des Schärfentiefenbereichsupper limit of the depth of field
99
Schärfentiefenbereichdepth of field
1010
untere Grenze des Schärfentiefenbereichslower limit of the depth of field
1111
optische Achse der Beleuchtungseinheitoptical axis of the lighting unit
1212
optische Achse der Kameraoptical axis of the camera
1313
Sichtfeld der BeleuchtungseinheitField of view of the lighting unit
1414
Sichtfeld der Kamerafield of view of the camera
1515
Abstand der Beleuchtungseinheit zur ObjektebeneDistance of the lighting unit to the object plane
1616
Abstand der Kamera zur ObjektebeneDistance of the camera to the object plane
1717
Differenz der Abstände von Kamera und Beleuchtungseinheit zur ObjektebeneDifference in the distances from the camera and lighting unit to the object plane
1818
Strukturgröße der strukturierten Beleuchtung auf dem Sensor der KameraStructure size of the structured illumination on the camera sensor
1919
Strukturgröße auf Lichtmodulator des ProjektorsStructure size on the projector's light modulator
2020
Strukturgröße der strukturierten Beleuchtung in der ObjektebeneStructure size of the structured illumination in the object plane
2121
Objektebeneobject level
2222
effektive Brennweite des Kameraobjektivseffective focal length of the camera lens
2323
effektive Brennweite der Beleuchtungseinheiteffective focal length of the lighting unit
2424
Tiefenmessbereichdepth measurement range
2525
Projektorprojector
2626
Arbeitsabstand der Kameraworking distance of the camera
2727
mittlere Schärfentiefenebenemedium depth of field
2828
Abstand Beleuchtungseinheit zur mittleren SchärfentiefenebeneDistance of the illumination unit to the mean depth of field
2929
Recheneinheitunit of account
3030
Aussparungrecess
3131
korrekte Handpositionierungcorrect hand positioning
3232
unkorrekte Handpositionierung im Sinne fehlerhafter Abständeincorrect hand positioning in terms of incorrect spacing
3333
unkorrekte Handpositionierung im Sinne fehlerhafter Rotationincorrect hand positioning in terms of incorrect rotation
3434
BildanalyseImage Analysis
3535
Feedbackmodulfeedback module
3636
Anzeigeeinheitdisplay unit

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 10460145 B2 [0003]US10460145B2 [0003]
  • US 8600123 B2 [0003]US 8600123 B2 [0003]
  • KR 20190097706 A1 [0004]KR 20190097706 A1 [0004]
  • DE 102019126419 A1 [0004]DE 102019126419 A1 [0004]
  • US 8971588 B2 [0004]US 8971588 B2 [0004]
  • US 8953854 B2 [0004]US8953854B2 [0004]
  • WO 2018/073335 A1 [0004]WO 2018/073335 A1 [0004]
  • CN 104361315 B [0004]CN 104361315B [0004]
  • US 9734381 B2 [0004]US9734381B2 [0004]
  • US 8224064 B1 [0004]US8224064B1 [0004]
  • US 9396382 B2 [0004]US 9396382 B2 [0004]
  • US 8391590 B2 [0004]US8391590B2 [0004]
  • US 10885297 B2 [0005]US 10885297 B2 [0005]

Claims (16)

Vorrichtung zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand (3) oder Teilen davon, umfassend: - eine im oberen Bereich der Vorrichtung zur Fingerabdruckaufnahme (4) vorhandene Aussparung (30), die einem Nutzer zur Groborientierung der korrekten Handpositionierung (31) dient, - eine Beleuchtungseinheit (1) zum Beleuchten der Hand oder Teile davon (3) mit strukturiertem Licht, eine Kamera (2) zum Erfassen von Licht der Beleuchtungseinheit (1), das von der Hand oder Teilen davon (3) in einer Objektebene (21) der Kamera (2) diffus reflektiert wird, wobei - eine nichtverschwindende Differenz der Abstände von Kamera und Beleuchtungseinheit zur Objektebene (17) vorhanden ist, um eine Position der Hand oder Teilen davon (3) in Bezug auf den Schärfentiefenbereich (9) der Kamera (2) mittels eines Verfahrens zur Strukturgrößenermittlung in einem von der Kamera (2) aufgenommenen Bild zu bestimmen, und - eine Recheneinheit (29) zur Positionsberechnung mittels Strukturgrößenermittlung und zur Berechnung des Fingerabdruckbildes.Device for non-contact optical recording of the papillary structure of a hand (3) or parts thereof, comprising: - a recess (30) in the upper area of the device for recording fingerprints (4), which is used by a user for rough orientation of the correct hand positioning (31), - an illumination unit (1) for illuminating the hand or parts thereof (3) with structured light, a camera (2) for capturing light from the illumination unit (1) emitted by the hand or parts thereof (3) in an object plane (21 ) of the camera (2) is diffusely reflected, where - there is a non-vanishing difference in the distances from the camera and the lighting unit to the object plane (17) in order to determine a position of the hand or parts thereof (3) in relation to the depth of field (9) of the camera (2) by means of a method for determining the structure size in one of to determine the image captured by the camera (2), and - A computing unit (29) for calculating the position by means of determining the structure size and for calculating the fingerprint image. Vorrichtung nach Anspruch 1, wobei der Arbeitsabstand der Kamera (26) mindestens 50 mm und maximal 1500 mm beträgt.device after claim 1 , the working distance of the camera (26) being at least 50 mm and at most 1500 mm. Vorrichtung nach einem der Ansprüche 1 bis 2, wobei der Abstand (28) der Beleuchtungseinheit (1) zur Schärfentiebereich (9) der Kamera (2) mindestens 50 mm und maximal 1400 mm beträgt.Device according to one of Claims 1 until 2 , wherein the distance (28) of the lighting unit (1) to the focal range (9) of the camera (2) is at least 50 mm and at most 1400 mm. Vorrichtung nach Anspruch 1, wobei Strahlengänge der Beleuchtungseinheit (1) und der Kamera (2) entlang der optischen Achse (12) der Kamera (2) und der optischen Achse (11) der Beleuchtungseinheit (1) nicht-parallel ausgeführt sind.device after claim 1 , wherein optical paths of the lighting unit (1) and the camera (2) along the optical axis (12) of the camera (2) and the optical axis (11) of the lighting unit (1) are non-parallel. Vorrichtung nach Anspruch 4, wobei die Strahlengänge der Beleuchtungseinheit (1) und der Kamera (2) über Umlenkspiegel raumsparend gefaltet sind.device after claim 4 , wherein the beam paths of the lighting unit (1) and the camera (2) are folded to save space via deflection mirrors. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei die Beleuchtungseinheit (1) ein emittiertes Lichtspektrum aufweist, das im Bereich von 350 nm bis 1000 nm liegt.Device according to one of Claims 1 until 5 , wherein the lighting unit (1) has an emitted light spectrum which is in the range from 350 nm to 1000 nm. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei die Beleuchtungseinheit (1) einen 2D-Intensitätsmodulator mit vorgelagertem Objektiv und mit einem DLP-, LCD- oder LCoS-System aufweist.Device according to one of Claims 1 until 6 , wherein the lighting unit (1) has a 2D intensity modulator with an upstream lens and with a DLP, LCD or LCoS system. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei der 2D-Intensitätsmodulator der Beleuchtungseinheit (1) einen 2D-Intensitätsmodulator mit einem diffraktiven Element aufweist.Device according to one of Claims 1 until 6 , wherein the 2D intensity modulator of the lighting unit (1) has a 2D intensity modulator with a diffractive element. Vorrichtung nach einem der Ansprüche 1 bis 8, wobei die Beleuchtungseinheit (1) einen 2D-Intensitätsmodulator mit vorgelagertem Objektiv und mit einem starren, rotierenden oder translatorisch verschiebbaren Durchlichtbild aufweist.Device according to one of Claims 1 until 8th , wherein the lighting unit (1) has a 2D intensity modulator with an upstream lens and with a rigid, rotating or translationally displaceable transmitted light image. Vorrichtung nach einem der Ansprüche 1 bis 9, wobei zusätzlich ein Feedbackmodul (35) zur Ausgabe akustischer, haptischer oder visueller Signale oder Kombinationen davon vorhanden ist, mit dem einem Nutzer Informationen über die Aufnahme der Papillarstruktur von der Hand bei korrekter Handpositionierung (31) oder Korrekturvorschläge für die Beseitigung unkorrekter Handpositionierung im Sinne fehlerhafter Abstände (32) oder unkorrekter Handpositionierung im Sinne fehlerhafter Rotation (33) oder weitere Informationen zugänglich gemacht werden.Device according to one of Claims 1 until 9 , In addition, there is a feedback module (35) for outputting acoustic, haptic or visual signals or combinations thereof, with which a user receives information about the recording of the papillary structure from the hand with correct hand positioning (31) or correction suggestions for eliminating incorrect hand positioning in the sense faulty distances (32) or incorrect hand positioning in terms of faulty rotation (33) or other information can be made accessible. Vorrichtung nach Anspruch 10, wobei das Feedbackmodul (35) zur Erzeugung visueller Signale eine in der Vorrichtung zur Fingerabdruckaufnahme (4) integrierte Anzeigeeinheit (36) ist.device after claim 10 , wherein the feedback module (35) for generating visual signals is a display unit (36) integrated in the device for fingerprint recording (4). Vorrichtung nach Anspruch 10, wobei das Feedbackmodul (35) zur Erzeugung visueller Signale eine im oberen Bereich der Vorrichtung integrierte LED-Zeile ist.device after claim 10 , wherein the feedback module (35) for generating visual signals is an LED line integrated in the upper area of the device. Verfahren zum berührungslosen optischen Aufnehmen der Papillarstruktur einer Hand oder Teilen davon (3), bei der die Hand eines Nutzers in einem Tiefenmessbereich (24) der Vorrichtung zur Fingerabdruckaufnahme (4) positioniert wird, wobei der Nutzer durch eine Aussparung (30) des Gerätes diese Sollposition vorgegeben wird, enthaltend die Schritte: - Beleuchten der Hand oder Teilen davon (3) mit strukturiertem Licht einer Beleuchtungseinheit (1), wobei eine Differenz der Abstände von Kamera und Beleuchtungseinheit zur Objektebene (17) vorhanden ist, - Erfassen von strukturiertem Licht der Beleuchtungseinheit (1), das diffus von der Hand oder Teilen davon (3) reflektiert wird, mit der Kamera (2) als Bild eines Beleuchtungsmusters und Übermitteln des aufgenommenen Bildes an eine Recheneinheit (29), - Ermitteln der Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera (18) in der Recheneinheit (29), - Berechnen der Position der Hand oder Teilen davon (3) in der Recheneinheit (29) mittels Bildanalyse (34) aus Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera (18) bezüglich bekannter Strukturgröße auf dem Lichtmodulator (19), - Berechnen von Fingerabdruckbildern der Hand oder Teilen davon (3), falls sich deren Position vollständig im Schärfentiefenbereich (9) befindet.Method for non-contact optical recording of the papillary structure of a hand or parts thereof (3), in which the hand of a user is positioned in a depth measurement area (24) of the device for fingerprint recording (4), the user passing this through a recess (30) of the device target position is specified, containing the steps: - illuminating the hand or parts of it (3) with structured light from a lighting unit (1), with a difference in the distances between the camera and lighting unit and the object plane (17) being present, - detecting structured light of the Lighting unit (1), which is diffusely reflected by the hand or parts thereof (3), with the camera (2) as an image of an illumination pattern and transmitting the recorded image to a computing unit (29), - determining the structure size of the structured illumination on the Sensor of the camera (18) in the computing unit (29), - calculating the position of the hand or parts thereof (3) in the computing unit it (29) by means of image analysis (34) from structure size of the structured illumination on the sensor of the camera (18) with regard to known structure size on the light modulator (19), - calculating fingerprint images of the hand or parts thereof (3) if their position is entirely within the depth of field (9). Verfahren nach Anspruch 13, wobei - die Bestimmung der Strukturgröße der strukturierten Beleuchtung auf dem Sensor der Kamera (18) mittels Bildanalyse (34) im Frequenzraum stattfindet.procedure after Claim 13 , where - the structure size of the structured illumination is determined on the sensor of the camera (18) by means of image analysis (34) in the frequency domain. Verfahren nach Anspruch 13, wobei - die Bestimmung der korrekten Handpositionierung (31) mittels Bildanalyse (34) im Sinne fehlerhafter Abstände oder fehlerhafter Rotation der Hand (3) bezüglich der Kamera (2) stattfindet.procedure after Claim 13 , wherein - the correct hand positioning (31) is determined by means of image analysis (34) in terms of incorrect distances or incorrect rotation of the hand (3) with respect to the camera (2). Verfahren nach Anspruch 13, wobei - bei unkorrekte Handpositionierung im Sinne fehlerhafter Abstände (32) oder unkorrekte Handpositionierung im Sinne fehlerhafter Rotation (33) über ein Feedbackmodul (35) Korrekturanweisungen ausgegeben werden.procedure after Claim 13 , wherein - in the case of incorrect hand positioning in terms of faulty distances (32) or incorrect hand positioning in terms of faulty rotation (33), correction instructions are output via a feedback module (35).
DE102021111422.5A 2021-05-04 2021-05-04 Device and method for contactless recording of fingerprints and handprints Pending DE102021111422A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102021111422.5A DE102021111422A1 (en) 2021-05-04 2021-05-04 Device and method for contactless recording of fingerprints and handprints
JP2023567129A JP7693242B2 (en) 2021-05-04 2022-05-04 Device and method for contactless recording of fingerprints and handprints
US18/557,026 US12511945B2 (en) 2021-05-04 2022-05-04 Device and method for contactless recording of fingerprints and handprints
PCT/EP2022/062031 WO2022233964A1 (en) 2021-05-04 2022-05-04 Device and method for contactless recording of fingerprints and handprints
EP22727171.5A EP4334913A1 (en) 2021-05-04 2022-05-04 Device and method for contactless recording of fingerprints and handprints

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021111422.5A DE102021111422A1 (en) 2021-05-04 2021-05-04 Device and method for contactless recording of fingerprints and handprints

Publications (1)

Publication Number Publication Date
DE102021111422A1 true DE102021111422A1 (en) 2022-11-10

Family

ID=81877853

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021111422.5A Pending DE102021111422A1 (en) 2021-05-04 2021-05-04 Device and method for contactless recording of fingerprints and handprints

Country Status (5)

Country Link
US (1) US12511945B2 (en)
EP (1) EP4334913A1 (en)
JP (1) JP7693242B2 (en)
DE (1) DE102021111422A1 (en)
WO (1) WO2022233964A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022115810A1 (en) * 2022-06-24 2024-01-04 IDloop GmbH DEVICE FOR CONTACTLESS RECORDING OF BIOMETRIC DATA FROM SKIN AREAS

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023111938A1 (en) * 2023-05-08 2024-11-14 IDloop GmbH METHOD FOR CONTACTLESS CAPTURE OF BIOMETRIC DATA FROM BIOMETRIC FEATURES BY MEANS OF A CAPTURE DEVICE AND DEVICE FOR CONTACTLESS CAPTURE OF BIOMETRIC DATA FROM BIOMETRIC FEATURES
EP4468261A1 (en) * 2023-05-24 2024-11-27 AIT Austrian Institute of Technology GmbH Method for finger pose correction in 2d fingerprint images

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224064B1 (en) 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
US8391590B2 (en) 2010-03-04 2013-03-05 Flashscan3D, Llc System and method for three-dimensional biometric data feature detection and recognition
US8600123B2 (en) 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
US8953854B2 (en) 2012-08-08 2015-02-10 The Hong Kong Polytechnic University Contactless 3D biometric feature identification system and method thereof
CN104361315A (en) 2014-10-27 2015-02-18 浙江工业大学 3D (three-dimensional) fingerprint recognition device based on monocular and multi-view stereoscopic machine vision
US8971588B2 (en) 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
US9396382B2 (en) 2012-08-17 2016-07-19 Flashscan3D, Llc System and method for a biometric image sensor with spoofing detection
US9734381B2 (en) 2014-12-17 2017-08-15 Northrop Grumman Systems Corporation System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors
WO2018073335A1 (en) 2016-10-19 2018-04-26 Smart Secure Id In Sweden Ab System and method for contactless biometric authentication
KR20190097706A (en) 2018-02-13 2019-08-21 위드로봇 주식회사 Apparatus and method for contactless fingerprint recognition
US10460145B2 (en) 2017-05-10 2019-10-29 Idemia Identity & Security France Device for capturing imprints
DE102019126419A1 (en) 2019-05-08 2020-11-12 Docter Optics Se Device for the optical imaging of features of a hand
US10885297B2 (en) 2016-08-11 2021-01-05 Thales Dis France Sa Non-contact capture device for capturing biometric data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01287785A (en) * 1988-05-16 1989-11-20 Fujitsu Ltd Irregular shape detecting device
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP4403053B2 (en) * 2004-11-12 2010-01-20 三菱電機株式会社 Fingerprint reader
JP4298644B2 (en) 2004-12-17 2009-07-22 三菱電機株式会社 Fingerprint verification device, fingerprint verification method, fingerprint verification program, and fingerprint registration device
JP2006189917A (en) * 2004-12-28 2006-07-20 Olympus Corp Mobile information terminal
JP4308220B2 (en) 2006-04-24 2009-08-05 富士通株式会社 Personal recognition device
US20080107309A1 (en) * 2006-11-03 2008-05-08 Cerni Consulting, Llc Method and apparatus for biometric identification
US8660324B2 (en) * 2010-03-29 2014-02-25 Raytheon Company Textured pattern sensing using partial-coherence speckle interferometry
WO2012041826A1 (en) * 2010-09-28 2012-04-05 Icognize Gmbh Method and device for the non-contact detection of biometric features
US8340456B1 (en) * 2011-10-13 2012-12-25 General Electric Company System and method for depth from defocus imaging
JP5949912B2 (en) 2012-05-22 2016-07-13 富士通株式会社 Biological information processing apparatus, biological information processing method, and program
JP2017093904A (en) * 2015-11-26 2017-06-01 シャープ株式会社 Imaging device and biometric authentication device
JP6801434B2 (en) * 2016-12-20 2020-12-16 富士通株式会社 Bioimage processing device, bioimage processing method and bioimage processing program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224064B1 (en) 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
US8391590B2 (en) 2010-03-04 2013-03-05 Flashscan3D, Llc System and method for three-dimensional biometric data feature detection and recognition
US8600123B2 (en) 2010-09-24 2013-12-03 General Electric Company System and method for contactless multi-fingerprint collection
US8971588B2 (en) 2011-03-30 2015-03-03 General Electric Company Apparatus and method for contactless high resolution handprint capture
US8953854B2 (en) 2012-08-08 2015-02-10 The Hong Kong Polytechnic University Contactless 3D biometric feature identification system and method thereof
US9396382B2 (en) 2012-08-17 2016-07-19 Flashscan3D, Llc System and method for a biometric image sensor with spoofing detection
CN104361315A (en) 2014-10-27 2015-02-18 浙江工业大学 3D (three-dimensional) fingerprint recognition device based on monocular and multi-view stereoscopic machine vision
US9734381B2 (en) 2014-12-17 2017-08-15 Northrop Grumman Systems Corporation System and method for extracting two-dimensional fingerprints from high resolution three-dimensional surface data obtained from contactless, stand-off sensors
US10885297B2 (en) 2016-08-11 2021-01-05 Thales Dis France Sa Non-contact capture device for capturing biometric data
WO2018073335A1 (en) 2016-10-19 2018-04-26 Smart Secure Id In Sweden Ab System and method for contactless biometric authentication
US10460145B2 (en) 2017-05-10 2019-10-29 Idemia Identity & Security France Device for capturing imprints
KR20190097706A (en) 2018-02-13 2019-08-21 위드로봇 주식회사 Apparatus and method for contactless fingerprint recognition
DE102019126419A1 (en) 2019-05-08 2020-11-12 Docter Optics Se Device for the optical imaging of features of a hand

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022115810A1 (en) * 2022-06-24 2024-01-04 IDloop GmbH DEVICE FOR CONTACTLESS RECORDING OF BIOMETRIC DATA FROM SKIN AREAS

Also Published As

Publication number Publication date
JP7693242B2 (en) 2025-06-17
EP4334913A1 (en) 2024-03-13
US12511945B2 (en) 2025-12-30
JP2024518920A (en) 2024-05-08
US20240221431A1 (en) 2024-07-04
WO2022233964A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
EP3557523B1 (en) Method for generating a correcting model of a camera for correcting an imaging error
DE69434770T2 (en) Ophthalmological instrument for determining the topography of the cornea
EP4334913A1 (en) Device and method for contactless recording of fingerprints and handprints
EP1386141B1 (en) Method and device for examining an object in a contactless manner, especially for examining the surface form of the same
DE69526931T2 (en) ELECTRONIC PALM READER WITH A LEVEL CONTACT SURFACE
EP2079981B1 (en) Device and method for the contactless detection of a three-dimensional contour
EP2188661B1 (en) Method and illumination device for optical contrast enhancement
EP0419936B1 (en) Process and apparatus for the phase indication of radiation, especially light radiation
EP2863167B1 (en) Method and device for measuring the deflection of light beams by an object structure or a medium
DE102010040518A1 (en) Image recording device, image display method and recording medium, and image recording program recorded thereon
EP1693781B1 (en) Process and arrangement for optical recording of biometric fingerdata
CH692873A5 (en) Device and method for the geometric calibration of CCD cameras.
EP2093557A2 (en) Method and device for determining the contact angle from the drop curvature radius by measuring the optical distance
DE112009000516T5 (en) Intra-oral imaging system and method based on conoscopic holography
DE102016217628B4 (en) A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system
DE102014216390A1 (en) projector
EP2635872A1 (en) Device and method for the optical 3d measurement of surfaces
DE19757106A1 (en) Topometer for reflecting surfaces
EP3433669B1 (en) Method and device for the determination of 3d-coordinates of at least one predetermined point of an object
DE3789901T2 (en) DISTANCE MEASUREMENT BY DIFFERENTIATION.
DE102010029627B4 (en) Apparatus and method for determining the structure of a specular surface of an object
DE102020123387A1 (en) IMAGE DETECTION DEVICE, PULSED LIGHTING DEVICE, AND PULSED LIGHTING METHOD
WO2014114663A1 (en) Optical device and method for determining spatial coordinates of surfaces of macroscopic objects by triangulating two line-scan cameras
WO2011116761A1 (en) Method for detecting biometric features
DE2930193A1 (en) Medical visual examination instrument - has light source with optical fibre and lens system magnifying image for TV camera

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LEOBLU PATENTANWAELTE ROLINEC WINTER PARTG MBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009280000

Ipc: G06V0030144000

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: IDLOOP GMBH, DE

Free format text: FORMER OWNER: REINHOLD, BERND, DR. RER. NAT. , 07749 JENA, DE