[go: up one dir, main page]

DE102020201097A1 - Anordnung und Verfahren zur optischen Objektkoordinatenermittlung - Google Patents

Anordnung und Verfahren zur optischen Objektkoordinatenermittlung Download PDF

Info

Publication number
DE102020201097A1
DE102020201097A1 DE102020201097.8A DE102020201097A DE102020201097A1 DE 102020201097 A1 DE102020201097 A1 DE 102020201097A1 DE 102020201097 A DE102020201097 A DE 102020201097A DE 102020201097 A1 DE102020201097 A1 DE 102020201097A1
Authority
DE
Germany
Prior art keywords
image
measurement
radiation
image sensor
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020201097.8A
Other languages
English (en)
Other versions
DE102020201097B4 (de
Inventor
Aksel Göhnermeier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102020201097.8A priority Critical patent/DE102020201097B4/de
Priority to US17/162,758 priority patent/US11933597B2/en
Publication of DE102020201097A1 publication Critical patent/DE102020201097A1/de
Application granted granted Critical
Publication of DE102020201097B4 publication Critical patent/DE102020201097B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Anordnung (10) zum optischen Objektvermessen, mit:
- wenigstens einer Strahlungserzeugungseinrichtung (21), die dazu eingerichtet ist, elektromagnetische Strahlung auf das Objekt (22) einzustrahlen;
- einer Erfassungseinrichtung (12) mit einem Bildsensor (14), die dazu eingerichtet ist, durch Belichten des Bildsensors (14) mit von dem Objekt (22) zurückgeworfener Strahlung ein Messbild zu erfassen, und die ferner dazu eingerichtet ist, eine Fokuseinstellung (D) während der Belichtung zu variieren;
- einer Auswerteeinrichtung (26), die dazu eingerichtet ist, anhand des erfassten Messbilds Koordinaten von wenigstens einem Ort (O1, O2) des Objekts (22) zu ermitteln.
Ferner betrifft die Erfindung ein Verfahren zum optischen Objektvermessen und das Verwenden einer Erfassungseinrichtung (16) zum optischen Objektvermessen.

Description

  • Die Erfindung betrifft eine Anordnung und ein Verfahren zum optischen Objektvermessen. Genauer gesagt betrifft die Erfindung eine Vorrichtung und ein Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung. Insbesondere betrifft die Erfindung das Erfassen einer Objektoberfläche zum Bestimmen von Objektkoordinaten, beispielsweise mittels zumindest eines Laserscanners und vorzugsweise eines Laserlinienscanners.
  • Es ist bekannt, Objektoberflächen zum Beispiel von industriell hergestellten Werkstücken mittels optischer Sensoren (d.h. berührungslos) zu erfassen. Hierdurch können Daten gewonnen werden, um die Objektoberfläche zu vermessen und/oder abzubilden. Das Vermessen umfasst typischerweise ein Vermessen der Objektoberfläche in deren Tiefendimension (zum Beispiel einer sogenannten Z-Dimension) und/oder allgemein das Bestimmen von dreidimensionalen Eigenschaften der Objektoberfläche. Insbesondere können durch das Vermessen Informationen zu einem Abstand zwischen dem Objekt und dem optischen Sensor ermittelt werden und die gewonnenen Messwerte können in Form sogenannter 3D-Punktwolken zusammengefasst werden. Im Ergebnis können somit die dreidimensionalen Eigenschaften und insbesondere die räumlichen Koordinaten einer Objektoberfläche bestimmt werden, zum Beispiel deren Form. Insbesondere können die Messwerte verwendet werden, um Abmessungen und geometrische Größen (wie Durchmesser oder Breite) zu bestimmen, die Ergebnisse mit Vorgaben zu vergleichen und zu bewerten, Eigenschaften des Objektes zu berechnen (zum Beispiel Qualitätsparameter) und/oder um eine dreidimensionale grafische Darstellung des Objekts zu erzeugen und/oder um das Objekt auch ohne eine CAD-Zeichnug zu duplizieren (sog. Reverse engineering).
  • Zum Vermessen der Objektoberfläche kommen optische Sensoren zum Einsatz. Eine Art von optischen Sensoren sind Lasersensoren, die Laserstrahlung aussenden, auf die Objektoberfläche richten (d.h. auf das Objekt einstrahlen) sowie einen von der Objektoberfläche zurückgeworfenen (d. h. reflektierten und/oder gestreuten) Strahlungsanteil erfassen. Die ausgesendete Strahlung wird dabei typischerweise relativ zu und entlang der Objektoberfläche bewegt, um Letztere berührungslos abzutasten. Vorrichtungen mit einem solchen Lasersensor werden auch als Laserscanner bezeichnet. Die Relativbewegung zwischen Strahlung und Objekt kann durch ein Bewegen des Lasersensors erzielt werden, was automatisch, maschinell gestützt und/oder durch manuelles Bewegen eines Lasersensor-Handgeräts realisiert werden kann. Zusätzlich oder alternativ können bewegliche Optiken vorgesehen sein, die zum Beispiel mittels beweglicher Spiegel die Strahlung entlang der Objektoberfläche führen.
  • Lasersensoren bzw. Laserscanner senden elektromagnetische Strahlung in Form von Laserstrahlung mit typischerweise lediglich einer einzigen definierten Wellenlänge oder einem einzigen definierten Wellenlängenbereich aus. Auf der Objektoberfläche bildet die auftreffende Strahlung einen Messbereich, der zum Beispiel punkt- oder linienförmig sein kann. Der Messbereich enthält in der Regel mehrere Messpunkte (d.h. Orte), die auf der Objektoberfläche liegen und für die jeweils ein Messwert ermittelt werden soll. Von der Objektoberfläche (bzw. von den Messpunkten) wird die auftreffende Laserstrahlung reflektiert und/oder gestreut und von einer geeigneten Erfassungseinrichtung des Sensors erfasst (z. B. umfassend eine Kamera).
  • In an sich bekannter Weise kann daraufhin als Abstandsinformation ein Abstand (oder auch Z-Wert) zwischen der Erfassungseinrichtung und der Objektoberfläche bestimmt werden. Dies kann unter Anwenden von Triangulationsprinzipien erfolgen. In Kenntnis von z. B. einer Position des Laserscanners, einer aktuellen Stellung einer etwaigen beweglichen Optik hiervon und/oder einer Position eines aktuell vermessenen Messpunkts auf der Objektoberfläche (zum Beispiel in der horizontalen bzw. X-Y-Raumebene) können ferner die vollständigen 3D-Koordinaten des vermessenen Punktes auf der Objektoberfläche ermittelt werden. Die für eine Objektoberfläche auf diese Weise insgesamt ermittelten Informationen können zu einem 3D-Datensatz oder einer bereits erwähnten 3D-Punktewolke zusammengefasst werden. Übergeordnet können z.B. basierend auf den Abstandsinformationen auch Tiefeninformationen der Objektoberfläche ermittelt werden, zum Beispiel in einem Objektkoordinatensystem. Von Tiefeninformation kann insbesondere dann gesprochen werden, wenn sich die Objektoberfläche wie üblich quer zur Ausbreitungsrichtung der Strahlung erstreckt, die auf die Objektoberfläche auftrifft und von der Objektoberfläche reflektiert und/oder gestreut wird.
  • Ein Beispiel für das Erstellen eines dreidimensionalen Modells einer Umgebung mittels Laserscanning findet sich in der DE 10 2015 214 857 A1 . Auch in diesem Fall entsteht eine diskrete Menge von Messwerten für Abtastpunkte (bzw. Messpunkte), die als Punktwolke bezeichnet wird. Die Koordinaten der gemessenen Punkte werden aus den Winkeln und der Entfernung in Bezug zu einem Ursprung ermittelt, wobei als Ursprung der Standort des Laserscanners betrachtet werden kann.
  • Messanordnungen der vorstehenden Art umfassen typischerweise eine Projektionseinrichtung (oder auch Strahlungserzeugungseinrichtung) zum Aussenden elektromagnetischer Strahlung und eine Erfassungseinrichtung mit einer Optik (mit z.B. wenigstens einer (Objektiv-) Linse) und mit einem Bildsensor (z.B. einem CCD- oder CMOS-Sensor).
  • Es ist bekannt, dass zum Erhalten scharfer Abbildungen (d.h. zum Erfassen scharfer Bilder) in der Regel die sogenannte Scheimpflug-Bedingung einzuhalten ist. Hierzu müssen sich die Ebene des Bildsensors, der Linse und des Objekts (wie durch die Projektionseichrichtung festgelegt) in einem gemeinsamen Punkt schneiden. Beispielhaft gezeigt ist dies für optische Objektvermessung und genauer gesagt eine Laser-Triangulation in der DE 41 21 538 A1 und dort insbesondere in Zusammenhang mit den 3a/3b und 4. Weitere Hintergründe zur Scheimpflug-Bedingung für den vorliegenden Anwendungsfall finden sich in der US 5 627 635 A .
  • Zusammengefasst erfordert die zum Erhalten scharfer Abbildungen einzuhaltende Scheimpflug-Bedingung, dass der Bildsensor, das Objekt bzw. die Projektionseinrichtung und die Optik in einer spezifischen Weise relativ zueinander ausgerichtet sind.
  • Bei realen Messaufgaben kann es bspw. aufgrund von Oberflächenunebenheiten oder Bauteiltopografien erforderlich sein, die von der Projektionseinrichtung ausgestrahlte Strahlung in einer vorbestimmten Weise und insbesondere mit einer vorbestimmten Richtung auf das Objekt zu richten. Andernfalls können bestimmte Oberflächenbereiche nicht bestrahlbar bzw. verdeckt sein. Ändert man aber die Ausrichtung der Projektionseinrichtung entsprechend, müssen zum Einhalten der Scheimpflug-Bedingung auch die Ausrichtungen von Bildsensor und/oder Optik geeignet angepasst werden.
  • In den vorstehend geschilderten Lösungen DE 41 21 538 A1 und US 5 627 635 A erfolgt dies über mechanische Stellmechanismen, bei denen zum Beispiel der Bildsensor je nach Ausrichtung der Projektionseinrichtung verkippt wird. Alternativ oder zusätzlich kann auch das Objekt zum Beispiel mittels Messtischaktoren relativ zu der Projektions- und Erfassungseinrichtungen verkippt werden.
  • Derartige Lösungen, bei denen Ausrichtungen der relevanten Komponenten zum Einhalten der Scheimpflug-Bedingung aktiv angepasst werden, zeichnen sich jedoch oftmals durch eine gewisse Störanfälligkeit, Ungenauigkeit und aufgrund der auszuführenden Bewegungen auch durch eine vergleichsweise lange Messdauer aus.
  • Eine Aufgabe der vorliegenden Erfindung ist es somit, optische Objektvermessungen zu verbessern, insbesondere hinsichtlich Genauigkeit, Geschwindigkeit und/oder Störanfälligkeit.
  • Diese Aufgabe wird durch eine Anordnung, eine Verwendung und ein Verfahren gemäß den beigefügten unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben. Die in der einleitenden Beschreibung erwähnten Merkmale und Erläuterungen können, einzeln oder in beliebiger Kombination, auch bei der vorliegend offenbarten Lösung vorgesehen sein beziehungsweise auf diese zutreffen, sofern nicht anders angegeben oder ersichtlich.
  • Erfindungsgemäß wurde erkannt, dass eine Möglichkeit zum Begrenzen oder sogar gänzlichen Ausräumen aktiver Ausrichtungs-Anpassungen der relevanten Anordnungskomponenten insbesondere dann besteht, wenn auf das Erfordernis des besonders präzisen Einhaltens der Scheimpflug-Bedingung verzichtet wird.
  • So ist es beispielsweise bei herkömmlichen Fotoapparaten oder Kameras der Fall, dass die Scheimpflug-Bedingung vernachlässigt werden kann, sobald die Schärfentiefe der abbildenden Optik hinreichend groß ist und den Bereich abdeckt, den die Laserprojektionsebene im Sehfeld der Optik durchläuft.. Allgemein kann unter der Schärfentiefe derjenige Bereich des Objektraums verstanden werden, der in einem erfassten Bild hinlänglich scharf abgebildet wird (der z.B. eine gewünschte Mindestanzahl von Linienpaaren pro Millimeter scharf abbildet). Nachteilig hier ist allerdings, dass mit größerer Schärfentiefe auch die optische Auflösung der Abbildung abnimmt und somit die Messgenauigkeit in Mitleidenschaft gezogen wird.
  • Ein möglicher Ansatz wäre, zum Beispiel mittels Auto-Fokus-Ansätzen einen Fokusabstand einer Objekt-Erfassungseinrichtungen je nach aktuell zu erfassendem Objektbereich (insbesondere je nach aktuellem Abstand zur Objektoberfläche) anzupassen. Somit könnte der entsprechende Objektbereich trotz verringerter Schärfentiefe mit weiterhin hoher Auflösung dann stets scharf abgebildet werden, auch wenn die Scheimpflug-Bedingung im engeren Sinne nicht erfüllt ist.
  • Das Verwenden von Auto-Fokusansätzen ist jedoch wenig praktikabel, da dies erneut störanfällig ist und eine gewisse Dauer bis zum Einstellen eines korrekten Fokusabstandes erfordert. Insbesondere beim Vermessen großer Werkstücke, die mittels einer bevorzugt unterbrechungsfreien Relativbewegung von Erfassungseinrichtungen und Werkstück scannend erfasst werden soll, ist dies nicht sinnvoll integrierbar.
  • Stattdessen wurde erfindungsgemäß erkannt, dass eine Fokuseinstellung der Erfassungseinrichtungen im Rahmen einer einzelnen Bildaufnahme und genauer gesagt während eines einzelnen Bildsensor-Belichtungsvorgangs (oder, mit anderen Worten, zeitlich parallel hierzu) vorteilhafterweise variiert werden kann. Dann erhält man ein sogenanntes Fokusscanbild (oder auch SSFS-Bild, „Single-Shot Focus Scanning“). In diesem Fall wird während der Bildaufnahme (also während einer andauernden unterbrechungsfreien Belichtung) eine Fokuseinstellung der Bilderfassungseinrichtung variiert, insbesondere der Arbeitsabstand. Hintergründe zu derartigen Bilderfassungen finden sich im folgenden wissenschaftlichen Artikel: „Imaging properties of extended depth of field microscopy through single-shot focus scanning“, Lu et al., OPTICS EXPRESS 10731, 20. April 2015, doi: 10.1364/OE.23.010714.
  • Allgemein kann eine hierin erläuterte Belichtung umfassen, dass von dem Bildsensor erfasste Werte (insbesondere Intensitäten) aufgezeichnet werden und, genauer gesagt, abgespeichert werden, zum Beispiel als Bestandteil einer Bilddatei. Es erfolgt also keine temporäre Aufzeichnung und/oder Aufzeichnung ohne schlussendlich erzeugte Bilddatei, wie sie zum Beispiel zu einer (vorzugsweisen Echtzeit) Widergabe eines aktuellen Bildausschnitts auf eine Anzeigeeinrichtung in Vorbereitung der eigentlichen Bilderfassung erfolgen könnte.
  • Anders ausgedrückt kann unter einer mit Erfassung hierin das Erzeugen und Abspeichern einer anschließend abrufbaren Bilddatei verstanden werden und kann die Belichtung zwecks Erzeugen dieser Bilddatei stattfinden. Dabei wird ein und dieselbe Bilddatei auf Basis unterschiedlicher Fokuseinstellungen erzeugen, d. h. fließen in einen jeden während einer Belichtung erzeugten Pixelwert Informationen bzw. Messsignale und/oder Belichtungsanteile ein, die mit bzw. bei wenigstens zwei unterschiedliche Fokuseinstellungen erfasst (und/oder aufgezeichnet) wurden. Die bei einer jeden Fokuseinstellung erfassten Strahlungs- und/oder Intensitätswerte überlagern sich also in der schlussendlich erzeugten Bilddatei. Auch dies unterscheidet sich von einer Echtzeitwiedergabe, bei der stets ausschließlich der bei einer aktuell erfassten Fokuseinstellung aufgezeichnete Intensitätswert angezeigt und anschließend wieder verworfen wird.
  • Dies unterschiedet die vorgestellte Lösung von nachträglichen Bildbearbeitungsverfahren wie dem Fokus-Stacking, bei dem zeitlich getrennt aufgenommene Bilder kombiniert werden, die mit unterschiedlichen Fokuseinstellungen aufgenommen wurden. Letzteres geschieht zudem unter künstlerischen Gesichtspunkten und nicht wie vorliegend für Objektvermessungen und insbesondere nicht für eine Triangulation bzw. dem Ermitteln von Tiefeninformationen.
  • Es existieren Bearbeitungsalgorithmen, die ebenfalls in diesem Artikel und in den dort zitierten Referenzen erläutert werden, um anhand eines oben erläuterten Fokusscanbildes ein Bild mit einer erhöhten Schärfentiefe zu erzeugen (hierin als Messbild bezeichnet) und, genauer gesagt, ein solches Bild zu berechnen.
  • Oftmals werden derartige resultierende bzw. berechnete Bilder mit erhöhter Schärfentiefe als EDOF-Bilder (Enhanced Depth of Field) bezeichnet. Klassischerweise werden EDOF-Bilder aber aus mehreren Einzelaufnahmen erzeugt, bei denen sich die Fokuseinstellungen der Einzelaufnahmen voneinander unterscheiden. Eine derartige sukzessive Aufnahme mehrerer Bilder hintereinander erfordert wiederum eine gewisse Messdauer, die für scannende Objektauffassungen ungeeignet sein kann.
    Wie erwähnt, wird erfindungsgemäß bevorzugt keine Mehrzahl von Einzelbildern erfasst und ausgewertet, sondern es erfolgt eine einzelne Bildaufnahme zur Erzeugung einer einzelnen Bilddatei, bei der jedoch die Fokuseinstellung variiert wird (d.h. die Fokusebene während der laufenden Belichtung und Bilderfassung über einen Scanbereich oder auch eine Scantiefe variiert wird). Mit modernen Optiken (z.B. umfassend ein MEMS-Spiegelarray oder eine akustooptische Linse), wie erneut in dem vorstehenden Artikel geschildert, können auch bei einer scannenden Objekterfassung ausreichend hohe Fokussiergeschwindigkeiten bzw. Variationsgeschwindigkeiten der Fokuseinstellung bereitgestellt werden.
  • Mit einer entsprechenden Bildaufnahme wird die Wahrscheinlichkeit erhöht, dass die relevante Schärfe- bzw. Tiefeninformation in der Aufnahme enthalten ist. Diese kann dann mittels bekannter Bildauswertealgorithmen zum Ermitteln eines Bilds mit erhöhter Schärfentiefe ermittelt und/oder verwendet werden. Anders ausgedrückt wird die Wahrscheinlichkeit erhöht, dass die für eine scharfe Abbildung zutreffende Fokuseinstellung bei der Bildaufnahme ebenfalls durchlaufen wird und in die erfasste Aufnahme einfließt.
  • Es muss also nicht von vornherein auf eine ausreichend scharfe Abbildung durch zwingendes Einhalten der Scheimpflug-Bedingung oder durch Vornahme von vornherein korrekter (Auto-) Fokuseinstellungen geachtet werden. Stattdessen können derartige Anforderungen sozusagen umgangen werden.
  • Erfindungsgemäß und in Abgrenzung von bisherigen optischen Objektvermessungen und insbesondere bisherige Laser-Triangulationen kann also vorgesehen sein, eine optische Objektvermessung mittels Erfassen eines Fokusscanbildes durchzuführen. Es kann dann darauf verzichtet werden, auf ein präzises Einhalten der Scheimpflug-Bedingung zu achten und insbesondere deren Einhaltung durch fortlaufendes Anpassen der Ausrichtungen der relevanten Komponenten zu gewährleisten.
  • Dies vereinfacht den Systemaufbau, verringert die Komplexität und kann folglich auch die Störanfälligkeit reduzieren. Gleichzeitig kann, insbesondere durch das bevorzugte rechnerische bzw. aufnahmetechnische Ermitteln eines Messbildes mit erhöhter Schärfentiefe, eine ausreichende Messgenauigkeit gewährleistet werden. Weiter wird eine hohe Messgeschwindigkeit erreicht und kann insbesondere ein zumindest abschnittsweise unterbrechungsfreies Abscannen einer Werkstückoberfläche erzielt werden. So kann erfindungsgemäß vorgesehen sein, die Geschwindigkeit der Fokusvariation höher als die Geschwindigkeit einer Scanbewegung (d.h. einer Verschiebungsbewegung) des Sensors relativ zum Werkstück zu wählen. Besonders effektiv lässt sich dies erreichen, wenn die Erfassungseinrichtung (insbesondere eine Optik hiervon) ein nachstehend erläutertes MEMS-Spiegelarray umfasst.
  • Im Detail wird eine Anordnung zum optischen Objektvermessen vorgeschlagen, mit:
    • - wenigstens einer Strahlungserzeugungseinrichtung (oder, alternativ ausgedrückt, einer Strahlungsquelle oder Projektionseinrichtung), die dazu eingerichtet ist, elektromagnetische Strahlung auf das Objekt einzustrahlen (oder, alternativ ausgedrückt, auf das Objekt zu projizieren);
    • - einer (Objekt-) Erfassungseinrichtung mit einem Bildsensor, die dazu eingerichtet ist, durch Belichten des Bildsensors mit von dem Objekt (insbesondere in Richtung der Erfassungseinrichtung) zurückgeworfener Strahlung (d. h. reflektierter und/oder gestreuter Strahlung und, genauer gesagt, mit einem von dem Objekt reflektierten / gestreuten Strahlungsanteil der eingestrahlten Strahlung) ein Messbild (und genauer gesagt ein Fokusscanbild oder SSFS-Bild) zu erfassen, und die ferner dazu eingerichtet ist, eine Fokuseinstellung (z.B. die Lage einer Bildebene oder Objektebene und/oder eine Brennweite und/oder einen Fokusabstand) während der Belichtung insbesondere eines Einzelbildes (d. h. einer einzelnen zu erzeugenden Bilddatei) zu variieren;
    • - einer Auswerteeinrichtung, die dazu eingerichtet ist, anhand des erfassten Messbilds Koordinaten von wenigstens einem Ort des Objekts zu ermitteln.
  • Die Strahlungserzeugungseinrichtung kann eine Strahlquelle und/oder eine Strahlungsformungsoptik umfassen. Bei der elektromagnetischen Strahlung kann es sich um Laserstrahlung mit einer definierten Wellenlänge oder einem definierten Wellenlängenspektrum handeln. Insbesondere kann die eingestrahlte Strahlung monochrom (d. h. lediglich eine Wellenlänge enthalten) und/oder zumindest innerhalb eines Messbereichs der Vorrichtung kohärent sein. Allgemein können von der Strahlungserzeugungseinrichtung erzeugte Wellenlängenbereiche im Fall monochromer Strahlung somit lediglich eine einzige Wellenlänge umfassen.
  • Als Strahlquelle kommt insbesondere eine Laserdiode (oder auch ein Diodenlaser) in Betracht. Diese kann stabilisiert sein und/oder einen externen Resonator umfassen. Die Kohärenzlänge der Laserdiode kann mehrere Zentimeter oder auch wenigstens 1 m betragen.
  • Die eingestrahlte Strahlung kann auf dem Objekt in an sich bekannter Weise einen Messbereich definieren, der punktförmig, linienförmigen oder flächig sein kann. Der Messbereich kann dann auch mit einer entsprechenden Form auf der Objektoberfläche abgebildet bzw. aufprojiziert werden. Für innerhalb des Messbereichs liegende Punkte (Messpunkte) der Objektoberfläche können die erwähnten Koordinaten ermittelt werden.
  • Beispielsweise kann ein (bevorzugt gradliniges) linienförmiges und/oder eindimensionales Messfeld durch eine Aneinanderreihung einzelner Messpunkte definiert sein bzw. gebildet werden. Die Breite eines solchen Messfelds kann eine Größe bzw. einen Durchmesser der Messpunkte nicht oder nur geringfügig überschreiten. Anders ausgedrückt können entlang oder, mit anderen Worten, in Längsrichtung des Messfelds nur einzelne Messpunkte vorliegen, ohne dass beispielsweise mehrere Messpunkte quer zu der Längsrichtung des Messfelds aneinandergereiht sind.
  • Bevorzugt ist vorgesehen, dass für die Messpunkte auf der Objektoberfläche im Wesentlichen gleichzeitig Messwerte erzeugt und genauer gesagt Koordinaten ermittelt werden. Ein Bereich der Objektoberfläche, der von dem Messbereich abgedeckt ist, ist dann im Wesentlichen in einem einzigen Schritt vermessbar.
  • Die Messpunkte (oder auch Abtastpunkte) können allgemein diejenigen Stellen oder Orte im Messfeld und somit auf der Objektoberfläche sein, an denen oder, anders ausgedrückt, für die ein Messwert erzeugt werden soll. Der Messwert kann ein Abstandsmesswert zwischen der Vorrichtung und der Objektoberfläche (z.B. in Form eines Z-Wertes oder einer Tiefeninformation) sein oder er kann die vollständigen Koordinaten dieses Orts angeben. Werden derartige Messwerte analog zu den Messpunkten im Messfeld angeordnet oder, anders ausgedrückt, in analoger Weise aneinandergereiht, kann darauf basierend der vermessene Bereich der Objektoberfläche zum Beispiel grafisch abgebildet werden.
  • Der Bildsensor kann alternativ als fotosensitive oder bildgebende Einheit der Erfassungseinrichtung bezeichnet werden. Allgemein kann die Erfassungseinrichtung wenigstens eine Kamera (insbesondere eine digitale Kamera) umfassend den Bildsensor aufweisen. Beispielsweise kann der Bildsensor ein CCD- oder CMOS-Sensor sein. Zusätzlich oder alternativ kann er allgemein flächig ausgebildet sowie vorzugsweise in Zeilen und Spalten unterteilt sein.
  • Der Bildsensor kann mehrere Bildpunkte bzw. Pixel umfassen, für die zum Beispiel jeweils einzelne Intensitätswerte erfassbar sind. Die Bildpunkte können jeweils eine bestimmte Zeilen- und Spaltenposition aufweisen (oder, mit anderen Worten, definierte Zeilen- und Spaltenkoordinaten in einem Bild- oder Pixelkoordinatensystem). Als Intensitätswert kann die Intensität der erfassten zurückgeworfenen Strahlung aufgezeichnet werden.
  • Die Erfassungseinrichtung kann wenigstens einen optischen Filter aufweisen, um im Wesentlichen nur (oder zumindest überwiegend) Strahlung mit der Wellenlänge der eingestrahlten Strahlung auf den Bildsensor treffen zu lassen. Auf diese Weise können störende Einflüsse zum Beispiel von Umgebungslicht reduziert werden. Alternativ oder zusätzlich kann die fotosensitive Einheit monochrom ausgebildet sein und/oder lediglich einen begrenzten Wellenlängenbereich umfassend wenige zehnfache Nanometer erfassen (z.B. nicht mehr als 50 nm oder 100 nm). Dieser liegt dann vorzugsweise im Wellenlängenbereich der eingestrahlten elektromagnetischen Strahlung und/oder außerhalb des Wellenlängenbereichs von (insbesondere sichtbarem) Umgebungslicht.
  • Die Variation der Fokuseinstellung kann gemäß bekannter und einleitend geschilderter SSFS-Ansätze erfolgen. Insbesondere kann bei geöffneter Blende der Erfassungseinrichtung und/oder anhaltender Sensorbelichtung bzw. während der Belichtungszeitdauer die Fokuseinstellung variiert werden. Dies kann als das Abscannen eines gewissen Fokusbereichs bezeichnet werden, also als das Verschieben einer Fokusebene innerhalb eines und/oder über einen entsprechenden Scanbereich. Nachstehend wird deshalb auch statt von einer Variation der Fokuseinstellung von einem Fokusscannen gesprochen und auf entsprechende Scanbereiche Bezug genommen.
  • Auf diese Weise kann zunächst ein in der Regel unscharfes und kontrastarmes SSFS-Bild aufgenommen werden. Dieses kann dann zu einem Bild mit rechnerisch bzw. künstlich vergrößerter Tiefenschärfe umgerechnet bzw. bearbeitet werden. Das erhaltene, hierin als Messbild bezeichnete Bild kann deshalb auch als ein EDOF-Bild bezeichnet werden, auch wenn die anfängliche Erfassung des Ausgangsbildes (SSFS-Bild) nicht mittels klassischer EDOF-Ansätze erfolgt (z.B. nicht mit Erfassen einer Mehrzahl von unabhängigen Bildern, die jeweils mit unterschiedlichen Fokuseinstellungen aufgenommen und gezielt nach Schärfekriterien miteinander verrechnet wurden).
  • Die erfassten Objektortkoordinaten werden hierin auch als Messwert bezeichnet werden. Es handelt sich bevorzugt um räumliche (d. h. dreidimensionale) Koordinaten, zum Beispiel innerhalb eines karthesischen Koordinatensystems. Die Koordinaten können mittels bekannter Triangulationsalgorithmen ermittelt werden, beispielsweise auf Basis eines Bekannten (zum Beispiel konstruktiv festgelegten) Triangulationswinkels. Weiter kann ein nachstehend geschilderter Auftreffort auf dem Bildsensor zur Koordinatenermittlung bestimmt werden.
  • Allgemein kann die Auswerteeinrichtung wenigstens eine Prozessoreinrichtung und/oder wenigstens eine Speichereinrichtung umfassen. Sie kann digital und/oder elektronisch betreibbar sein und insbesondere dazu eingerichtet sein, Algorithmen und/oder Programmanweisungen zum Ausführen jeglicher hierin geschilderter Koordinatenermittlungen oder anderweitiger Messvorgänge durchzuführen. Sie kann mit z.B. der Erfassungseinrichtung in einem gemeinsamen Modul zusammengefasst sein. Alternativ kann sie separat bereitgestellt sein (zum Beispiel als ein separater Computer) und signalübertragend mit zumindest der Erfassungseinrichtung verbunden sein, zum Beispiel um von dieser die erfassten Intensitätswerte der zurückgeworfenen Strahlung zu erhalten.
  • Zumindest die Erfassungseinrichtung und die Strahlungserzeugungseinrichtung (optional aber auch die Auswerteeinrichtung, siehe oben) können in einem gemeinsamen Modul oder Gehäuse bereitgestellt sein, insbesondere in einem manuell oder maschinell handhabbaren Modul oder einem Handgerät, wie beispielsweise einem manuell handhabbaren Laserlinienscanner. Mit anderen Worten können die Erfassungseinrichtung und die Strahlungserzeugungseinrichtung bautechnisch zusammengefasst sein. Für eine maschinelle Handhabung (d. h. einen maschinengebundenen Einsatz zum Beispiel an einer Bewegungsvorrichtung oder einem Manipulator) kann ein solches Modul oder Gehäuse zum Beispiel an einer Messmaschine, einem Roboter oder einer Werkzeugmaschine angeordnet werden.
  • Insbesondere kann die Auswerteeinrichtung zum Anwenden von Triangulationsprinzipien dazu ausgebildet sein, einen Auftreffort der zurückgeworfenen Strahlungsanteile je Messpunkt auf dem Bildsensor zu ermitteln (z.B. rechnerisch per Gauß-Fit als Ort der maximalen Intensität oder auch als sogenannter „Peak“). Ein projiziertes bzw. eingestrahltes Messfeld zum Beispiel in Form einer Linie kann in einer ersten Dimension (z.B. Spaltenrichtung) auf dem Bildsensor abgebildet werden, wobei ein einzelner Messpunkt einer einzelnen Position in einer zweiten Dimension (z.B. Zeilenposition) entlang dieser Linie entsprechen oder, anders ausgedrückt, auf eine einzelne Zeilenposition abgebildet werden kann. Alternativ kann die Linie auch in Zeilenrichtung abgebildet werden und der Messpunkt eine Spaltenposition aufweisen. Entlang der jeweiligen Dimension der Messpunktposition (also in Spalten- oder Zeilenrichtung) kann eine Intensitätsverteilung erfasst werden und kann der Auftreffort (z.B. als Pixelposition) insbesondere als vorstehend erwähnter Ort der maximalen erfassten Intensität innerhalb der Verteilung bestimmt werden.
  • Beim Erfassen der Objektoberflächen können mehrere Einzelaufnahmen mit aufprojiziertem Messfeld erfasst und ausgewertet werden (z.B. für jede Relativstellung bzw. -position von Messfeld und Objekt). Die Ergebnisse je Einzelaufnahme können dann z.B. zu einer 3D-Punktewolke zusammengesetzt werden.
  • In diesem Zusammenhang ist die hierin offenbarte Lösung auch dahingehend vorteilhaft, als dass der entsprechende Auftreffort präzise eingegrenzt werden kann. Dies gelingt durch Möglichkeiten zum rechnerischen Ermitteln eines Messbilds mit erhöhter Schärfentiefe aus dem zunächst erfassten unscharfen Fokusscanbild.
  • Eine Abbildung mit einer größtmöglichen Schärfe aber nicht zwingend erforderlich, solange der vorstehend erläuterte Auftreffort ausreichend genau bestimmbar ist. Allgemein gilt, dass je höher die Schärfe, desto enger begrenzt (d. h. steiler und/oder eine geringere Standardabweichung aufweisend) kann auch eine Intensitätsverteilung und insbesondere dessen Maximum bzw. Peak ausgebildet sein. Somit kann auch die Ermittlung des Auftrefforts mit maximaler Intensität präzise gelingen und kann eine höhere Robustheit gegenüber Rauschen vorliegen. Es ist aber auch möglich, mit einer begrenzten Abbildungsschärfe und unter Inkaufnahme gewisser Genauigkeitseinbußen eine zufriedenstellende Bestimmung dieses Auftreffortes vorzunehmen.
  • Übergeordnet kann die Erfassungseinrichtung dazu eingerichtet sein, einen Abstandswert zwischen Erfassungseinrichtung und Objekt als oder basierend auf einer erfassten Intensität (d. h. Strahlungsflussdichte) eines zurückgeworfenen (zum Beispiel reflektierten und/oder gestreuten) Strahlungsanteils zu erzeugen. Insbesondere kann diese Intensität über eine Belichtungszeitdauer aufintegriert werden, insbesondere parallel zum Verändern der Fokuseinstellung. In an sich bekannter Weise können aus diesem Abstandswert und zum Beispiel einem bekannten Ort der Erfassungseinrichtung dann die bevorzugt räumlichen Koordinaten ermittelt werden. Allgemein kann der Abstandswert mittels Triangulation bestimmt werden und eine Umrechnung auf räumliche Koordinaten darauf basierend erfolgen, insbesondere mittels Translations- und Rotationsrechnungen.
  • Allgemein kann die hierin vorgestellte Lösung (also die Anordnung, die Verwendung und das Verfahren) für eine Koordinatenmessung und/oder als bzw. in oder für ein Koordinatenmessgerät eingesetzt werden. In diesem Fall kann die Anordnung und zumindest die Erfassungseinrichtung relativ zu dem zu vermessenden Objekt bewegt werden, insbesondere um eine scannende Objektvermessung durchzuführen. Es ist aber auch möglich, dass die Relativbewegung durch Bewegen des Objekts durch einen (virtuellen) Messbereich der Anordnung bewegt wird oder dass beide von Anordnung und Objekt aktiv bewegt werden.
  • Insbesondere kann auch vorgesehen sein, die hierin vorgestellte Lösung im Rahmen sogenannter Inline-Messungen einzusetzen, bei denen Objekte z.B. innerhalb einer Fertigungslinie und/oder unter Beibehalten einer Förderbewegung relativ zu einer dann typischerweise feststehenden Anordnung der hierin geschilderten Art vermessen werden. Sämtliche hierin vorgestellten Aspekte sind nicht auf den Einsatz in Koordinatenmessgeräten oder bei Inline-Messungen beschränkt, können aber auf eine dieser Varianten eingegrenzt werden, da sie dort bevorzugt zum Einsatz kommen.
  • Gemäß einer Weiterbildung ist die Auswerteeinrichtung dazu eingerichtet, das Messbild zur Erhöhung der Schärfentiefe und/oder des Bildkontrastes (insb. digital) zu bearbeiten und insbesondere zu korrigieren. Diese Bearbeitung kann mittels an sich bekannter Bildauswertealgorithmen durchgeführt werden, also rechnerisch und/oder digital erfolgen. Insbesondere können Pixel- bzw. Intensitätswerte eines zunächst erfassten Bildes (Messbild) korrigiert und/oder angepasst werden. Beispielhafte Bearbeitungs- bzw. Auswertealgorithmen finden sich in den vorstehend genannten Artikel sowie den darin zitierten Referenzen.
  • Mit hohen Schärfentiefen können größere Bereiche des Objekts (insbesondere entlang einer optischen Achse und/oder orthogonal zur Objektoberfläche) genauer abgebildet und beispielsweise vermessen werden. Allgemein kann vorgesehen sein, dass das rechnerisch bzw. per Algorithmus erzeugte und insbesondere erhöhte Produkt aus Auflösung und Schärfentiefe größer ist als die mit der Erfassungseinrichtung theoretisch mögliche bzw. physikalisch erzielbare Schärfentiefe bei gleicher Auflösung, z.B. bei einer Einzelaufnahme. Insbesondere kann auf diese Weise auch ein vorstehend erläutertes EDOF-Bild erzeugt werden, das jedoch mittels einer SSFS-Bilderfassung erfasst wurde.
  • Unter einer Auflösung kann im Rahmen dieser Offenbarung allgemein die Anzahl einzelner Bildpunkte bzw. Pixel pro Länge oder Zeile der Bildebene.
  • Die schlussendliche Auswertung durch die Auswerteeinrichtung und somit die eigentliche Koordinatenermittlung kann dann auf Basis eines entsprechend bearbeiteten Messbilds erfolgen. Da darin insbesondere in einer Tiefenrichtung (d.h. orthogonal zur Objektoberfläche) mehr Informationen abgebildet sind, kann auch die Koordinatenermittlung über einen größeren Bereich entsprechend präzise erfolgen.
  • Im Rahmen der Bildbearbeitung kann auch das Vorgehen angewendet werden, das in einer parallelen Anmeldung der Anmelderin mit gleichem Anmeldetag und dem Titel „Bildbearbeitung zur Verbesserung der Schärfentiefe“ gelehrt wird. Insbesondere kann die in dieser weiteren Anmeldung geschilderte Korrekturfunktion verwendet werden, mit der eine besonders vorteilhafte Bildbearbeitung zur Erhöhung der Schärfentiefe und/oder des Bildkontrastes gelingt. Die entsprechende Offenbarung, insbesondere sämtliche dort geschilderten Details und Anwendungen dieser Korrekturfunktion, wird hierin per Bezugnahme aufgenommen.
  • Wie erwähnt, kann das Messbild dann aufgenommen werden, wenn die projizierte Strahlung (bzw. das hiervon auf der Objektoberfläche erzeugte Messfeld) eine erste Stellung relativ zu dem Objekt einnimmt. Im Rahmen einer scannenden Objekterfassung kann die Strahlung bzw. das Messfeld anschließend wenigstens eine weitere Stellung relativ zu dem Objekt einnehmen und kann dann ein weiteres Messbild erfasst werden.
  • Gemäß einer weiteren Variante ist die Auswerteeinrichtung ferner dazu eingerichtet, wenigstens einen Ort innerhalb des Messbildes mit einer erhöhten (insbesondere überdurchschnittlichen) Intensität der erfassten Strahlung zu ermitteln (insbesondere eine Mehrzahl entsprechende Orte entlang einer Dimension, entlang der das Messfeld im Messbild abgebildet wird). Insbesondere kann es sich bei dem Ort um einen Auftreffort auf dem Bildsensor handeln bzw. kann der Ort im Bild dem Auftreffort auf dem Bildsensor entsprechen.
  • In an sich bekannter Weise kann ein feststehender Zusammenhang zwischen Orten in einem erfassten Bild und Orten auf dem Bildsensor bestehen, zum Beispiel da sich das Bild aus in einem Pixelkoordinatensystem des Bildsensors ermittelten Pixelwerten zusammensetzen kann. Diese Orte können also einander fest zugeordnet sein bzw. einander entsprechen (ein spezifischer Bildort kann genau einem spezifischen Sensorort bzw. Auftreffort entsprechenden und umgekehrt)
  • Unter der erhöhten Intensität kann eine Intensität oberhalb eines Schwellenwerts und/oder oberhalb der durchschnittlich im Messbild vorliegenden Intensität verstanden werden. Der Schwellenwert kann unabhängig von einem konkret ermittelten Messbild vorgegeben sein und/oder allgemein feststehen. Alternativ kann der Schwellenwert flexibel ermittelt werden, z.B. als Durchschnittswert und/oder per Mittelung von Einzelintensitätswerten innerhalb des Messbildes. Insbesondere kann die erhöhte Intensität einer maximalen Intensität der erfassten Strahlung entsprechen. Dabei kann die Intensität auch lediglich in einer einzelnen Zeilen- und/oder Spaltenrichtung betrachtet werden.
  • Allgemein kann also bei der vorliegenden Lösung vorgesehen sein, Auftrefforte maximaler Intensität in wenigstens einer Dimension (z.B. Zeilen- oder Spaltenrichtung) eines erfassten Messbildes zu ermitteln und daraus jeweils wenigstens einen Koordinatenwert für einen Objektort zu ermitteln.
  • Weiter kann allgemein vorgesehen sein, dass die Bilderfassungseinrichtung wenigstens eine optische Linse umfasst (insbesondere eine Objektivlinse). Diese kann in an sich bekannter Weise zwischen dem Bildsensor und dem zu erfassenden Objekt angeordnet sein. Sie kann allgemein mit dem Bildsensor in einem gemeinsamen Gehäuse und/oder Modul angeordnet sein. Zwischen der optischen Linse und dem Bildsensor kann sich eine Blende bzw. ein mechanischer Verschluss / Shutter befinden. Wird diese geöffnet, wird der Bildsensor belichtet (bei geschlossener Blende unterbleibt die Belichtung entsprechend). Während der Belichtung kann der Bildsensor die vom Objekt zurückgeworfene eingestrahlte Strahlung erfassen. Die Steuerung der Belichtung kann alternativ oder zusätzlich auch elektronisch im Bildsensor erfolgen.
  • In diesem Zusammenhang (aber auch unabhängig hiervon) kann vorgesehen sein, dass der Bildsensor relativ zu der Projektionseinrichtung oder aber einer gegebenenfalls vorhandenen optischen Linse unbeweglich ist, zumindest während einer Objektvermessung und/oder Messbilderfassung. Anders ausgedrückt kann eine Relativausrichtung von Bildsensor und optischer Linse und/oder von Bildsensor und Projektionseinrichtung konstant sein.
  • Sofern hierin auf entsprechende (Relativ-) Ausrichtungen Bezug genommen wird, kann sich dies insbesondere auf die Ausrichtung während einer Objekterfassung (d.h. während eines Messvorgangs) oder aber während einer Bildaufnahme beziehen. Insbesondere können die hierin geschilderten Erläuterungen zu den Ausrichtungen der einzelnen Komponenten im Rahmen eines scannenden Abtastens von einem Objekt gelten.
  • Weiter kann unter der Ausrichtung der Projektionseinrichtung allgemein die Ausrichtung (insbesondere der Winkel) einer hiervon ausgesendeten elektromagnetischen Strahlung verstanden werden, z.B. relativ zu einer optischen Achse und/oder relativ zu einer orthogonal auf der Fläche des Bildsensors stehenden Achse.
  • Durch Beibehalten einer entsprechenden konstanten Ausrichtung kann auf Stellmechanismen und/oder Aktoren verzichtet werden, mit denen die Ausrichtung der genannten Komponenten aktiv einstellbar ist (insbesondere während eines laufenden Messvorgangs einstellbar ist). Dies vereinfacht den Systemaufbau. Ermöglicht wird dies durch die hierin offenbarte Bilderfassung, mit der das Einhalten der Scheimpflug-Bedingung und somit der hierfür erforderlichen spezifischen Relativausrichtung der relevanten Komponenten zueinander nicht mehr zwingend erforderlich ist. Stattdessen kann durch Aufnahme eines Bildes mit variierender Fokuseinstellung erreicht werden, dass für einen Objektort, für den die Koordinaten bestimmt werden sollen, die dazugehörige Fokusebene ebenfalls durchlaufen wird und somit eine dazugehörige Tiefen- bzw. Bildinformation in das erzeugte Messbild einfließt.
  • Zusammengefasst kann die hierin offenbarte Lösung frei von Aktorik sein, um die Ausrichtung der genannten Komponenten relativ zueinander zumindest während eines laufenden Messvorgangs (d.h. während der laufenden Objektvermessung) und/oder einer laufenden Messbilderfassung (d.h. Belichtung) zu ändern. Insbesondere kann zumindest eine der Komponenten (insbesondere der Bildsensor und/oder die Strahlungserzeugungseinrichtung) allgemein feststehen und/oder unbeweglich sein.
  • Insbesondere bevorzugt ist, dass die Komponenten (insbesondere der Bildsensor und die Strahlungserzeugungseinrichtung) in einem festen Verhältnis zueinander angeordnet sind, beispielsweise in einem festen Abstand und/oder mit einer festen Orientierung. Folglich kann eine Aktorik vorgesehen sein, welche die Komponenten unter Einhaltung des geschilderten festen Verhältnisses gemeinsam bewegt.
  • Ist eine Aktorik dennoch vorgesehen, z.B. zu Kalibrierzwecken oder als allgemeine Einstellmöglichkeit, kann diese während einer Objektvermessung und/oder einer Messbilderfassung nicht betätigt und/oder angesteuert werden. Insbesondere kann diese (zumindest im Rahmen einer einzelnen Messbilderfassung) die Ausrichtung des Bildsensors relativ zur Strahlungserzeugungseinrichtung und/oder optischen Linse unabhängig von den Erfordernissen der Scheimpflug-Bedingung verändern bzw. einstellen. Auch dies unterstreicht, dass das Einhalten der Scheimpflug-Bedingung mit der hierin offenbarten Bilderfassung nicht zwingend erforderlich ist, was den Messvorgang insgesamt vereinfacht.
  • Eine Messbilderfassung kann allgemein dann bzw. kann zumindest solange vorliegen, wie eine Bildsensorbelichtung und/oder Messbildaufnahme erfolgt. Sie kann also solange vorliegen, wie Messwerte im Rahmen einer einzelnen Bildbelichtung erfasst werden. Eine Objektvermessung kann lediglich eine einzelne Messbilderfassung umfassen, vorzugsweise aber eine Mehrzahl, um das Objekt z.B. scannend abzutasten.
  • Wird eine Mehrzahl von Messbildern erfasst (zum Beispiel per Scannen bzw. unter variierender Relativstellung zum Objekt), kann die Objektvermessung allgemein dann bzw. kann zumindest solange vorliegen, wie Messbilder erfasst werden und/oder Messwerte (zum Beispiel Abstandsinformationen) und/oder Koordinatenwerte in der hierin geschilderten Weise ermittelt werden. Davor oder danach kann die Ausrichtung der relevanten Komponenten zueinander optional auch anders gewählt werden als während des Messvorgangs und kann dann auch theoretisch die Scheimpflug-Bedingungen erfüllt sein.
  • Allgemein sei angemerkt, dass die hierin vorgestellte Lösung nicht voraussetzt, dass die Scheimpflug-Bedingung nicht erfüllt wird. Sie funktioniert also auch bei deren Erfüllung. Andererseits setzt die vorliegende Lösung aber nicht voraus, dass die Scheimpflug-Bedingung zwingend erfüllt wird. Dies resultiert in verringerten Anforderungen an die Ausrichtung der relevanten Komponenten relativ zueinander, was mit den hierin geschilderten Vorteilen einhergeht.
  • Gemäß einer Weiterbildung von Anordnung, Verfahren und Verwendung erfüllt eine Ausrichtung des Bildsensors, der optischen Linse und der Strahlungserzeugungseinrichtung zueinander zumindest während einer Objektvermessung (und/oder Messbilderfassung) die Scheimpflug-Bedingung nicht oder allenfalls im Unendlichen. Letzteres ist, wie einleitend geschildert, z.B. dann der Fall, wenn die genannten Komponenten bzw. deren hiervon definierten Ebene parallel zueinander verlaufen.
  • Es kann vorgesehen sein, dass die vorstehende nicht-Erfüllung (oder Erfüllung allenfalls im Unendlichen) wenigstens während der Hälfte der Objektvermessung (und/oder Messbilderfassung) vorliegt, also während der Hälfte einer Objektvermessungsdauer oder aber während das Objekt zumindest bis zur Hälfte vermessen wurde (also der Hälfte eines zu vermessenden Gesamtbereichs).
  • Es kann also durchaus der Fall auftreten, dass z.B. zufällig die Scheimpflug-Bedingung zumindest vorübergehend erfüllt ist. Erfindungsgemäß wird dies somit nicht ausgeschlossen, andererseits aber auch nicht vorausgesetzt. Stattdessen kann das Erfüllen der Scheimpflug-Bedingung sogar gänzlich entfallen, insbesondere während eines gesamten Messvorgangs bzw. einer gesamten Objektvermessung. Stattdessen kann die Koordinatenermittlung basierend auf dem Fokusscanbild und insbesondere dem zur Erhöhung der Schärfentiefe rechnerisch bearbeiteten Fokusscanbild in zumindest ähnlich präziser Weise erfolgen, ohne dass auf das Einhalten der Scheimpflug-Bedingung zwingend geachtet werden muss.
  • Eine Weiterbildung der hierin vorgestellten Lösung sieht vor, dass die benötigte Dauer zum Variieren der Fokuseinstellung die Belichtungszeitdauer um wenigstens die Hälfte unterschreitet. Anders ausgedrückt kann vorgesehen sein, dass während der Belichtung des Bildsensors (also der Belichtungszeitdauer) aufgrund der im Vergleich schnelleren Fokussiergeschwindigkeit (bzw. Fokusvariationsgeschwindigkeit) mehrere Fokuseinstellungen durchlaufen werden können insbesondere ein Scanbereich von wenigstens 1 mm - 10 mm. Dies erhöht die Wahrscheinlichkeit, dass eine Fokusebene, in der ein zu vermessender Objektort liegt, getroffen bzw. erfasst wird. Geeignete Fokussieroptiken sind z.B. in dem vorstehend zitierten wissenschaftlichen Artikel und den darin aufgeführten Referenzen genannt.
  • Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die Variation der Fokuseinstellung mittels wenigstens einem akusto-optischen Element (insbesondere einer akusto-optischen Linse) oder einem MEMS-Element (insbesondere einem MEMS-Spiegelarray) erfolgt. Insbesondere können diese Elemente von der Erfassungseinrichtung der hierin offenbarten Anordnung umfasst sein.
  • Bei einer Weiterbildung ist wenigstens eine weitere Strahlungserzeugungseinrichtung vorgesehen, wobei eine Ausrichtung des Bildsensors während einer Objektvermessung und/oder Messbilderfassung konstant ist, unabhängig davon, welche der Strahlungserzeugungseinrichtungen aktiviert wird.
  • Ein Wechseln bzw. Umschalten zwischen unterschiedlichen Strahlungserzeugungseinrichtungen kann vorteilhaft sein, um das Objekt möglichst vollständig zu bestrahlen und/oder auszuleuchten. Beispielsweise kann dadurch auf etwaige durch Objektkonturen verdeckte Bereiche reagiert bzw. können diese ebenfalls ausgeleuchtet werden. Würde man stattdessen z.B. lediglich eine einzige Strahlungserzeugungseinrichtung weiter betreiben, müsste man zum Ausleuchten eines entsprechenden verdeckten Bereichs die Relativausrichtung von Werkstück und Strahlungserzeugungseinrichtung ändern.
  • Die Erfindung betrifft auch ein Verfahren zum optischen Objektvermessen, mit:
    • - Einstrahlen von elektromagnetischer Strahlung auf das Objekt;
    • - Erfassen eines Messbilds durch Belichten eines Bildsensors mit von dem Objekt zurückgeworfener (insbesondere reflektierter und/oder gestreuter) Strahlung, wobei während der Belichtung eine Fokuseinstellung variiert wird;
    • - Ermitteln der Koordinaten von wenigstens einem Ort des Objekts.
  • Ferner betrifft die Erfindung das Verwenden einer Erfassungseinrichtung zum optischen Objektvermessen, wobei die Erfassungseinrichtung einen Bildsensor umfasst, und dazu eingerichtet ist, durch Belichten des Bildsensors mit von dem Objekt reflektierter und/oder gestreuter (und bevorzugt mittels einer Strahlungserzeugungseinrichtung darauf eingestrahlter) Strahlung ein Messbild zu erfassen, und die ferner dazu eingerichtet ist, eine Fokuseinstellung während der Belichtung zu variieren.
  • Das Verfahren und die Verwendung können sämtliche weiteren Merkmale, Aspekte und Weiterbildungen umfassen, um sämtliche der hierin geschilderten Effekte, Betriebszustände und Wechselwirkungen bereitzustellen. Insbesondere können sämtliche der vorstehenden Erläuterungen zu und Weiterbildungen von Anordnungsmerkmalen auch auf die gleichlautenden Verfahrens-Verwendungsmerkmale zutreffen bzw. bei diesen vorgesehen sein. Beispielsweise kann vorgesehen sein, dass das Verfahren und die Verwendung mit Anordnungen gemäß jeglicher der hierin geschilderten Ausführungsformen ausführbar und/oder umsetzbar sind, insbesondere derart, dass sämtliche Betriebszustände der Anordnung erzielbar sind.
  • Die Erfindung wird im Folgenden anhand der beigefügten schematischen Figuren erläutert. Für gleichartige oder gleichwirkende Merkmale können figurenübergreifend die gleichen Bezugszeichen verwendet werden.
    • 1 zeigt eine Anordnung gemäß einer erfindungsgemäßen Ausführungsform, die ein Verfahren gemäß einer erfindungsgemäßen Ausführungsform ausführt und einer erfindungsgemäßen Verwendung einer Erfassungseinrichtung entspricht;
    • 2 zeigt ein schematisches Ablaufschema eines erfindungsgemäßen Verfahrens gemäß dem Ausführungsbeispiel aus 1.
  • In 1 ist eine Anordnung 10 gemäß einem Ausführungsbeispiel der Erfindung gezeigt, wobei die Anordnung 10 das nachstehend auch anhand von 2 erläuterte erfindungsgemäße Verfahren ausführt. Der Vollständigkeit halber sei erwähnt, dass in diesem Zusammenhang auch eine erfindungsgemäße Verwendung einer Erfassungseinrichtung zum optischen Objektvermessen stattfindet.
  • Die Anordnung 10 umfasst eine Erfassungseinrichtung 12 in Form einer Digitalkamera. Diese umfasst einen Bildsensor 14, der in an sich bekannter Weise bei einer Belichtung eine digitale Pixelwertmatrix als Bilddatei erzeugt. Letztere wird abgespeichert und für eine spätere Auswertung verwendet. Ferner gezeigt ist eine Objektivanordnung 16, die lediglich beispielhaft nur eine einzelne Objektivlinse 18 umfasst. Mittels der Objektivanordnung 18 können Fokuseinstellungen vorgenommen werden und insbesondere die Lage einer Fokusebene bzw. deren Fokusabstand D als eine Fokuseinstellung variiert werden.
  • Die Darstellung der Objektivanordnung 16 ist lediglich schematisch und beispielhaft. Hintergründe bezüglich der für die hierin vorausgesetzte SSFS-Bilderfassung verwendbaren Objektiven und Linsen finden sich z.B. in den einleitend genannten wissenschaftlichen Artikel von Lu et al. Nur schematisch angedeutet ist ferner eine Blende 20, die zur Bilderfassung und genauer gesagt Belichtung des Bildsensors 14 geöffnet wird.
  • Zur Aufnahme von Fokusscanbildern (SSFS-Bildern) wird die Blende 20 geöffnet und offengehalten, während der Fokusabstand D durch z.B. axiales Verschieben der Linse 18 variiert wird. Dabei wird ein reflektierter und/oder gestreuter Strahlungsanteil fortlaufend aufgezeichnet, sodass sich bei unterschiedlichen Fokuseinstellungen vom Bildsensor 14 erfasste Intensitätswerte überlagern und gemeinsamen die schlussendlich erzeugte Bilddatei einfließen. Die Verschiebungsrichtung verläuft entlang der optischen Achse, also senkrecht zur Fläche des Bildsensors 14. Bevorzugt wird dabei, dass eine Änderungsgeschwindigkeit des Fokusabstands D (also die Fokussiergeschwindigkeit) so groß ist, dass innerhalb einer Bildbelichtungszeit Belichtungen mit mehreren unterschiedlichen Fokuseinstellungen (bzw. Fokusabständen D) erfolgen können. Lediglich beispielhaft kann von einer Fokussiergeschwindigkeit von 1 kHz gegenüber einer Bilderfassungsrate von 300 Hz ausgegangen werden.
  • Während der Bilderfassung wird ferner bevorzugt, dass die Bildsituation unverändert bleibt, also z.B. keine Relativbewegungen zum Objekt 22 stattfinden oder allenfalls solche, die zu geringen sogenannten Verschmierungen von zum Beispiel weniger als 100 µm führen. Trotz Relativbewegung kann dann ein quasi-statischer Fall während einer einzelnen Bilderfassung angenommen werden. Beispielsweise kann bei einer Bildrate von 100 Hz eine Relativbewegungsgeschwindigkeit von 3 mm/s zu akzeptablen Verschmierung von gerade einmal 10 µm führen. Hintergründe zu dem Problem von Verschmierungen beim Abbilden bewegter Objekte finden sich zum Beispiel in der EP 3 278 302 B1 der Anmelderin und dort insbesondere in [0017].
  • Insbesondere bevorzugt wird, dass die Bilderfassungseinrichtung 18 bzw. das Objektiv 16 telezentrisch ist. Weiter wird bevorzugt, dass sich die Umgebungsbedingungen während dem Erfassen eines Fokusscanbildes nicht verändern, was insbesondere für eine Belichtungssituation gilt.
  • Derjenige Bereich, innerhalb dem der Fokusabstand D verändert wird, wird auch als Fokusscanbereich bezeichnet. Er betrifft die Differenz bzw. den Abstand der größten und kleinsten Fokuseinstellung, also im vorliegenden Beispiel des größten und kleinsten Fokusabstandes D.
  • Ein auf diese Weise erfasstes Bild (Messbild) wird über eine gestrichelt angedeutete Datenleitung 24 an eine Auswerteeinrichtung 26 übermittelt, die eine Computereinrichtung ist. Sie umfasst eine schematisch angedeutete Prozessoreinrichtung 28 und eine ebenfalls schematisch angedeutete Speichereinrichtung 30. Die Prozessoreinrichtung 28 ist dazu eingerichtet, Algorithmen auszuführen, die z.B. auf der Speichereinrichtung 30 hinterlegt sind. Durch Ausführen dieser Algorithmen (und/oder allgemein von Programmanweisungen, die z.B. in den Algorithmen enthalten sind) kann eine Korrektur des von der Bilderfassungseinrichtung 12 erfassten Messbilds gemäß jeglicher hierin geschilderte Varianten erfolgen, insbesondere zur Erhöhung der Schärfentiefe. Das schlussendlich korrigierte Messbild kann dann in der Speichereinrichtung 30 abgespeichert werden.
  • Gezeigt sind auch Strahlungserzeugungseinrichtungen 21 in Form von Laserprojektoren und genauer gesagt Laserlinienprojektoren. Bei einer Objektvermessung ist zu einem gegebenen Zeitpunkt bevorzugt lediglich eine der Strahlungserzeugungseinrichtung 21 aktiv, d. h. wird stets nur eine Laserlinie auf das Objekt projiziert und nicht zwei gleichzeitig. In an sich bekannter Weise arbeitet die Anordnung 10 somit nach Art eines Laserlinienscanners, bei dem die projizierte Laserlinie entlang eines Bereichs der Objektoberfläche bewegt wird (durch entsprechendes Relativbewegen von Anordnung 10 und Objekt 22). In jeder Position auf bzw. relativ zu der Objektoberfläche wird dann wenigstens ein Messbild als Fokusscanbild erfasst.
  • Die auf das Objekt 22 eingestrahlte Strahlung (also im gezeigten Fall das eingestrahlte Laserlicht) wird von der Objektoberfläche reflektiert und/oder gestreut und gelangt durch die geöffnete Blende 20 auf den Bildsensor 14. Umgebungslicht kann durch nicht gezeigte optische Filter herausgefiltert werden. Der Bildsensor 14 wird dadurch belichtet und erfasst die Intensität der zurückgeworfenen Strahlung zum Beispiel als eine Mehrzahl einzelner Pixelwert innerhalb einer zweidimensionalen Pixelwertmatrix eines erfassten (Objekt-) Bildes.
  • Beispielhaft gezeigt ist die Belichtungs- bzw. Aufnahmesituation bei der Bestrahlung zweier unterschiedlicher Objektorte O1, O2 sowie der dabei jeweils vorliegende Strahlengang S1, S2, samt Auftrefforte A1, A2 auf dem Bildsensor 14.
  • In den erfassten Bildern kann die Lage der Laserlinie identifiziert werden. Die Linie verläuft im 1 entlang einer horizontalen Achse, also senkrecht zum Pfeil D in die Blattebene hinein. Für einen jeden (Bild-) Ort entlang der (aufgenommen) Linie können dann mittels an sich bekannter Triangulationsalgorithmen räumliche (d. h. 3-dimensionale) Koordinaten ermittelt werden und insbesondere Koordinaten in einer Tiefen- bzw. Z-Richtung. Genauer gesagt werden die Koordinaten der Objektorte O1, O2 bestimmt, von denen die Strahlung zu den Auftrefforten A1, A2 zurückgeworfen wird, wenn die Laserlinie die entsprechenden Objektorte O1, O2 trifft. Genauer gesagt wird an den Auftrefforten A1, A2 die Laserlinie abgebildet, wenn diese die Objektorte O1, O2 trifft, d. h. wird dann der dortige Schnittpunkt der Laserlinie mit der Oberfläche des Objekts 22 abgebildet. Die Auftrefforte A1, A2 entsprechen Bildorten mit gleichen Pixelkoordinaten bzw. für die Auftrefforte A1, A2 werden Pixelwerte im aufgenommenen Messbild erfasst.
  • Man erkennt, dass die Lage Auftrefforte A1, A2 je nach Höhenniveau und/oder Relativposition der Objektoberfläche zur aktiven Strahlungserzeugungseinrichtung 21 variieren.
  • Der Bildsensor 14 ist flächig, wobei sich dessen zweite Dimension in die Blattebene hinein erstreckt. Wie erwähnt, steht die projizierte Linie in 1 senkrecht auf der Blattebene. Dies entspricht einer Ausrichtung entlang einer ersten Achse der Fläche des Bildsensors 14 bzw. von dessen Bildkoordinatensystem (oder auch Pixelmatrix). In erneut bekannter Weise wird für eine Mehrzahl von Punkten entlang der Linie in einer zweiten, vorzugsweise senkrecht hierzu verlaufenden Dimension bzw. Achse der genaue Auftreffort A1, A2 auf dem Bildsensor 14 ermittelt. Hierzu wird zum Beispiel per Gauß-Fit der Ort der maximalen Intensität der erfassten zurückgeworfenen Strahlung bestimmt. Je Bildaufnahme werden also entlang der Linie die Koordinaten für eine Vielzahl entsprechender Auftrefforte A1, A2 bestimmt.
  • In dem gezeigten Beispiel erfolgt dies, nachdem das Bild unter Variation der Fokuseinstellung D vollständig aufgenommen wurde. Wurde der Auftreffort A1, A2 bestimmt, kann dann zum Beispiel in Kenntnis eines Winkels (Triangulationswinkel) zwischen der Fläche des Bildsensors 14 und den gestrichelt angedeuteten Strahlungsachsen der Strahlungserzeugungseinrichtungen 21 insbesondere die Z-Koordinate des Objektortes O1, O2 identifiziert werden, welcher die Strahlung auf den entsprechenden Auftreffort A1, A2 zurückgeworfen hat. Mit der bekannten X-Y-Lage des Bildsensors 14 können somit die vollständigen räumlichen Koordinaten der Objektorte O1, O2 bestimmt werden.
  • Alternativ kann der Bildsensor 14 mittels eines geeigneten Kalibrierkörpers kalibriert werden, sodass eine Zuordnung von x-y-Positionen auf dem Sensor zu Z-Y-Position im Messvolumen möglich ist. Die genaue Kenntnis des oben genannten Triangulationswinkels ist dann nicht mehr zwingend notwendig.
  • Man erkennt in 1, dass die Strahlungserzeugungseinrichtungen 21 aufgrund einer unebenen Oberfläche des Werkstücks 22 nicht sämtliche Oberflächenbereiche bestrahlen können, da es jeweils zu Abschattungen kommen. So kann die in 1 linke Strahlungserzeugungseinrichtung 21 beispielhaft nicht den Oberflächenbereich B2 und die rechte Strahlungserzeugungseinrichtung 21 nicht den Oberflächenbereich B1 bestrahlen, da diese aus Sicht der jeweiligen Strahlungserzeugungseinrichtung 21 durch den mittleren höchsten Oberflächenbereich B0 verdeckt sind. Je nach zu bestrahlendem Oberflächenbereich B0-B2 kann also eine geeignete Strahlungserzeugungseinrichtung 21 ausgewählt und aktiviert werden.
  • Theoretisch könnte lediglich eine Strahlungserzeugungseinrichtung 21 vorgesehen werden und könnten dann die Anordnung 10 und das Objekt 22 relativ zueinander verkippt (oder rotiert) werden, um sämtliche Oberflächenbereich B1, B2 zu bestrahlen (d. h. auszuleuchten). Dies geht jedoch mit entsprechenden Zeitverlust einher und erfordert einen gewissen Aufwand bei der Definition der durchzuführenden Bewegungen. Bevorzugt wird daher bei der hierin vorgestellten Lösung auf diesen Ansatz verzichtet.
  • Angedeutet sind auch die gestrichelt und langgezogen dargestellten relevanten Linien bzw. Ebenen für die Scheimpflug-Bedingung. Man erkennt, dass diese sich nicht in einem gemeinsamen Punkt schneiden (auch nicht im Unendlichen). Üblicherweise würde dies dazu führen, dass nicht alle Auftrefforte der Laserlinie auf dem Objekt 22 innerhalb einer einzelnen Bildaufnahme scharf abgebildet werden können, sodass zum Beispiel auch die Lage der Auftrefforte A1, A2 nicht präzise bestimmbar wäre. Entsprechend wird im einleitend zitierten Stand der Technik bisher insbesondere die Ausrichtung des Bildsensors 14 aktiv (d. h. aktorisch) angepasst, insbesondere fortlaufend während der Vermessung. Dies erfolgt insbesondere dann, wenn in der Anordnung 10 die Laserlinie und die Anordnung 16 zum Bestrahlen sämtlicher Oberflächenbereich B1, B2 relativ zueinander verkippt bzw. bewegt werden.
  • Im vorliegenden Fall kann auf eine solche Aktorik und auf das Einhalten Scheimpflug-Bedingung grundsätzlich verzichtet werden. Stattdessen wird durch Variation der Fokuseinstellung D die Wahrscheinlichkeit erhöht, dass eine ausreichend scharfe Abbildungsebene des Objekts 22 getroffen wird, d. h. innerhalb des aufgezeichneten Fokusscanbildes wenigstens ein Anteil der zutreffenden bzw. das Objekt 22 scharf abbildenden Fokusebenen miteinfließt.
  • Anschließend wird mittels bekannter Bildauswertealgorithmen zum Erzeugen von EDOF-Bildern aus SSFS-Aufnahmen und ggf. mittels der einleitend erläuterten Korrekturfunktion aus der parallelen Patentanmeldung der Anmelderin rechnerisch ein Bild mit erhöhter Schärfentiefe erzeugt. Darauf basierend werden Koordinaten von Objektorten O1, O2 (und insbesondere die Lage der Auftrefforte A1, A2 auf dem Bildsensor 14) präzise bestimmt.
  • Dies führt im vorliegenden Fall auch dazu, dass zwischen den Strahlungserzeugungseinrichtungen 21 zur Objektbestrahlung auch während einer laufenden Vermessung flexibel gewechselt werden kann, ohne dass zwingend Verkippungen von Komponenten der Anordnung 10 (insbesondere des Bildsensors 14) relativ zum Objekt 22 erforderlich sind.
  • In 2 ist ein Ablaufschema eines mit der Anordnung 10 aus 1 durchführbaren Verfahrens zur Objektvermessung gezeigt. In einem Schritt S1 wird mittels einer der Strahlungserzeugungseinrichtung 21 eine Laserlinie auf einen Oberflächenbereich des Werkstücks (d.h. des Objekts) 22 projiziert.
  • In einem Schritt S2 wird die Blende 20 geöffnet und im direkten Anschluss (also sobald die Blende offen ist) als Fokuseinstellung der Fokusabstand D variiert. Es erfolgt eine Bildaufzeichnung (d. h. Pixelwerterfassung) mittels des Bildsensors 14, während diese Variation stattfindet. Erst wenn die Fokuseinstellung vollständig variiert wurde (zum Beispiel zum Abfahren eines vorgegebenen Messbereichs entlang der z- Achse bzw. senkrecht zur Ebene 14), wird die Belichtung und somit die Bildaufzeichnung beendet. Die dann vorliegenden aufgezeichneten Werte (Pixelwerte) können als Bilddatei abgespeichert und für eine weitere Auswertung verwendet werden.
  • Im Schritt S2 befinden sich die Anordnung 10 und das Werkstück 22 in einer ersten Relativposition zueinander und genauer gesagt an einer ersten Position eines Scanpfades, entlang dem das Objekt 22 von der Anordnung 10 abgescannt wird.
  • In einem optionalen Schritt S3 wird die Anordnung 10 zur nächsten Position entlang des Scanpfades bewegt und es erfolgt eine analoge erneute Bildauffassung, wie im Schritt S2 erläutert. Dieser Schritt kann beliebig oft wiederholt werden, bis der Scanpfad vollständig abgefahren ist.
  • In einem Schritt S4 wird jedes in den Schritten S2/S3 erfasste Bild (Messbild) zum Erhöhen von dessen Schärfentiefe und/oder von dessen Bildkontrast mittels der Auswerteeinrichtung 26 bearbeitet.
  • In einem Schritt S5 werden auf Basis der bearbeiteten Bilder insbesondere die Tiefen-Koordinaten der einzelnen Objektorte O1, O2 bestimmt, die entlang der projizierten Laserlinie liegen. Hierzu werden in der vorstehend erläuterten Weise Auftrefforte A1, A2 auf dem Bildsensor 14 und per Triangulation (oder durch Ermitteln von im Rahmen der oben erwähnten Kalibrierung zugeordneten Werten) die Koordinaten der Objektorte O1, O2 ermittelt.
  • Die gezeigte Lösung kann insbesondere zum sogenannten Inline-Vermessen von Werkstücken 22 verwendet werden, bei denen Werkstück 22 aus einer laufenden Fertigung mit der gezeigten Anordnung 10 zum Beispiel unter Durchlaufen einer Messstation zwecks Qualitätsüberprüfung vermessen werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015214857 A1 [0006]
    • DE 4121538 A1 [0008, 0011]
    • US 5627635 A [0008, 0011]
    • EP 3278302 B1 [0087]

Claims (10)

  1. Anordnung (10) zum optischen Objektvermessen, mit: - wenigstens einer Strahlungserzeugungseinrichtung (21), die dazu eingerichtet ist, elektromagnetische Strahlung auf das Objekt (22) einzustrahlen; - einer Erfassungseinrichtung (12) mit einem Bildsensor (14), die dazu eingerichtet ist, durch Belichten des Bildsensors (14) mit von dem Objekt (22) zurückgeworfener Strahlung ein Messbild zu erfassen, und die ferner dazu eingerichtet ist, eine Fokuseinstellung (D) während der Belichtung zu variieren; - einer Auswerteeinrichtung (26), die dazu eingerichtet ist, anhand des erfassten Messbilds Koordinaten von wenigstens einem Ort (O1, O2) des Objekts (22) zu ermitteln.
  2. Anordnung (10) nach Anspruch 1, wobei die Auswerteeinrichtung (26) ferner dazu eingerichtet ist, das Messbild zur Erhöhung der Schärfentiefe und/oder des Bildkontrastes zu bearbeiten.
  3. Anordnung (10) nach Anspruch 1 oder 2, wobei die Auswerteeinrichtung (26) ferner dazu eingerichtet ist, wenigstens einen Ort (A1, A2) innerhalb des Messbilds mit einer erhöhten Intensität der erfassten Strahlung zu ermitteln.
  4. Anordnung (10) nach einem der vorangehenden Ansprüche, wobei die Erfassungseinrichtung (12) wenigstens eine optische Linse (18) umfasst.
  5. Anordnung (10) nach Anspruch 1 bis 3 und/oder nach Anspruch 4, wobei der Bildsensor (14) zumindest während einer Objektvermessung und/oder Messbilderfassung relativ zu der Linse (18) und/oder der Strahlungserzeugungseinrichtung (21) unbeweglich ist.
  6. Anordnung (10) nach Anspruch 4, wobei eine Ausrichtung des Bildsensors (14), der Linse (18) und der Strahlungserzeugungseinrichtung (21) zueinander zumindest während einer Objektvermessung und/oder Messbilderfassung die Scheimpflug-Bedingung nicht oder allenfalls im Unendlichen erfüllt.
  7. Anordnung (10) nach einem der vorangehenden Ansprüche, wobei die benötigte Dauer zum Variieren der Fokuseinstellung (D) die Belichtungszeitdauer um wenigstens die Hälfte unterschreitet und/oder wobei die Erfassungseinrichtung zur Variation der Fokuseinstellung wenigstens ein akusto-optisches Element oder ein MEMS-Spiegelarray umfasst.
  8. Anordnung (10) nach einem der vorangehenden Ansprüche, ferner umfassend wenigstes eine weitere Strahlungserzeugungseinrichtung (21), wobei eine Ausrichtung des Bildsensors (14) während einer Objektvermessung und/oder Messbilderfassung konstant ist, unabhängig davon, welche der Projektionseinrichtungen (21) aktiviert wird.
  9. Verfahren zum optischen Objektvermessen, mit: - Einstrahlen von elektromagnetischer Strahlung auf das Objekt (22); - Erfassen eines Messbilds durch Belichten eines Bildsensors (14) mit von dem Objekt (22) zurückgeworfener Strahlung, wobei während der Belichtung eine Fokuseinstellung (D) variiert wird; - Ermitteln der Koordinaten von wenigstens einem Ort (O1, O2) des Objekts (22).
  10. Verwenden einer Erfassungseinrichtung (16) zum optischen Objektvermessen, wobei die Erfassungseinrichtung (16) einen Bildsensor (14) umfasst, und dazu eingerichtet ist, durch Belichten des Bildsensors (14) mit von dem Objekt (22) reflektierter Strahlung ein Messbild zu erfassen, und die ferner dazu eingerichtet ist, eine Fokuseinstellung (D) während der Belichtung zu variieren.
DE102020201097.8A 2020-01-30 2020-01-30 Anordnung und Verfahren zur optischen Objektkoordinatenermittlung Active DE102020201097B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020201097.8A DE102020201097B4 (de) 2020-01-30 2020-01-30 Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
US17/162,758 US11933597B2 (en) 2020-01-30 2021-01-29 System and method for optical object coordinate determination

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020201097.8A DE102020201097B4 (de) 2020-01-30 2020-01-30 Anordnung und Verfahren zur optischen Objektkoordinatenermittlung

Publications (2)

Publication Number Publication Date
DE102020201097A1 true DE102020201097A1 (de) 2021-08-05
DE102020201097B4 DE102020201097B4 (de) 2023-02-16

Family

ID=76853490

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020201097.8A Active DE102020201097B4 (de) 2020-01-30 2020-01-30 Anordnung und Verfahren zur optischen Objektkoordinatenermittlung

Country Status (2)

Country Link
US (1) US11933597B2 (de)
DE (1) DE102020201097B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4010145B1 (de) * 2020-09-02 2023-10-18 Precitec GmbH & Co. KG Verfahren zum analysieren einer werkstückoberfläche für einen laserbearbeitungsprozess und eine analysevorrichtung zum analysieren einer werkstückoberfläche
DE102024116322A1 (de) * 2024-06-11 2025-12-11 Baumer Germany Gmbh & Co. Kg Vorrichtung und Verfahren zum optischen Abtasten von Oberflächen mit Farbübergangskompensation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4121538A1 (de) 1990-07-02 1992-01-09 Gen Electric Zoomlinse fuer eine kamera mit variabler schaerfentiefe
US5627635A (en) 1994-02-08 1997-05-06 Newnes Machine Ltd. Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
US20120300114A1 (en) 2010-11-17 2012-11-29 Kuniaki Isogai Imaging apparatus and distance measurement method
DE102014223387A1 (de) 2013-11-27 2015-05-28 Mitutoyo Corporation Bildverarbeitungs-Inspektionssystem und Verfahren zum Erhalten eines Bilds mit erweiterter Schärfentiefe
DE102015214857A1 (de) 2015-08-04 2017-02-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung
EP3278302B1 (de) 2015-03-30 2019-07-03 Carl Zeiss Industrielle Messtechnik GmbH Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
US10809378B1 (en) 2019-09-06 2020-10-20 Mitutoyo Corporation Triangulation sensing system and method with triangulation light extended focus range using variable focus lens

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868229B2 (en) * 2001-09-20 2005-03-15 Intel Corporation Interfering with illicit recording activity by emitting non-visible radiation
US8098364B2 (en) * 2007-10-19 2012-01-17 Taiwan Semiconductor Manufacturing Company, Ltd. Exposure apparatus and method for photolithography process
DE102008031942A1 (de) * 2008-07-07 2010-01-14 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
US8760510B2 (en) * 2008-11-26 2014-06-24 Robert T. Aloe Apparatus and methods for three-dimensional imaging using a static light screen
DE102008064504B4 (de) * 2008-12-22 2011-04-07 Carl Zeiss Smt Gmbh Projektionsbelichtungsverfahren und Projektionsbelichtungsanlage für die Mikrolithographie
JP5924042B2 (ja) * 2012-03-14 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9055237B1 (en) * 2012-06-01 2015-06-09 Rawles Llc Projection autofocus
DE102012213793B3 (de) * 2012-08-03 2013-10-24 Solarworld Innovations Gmbh Untersuchung eines Siliziumsubstrats für eine Solarzelle
KR102105189B1 (ko) * 2013-10-31 2020-05-29 한국전자통신연구원 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법
WO2016098600A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置および方法
CN108603951B (zh) * 2016-01-04 2020-12-01 奥普托图尼股份公司 包括弯曲的图像传感器的光学系统
KR20170139408A (ko) * 2016-06-09 2017-12-19 엘지전자 주식회사 듀얼 카메라가 장착된 동영상 촬영 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4121538A1 (de) 1990-07-02 1992-01-09 Gen Electric Zoomlinse fuer eine kamera mit variabler schaerfentiefe
US5627635A (en) 1994-02-08 1997-05-06 Newnes Machine Ltd. Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
US20120300114A1 (en) 2010-11-17 2012-11-29 Kuniaki Isogai Imaging apparatus and distance measurement method
DE102014223387A1 (de) 2013-11-27 2015-05-28 Mitutoyo Corporation Bildverarbeitungs-Inspektionssystem und Verfahren zum Erhalten eines Bilds mit erweiterter Schärfentiefe
EP3278302B1 (de) 2015-03-30 2019-07-03 Carl Zeiss Industrielle Messtechnik GmbH Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
DE102015214857A1 (de) 2015-08-04 2017-02-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung
US10809378B1 (en) 2019-09-06 2020-10-20 Mitutoyo Corporation Triangulation sensing system and method with triangulation light extended focus range using variable focus lens

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4010145B1 (de) * 2020-09-02 2023-10-18 Precitec GmbH & Co. KG Verfahren zum analysieren einer werkstückoberfläche für einen laserbearbeitungsprozess und eine analysevorrichtung zum analysieren einer werkstückoberfläche
DE102024116322A1 (de) * 2024-06-11 2025-12-11 Baumer Germany Gmbh & Co. Kg Vorrichtung und Verfahren zum optischen Abtasten von Oberflächen mit Farbübergangskompensation

Also Published As

Publication number Publication date
US11933597B2 (en) 2024-03-19
DE102020201097B4 (de) 2023-02-16
US20210247175A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
EP3362262B1 (de) Verfahren und beschichter für eine vorrichtung zum herstellen eines dreidimensionalen objekts
DE19721688B4 (de) Oberflächenerfassungseinrichtung und Verfahren zur Oberflächenerfassung
DE3110287C2 (de)
DE3817337C2 (de)
EP0502930B1 (de) Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
DE102015107517B3 (de) Vorrichtung und Verfahren zur Bildaufnahme mit erhöhter Schärfentiefe
EP3822578B1 (de) Adaptiver 3d-scanner mit variablem messbereich
DE102004047928B4 (de) Optisches 3D-Messverfahren und Messeinrichtung
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE102018114478B4 (de) Verfahren zur Bestimmung des Strahlverlaufs eines Messstrahls einer interferometrischen Messvorrichtung und Messvorrichtung zur interferometrischen Vermessung eines Messobjekts
EP4227636B1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
DE3738667A1 (de) Verfahren zum verarbeiten von endoskopischen abbildern
WO2004097493A1 (de) Verfahren und anordnung zur bestimmung der fokusposition bei der abbildung einer probe
EP3111161B1 (de) Verfahren und vorrichtung zum optischen bestimmen eines abstandes
DE102019103519A1 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
WO2020169433A1 (de) Überwachung und prozessregelung einer additiven fertigung eines werkstücks
DE102022118147A1 (de) Laserbearbeitungskopf und Verfahren zum Bearbeiten eines Werkstücks
DE102020201097B4 (de) Anordnung und Verfahren zur optischen Objektkoordinatenermittlung
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE102014119436B4 (de) Koordinatenmessgerät und Verfahren zum Bestimmen von geometrischen Eigenschaften eines Messobjekts unter Verwendung einer Lichtfeldkamera
DE102015110289A1 (de) Verfahren zur Bestimmung von Messpunkten auf der Oberfläche eines Werkzeugstücks mit einem optischen Sensor
DE19919311C1 (de) Verfahren und Vorrichtung zum berührungslosen Abtasten der Brillenglasöffnung einer Brillenfassung oder des Umfangs eines Brillenglases oder einer Formscheibe
DE102021108238A1 (de) Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerprogrammprodukt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final