-
Die vorliegende Erfindung betrifft ein Verfahren zum Vermessen einer Oberfläche eines Werkstücks mit einem optischen Sensor eines Messgeräts. Des Weiteren betrifft die vorliegende Erfindung ein Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, zum Vermessen einer Oberfläche eines Werkstücks. Des Weiteren betrifft die vorliegende Erfindung ein Computerprogrammprodukt.
-
Ein derartiges Verfahren und eine derartige Vorrichtung sind beispielsweise aus der Druckschrift
US 5 151 609 A bekannt.
-
Messgeräte zum Vermessen der Oberfläche eines Werkstücks, auch Messobjekt genannt, sind im Stand der Technik allgemein bekannt. In der industriellen Messtechnik werden grundsätzlich Messgeräte benötigt, die 3D Informationen eines Werkstücks messen können. Dazu können in derartigen Messgeräten verschiedene Arten von Sensoren zur Anwendung kommen, um die Koordinaten eines zu vermessenden Werkstücks zu erfassen.
-
Beispielsweise sind hierzu taktil messende Sensoren bekannt. Hierbei wird die Oberfläche des zu vermessenden Werkstücks mit einem Taststift angetastet, dessen Koordinaten im Messraum ständig bekannt sind. Ein derartiger Taststift kann auch entlang der Oberfläche eines Werkstücks bewegt werden, so dass in einem solchen Messvorgang im Rahmen eines sog. „Scanning-Verfahrens“ eine Vielzahl von Messpunkten in festgelegten zeitlichen Abständen erfasst werden kann.
-
Des Weiteren sind auch optische Messgeräte bekannt, in denen optische Sensoren verwendet werden. Die optischen Sensoren ermöglichen ein berührungsloses Erfassen der Koordinaten eines Werkstücks. In optischen Messgeräten wird das zu vermessende Werkstück auf einem Tisch als Werkstückhalter aufgespannt. Der Tisch bildet dabei eine X-Y-Ebene. Senkrecht von dieser Ebene, d.h. in Z-Richtung eines kartesischen Koordinatensystems, ist der optische Sensor von dem zu vermessenden Werkstück beabstandet.
-
Da herkömmliche optische Messgeräte, wie beispielsweise Mikroskope oder Koordinatenmessgeräte, nur 2D Daten aufnehmen können, wird die Bildtiefe oder Tiefeninformation in Z-Richtung mittels einer zusätzlichen Technik bestimmt.
-
Beispielsweise ist es bekannt, taktil messende Sensoren zusammen mit optischen Sensoren zu verwenden. Allerdings müssen taktile Sensoren zusammen mit dem optischen System in dem Messgerät integriert werden, wobei sich Kosten und Komplexität des Messgeräts erhöhen. Des Weiteren muss der taktile Sensor in Kontakt mit dem Werkstück sein, was nicht immer wünschenswert ist.
-
Eine nicht invasive und günstige Lösung besteht darin, die Tiefeninformation in Z-Richtung mittels optischer Messungen zu bestimmen. Bildunschärfe, die durch optisches defokusieren bewirkt wird, ändert sich in vorhersagbarer Weise. Das optische System des optischen Sensors hat eine Fokalebene, die eine Ebene größter Schärfe ist. Wird ein Objektpunkt, der auf der Oberfläche des Werkstücks liegt, auf die Fokalebene zu bewegt, wird die Abbildung des Objektpunkts schärfer. Wird der Objektpunkt von der Fokalebene wegbewegt, wird die Abbildung des Objektpunkts unschärfer. Ist der Objektpunkt in der Fokalebene angeordnet, ist die Abbildung des Objektpunkts am schärfsten. Die Bildunschärfe kann somit durch Variation des Abstands zwischen dem Werkstück und dem optischen System kontrolliert werden. Durch das Aufnehmen von Bildern, während das Werkstück durch den Fokus bewegt wird, wird ein Fokalbildstapel erzeugt. Auf Basis des Fokalbildstapels kann eine Tiefeninformation der Objektpunkte mittels einer Technik, die Shape from Focus (SFF) genannten wird, extrahiert werden. Mit anderen Worten ist SFF eine Methode, die es erlaubt, 3D Informationen auf Basis eines Fokalbildstapels von 2D Bildern zu rekonstruieren.
-
Anwendungsbeispiele der SFF Methode sind beispielweise in der Druckschrift
US 5 151 609 A sowie in dem Fachartikel K.Nayar, S. (1994), „Shape from focus: An effective approach for rough surfaces“, IEEE Transaction, on Pattern Analysis and Machine Intelligence, 824-831 beschrieben.
-
Beispielsweise zeigt die Druckschrift
US 5 151 609 A , dass die feste Form eines Objekts durch Betrachten des Objekts entlang einer Z-Achsenrichtung erkannt wird. Mehrere Bilder des Objekts werden auf verschiedenen Fokusebenen mit entsprechend unterschiedlichen Koordinatenwerten der Z-Achse aufgenommen. Fokusmesswerte werden in Bezug auf jedes der Pixel berechnet, die sich in jedem der Objektbilder befinden und die durch dieselben X- und Y-Koordinatenwerte gekennzeichnet sind. Die Fokusmesswerte der Pixel in den Objektbildern mit den gleichen X- und Y-Koordinatenwerten werden miteinander verglichen, um maximale Fokusmesswerte zu erfassen. Die feste Form des Objekts wird dann basierend auf dem Z-Koordinatenwert der Fokusebene des Objektbildes mit den maximal erfassten Fokusmesswerten geschätzt.
-
Mit anderen Worten wird bei der SFF Technik zur Rekonstruktion der 3D Informationen eine Schärfekarte, auch Fokuskarte genannt, für jedes Bild des aufgenommenen Fokalbildstapels unter Verwendung einer bestimmten Schärfemetrik berechnet. Daraus ergibt sich ein Schärfekartenstapel. Eine entsprechende Schärfemetrik ist beispielsweise in dem Fachartikel Pertuz, S., Puig, D., & Garcia, M. A. (2013), „Analysis of focus measure operators for shape-from-focus“, Pattern Recognition, 1415-1432 beschrieben.
-
Für jeden Pixel des Kamerasensors kann auf Basis des Schärfekartenstapels ein Schärfeprofil bestimmt werden. Das Schärfeprofil bildet den Schärfewert gegenüber der Z-Koordinate ab. Das Maximum des Schärfeprofils entspricht dem Tiefenwert, sprich der Z-Koordinate, des entsprechenden Pixels. Das Maximum des Schärfeprofils kann auf Basis unterschiedlicher Methoden bestimmt werden. Beispielsweise kann das Maximum mittels einer Kleinsten-Quadrate-Approximation (least squares fitting) einer Gauß-Kurve an das Schärfeprofil bestimmt werden. Auf Basis der Evaluation der Schärfekarten aller Pixel kann dann eine Tiefenkarte erzeugt werden.
-
1 zeigt exemplarisch eine Tiefenkarte einer Oberfläche eines Werkstücks. 2 zeigt exemplarisch das Schärfeprofil eines exemplarischen Pixels, an das eine Gauß-Kurve gefittet werden kann.
-
Um einen Bereich der Oberfläche eines Werkstücks erfassen und von diesem ein Tiefenkarte erzeugen zu können, der größer ist als der Bereich, der von dem Kamerasensor erfasst werden kann, ist es erforderlich, mehrere Fokalbildstapel aufzunehmen, die jeweils unterschiedliche Teilbereiche der Oberfläche des Werkstücks abbilden, wobei die Teilbereiche zusammen den zu erfassenden Bereich der Oberfläche abdecken. Dazu kann zwischen den einzelnen Erfassungsprozessen der Fokalbildstapel die relativen Anordnungen von Kamerasensor zu Werkstück verändert werden, beispielsweise indem der Kamerasensor und/oder das Werkstück im Raum verschoben wird. Dies ist allerdings zeitaufwendig.
-
Um nun die gesamte Dauer des Vermessens eines Oberflächenbereichs, der größer als der Erfassungsbereich des Kamerasensors ist, zu verringern, kann ein Fokalbildstapel aufgenommen werden, während das Messgerät oder nur der Kamerasensor lateral bewegt wird. Dadurch werden Wartezeiten, während das Messgerät oder nur der Kamerasensor stillstehen vermieden. Der resultierende Fokalbildstapel ist dann aber lateral verschoben. Mit anderen Worten sind die erfassten Bilder lateral zueinander verschoben. Unter lateral verschoben ist ein Versatz in der X-Y-Ebene zu verstehen. Dadurch sind Objektpunkte des Werkstücks in den Bildern des Fokalbildstapels auf unterschiedlichen Pixeln des Kamerasensors für unterschiedliche Fokuseinstellung abgebildet.
-
Damit auf Basis dieses Fokalbildstapels eine Tiefenkarte des Bereichs des Werkstücks erzeugt werden kann, muss der Bildstapel mit Sub-Pixel-Genauigkeit registriert werden, um die entsprechenden Pixelzentren gleich, insbesondere fluchtend, auszurichten. Dazu kann eine Grauwert-Interpolation der Bilder zur Ausrichtung bezüglich eines definierten Bezugssystems durchgeführt werden. Nur ein reduzierter Bereich des gesamten erfassten Bereichs kann dazu evaluiert werden, weil Schärfewerte für alle Fokuspositionen benötigt werden.
-
3 zeigt exemplarisch einen Bildstapel 100. Die Bildstapel 100 weist vier Bilder 102, 104, 106, 108 auf. Jeder Bildpunkt der Bilder hat ein Pixelzentrum 110. Der Bildstapel wurde während einer lateralen Bewegung des optischen Sensors aufgenommen wurde. Die laterale Bewegung ist durch einen Pfeil dargestellt, der das Bezugszeichen 112 hat. Durch die laterale Bewegung sind Objektpunkte des Werkstücks auf unterschiedlichen Pixeln des Kamerasensors abgebildet. Nur Objektpunkte, die in allen aufgenommenen Bildern abgebildet sind, können evaluiert werden. Durch Grauwert-Interpolation werden die Pixelzentren ausgerichtet.
-
Aus dem bisherigen Ansatz zum Evaluieren eines Bildstapels, der während einer lateralen Bewegung des optischen Sensors erfasst wurde, ergeben sich folgende Probleme. Zum einen muss der versetze Bildstapel an ein künstliches Gitter registriert werden mittels Sub-Pixel genauer Interpolation von Grauwerten. Dadurch wird die Genauigkeit verringert und die Berechnungsdauer erhöht. Des Weiteren können vertikale Kanten nicht zuverlässig bestimmt werden, da die Schärfeprofile von Pixeln in der näheren Umgebung der Kante verzerrt sind und nicht mittels einer Gauß-Kurve beschrieben werden können.
-
4 zeigt exemplarisch ein verzerrtes Schärfeprofil eines Pixels in der näheren Umgebung einer Kante, insbesondere an einer Kante, d.h. dem Übergang zw. verschiedenen Werkstückhöhen.
-
Vor diesem Hintergrund gibt es daher noch Raum für Verbesserungen, insbesondere hinsichtlich der Erfassung und Verarbeitung der Daten, um möglichst schnell und genau das Oberflächenprofil einer Oberfläche eines Werkstücks bestimmen zu können.
-
Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Vermessen einer Oberfläche eines Werkstücks mit einem optischen Sensor eines Messgeräts sowie eine entsprechendes Messgerät und Computerprogrammprodukt bereitzustellen, mittels denen die Erfassung und Verarbeitung der Daten zum Vermessen einer Oberfläche eines Werkstücks mit einem optischen Sensor eines Messgeräts verbessert wird.
-
In einem ersten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Vermessen einer Oberfläche eines Werkstücks mit einem optischen Sensor eines Messgeräts bereitgestellt. Das Verfahren weist die folgenden Schritte auf:
- - Erfassen einer Mehrzahl von Bildern der Oberfläche des Werkstücks mittels des optischen Sensors, wobei jedes Bild jeweils einen Bereich der Oberfläche des Werkstücks abbildet, wobei jedem Bild eine definierte 6-DOF (Degree-of-Freedom) Pose des optischen Sensors und eine definierte Fokalebenenposition des optischen Sensors zugeordnet sind, und wobei die erfassten Bilder einen Bildstapel bilden;
- - Bestimmen eines Schärfewerts jedes Bildpunkts jedes Bildes des Bildstapels, um eine Schärfekarte für jedes Bild des Bildstapels zu erzeugen, wobei die Schärfekarten der Bilder einen Schärfekartenstapel bilden;
- - Transformieren der Schärfekarten des Schärfekartenstapel in ein definiertes Bezugssystem auf Basis der jeweiligen zugeordneten 6-DOF Pose und Fokalebenenposition des optischen Sensors, um eine Schärfewolke zu erzeugen; und
- - Erzeugen eines Oberflächenprofils des Werkstücks auf Basis der Schärfewolke, insbesondere auf Basis von lokalen Schärfe-Maxima der Schärfewolke.
-
In einem zweiten Aspekt der vorliegenden Erfindung wird Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, zum Vermessen einer Oberfläche eines Werkstücks bereitgestellt. Das Messgerät weist einen optischen Sensor und eine Steuereinrichtung auf, wobei der optische Sensor dazu ausgebildet ist, Bilder eines Bereichs der Oberfläche des Werkstücks zu erfassen, wobei die Steuereinrichtung dazu eingerichtet ist, die folgenden Steuerschritte durchzuführen:
- - Erfassen einer Mehrzahl von Bildern der Oberfläche des Werkstücks mittels des optischen Sensors, wobei jedes Bild jeweils einen Bereich der Oberfläche des Werkstücks abbildet, wobei jedem Bild eine definierte 6-DOF Pose des optischen Sensors und eine definierte Fokalebenenposition des optischen Sensors zugeordnet sind, und wobei die erfassten Bilder einen Bildstapel bilden;
- - Bestimmen eines Schärfewerts jedes Bildpunkts jedes Bildes des Bildstapels, um eine Schärfekarte für jedes Bild des Bildstapels zu erzeugen, wobei die Schärfekarten der Bilder einen Schärfekartenstapel bilden;
- - Transformieren der Schärfekarten des Schärfekartenstapel in ein definiertes Bezugssystem auf Basis der jeweiligen zugeordneten 6-DOF Pose und Fokalebenenposition des optischen Sensors, um eine Schärfewolke zu erzeugen; und
- - Erzeugen eines Oberflächenprofils des Werkstücks auf Basis der Schärfewolke, insbesondere auf Basis von lokalen Schärfe-Maxima der Schärfewolke.
-
Insbesondere ist die Steuereinrichtung des Messgeräts des zweiten Aspekts dazu eingerichtet, die Verfahrensschritte des Verfahrens nach dem ersten Aspekt oder einer seiner Ausgestaltungen durchzuführen. Insbesondere ist die Steuereinrichtung dazu ausgebildet, die Komponenten des Messgeräts, insbesondere den optischen Sensor, zu steuern. Dazu kann die Steuereinrichtung beispielsweise eine Regelungseinheit aufweisen, die Steuerbefehle an die Komponenten des Messgeräts, insbesondere an den optischen Sensor, schicken kann. Die Berechnungsschritte zum Erzeugen des Oberflächenprofils des Werkstücks können ebenfalls mittels der Steuereinrichtung des Messgeräts durchgeführt werden. Dazu kann die Steuereinrichtung beispielsweise eine Datenverarbeitungseinheit aufweisen, die die Schritte zum Erzeugen des Oberflächenprofils durchführt.
-
In einem dritten Aspekt der vorliegenden Erfindung wird ein Computerprogrammprodukt mit einem Computerprogramm bereitgestellt, das Programmcodemittel zur Durchführung eines Verfahrens nach dem ersten Aspekt der Erfindung aufweist, wenn dass Computerprogramm auf einem Messgerät ausgeführt wird. Des Weiteren kann auch ein Computerprogrammprodukt bereitgestellt sein, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des Verfahrens nach dem ersten Aspekt der Erfindung auszuführen
-
Vorteilhafterweise wird das neue Verfahren unter Verwendung einer Verarbeitungseinheit oder einer Steuereinrichtung implementiert, die ein Mehrzweckcomputer oder ein Spezialcomputer sein kann, wobei ein angemessenes Computerprogramm oder Computerprogrammprodukt gespeichert und ausgeführt wird, wobei das Computerprogramm oder das Computerprogrammprodukt zum Vermessen der Oberfläche des Werkstücks gemäß den zuvor genannten Verfahren gestaltet und ausgebildet ist.
-
Unter einem Werkstück ist ein Objekt, insbesondere ein Messobjekt, zu verstehen, dass vermessen wird. Das Werkstück weist eine Oberfläche auf. Bilder eines Bereichs der Oberfläche können mit einem optischen Sensor eines Messgeräts erfasst. Der erfasste Bereich der Oberfläche des Werkstücks hängt von der 6-DOF Pose des optischen Sensors relativ zu dem Werkstück ab. Im Allgemeinen definiert eine 6-DOF Pose eines Objekts die Position und Ausrichtung (Orientierung) des Objekts im Raum. Position und Ausrichtung im Raum haben zusammen sechs Freiheitsgrade. Unter der 6-DOF Pose des optischen Sensors relativ zu dem Werkstück ist somit die Position und Ausrichtung des optischen Sensors relativ zu dem Werkstück zu verstehen. Wenn das Werkstück und der optische Sensor beispielsweise relativ zueinander bewegt werden, ändert sich somit auch die 6-DOF Pose des optischen Sensors relativ zu dem Werkstück.
-
Das Messgerät kann insbesondere ein Koordinatenmessgerät sein. Der optische Sensor kann beispielsweise einen Bildsensor und ein optisches System aufweisen. Der Bildsensor kann beispielsweise ein ladungsgekoppelter Halbleiterelementsensor sein, der auch CCD (charge-couple device) Sensor genannt wird. Der CCD Sensor kann ein monochromer Sensor oder ein Farbsensor sein. Alternativ kann der Bildsensor ein Halbleiterdetektor zur Lichtmessung sein, der auch CMOS Sensor genannt wird. Das optische System kann den Bereich der Oberfläche des Werkstücks auf dem Bildsensor abbilden. Das optische System weist vorzugsweise ein zumindest objektseitig telezentrisches Objektiv aufweisen. Das Objektiv kann insbesondere bildseitig und objektseitig telezentrisch sein.
-
Wie eingangs bereits erläutert, hat der optische Sensor eine Fokalebene, die eine Ebene größter Schärfe ist. Objekte bzw. Objektpunkte, die in der Fokalebene liegen, werden schärfer abgebildet als Objekte bzw. Objektpunkte, die nicht in der Fokalebene liegen. Die Fokalebene wird durch das optische System des optischen Sensors bestimmt. Die Fokalebene ist im Raum angeordnet. Die Fokalebene ist von dem optischen Sensor beabstandet. Die Fokalebene hat somit eine Position im Raum. Diese Position wird Fokalebenenposition genannt. Die Fokalebenenposition kann durch den Abstandsvektor des optischen Sensors zu der Fokalebene beschrieben werden, insbesondere durch den Abstand des optischen Sensors zu der Fokalebene.
-
Ein mit dem optischen Sensor erfasstes Bild hat eine Mehrzahl von Bildpunkten. Jeder Bildpunkt bildet einen Objektpunkt des entsprechenden Bereichs der Oberfläche des Werkstücks mit einer definierten Fokalebenenposition des optischen Sensors ab. Derzeitige optische Sensoren können Auflösungen von mehreren Megapixeln haben. Die Anzahl der Bildpunkte eines erfassten Bildes und entsprechend auch die Anzahl der abgebildeten Objektpunkte entsprechen der Anzahl der Pixel des optischen Sensors. Die erfassten Bilder können somit mehrere Millionen an Bildpunkte aufweisen.
-
Mittels des optischen Sensors des Messgeräts wird eine Mehrzahl von Bildern erfasst. Die erfassten Bilder bilden einen Bildstapel. Jedes Bild kann die gleiche Anzahl an Bildpunkten aufweisen. Jedem Bild ist eine definierte 6-DOF Pose des optischen Sensors relativ zu dem Werkstück und eine definierte Fokalebenenposition des optischen Sensors zugeordnet. Jedes Bild bildet somit den jeweiligen Bereich des Werkstücks entsprechend der zugeordneten 6-DOF Pose des optischen Sensors relativ zu dem Werkstück und der zugeordneten Fokalebenenposition des optischen Sensors ab. Das erfasste Bild wird dabei in einem lokalen Bezugssystem des optischen Sensors erfasst. Das lokale Bezugssystem des optischen Sensors kann beispielsweise durch ein kartesisches Koordinatensystem dargestellt werden. Der optische Sensor kann im Ursprung des kartesischen Koordinatensystems angeordnet sein. Das kartesische Koordinatensystem weist eine X-Koordinate, eine Y-Koordinate und eine Z-Koordinate auf. Die Fokalebene erstreckt sich in X- und Y-Richtung und ist in der Z-Richtung von dem optischen Sensor beanstandet. Jeder Objektpunkt auf der Oberfläche des Werkstücks weist eine Position in dem lokalen Bezugssystem des Sensors auf, insbesondere eine X-Position in der X-Richtung, eine Y-Position in der Y-Richtung und eine Z-Position in der Z-Richtung.
-
Je nach Abstand des abgebildeten Objektpunkts zu der Fokalebene ist der Objektpunkt mehr oder weniger scharf abgebildet. Für jeden Bildpunkt wird ein Schärfewert bestimmt. Der Schärfewert kann auch Fokuswert genannt werden. Der Schärfewert gibt ein Maß an, wie scharf der jeweilige Bildpunkt dargestellt ist. Mit anderen Worten beschreibt ein Schärfewert eine Bildschärfe an einem entsprechenden Punkt der Fokalebene. Jeder Schärfewert gibt somit in dem lokalen Bezugssystem des optischen Sensors zum Zeitpunkt des Erfassens des jeweiligen Bildes die Bildschärfe an einem bestimmten Punkt auf der Fokalebene an.
-
Zur Bestimmung des Schärfewerts kann beispielsweise die Helligkeit, ein Kontrast-Wert oder ein Grau-Wert eines Bildpunkts betrachtet werden. Insbesondere kann zur Bestimmung des Fokuswerts ein Gradient der Helligkeit, des Kontrast-Werts oder des Grau-Werts zu den umliegenden Bildpunkten bestimmt werden. Umso größer der Gradient ist, umso schärfer ist der Bildpunkt und umso größer ist der Schärfewert.
-
Auf Basis der bestimmten Schärfewerte jedes Bildes wird für jedes Bild eine Schärfekarte erzeugt. Die Schärfekarte kann auch Fokuskarte genannt werden. Die Schärfekarte eines Bildes enthält für jeden Bildpunkt einen entsprechenden Schärfewert. Mit anderen Worten weist die Schärfekarte in dem lokalen Bezugssystem des optischen Sensors jedem abgebildeten Punkt der Fokalebene einen entsprechenden Schärfewert zu. Die Schärfekarten bilden gemeinsam einen Schärfekartenstapel. Der Schärfekartenstapel kann auch Fokuskartenstapel genannt werden.
-
Die Schärfekarten des Schärfekartenstapels werden in ein definiertes Bezugssystem transformiert. Dazu werden die jeweilige zugeordnete 6-DOF Pose und Fokalebenenposition des optischen Sensors verwendet. Das definierte Bezugssystem ist ein gemeinsames oder globales Koordinatensystem. Insbesondere ist das definierte Bezugssystem ein Bezugssystem, in dem das Werkstück eine feste Anordnung, sprich 6-DOF-Pose, hat. Mit anderen Worten ist das definierte Bezugssystem ein werkstück-festes Bezugsystem. Das definierte Bezugssystem kann ebenfalls ein kartesisches Koordinatensystem sein. Zur Transformation kann auf Basis der jeweiligen 6-DOF Pose des Sensors relativ zu dem Werkstück ein Translation-Vektor und/oder eine Rotation-Matrix bestimmt werden, mittels denen das jeweilige lokale Bezugssystem in das definierte, globale Bezugssystem überführt werden kann. Jede Schärfekarte kann mittels des entsprechenden Translation-Vektor und/oder der entsprechenden Rotation-Matrix in das definierte, globale Bezugssystem transformiert werden.
-
Die transformierten Schärfekarten bilden gemeinsam eine Schärfewolke in dem definierten, globalen Bezugssystem. Die Schärfewolke ist eine Punktwolke in dem definierten Bezugssystem, wobei jedem Punkt der Punktwolke ein Schärfewert zugeordnet ist. Mit anderen Worten bildet die Schärfewolke ein dreidimensionales skalares Feld, das jedem Punkt im Raum des definierten Bezugssystems einen Schärfewert zuweist. Die Punkte einer transformierten Schärfekarte bilden dabei einen Schnitt des dreidimensionalen skalaren Feldes.
-
Auf Basis der Schärfewolke wird das Oberflächenprofil des Werkstücks erzeugt bzw. bestimmt. Die Schärfewolke weist an den Stellen lokale Schärfe-Maxima auf, an denen ein Objektpunkt der Oberfläche des Werkstücks scharf abgebildet ist. Mit anderen Worten entsprechen die Positionen der lokalen Schärfe-Maxima Oberflächenpunkten des Werkstücks. Somit kann auf Basis der lokalen Schärfe-Maxima das Oberflächenprofil des Werkstücks bestimmt werden.
-
Da die Oberfläche des Werkstücks kontinuierlich ist, sind die lokalen Schärfe-Maxima der Schärfewolke einfach zusammenhängend und bilden eine oder mehrere Flächen maximaler Schärfe. Jede Fläche maximaler Schärfe bildet zumindest einen Teil des Oberflächenprofils des Werkstücks ab. Mit anderen Worten spannen die lokalen Schärfe-Maxima einen oder mehrere 2D Unterräume des 3D Raums des definierten Bezugssystems auf, wobei jeder 2D Unterraum einfach zusammenhängend ist. Das bestimmte Oberflächenprofil des Werkstücks liefert somit eine 3D Information des Werkstücks, insbesondere ein 3D Abbild des Werkstücks in dem definierten Bezugssystem.
-
Mit anderen Worten kann durch die Berechnung von Schärfekarten der erfassten Bilder und durch die Transformation der Schärfekarten von dem lokalen Bezugssystem des optischen Sensors in ein definiertes, globales Bezugssystem eine Schärfewolke erzeugt werden, mittels der das Oberflächenprofil des Werkstücks bestimmt wird.
-
Zur Transformation wird die 6-DOF Pose des optischen Sensors benötigt, sprich die Position und die Ausrichtung des optischen Sensors relativ zu dem Werkstück. Insbesondere können beispielsweise die Position des Zentrums des optischen Sensors, der Pixel-Versatzes sowie die Verkippung und die Rotation des optischen Sensors als Transformationsparameter verwendet werden. Diese Parameter können insbesondere auf Basis der Standardkalibration des optischen Sensors bestimmt werden.
-
Ein Registrierungsschritt sowie ein Grauwertabgleich sind mittels des neuen Ansatzes nicht erforderlich, weil die Schärfeninformation direkt an der Position im Raum evaluiert wird, wo sie von dem optischen Sensor erfasst wurde.
-
Die resultierende Schärfewolke kann dann verarbeitet werden, um die 3D Information, sprich das Oberflächenprofil, des Werkstücks zu bestimmen. Zur Analyse einer Punktwolke bzw. eines drei-dimensionalen skalaren Feldes, um eine Oberfläche in diesem Feld zu identifizieren, sind im Stand der Technik verschiedene Methoden bereits bekannt. Beispielsweise können zur Evaluierung der Schärfewolke Algorithmen eingesetzt werden, die aus der Röntgenmesstechnik bekannt sind. Jede dieser Methoden kann verwendet werden, um das Oberflächenprofil des Werkstücks auf Basis der Schärfewolke zu bestimmen.
-
Der beschriebene neue Ansatz zum Erfassen, Verarbeiten und Analysieren einer Schärfewolke zur Oberflächenrekonstruktion eines Werkstücks hat folgende Vorteile. Zum einen ist eine Registrierung mit Sub-Pixel Genauigkeit von versetzen Bildstapeln, die während lateraler Bewegung erfasst wurden, nicht mehr erforderlich. Stattdessen wird die Schärfeninformation direkt an der Position im Raum evaluiert, an der sie vom optischen Sensor erfasst wurde. Des Weiteren basiert der neue Ansatz nicht auf festen Modellfunktionen. Daher können Kanten zuverlässiger rekonstruiert werden. Des Weiteren wird die Oberflächenrekonstruktion robuster und genauer, weil nicht nur ein Schärfeprofil in einer axialen Richtung, sondern vielmehr die gesamte, verfügbare 3D Schärfeinformation verwendet wird.
-
Die eingangs gestellte Aufgabe wird somit vollumfänglich gelöst.
-
In einer ersten Ausgestaltung kann das Verfahren des Weiteren den folgenden Schritt aufweisen:
- - Anordnen des Werkstücks auf einem Werkstückhalter.
-
Insbesondere kann das Messgerät den Werkstückhalter aufweisen. Durch Anordnung des Werkstücks auf einem Werkstückhalter wird dem Werkstück eine feste, definierte 6-DOF Pose im Raum relativ zu dem Werkstückhalter zugeordnet.
-
In einer weiteren Ausgestaltung kann das Verfahren des Weiteren den folgenden Schritt aufweisen:
- - Bewegen des optischen Sensors und des Werkstücks relativ zueinander während des Schritts des Erfassens, um die 6-DOF Pose des optischen Sensors im Raum relativ zu dem Werkstück zu verändern,
-
Auf diese Weise kann das Blickfeld des optischen Sensors, in dem der zu erfassende Bereich der Oberfläche des Werkstücks liegt, und/oder die Anordnung der Fokalebene des optischen Sensors im Raum relativ zu dem Werkstück variiert werden.
-
Insbesondere können in dem Schritt des Erfassens die Bildern erfasst werden, während der optische Sensor und das Werkstück relativ zueinander bewegt werden, wobei jedem Bild eine unterschiedliche, definierte 6-DOF Pose des optischen Sensors zugeordnet wird.
-
In einer weiteren Ausgestaltung können in dem Schritt des Bewegens der optische Sensor und der Werkstückhalter relativ zueinander bewegt werden.
-
Dadurch werden auch das Werkstück, das auf dem Werkstückhalter angeordnet ist, und der optische Sensor relativ zueinander bewegt. Dadurch können das Werkstück und der optische Sensor auf einfache und definierte Weise relativ zueinander bewegt werden. Das Messgerät kann insbesondere eine Antriebseinrichtung aufweisen, mittels der der optische Sensor und/oder der Werkstückhalter bewegt werden. Die Antriebseinrichtung kann mittels der Steuereinrichtung des Messgeräts gesteuert werden. Die Antriebseinrichtung kann beispielsweise einen Piezo-elektrischer Antrieb, einen Direktantrieb oder einen Spindelantrieb aufweisen. Die Antriebseinrichtung kann dazu ausgebildet sein, den optischen Sensor und/oder den Werkstückhalter in einer oder mehreren Raumrichtung zu bewegen. Insbesondere kann das Messgerät zwei Antriebseinrichtungen, eine erste zum Bewegen des optischen Sensors und eine zweite zum Bewegen des Werkstückhalters.
-
In einer weiteren Ausgestaltung kann in dem Schritt des Bewegens der optische Sensor translatorisch, insbesondere lateral zu dem Werkstück, bewegt werden.
-
Durch eine translatorische Bewegung wird die Position des optischen Sensors relativ zu dem Werkstück verändert. Die translatorische Bewegung kann lateral, sprich parallel zu der Fokalebene, und/oder vertikal, sprich senkrecht zu der Fokalebene, erfolgen. Die laterale Bewegung ist eine Bewegung in der X- und/oder Y-Richtung des lokalen Bezugssystems des optischen Sensors. Bei einer lateralen Bewegung werden somit unterschiedliche Bereiche der Oberfläche des Werkstücks aufgenommen, wobei die Fokalebene des optischen Sensors relativ zu dem Werkstück gleich angeordnet bleibt. Die vertikale Bewegung ist eine Bewegung in der Z-Richtung des lokalen Bezugssystems des optischen Sensors. Bei einer vertikalen Bewegung wird die Fokalebene, insbesondere in der Z-Richtung, verschoben, wobei der erfasste Bereich der Oberfläche des Werkstücks gleichbleibt. Die translatorische Bewegung kann eine Kombination aus lateraler und vertikaler Bewegung sein.
-
In einer weiteren Ausgestaltung kann in dem Schritt des Bewegens der optische Sensor rotatorisch bewegt, insbesondere gekippt und/oder gedreht, werden.
-
Durch eine rotatorische Bewegung wird die Ausrichtung, sprich Orientierung, des optischen Sensors relativ zu dem Werkstück verändert. Die rotatorische Bewegung kann eine Kippbewegung und/oder eine Drehbewegung sein. Die Kippbewegung ist eine Drehung um die X-Achse und/oder Y-Achse des lokalen Bezugssystems des optischen Sensors. Bei der Kippbewegung werden somit unterschiedliche Bereiche der Oberfläche des Werkstücks mit unterschiedlichen Fokalebenen aufgenommen. Die Drehbewegung ist eine Drehung um die Z-Achse des lokalen Bezugssystems des optischen Sensors. Die rotatorische Bewegung kann eine Kombination aus Kippbewegung und Drehbewegung sein.
-
In einer weiteren Ausgestaltung kann in dem Schritt des Bewegens der optische Sensor entlang einer vordefinierten Bahn bewegt wird.
-
Beispielsweise kann die vordefinierte Bahn derart sein, dass der optische Sensor mittels der erfassten Bilder die gesamte Oberfläche bzw. zumindest die Teile der Oberfläche, die nicht durch den Werkstückhalter verdeckt sind, erfasst. Die vordefinierte Bahn kann beispielsweise eine lineare, geschlossene, spiralförmige oder wellenförmige Bahn sein, die um das Werkstück herum oder an dem Werkstück entlang führt. Die vordefinierte Bahn kann entsprechend der Größe und der Anordnung des Werkstücks auf dem Werkstückhalter eingestellt werden. Die vordefinierte Bahn kann beispielsweise in durch ein Messprogramm oder manuell festgelegt werden.
-
In einer weiteren Ausgestaltung kann das Verfahren des Weiteren den folgenden Schritt aufweisen:
- - Verändern der Fokalebenenposition des optischen Sensors während des Schritts des Erfassens.
-
Verändern der Fokalebenenposition bedeutet, dass der Abstand des optischen Sensors zu seiner Fokalebene verändert wird. Beispielsweise kann der Abstand vergrößert, verkleinert, oder sinusförmig variiert werden. Beispielseise kann die Fokalebenenposition durch Bewegen des Objektivs des optischen Systems des optischen Sensors und/oder des CCD Sensors relativ zueinander variiert werden. Durch das Verändern der Fokalebenenposition wird die Anordnung der Fokalebene des optischen Sensors im Raum relativ zu dem Werkstück variiert. Dadurch können Bereiche der Oberfläche des Werkstücks in der Tiefenrichtung, sprich in der Z-Richtung des lokalen Bezugssystems des optischen Sensors abgetastet werden. Beispielsweise kann die Fokalebenenposition entsprechend einer vordefinierten Einstellung verändert werden. Die vordefinierten Einstellung kann beispielsweise durch ein Messprogramm oder manuell festgelegt werden.
-
Insbesondere können in dem Schritt des Erfassens die Bilder erfasst werden, während die Fokalebenenposition des optischen Sensors verändert wird, wobei jedem Bild eine unterschiedliche, definierte Fokalebenenposition des optischen Sensors zugeordnet wird.
-
In einer weiteren Ausgestaltung kann das Verfahren des Weiteren den folgenden Schritt aufweisen:
- - Bestimmen der 6-DOF Pose und/oder der Fokalebenenposition des optischen Sensors während ein Bild mit dem optischen Sensor erfasst wird, wobei die bestimmte 6-DOF Pose und/oder die bestimmte Fokalebenenposition dem erfassten Bild zugeordnet wird.
-
Beispielsweise kann die Antriebeinrichtung des Messgeräts vorkalibriert sein. Wenn der optische Sensor und der Werkstückhalter entsprechend einer vordefinierten Bahn relativ zueinander bewegt werden, ist durch die Kalibration die 6-DOF Pose des optischen Sensors relativ zu dem Werkstückhalter und damit auch relativ zu dem Werkstück bestimmbar. Entsprechend kann auch das optische System des optischen Sensors vorkalibriert sein. Wenn die Fokalebenenposition entsprechend der vordefinierten Einstellung verändert wird, ist durch die Kalibration des optischen Systems die Fokalebenenposition des optischen Sensors bestimmbar. Alternativ kann 6-DOF Pose Sensors und/oder der Fokalebenenposition des optischen auch zu dem Zeitpunkt, an dem ein Bild erfasst wird, gemessen werden.
-
In einer weiteren Ausgestaltung kann der Schärfewert jedes Bildpunkts auf Basis einer Schärfe des Bildpunkts bestimmt werden.
-
Wie eingangs bereits erläutert, lässt sich der Schärfewert eines Bildpunkts beispielsweise auf Basis eines Gradienten oder der lokalen Grauwertvarianz zu den umgebenden Bildpunkten des entsprechenden Bildes bestimmen.
-
In einer weiteren Ausgestaltung kann in dem Schritt des Erzeugens eine Segmentierung der Schärfewolke durchgeführt wird, insbesondere wobei die Schärfewolke auf Basis eines Schärfeschwellenwertverfahrens gefiltert wird.
-
Durch die Segmentierung werden Bereiche hoher Schärfe in der Schärfewolke identifiziert. Oberflächenpunkte des Werkstücks liegen nur in diesen Bereichen. Ein Schärfeschwellenwertverfahren kann zur Segmentierung der Schärfewolke verwendet werden. Mittels des Filterns der Schärfewolke nach Schärfeschwellenwerten kann das Oberflächenprofil des Werkstücks abgeschätzt werden. Mittels des Schärfeschwellenwertverfahrens erhält man somit eine zumindest grobe 3D Information des Werkstücks. Zudem wird die Bilddatenmenge reduziert, weil unscharfe Bereiche verworfen werden.
-
In einer weiteren Ausgestaltung können in dem Schritt des Erzeugens lokale Schärfe-Maxima der Schärfewolke bestimmt werden, wobei jedes lokale Schärfe-Maximum einen Oberflächenpunkt des Werkstücks abbildet.
-
Wie eingangs bereits beschrieben, entsprechen die Stellen der lokalen Schärfe-Maxima Oberflächenpunkten des Werkstücks. Durch das Bestimmen der lokalen Schärfe-Maxima kann somit das Oberflächenprofil des Werkstücks erzeugt werden. Die lokalen Schärfe-Maxima können insbesondere auf Basis der segmentierten Schärfewolke bestimmt werden.
-
In einer weiteren Ausgestaltung können in dem Schritt des Erzeugens eine oder mehrere Flächen maximaler Schärfe bestimmt werden, wobei die Flächen maximaler Schärfe die Oberfläche des Werkstücks abbilden.
-
Wie eingangs bereits beschrieben, bilden lokale Schärfe-Maxima der Schärfewolke einfach zusammenhängende Flächen maximaler Schärfe. Die Flächen maximaler Schärfe entsprechen Flächen der Oberfläche des Werkstücks. Durch die Bestimmung dieser Flächen in der Schärfewolke kann das Oberflächenprofil auf einfache Weise erzeugt werden.
-
In einer weiteren Ausgestaltung kann zum Erzeugen des Oberflächenprofils die Methode der gleitenden kleinsten Quadrate auf die Schärfewolke angewandt werden, insbesondere wobei Schärfewerte als Gewichtungsfaktoren verwendet werden.
-
Die Methode der gleitenden kleinsten Quadrate wird auch „Moving Least Squares Method“ genannt. Diese ist eine Methode zum Rekonstruieren kontinuierlicher Funktionen aus einem Satz von unorganisierten Punktabtastwerten, insbesondere durch die Berechnung eines Maßes der gewichteten kleinsten Quadrate ausgerichtet auf einen Bereich um den zu rekonstruierenden Punkt. Mit anderen Worten kann die Methode der gleitenden kleinsten Quadrate dazu verwendet werden, eine 3D-Oberfläche aus einer Punktwolke entweder durch Downsampling oder Upsampling zu erzeugen. Vorzugsweise dienen hierbei Schärfewerte als Gewichtungsfaktoren. Die Methode der gleitenden kleinsten Quadrate wird insbesondere auf die segmentierte Schärfewolke angewandt. Die Methode der gleitenden kleinsten Quadrate kann somit dazu verwendet werden, die Flächen maximaler Schärfe in der Schärfewolke zu bestimmen. Die Verwendung der Methode der gleitenden kleinsten Quadrate zum Erzeugen von Oberflächen ist beispielsweise in dem Fachartikel Lancaster, P., & Salkauskas, K. (1981), „Surfaces generated by moving least squares methods“, Mathematics of Computation, 37(155), 141-158 beschrieben.
-
In einer weiteren Ausgestaltung können zum Erzeugen des Oberflächenprofils eine oder mehrere definierte Geometrien an die Schärfewolke angepasst werden, insbesondere mittels einer Methode der gewichteten kleinsten Quadrate.
-
Die definierten Geometrien werden insbesondere an die segmentierte Schärfewolke angepasst. mit Hilfe dieser Geometrien können somit die Flächen maximaler Schärfe in der Schärfewolke bestimmt werden und das Oberflächenprofil des Werkstücks rekonstruiert werden. Die sind zweidimensionale Flächen mit definierter Form. Die definierten Geometrien sind vorzugsweise reguläre bzw. standardisierte Geometrien wie beispielsweise Kugeln, Kugeloberflächen, Ebenen, Kegel oder Kegeloberflächen. Insbesondere können die definierten Geometrien auch komplexere Geometrien sein. Insbesondere können die definierten Geometrien auch Abbilder eines CAD Modells des Werkstücks sein.
-
In einer weiteren Ausgestaltung kann zum Erzeugen des Oberflächenprofils ein neuronales Netzwerk verwendet werden, das trainiert ist, auf Basis der Schärfewolke das Oberflächenprofil zu erzeugen.
-
Insbesondere kann das neuronale Netzwerk auf Basis der segmentierten Schärfewolke das Oberflächenprofil erzeugen. Insbesondere kann das neuronale Netzwerk darauf trainiert sein, Flächen maximaler Schärfe in der Schärfewolke zu bestimmen bzw. erkennen. Die Evaluation einer Schärfewolke mittels eines neuronalen Netzwerks ist beispielsweise in dem Fachartikel Raina, P., Mudur, S. P., & Popa, T. (2019), „Sharpness fields in point clouds using deep learning“, Computers & Graphics, 78, 37-53 beschrieben.
-
In einer weiteren Ausgestaltung kann das Verfahren des Weiteren den folgenden Schritt aufweisen:
- - Ausgeben des Oberflächenprofils mittels einer Ausgabeeinrichtung.
-
Vorzugsweise weist das Messgerät die Ausgabeeinrichtung auf. Die Ausgabeeinrichtung kann beispielsweise ein Display aufweisen, wobei die Tiefenkarte auf dem Display dargestellt werden kann. Des Weiteren kann die Ausgabeeinrichtung dazu ausgebildet sein, die Tiefenkarte an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben. Die elektronische Speichereinrichtung kann beispielsweise eine Speichermedium, insbesondere eine Festplatte, ein Flash-Speicher oder eine Cloud sein. Die weitere Vorrichtung kann beispielsweise die Tiefenkarte verwenden, um weitere Prozesse durchzuführen. Das externe Display kann beispielsweise dazu ausgebildet sein, die Tiefenkarte darzustellen.
-
In einer weiteren Ausgestaltung kann das Messgerät des Weiteren einen Werkstückhalter für das Werkstück aufweisen.
-
Der Werkstückhalter kann dazu eine Auflagefläche oder eine Halterung aufweisen, auf bzw. in der das Werkstück angeordnet werden kann. Durch Anordnung des Werkstücks auf einem Werkstückhalter wird dem Werkstück eine feste, definierte 6-DOF Pose im Raum relativ zu dem Werkstückhalter zugeordnet.
-
In einer weiteren Ausgestaltung kann das Messgerät des Weiteren eine Antriebseinrichtung zum Bewegen des optischen Sensors und/oder des Werkstückhalters aufweisen.
-
Die Antriebseinrichtung ist dazu ausgebildet, den optischen Sensor und/oder den Werkstückhalter im Raum, insbesondere relativ zueinander, zu bewegen. Wie zuvor bereits erläutert kann die Antriebseinrichtung mittels der Steuereinrichtung des Messgeräts gesteuert werden. Die Antriebseinrichtung kann beispielsweise einen Piezo-elektrischer Antrieb, einen Direktantrieb oder einen Spindelantrieb aufweisen. Die Antriebseinrichtung kann dazu ausgebildet sein, den optischen Sensor und/oder den Werkstückhalter in einer oder mehreren Raumrichtung zu bewegen. Insbesondere kann das Messgerät zwei Antriebseinrichtungen, eine erste zum Bewegen des optischen Sensors und eine zweite zum Bewegen des Werkstückhalters.
-
In einer weiteren Ausgestaltung kann das Messgerät des Weiteren eine Ausgabeeinrichtung zum Ausgeben des erzeugten Oberflächenprofils aufweisen.
-
Die Ausgabeeinrichtung kann beispielsweise ein Display aufweisen, wobei die Tiefenkarte auf dem Display dargestellt werden kann. Des Weiteren kann die Ausgabeeinrichtung dazu ausgebildet sein, das Oberflächenprofil an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben. Die elektronische Speichereinrichtung kann beispielsweise eine Speichermedium, insbesondere eine Festplatte, ein Flash-Speicher oder eine Cloud sein. Die weitere Vorrichtung kann beispielsweise das Oberflächenprofil verwenden, um weitere Prozesse durchzuführen. Das externe Display kann beispielsweise dazu ausgebildet sein, das Oberflächenprofil darzustellen.
-
Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
-
Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
- 1 eine exemplarische Darstellung einer Tiefenkarte aus dem Stand der Technik;
- 2 eine exemplarische Darstellung eines Schärfeprofils aus dem Stand der Technik;
- 3 eine exemplarische Darstellung eines versetzten Bildstapels aus dem Stand der Technik;
- 4 eine exemplarische Darstellung eines verzerrten Schärfeprofils aus dem Stand der Technik;
- 5 eine schematische Ansicht eines Messgeräts;
- 6 eine schematische Ansicht zur Darstellung einer translatorischen Bewegung eines optischen Sensors des Messgeräts aus 5;
- 7 eine schematische Ansicht zur Darstellung einer rotatorischen Bewegung des optischen Sensors des Messgeräts aus 5;
- 8 eine schematische Ansicht zur Darstellung unterschiedlicher Fokalebenenpositionen des optischen Sensors des Messgeräts aus 5;
- 9 eine schematische Ansicht eines Verfahrens zum Vermessen einer Oberfläche eines Werkstücks;
- 10eine exemplarische Seitenansicht einer Schärfewolke; und
- 11 eine exemplarische Ansicht einer segmentierten Schärfewolke.
-
5 zeigt ein Messgerät 10. Das Messgerät kann ein Koordinatenmessgerät oder ein Mikroskop sein. Das Messgerät 10 dient zum Vermessen eines Werkstücks 12. Hierzu weist das Messgerät 10 einen optischen Sensor 14 auf. In Ergänzung zu dem optischen Sensor 14 können selbstverständlich noch weitere Sensoren vorgesehen sein, beispielsweise taktile Sensoren, die jedoch in der vorliegenden schematischen Ansicht nicht dargestellt sind.
-
Das zu vermessende Werkstück 12 ist auf einem Werkstückhalter 16 angeordnet. Der Werkstückhalter 16 kann ein Messtisch, ein Werktisch oder ein Objekttisch sein.
-
Der optische Sensor 14 kann ein optisches System 30 und einen Bildsensor aufweisen. Das optische System 30 bildet einen Bereich der Oberfläche des Werkstücks 12 auf den Bildsensor ab. Der optische Sensor 14 kann mittels des Bildsensors ein Bild des Bereichs der Oberfläche des Werkstücks 12 erfassen. Des Weiteren kann das Messgerät 10 eine Beleuchtungseinrichtung 32 aufweisen. Die Beleuchtungseinrichtung ist dazu ausgebildet, zumindest den Bereich der Oberfläche des Werkstücks 12 zu beleuchten.
-
Der optische Sensor 14 erfasst den Bereich der Oberfläche des Werkstücks 12 in einem lokalen Bezugssystem 38. Das lokale Bezugssystem 38 ist ein kartesisches Koordinatensystem. Das lokale Bezugssystem 38 ist ein sensor-festes Bezugssystem. Der optische Sensor 14 hat eine feste 6-DOF Pose in dem Koordinatensystem 38. Das Bild des erfassten Bereichs der Oberfläche des Werkstücks 12 erstreckt sich in der X- und Y-Richtung des lokale Bezugssystems 38. Objektpunkte des Werkstücks 12, die in dem erfassten Bereich der Oberfläche des Werkstücks 12 liegen, sind in der Z-Richtung des lokalen Bezugssystems 38 von dem optischen Sensor beabstandet. Der optische Sensor 14 hat des Weiteren eine Fokalebene. Die Fokalebene erstreckt sich in der X- und Y-Richtung des lokale Bezugssystems 38 und ist in der Z-Richtung des lokale Bezugssystems 38 von dem optischen Sensor beabstandet. Die Anordnung der Fokalebene in dem lokalen Bezugssystems 38 kann Fokalebenenposition genannt werden. Die Fokalebenenposition, insbesondere der Abstand der Fokalebene zu dem optischen Sensor 14, wird über die Anordnung des optischen Systems 30 und des Bildsensor bestimmt. Vorzugseise ist die Fokalebenenposition veränderbar. Beispielsweise kann die Fokalebenenposition durch eine Bewegung eines Objektivs des optischen Systems 30 und/oder des Bildsensors in Z-Richtung des lokalen Bezugssystems 38 verändert werden.
-
Das Werkstück 12, der optische Sensor 14 und der Werkstückhalter 16 sind im Raum bezüglich eines definierten Bezugsystems 18 angeordnet. Das definierte Bezugsystem 18 ist ein kartesisches Koordinatensystem. In dem definierten Bezugssystem 18 hat der optische Sensor 14 eine 6-DOF Pose 20, das Werkstück 12 eine 6-DOF Pose 22 und der Werkstückhalter 16 eine 6-DOF Pose 34. Mit anderen Worten haben der optische Sensor 14, das Werkstück 12 und der Werkstückhalter 16 jeweils eine definierte Position und Ausrichtung in dem definierten Bezugssystem 18. Das Koordinatensystem 18 ist ein werkstück-festes Bezugssystem. Der Werkstückhalter 16 sowie das Werkstück 12, wenn es auf dem Werkstückhalter 16 angeordnet ist, haben daher eine feste 6-DOF Pose in dem Koordinatensystem 18. Die 6-DOF Pose 20 des optischen Sensors 14 in dem Koordinatensystem 18 kann veränderbar sein. Die 6-DOF Pose 20 des optischen Sensors 14 in dem Koordinatensystem 18 entspricht einer 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12.
-
In der dargestellten Ansicht ist der Werkstückhalter 16 in einer X-Y-Ebene des Koordinatensystems 18 ausgerichtet. Senkrecht zu dem Werkstückhalter 16 erstreckt sich eine Z-Richtung des Koordinatensystems 18.
-
Der optische Sensor 14 und/oder der Werkstückhalter 16 können im Raum bewegbar ausgebildet sein. Wenn der optische Sensor 14 und/oder der Werkstückhalter 16 im Raum bewegt werden, ändert sich die 6-DOF-Pose des optischen Sensors 14 relativ zu dem Werkstück 12. In dem werkstück-festen Koordinatensystem 18 ändert sich somit dabei die 6-DOF-Pose 20 des optischen Sensors 14. Grundsätzlich kann hierzu vorgesehen sein, dass der Werkstückhalter 16 und/oder der optische Sensor 14, beispielsweise mittels einer geeigneten Mechanik 24, translatorisch und/oder rotatorisch bewegbar ist.
-
Das Messgerät 10 kann des Weiteren eine Antriebseinrichtung 28 aufweisen. Die Antriebseinrichtung 28 ist dazu ausgebildet, den Werkstückhalter 16 und/oder den optischen Sensor 14 im Raum zu bewegen. Vorzugsweise ist die Antriebseinrichtung 28 dazu ausgebildet, den optischen Sensor 14 im Raum zu bewegen. Dazu kann die Antriebseinrichtung 28 beispielsweise Antriebsmittel aufweisen, die die Mechanik 24 bewegen, um dadurch den optischen Sensor 14 zu bewegen. Alternativ kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, den Werkstückhalter 16 im Raum zu bewegen. Selbstverständlich kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, sowohl den optische Sensor 14 als auch den Werkstückhalter 16 in der Tiefenrichtung 20 zu bewegen. Dazu können insbesondere zwei Antriebseinrichtungen vorgesehen sein.
-
Das Messgerät 10 weist des Weiteren eine Steuereinrichtung 26 auf. Die Steuereinrichtung 26 ist dazu eingerichtet, die einzelnen Komponenten des Messgeräts zu steuern und Daten zu verarbeiten. Die Steuereinrichtung 26 kann dazu beispielsweise verschiedene Untereinheiten aufweisen, die jeweils eine Steuerung einer Komponente und/oder eine Verarbeitung von Daten durchführen. Beispielsweise kann die Steuereinrichtung 26 eine Regelungseinheit aufweisen, die die Antriebseinrichtung 28, den optischen Sensor 14 und/oder die Beleuchtungseinrichtung 32 steuert. Des Weiteren kann die Steuereinrichtung 26 eine Datenverarbeitungseinheit aufweisen, die dazu eingerichtet ist, die Auswertung von erfassten Bildern des optischen Sensors durchzuführen. Die Datenverarbeitungseinheit kann beispielsweise auf Basis einer Mehrzahl von erfassten Bildern, die einen Bildstapel bilden, Oberflächenprofil des Werkstücks 12 erzeugen.
-
Die Steuereinrichtung 26 kann mit einem nichtflüchtigen Datenspeicher, in dem ein Computerprogramm gespeichert ist, verbunden sein oder diesen aufweisen. Bei manchen Ausführungsbeispielen ist die Steuereinrichtung 26 ein Mehrzweckcomputer, wie etwa ein handelsüblicher Personal Computer, der unter Windows@, Linux oder MacOS läuft, und das Computerprogramm aus dem Speicher weist einen Programmcode auf, der zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Bei einem alternativen Ausführungsbeispiel ist die Steuereinrichtung 26 ein logischer Schaltkreis, wie etwa ein vor Ort programmierbares Gate-Array (FPGA: Field Programmable Gate Array), ein anwendungsspezifischer integrierter Schaltkreis (ASIC: Application-Specific Integrated Circuit), ein Mikrocontroller oder ein beliebiger anderer angemessener programmierbarer elektrischer Schaltkreis. Darin können die Ausführungsformen des neuen Verfahrens, insbesondere Steuer- und Bestimmungsschritte, mit dem logischen Schaltkreis implementiert werden, sodass der logische Schaltkreis zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination mit dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Zum Implementieren von Ausführungsformen des neuen Verfahrens in dem logischen Schaltkreis kann eine beliebige angemessene Programmiersprache oder Hardwarebeschreibungssprache verwendet werden, wie etwa C, VHDL, Cuda, OpenCL und dergleichen.
-
Des Weiteren kann das Messgerät 10 eine Ausgabeeinrichtung 36 aufweisen. Die Ausgabeeinrichtung 36 ist dazu eingerichtet, das erzeugte Oberflächenprofil des Werkstücks 12 auszugeben. Die Ausgabeeinrichtung 36 kann beispielsweise ein Display aufweisen, auf dem das Oberflächenprofil des Werkstücks 12 dargestellt werden kann. Alternativ oder zusätzlich kann die Ausgabeeinrichtung 36 dazu ausgebildet sein, das Oberflächenprofil des Werkstücks 12 an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben.
-
Darüber hinaus kann das Messgerät 10 auch ein Eingabegerät aufweisen, mit dem ein Nutzer Eingaben tätigen kann. Beispielsweise kann mittels des Eingabegeräts eine Bewegungsbahn des optischen Sensors 14 und/oder des Werkstückhalters 16 eingeben werden oder der optischen Sensor 14 und/oder der Werkstückhalter 16 manuell bewegt werden. Des Weiteren kann mittels des Eingabegeräts auch die Fokalebenenposition des optischen Sensors 14 vorgegeben oder verändert werden.
-
Alternativ oder zusätzlich kann auch vorgesehen sein, dass die Steuereinrichtung 26 entsprechend einem Messprogramm operiert. Das Messprogramm kann beispielsweise Steuerbefehle umfassen, die die Bewegung des optischen Sensors und/oder des Werkstückhalters, die Einstellung der Fokalebenenposition und die Erfassung der Bilder regeln. Insbesondere kann das Messprogramm einen Messablauf zur Vermessung des Werkstücks vorgeben. Dazu kann das Messprogramm beispielsweise eine Bewegungsbahn vorgeben entlang der der optische Sensor 14 und/oder der Werkstückhalter 16 bewegt werden sollen. Des Weiteren kann das Messprogramm vorgeben, wie die Fokalebenenposition verändert werden soll. Des Weiteren kann das Messprogramm die Zeitpunkte definieren, an denen Bilder mittels des optischen Sensors 14 erfasst werden sollen. Die Steuereinrichtung 26 kann entsprechend der Steuerbefehle den optischen Sensor 14 und die Antriebseinrichtung 28 steuern.
-
Das Messprogramm kann beispielsweise in dem Datenspeicher gespeichert sein, mit dem die Steuereinrichtung 26 verbunden ist oder den die Steuereinrichtung 26 aufweist. Das Messprogramm kann auch auf einem externen Gerät, beispielsweise einem Computer ablaufen, wobei entsprechende Steuerbefehle des Messprogramms an die Steuereinrichtung 26 gesendet werden.
-
Zum Vermessen des Werkstücks 12 wird mittels des optischen Sensors eine Mehrzahl von Bildern erfasst, wobei die Bilder einen Bildstapel bilden. Zum Zeitpunkt der Erfassung eines Bildes hat der optische Sensor 14 eine entsprechende 6-DOF Pose relativ zu dem Werkstück 12 sowie eine entsprechende Fokalebenposition. Daher ist jedem erfassten Bild eine definierte 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 und eine definierte Fokalebenposition des optischen Sensors 14 zugeordnet. Während des Erfassens der Mehrzahl von Bildern können die 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 sowie die Fokalebenposition des optischen Sensors 14 verändert werden, so dass den Bilder eine verschiedene 6-DOF Posen und/oder verschiedene Fokalebenpositionen zugeordnet sind. Beispielsweise kann während des Erfassens der Bilder der optische Sensor lateral zu dem Werkstück bewegt werden und die Fokalebenenposition variiert werden. Der Bildstapel kann dann von der Steuereinrichtung 26 ausgewertet werden, um das Oberflächenprofil der Oberfläche des Werkstücks 12 zu erzeugen.
-
Die 6 und 7 zeigen exemplarisch Veränderungen der 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12. Insbesondere kann die 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 während des Erfassens der Bilder erfolgen. Die 6-DOF Pose kann dabei schrittweise oder kontinuierlich verändert werden.
-
In 6 wird der optische Sensor 14 translatorisch bewegt. Die Translatorische Bewegung ist mit einem Pfeil mit dem Bezugszeichen 40 dargestellt. Der optische Sensor 14 wird dabei von einer 6-DOF Pose 20 zu einer 6-DOF Pose 20' bewegt. Das lokale Bezugssystem 38 wird dabei ebenfalls translatorisch bezüglich des Bezugssystems 18 verschoben. Die verschobene Anordnung des Bezugssystems 38 ist mit 38' dargestellt. Grundsätzlich kann die Bewegungsrichtung der Bewegung 40 im Raum beliebig sein. Die Bewegungsrichtung, in der der optische Sensor in 6 bewegt wird, ist lateral zu dem Werkstück 12. Alternativ kann die Bewegungsrichtung auch senkrecht oder quer zu dem Werkstück 12 sein. Quer bedeutet, dass die Bewegungsrichtung sowohl einen lateralen wie auch einen senkrecht Richtungsanteil hat.
-
Alternativ kann auch der Werkstückhalter 16 translatorisch bewegt werden, um die 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 zu verändern.
-
In 7 wird der optische Sensor 14 rotatorisch bewegt. Die rotatorische Bewegung ist mit einem Pfeil mit dem Bezugszeichen 42 dargestellt. Der optische Sensor 14 wird dabei von einer 6-DOF Pose 20 zu einer 6-DOF Pose 20' geschwenkt. Das lokale Bezugssystem 38 wird dabei ebenfalls bezüglich des Bezugssystems 18 gedreht. Die gedrehte Anordnung des Bezugssystems 38 ist mit 38' dargestellt. Grundsätzlich kann die Drehrichtung der Drehbewegung 42 im Raum beliebig sein. In 6 wird der optische Sensor 14 bezüglich des Werkstücks 12 geschwenkt, um dadurch unterschiedliche Bereiche des Werkstücks erfassen zu können. Vorzugsweise ist die Drehrichtung eine Drehung um den Ursprung des lokalen Bezugssystems 38. In 6 ist die Drehrichtung, in der der optische Sensor gedreht wird, eine Drehung um die X-Achse des lokalen Bezugssystems 38. Insbesondere wird der optische Sensor um die X-Achse des lokalen Bezugssystems gedreht. Alternativ kann die Drehung auch um die Y-Achse, die Z-Achse oder in eine beliebige andere Richtung um den Ursprung des lokalen Bezugssystems 38 gedreht werden.
-
Alternativ kann auch der Werkstückhalter 16 rotatorisch bewegt werden, um die 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 zu verändern.
-
8 zeigt exemplarisch eine Veränderung der Fokalebenenposition des optischen Sensors 14. Grundsätzlich weist der optische Sensor eine Fokalebene 44 auf, die in einem Abstand 46 von dem optischen Sensor beabstandet ist. In 7 sind zwei verschiedene Fokalebenenpositionen 44', 44' mit unterschiedlichen Abständen 46', 46" dargestellt. Eine Änderung der Fokalebenenposition führ dazu, dass die Fokalebene in der Richtung 48 verschoben wird. Die Richtung 48 entspricht der Z-Richtung des lokalen Bezugssystems 38.
-
Insbesondere kann Fokalebenenposition, sprich der Abstand 46 zu der Fokalebene 44, während des Erfassens der Bilder verändert, beispielsweise vergrößert oder verkleinert werden. Die Änderung der Fokalebenenposition kann schrittweise oder kontinuierlich erfolgen.
-
9 zeigt ein Verfahren 50 zum Vermessen einer Oberfläche des Werkstücks 12 mit dem optischen Sensor 14 des Messgeräts 10. Optionale Schritte des Verfahrens sind in 9 mit gestrichelten Linien dargestellt. Das Verfahren kann insbesondere mittels der Steuereinrichtung 26 durchgeführt werden. Das Werkstück 12 kann zum Vermessen auf dem Werkstückhalter 16 angeordnet sein. Der optische Sensor 14 kann von einer definierten 6-DOF Pose relativ zu dem Werkstück 12 einen Bereich der Oberfläche des Werkstücks 12 mit einer definierten Fokalebenenposition erfassen.
-
In einem ersten, optionalen Schritt 52 des Verfahrens 50 wird das Werkstück 12 auf dem Werkstückhalter 16 angeordnet.
-
In einem weiteren Schritt 54 des Verfahrens 50 werden eine Mehrzahl von Bildern der Oberfläche des Werkstücks 12 mittels des optischen Sensors 14 erfasst, wobei jedes Bild jeweils einen Bereich der Oberfläche des Werkstücks 12 abbildet, wobei jedem Bild eine definierte 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 und eine definierte Fokalebenenposition des optischen Sensors 12 zugeordnet sind, und wobei die erfassten Bilder einen Bildstapel bilden.
-
In einem weiteren, optionalen Schritt 56 des Verfahrens 50 werden der optischen Sensor 14 und das Werkstück 12 relativ zueinander während des Schritts des Erfassens 54 bewegt, um die 6-DOF Pose des optischen Sensors 14 im Raum relativ zu dem Werkstück 12 zu verändern. Insbesondere werden in dem Schritt des Erfassens 54 die Bildern erfasst, während der optische Sensor 14 und das Werkstück 12 relativ zueinander bewegt werden, wobei jedem Bild eine unterschiedliche, definierte 6-DOF Pose des optischen Sensors 14 relativ zu dem Werkstück 12 zugeordnet wird.
-
In dem Schritt des Bewegens 56 können der optische Sensor 14 und der Werkstückhalter 16 relativ zueinander bewegt werden, Beispielsweise können der optische Sensor 14 und/oder der Werkstückhalter 16 mittels der Antriebseinrichtung 28 bewegt werden.
-
Insbesondere kann der optische Sensor 14 translatorisch und/oder rotatorisch bewegt werden. Zur translatorischen Bewegung 40 kann der optische Sensor 14 lateral oder senkrecht zu dem Werkstück bewegt werden. Zur rotatorischen Bewegung 42 kann der optische Sensor 14 gekippt und/oder gedreht werden. Alternativ oder zusätzlich kann auch der Werkstückhalter 16 translatorisch und/oder rotatorisch bewegt werden.
-
Insbesondere kann der optische Sensor 14 entlang einer vordefinierten Bahn bewegt werden.
-
In einem weiteren, optionalen Schritt 58 des Verfahrens 50 wird die Fokalebenenposition des optischen Sensors 14 während des Schritts des Erfassens 54 verändert. Dabei wird der Abstand 46 des optischen Sensors 14 zu seiner Fokalebene 44 verändert.
-
Insbesondere werden in dem Schritt des Erfassens 54 die Bilder erfasst, während die Fokalebenenposition des optischen Sensors 14 verändert wird, wobei jedem Bild eine unterschiedliche, definierte Fokalebenenposition des optischen Sensors 14 zugeordnet wird.
-
In einem weiteren, optionalen Schritt 60 des Verfahrens 50 wird die 6-DOF Pose und/oder der Fokalebenenposition des optischen Sensors 14 bestimmt, während ein Bild mit dem optischen Sensor 14 erfasst wird, wobei die bestimmte 6-DOF Pose und/oder die bestimmte Fokalebenenposition dem erfassten Bild zugeordnet wird.
-
In einem weiteren Schritt 62 des Verfahrens 50 wird ein Schärfewerts jedes Bildpunkts jedes Bildes des Bildstapels bestimmt, um eine Schärfekarte für jedes Bild des Bildstapels zu erzeugen, wobei die Schärfekarten der Bilder einen Schärfekartenstapel bilden. Insbesondere wird der Schärfewert jedes Bildpunkts auf Basis einer Schärfe des Bildpunkts bestimmt wird.
-
In einem weiteren Schritt 64 des Verfahrens 50 werden die Schärfekarten des Schärfekartenstapel in ein definiertes Bezugssystem 18 auf Basis der jeweiligen zugeordneten 6-DOF Pose und Fokalebenenposition des optischen Sensors 14 transformiert, um eine Schärfewolke zu erzeugen.
-
In einem weiteren Schritt 66 des Verfahrens 50 wird ein Oberflächenprofil des Werkstücks auf Basis der Schärfewolke, insbesondere auf Basis von lokalen Schärfe-Maxima der Schärfewolke, erzeugt.
-
In dem Schritt des Erzeugens 66 kann eine Segmentierung der Schärfewolke durchgeführt werden, insbesondere wobei die Schärfewolke auf Basis eines Schärfeschwellenwertverfahrens gefiltert wird.
-
In dem Schritt des Erzeugens 66 können lokale Schärfe-Maxima der Schärfewolke, insbesondere eine oder mehrere Flächen maximaler Schärfe, bestimmt werden, wobei jedes lokale Schärfe-Maximum einen Oberflächenpunkt des Werkstücks abbildet, insbesondere wobei die Flächen maximaler Schärfe die Oberfläche des Werkstücks abbilden. Zur Bestimmung der lokalen Schärfe-Maxima kann beispielsweise das Schärfeschwellenwertverfahren verwendet werden. Alternativ können die lokale Schärfe-Maxima, insbesondere die Flächen maximaler Schärfe, auf Basis der segmentierten Schärfewolke bestimmt werden.
-
In dem Schritt des Erzeugens 66 können zum Erzeugen des Oberflächenprofils die Methode der gleitenden kleinsten Quadrate auf die segmentierte Schärfewolke angewandt werden, insbesondere wobei Schärfewerte als Gewichtungsfaktoren verwendet werden.
-
In dem Schritt des Erzeugens 66 können zum Erzeugen des Oberflächenprofils definierte Geometrien an die Schärfewolke angepasst werden, insbesondere mittels einer gewichteten Methode der kleinsten Quadrate.
-
In dem Schritt des Erzeugens 66 kann zum Erzeugen des Oberflächenprofils auch ein neuronales Netzwerk verwendet wird, das trainiert ist, auf Basis der Schärfewolke das Oberflächenprofil zu erzeugen.
-
In einem weiteren, optionalen Schritt 68 des Verfahrens 50 wird das Oberflächenprofil mittels der Ausgabeeinrichtung 36 ausgegeben.
-
10 zeigt exemplarische eine Seitenansicht einer Schärfewolke, wobei der Schärfewolke Bilder zugrunde liegen, die aus unterschiedlichen Fokalebenenpositionen aufgenommen wurden, während der optische Sensor 14 lateral zu dem Werkstück 12 bewegt wurde. Die Seitenansicht zeigt somit einzelne Schnitte in der Z-Richtung des Bezugssystems 18, wobei jeder Schnitt einem Bild zugeordnet ist.
-
11 zeigt exemplarisch eine Ansicht einer segmentierten Schärfewolke, wobei die Schärfewolke mittels des Schärfeschwellwertverfahrens gefiltert wurde. Die segmentierte Schärfewolke liefert eine grobe Abschätzung des Oberflächenprofils des zu vermessenden Werkstücks 12.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 5151609 A [0002, 0009, 0010]