DE102021203779B4 - Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes - Google Patents
Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes Download PDFInfo
- Publication number
- DE102021203779B4 DE102021203779B4 DE102021203779.8A DE102021203779A DE102021203779B4 DE 102021203779 B4 DE102021203779 B4 DE 102021203779B4 DE 102021203779 A DE102021203779 A DE 102021203779A DE 102021203779 B4 DE102021203779 B4 DE 102021203779B4
- Authority
- DE
- Germany
- Prior art keywords
- camera
- keypoints
- keypoint
- coordinates
- end effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Manipulator (AREA)
Abstract
Verfahren (100) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30),wobei die Kamera (14) auf einem Robotorarm (12) angeordnet ist,wobei der Robotorarm (12) einen Endeffektor (13) umfasst,dadurch gekennzeichnet, dassdas Verfahren (100) folgende Schritte umfasst:a) Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13);b) Wählen (103) eines ersten Keypoints (20) auf dem Objekt (30);c) Bereitstellen (104) von Informationen von weiteren Keypoints relativ zum ersten Keypoint (20) in Objektkoordinaten;d) Führen (108) des Endeffektors (13) durch eine, insbesondere manuelle, Bewegung an die Position des ersten Keypoints (20);e) Bestimmen (111) der Position und der Ausrichtung des Endeffektors (13) am ersten Keypoint (20) in Weltkoordinaten;f) Ermitteln (112) der Position des ersten Keypoints (20) in Weltkoordinaten mit Hilfe der bestimmten Position und der Ausrichtung des Endeffektors (13) in Weltkoordinaten;g) Ermitteln (113) der Position der weiteren Keypoints in Weltkoordinaten auf Basis der ermittelten Position des ersten Keypoints in Weltkoordinaten und der relativen Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten;h) Veränderung (114) der Position und/oder der Ausrichtung des Endeffektors (13) und Aufnahme eines Bildes (31) mittels der Kamera (14); wobei das aufgenommene Bild weitere Keypoints des Objektes erfasst,i) Ermitteln (115) von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein 3D-Kamerakoordinatensystem der Kamera (14);j) Bestimmen (116) von 2D-Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild mittels Projektion aus deren 3D-Kamerakoordinaten.
Description
- Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern nach den unabhängigen Ansprüchen.
- Aus dem Stand der Technik ist bekannt, mit Hilfe einer Kamera aufgenommene Bilder von einem Objekt händisch zu annotieren. Im Detail werden die Koordinaten mehrerer zuvor festgelegter Punkte auf dem Objekt durch den Menschen auf den Bildern ermittelt und gekennzeichnet. Alternativ können Marker an entsprechenden Punkten auf dem Objekt angebracht werden, um diese auf den Bildern erkennen und kennzeichnen zu können. Dies führt jedoch zu einer Veränderung der Ausgangsbedingungen, da das Objekt durch die Anbringung der Marker verändert wurde.
- Die
DE 10 2020 102 350 A1 betrifft eine Greifvorrichtung zum Ergreifen eines Bauteils mit mindestens einem radial zu einer Längsachse der Greifvorrichtung wirkendem Greifelement. Sie betrifft ferner ein Verfahren zur Ausrichtung einer Greifvorrichtung und einer Aufnahmekontur eines Bauteils relativ zueinander. - Die
DE 10 2019 106 458 A1 zeigt ein Verfahren zur Ansteuerung eines Industrieroboters, umfassend die folgenden Schritte: - Erfassen von Bilddaten mindestens eines Bildes eines Werkstücks mittels einer ersten Kamera, deren optische Achse parallel zu einer Stoßrichtung eines Werkzeugs verläuft.
- Anhand der erfassten Bilddaten erfolgt eine Suche nach einer Referenzstruktur des Werkstücks und es wird eine aktuelle Ist-Position mindestens eines Bezugspunkts (+) der Referenzstruktur in x-/y-Richtung relativ zur optischen Achse (oa) der ersten Kamera ermittelt. Nach einem Vergleich der aktuellen Ist-Position der Referenzstruktur mit einer Soll-Position der Referenzstruktur werden Steuerbefehle erzeugt, die zur Zustellung des Werkzeugs an mindestens einen zu bearbeitenden Bereich oder Ort des Werkstücks dienen. Dabei wird eine aktuelle Ist-Position der Referenzstruktur in z-Richtung der optischen Achse (oa) ermittelt, indem eine aktuelle x/y-Abbildungsgröße der Referenzstruktur im erfassten Bild ermittelt und durch Vergleich mit der bekannten tatsächlichen x/y-Größe der Referenzstruktur ein Abstand der Referenzstruktur von der ersten Kamera ermittelt und bei der Erzeugung des Steuerbefehls berücksichtigt wird.
- Aus der
DE 10 2005 051 533 B4 ergibt sich ein Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks. Am Manipulator wird ein Sensor angeordnet. Es wird mindestens ein Referenzpunkt auf einem Referenzwerkstück ausgewählt. Der Manipulator wird an eine Ausgangsposition verfahren, von welcher aus er den Referenzpunkt mit einem Werkzeug zu bearbeiten imstande ist. Die Lage des Referenzpunkts wird mittels des Sensors erfasst. Anstelle des Referenz-Werkstücks wird nun das Serienwerkstück im Arbeitsbereich des Manipulators angeordnet. Dem Referenzpunkt wird ein Serienpunkt des Serienwerkstücks zugeordnet. Die Lage des Serienpunkts wird mittels des Sensors erfasst. Die Lageabweichung zwischen Referenzpunkt und Serienpunkt wird bestimmt und als Korrektur für die Position des Manipulators verwendet, indem dieser an eine korrigierte Position verfahren wird, deren Lageabweichung von der Ausgangsposition dieselbe ist wie die Lageabweichung zwischen Referenzpunkt und Serienpunkt. Nun wird der Manipulator in die korrigierte Position verfahren und von dieser aus wird der Serienpunkt mittels des Werkzeugs bearbeitet. - Die
DE 103 45 743 A1 zeigt ein Verfahren und eine Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung. Das Verfahren zeichnet sich dadurch aus, dass die Pose der Bildempfangseinrichtung unter Verwendung mindestens einer robotereigenen Messeinrichtung bestimmt wird. Die Vorrichtung zeichnet sich aus durch einen Roboter mit integrierter, robotereigener Messeinrichtung zur Bestimmung der Pose der Bildempfangseinrichtung, wobei Position und Orientierung zusammengefasst als Pose verstanden werden. - Ein Verfahren zur dreidimensionalen Handhabung eines Objekts durch einen Roboter unter Verwendung eines Werkzeugs und einer am Roboter angebrachten Kamera, bei dem mindestens sechs Zielmerkmale, die normale Merkmale des Objekts sind, auf dem Objekt ausgewählt werden, ergibt sich aus der
WO 2003 064 116 A2 . - Bei der
US 2016 0 354 929 A1 umfasst ein Roboter einen Abschnitt zur Ableitung eines lokalen Koordinatensystems, der ein lokales Koordinatensystem mit zwei Wellen ableitet, die parallel zu einer Arbeitsebene und orthogonal zueinander sind, basierend auf einem Bild, in dem Markierungen, die drei oder mehr Markierungen, die drei oder mehr Punkte auf der Arbeitsebene, die nicht horizontal ist, darstellen, erfasst werden; und einen Steuerparameter-Erhaltungsabschnitt, der Steuerparameter über das lokale Koordinatensystem erhält. Steuerparameter über das lokale Koordinatensystem erhält. - Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Annotieren von mittels einer Kamera aufgenommenen Bildern zu automatisieren.
- Gelöst wird die vorgenannte Aufgabe durch ein Verfahren zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes, wobei die Kamera auf einem Roboterarm angeordnet ist und wobei der Roboterarm einen Endeffektor umfasst.
- Das Verfahren umfasst die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor. Die Kamera umfasst insbesondere ein Kamerakoordinatensystem. Der Roboterarm, der vorzugsweise an einem beweglichen Roboter angeordnet ist, weist den Endeffektor auf. Bei dem Endeffektor handelt es sich insbesondere um das freie Ende des Roboterarms. In anderen Worten handelt es sich um das letzte Armglied des Roboterarmes, der insbesondere einen Greifarm umfassen kann. Bei humanoiden Robotern kann ein Endeffektor beispielsweise eine Hand sein. Die Weltkoordinaten des Endeffektors sind bekannt, wobei durch die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor die Relation der Weltkoordinaten des Endeffektors zur Kamera ermittelt wird. In anderen Worten wird ein Zusammenhang zwischen dem Weltkoordinatensystem und dem Kamerakoordinatensystem hergestellt.
- Die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor kann insbesondere eine Hand-Eye-Kalibration umfassen. Dabei wird insbesondere ein Kalibrierungsobjekt, beispielsweise ein Bild mit Schachbrettmuster, verwendet. Dieses Kalibrierungsobjekt wird mittels der Kamera aus unterschiedlichen Positionen und unterschiedlichen Ausrichtungen der Kamera aufgenommen. Die aufgenommenen Bilder werden zusammen mit den unterschiedlichen Positionen und Ausrichtungen abgespeichert. Da die Ausbildung des Kalibrierungsobjektes, beispielsweise beim Schachbrettmuster dessen genaues Muster und die Abmessungen der einzelnen quadratischen Flächen, bekannt ist, kann eine Verbindung zwischen der Position und der Ausrichtung des Endeffektors und der Kameraperspektive, in anderen Worten dem Kamerakoordinatensystem, bestimmt werden. Es können somit die Weltkoordinaten der Kamera im Weltkoordinatensystem hergeleitet werden. Die Kamera kann daher extrinsisch kalibriert werden. Vor allem können auf die oben beschriebene Weise auch optische Fehler der Kamera ermittelt werden. Eine Linsenverzerrung kann bspw. durch eine Verzerrung des abgebildeten Kalibrierungsobjektes auf einem aufgenommenen Bild erkannt werden. Es kann die Kamera daher auch intrinsisch kalibriert werden, da die Abbildung von den optischen Fehlern, beispielsweise Linsenverzerrungen, abhängt.
- Das Verfahren umfasst das Wählen eines ersten Keypoints auf dem Objekt. Dabei wird der erste Keypoint frei gewählt. Ferner umfasst das Verfahren das Bereitstellen von Informationen von weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten, das heißt in anderen Worten in einem Objektkoordinatensystem. Die Keypoints sind somit zuvor definierte Punkte am Objekt.
- Das Bereitstellen dieser Informationen kann vor allem ein Ausmessen der jeweiligen Position der weiteren Keypoints zum ersten Keypoint am Objekt umfassen. Dies kann beispielsweise ein händisches Ausmessen der jeweiligen relativen Positionen der weiteren Keypoints zum ersten Keypoint umfassen. Ferner kann das Verfahren ein Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes umfassen. Auf Basis der bereits vorhandenen Informationen, beispielsweise anhand von technischen Zeichnungen oder Abmessungen aus DIN-Normen, können die relativen Positionen ermittelt werden.
Das Verfahren umfasst das Führen des Endeffektors an die Position des ersten Keypoints. In anderen Worten wird der Endeffektor an die genaue Position des ersten Keypoints gebracht. - Das Führen an die Position des ersten Keypoints umfasst insbesondere eine manuelle Bewegung des Endeffektors an den ersten Keypoint.
- Bei dem Endeffektor kann es sich insbesondere um einen Stecker handeln, wobei es sich bei dem Objekt um eine Buchse handeln kann. Dabei kann der Stecker insbesondere in die Buchse eingeführt werden und somit der Endeffektor an den ersten Keypoint geführt werden. Bei dem Roboter kann es sich insbesondere um einen mobilen Laderoboter handeln.
- Das Verfahren umfasst das Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordinaten. Aus diesen kann auf die Weltkoordinaten des ersten Keypoints geschlossen werden. Da die Position und die Ausrichtung des Endeffektors in Weltkoordinaten bekannt sind, beziehungsweise diese nach einer Bewegung des Roboters und/oder des Roboterarms auf einfache Art und Weise bestimmt werden kann, kann die Position des ersten Keypoints ausgelesen werden. Insbesondere ist zuvor festgelegt, genau welche Stelle des Endeffektors an den ersten Keypoint geführt wird, wobei bekannt ist, wo diese Stelle am Endeffektor sitzt, sodass auch dessen Weltkoordinaten stets bekannt sind, bzw. nach einer entsprechenden Bewegung des Roboterarms oder des Roboters hergeleitet werden können. Die Weltkoordinaten dieser Stelle entsprechen dann den Weltkoordinaten des ersten Keypoint.
- Da die relative Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten vorliegt, kann auf Basis der nun ermittelten Position des ersten Keypoints in Weltkoordinaten die Bestimmung der Position der weiteren Keypoints in Weltkoordinaten erfolgen.
- In einem nächsten Schritt umfasst das Verfahren eine Veränderung der Position und/oder der Ausrichtung des Endeffektors und eine Aufnahme eines Bildes mittels der Kamera. Das Bild liegt in 2D vor und umfasst ein 2D-Kamerabildkoordinatensystem. Das Verfahren kann eine Umrechnung der Weltkoordinaten der Keypoints in das Kamerakoordinatensystem der Kamera umfassen. Auf diese Weise werden Kamerakoordinaten, in anderen Worten 3D-Kamerakoordinaten, der Keypoints ermittelt. In anderen Worten werden die Positionen der Keypoints relativ zu der Kamera ermittelt. Dieser Schritt erfolgt unter Nutzung des Zusammenhangs zwischen dem Weltkoordinatensystem und dem Kamerakoordinatensystem, der zuvor ermittelt wurde.
- In einem weiteren Schritt umfasst das Verfahren das Bestimmen von Kamerabildkoordinaten, in anderen Worten 2D-Kamerabildkoordinaten, aller Keypoints mittels Projektion aus deren Kamerakoordinaten. In anderen Worten werden aus den 3D-Kamerakoordinaten mittels projektiver Geometrie Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild ermittelt.
- In einem weiteren Schritt können die ermittelten Positionen auf dem Bild gekennzeichnet werden. Auf diese Weise wird das aufgenommene Bild annotiert.
- Unter dem Begriff „Annotieren“ ist insbesondere die Identifikation von zuvor definierten Punkten, in anderen Worten der Keypoints, in dem aufgenommenen Bild zu verstehen. Das vorliegende Verfahren stellt dabei ein automatisiertes Keypoint-Annotierungsverfahren bereit, sodass eine manuelle Identifikation von Keypoints auf Bildern unnötig ist. Somit umfasst das Verfahren keine manuelle Identifikation von Keypoints auf aufgenommenen Bildern. Unter einer manuellen Identifikation ist insbesondere ein händisches Annotieren der Bilder zu verstehen. In Bezug auf ein händisches Annotieren hat das vorliegende Verfahren den deutlichen Vorteil, dass menschliche Fehler vermieden werden und Bilder in einer hohen Anzahl auf eine sehr effektive Weise annotiert werden können. Insbesondere umfasst das Verfahren auch kein Aufbringen von Markierungen auf dem Objekt zur Erkennung von Keypoints auf aufgenommenen Bildern.
- Das Verfahren kann das Abspeichern der ermittelten Kamerabildkoordinaten aller Keypoints umfassen. Insbesondere werden die Schritte zwischen der Veränderung der Position und/oder der Ausrichtung des Endeffektors und der Aufnahme eines Bildes mittels der Kamera und dem Bestimmen von Kamerabildkoordinaten aller Keypoints, vor allem inklusive der Abspeicherung der ermittelten Kamerabildkoordinaten, wiederholt ausgeführt, um eine Vielzahl annotierter Bilder zu erzeugen. Auf diese Weise können insbesondere Trainingsdaten für ein künstliches Netzwerk erstellt werden, wobei es sich bei diesen Trainingsdaten um die annotierten Bilder handelt. Beispielsweise können Trainingsdaten für einen mobilen Laderoboter, der beispielsweise ein Fahrzeug autonom aufladen soll, erstellt werden, um das neuronale Netzwerk so zu trainieren, dass der mobile Laderoboter den Endeffektor, in anderen Worten den Stecker, vollautomatisch in die Buchse des Fahrzeuges führen kann.
- In einem weiteren Aspekt umfasst eine Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes, wobei die Vorrichtung zum Ausführen des oben beschriebenen Verfahrens ausgebildet ist. Hierfür weist die Vorrichtung vor allem eine Auswerteeinheit und eine Steuereinheit auf. Die Steuereinheit dient zum Ansteuern des Roboterarms und/oder des Roboters und/oder der Kamera. Die Auswerteinheit dient insbesondere zum Bestimmen einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor, zum Wählen eines ersten Keypoints auf dem Objekt, zur Auswertung bereitgestellter Informationen der relativen Positionen der weiteren Keypoints zum ersten Keypoint, zum Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordinaten, zum Ermitteln der Position des ersten Keypoints sowie der weiteren Keypoints in Weltkoordinaten, zum Ermitteln von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein Kamerakoordinatensystem der Kamera und zum Bestimmen von Kamerabildkoordinaten aller Keypoints mittels Projektion aus deren Kamerakoordinaten und zur Kennzeichnung dieser. Ferner kann die Vorrichtung einer Speichereinheit zum Abspeichern des Bildes und der ermittelten Kamerabildkoordinaten der Keypoints umfassen.
- Insbesondere umfasst die Vorrichtung den Roboterarm, wiederum umfassend den Endeffektor, und eine Kamera. Ferner kann die Vorrichtung den Roboter, der den Roboterarm umfasst, aufweisen.
- Die Figuren zeigen in rein schematischer Darstellung:
-
1 ein Verfahrensschema eines erfindungsgemäßen Verfahrens; und -
2 bis8 verschiedene Verfahrensschritte des erfindungsgemäßen Verfahrens. -
1 zeigt einen Verfahrensablauf eines erfindungsgemäßen Verfahrens 100, das als ersten Schritt die Bestimmung 101 einer Position und einer Ausrichtung der Kamera 14 relativ zum Endeffektor 13 umfasst. Dieser Schritt kann insbesondere eine Hand-Eye-Kalibration 102 umfassen. - Ferner umfasst das Verfahren ein Wählen 103 eines ersten Keypoints 20 auf dem Objekt 30, von dem Bilder aufgenommen werden sollen. Ferner umfasst das Verfahren 100 das Bereitstellen 104 von Informationen von weiteren Keypoints relativ zum ersten Keypoint 20 in Objektkoordinaten. Das Bereitstellen 104 kann ein Ausmessen 105 der Position der weiteren Keypoints relativ zum ersten Keypoint 20 am Objekt 30 umfassen oder das Nutzen 106 von bereits vorhandenen Informationen über Abmaße des Objektes 30.
- Das Verfahren 100 umfasst das Führen des Endeffektors 13 an die Position des ersten Keypoints. Dies kann insbesondere eine manuelle Bewegung 109 des Endeffektors 13 an den ersten Keypoint 20 umfassen.
- Das Verfahren 100 umfasst das Bestimmen 111 der Position und der Ausrichtung des Endeffektors 13 am ersten Keypoint 20 und das Ermitteln 112 der Position des ersten Keypoints in Weltkoordinaten sowie das Ermitteln 113 der Position der weiteren Keypoints in Weltkoordinaten.
- Das Verfahren 100 umfasst eine Veränderung 114 der Position und/oder der Ausrichtung des Endeffektors 13 und eine Aufnahme eines Bildes 31 mittels der Kamera 14. Mit Hilfe einer Umrechnung der Weltkoordinaten der Keypoints in das Kamerakoordinatensystem der Kamera 14 können die Kamerakoordinaten der Keypoints ermittelt werden 115. Mittels Projektion können aus den Kamerakoordinaten Kamerabildkoordinaten aller Keypoints bestimmt und auf dem Bild gekennzeichnet werden 116. Die Kamerabildkoordinaten aller Keypoints werden vorzugsweise abgespeichert 117. Die Schritte 114 bis 117 werden insbesondere wiederholt durchgeführt, sodass auf diese Weise eine Vielzahl annotierter Bilder als Trainingsdaten für ein günstiges Netzwerk erstellt werden 118.
-
2 zeigt den Schritt der Bestimmung 101 einer Position und einer Ausrichtung der Kamera 14 einer erfindungsgemäßen Vorrichtung 10 relativ zum Endeffektor 13. Der Endeffektor 13 ist auf einem Roboterarm 12 eines Roboters 11 angeordnet. - In
3 ist dargestellt, wie ein erster Keypoint 20 in einem Objektkoordinatensystem 21 auf einem Objekt 30 gewählt wird 103. In diesem Beispiel ist der erste Keypoint 20 das Zentrum der oberen Öffnung der Buchse, die das Objekt 30 ist. -
4 stellt dar, wie durch eine schrittweise Bewegung 109 des Roboterarms 12 an das Objekt 30 und den ersten Keypoint 20 der Endeffektor 13 an die Position des ersten Keypoints 20 geführt wird. In diesem Beispiel ist der Endeffektor 13 als Stecker mit zwei Kontaktstiften ausgebildet, wobei der in4 obere Kotaktstift in die obere Öffnung der Buchse gesteckt wird. Die zentrale Stelle am festen Ende des oberen Kontaktstiftes ist die Stelle des Endeffektors, die am ersten Keypoint liegt, wenn der Stecker in der Buchse steckt. Da dessen Weltkoordinaten bekannt sind, werden die Weltkoordinaten des ersten Keypoints 20 auf diese Weise ermittelt. - In
5 wird gezeigt, wie die Position der weiteren Keypoints in Weltkoordinaten ermittelt werden 113. Beispielhaft ist ein zweiter Keypoint 23 gezeigt und dessen Umrechnung in das Weltkoordinatensystem 22 anhand der Informationen über die relative Position zum ersten Keypoint 20. -
6 stellt dar, wie die Position und die Ausrichtung des Endeffektors 13 verändert wird 114 und ein Bild von dem Objekt 30 mittels der Kamera aufgenommen wird 114. - In
7 ist rein schematisch dargestellt, wie Kamerakoordinaten der Keypoints ermittelt werden 115. In anderen Worten werden die Positionen der Keypoints relativ zu der Kamera 14 ermittelt. - In
8 ist dargestellt, wie Kamerabildkoordinaten der Keypoints mittels Projektion aus deren Kamerakoordinaten bestimmt werden 116. Rein schematisch ist dargestellt, wie mittels projektiver Geometrie aus den Kamerakoordinaten der Keypoints, die rechts dargestellt sind, die Kamerabildkoordinaten der Keypoints in einem Bild 31, das mittels der Kamera 14 aufgenommen wurde, ermittelt werden. - Bezugszeichenliste
-
- 100
- Verfahren
- 101
- Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor
- 102
- Hand-Eye-Kalibration
- 103
- Wählen eines ersten Keypoints auf dem Objekt
- 104
- Bereitstellen von Informationen von weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten
- 105
- Ausmessen der Position der weiteren Keypoints zum ersten Keypoint
- 106
- Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes
- 108
- Führen des Endeffektors an die Position des ersten Keypoints
- 109
- Manuelle Bewegung des Endeffektors an den ersten Keypoint
- 111
- Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordi naten
- 112
- Ermitteln der Position des ersten Keypoints in Weltkoordinaten
- 113
- Ermitteln der Position der weiteren Keypoints in Weltkoordinaten
- 114
- Veränderung der Position und/oder der Ausrichtung des Endeffektors und Aufnahme eines Bildes mittels der Kamera
- 115
- Ermitteln von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein Kamerakoordinatensystem der Kamera
- 116
- Bestimmen von Kamerabildkoordinaten aller Keypoints mittels Projektion aus deren Kamerakoordinaten und Kennzeichnung dieser
- 117
- Abspeichern der Kamerabildkoordinaten aller Keypoints
- 118
- Erstellen von Trainingsdaten im Sinne annotierter Bilder für ein künstliches Netzwerk
- 10
- Vorrichtung
- 11
- Robotor
- 12
- Robotorarm
- 13
- Endeffektor
- 14
- Kamera
- 20
- erster Keypoint
- 21
- Objektkoordinatensystem
- 22
- Weltkoordinatensystem
- 23
- zweiter Keypoint
- 30
- Objekt
- 31
- Bild
Claims (12)
- Verfahren (100) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30), wobei die Kamera (14) auf einem Robotorarm (12) angeordnet ist, wobei der Robotorarm (12) einen Endeffektor (13) umfasst, dadurch gekennzeichnet, dass das Verfahren (100) folgende Schritte umfasst: a) Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13); b) Wählen (103) eines ersten Keypoints (20) auf dem Objekt (30); c) Bereitstellen (104) von Informationen von weiteren Keypoints relativ zum ersten Keypoint (20) in Objektkoordinaten; d) Führen (108) des Endeffektors (13) durch eine, insbesondere manuelle, Bewegung an die Position des ersten Keypoints (20); e) Bestimmen (111) der Position und der Ausrichtung des Endeffektors (13) am ersten Keypoint (20) in Weltkoordinaten; f) Ermitteln (112) der Position des ersten Keypoints (20) in Weltkoordinaten mit Hilfe der bestimmten Position und der Ausrichtung des Endeffektors (13) in Weltkoordinaten; g) Ermitteln (113) der Position der weiteren Keypoints in Weltkoordinaten auf Basis der ermittelten Position des ersten Keypoints in Weltkoordinaten und der relativen Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten; h) Veränderung (114) der Position und/oder der Ausrichtung des Endeffektors (13) und Aufnahme eines Bildes (31) mittels der Kamera (14); wobei das aufgenommene Bild weitere Keypoints des Objektes erfasst, i) Ermitteln (115) von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein 3D-Kamerakoordinatensystem der Kamera (14); j) Bestimmen (116) von 2D-Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild mittels Projektion aus deren 3D-Kamerakoordinaten.
- Verfahren (100) nach
Anspruch 1 , dadurch gekennzeichnet, dass das Verfahren (100) keine manuelle Identifikation von Keypoints auf einem mittels der Kamera (14) aufgenommenen Bild (31) umfasst. - Verfahren (100) nach einem der
Ansprüche 1 oder2 , dadurch gekennzeichnet, dass das Verfahren (100) kein Aufbringen von Markierungen auf dem Objekt (30) zur Erkennung von Keypoints auf dem aufgenommenen Bild (31) umfasst. - Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13) eine Hand-Eye-Kalibration (102) umfasst.
- Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Bereitstellen (104) von Informationen von weiteren Keypoints ein Ausmessen der jeweiligen Position der weiteren Keypoints zum ersten Keypoint (20) am Objekt umfasst.
- Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Bereitstellen (104) von Informationen von weiteren Keypoints ein Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes (30) umfasst.
- Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Führen (108) eine manuelle Bewegung (109) des Endeffektors (13) an den ersten Keypoint (20) umfasst.
- Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren (100) das Abspeichern (117) der 2D-Kamerabildkoordinaten aller Keypoints umfasst.
- Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren (100) ein wiederholtes Ausführen der Schritte h) bis j) zum Erzeugen einer Vielzahl annotierter Bilder umfasst.
- Verfahren (100) nach
Anspruch 9 , dadurch gekennzeichnet, dass mittels des Verfahrens (100) Trainingsdaten für ein künstliches Netzwerk erstellt werden (118), wobei es sich bei den Trainingsdaten um annotiere Bilder handelt. - Vorrichtung (10) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30), dadurch gekennzeichnet, dass die Vorrichtung zum Ausführen eines Verfahrens nach einem der
Ansprüche 1 bis10 ausgebildet ist. - Vorrichtung (10) nach
Anspruch 11 , dadurch gekennzeichnet, dass die Vorrichtung (10) einen Robotorarm (12) umfassend einen Endeffektor (13) und eine Kamera (14) umfasst.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021203779.8A DE102021203779B4 (de) | 2021-04-16 | 2021-04-16 | Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes |
| US18/555,693 US20240198535A1 (en) | 2021-04-16 | 2022-03-24 | Method and device for annotating images of an object captured using a camera |
| CN202280028470.1A CN117136384A (zh) | 2021-04-16 | 2022-03-24 | 用于对物体的借助于摄像机记录的图像进行注释的方法和装置 |
| EP22718134.4A EP4323965A1 (de) | 2021-04-16 | 2022-03-24 | Verfahren und vorrichtung zum annotieren von mit hilfe einer kamera aufgenommenen bildern eines objektes |
| PCT/EP2022/057763 WO2022218670A1 (de) | 2021-04-16 | 2022-03-24 | Verfahren und vorrichtung zum annotieren von mit hilfe einer kamera aufgenommenen bildern eines objektes |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021203779.8A DE102021203779B4 (de) | 2021-04-16 | 2021-04-16 | Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102021203779A1 DE102021203779A1 (de) | 2022-10-20 |
| DE102021203779B4 true DE102021203779B4 (de) | 2023-12-14 |
Family
ID=81384938
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021203779.8A Active DE102021203779B4 (de) | 2021-04-16 | 2021-04-16 | Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20240198535A1 (de) |
| EP (1) | EP4323965A1 (de) |
| CN (1) | CN117136384A (de) |
| DE (1) | DE102021203779B4 (de) |
| WO (1) | WO2022218670A1 (de) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003064116A2 (en) | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
| DE10345743A1 (de) | 2003-10-01 | 2005-05-04 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung |
| DE212009000055U1 (de) | 2008-05-20 | 2011-01-20 | Siemens Vai Metals Technologies Gmbh | Vorrichtung zum Verbessern von Genauigkeitseigenschaften von Handhabungsgeräten |
| DE102005051533B4 (de) | 2005-02-11 | 2015-10-22 | Vmt Vision Machine Technic Bildverarbeitungssysteme Gmbh | Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks |
| US20160354929A1 (en) | 2015-06-02 | 2016-12-08 | Seiko Epson Corporation | Robot, robot control device, and robot system |
| DE202017106506U1 (de) | 2016-11-15 | 2018-04-03 | Google Llc | Einrichtung für tiefes Maschinenlernen zum Robotergreifen |
| DE102013001603B4 (de) | 2012-02-03 | 2018-04-26 | Fanuc Corporation | Bildverarbeitungsvorrichtung mit einer Funktion zum automatischen Einstellen des Suchfensters |
| DE102009034529B4 (de) | 2008-07-22 | 2018-06-28 | Comau Llc | Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses |
| DE102020102350A1 (de) | 2019-01-30 | 2020-07-30 | ese-robotics GmbH | Greifvorrichtung und Verfahren zu deren Ausrichtung und zur Störfall-Erkennung |
| DE102019106458A1 (de) | 2019-03-13 | 2020-09-17 | ese-robotics GmbH | Verfahren zur Ansteuerung eines Industrieroboters |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA2369845A1 (en) * | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
| CN106920261B (zh) * | 2017-03-02 | 2019-09-03 | 江南大学 | 一种机器人手眼静态标定方法 |
| CN108597036B (zh) * | 2018-05-03 | 2022-04-12 | 三星电子(中国)研发中心 | 虚拟现实环境危险感知方法及装置 |
| CN109948494B (zh) * | 2019-03-11 | 2020-12-29 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
| CN113711275B (zh) * | 2019-04-18 | 2025-03-18 | 博洛尼亚大学 | 在机器学习中为图像中的对象标注创建训练数据可变性 |
| DE102020124285B4 (de) * | 2019-09-20 | 2022-06-09 | Nvidia Corporation | Visionsbasierte Teleoperation eines beweglichen Robotersystems |
| CN111360780A (zh) * | 2020-03-20 | 2020-07-03 | 北京工业大学 | 一种基于视觉语义slam的垃圾捡拾机器人 |
| CN111862048B (zh) * | 2020-07-22 | 2021-01-29 | 浙大城市学院 | 基于关键点检测和深度卷积神经网络的鱼体姿态与长度自动分析方法 |
| US11508089B2 (en) * | 2021-03-05 | 2022-11-22 | Black Sesame Technologies Inc. | LiDAR assisted wheel encoder to camera calibration |
-
2021
- 2021-04-16 DE DE102021203779.8A patent/DE102021203779B4/de active Active
-
2022
- 2022-03-24 EP EP22718134.4A patent/EP4323965A1/de active Pending
- 2022-03-24 US US18/555,693 patent/US20240198535A1/en active Pending
- 2022-03-24 WO PCT/EP2022/057763 patent/WO2022218670A1/de not_active Ceased
- 2022-03-24 CN CN202280028470.1A patent/CN117136384A/zh active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003064116A2 (en) | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
| DE10345743A1 (de) | 2003-10-01 | 2005-05-04 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung |
| DE102005051533B4 (de) | 2005-02-11 | 2015-10-22 | Vmt Vision Machine Technic Bildverarbeitungssysteme Gmbh | Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks |
| DE212009000055U1 (de) | 2008-05-20 | 2011-01-20 | Siemens Vai Metals Technologies Gmbh | Vorrichtung zum Verbessern von Genauigkeitseigenschaften von Handhabungsgeräten |
| DE102009034529B4 (de) | 2008-07-22 | 2018-06-28 | Comau Llc | Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses |
| DE102013001603B4 (de) | 2012-02-03 | 2018-04-26 | Fanuc Corporation | Bildverarbeitungsvorrichtung mit einer Funktion zum automatischen Einstellen des Suchfensters |
| US20160354929A1 (en) | 2015-06-02 | 2016-12-08 | Seiko Epson Corporation | Robot, robot control device, and robot system |
| DE202017106506U1 (de) | 2016-11-15 | 2018-04-03 | Google Llc | Einrichtung für tiefes Maschinenlernen zum Robotergreifen |
| DE102020102350A1 (de) | 2019-01-30 | 2020-07-30 | ese-robotics GmbH | Greifvorrichtung und Verfahren zu deren Ausrichtung und zur Störfall-Erkennung |
| DE102019106458A1 (de) | 2019-03-13 | 2020-09-17 | ese-robotics GmbH | Verfahren zur Ansteuerung eines Industrieroboters |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240198535A1 (en) | 2024-06-20 |
| WO2022218670A1 (de) | 2022-10-20 |
| EP4323965A1 (de) | 2024-02-21 |
| CN117136384A (zh) | 2023-11-28 |
| DE102021203779A1 (de) | 2022-10-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102016114337B4 (de) | System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus | |
| DE102017122857B4 (de) | Robotersystem mit einem auf einem beweglichen Gestellwagen getragenen Roboter | |
| DE102018112820B4 (de) | Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren | |
| DE102021103726B4 (de) | Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm | |
| EP1681111A1 (de) | Fertigungseinrichtung, insbesondere Biegepresse und Verfahren zum Betrieb der Fertigungseinrichtung | |
| DE102015000587A1 (de) | Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks | |
| DE102022130652A1 (de) | Anlernen eines roboters durch vorführen mit visualservoing | |
| WO2020225229A1 (de) | Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera | |
| DE10351669B4 (de) | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt | |
| DE102016203701A1 (de) | Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen | |
| DE102021209178A1 (de) | Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter | |
| DE102015104582A1 (de) | Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens | |
| EP3160219A1 (de) | Verfahren und vorrichtung zur platzierung elektronischer bauteile | |
| DE102018205669B4 (de) | Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs | |
| EP1172183A2 (de) | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen | |
| EP4225537B1 (de) | Kalibrierungsverfahren zur automatisierten kalibrierung von kamera zu medizinischem roboter und chirurgisches assistenzsystem | |
| EP2461433B1 (de) | Verfahren und Vorrichtung zum Bestücken eines Steckergehäuses | |
| DE102021203779B4 (de) | Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes | |
| DE102017118761A1 (de) | Fertigungszelle und Verfahren zum Rüsten einer Fertigungszelle | |
| DE102014100538B4 (de) | Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens | |
| DE112021007102T5 (de) | Programmerzeugungsvorrichtung und Robotersteuerungsvorrichtung | |
| DE102015104587B4 (de) | Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens | |
| DE102007058293A1 (de) | Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems | |
| DE112021003175T5 (de) | Robotervorrichtung zur erkennung der störungen eines roboterbauteils | |
| WO2007090557A2 (de) | Verfahren zum erzeugen eines umgebungsbildes |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R083 | Amendment of/additions to inventor(s) | ||
| R163 | Identified publications notified | ||
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |