[go: up one dir, main page]

DE102021203779B4 - Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes - Google Patents

Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes Download PDF

Info

Publication number
DE102021203779B4
DE102021203779B4 DE102021203779.8A DE102021203779A DE102021203779B4 DE 102021203779 B4 DE102021203779 B4 DE 102021203779B4 DE 102021203779 A DE102021203779 A DE 102021203779A DE 102021203779 B4 DE102021203779 B4 DE 102021203779B4
Authority
DE
Germany
Prior art keywords
camera
keypoints
keypoint
coordinates
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021203779.8A
Other languages
English (en)
Other versions
DE102021203779A1 (de
Inventor
Kai Londenberg
Zsolt Farkas
Daniel Schulze
Maxim Derksen
Lisa Rangosch
Peter Motzko
Robert Schirmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102021203779.8A priority Critical patent/DE102021203779B4/de
Priority to US18/555,693 priority patent/US20240198535A1/en
Priority to CN202280028470.1A priority patent/CN117136384A/zh
Priority to EP22718134.4A priority patent/EP4323965A1/de
Priority to PCT/EP2022/057763 priority patent/WO2022218670A1/de
Publication of DE102021203779A1 publication Critical patent/DE102021203779A1/de
Application granted granted Critical
Publication of DE102021203779B4 publication Critical patent/DE102021203779B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Manipulator (AREA)

Abstract

Verfahren (100) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30),wobei die Kamera (14) auf einem Robotorarm (12) angeordnet ist,wobei der Robotorarm (12) einen Endeffektor (13) umfasst,dadurch gekennzeichnet, dassdas Verfahren (100) folgende Schritte umfasst:a) Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13);b) Wählen (103) eines ersten Keypoints (20) auf dem Objekt (30);c) Bereitstellen (104) von Informationen von weiteren Keypoints relativ zum ersten Keypoint (20) in Objektkoordinaten;d) Führen (108) des Endeffektors (13) durch eine, insbesondere manuelle, Bewegung an die Position des ersten Keypoints (20);e) Bestimmen (111) der Position und der Ausrichtung des Endeffektors (13) am ersten Keypoint (20) in Weltkoordinaten;f) Ermitteln (112) der Position des ersten Keypoints (20) in Weltkoordinaten mit Hilfe der bestimmten Position und der Ausrichtung des Endeffektors (13) in Weltkoordinaten;g) Ermitteln (113) der Position der weiteren Keypoints in Weltkoordinaten auf Basis der ermittelten Position des ersten Keypoints in Weltkoordinaten und der relativen Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten;h) Veränderung (114) der Position und/oder der Ausrichtung des Endeffektors (13) und Aufnahme eines Bildes (31) mittels der Kamera (14); wobei das aufgenommene Bild weitere Keypoints des Objektes erfasst,i) Ermitteln (115) von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein 3D-Kamerakoordinatensystem der Kamera (14);j) Bestimmen (116) von 2D-Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild mittels Projektion aus deren 3D-Kamerakoordinaten.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern nach den unabhängigen Ansprüchen.
  • Aus dem Stand der Technik ist bekannt, mit Hilfe einer Kamera aufgenommene Bilder von einem Objekt händisch zu annotieren. Im Detail werden die Koordinaten mehrerer zuvor festgelegter Punkte auf dem Objekt durch den Menschen auf den Bildern ermittelt und gekennzeichnet. Alternativ können Marker an entsprechenden Punkten auf dem Objekt angebracht werden, um diese auf den Bildern erkennen und kennzeichnen zu können. Dies führt jedoch zu einer Veränderung der Ausgangsbedingungen, da das Objekt durch die Anbringung der Marker verändert wurde.
  • Die DE 10 2020 102 350 A1 betrifft eine Greifvorrichtung zum Ergreifen eines Bauteils mit mindestens einem radial zu einer Längsachse der Greifvorrichtung wirkendem Greifelement. Sie betrifft ferner ein Verfahren zur Ausrichtung einer Greifvorrichtung und einer Aufnahmekontur eines Bauteils relativ zueinander.
  • Die DE 10 2019 106 458 A1 zeigt ein Verfahren zur Ansteuerung eines Industrieroboters, umfassend die folgenden Schritte:
    • Erfassen von Bilddaten mindestens eines Bildes eines Werkstücks mittels einer ersten Kamera, deren optische Achse parallel zu einer Stoßrichtung eines Werkzeugs verläuft.
    • Anhand der erfassten Bilddaten erfolgt eine Suche nach einer Referenzstruktur des Werkstücks und es wird eine aktuelle Ist-Position mindestens eines Bezugspunkts (+) der Referenzstruktur in x-/y-Richtung relativ zur optischen Achse (oa) der ersten Kamera ermittelt. Nach einem Vergleich der aktuellen Ist-Position der Referenzstruktur mit einer Soll-Position der Referenzstruktur werden Steuerbefehle erzeugt, die zur Zustellung des Werkzeugs an mindestens einen zu bearbeitenden Bereich oder Ort des Werkstücks dienen. Dabei wird eine aktuelle Ist-Position der Referenzstruktur in z-Richtung der optischen Achse (oa) ermittelt, indem eine aktuelle x/y-Abbildungsgröße der Referenzstruktur im erfassten Bild ermittelt und durch Vergleich mit der bekannten tatsächlichen x/y-Größe der Referenzstruktur ein Abstand der Referenzstruktur von der ersten Kamera ermittelt und bei der Erzeugung des Steuerbefehls berücksichtigt wird.
  • Aus der DE 10 2005 051 533 B4 ergibt sich ein Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks. Am Manipulator wird ein Sensor angeordnet. Es wird mindestens ein Referenzpunkt auf einem Referenzwerkstück ausgewählt. Der Manipulator wird an eine Ausgangsposition verfahren, von welcher aus er den Referenzpunkt mit einem Werkzeug zu bearbeiten imstande ist. Die Lage des Referenzpunkts wird mittels des Sensors erfasst. Anstelle des Referenz-Werkstücks wird nun das Serienwerkstück im Arbeitsbereich des Manipulators angeordnet. Dem Referenzpunkt wird ein Serienpunkt des Serienwerkstücks zugeordnet. Die Lage des Serienpunkts wird mittels des Sensors erfasst. Die Lageabweichung zwischen Referenzpunkt und Serienpunkt wird bestimmt und als Korrektur für die Position des Manipulators verwendet, indem dieser an eine korrigierte Position verfahren wird, deren Lageabweichung von der Ausgangsposition dieselbe ist wie die Lageabweichung zwischen Referenzpunkt und Serienpunkt. Nun wird der Manipulator in die korrigierte Position verfahren und von dieser aus wird der Serienpunkt mittels des Werkzeugs bearbeitet.
  • Die DE 103 45 743 A1 zeigt ein Verfahren und eine Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung. Das Verfahren zeichnet sich dadurch aus, dass die Pose der Bildempfangseinrichtung unter Verwendung mindestens einer robotereigenen Messeinrichtung bestimmt wird. Die Vorrichtung zeichnet sich aus durch einen Roboter mit integrierter, robotereigener Messeinrichtung zur Bestimmung der Pose der Bildempfangseinrichtung, wobei Position und Orientierung zusammengefasst als Pose verstanden werden.
  • Ein Verfahren zur dreidimensionalen Handhabung eines Objekts durch einen Roboter unter Verwendung eines Werkzeugs und einer am Roboter angebrachten Kamera, bei dem mindestens sechs Zielmerkmale, die normale Merkmale des Objekts sind, auf dem Objekt ausgewählt werden, ergibt sich aus der WO 2003 064 116 A2 .
  • Bei der US 2016 0 354 929 A1 umfasst ein Roboter einen Abschnitt zur Ableitung eines lokalen Koordinatensystems, der ein lokales Koordinatensystem mit zwei Wellen ableitet, die parallel zu einer Arbeitsebene und orthogonal zueinander sind, basierend auf einem Bild, in dem Markierungen, die drei oder mehr Markierungen, die drei oder mehr Punkte auf der Arbeitsebene, die nicht horizontal ist, darstellen, erfasst werden; und einen Steuerparameter-Erhaltungsabschnitt, der Steuerparameter über das lokale Koordinatensystem erhält. Steuerparameter über das lokale Koordinatensystem erhält.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Annotieren von mittels einer Kamera aufgenommenen Bildern zu automatisieren.
  • Gelöst wird die vorgenannte Aufgabe durch ein Verfahren zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes, wobei die Kamera auf einem Roboterarm angeordnet ist und wobei der Roboterarm einen Endeffektor umfasst.
  • Das Verfahren umfasst die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor. Die Kamera umfasst insbesondere ein Kamerakoordinatensystem. Der Roboterarm, der vorzugsweise an einem beweglichen Roboter angeordnet ist, weist den Endeffektor auf. Bei dem Endeffektor handelt es sich insbesondere um das freie Ende des Roboterarms. In anderen Worten handelt es sich um das letzte Armglied des Roboterarmes, der insbesondere einen Greifarm umfassen kann. Bei humanoiden Robotern kann ein Endeffektor beispielsweise eine Hand sein. Die Weltkoordinaten des Endeffektors sind bekannt, wobei durch die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor die Relation der Weltkoordinaten des Endeffektors zur Kamera ermittelt wird. In anderen Worten wird ein Zusammenhang zwischen dem Weltkoordinatensystem und dem Kamerakoordinatensystem hergestellt.
  • Die Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor kann insbesondere eine Hand-Eye-Kalibration umfassen. Dabei wird insbesondere ein Kalibrierungsobjekt, beispielsweise ein Bild mit Schachbrettmuster, verwendet. Dieses Kalibrierungsobjekt wird mittels der Kamera aus unterschiedlichen Positionen und unterschiedlichen Ausrichtungen der Kamera aufgenommen. Die aufgenommenen Bilder werden zusammen mit den unterschiedlichen Positionen und Ausrichtungen abgespeichert. Da die Ausbildung des Kalibrierungsobjektes, beispielsweise beim Schachbrettmuster dessen genaues Muster und die Abmessungen der einzelnen quadratischen Flächen, bekannt ist, kann eine Verbindung zwischen der Position und der Ausrichtung des Endeffektors und der Kameraperspektive, in anderen Worten dem Kamerakoordinatensystem, bestimmt werden. Es können somit die Weltkoordinaten der Kamera im Weltkoordinatensystem hergeleitet werden. Die Kamera kann daher extrinsisch kalibriert werden. Vor allem können auf die oben beschriebene Weise auch optische Fehler der Kamera ermittelt werden. Eine Linsenverzerrung kann bspw. durch eine Verzerrung des abgebildeten Kalibrierungsobjektes auf einem aufgenommenen Bild erkannt werden. Es kann die Kamera daher auch intrinsisch kalibriert werden, da die Abbildung von den optischen Fehlern, beispielsweise Linsenverzerrungen, abhängt.
  • Das Verfahren umfasst das Wählen eines ersten Keypoints auf dem Objekt. Dabei wird der erste Keypoint frei gewählt. Ferner umfasst das Verfahren das Bereitstellen von Informationen von weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten, das heißt in anderen Worten in einem Objektkoordinatensystem. Die Keypoints sind somit zuvor definierte Punkte am Objekt.
  • Das Bereitstellen dieser Informationen kann vor allem ein Ausmessen der jeweiligen Position der weiteren Keypoints zum ersten Keypoint am Objekt umfassen. Dies kann beispielsweise ein händisches Ausmessen der jeweiligen relativen Positionen der weiteren Keypoints zum ersten Keypoint umfassen. Ferner kann das Verfahren ein Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes umfassen. Auf Basis der bereits vorhandenen Informationen, beispielsweise anhand von technischen Zeichnungen oder Abmessungen aus DIN-Normen, können die relativen Positionen ermittelt werden.
    Das Verfahren umfasst das Führen des Endeffektors an die Position des ersten Keypoints. In anderen Worten wird der Endeffektor an die genaue Position des ersten Keypoints gebracht.
  • Das Führen an die Position des ersten Keypoints umfasst insbesondere eine manuelle Bewegung des Endeffektors an den ersten Keypoint.
  • Bei dem Endeffektor kann es sich insbesondere um einen Stecker handeln, wobei es sich bei dem Objekt um eine Buchse handeln kann. Dabei kann der Stecker insbesondere in die Buchse eingeführt werden und somit der Endeffektor an den ersten Keypoint geführt werden. Bei dem Roboter kann es sich insbesondere um einen mobilen Laderoboter handeln.
  • Das Verfahren umfasst das Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordinaten. Aus diesen kann auf die Weltkoordinaten des ersten Keypoints geschlossen werden. Da die Position und die Ausrichtung des Endeffektors in Weltkoordinaten bekannt sind, beziehungsweise diese nach einer Bewegung des Roboters und/oder des Roboterarms auf einfache Art und Weise bestimmt werden kann, kann die Position des ersten Keypoints ausgelesen werden. Insbesondere ist zuvor festgelegt, genau welche Stelle des Endeffektors an den ersten Keypoint geführt wird, wobei bekannt ist, wo diese Stelle am Endeffektor sitzt, sodass auch dessen Weltkoordinaten stets bekannt sind, bzw. nach einer entsprechenden Bewegung des Roboterarms oder des Roboters hergeleitet werden können. Die Weltkoordinaten dieser Stelle entsprechen dann den Weltkoordinaten des ersten Keypoint.
  • Da die relative Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten vorliegt, kann auf Basis der nun ermittelten Position des ersten Keypoints in Weltkoordinaten die Bestimmung der Position der weiteren Keypoints in Weltkoordinaten erfolgen.
  • In einem nächsten Schritt umfasst das Verfahren eine Veränderung der Position und/oder der Ausrichtung des Endeffektors und eine Aufnahme eines Bildes mittels der Kamera. Das Bild liegt in 2D vor und umfasst ein 2D-Kamerabildkoordinatensystem. Das Verfahren kann eine Umrechnung der Weltkoordinaten der Keypoints in das Kamerakoordinatensystem der Kamera umfassen. Auf diese Weise werden Kamerakoordinaten, in anderen Worten 3D-Kamerakoordinaten, der Keypoints ermittelt. In anderen Worten werden die Positionen der Keypoints relativ zu der Kamera ermittelt. Dieser Schritt erfolgt unter Nutzung des Zusammenhangs zwischen dem Weltkoordinatensystem und dem Kamerakoordinatensystem, der zuvor ermittelt wurde.
  • In einem weiteren Schritt umfasst das Verfahren das Bestimmen von Kamerabildkoordinaten, in anderen Worten 2D-Kamerabildkoordinaten, aller Keypoints mittels Projektion aus deren Kamerakoordinaten. In anderen Worten werden aus den 3D-Kamerakoordinaten mittels projektiver Geometrie Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild ermittelt.
  • In einem weiteren Schritt können die ermittelten Positionen auf dem Bild gekennzeichnet werden. Auf diese Weise wird das aufgenommene Bild annotiert.
  • Unter dem Begriff „Annotieren“ ist insbesondere die Identifikation von zuvor definierten Punkten, in anderen Worten der Keypoints, in dem aufgenommenen Bild zu verstehen. Das vorliegende Verfahren stellt dabei ein automatisiertes Keypoint-Annotierungsverfahren bereit, sodass eine manuelle Identifikation von Keypoints auf Bildern unnötig ist. Somit umfasst das Verfahren keine manuelle Identifikation von Keypoints auf aufgenommenen Bildern. Unter einer manuellen Identifikation ist insbesondere ein händisches Annotieren der Bilder zu verstehen. In Bezug auf ein händisches Annotieren hat das vorliegende Verfahren den deutlichen Vorteil, dass menschliche Fehler vermieden werden und Bilder in einer hohen Anzahl auf eine sehr effektive Weise annotiert werden können. Insbesondere umfasst das Verfahren auch kein Aufbringen von Markierungen auf dem Objekt zur Erkennung von Keypoints auf aufgenommenen Bildern.
  • Das Verfahren kann das Abspeichern der ermittelten Kamerabildkoordinaten aller Keypoints umfassen. Insbesondere werden die Schritte zwischen der Veränderung der Position und/oder der Ausrichtung des Endeffektors und der Aufnahme eines Bildes mittels der Kamera und dem Bestimmen von Kamerabildkoordinaten aller Keypoints, vor allem inklusive der Abspeicherung der ermittelten Kamerabildkoordinaten, wiederholt ausgeführt, um eine Vielzahl annotierter Bilder zu erzeugen. Auf diese Weise können insbesondere Trainingsdaten für ein künstliches Netzwerk erstellt werden, wobei es sich bei diesen Trainingsdaten um die annotierten Bilder handelt. Beispielsweise können Trainingsdaten für einen mobilen Laderoboter, der beispielsweise ein Fahrzeug autonom aufladen soll, erstellt werden, um das neuronale Netzwerk so zu trainieren, dass der mobile Laderoboter den Endeffektor, in anderen Worten den Stecker, vollautomatisch in die Buchse des Fahrzeuges führen kann.
  • In einem weiteren Aspekt umfasst eine Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes, wobei die Vorrichtung zum Ausführen des oben beschriebenen Verfahrens ausgebildet ist. Hierfür weist die Vorrichtung vor allem eine Auswerteeinheit und eine Steuereinheit auf. Die Steuereinheit dient zum Ansteuern des Roboterarms und/oder des Roboters und/oder der Kamera. Die Auswerteinheit dient insbesondere zum Bestimmen einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor, zum Wählen eines ersten Keypoints auf dem Objekt, zur Auswertung bereitgestellter Informationen der relativen Positionen der weiteren Keypoints zum ersten Keypoint, zum Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordinaten, zum Ermitteln der Position des ersten Keypoints sowie der weiteren Keypoints in Weltkoordinaten, zum Ermitteln von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein Kamerakoordinatensystem der Kamera und zum Bestimmen von Kamerabildkoordinaten aller Keypoints mittels Projektion aus deren Kamerakoordinaten und zur Kennzeichnung dieser. Ferner kann die Vorrichtung einer Speichereinheit zum Abspeichern des Bildes und der ermittelten Kamerabildkoordinaten der Keypoints umfassen.
  • Insbesondere umfasst die Vorrichtung den Roboterarm, wiederum umfassend den Endeffektor, und eine Kamera. Ferner kann die Vorrichtung den Roboter, der den Roboterarm umfasst, aufweisen.
  • Die Figuren zeigen in rein schematischer Darstellung:
    • 1 ein Verfahrensschema eines erfindungsgemäßen Verfahrens; und
    • 2 bis 8 verschiedene Verfahrensschritte des erfindungsgemäßen Verfahrens.
  • 1 zeigt einen Verfahrensablauf eines erfindungsgemäßen Verfahrens 100, das als ersten Schritt die Bestimmung 101 einer Position und einer Ausrichtung der Kamera 14 relativ zum Endeffektor 13 umfasst. Dieser Schritt kann insbesondere eine Hand-Eye-Kalibration 102 umfassen.
  • Ferner umfasst das Verfahren ein Wählen 103 eines ersten Keypoints 20 auf dem Objekt 30, von dem Bilder aufgenommen werden sollen. Ferner umfasst das Verfahren 100 das Bereitstellen 104 von Informationen von weiteren Keypoints relativ zum ersten Keypoint 20 in Objektkoordinaten. Das Bereitstellen 104 kann ein Ausmessen 105 der Position der weiteren Keypoints relativ zum ersten Keypoint 20 am Objekt 30 umfassen oder das Nutzen 106 von bereits vorhandenen Informationen über Abmaße des Objektes 30.
  • Das Verfahren 100 umfasst das Führen des Endeffektors 13 an die Position des ersten Keypoints. Dies kann insbesondere eine manuelle Bewegung 109 des Endeffektors 13 an den ersten Keypoint 20 umfassen.
  • Das Verfahren 100 umfasst das Bestimmen 111 der Position und der Ausrichtung des Endeffektors 13 am ersten Keypoint 20 und das Ermitteln 112 der Position des ersten Keypoints in Weltkoordinaten sowie das Ermitteln 113 der Position der weiteren Keypoints in Weltkoordinaten.
  • Das Verfahren 100 umfasst eine Veränderung 114 der Position und/oder der Ausrichtung des Endeffektors 13 und eine Aufnahme eines Bildes 31 mittels der Kamera 14. Mit Hilfe einer Umrechnung der Weltkoordinaten der Keypoints in das Kamerakoordinatensystem der Kamera 14 können die Kamerakoordinaten der Keypoints ermittelt werden 115. Mittels Projektion können aus den Kamerakoordinaten Kamerabildkoordinaten aller Keypoints bestimmt und auf dem Bild gekennzeichnet werden 116. Die Kamerabildkoordinaten aller Keypoints werden vorzugsweise abgespeichert 117. Die Schritte 114 bis 117 werden insbesondere wiederholt durchgeführt, sodass auf diese Weise eine Vielzahl annotierter Bilder als Trainingsdaten für ein günstiges Netzwerk erstellt werden 118.
  • 2 zeigt den Schritt der Bestimmung 101 einer Position und einer Ausrichtung der Kamera 14 einer erfindungsgemäßen Vorrichtung 10 relativ zum Endeffektor 13. Der Endeffektor 13 ist auf einem Roboterarm 12 eines Roboters 11 angeordnet.
  • In 3 ist dargestellt, wie ein erster Keypoint 20 in einem Objektkoordinatensystem 21 auf einem Objekt 30 gewählt wird 103. In diesem Beispiel ist der erste Keypoint 20 das Zentrum der oberen Öffnung der Buchse, die das Objekt 30 ist.
  • 4 stellt dar, wie durch eine schrittweise Bewegung 109 des Roboterarms 12 an das Objekt 30 und den ersten Keypoint 20 der Endeffektor 13 an die Position des ersten Keypoints 20 geführt wird. In diesem Beispiel ist der Endeffektor 13 als Stecker mit zwei Kontaktstiften ausgebildet, wobei der in 4 obere Kotaktstift in die obere Öffnung der Buchse gesteckt wird. Die zentrale Stelle am festen Ende des oberen Kontaktstiftes ist die Stelle des Endeffektors, die am ersten Keypoint liegt, wenn der Stecker in der Buchse steckt. Da dessen Weltkoordinaten bekannt sind, werden die Weltkoordinaten des ersten Keypoints 20 auf diese Weise ermittelt.
  • In 5 wird gezeigt, wie die Position der weiteren Keypoints in Weltkoordinaten ermittelt werden 113. Beispielhaft ist ein zweiter Keypoint 23 gezeigt und dessen Umrechnung in das Weltkoordinatensystem 22 anhand der Informationen über die relative Position zum ersten Keypoint 20.
  • 6 stellt dar, wie die Position und die Ausrichtung des Endeffektors 13 verändert wird 114 und ein Bild von dem Objekt 30 mittels der Kamera aufgenommen wird 114.
  • In 7 ist rein schematisch dargestellt, wie Kamerakoordinaten der Keypoints ermittelt werden 115. In anderen Worten werden die Positionen der Keypoints relativ zu der Kamera 14 ermittelt.
  • In 8 ist dargestellt, wie Kamerabildkoordinaten der Keypoints mittels Projektion aus deren Kamerakoordinaten bestimmt werden 116. Rein schematisch ist dargestellt, wie mittels projektiver Geometrie aus den Kamerakoordinaten der Keypoints, die rechts dargestellt sind, die Kamerabildkoordinaten der Keypoints in einem Bild 31, das mittels der Kamera 14 aufgenommen wurde, ermittelt werden.
  • Bezugszeichenliste
  • 100
    Verfahren
    101
    Bestimmung einer Position und einer Ausrichtung der Kamera relativ zum Endeffektor
    102
    Hand-Eye-Kalibration
    103
    Wählen eines ersten Keypoints auf dem Objekt
    104
    Bereitstellen von Informationen von weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten
    105
    Ausmessen der Position der weiteren Keypoints zum ersten Keypoint
    106
    Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes
    108
    Führen des Endeffektors an die Position des ersten Keypoints
    109
    Manuelle Bewegung des Endeffektors an den ersten Keypoint
    111
    Bestimmen der Position und der Ausrichtung des Endeffektors am ersten Keypoint in Weltkoordi naten
    112
    Ermitteln der Position des ersten Keypoints in Weltkoordinaten
    113
    Ermitteln der Position der weiteren Keypoints in Weltkoordinaten
    114
    Veränderung der Position und/oder der Ausrichtung des Endeffektors und Aufnahme eines Bildes mittels der Kamera
    115
    Ermitteln von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein Kamerakoordinatensystem der Kamera
    116
    Bestimmen von Kamerabildkoordinaten aller Keypoints mittels Projektion aus deren Kamerakoordinaten und Kennzeichnung dieser
    117
    Abspeichern der Kamerabildkoordinaten aller Keypoints
    118
    Erstellen von Trainingsdaten im Sinne annotierter Bilder für ein künstliches Netzwerk
    10
    Vorrichtung
    11
    Robotor
    12
    Robotorarm
    13
    Endeffektor
    14
    Kamera
    20
    erster Keypoint
    21
    Objektkoordinatensystem
    22
    Weltkoordinatensystem
    23
    zweiter Keypoint
    30
    Objekt
    31
    Bild

Claims (12)

  1. Verfahren (100) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30), wobei die Kamera (14) auf einem Robotorarm (12) angeordnet ist, wobei der Robotorarm (12) einen Endeffektor (13) umfasst, dadurch gekennzeichnet, dass das Verfahren (100) folgende Schritte umfasst: a) Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13); b) Wählen (103) eines ersten Keypoints (20) auf dem Objekt (30); c) Bereitstellen (104) von Informationen von weiteren Keypoints relativ zum ersten Keypoint (20) in Objektkoordinaten; d) Führen (108) des Endeffektors (13) durch eine, insbesondere manuelle, Bewegung an die Position des ersten Keypoints (20); e) Bestimmen (111) der Position und der Ausrichtung des Endeffektors (13) am ersten Keypoint (20) in Weltkoordinaten; f) Ermitteln (112) der Position des ersten Keypoints (20) in Weltkoordinaten mit Hilfe der bestimmten Position und der Ausrichtung des Endeffektors (13) in Weltkoordinaten; g) Ermitteln (113) der Position der weiteren Keypoints in Weltkoordinaten auf Basis der ermittelten Position des ersten Keypoints in Weltkoordinaten und der relativen Position der weiteren Keypoints relativ zum ersten Keypoint in Objektkoordinaten; h) Veränderung (114) der Position und/oder der Ausrichtung des Endeffektors (13) und Aufnahme eines Bildes (31) mittels der Kamera (14); wobei das aufgenommene Bild weitere Keypoints des Objektes erfasst, i) Ermitteln (115) von Kamerakoordinaten der Keypoints durch Umrechnung der Weltkoordinaten der Keypoints in ein 3D-Kamerakoordinatensystem der Kamera (14); j) Bestimmen (116) von 2D-Kamerabildkoordinaten aller Keypoints im aufgenommenen Bild mittels Projektion aus deren 3D-Kamerakoordinaten.
  2. Verfahren (100) nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren (100) keine manuelle Identifikation von Keypoints auf einem mittels der Kamera (14) aufgenommenen Bild (31) umfasst.
  3. Verfahren (100) nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Verfahren (100) kein Aufbringen von Markierungen auf dem Objekt (30) zur Erkennung von Keypoints auf dem aufgenommenen Bild (31) umfasst.
  4. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung (101) einer Position und einer Ausrichtung der Kamera (14) relativ zum Endeffektor (13) eine Hand-Eye-Kalibration (102) umfasst.
  5. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Bereitstellen (104) von Informationen von weiteren Keypoints ein Ausmessen der jeweiligen Position der weiteren Keypoints zum ersten Keypoint (20) am Objekt umfasst.
  6. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Bereitstellen (104) von Informationen von weiteren Keypoints ein Nutzen von bereits vorhandenen Informationen über Abmaße des Objektes (30) umfasst.
  7. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Führen (108) eine manuelle Bewegung (109) des Endeffektors (13) an den ersten Keypoint (20) umfasst.
  8. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren (100) das Abspeichern (117) der 2D-Kamerabildkoordinaten aller Keypoints umfasst.
  9. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren (100) ein wiederholtes Ausführen der Schritte h) bis j) zum Erzeugen einer Vielzahl annotierter Bilder umfasst.
  10. Verfahren (100) nach Anspruch 9, dadurch gekennzeichnet, dass mittels des Verfahrens (100) Trainingsdaten für ein künstliches Netzwerk erstellt werden (118), wobei es sich bei den Trainingsdaten um annotiere Bilder handelt.
  11. Vorrichtung (10) zum Annotieren von mit Hilfe einer Kamera (14) aufgenommenen Bildern (31) eines Objektes (30), dadurch gekennzeichnet, dass die Vorrichtung zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 10 ausgebildet ist.
  12. Vorrichtung (10) nach Anspruch 11, dadurch gekennzeichnet, dass die Vorrichtung (10) einen Robotorarm (12) umfassend einen Endeffektor (13) und eine Kamera (14) umfasst.
DE102021203779.8A 2021-04-16 2021-04-16 Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes Active DE102021203779B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102021203779.8A DE102021203779B4 (de) 2021-04-16 2021-04-16 Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes
US18/555,693 US20240198535A1 (en) 2021-04-16 2022-03-24 Method and device for annotating images of an object captured using a camera
CN202280028470.1A CN117136384A (zh) 2021-04-16 2022-03-24 用于对物体的借助于摄像机记录的图像进行注释的方法和装置
EP22718134.4A EP4323965A1 (de) 2021-04-16 2022-03-24 Verfahren und vorrichtung zum annotieren von mit hilfe einer kamera aufgenommenen bildern eines objektes
PCT/EP2022/057763 WO2022218670A1 (de) 2021-04-16 2022-03-24 Verfahren und vorrichtung zum annotieren von mit hilfe einer kamera aufgenommenen bildern eines objektes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021203779.8A DE102021203779B4 (de) 2021-04-16 2021-04-16 Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes

Publications (2)

Publication Number Publication Date
DE102021203779A1 DE102021203779A1 (de) 2022-10-20
DE102021203779B4 true DE102021203779B4 (de) 2023-12-14

Family

ID=81384938

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021203779.8A Active DE102021203779B4 (de) 2021-04-16 2021-04-16 Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes

Country Status (5)

Country Link
US (1) US20240198535A1 (de)
EP (1) EP4323965A1 (de)
CN (1) CN117136384A (de)
DE (1) DE102021203779B4 (de)
WO (1) WO2022218670A1 (de)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003064116A2 (en) 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE212009000055U1 (de) 2008-05-20 2011-01-20 Siemens Vai Metals Technologies Gmbh Vorrichtung zum Verbessern von Genauigkeitseigenschaften von Handhabungsgeräten
DE102005051533B4 (de) 2005-02-11 2015-10-22 Vmt Vision Machine Technic Bildverarbeitungssysteme Gmbh Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks
US20160354929A1 (en) 2015-06-02 2016-12-08 Seiko Epson Corporation Robot, robot control device, and robot system
DE202017106506U1 (de) 2016-11-15 2018-04-03 Google Llc Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE102013001603B4 (de) 2012-02-03 2018-04-26 Fanuc Corporation Bildverarbeitungsvorrichtung mit einer Funktion zum automatischen Einstellen des Suchfensters
DE102009034529B4 (de) 2008-07-22 2018-06-28 Comau Llc Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102020102350A1 (de) 2019-01-30 2020-07-30 ese-robotics GmbH Greifvorrichtung und Verfahren zu deren Ausrichtung und zur Störfall-Erkennung
DE102019106458A1 (de) 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
CN106920261B (zh) * 2017-03-02 2019-09-03 江南大学 一种机器人手眼静态标定方法
CN108597036B (zh) * 2018-05-03 2022-04-12 三星电子(中国)研发中心 虚拟现实环境危险感知方法及装置
CN109948494B (zh) * 2019-03-11 2020-12-29 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN113711275B (zh) * 2019-04-18 2025-03-18 博洛尼亚大学 在机器学习中为图像中的对象标注创建训练数据可变性
DE102020124285B4 (de) * 2019-09-20 2022-06-09 Nvidia Corporation Visionsbasierte Teleoperation eines beweglichen Robotersystems
CN111360780A (zh) * 2020-03-20 2020-07-03 北京工业大学 一种基于视觉语义slam的垃圾捡拾机器人
CN111862048B (zh) * 2020-07-22 2021-01-29 浙大城市学院 基于关键点检测和深度卷积神经网络的鱼体姿态与长度自动分析方法
US11508089B2 (en) * 2021-03-05 2022-11-22 Black Sesame Technologies Inc. LiDAR assisted wheel encoder to camera calibration

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003064116A2 (en) 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102005051533B4 (de) 2005-02-11 2015-10-22 Vmt Vision Machine Technic Bildverarbeitungssysteme Gmbh Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks
DE212009000055U1 (de) 2008-05-20 2011-01-20 Siemens Vai Metals Technologies Gmbh Vorrichtung zum Verbessern von Genauigkeitseigenschaften von Handhabungsgeräten
DE102009034529B4 (de) 2008-07-22 2018-06-28 Comau Llc Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102013001603B4 (de) 2012-02-03 2018-04-26 Fanuc Corporation Bildverarbeitungsvorrichtung mit einer Funktion zum automatischen Einstellen des Suchfensters
US20160354929A1 (en) 2015-06-02 2016-12-08 Seiko Epson Corporation Robot, robot control device, and robot system
DE202017106506U1 (de) 2016-11-15 2018-04-03 Google Llc Einrichtung für tiefes Maschinenlernen zum Robotergreifen
DE102020102350A1 (de) 2019-01-30 2020-07-30 ese-robotics GmbH Greifvorrichtung und Verfahren zu deren Ausrichtung und zur Störfall-Erkennung
DE102019106458A1 (de) 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters

Also Published As

Publication number Publication date
US20240198535A1 (en) 2024-06-20
WO2022218670A1 (de) 2022-10-20
EP4323965A1 (de) 2024-02-21
CN117136384A (zh) 2023-11-28
DE102021203779A1 (de) 2022-10-20

Similar Documents

Publication Publication Date Title
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102017122857B4 (de) Robotersystem mit einem auf einem beweglichen Gestellwagen getragenen Roboter
DE102018112820B4 (de) Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
EP1681111A1 (de) Fertigungseinrichtung, insbesondere Biegepresse und Verfahren zum Betrieb der Fertigungseinrichtung
DE102015000587A1 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102022130652A1 (de) Anlernen eines roboters durch vorführen mit visualservoing
WO2020225229A1 (de) Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera
DE10351669B4 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE102016203701A1 (de) Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP3160219A1 (de) Verfahren und vorrichtung zur platzierung elektronischer bauteile
DE102018205669B4 (de) Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
EP1172183A2 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
EP4225537B1 (de) Kalibrierungsverfahren zur automatisierten kalibrierung von kamera zu medizinischem roboter und chirurgisches assistenzsystem
EP2461433B1 (de) Verfahren und Vorrichtung zum Bestücken eines Steckergehäuses
DE102021203779B4 (de) Verfahren und Vorrichtung zum Annotieren von mit Hilfe einer Kamera aufgenommenen Bildern eines Objektes
DE102017118761A1 (de) Fertigungszelle und Verfahren zum Rüsten einer Fertigungszelle
DE102014100538B4 (de) Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
DE112021007102T5 (de) Programmerzeugungsvorrichtung und Robotersteuerungsvorrichtung
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems
DE112021003175T5 (de) Robotervorrichtung zur erkennung der störungen eines roboterbauteils
WO2007090557A2 (de) Verfahren zum erzeugen eines umgebungsbildes

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final