[go: up one dir, main page]

DE102011009814A1 - Robotersystem mit visuellem Sensor - Google Patents

Robotersystem mit visuellem Sensor Download PDF

Info

Publication number
DE102011009814A1
DE102011009814A1 DE102011009814A DE102011009814A DE102011009814A1 DE 102011009814 A1 DE102011009814 A1 DE 102011009814A1 DE 102011009814 A DE102011009814 A DE 102011009814A DE 102011009814 A DE102011009814 A DE 102011009814A DE 102011009814 A1 DE102011009814 A1 DE 102011009814A1
Authority
DE
Germany
Prior art keywords
robot
workpiece
visual sensor
section
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011009814A
Other languages
English (en)
Other versions
DE102011009814B4 (de
Inventor
Kazunori Ban
Fumikazu Warashina
Makoto Yamada
Yuuta Namiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102011009814A1 publication Critical patent/DE102011009814A1/de
Application granted granted Critical
Publication of DE102011009814B4 publication Critical patent/DE102011009814B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Ein Robotersystem (10) mit: einem Verarbeitungsabschnitt (32), der Positionsinformationen eines Werkstücks bezüglich eines visuellen Sensors (13) berechnet; einem Zeitgeber (35), auf den ein Roboter-Steuerabschnitt (31) und der Verarbeitungsabschnitt zum Abfragen einer aktuellen Zeit zugreifen; einem ersten Speicherabschnitt (33), der ersten Zeiten in einem vorgegebenen Zyklus zusammen mit Positionsinformationsdaten eines vorderen Armendes zu den jeweils ersten Zeiten sequentiell speichert; einem zweiten Speicherabschnitt (34), der eine zweite Zeit speichert, wenn der visuelle Sensor das Werkstück misst; einem Berechnungsabschnitt (41) für die Position des vorderen Armendes, der Positionsinformationen des vorderen Armendes auf Basis der zweiten Zeit berechnet, wenn der visuelle Sensor das Werkstück misst, wobei mindestens zwei der ersten Zeiten vor und nach der zweiten Zeit unter den ersten Zeiten und die Positionsinformationsdaten des vorderen Armendes den jeweiligen ersten Zeiten entsprechen; und einem Werkstückpositions-Berechnungsabschnitt (42), der die Positionsinformationen des gegriffenen Werkstücks bezüglich des vorderen Armendes auf Basis der Positionsinformationen des vorderen Armendes und des Werkstücks berechnet. Folglich kann eine Werkstückposition auf Basis einer genauen Roboterposition genau berechnet werden, selbst wenn das Werkstück abgebildet wird, ohne den Betrieb des Roboters vorübergehend anzuhalten.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Robotersystem, das einen Roboter anhand von Positionsinformationen eines Werkstücks ansteuert, die von einem optischen Sensor, im folgenden auch visueller Sensor genannt, erfasst werden.
  • 2. Beschreibung der verwandten Technik
  • Zur Ausführung von Arbeitsgängen wie Handhaben und Bearbeiten eines Werkstücks mittels eines Roboters müssen eine Position, in der sich das Werkstück befindet, und eine Greifabweichung des vom Roboter gegriffenen Werkstücks genau erkannt werden. Aus diesem Grund wird seit einigen Jahren ein visueller Sensor verwendet, um die Werkstückposition und die Greifabweichung des Werkstücks visuell zu erkennen.
  • Wenn eine Kamera am vorderen Ende eines Roboterarms angebracht ist und die Position des auf einem Tisch und dgl. angeordneten, Werkstücks erfasst wird, wird die Werkstückposition erkannt. Wenn außerdem die Position des vom Roboter gegriffenen Werkstücks von einer stationären Kamera gemessen wird, wird die Greifabweichung erkannt.
  • Wenn entweder die Kamera oder das Werkstück durch den Betrieb des Roboters wie oben beschrieben bewegt wird, sind zur Berechnung der Werkstückposition Positionsinformationen des Roboters im Moment der Bildaufnahme erforderlich. Der Grund dafür ist, dass selbst dann, wenn sich das Werkstück bei der Abbildung an derselben Position befindet, sich die Position im Bild mit der Änderung der Position des Roboters, an dem die Kamera angebracht ist, oder des das Werkstück greifenden Roboters ändert.
  • Das japanische Patent Nr. 2889011 offenbart ein Verfahren zum Berechnen der Position eines Werkstücks in einem Bild, indem Positionsinformationen eines Roboters zum Zeitpunkt der Bildaufnahme verwendet werden. Wenn jedoch die im japanischen Patent Nr. 2889011 offenbarte Technik tatsächlich angewendet wird, muss der Roboter während der Aufnahme des Bildes des Werkstücks vorübergehend angehalten werden, um genaue Positionsinformationen des Roboters im Moment der Bildaufnahme zu erhalten.
  • Wenn der Roboter während der Bildaufnahme des Werkstücks vorübergehend angehalten wird, ergibt sich das Problem der Zeitverlängerung, da eine Verzögerungszeit, eine Haltezeit zur Bildaufnahme und Erfassung der Roboterposition, eine Zeit zur erneuten Beschleunigung und dgl. des Roboters notwendig sind. Um dieses Problem zu lösen, ist es wünschenswert, das Bild des Werkstücks ohne Anhalten des Roboters aufzunehmen und die Roboterposition im Moment der Bildaufnahme des Werkstücks zu erhalten.
  • In diesem Zusammenhang kann eine Abweichung zwischen dem Zeitpunkt der Bildaufnahme und dem Zeitpunkt der Erfassung der Roboterposition ein Problem darstellen. Wenn sich der Roboter z. B. mit 2000 mm/sec bewegt und der Zeitpunkt der Bildaufnahme vom Zeitpunkt der Erfassung der Roboterposition um 1 msec abweicht, bewegt sich der Roboter zwischen diesen beiden Zeitpunkten um 2 mm. Folglich verursachen Positionsinformationen des Werkstücks im Bild des Werkstücks aufgrund der oben beschriebenen Roboterbewegung einen Fehler.
  • Wenn ferner ein Abstand zwischen der Kamera und dem Werkstück von 1 m angenommen wird, tritt außerdem ein Messfehler von 1000 mm × tan (0,1) = 1,75 mm auf, wenn sich die Ausrichtung des Roboters um 0,1° in 1 msec zwischen der Zeit der Bildaufnahme und der Zeit der Erfassung der Roboterposition ändert. Dieser Messfehler geht dann auch in die Positionsinformationen des Werkstücks ein.
  • Typischerweise liest ein Robotersteuergerät Winkelinformationen eines Codierers eines Servomotors und dgl. in regelmäßigen Zyklen, z. B. in Steuerzyklen des Servomotors, um die Positionsinformationen des Roboters zu erkennen. Demzufolge hängt die Genauigkeit der Positionsinformationen des vom visuellen Sensor gemessenen Werkstücks von diesen Aktualisierungszyklen ab.
  • Die WO 2009/077118 A1 offenbart ein System zur Aufnahme eines Bildes eines Werkstücks während der Bewegung eines Roboters durch eine am Roboter angebrachte Kamera und zur Korrektur der Werkstückposition. Die WO 2009/077118 A1 offenbart jedoch kein konkretes Verfahren zum Erhalt der Roboterposition im Moment der Bildaufnahme.
  • Des Weiteren offenbart das japanische Patent Nr. 4174342 ein Verfahren zur Aufnahme eines Bildes eines Werkstücks, wenn ein Roboter das Werkstück umsetzt, und zur Korrektur eines Greiffehlers. Ein Fehler der Roboterposition aufgrund eines Aktualisierungszyklus der Roboterposition wird jedoch nicht behandelt.
  • Die japanische Offenlegungsschrift Nr. 2008-183690 offenbart ein Verfahren zum Senden eines Ansteuersignals im Moment der Bildaufnahme an ein Steuersystem eines Servomotors, das die Positionsinformationen des Roboters in kürzeren Zyklen aktualisiert, und zum Erhalten der Positionsinformationen des Roboters, die im Steuersystem vorliegen. Selbst in diesem Fall hängt die Genauigkeit der Roboter-Positionsinformationen von einem Steuerzyklus des Steuersystems des Servomotors ab. Ferner ist das in der japanischen Offenlegungsschrift Nr. 2008-183690 offenbarte Verfahren mit dem Problem behaftet, dass dieses Verfahren eine eigene Ansteuersignalleitung und einen Ansteuerungseingangs-/-ausgangs-Abschnitt erfordert.
  • Die vorliegende Erfindung wurde im Hinblick auf diese Gegebenheiten erarbeitet, und es ist eine Aufgabe der vorliegenden Erfindung, ein Robotersystem bereitzustellen, das eine genaue Roboterposition im Moment der Bildaufnahme erhalten kann, ohne den Roboter vorübergehend anzuhalten und ohne eine spezielle Hardware zu verwenden.
  • Zusammenfassung der Erfindung
  • Zur Lösung der vorstehend genannten Aufgabe wird gemäß einem ersten Aspekt ein Robotersystem bereitgestellt mit: einem Roboter; einem Roboter-Steuerabschnitt zum Steuern des Roboters; und einem visuellen Sensor zum visuellen Vermessen eines Werkstücks, wobei entweder das Werkstück oder der visuelle Sensor, das bzw. der vom vorderen Ende eines Arms des Roboters gegriffen wird bzw. daran befestigt ist, durch die Betätigung eines Arms des Roboters bewegt werden kann, und das bzw. der andere des Werkstücks oder des visuellen Sensors an einer roboterfernen Position angeordnet ist, wobei das Robotersystem aufweist: einen Informationsverarbeitungsabschnitt des visuellen Sensors, der den visuellen Sensor steuert und auf Basis der Informationen des vom visuellen Sensor vermessenen Werkstücks Positionsinformationen des Werkstücks bezüglich des visuellen Sensors berechnet; einen Zeitgeber, auf den der Roboter-Steuerabschnitt und der Informationsverarbeitungsabschnitt des visuellen Sensors zugreifen, um eine aktuelle Zeit abzufragen; einen Speicherabschnitt für die Roboterposition und die Zeit, der sequentiell erste Zeiten in regelmäßigen oder unregelmäßigen Zyklen zusammen mit Positionsinformationsdaten des vorderen Endes des Arms zu den jeweiligen ersten Zeiten speichert; einen Speicherabschnitt für die Bildaufnahmezeit, der eine zweite Zeit speichert, zu der der visuelle Sensor ein Bild des Werkstücks aufnimmt; einen Berechnungsabschnitt für die Position des vorderen Armendes, der Positionsinformationen des vorderen Armendes berechnet, wenn der visuelle Sensor das Bild des Werkstücks auf Basis der im Speicherabschnitt für die Bildaufnahmezeit gespeicherten zweiten Zeit aufnimmt, wobei mindestens zwei der ersten Zeiten vor und nach der zweiten Zeit von den im Speicherabschnitt für die Roboterposition und die Zeit gespeicherten ersten Zeiten und die Positionsinformationsdaten des vorderen Armendes den jeweiligen ersten Zeiten entsprechen; und einen Werkstückpositions-Berechnungsabschnitt, der Positionsinformationen des gegriffenen Werkstücks bezüglich des vorderen Armendes oder Positionsinformationen des Werkstücks, das an der roboterfernen Position bezüglich des Roboters angeordnet ist, auf Basis der Positionsinformationen des vorderen Armendes, die vom Berechnungsabschnitt für die Position des vorderen Armendes berechnet werden, und der Positionsinformationen des Werkstücks, die vom Informationsverarbeitungsabschnitt des visuellen Sensors berechnet werden, berechnet.
  • Gemäß einem zweiten Aspekt der Erfindung vermisst der visuelle Sensor das Werkstück nach dem ersten Aspekt, während sich das vordere Armende des Roboters bewegt.
  • Gemäß einem dritten Aspekt weist das Robotersystem nach dem ersten oder zweiten Aspekt ferner einen Korrekturabschnitt auf, der den Betrieb des Roboters auf Basis der Positionsinformationen des gegriffenen Werkstücks bezüglich des vorderen Armendes des Roboters oder der Positionsinformationen des Werkstücks korrigiert, das an einer bezüglich des Roboters roboterfernen Position angeordnet ist, die vom Werkstückpositions-Berechnungsabschnitt berechnet werden.
  • Gemäß einem vierten Aspekt kann nach dem ersten Aspekt entweder das Werkstück oder der visuelle Sensor, das bzw. der vom vorderen Armende des Roboter gegriffen wird bzw. daran befestigt ist, durch die Betätigung eines Arms des Roboters bewegt werden, wobei der visuelle Sensor eine Stereomessung ausführt, indem zu einer Mehrzahl von Zeitpunkten Bilder des Werkstücks aufgenommen werden, wenn sich das vordere Armende während der Bewegung des vorderen Armendes des Roboters an voneinander verschiedenen Positionen befindet, und auf Basis eines Ergebnisses der Stereomessung des visuellen Sensors berechnet der Werkstückpositions-Berechnungsabschnitt eine dreidimensionale Position des gegriffenen Werkstücks bezüglich des vorderen Armendes oder eine dreidimensionale Position des an der bezüglich des Roboters roboterfernen Position angeordneten Werkstücks.
  • Gemäß einem fünften Aspekt weist nach dem ersten Aspekt das Robotersystem ferner einen Laserschlitz-Projektor auf, der am visuellen Sensor angebracht ist, wobei der visuelle Sensor eine dreidimensionale Position eines vom Laser beleuchteten Abschnitts zu einer Mehrzahl von Zeitpunkten an verschiedenen Positionen während der Bewegung des vorderen Armendes des Roboters erfasst, und wobei der Werkstückpositions-Berechnungsabschnitt auf Basis einer Mehrzahl der dreidimensionalen Positionen der vom Laser beleuchteten Abschnitte eine dreidimensionale Form oder/und eine dreidimensionale Position des Werkstücks berechnet.
  • Diese und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich aus der detaillierten Beschreibung von Ausführungsbeispielen, die in den Zeichnungen dargestellt sind.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Diagramm einer Gesamtkonfiguration eines Robotersystems einer ersten Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Diagramm einer Gesamtkonfiguration eines Robotersystems einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 3 ist ein Funktionsblockdiagramm des Robotersystems der ersten Ausführungsform;
  • 4 ist ein Flussdiagramm der Operationen eines Roboter-Steuerabschnitts und eines Bildverarbeitungsabschnitts im Robotersystem der vorliegenden Erfindung;
  • 5 ist ein Diagramm einer Gesamtkonfiguration eines Robotersystems in einer Ausführungsform, die eine Stereo-Messung ausführt;
  • 6 ist ein Diagramm einer Gesamtkonfiguration eines Robotersystems in einer Ausführungsform, die einen Laserstrahlteilungs-Projektor aufweist;
  • 7 ist ein Funktionsblockdiagramm des Robotersystems einer anderen Ausführungsform; und
  • 8 ist ein Funktionsblockdiagramm des Robotersystems einer weiteren Ausführungsform.
  • Detaillierte Beschreibung
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. In sämtlichen der einzelnen Ansichten sind gleiche Elemente mit identischen Bezugszeichen gekennzeichnet. Zum besseren Verständnis sind die Maßstäbe dieser Zeichnungen geeignet geändert.
  • 1 ist ein Diagramm einer Gesamtkonfiguration eines Robotersystems in einer ersten Ausführungsform der vorliegenden Erfindung. Ein in 1 dargestelltes Robotersystem 10 umfasst hauptsächlich einen Roboter 11 und ein Robotersteuergerät 12 zum Steuern dieses Roboters 11. Eine Hand 14 ist am vorderen Ende eines Arms des Roboters 11 angebracht und diese Hand 14 greift ein Werkstück 15 auf einem Tisch 16. In diesem Fall ist das auf dem Tisch 16 angebrachte Werkstück 15 nicht positioniert, und die Position des Werkstücks 15 ist unbestimmt.
  • Wie in 1 dargestellt ist eine Kamera 13 am vorderen Armende des Roboters 11 mittels einer Halterung 18 angebracht. Die Position W1 des auf dem Tisch 16 angebrachten Werkstücks 15 wird mittels der Kamera 13 als visueller Sensor erfasst bzw. gemessen. Auf Basis der gemessenen Positionsinformationen des Werkstücks 15 bewegt sich der Roboter 11 in eine Position, in der das Werkstück 15 zu greifen ist.
  • Der Roboter 11 ist ein hinreichend bekannter typischer Robotermanipulator (im Folgenden als Roboter bezeichnet) und sein Mechanismus ist nicht auf einen bestimmten beschränkt, sofern er die Position und Ausrichtung zum Ausführen einer Operation erreichen kann. Die am vorderen Armende des Roboters 11 angebrachte Hand 14 wird in Abhängigkeit von Form, Material, Gewicht und dgl. gewählt. Die Hand 14 kann also vom Saugtyp oder vom Spanntyp sein. In 1 ist eine Hand 14 des Spanntyps beispielhaft dargestellt.
  • Wie durch den Pfeil X1 in 1 angedeutet ist der Roboter 11 so programmiert, dass er sich aus einer Betriebs-Startposition P1 über eine Bildaufnahmeposition Q1 in eine Werkstück-Greifposition P2 bewegt und das Werkstück 15 in der Werkstück-Greifposition P2 greift. Da die Position W1 des Werkstücks 15 wie oben beschrieben unbestimmt ist, bewegt sich der Roboter 11 auf Basis einer Position W1' des Werkstücks 15, die durch Verwenden der Kamera 13 bestimmt wird, in eine Werkstück-Greifposition P2' nach Maßgabe der Position W1' und greift das Werkstück 15 in der Werkstück-Greifposition P2'.
  • Dabei besteht eine Beziehung zwischen den Positionen W1, W1' des Werkstücks 15 und den Werkstück-Greifpositionen P2, P2' des Roboters 11, die mit der folgenden Gleichung (1) ausgedrückt wird. Die die Positionen wie W1 und P1 usw. repräsentierenden Symbole, die in dieser Patentbeschreibung verwendet werden, sind homogene 4×4-Transformationsmatrizen. W1'·W1–1 = P2'·P2–1 (1)
  • Der Roboter 11 kann vorübergehend in der Bildaufnahmeposition Q1 auf dem Pfeil X1 anhalten. Bei der ersten Ausführungsform wird jedoch ein Fall beschrieben, bei dem sich der Roboter 11 ohne vorübergehendes Anhalten auf einem durch den Pfeil X1 repräsentierten Weg bewegt.
  • Mit einem vom Roboter 11 gelernten Programm wird versucht, ein Bild in der Aufnahmeposition Q1 aufzunehmen. Im Fall softwarebedingter Verzögerungen und dgl. wird das Bild jedoch in einer Bildaufnahmeposition Q1' aufgenommen, die etwas von der Bildaufnahmeposition Q1 abweicht. Die Bildaufnahmeposition Q1' muss nicht perfekt mit der ursprünglichen Aufnahmeposition Q1 übereinstimmen. Jedoch muss das Werkstück 15 in beiden Bildaufnahmepositionen Q1 und Q1' im Bildfeld der Kamera 13 liegen. Der Grund dafür ist, dass selbst dann, wenn die Bildaufnahmeposition Q1 von der Bildaufnahmeposition Q1' abweicht, die Positionsinformationen Q1' des Roboters 11 im Moment der Bildaufnahme mit der nachstehend beschriebenen Technik bestimmt werden können und auf Basis der Positionsinformationen Q1' die Position W1' des Werkstücks 15 genau bestimmt werden kann.
  • Es wird davon ausgegangen, dass Kalibrierdaten zum Wandeln der Erkennungsdaten, die durch eine Bildverarbeitung bestimmt werden, in ein Roboter-Koordinatensystem im Voraus durch eine Kalibrierung in der Aufnahmeposition Q1 bestimmt und im Roboter-Steuergerät 12 gespeichert werden. Folglich kann auf Basis des in der Aufnahmeposition Q1' aufgenommenen Bildes und der Positionsinformationen der Aufnahmeposition Q1' ein Werkstückpositions-Berechnungsabschnitt 42 (wird nachstehend beschrieben) die Position W1' des Werkstücks im Roboter-Koordinatensystem berechnen.
  • Diese Berechnungstechnik ist im japanischen Patent Nr. 2889011 offenbart und allgemein bekannt. Auf eine ausführliche Beschreibung dieser Berechnungstechnik wird deshalb verzichtet. Zuerst wird eine vorgegebene Bildverarbeitung mit dem in der Aufnahmeposition Q1' aufgenommenen Bild ausgeführt, um das Werkstück 15 im Bild zu erkennen und seine Erkennungsdaten zu bestimmen. Dann wird auf Basis der bestimmten Erkennungsdaten und der im Voraus bestimmten Kalibrierdaten eine vorläufige Position des Werkstücks bestimmt. Danach wird auf Basis der vorläufigen Position des Werkstücks und eines Bewegungsbetrags des visuellen Sensors 13, mit anderen Worten, eines Bewegungsbetrags von der Position Q1, in der die Kalibrierung erfolgt, zur Position Q1', in der das Bild aufgenommen wird, die genaue Position W1' des Werkstücks 15 bestimmt.
  • Dann wird die Werkstück-Greifposition P2', in der der Roboter 11 das Werkstück greifen soll, gemäß der folgenden Gleichung (2) bestimmt. P2' = W1'·W1–1·P2 (2)
  • 3 ist ein Funktionsblockdiagramm des Robotersystems in der ersten Ausführungsform. Das Roboter-Steuergerät 12 ist ein digitaler Computer, der einen Roboter-Steuerabschnitt 31, einen Bildverarbeitungsabschnitt 32, einen Speicherabschnitt 33 für die Roboterposition und die Zeit, einen Bildaufnahmezeit-Speicherabschnitt 34 und einen Zeitgeber (Uhr) 35 aufweist, die alle miteinander über einen Bus verbunden sind. Wie in 3 dargestellt ist ferner der Roboter-Steuerabschnitt 31 mit dem Roboter 11 und der Bildverarbeitungsabschnitt 32 mit der Kamera 13 verbunden.
  • Sowohl der Roboter-Steuerabschnitt 31 als auch der Bildverarbeitungsabschnitt 32 können auf den Zeitgeber 35 zugreifen, um die Zeit abzufragen. Der Speicherabschnitt 33 für die Roboterposition und die Zeit speichert sequentiell in einem Roboterpositions-Aktualisierungszyklus die Positionen des Roboters 11 zusammen mit den Zeiten, die von dem Zeitgeber 35 erhalten werden, wenn die jeweiligen Positionen erreicht sind. Ferner speichert der Bildaufnahmezeit-Speicherabschnitt 34 eine Zeit in dem Moment, in dem die Kamera 13 ein Bild aufnimmt, zusammen mit dem Bild zu diesem Zeitpunkt. Der Speicherabschnitt 33 für die Roboterposition und die Zeit und der Bildaufnahmezeit-Speicherabschnitt 34 können so konfiguriert werden, dass sie nur die neueste Mehrzahl an Informationssätzen speichern, oder so, dass sämtliche Informationssätze während des Betriebs des Roboters 11 gespeichert werden.
  • Wie weiter in 3 dargestellt ist, weist der Roboter-Steuerabschnitt 31 ferner einen Berechnungsabschnitt 41 für die Position des vorderen Armendes auf, der die Positionsinformationen des vorderen Armendes berechnet, wenn die Kamera 13 das Bild des Werkstücks 15 auf Basis mindestens einer Zeit vor und nach der im Bildaufnahmezeit-Speicherabschnitt 34 gespeicherten Zeit unter den im Speicherabschnitt 33 für die Roboterposition und die Zeit und die Positionen des vorderen Armendes des Roboters 11 gespeicherten Zeiten entsprechend jeder dieser Zeiten aufnimmt.
  • Des Weiteren enthält der Roboter-Steuerabschnitt 31 einen Werkstückpositions-Berechnungsabschnitt 42 zum Berechnen der Positionsinformationen des gegriffenen Werkstücks 15 bezüglich des vorderen Armendes oder der Positionsinformationen des Werkstücks 15, das an einer vom Roboter 11 bezüglich des Roboters 11 fernen Position angeordnet ist, auf Basis der vom Berechnungsabschnitt 41 für die Position des vorderen Armendes berechneten Positionsinformationen des vorderen Armendes und der vom Bildverarbeitungsabschnitt 32 berechneten Positionsinformationen des Werkstücks 15.
  • Ferner korrigiert ein Korrekturabschnitt 43 im Roboter-Steuerabschnitt 31 den Betrieb des Roboters 11 auf Basis der Positionsinformationen des gegriffenen Werkstücks 15 bezüglich des vorderen Armendes des Roboters 11 oder der Positionsinformationen des Werkstücks 15, das an einer vom Roboter 11 bezüglich des Roboters 11 fernen Position angeordnet ist, die vom Werkstückpositions-Berechnungsabschnitt 42 berechnet werden. Zu diesem Zweck kann der Korrekturabschnitt 43 das Programm des Roboters 11 auf Basis der oben beschriebenen Positionsinformationen korrigieren.
  • 4 ist ein Flussdiagramm, das die Operationen des Roboter-Steuerabschnitts 31 und des Bildverarbeitungsabschnitts 32 im Robotersystem der vorliegenden Erfindung darstellt. Im Folgenden wird anhand der 3 und 4 ein Verfahren zum Bestimmen einer Position Q1' des Roboters im Moment der Bildaufnahme beschrieben.
  • In Schritt S1 speichert der Roboter-Steuerabschnitt 31 zuerst sequentiell in einem Roboterpositions-Aktualisierungszyklus die von dem Zeitgeber 35 erhaltenen Zeiten zusammen mit den Positionen des vorderen Armendes des Roboters 11, die den jeweiligen Zeiten im Speicherabschnitt 33 für die Roboterposition und für die Zeit entsprechen. Die Position des vorderen Armendes des Roboters 11 kann einfach als die ”Roboterposition” bezeichnet werden.
  • Wenn der Roboter 11 z. B. ein 6-Achsen-Vertikal-Knickarmroboter (Gelenkroboter) ist, können die Winkel (J1 bis J6) der Achsen des Roboters als die Roboterpositionsinformationen gespeichert werden. Im Folgenden werden zur Vereinfachung der Beschreibung die gespeicherte Zeit und Roboterposition als Tx bzw. Px = (Jx1 bis Jx6) angenommen. Der Roboterpositions-Aktualisierungszyklus kann entweder regelmäßig oder unregelmäßig sein.
  • In Schritt S2 prüft dann der Roboter-Steuerabschnitt 31, ob der Roboter 11 eine im Voraus in sein Operationsprogramm geschriebene Aufnahmeposition Q1 erreicht hat oder nicht. Wenn der Roboter 11 sie erreicht hat, geht der Prozess zu Schritt S3 weiter. Wenn der Roboter 11 sie noch nicht erreicht hat, wartet der Prozess eine vorgegebene Zeitspanne, kehrt dann zu Schritt S1 zurück und wiederholt sich, bis der Roboter 11 die Aufnahmeposition Q1 erreicht.
  • In der in 4 dargestellten Ausführungsform wird geprüft, ob der Roboter 11 die Aufnahmeposition Q1 erreicht hat oder nicht, indem die Position des Roboters 11 vom Roboter-Steuerabschnitt 31 überwacht wird. Ob der Roboter 11 die Aufnahmeposition Q1 erreicht hat oder nicht, kann jedoch auch bestimmt werden, indem die erforderliche Zeit ab dem Start des Betriebs des Roboter 11 bis der Roboter 11 die Aufnahmeposition Q1 erreicht hat, im Voraus gemessen und die erforderliche Zeit mit der abgelaufenen Zeit nach Beginn des Betriebs des Roboters 11 (von der Uhr 35 zu erhalten) verglichen wird. Wenn die oben beschriebene erforderliche Zeit nach Beginn des Betriebs des Roboters 11 abgelaufen ist, kann alternativ der Prozess automatisch zu Schritt S3 weitergehen.
  • In Schritt S3 gibt der Roboter-Steuerabschnitt 31 einen Bildverarbeitungs-Startbefehl an den Bildverarbeitungsabschnitt 32 aus. Wenn der Bildverarbeitungs-Startbefehl ausgegeben wird, beginnt der Bildverarbeitungsabschnitt 32 die Verarbeitung.
  • In Schritt S4 sendet der Bildverarbeitungsabschnitt 32 einen Aufnahmebefehl an die Kamera 13 und speichert die von dem Zeitgeber 35 erhaltene Zeit als Aufnahmezeit Ts im Bildaufnahmezeit-Speicherabschnitt 34. Nachdem die Beendigung der Aufnahme eines Bildes des Werkstücks 15 durch die Kamera 13 abgewartet wurde, wird in Schritt S5 das aufgenommene Bild zusammen mit der bereits in Schritt S4 gespeicherten Aufnahmezeit Ts im Bildaufnahmezeit-Speicherabschnitt 34 gespeichert.
  • In Schritt S6 führt dann der Bildverarbeitungsabschnitt 32 eine vorgegebene Bildverarbeitung des in Schritt S5 aufgenommenen Bildes aus, um das abgebildete Werkstück 15 zu erkennen und bestimmt dessen Erkennungsdaten und bestimmt ferner auf Basis der bestimmten Erkennungsdaten und der im Voraus bestimmten Kalibrierdaten die vorläufigen Positionsinformationen des Werkstücks.
  • Nach Beendigung von Schritt S3 geht der Roboter-Steuerabschnitt 31 zu Schritt S7 weiter. In Schritt S7 speichert der Roboter-Steuerabschnitt 31 im nächsten Roboterpositions-Aktualisierungszyklus auf ähnliche Weise eine neue Zeit zusammen mit einer neuen Roboterposition im Speicherabschnitt 33 für die Roboterposition und die Zeit. Zur Vereinfachung der Beschreibung werden die in Schritt S7 gespeicherte Zeit und Roboterposition als Ty bzw. Py = (Jy1 bis Jy6) angenommen.
  • In Schritt S8 prüft der Roboter-Steuerabschnitt 31 dann, ob die Aufnahmezeit im Bildaufnahmezeit-Speicherabschnitt 34 gespeichert ist oder nicht. Wenn die Aufnahmezeit gespeichert ist, geht der Prozess zu Schritt S9 weiter. Wenn die Aufnahmezeit noch nicht gespeichert ist, wartet der Prozess eine vorgegebene Zeitspanne und geht dann zu Schritt S7 zurück; der Prüfprozess wird wiederholt, bis die Aufnahmezeit gespeichert ist.
  • In Schritt S9 berechnet dann der Berechnungsabschnitt 41 für die Position des vorderen Armendes des Roboter-Steuerabschnitts 31 eine Roboterposition Q1' = (Js1 bis Js6) im Moment der Bildaufnahme auf Basis der im Bildaufnahmezeit-Speicherabschnitt 34 gespeicherten Aufnahmezeit Ts und der Kombination der im Speicherabschnitt 33 für die Roboterposition und die Zeit gespeicherten Roboterpositionen und Zeiten Tx, Px und Ty, Py. Es ist zu beachten, dass Tx vor Ts und Ty nach Ts liegt.
  • Der Berechnungsabschnitt 41 für die Position des vorderen Armendes berechnet die Roboterposition Q1' im Moment der Bildaufnahme nach der folgenden Gleichung (3) mittels z. B. linearer Interpolation. Jsi = (Jyi – Jxi) × (Ts – Tx)/(Ty – Yx) + Jxi (3) (i = 1 bis 6)
  • Die Roboterposition Q1' = (Js1 bis Js6) im Moment der Bildaufnahme ist die Position jeder Achse. Durch Vorwärtstransformation kann jedoch eine orthogonale Position bestimmt werden.
  • Bei der ersten Ausführungsform wird die Roboterposition Q1' im Moment der Bildaufnahme durch lineare Interpolation der Position jeder Roboterachse berechnet. Die Roboterposition Q1' kann jedoch auch durch andere Techniken berechnet werden. So kann sie z. B. durch Extrapolation berechnet werden. Ferner kann, wie oben beschrieben, die Position jeder Achse des Roboters 11 entweder direkt interpoliert oder zuerst in die orthogonale Position umgewandelt und dann interpoliert werden. Wenn die lineare Interpolation verwendet wird, wie bei der ersten Ausführungsform, sind zwei Sätze der Roboterpositionen und der Zeiten ausreichend.
  • Die zu verwendende Interpolationsformel kann entsprechend den Eigenschaften des Steuersystems des Roboters 11 gewählt werden. Indem z. B. eine quadratische Interpolation angewendet wird, kann ein Näherungsfehler verkleinert werden, selbst wenn sich die Geschwindigkeit des Roboters 11 ändert. Bei Anwenden der quadratischen Interpolation sind jedoch drei Sätze der Roboterpositionen und Zeiten erforderlich. In diesem Fall können zwei Tx vor der Aufnahmezeit Ts und ein Ty nach der Aufnahmezeit Ts oder ein Tx vor der Aufnahmezeit Ts und zwei Ty nach der Aufnahmezeit Ts verwendet werden.
  • Wie oben beschrieben berechnet danach der Werkstückpositions-Berechnungsabschnitt 42 auf Basis der vom Berechnungsabschnitt 41 für die Position des vorderen Armendes berechneten Positionsinformationen und der vom Bildverarbeitungsabschnitt 32 wie oben beschrieben berechneten vorläufigen Positionsinformationen des Werkstücks 15 die Positionsinformationen des Werkstücks 15, das an einer bezüglich des Robers 11 fernen Position des Roboters 11 angeordnet ist.
  • 2 ist ein Diagramm, das eine Gesamtkonfiguration eines Robotersystems einer zweiten Ausführungsform der vorliegenden Erfindung zeigt. In 2 ist die Kamera 13 an einer vorgegebenen Position zwischen zwei Tischen 16 und 17 fest angeordnet. Mit anderen Worten, die Kamera 13 ist an einer Position, die weit vom Roboter 11 entfernt ist, angeordnet. Bei der zweiten Ausführungsform setzt der Roboter 11 das Werkstück 15 von dem einen Tisch 16 zum anderen Tisch 17 um.
  • Da die Position des Werkstücks 15 auf dem Tisch 16 unbestimmt ist, wie oben beschrieben, kann der Roboter 11 das Werkstück 15 mit einer Abweichung greifen. Bei der zweiten Ausführungsform dient die Kamera 13 zum Messen der Greifabweichung, während das Werkstück 15 umgesetzt wird.
  • Wie durch den Pfeil X2 in 2 angedeutet, ist der Roboter 11 so programmiert, dass er das Werkstück 15 in der Betriebs-Startposition P1 auf dem Tisch 16 greift, über eine Bildaufnahmeposition Q1 zur Position P2 auf dem Tisch 17 bewegt und das Werkstück 15 auf dem Tisch 17 ablegt. Wie oben beschrieben, versucht das vom Roboter 11 gelernte Programm, ein Bild in der Aufnahmeposition Q1 aufzunehmen. Im Fall softwarebedingter Verzögerungen und dgl. wird das Bild jedoch in einer Bildaufnahmeposition Q1' aufgenommen, die etwas von der Bildaufnahmeposition Q1 abweicht.
  • Um bei der zweiten Ausführungsform die Greifabweichung des Werkstücks 15 der Hand 14 zu korrigieren, wird eine relative Position des Werkstücks 15 bezüglich des vorderen Armendes des Roboters 11 gemessen. Bei Annahme, dass eine Position des Werkstücks 15 in einem Weltkoordinatensystem, die gemessen wird, wenn sich der Roboter 11 in der Position Q1' befindet, W1' ist, berechnet der Werkstückpositions-Berechnungsabschnitt 42 die relative Position V1' des Werkstücks 15 bezüglich des vorderen Armendes des Roboters 11 gemäß der folgenden Gleichung (4). V1' = Q1'–1·W1' (4)
  • Dann berechnet der Werkstückpositions-Berechnungsabschnitt 42 eine Position P2', in der das in der Position Q1' abgebildete Werkstück 15 freizugeben ist, bezüglich des Werkstücks 15, das gegriffen wird, wenn die Position P2 gelernt ist, wobei angenommen wird, dass die relative Position des Werkstücks 15 bezüglich des vorderen Armendes des Roboters 11 V1 ist, gemäß der folgenden Gleichung (5). P2' = P2·V1·V1–1 (5)
  • Bei den oben beschriebenen Ausführungsformen wird eine zweidimensionale Kamera 13 als der visuelle Sensor verwendet. Bei Verwenden eines dreidimensionalen Sensors kann jedoch eine dreidimensionale Position und Ausrichtung des Werkstücks 15 bestimmt werden. Der dreidimensionale Sensor oder eine den dreidimensionalen Sensor bildende Kamera kann entweder eine Farbkamera oder eine monochrome Kamera sein. Im Folgenden werden Ausführungsformen beschrieben, bei denen der dreidimensionale Sensor als der visuelle Sensor verwendet wird.
  • Bei einer Ausführungsform kann ein dreidimensionaler visueller Sensor eines Stereosystems mit einer einzelnen Kamera oder einer Mehrzahl Kameras 13 verwendet werden. 5 ist ein Diagramm, das die Gesamtkonfiguration eines Robotersystems bei einer Ausführungsform zeigt, bei der eine Stereomessung vorgenommen wird. Wenn die Technik zur Bestimmung der Roboterposition im Moment der Bildaufnahme während des Betriebs des Roboters 11 wie in 5 dargestellt angewendet wird, kann die Stereomessung auf Basis einer Mehrzahl Bilder des Werkstücks 15 erfolgen, die aus verschiedenen Positionen (Q1, ..., Qn) aufgenommen werden und erhalten werden, indem das Werkstück 15 während des Betriebs des Roboters 11 von einer einzelnen Kamera 13 nacheinander abgebildet wird. Wenn die Messung wie in 5 dargestellt ausgeführt wird, kann eine dreidimensionale Position des gegriffenen Werkstücks 15 bezüglich des vorderen Armendes des Roboters 11 bestimmt werden. Ferner kann – obwohl nicht dargestellt – bei der Konfiguration von 1 durch Ausführen der Stereomessung eine dreidimensionale Position des Werkstücks 15 bezüglich des Roboters 11 auf Basis einer Vielzahl Bilder des Werkstücks 15, die aus verschiedenen Positionen (Q1, ..., Qn) bestimmt werden.
  • 6 ist ein Diagramm, das die Gesamtkonfiguration eines Robotersystems in einer Ausführungsform zeigt, die einen Laserstrahlteilungs-Projektor aufweist. In 6 wird ein dreidimensionaler visueller Sensor verwendet, der aus einer Kamera 13 und einem über einen Arm 18 an der Kamera 13 angebrachten Laserstrahlteilungs-Projektor bzw. Laserschlitz-Projektor 19 besteht. Dieser dreidimensionale visuelle Sensor kann eine dreidimensionale Position von Punkten, die mit einem Laser bestrahlt werden, und außerdem eine Position und Ausrichtung des Werkstücks mit einer geometrisch definierten Form messen. Der oben beschriebene dreidimensionale visuelle Sensor ist hinreichend bekannt und wird deshalb nicht im Einzelnen erörtert. Zur Durchführung der Messung mit diesem Sensor müssen sowohl typische Kamerabilder als auch Laserbilder erhalten werden. Wenn ferner eine Mehrzahl Bilder während des Roboterbetriebs erhalten werden, unterscheiden sich die Roboterpositionen, an denen die Bilder aufgenommen werden, voneinander und deshalb müssen diese Roboterpositionen bei der Berechnung berücksichtigt werden.
  • Dreidimensionale Positionen von durch einen Laser beleuchteten Punkten können nacheinander bestimmt und eine Vielzahl der erhaltenen dreidimensionalen Positionsinformationen in einer so genannten Tiefenabbildung integriert werden. Auf Basis der Tiefenabbildung kann dann eine dreidimensionale Form des Werkstücks 15 erhalten werden. Durch Anwenden dieser oben beschriebenen Technik werden auch in diesem Fall die dreidimensionalen Positionsinformationen anhand der Roboterposition im Moment der Bildaufnahme des vom Laser beleuchteten Punktes berechnet. Aus der so erhaltenen dreidimensionalen Form des Werkstücks 15 können eine dreidimensionale Position und Ausrichtung des Werkstücks 15 bestimmt werden.
  • 7 ist ein Funktionsblockdiagramm eines Robotersystems in einer anderen Ausführungsform. In 7 sind hauptsächlich ein mit dem Roboter 11 verbundenes Roboter-Steuergerät 12a und ein mit der Kamera 13 (visueller Sensor) verbundener Bildprozessor 12b dargestellt. Wie aus 7 ersichtlich ist, weist das Roboter-Steuergerät 12a den Roboter-Steuerabschnitt 31, den Speicherabschnitt 33 für die Roboterposition und die Zeit und eine Uhr 35a auf, die miteinander verbunden sind.
  • In ähnlicher Weise weist ein Bildprozessor 12b den Bildverarbeitungsabschnitt 32, den Bildaufnahmezeit-Speicherabschnitt 34 und einen Zeitgeber 35b auf, die miteinander verbunden sind. Es sei darauf hingewiesen, dass diese Zeitgeber 35a und 35b miteinander synchronisiert arbeiten. Folglich sind die Zeiten, die vom Roboter-Steuergerät 12a und vom Bildprozessor 12b von dem Zeitgeber 35a bzw. 35b unabhängig erhalten werden, einander gleich.
  • Wie in der Figur dargestellt ist, sind das Roboter-Steuergerät 12a und der Bildprozessor 12b über eine Kommunikationsschnittstelle 36, wie z. B. ein drahtgebundenes LAN oder ein drahtloses LAN, miteinander verbunden. Dabei kann eine Verzögerung in einem Prozess der Kommunikationsschnittstelle 36 auftreten. Da jedoch der Bildaufnahmezeit-Speicherabschnitt 34 das Bild zusammen mit der Zeit speichern kann, können zwei oder mehr Zeitpunkte, die nahe der im Bildaufnahmezeit-Speicherabschnitt 34 gespeicherten Zeit liegen, aus dem Speicherabschnitt 33 für die Roboterposition und die Zeit abgerufen und auf Basis dieser Zeiten eine erforderliche Roboterposition bestimmt werden.
  • 8 ist ein Funktionsblockdiagramm eines Robotersystems in einer weiteren Ausführungsform. In 8 sind hauptsächlich das mit dem Roboter 11 verbundene Roboter-Steuergerät 12 und die Kamera 13 mit dem Bildverarbeitungsabschnitt 32 dargestellt. Wie in 8 dargestellt weist das Roboter-Steuergerät 12 den Roboter-Steuerabschnitt 31, den Speicherabschnitt 33 für die Roboterposition und die Zeit und den Zeitgeber 35a auf, die miteinander verbunden sind.
  • Die Kamera 13 weist den Bildverarbeitungsabschnitt 32, den Bildaufnahmezeit-Speicherabschnitt 34 und den Zeitgeber 35b auf, die miteinander verbunden sind. Ähnlich wie bei der unmittelbar vorherigen Ausführungsform sind die Zeitgeber 35a und 35b miteinander synchronisiert und das Roboter-Steuergerät 12 sowie die Kamera 13 sind miteinander über die Kommunikationsschnittstelle 36 verbunden. Auch bei den in den 5 bis 8 dargestellten Ausführungsformen ist ersichtlich, dass ähnliche Wirkungen wie die oben beschriebenen erzielt werden können.
  • Wirkungen der Erfindung
  • Gemäß dem ersten Aspekt wird also die Werkstückposition anhand der Positionen des vorderen Armendes in Zeitpunkten vor und nach der Aufnahmezeit berechnet. Deshalb können die Positionsinformationen des Roboters in dem Moment, in dem der visuelle Sensor das Bild aufnimmt, mit einer höheren Genauigkeit als die Positionsinformationen des vorderen Armendes, die in regelmäßigen oder unregelmäßigen Zyklen erkannt werden, erhalten werden. Als Ergebnis kann die Position des Werkstücks mit einer höheren Genauigkeit als mit der herkömmlichen Technik berechnet werden. Dies ist besonders vorteilhaft, wenn der Roboter gemäß dem zweiten Aspekt arbeitet.
  • Ferner steuert das Roboter-Steuergerät die Servomotoren selbst dann, Wenn der Roboter im Stillstand ist, und deshalb ändern sich Position und Ausrichtung des vorderen Armendes des Roboters geringfügig. Aus diesem Grund können die Positionsinformationen des Roboters genauer erhalten werden als mit der herkömmlichen Technik und die Genauigkeit der Messung der Werkstückposition durch den visuellen Sensor kann verbessert werden, auch wenn der visuelle Sensor die Bilder des Werkstücks, während der Roboter im Stillstand ist, aufnimmt.
  • Außerdem können im ersten Aspekt die Roboterpositionsinformationen im Moment der Bildaufnahme erhalten werden, ohne dass eine spezielle Ansteuersignalleitung oder ein Ansteuerungs-Eingangs-/Ausgangsabschnitt erforderlich ist. Somit fallen keine Kosten für die zusätzliche spezielle Ansteuersignalleitung oder den Ansteuerungs-Eingangs-/Ausgangsabschnitt an und es besteht kein Ausfallrisiko dieser Elemente. Ferner wird dem Nutzer ein komfortabel zu bedienendes System bereitgestellt.
  • Gemäß dem dritten Aspekt kann sich der Roboter in eine bessere Zielposition entsprechend der vom visuellen Sensor erkannten Werkstückposition bewegen.
  • Gemäß dem vierten Aspekt kann aufgrund der Stereomessung die dreidimensionale Position des vom Roboter gegriffenen Werkstücks bezüglich des vorderen Armendes eines solchen Roboters oder die dreidimensionale Position des Werkstücks, das an einer bezüglich eines solchen Roboters roboterfernen Position angeordnet ist, genauer bestimmt werden.
  • Gemäß dem fünften Aspekt kann die dreidimensionale Form oder/und die dreidimensionale Position des Werkstücks mittels der Tiefenabbildung genauer bestimmt werden.
  • Obwohl die Erfindung anhand von Ausführungsbeispielen dargestellt und beschrieben worden ist, versteht es sich für den Fachmann, dass die obigen und verschiedene andere Änderungen, Weglassungen und Hinzufügungen daran vorgenommen werden können, ohne von Grundgedanken und Anwendungsbereich der vorliegenden Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2889011 [0005, 0037]
    • WO 2009/077118 A1 [0010]
    • JP 4174342 [0011]
    • JP 2008-183690 [0012]

Claims (5)

  1. Robotersystem (10), umfassend: einen Roboter (11); einen Roboter-Steuerabschnitt (31) zum Steuern des Roboters (11); und einen visuellen Sensor (13) zum visuellen Vermessen eines Werkstücks (15), wobei entweder das Werkstück (15) oder der visuelle Sensor (13), das bzw. der vom vorderen Ende eines Arms des Roboter (11) gegriffen wird bzw. daran befestigt ist, durch die Betätigung eines Arms des Roboters (11) bewegt werden kann, und das bzw. der andere des Werkstücks (15) oder des visuellen Sensors (13) an einer vom Roboter (11) fernen Position angeordnet ist, wobei das Robotersystem (10) aufweist: einen Informationsverarbeitungsabschnitt (32) des visuellen Sensors, der den visuellen Sensor (13) steuert und auf Basis der Informationen des vom visuellen Sensor (13) vermessenen Werkstücks (15) Positionsinformationen des Werkstücks (15) bezüglich des visuellen Sensors (13) berechnet; einen Zeitgeber (35), auf den der Roboter-Steuerabschnitt (31) und der Informationsverarbeitungsabschnitt (32) des visuellen Sensors zugreifen, um eine aktuelle Zeit abzufragen; einen Speicherabschnitt (33) für die Roboterposition und die Zeit, der sequentiell erste Zeiten in regelmäßigen oder unregelmäßigen Zyklen zusammen mit Positionsinformationsdaten des vorderen Endes des Arms zu den jeweiligen ersten Zeiten speichert; einen Speicherabschnitt (34) für die Bildaufnahmezeit, der eine zweite Zeit speichert, zu der der visuelle Sensor (13) ein Bild des Werkstücks (15) aufnimmt; einen Berechnungsabschnitt (41) für die Position des vorderen Armendes, der Positionsinformationen des vorderen Armendes speichert, wenn der visuelle Sensor (13) das Bild des Werkstücks (15) auf Basis der im Speicherabschnitt (34) für die Bildaufnahmezeit gespeicherten zweiten Zeit aufnimmt, wobei mindestens zwei der ersten Zeiten vor und nach der zweiten Zeit von den im Speicherabschnitt (33) für die Roboterposition und die Zeit gespeicherten ersten Zeiten und die Positionsinformationsdaten des vorderen Armendes den jeweiligen ersten Zeiten entsprechen; und einen Werkstückpositions-Berechnungsabschnitt (42), der Positionsinformationen des gegriffenen Werkstücks (15) bezüglich des vorderen Armendes oder Positionsinformationen des Werkstücks (15), das an der vom Roboter (11) fernen Position bezüglich des Roboters (11) angeordnet ist, auf Basis der Positionsinformationen des vorderen Armendes, die vom Berechnungsabschnitt (41) für die Position des vorderen Armendes berechnet werden, und der Positionsinformationen des Werkstücks (15), die vom Informationsverarbeitungsabschnitt (32) des visuellen Sensors berechnet werden, berechnet.
  2. Robotersystem nach Anspruch 1, wobei der visuelle Sensor (13) das Werkstück (15) vermisst, während sich das vordere Armende des Roboters (11) bewegt.
  3. Robotersystem nach Anspruch 1 oder 2, das ferner einen Korrekturabschnitt (43) aufweist, der den Betrieb des Roboters (11) auf Basis der Positionsinformationen des gegriffenen Werkstücks (15) bezüglich des vorderen Armendes des Roboters (11) oder der Positionsinformationen des Werkstücks (15) korrigiert, das an einer vom Roboter (11) bezüglich des Roboters (11) fernen Position angeordnet ist, die von dem Werkstückpositions-Berechnungsabschnitt (42) berechnet wird.
  4. Robotersystem nach Anspruch 1, wobei entweder das Werkstück (15) oder der visuelle Sensor (13) das bzw. der vom vorderen Armende des Roboter (11) gegriffen wird bzw. daran befestigt ist, durch die Betätigung eines Arms des Roboters (11) bewegbar ist, wobei der visuelle Sensor (13) eine Stereomessung ausführt, indem zu eine Mehrzahl von Zeitpunkten Bilder des Werkstücks (15) aufgenommen werden, wenn sich das vordere Armende während der Bewegung des vorderen Armendes des Roboters (11) an voneinander verschiedenen Positionen befindet, und wobei auf Basis eines Ergebnisses der Stereomessung des visuellen Sensors (13) der Werkstückpositions-Berechnungsabschnitt (42) eine dreidimensionale Position des gegriffenen Werkstücks (15) bezüglich des vorderen Armendes oder eine dreidimensionale Position des an der vom Roboter (11) fernen Position bezüglich des Roboters (11) angeordneten Werkstücks (15) berechnet.
  5. Robotersystem nach Anspruch 1, das ferner einen Laser-Schlitzprojektor (19) aufweist, der am visuellen Sensor (13) angebracht ist, wobei der visuelle Sensor (13) eine dreidimensionale Position eines vom Laser beleuchteten Abschnitts zu einer Mehrzahl von Zeitpunkten an verschiedenen Positionen während der Bewegung des vorderen Armendes des Roboters (11) erfasst, und wobei der Werkstückpositions-Berechnungsabschnitt (42) auf Basis einer Mehrzahl der dreidimensionalen Positionen der vom Laser beleuchteten Abschnitte eine dreidimensionale Form oder/und eine dreidimensionale Position des Werkstücks (15) berechnet.
DE102011009814.3A 2010-03-05 2011-01-31 Robotersystem mit visuellem Sensor Active DE102011009814B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010049188 2010-03-05
JP2010-049188 2010-03-05
JP2010-091363 2010-04-12
JP2010091363A JP4837116B2 (ja) 2010-03-05 2010-04-12 視覚センサを備えたロボットシステム

Publications (2)

Publication Number Publication Date
DE102011009814A1 true DE102011009814A1 (de) 2011-09-08
DE102011009814B4 DE102011009814B4 (de) 2018-09-06

Family

ID=44503090

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011009814.3A Active DE102011009814B4 (de) 2010-03-05 2011-01-31 Robotersystem mit visuellem Sensor

Country Status (4)

Country Link
US (1) US8326460B2 (de)
JP (1) JP4837116B2 (de)
CN (1) CN102189548B (de)
DE (1) DE102011009814B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015204599B3 (de) * 2015-03-13 2016-08-11 Kuka Roboter Gmbh Verfahren zur Steuerung eines Manipulators zur Ausführung eines Arbeitsprozesses
WO2016131921A1 (de) * 2015-02-20 2016-08-25 Audi Ag Verfahren zum betrieb eines roboters und werkeinrichtung
WO2016146768A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
CN113829346A (zh) * 2021-09-26 2021-12-24 三一建筑机器人(西安)研究院有限公司 一种工件定位方法、工件定位装置及坡口切割工作站
US11267142B2 (en) 2017-12-20 2022-03-08 Fanuc Corporation Imaging device including vision sensor capturing image of workpiece
TWI776694B (zh) * 2021-09-30 2022-09-01 台達電子工業股份有限公司 自動化機械手臂系統與機械手臂與其電腦視覺之間的協調方法
US11958200B2 (en) 2021-09-30 2024-04-16 Delta Electronics, Inc. Automatic robotic arm system and coordinating method for robotic arm and computer vision thereof

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
EP2643730A4 (de) * 2010-11-25 2014-10-08 Resolution Art Inc Bildgebungsroboter
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
US20130041508A1 (en) * 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
FR2983059B1 (fr) * 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
WO2013150596A1 (ja) * 2012-04-02 2013-10-10 株式会社安川電機 ロボットシステム及び作業設備
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP5664629B2 (ja) * 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
JP5616478B1 (ja) 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP5698789B2 (ja) 2013-04-18 2015-04-08 ファナック株式会社 ワークを搬送するロボットの制御装置
CN104959982A (zh) * 2013-10-10 2015-10-07 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN104608137B (zh) * 2015-02-09 2016-08-24 江苏科沁光电科技有限公司 一种带视觉的四轴机器人系统
CN104897463A (zh) * 2015-04-16 2015-09-09 广东工业大学 一种钢-混凝土组合件受力变形的实时检测装置及其的检测方法
FR3036302B1 (fr) * 2015-05-20 2017-06-02 Commissariat A L`Energie Atomique Et Aux Energies Alternatives Procede de soudage manuel teleopere et robot de soudage mettant en oeuvre un tel procede
CN111230871B (zh) 2016-03-03 2023-04-07 谷歌有限责任公司 用于机器人抓握的深度机器学习方法和装置
WO2017151926A1 (en) * 2016-03-03 2017-09-08 Google Inc. Deep machine learning methods and apparatus for robotic grasping
CN109328126B (zh) * 2016-07-06 2022-06-07 株式会社富士 拍摄装置及拍摄系统
EP3585568B1 (de) 2017-02-24 2022-03-30 ABB Schweiz AG Verfahren und vorrichtung zur auswahl des ausgangspunktes für die inbetriebnahme eines industrieroboters
JP6420404B1 (ja) 2017-04-26 2018-11-07 ファナック株式会社 物体認識装置
US20190226287A1 (en) * 2017-05-11 2019-07-25 National Oilwell Varco Norway As System and method for placing pipe in and removing pipe from a finger rack
WO2019036929A1 (zh) * 2017-08-23 2019-02-28 深圳蓝胖子机器人有限公司 机器人码放货物的方法、控制机器人码放货物的系统及机器人
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
KR102750211B1 (ko) * 2018-02-23 2025-01-07 구라시키 보세키 가부시키가이샤 선형물의 선단 이동 방법, 및, 제어 장치
JP6661709B2 (ja) * 2018-08-01 2020-03-11 キヤノン株式会社 ロボット制御方法、物品の製造方法、及びロボット装置
JP2020025992A (ja) * 2018-08-09 2020-02-20 株式会社東芝 制御装置、制御方法、およびプログラム
JP7034035B2 (ja) * 2018-08-23 2022-03-11 株式会社日立製作所 自律学習型ロボット装置及び自律学習型ロボット装置の動作生成方法
USD887469S1 (en) * 2018-10-02 2020-06-16 Teleflex Medical Incorporated Camera assembly
JP6878391B2 (ja) * 2018-12-18 2021-05-26 ファナック株式会社 ロボットシステムとその調整方法
WO2020150870A1 (en) * 2019-01-21 2020-07-30 Abb Schweiz Ag Method and apparatus for monitoring robot system
JP7309371B2 (ja) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7190919B2 (ja) 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
JP7417356B2 (ja) 2019-01-25 2024-01-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7112528B2 (ja) * 2019-01-30 2022-08-03 株式会社Fuji 作業座標作成装置
US11170526B2 (en) * 2019-03-26 2021-11-09 Samsung Electronics Co., Ltd. Method and apparatus for estimating tool trajectories
CN110125940A (zh) * 2019-06-03 2019-08-16 上海贽桐机器人科技有限公司 基于视觉的工业机器人板块拼图方法和系统
CN110331408A (zh) * 2019-08-02 2019-10-15 安吉八塔机器人有限公司 一种浸搪机器人系统
JP7307262B2 (ja) * 2020-02-20 2023-07-11 ファナック株式会社 ロボットシステム
DE102020111509B4 (de) * 2020-04-28 2023-04-20 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät sowie Verfahren zum Messen von Koordinaten eines Werkstücks
JP7040567B2 (ja) * 2020-08-18 2022-03-23 オムロン株式会社 制御装置、制御装置の制御方法、情報処理プログラム、および記録媒体
EP4214026A4 (de) * 2020-09-18 2024-06-05 Abb Schweiz Ag Verfahren und vorrichtung zur abstimmung eines robotersystems
JP7599960B2 (ja) * 2021-01-15 2024-12-16 川崎重工業株式会社 ロボットシステム及びロボット制御方法
JP7552547B2 (ja) * 2021-10-13 2024-09-18 トヨタ自動車株式会社 ワーク保持装置、ワーク保持方法、プログラム、及び制御装置
US12286759B2 (en) 2022-09-09 2025-04-29 Herzog Railroad Services, Inc. Rail tie plate orienting and distribution system and method
WO2024054860A1 (en) 2022-09-09 2024-03-14 Herzog Railroad Services, Inc. Rail tie plate singulating and orienting machine
US12209366B2 (en) 2022-09-09 2025-01-28 Herzog Railroad Services, Inc. Rail tie plate flipping assembly

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174342A (ja) 1990-08-01 1992-06-22 Sharp Corp Sog膜形成用溶液の性能評価方法及びその性能評価機構並びにその性能評価方法を利用しての半導体装置の製造方法
JP2889011B2 (ja) 1991-03-07 1999-05-10 ファナック株式会社 検出位置補正方法
JP2008183690A (ja) 2007-01-31 2008-08-14 Nachi Fujikoshi Corp ロボット制御装置及びロボット制御システム
WO2009077118A1 (de) 2007-12-15 2009-06-25 Abb Ag Positionsermittlung eines objektes

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4437114A (en) * 1982-06-07 1984-03-13 Farrand Optical Co., Inc. Robotic vision system
US5255096B1 (en) * 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
JP3086550B2 (ja) * 1992-10-29 2000-09-11 富士通株式会社 運動体の運動同定方法及び運動体の運動同定装置
DE69637413T2 (de) 1995-12-27 2009-01-22 Fanuc Ltd. Kompositdetektionssystem für roboter
JPH11207611A (ja) * 1998-01-21 1999-08-03 Shin Etsu Handotai Co Ltd 両面研磨装置におけるワークの自動搬送装置
JPH11248421A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 移動物体追跡方法及び装置
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
JP3955499B2 (ja) * 2001-08-07 2007-08-08 日本電産サンキョー株式会社 ハンドの位置合わせ方法およびその装置
US6580971B2 (en) * 2001-11-13 2003-06-17 Thierica, Inc. Multipoint inspection system
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3865703B2 (ja) * 2002-10-25 2007-01-10 ファナック株式会社 物品搬送システム及び搬送方法
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4174342B2 (ja) * 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
WO2004096502A1 (en) 2003-04-28 2004-11-11 Stephen James Crampton Cmm arm with exoskeleton
JP4137862B2 (ja) * 2004-10-05 2008-08-20 ファナック株式会社 計測装置及びロボット制御装置
KR100738888B1 (ko) * 2005-10-27 2007-07-12 엘지전자 주식회사 로봇 청소기에 장착된 카메라의 제어 장치 및 방법
WO2008047872A1 (en) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulator
KR101107440B1 (ko) * 2007-06-26 2012-01-19 레스토레이션 로보틱스, 인코포레이티드 모낭 유닛 발췌 장치 및 결합 조직을 단절하기 위한 그 사용 방법
CN101637908B (zh) * 2008-07-29 2010-11-03 上海发那科机器人有限公司 一种用于机器人搬运作业的视觉定位方法
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04174342A (ja) 1990-08-01 1992-06-22 Sharp Corp Sog膜形成用溶液の性能評価方法及びその性能評価機構並びにその性能評価方法を利用しての半導体装置の製造方法
JP2889011B2 (ja) 1991-03-07 1999-05-10 ファナック株式会社 検出位置補正方法
JP2008183690A (ja) 2007-01-31 2008-08-14 Nachi Fujikoshi Corp ロボット制御装置及びロボット制御システム
WO2009077118A1 (de) 2007-12-15 2009-06-25 Abb Ag Positionsermittlung eines objektes

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016131921A1 (de) * 2015-02-20 2016-08-25 Audi Ag Verfahren zum betrieb eines roboters und werkeinrichtung
DE102015002197B4 (de) 2015-02-20 2024-02-01 Audi Ag Verfahren zum Betrieb eines Roboters und Werkeinrichtung
DE102015204599B3 (de) * 2015-03-13 2016-08-11 Kuka Roboter Gmbh Verfahren zur Steuerung eines Manipulators zur Ausführung eines Arbeitsprozesses
WO2016146768A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
US11267142B2 (en) 2017-12-20 2022-03-08 Fanuc Corporation Imaging device including vision sensor capturing image of workpiece
DE102018009815B4 (de) * 2017-12-20 2024-04-18 Fanuc Corporation Bildgebungsvorrichtung umfassend einen Sichtsensor zum Erfassen des Bildes eines Werkstücks
CN113829346A (zh) * 2021-09-26 2021-12-24 三一建筑机器人(西安)研究院有限公司 一种工件定位方法、工件定位装置及坡口切割工作站
CN113829346B (zh) * 2021-09-26 2023-08-11 三一建筑机器人(西安)研究院有限公司 一种工件定位方法、工件定位装置及坡口切割工作站
TWI776694B (zh) * 2021-09-30 2022-09-01 台達電子工業股份有限公司 自動化機械手臂系統與機械手臂與其電腦視覺之間的協調方法
US11958200B2 (en) 2021-09-30 2024-04-16 Delta Electronics, Inc. Automatic robotic arm system and coordinating method for robotic arm and computer vision thereof

Also Published As

Publication number Publication date
US8326460B2 (en) 2012-12-04
CN102189548A (zh) 2011-09-21
JP2011201007A (ja) 2011-10-13
DE102011009814B4 (de) 2018-09-06
US20110218675A1 (en) 2011-09-08
CN102189548B (zh) 2014-06-18
JP4837116B2 (ja) 2011-12-14

Similar Documents

Publication Publication Date Title
DE102011009814B4 (de) Robotersystem mit visuellem Sensor
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
EP2227356B1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
DE102017117928B4 (de) Robotersteuereinheit für einen Montageroboter
JP3665353B2 (ja) ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
DE102016008284A1 (de) Zum erhalten des werkstücknullpunkts ausgebildete werkzeugmaschinensteuerung und werkstücknullpunkt-festlegungsverfahren
DE102020119704B4 (de) Steuervorrichtung einer robotervorrichtung, die die position eines roboters steuert
DE102007026299B4 (de) Industrieroboter und Verfahren zum Programmieren eines Industrieroboters
EP2255930A1 (de) Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
EP1604789A2 (de) Verfahren und Vorrichtung zum Verbessern der Positioniergenauigkeit eines Handhabungsgeräts
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102020124356A1 (de) Steuerung einer Robotervorrichtung zum Einstellen der Position eines vom Roboter gestützten Gegenstandes
DE102021103726A1 (de) Messparameter-Optimierungsverfahren und -Vorrichtung sowie Computersteuerprogramm
CN110039520B (zh) 一种基于图像对比的示教、加工系统
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102017128332B4 (de) Mit einer Formungsmaschine und einer Formproduktentnahmevorrichtung versehenes Formungssystem
DE102020211053A1 (de) Annotationsvorrichtung
DE102020204950A1 (de) Steuervorrichtung, mechanisches system und zeitsynchronisationsverfahren
DE102018109329B4 (de) Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102015104587B4 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP3571462A1 (de) Verfahren und vorrichtung zum erzeugen eines 3d-thermogramms
DE102004020004A1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE102016223665A1 (de) Positionsbestimmung eines manipulators mit einer kamera eines smartphones
DE112022006521T5 (de) Roboterlernverfahren und vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20111013

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final