[go: up one dir, main page]

DE102009009569B4 - Method for determining a partial surface of a component - Google Patents

Method for determining a partial surface of a component Download PDF

Info

Publication number
DE102009009569B4
DE102009009569B4 DE102009009569.1A DE102009009569A DE102009009569B4 DE 102009009569 B4 DE102009009569 B4 DE 102009009569B4 DE 102009009569 A DE102009009569 A DE 102009009569A DE 102009009569 B4 DE102009009569 B4 DE 102009009569B4
Authority
DE
Germany
Prior art keywords
component
partial
gripping
pixels
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009009569.1A
Other languages
German (de)
Other versions
DE102009009569A1 (en
Inventor
Dipl.-Ing. Höferlin Markus
Dipl.-Ing. Koch Andreas
Dipl.-Ing. Richter Mathias
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009009569.1A priority Critical patent/DE102009009569B4/en
Publication of DE102009009569A1 publication Critical patent/DE102009009569A1/en
Application granted granted Critical
Publication of DE102009009569B4 publication Critical patent/DE102009009569B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Ermitteln wenigstens einer Teilfläche eines in einem Behältnis befindlichen Bauteils als Angriffsfläche (18) zum Ansetzen einer Greifeinheit, bei welchem
a) mittels eines Sensors ein Bild des Bauteils erfasst wird, welches eine dreidimensionale Wolke (10) mit einer Mehrzahl von erfassten Bildpunkten (12) umfasst;
b) das Bild mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen als Angriffsfläche (18) verwendbaren Teilfläche des Bauteils untersucht wird, wobei Bildpunkte (12) wenigstens einer dreidimensionalen Gitterzelle (14) zugeordnet werden und anhand der Bildpunkte (12) der Gitterzelle (14) ein Flächenstück (16) der wenigstens einen Teilfläche als Angriffsfläche (18), ermittelt wird;
c) auf der Angriffsfläche (18) wenigstens ein Greifpunkt zum Ansetzen einer Greifeinheit in Abhängigkeit von einer Größe einer Anlagefläche der Greifeinheit ermittelt wird.

Figure DE102009009569B4_0000
Method for determining at least a partial surface of a component located in a container as an engagement surface (18) for attaching a gripping unit, in which
a) an image of the component is captured by means of a sensor, which comprises a three-dimensional cloud (10) with a plurality of captured image points (12);
b) the image is examined by means of an evaluation unit for the presence of the at least one partial surface of the component that can be used as an attack surface (18), pixels (12) being assigned to at least one three-dimensional grid cell (14) and the grid cell (14) using the pixels (12) ) an area piece (16) of the at least one partial area is determined as the contact area (18);
c) at least one gripping point for attaching a gripping unit as a function of a size of a contact surface of the gripping unit is determined on the engagement surface (18).
Figure DE102009009569B4_0000

Description

Die Erfindung betrifft ein Verfahren zum Ermitteln wenigstens einer Teilfläche, insbesondere einer Angriffsfläche zum Ansetzen einer Greifeinheit, eines Bauteils, welches sich in einem Behältnis befindet. Bei diesem Verfahren wird mittels eines Sensors ein Bild des Bauteils erfasst, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst. Das Bild wird mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen Teilfläche, insbesondere Angriffsfläche, des Bauteils untersucht.The invention relates to a method for determining at least one partial surface, in particular an attack surface for attaching a gripping unit, of a component which is located in a container. In this method, an image of the component is captured by means of a sensor, which comprises a three-dimensional cloud with a plurality of captured image points. The image is examined by means of an evaluation unit for the presence of the at least one partial surface, in particular the attack surface, of the component.

Das Ermitteln von Teilflächen eines sich in einem Behältnis befindenden Bauteils ist insbesondere dann von Interesse, wenn diese Teilfläche als potenzielle Angriffsfläche zum Ansetzen einer Greifeinheit dienen soll, um so mittels der Greifeinheit ein Bauteil gezielt aus dem Behältnis, beispielsweise einer Gitterbox, entnehmen zu können.The determination of partial areas of a component located in a container is of particular interest if this partial area is to serve as a potential contact surface for attaching a gripping unit, so that a component can be specifically removed from the container, for example a lattice box, by means of the gripping unit.

Die PCT Anmeldung WO 2008/014960 A1 beschreibt ein Verfahren zur automatisierten 3D-Objekterkennung und Lagebestimmung. Das Verfahren geht aus von einem 3D-Messdatensatz („Punktewolke“) eines Arbeitsbereiches, in dem sich (mindestens) ein Objekt befindet. Mit Hilfe des Verfahrens wird das in dem Bereich befindliche Objekt detektiert und seine Lage erkannt. Hierzu werden an den 3D-Messdatensatz regelgeometrische Elemente angepasst, die eine „Repräsentation“ des auszuwählenden Objekts darstellen und dazu dienen, das Objekt zu identifizieren und seine Lage zu bestimmen; dies erfolgt beispielsweise mit Hilfe eines Best Fit Verfahrens. Basierend auf den dabei gewonnenen vollständigen Informationen bezüglich Lage/Position des auszuwählenden Objekts im Arbeitsbereich kann eine Behandlungsvorrichtung, z.B. ein Greifer zum Erfassen des Objekts, gesteuert werden.The PCT registration WO 2008/014960 A1 describes a process for automated 3D object detection and position determination. The method is based on a 3D measurement data record ("point cloud") of a work area in which (at least) one object is located. With the aid of the method, the object located in the area is detected and its position is recognized. For this purpose, geometrical elements that represent a “representation” of the object to be selected and are used to identify the object and determine its position are adapted to the 3D measurement data set; this is done, for example, using a best fit process. A treatment device, for example a gripper for grasping the object, can be controlled on the basis of the complete information regarding the position of the object to be selected in the work area.

Die PCT Anmeldung WO 2007/083039 A2 beschreibt ein Verfahren zum automatisierten Greifen von Bauteilen, die sich in einem Arbeitsbereich befinden. Basierend auf einem 3D-Messdatensatz („Punktewolke“) des Arbeitsbereichs werden die Bauteile anhand ihrer 3D-CAD-Daten erkannt, und es wird ein virtuelles 3D-CAD-Modell des Arbeitsbereiches erstellt. In diesem 3D-CAD-Modell des Arbeitsbereiches wird das virtuell zu greifende Bauteil bestimmt und die virtuellen Greifpositionen ermittelt. Die virtuellen Greifpositionen werden an einen Roboter übermittelt, der mit einem realen Greifer das reale Bauteil ergreift.The PCT registration WO 2007/083039 A2 describes a method for automated gripping of components that are located in a work area. Based on a 3D measurement data record (“point cloud”) of the work area, the components are recognized based on their 3D CAD data, and a virtual 3D CAD model of the work area is created. In this 3D CAD model of the work area, the component to be gripped virtually is determined and the virtual gripping positions are determined. The virtual gripping positions are transmitted to a robot that grips the real component with a real gripper.

Das Patent US 5,978,504 A offenbart ein Verfahren zur Segmentierung einer Punktewolke aus 3D-Messdaten und zur Erkennung und Extraktion ebener Flächen aus dieser Punktewolke. Als mögliches Anwendungsgebiet dieses Verfahrens wird die Objekterkennung genannt, bei der die aus den Messdaten ermittelten Flächen an ein Modell des zu erkennenden Objekts angepasst werden.The patent US 5,978,504 A discloses a method for segmenting a point cloud from 3D measurement data and for recognizing and extracting flat surfaces from this point cloud. Object detection is mentioned as a possible field of application of this method, in which the areas determined from the measurement data are adapted to a model of the object to be recognized.

Die Schrift von Richtsfeld, M; Zillich, M.: „Grasping Unknown Objects Based on 2½ D Range Data“ in 4th IEEE Conference on Automotive Science and Engineering 2008, S. 691-696 Abst., Abschn. I u. V beschäftigt sich mit der Problematik der Berechnung von Greifpunkten aus einer Punktewolke von 2½ -dimensionalen Messpunkten. Hierzu werden in der Punktewolke Regionen mit großer Krümmung detektiert, die als Ränder identifiziert und in Form von Linien abgebildet werden. Aufbauend auf diese Randlinien wird die Topologie der zugehörigen Objekte ermittelt und Greifpunkte definiert.The writing by Richtsfeld, M; Zillich, M .: "Grasping Unknown Objects Based on 2½ D Range Data" in 4th IEEE Conference on Automotive Science and Engineering 2008, pp. 691-696 abstracts, Sect. I u. V deals with the problem of calculating gripping points from a point cloud of 2½-dimensional measuring points. For this purpose, regions with large curvature are detected in the point cloud, which are identified as edges and mapped in the form of lines. Based on these border lines, the topology of the associated objects is determined and gripping points are defined.

Die Schrift von Fransens, J., Reeth, F. in IEEE Proceedings of third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006, S. 591-598 Abstr., Absch. 4 u. 4 : „Hierarchical PCA Decomposition of Point Clouds“ beschreibt ein Verfahren zur Extraktion ebener Teilflächen aus einer 3D-Punktewolke mit Hilfe der Hauptkomponentenanalyse. Das Verfahren beruht auf einer Segmentierung der 3D-Punktewolke mit Hilfe einer iterativen Baumstruktur (octree) und anschließendem Gruppieren der extrahierten ebenen Teilflächen zu größeren ebenen Bereichen.The writing by Fransens, J., Reeth, F. in IEEE Proceedings of third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006, pp. 591-598 Abstr., Para. 4 u. 4: "Hierarchical PCA Decomposition of Point Clouds" describes a process for extracting flat partial areas from a 3D point cloud using the main component analysis. The method is based on a segmentation of the 3D point cloud with the help of an iterative tree structure (octree) and then grouping the extracted flat partial areas into larger flat areas.

Aus dem Stand der Technik ist es hierbei bekannt, mittels eines Sensors ein Bild des Bauteils zu erfassen, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst. Diese dreidimensionale Wolke von Bildpunkten auf ein Vorliegen der wenigstens einen Teilfläche hin auszuwerten ist jedoch bei aus dem Stand der Technik bekannten Verfahren mit einem sehr hohen Rechenaufwand verbunden. It is known from the prior art to use a sensor to capture an image of the component which comprises a three-dimensional cloud with a plurality of captured pixels. However, evaluating this three-dimensional cloud of pixels for the presence of the at least one partial area is associated with a very high computing effort in methods known from the prior art.

Daher ist hier das Untersuchen auf ein Vorliegen der Angriffsfläche besonders zeitaufwendig. Eine ausreichend kurze, einer rationellen Handhabung bzw. Weiterverarbeitung genügende Taktzeit zum Ergreifen des Bauteils mittels der Greifeinheit ist bei einem solchen Verfahren nicht erreichbar. Darüber hinaus werden bekannte Verfahren, bei welchen die dreidimensionale Wolke an Bildpunkten ausgewertet wird, Anforderungen an zulässige Toleranzen in der Regel nicht gerecht und die Genauigkeit der Ermittlung der Angriffsfläche ist nicht zufriedenstellend.Therefore, the examination for the presence of the attack surface is particularly time-consuming. A sufficiently short cycle time, sufficient for efficient handling or further processing, for gripping the component by means of the gripping unit cannot be achieved with such a method. In addition, known methods in which the three-dimensional cloud is evaluated at image points generally do not meet the requirements for permissible tolerances and the accuracy of the determination of the attack surface is unsatisfactory.

Aufgabe der vorliegenden Erfindung ist es daher, ein verbessertes Verfahren der eingangs genannten Art zu schaffen.The object of the present invention is therefore to provide an improved method of the type mentioned at the outset.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Als vorteilhafte Ausgestaltungen mit zweckmäßigen Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.This object is achieved by a method having the features of patent claim 1. As advantageous configurations with appropriate Developments of the invention are specified in the dependent claims.

Bei dem erfindungsgemäßen Verfahren zum Ermitteln wenigstens einer Teilfläche, insbesondere einer Angriffsfläche zum Ansetzen einer Greifeinheit, eines Bauteils, welches sich in einem Behältnis befindet, bei welchem

  • a) mittels eines Sensors ein Bild des Bauteils erfasst wird, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst, und bei welchem
  • b) das Bild mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen Teilfläche, insbesondere Angriffsfläche, des Bauteils untersucht wird,
werden beim Untersuchen gemäß Schritt b) Bildpunkte wenigstens einer dreidimensionalen Gitterzelle zugeordnet. Anhand der Bildpunkte der Gitterzelle wird ein Flächenstück der wenigstens einen Teilfläche als Angriffsfläche ermittelt. Als weiter vorteilhaft hat es sich gezeigt, auf der Teilfläche wenigstens einen Greifpunkt zum Ansetzen der Greifeinheit in Abhängigkeit von einer Größe einer Anlagefläche der Greifeinheit, insbesondere als binäres Bild, zu ermitteln. Ist ein Bereich der Teilfläche ausreichend groß, um die Anlagefläche der Greifeinheit vollständig mit dem Bereich in Anlage zu bringen, so kann dies in dem binären Bild besonders einfach kenntlich gemacht werden. Dies ermöglicht ein besonders einfaches Auswerten des binären Bildes.In the method according to the invention for determining at least one partial surface, in particular a contact surface for attaching a gripping unit, a component which is in a container in which
  • a) by means of a sensor an image of the component is captured, which comprises a three-dimensional cloud with a plurality of captured image points, and in which
  • b) the image is examined by means of an evaluation unit for the presence of the at least one partial surface, in particular the contact surface, of the component,
When examining according to step b), pixels are assigned to at least one three-dimensional grid cell. On the basis of the pixels of the grid cell, a surface piece of the at least one partial surface is determined as the attack surface. It has also proven to be advantageous to determine at least one gripping point on the partial surface for attaching the gripping unit as a function of a size of a contact surface of the gripping unit, in particular as a binary image. If an area of the partial area is sufficiently large to bring the contact surface of the gripping unit completely into contact with the area, this can be identified particularly easily in the binary image. This enables a particularly simple evaluation of the binary image.

Das Untersuchen des Bildes auf ein Vorliegen der wenigstens einen Teilfläche kann so mit vergleichsweise geringem Rechenaufwand und folglich besonders rasch erfolgen, da die Auswerteeinheit nicht eine Vielzahl von erfassten Bildpunkten, sondern lediglich anhand der Bildpunkte innerhalb einer dreidimensionalen Gitterzelle ermittelte Flächenstücke zum Auffinden der Teilfläche nutzt. Die Komplexität der Auswertung ist so stark verringert, da beim Untersuchen der Flächenstücke auf das Vorliegen der wenigstens einen Teilfläche ein zweidimensionales Auswertungsverfahren zum Einsatz kommen kann.The examination of the image for the presence of the at least one partial area can thus be carried out with comparatively little computational effort and consequently particularly quickly, since the evaluation unit does not use a large number of recorded image points, but rather only uses area parts determined on the basis of the image points within a three-dimensional grid cell to find the partial area. The complexity of the evaluation is so greatly reduced that a two-dimensional evaluation method can be used when examining the surface pieces for the presence of the at least one partial surface.

Das Zusammenfassen einer Vielzahl von Bildpunkten innerhalb einer jeweiligen dreidimensionalen Gitterzelle zu einem einzigen, anhand weniger Parameter beschreibbaren Flächenstück führt zu einer bedeutenden Reduzierung zu verarbeitender Daten. Das rasche Verarbeiten der Daten erlaubt ein rasches Ermitteln der Teilfläche eines Bauteils. Handelt es sich bei dieser Teilfläche um eine Angriffsfläche zum Ansetzen einer Greifeinheit, so ist hierdurch ein vollautomatisiertes Greifen des Bauteils, bei welchem es sich beispielsweise um ein Blechumformteil handeln kann, ermöglicht. Derartige Blechumformteile können insbesondere Stahlteile für einen Integralträger oder einen Hinterachsträger, sowie Aluminiumteile, insbesondere für einen Hinterachsträger, eines Kraftfahrzeugs, umfassen.The combination of a large number of pixels within a respective three-dimensional grid cell to form a single piece of area that can be described using fewer parameters leads to a significant reduction in the data to be processed. The rapid processing of the data enables the partial area of a component to be determined quickly. If this partial surface is a contact surface for attaching a gripping unit, this enables fully automated gripping of the component, which can be, for example, a sheet metal part. Such sheet metal parts can in particular include steel parts for an integral support or a rear axle support, as well as aluminum parts, in particular for a rear axle support, of a motor vehicle.

Das Verfahren ist im Rahmen einer automatisierten, rationellen Weiterverarbeitung von aus Behältnissen, beispielsweise aus Gitterboxen, zu entnehmenden Bauteilen innerhalb einer vorgegebenen Taktzeit einsetzbar. Das mittels der Greifeinheit aus dem Behältnis vereinzelte Bauteil kann in einem weiteren Schritt einer Einrichtung zum Erkennen einer Lage, Position und Orientierung des sich an der Greifeinheit befindenden Bauteils zugeführt werden. Ist die Lage, Orientierung und Position des Bauteils an der Greifeinheit ermittelt, kann das Bauteil anschließend definiert abgelegt bzw. einer entsprechenden Weiterverarbeitungseinrichtung zugeführt werden. Das lagerichtige Erkennen der Angriffsstelle, an welcher die Greifeinheit das Bauteil ergriffen hat, ermöglicht es, die Greifeinheit dazu zu veranlassen, das Bauteil in eine gewünschte räumliche Orientierung zu überführen. Dadurch ist ein geordnetes, lagerichtiges Ablegen des Bauteils ermöglicht.The method can be used within the scope of an automated, rational further processing of components to be removed from containers, for example from mesh boxes, within a predetermined cycle time. In a further step, the component separated from the container by means of the gripping unit can be fed to a device for recognizing a position, position and orientation of the component located on the gripping unit. Once the position, orientation and position of the component on the gripping unit has been determined, the component can then be stored in a defined manner or fed to a corresponding further processing device. The correct detection of the point of attack at which the gripping unit has gripped the component makes it possible to cause the gripping unit to convert the component into a desired spatial orientation. This enables an orderly, correct storage of the component.

In einer vorteilhaften Ausgestaltung der Erfindung wird beim Erfassen des Bilds des Bauteils gemäß Schritt a) ein, insbesondere mehr als eine Kamera nutzendes, Lichtschnittverfahren, insbesondere ein Laserlichtschnittverfahren, eingesetzt. Ein solches auf einem Triangulationsansatz basierendes Lichtschnittverfahren hat sich als besonders geeignet zum Ermitteln der wenigstens einen Teilfläche des Bauteils erwiesen. In an advantageous embodiment of the invention, when capturing the image of the component according to step a), a light-cutting method, in particular using more than one camera, in particular a laser light-cutting method is used. Such a light section method based on a triangulation approach has proven to be particularly suitable for determining the at least one partial area of the component.

Durch gleichzeitiges Einsetzen von zwei oder mehr Kameras beim Verwenden lediglich einer Lichtschnittlinie, insbesondere Laserlichtschnittlinie, können trotz unvermeidlicher Abschattungen der Bauteile in dem Behältnis potenzielle Angriffsflächen mit großer Genauigkeit und besonders rasch ermittelt werden. Beim Verwenden lediglich einer Kamera und einer Lichtschnittlinie, insbesondere Laserlichtschnittlinie, ist ein mehrmaliges Scannen der Bauteile in dem Behältnis zum Erfassen des Bilds möglich. Ebenso können zwei oder mehr als zwei Kameras mit jeweils einer, der Kamera zugeordneten Lichtschnittlinie, insbesondere Laserlichtschnittlinie, zum Ermitteln der Angriffsfläche herangezogen werden.By simultaneously using two or more cameras when using only one light section line, in particular laser light section line, potential attack surfaces can be determined with great accuracy and particularly quickly, despite inevitable shadowing of the components in the container. If only one camera and a light section line, in particular a laser light section line, are used, the components in the container can be scanned several times in order to capture the image. Likewise, two or more than two cameras, each with a light section line assigned to the camera, in particular a laser light section line, can be used to determine the target surface.

In weiter vorteilhafte Weise werden durch Zuordnen der Bildpunkte zu wenigstens einer dreidimensionalen Gitterzelle Nachbarschaftsbeziehungen zwischen Bildpunkten definiert. Dadurch ist es ermöglicht, zum Erstellen des die dreidimensionale Wolke von Bildpunkten umfassendes Bildes voneinander verschiedene Sensordatenerfassungen, beispielsweise Scans des Laserlichtschnittsensors, zu verwenden, zwischen welchen keine definierten Nachbarschaftsbeziehungen bestehen. Das Heranziehen mehrerer, voneinander unabhängiger Sensordatenerfassungen ermöglicht ein Erstellen eines sehr genauen Bildes des Bauteils.Neighboring relationships between pixels are further advantageously defined by assigning the pixels to at least one three-dimensional grid cell. This makes it possible to use different sensor data acquisitions, for example scans of the laser light section sensor, between which there are no defined neighborhood relationships to create the image comprising the three-dimensional cloud of pixels. The use of several, independent of each other Sensor data acquisition enables a very precise image of the component to be created.

In einer weiteren vorteilhaften Ausgestaltung der Erfindung wird beim Ermitteln des Flächenstücks je dreidimensionaler Gitterzelle eine Hauptkomponentenanalyse der Bildpunkte einer jeweiligen Gitterzelle durchgeführt. Durch Reduzieren der Bildpunkte einer jeweiligen dreidimensionalen Gitterzelle auf die Hauptkomponenten eines Flächenstücks ist ein besonders wenig rechenaufwendiges und somit rasches Auffinden von Teilflächen, insbesondere von Angriffsflächen zum Ansetzen der Greifeinheit, ermöglicht. Des Weiteren wird durch die Hauptkomponentenanalyse das Rauschen des Sensors nahezu vollständig unterdrückt.In a further advantageous embodiment of the invention, when determining the area per three-dimensional grid cell, a main component analysis of the pixels of a respective grid cell is carried out. By reducing the pixels of a respective three-dimensional grid cell to the main components of a surface piece, partial areas, in particular attack surfaces for attaching the gripping unit, can be found in a particularly computation-free and thus quick manner. Furthermore, the sensor noise is almost completely suppressed by the main component analysis.

Als weiter vorteilhaft hat es sich gezeigt, voneinander verschiedene Flächenstücke in Abhängigkeit von einem Abstand zu einer Bezugsebene und/oder in Abhängigkeit von einer Raumausrichtung einer Flächenstücknormalen zu einer gemeinsamen Teilfläche zusammenzufassen. Einzelne Flächenstücke einer jeweiligen dreidimensionalen Gitterzelle werden also zu einer größeren Einheit fusioniert. Handelt es sich bei den Flächenstücken um im Wesentlichen planare Flächenstücke, so ergeben sich aus der Fusion größere, ebene Teilflächen.It has also been shown to be advantageous to combine surface pieces that are different from one another depending on a distance from a reference plane and / or depending on a spatial orientation of a surface normal to a common partial surface. Individual patches of a respective three-dimensional grid cell are thus fused into a larger unit. If the patches are essentially planar patches, the merger results in larger, flat patches.

Durch das Berücksichtigen des jeweiligen Abstands des Flächenstücks zu einer Bezugsebene ist sicherstellbar, nur diejenigen Flächenstücke zu einer gemeinsamen Teilfläche zusammenzufassen, deren Abstand zu der Bezugsebene innerhalb eines vorgebbaren Toleranzintervalls liegt.By taking into account the respective distance of the surface piece from a reference plane, it can be ensured that only those surface pieces are combined into a common partial surface whose distance from the reference plane lies within a predefinable tolerance interval.

Werden die Raumausrichtungen der jeweiligen Flächenstücknormalen beim Zusammenfassen der einzelnen Flächenstücke berücksichtigt, so ist sicherstellbar, dass lediglich die Flächenstücke zu einer gemeinsamen Teilfläche zusammengefasst werden, deren jeweilige Raumausrichtungen nicht um mehr als einen vorgebbaren Wert voneinander abweichen. Die aus einzelnen Flächenstücken gebildete größere Einheit weist dann eine vergleichsweise einheitliche Raumausrichtung auf.If the spatial orientations of the respective surface normal are taken into account when combining the individual surface pieces, it can be ensured that only the surface pieces are combined into a common partial surface, the respective spatial orientations of which do not differ from one another by more than a predeterminable value. The larger unit formed from individual surface pieces then has a comparatively uniform spatial orientation.

In weiter vorteilhafter Weise werden hierbei voneinander verschiedene Flächenstücke mit voneinander abweichenden Raumausrichtungen der Flächenstücknormalen zu einer Teilfläche mit einer vorgebbaren Krümmung zusammengefasst. Dies erlaubt ein Zusammenfassen von Flächenstücken zu einer gekrümmten Teilfläche. Durch Vorgeben der maximal zulässigen Toleranz der Abweichungen der Raumausrichtungen der Flächenstücknormalen ist so ein maximaler Krümmungsradius vorgebbar, welcher ein sicheres Ansetzen der Greifeinheit ermöglicht.In a further advantageous manner, different surface sections with different spatial orientations of the surface normal are combined to form a partial surface with a predefinable curvature. This allows the joining of surface pieces into a curved partial surface. By specifying the maximum permissible tolerance of the deviations in the spatial orientations of the surface normal, a maximum radius of curvature can be specified, which enables the gripping unit to be securely attached.

Von Vorteil ist es hierbei weiterhin, wenn der wenigstens eine Greifpunkt in Abhängigkeit von einem Abstand der Anlagefläche zu einem Rand der Teilfläche und/oder einer Öffnung in dem Bauteil und/oder in Abhängigkeit von einer Orientierung der Anlagefläche ermittelt wird. Eventuelle Löcher oder Ausnehmungen in dem Bauteil werden also beim Ermitteln des Greifpunkts berücksichtigt. Dies ist insbesondere dann vorteilhaft, wenn als Greifeinheit ein Sauggreifer anstelle eines Magnetgreifers eingesetzt wird. Des Weiteren kann die Orientierung der Anlagefläche der Greifeinheit so verändert werden, dass ein maximaler Abstand der Anlagefläche der Greifeinheit zu dem Rand der Teilfläche oder der Öffnung in dem Bauteil gegeben ist. Ist auf der Teilfläche wenigstens ein geeigneter Greifpunkt ermittelt, so ist ein sicheres Greifen des Bauteils ermöglicht.It is also advantageous here if the at least one gripping point is determined as a function of a distance from the contact surface to an edge of the partial surface and / or an opening in the component and / or as a function of an orientation of the contact surface. Any holes or recesses in the component are therefore taken into account when determining the gripping point. This is particularly advantageous if a suction gripper is used instead of a magnetic gripper as the gripping unit. Furthermore, the orientation of the contact surface of the gripping unit can be changed such that there is a maximum distance between the contact surface of the gripping unit and the edge of the partial surface or the opening in the component. If at least one suitable gripping point is determined on the partial surface, then a secure gripping of the component is made possible.

Schließlich hat es sich als vorteilhaft gezeigt, eine Rangordnung von Greifpunkten voneinander verschiedener Teilflächen in Abhängigkeit von einer Größe der jeweiligen Teilfläche und/oder einem Abstand der Anlagefläche zu einem Rand der Teilfläche und/oder in Abhängigkeit von einem Abstand der Teilfläche von einer Bezugsebene zu erstellen. Ist eine solche Rangordnung der Greifpunkte erstellt, so kann dasjenige Bauteil bevorzugt aus dem Behältnis entnommen werden, welches den zum Ansetzen der Greifeinheit am Besten geeigneten, also ranghöchsten Greifpunkt aufweist. Auf diese Weise sind insbesondere Kollisionen von Bauteilen miteinander beim Entnehmen aus dem Behältnis vermeidbar. Des Weiteren ist so ein besonders sicheres Greifen des Bauteils ermöglicht.Finally, it has proven to be advantageous to create a ranking of gripping points of different partial areas depending on a size of the respective partial area and / or a distance of the contact surface from an edge of the partial area and / or depending on a distance of the partial area from a reference plane , If such a ranking of the gripping points has been established, then that component can preferably be removed from the container which has the most suitable, ie highest-ranking, gripping point for attaching the gripping unit. In this way, collisions of components with one another when removed from the container can be avoided. Furthermore, a particularly secure gripping of the component is made possible.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung einer bevorzugten Ausführungsform sowie anhand der Zeichnungen. Dabei zeigen:

  • 1 einen Bildausschnitt von sich in einer Gitterbox befindenden Bauteilen, wobei das Bild eine dreidimensionale Wolke von mittels eines Lichtschnittsensors erfassten Bildpunkten umfasst;
  • 2 in jeweiligen dreidimensionalen Gitterzellen der dreidimensionalen Wolke ermittelte, planare Flächenstücke auf Oberflächen der Bauteile;
  • 3 Angriffsflächen an Bauteilen, welche durch Zusammenfassen einer Mehrzahl voneinander verschiedener Flächenstücke gemäß 2 gewonnen wurden; und
  • 4 Angriffsflächen unterschiedlicher Bauteile mit möglichen Greifpunkten zum Ansetzen einer Greifeinheit an dem jeweiligen Bauteil.
Further advantages, features and details of the invention result from the following description of a preferred embodiment and from the drawings. Show:
  • 1 an image detail of components located in a lattice box, the image comprising a three-dimensional cloud of image points detected by means of a light section sensor;
  • 2 planar surface pieces on surfaces of the components determined in respective three-dimensional grid cells of the three-dimensional cloud;
  • 3 Attack surfaces on components, which by combining a plurality of mutually different surface pieces according 2 were won; and
  • 4 Attack surfaces of different components with possible gripping points for attaching a gripping unit to the respective component.

Das mit Bezug auf 1 bis 4 beschriebene Verfahren dient einem Ermitteln von potenziellen Angriffsflächen an Bauteilen, welche sich in einer Gitterbox befinden. Ist auf einer solchen Angriffsfläche ein Greifpunkt zum Ansetzen einer Greifeinheit ermittelt, lässt sich das Bauteil mittels der Greifeinheit aus der Gitterbox entnehmen. Nach diesem Vereinzeln des Bauteils wird eine Lageerkennung des Bauteils durchgeführt. Das Bauteil wird dann einer bauteilspezifischen Ablageeinrichtung zugeführt und dort definiert und lagerichtig abgelegt.That with reference to 1 to 4 described method is used to determine potential areas of attack on components that are located in a mesh box. If a gripping point for attaching a gripping unit is determined on such an attack surface, the component can be removed from the grid box by means of the gripping unit. After this separation of the component, a position detection of the component is carried out. The component is then fed to a component-specific storage device, where it is defined and stored in the correct position.

Der Gesamtprozess des vollautomatischen Greifens und Ablegens der Bauteile beim Vereinzeln aus der Gitterbox gliedert sich also in zwei Phasen. In der ersten Phase wird eine Angriffsfläche des Bauteils in der Gitterbox mittels einer 3D-Erkennung ermittelt und auf der Angriffsfläche ein Greifpunkt bestimmt. Dies ermöglicht das Greifen des Bauteiles an dem Greifpunkt. Nach dem Greifen wird das Bauteil in der zweiten Phase einer 2D-Bauteillageerkennung zugeführt. Hierbei wird die genaue Lage, Position und Orientierung des Bauteils an der Greifeinheit bestimmt, um das Bauteil schließlich definiert ablegen zu können.The entire process of fully automatic gripping and depositing of the components when separating them from the mesh box is divided into two phases. In the first phase, an attack surface of the component in the lattice box is determined using 3D detection and a gripping point is determined on the attack surface. This enables the component to be gripped at the gripping point. After gripping, the component is fed to a 2D component position detection in the second phase. The exact position, position and orientation of the component on the gripping unit is determined in order to finally be able to store the component in a defined manner.

Um das in 1 gezeigte Bild zu erhalten, wird mittels eines auf einem Triangulationsverfahren basierenden Lichtschnittsensors die Gitterbox mit den sich darin befindenden Bauteilen gescannt und eine dreidimensionale Wolke 10 mit einer Mehrzahl von erfassten Bildpunkten 12 erstellt. Hierbei fährt der Lichtschnittsensor mit einem bestimmten Scanwinkel und entlang eines bestimmten Verfahrweges über die Gitterbox. Die Wolke 10 an Bildpunkten 12 kann aufgrund von Reflexionen und Abschattungen Regionen ohne Information (Missing Data) enthalten. Durch erneutes Scannen dieser Regionen mit veränderten Scanwinkeln und/oder anderen Verfahrwegen des Lichtschnittsensors kann diese fehlende Information gewonnen werden.To do that in 1 To obtain the image shown, the grid box with the components located therein is scanned and a three-dimensional cloud is scanned using a light section sensor based on a triangulation method 10 with a plurality of captured pixels 12 created. Here, the light section sensor travels with a certain scan angle and along a certain travel path over the lattice box. The cloud 10 at pixels 12 may contain regions without information (missing data) due to reflections and shadowing. This missing information can be obtained by scanning these regions again with changed scanning angles and / or other travel paths of the light section sensor.

Durch wiederholtes Scannen der Gitterbox sind im Bild der Scanprofile keine Nachbarschaftsbeziehungen zwischen Bildpunkten 12 der einzelnen Scans vorhanden. Aus diesem Grund muss die Nachbarschaft neu definiert werden. Hierzu wird ein dreidimensionales Raster verwendet. Das Raster umfasst dreidimensionale Gitterzellen 14. Alle Gitterzellen 14 sind in ihrer Ausdehnung gleich. Die Gitterzellen 14 können, wie in 1 gezeigt, benachbart oder überlappend angeordnet sein. Jeder Bildpunkt 12 der dreidimensionalen Wolke 10 wird einer Transformation unterzogen, um Scankoordinaten (Polarkoordinaten) in kartesische Koordinaten umzurechnen. Danach wird der Bildpunkt 12 der zugehörigen Gitterzelle 14 zugeordnet. Mehrfacheinordnungen bei überlappenden Gitterzellen 14 sind möglich.By repeatedly scanning the grid box, there are no neighborhood relationships between pixels in the image of the scan profiles 12 of the individual scans available. For this reason, the neighborhood has to be redefined. A three-dimensional grid is used for this. The grid comprises three-dimensional grid cells 14 , All grid cells 14 are the same in extent. The grid cells 14 can, as in 1 shown, arranged adjacent or overlapping. Every pixel 12 the three-dimensional cloud 10 undergoes a transformation to convert scan coordinates (polar coordinates) into Cartesian coordinates. Then the pixel 12 the associated grid cell 14 assigned. Multiple classifications for overlapping grid cells 14 are possible.

Nachdem alle Bildpunkte 12 des Scans in kartesische Koordinaten transformiert und in die zugehörige Gitterzelle 14 einsortiert wurden, ist der nächste Schritt das Finden von kleinen planaren Flächenstücken 16 (Flächenpatches), welche in 2 gezeigt sind.After all the pixels 12 of the scan is transformed into Cartesian coordinates and into the associated grid cell 14 sorted, the next step is to find small planar patches 16 (Patches), which in 2 are shown.

Hierfür wird für jede Gitterzelle i, die eine Mindestanzahl an Bildpunkten 12 beinhaltet, der Massenschwerpunkt c, nach Gleichung (1) berechnet. Hierbei ist G i R 3

Figure DE102009009569B4_0001
die Menge aller Bildpunkte 12 in der Gitterzelle i. c i = 1 | G i | p G i p
Figure DE102009009569B4_0002
mit p = kartesische Koordinaten des Bildpunkts 12.For this, for each grid cell i, the minimum number of pixels 12 contains, the center of mass c, calculated according to equation (1). Here is G i R 3
Figure DE102009009569B4_0001
the amount of all pixels 12 in the grid cell i. c i = 1 | G i | Σ p G i p
Figure DE102009009569B4_0002
with p = Cartesian coordinates of the pixel 12 ,

Wurden die Massenschwerpunkte berechnet, kann für jede der dreidimensionalen Gitterzellen i (Gitterzelle 14 in 1) eine 3×3 Korrelationsmatrix Ci nach Gleichung (2) aufgestellt werden. C i = 1 | G i | p G i ( ( p c i ) ( p c i ) T )

Figure DE102009009569B4_0003
If the center of gravity has been calculated, i (grid cell 14 in 1 ) a 3 × 3 correlation matrix C i can be set up according to equation (2). C i = 1 | G i | Σ p G i ( ( p - c i ) ( p - c i ) T )
Figure DE102009009569B4_0003

Hierbei steht (p - ci)T für den transponierten Spaltenvektor.Here, (p - c i ) T stands for the transposed column vector.

Die Korrelationsmatrix beinhaltet die Varianzen aller Bildpunkte 12 der Gitterzelle 14 bezüglich ihres Massenschwerpunktes. Durch Berechnung der Eigenvektoren e, (1 ≤ i ≤ 3) und den dazugehörigen Eigenwerten λi wird ein Korrelationsellipsoid erstellt. Bei dieser Hauptkomponentenanalyse (Principle Component Analyses, PCA) eines planaren Flächenstückes 16 bestimmen die Eigenvektoren und Eigenwerte das Korrelationsellipsoid. Der im Massenschwerpunkt ansetzende Eigenvektor des kleinsten Eigenwertes entspricht der Normalenrichtung des Flächenstücks 16.The correlation matrix contains the variances of all pixels 12 the grid cell 14 regarding their center of mass. A correlation ellipsoid is created by calculating the eigenvectors e, (1 ≤ i ≤ 3) and the associated eigenvalues λ i . In this principal component analysis (PCA) of a planar patch 16 the eigenvectors and eigenvalues determine the correlation ellipsoid. The eigenvector of the smallest eigenvalue starting in the center of mass corresponds to the normal direction of the patch 16 ,

Die Bedingung der Flächenstückextraktion lässt sich wie folgt definieren: Sind die Eigenwerte λi mit den zugehörigen Eigenvektoren e, entsprechend Gleichung (3) der Größe nach geordnet, so erfüllen die Eigenwerte die Gleichungen (4), (5) und (6). i < j λ i λ j

Figure DE102009009569B4_0004
λ 1 0
Figure DE102009009569B4_0005
λ 2 > > 0
Figure DE102009009569B4_0006
λ 3 > > 0
Figure DE102009009569B4_0007
The condition of the surface piece extraction can be defined as follows: If the eigenvalues λ i with the associated eigenvectors e are sorted according to size according to equation (3), then the eigenvalues satisfy equations (4), (5) and (6). i < j λ i λ j
Figure DE102009009569B4_0004
λ 1 0
Figure DE102009009569B4_0005
λ 2 > > 0
Figure DE102009009569B4_0006
λ 3 > > 0
Figure DE102009009569B4_0007

Geometrisch lassen sich die Gleichungen wie folgt erläutern: Die Varianzen der Bildpunkte 12 sind in Richtung der durch Spannvektoren aufgespannten Ebene bei planaren Flächenstücken 16 groß. Die Eigenvektoren der großen Eigenwerte entsprechen den Spannvektoren des planaren Flächenstücks 16. In Richtung der Flächenstücknormale sind die Varianzen sehr klein. Der zugehörige Eigenvektor entspricht somit der Flächenstücknormalen. Werden die Kriterien nicht erfüllt, können die Bildpunkte 12 Kanten, Kugeln oder dergleichen geometrische Figuren bilden.The equations can be explained geometrically as follows: The variances of the pixels 12 are in the direction of the plane spanned by clamping vectors for planar patches 16 large. The eigenvectors of the large eigenvalues correspond to the clamping vectors of the planar patch 16 , In the direction of the surface normal, the variances are very small. The associated eigenvector thus corresponds to the surface normal. If the criteria are not met, the pixels can 12 Edges, spheres or the like form geometric figures.

Nachdem eine Mehrzahl planarer Flächenstücke 16 bestimmt wurde, können voneinander verschiedene Flächenstücke 16 zu jeweils einer größeren Angriffsfläche 18, von denen einige in 3 als Beispiel für jeweilige Teilflächen des Bauteils gezeigt sind, zusammengefasst werden.After a plurality of planar patches 16 different areas can be determined 16 to a larger target 18 , some of which are in 3 are shown as an example for respective partial areas of the component.

Zu diesem Zweck werden ein 2D-Grauwertbild der Abstandsinformationen und ein 2D-Farbbild der Normalenrichtungen erzeugt. Jeder Pixel des Grauwertbilds bzw. des Farbbilds entspricht dabei einem Flächenstück 16, welches in dem vorangegangenen Schritt ermittelt wurde. Die X- und Y-Rasterisierung ist durch die Gitterzellen 14 definiert. In dem 2D-Grauwertbild wird ein Abstand des jeweiligen Flächenstücks 16 zu einer Bezugsebene, beispielsweise zu einem Boden der Gitterbox, in welcher sich die Bauteile befinden, beim Zusammenfassen mit dem jeweils benachbarten Flächenstück 16 berücksichtigt. Somit werden Flächenstücke 16 dann zu einer Angriffsfläche 18 zusammengefasst, wenn ihr jeweiliger Abstand zu der Bezugsebene um nicht mehr als einen vorgegebenen Wert von dem Abstand des benachbarten Flächenstücks 16 zu der Bezugsebene abweicht.For this purpose, a 2D gray value image of the distance information and a 2D color image of the normal directions are generated. Each pixel of the gray-scale image or the color image corresponds to a patch 16 , which was determined in the previous step. The X and Y rasterization is through the grid cells 14 Are defined. A distance of the respective area piece is shown in the 2D gray value image 16 to a reference plane, for example to a floor of the lattice box in which the components are located, when they are combined with the respectively adjacent surface piece 16 considered. Thus are patches 16 then to an attack surface 18 summarized if their respective distance to the reference plane by no more than a predetermined value from the distance of the adjacent surface piece 16 deviates from the reference plane.

In analoger Weise werden die Raumausrichtungen der Flächenstücknormalen benachbarter Flächenstücke 16 beim Zusammenfassen berücksichtigt. Die Normalenrichtungen der einzelnen Flächenstücke 16 sind hierbei in dem 2D-Farbbild farbkodiert. Für die Farbkodierung der normalisierten Normalen gilt vorliegend blau = X, grün = Y und rot = Z (Z = Hochrichtung, Richtung des Abstands zur Bezugsebene).In an analogous manner, the spatial orientations of the surface area become normal of neighboring surface areas 16 taken into account when summarizing. The normal directions of the individual patches 16 are color-coded in the 2D color image. For the color coding of the normalized normals, blue = X, green = Y and red = Z (Z = vertical direction, direction of the distance to the reference plane).

Benachbarte Flächenstücke 16 werden also zu einer größeren Angriffsfläche 18 zusammengefasst, falls sowohl die Abweichung der Abstände als auch der Raumausrichtungen der Flächenstücknormalen innerhalb bestimmter, vorgegebener Toleranzen liegen. Wird die Toleranz der Normalenabweichung weniger restriktiv gewählt, können Flächen mit Krümmungen innerhalb dieser Toleranz zusammengefasst werden. Adjacent patches 16 become a larger target 18 summarized if both the deviation of the distances and the spatial orientations of the surface normal lie within certain, predetermined tolerances. If the tolerance of the normal deviation is chosen less restrictively, surfaces with curvatures within this tolerance can be combined.

In 3 sind auf diese Weise aus zusammengefassten Flächenstücken 16 gebildete Angriffsflächen 18 der Bauteile in der Gitterbox gezeigt.In 3 are in this way from combined patches 16 formed attack surfaces 18 of the components shown in the grid box.

Zum Ermitteln von Greifpunkten wird jede fusionierte Angriffsfläche 18 einem Schablonenabgleich (Template- Matching) unterzogen. Hierfür wird überprüft, ob eine zweidimensionale Schablone eines Haltemittels 20 der Greifeinheit (Greiferschablone) auf die Angriffsfläche 18 passt.Each merged attack surface is used to determine grip points 18 subjected to a template matching. For this it is checked whether a two-dimensional template of a holding means 20 the gripper unit (gripper template) on the attack surface 18 fits.

Das Haltemittel 20 der Greifeinheit ist in 4 auf einer jeweiligen Angriffsfläche 18 eines Bauteils dargestellt und umfasst beispielsweise einen Sauger und/oder Magneten. Als Sauger können insbesondere Flachsauger und/oder Balgsauger zum Einsatz kommen, wobei der eine Anlagefläche aus Schaumstoff oder dergleichen aufweisende Flachsauger auch ein Halten des Bauteils ermöglicht, wenn der Flachsauger bereichsweise ein Loch des Bauteils überdeckend an dem Bauteil angesetzt ist. Die zweidimensionale Schablone des Haltemittels 20 wird durch Projektion, entweder entlang der Z-Richtung oder entlang der Flächenstücknormalen, erzeugt.The holding device 20 the gripping unit is in 4 on a respective target 18 of a component and includes, for example, a sucker and / or magnet. Flat suction devices and / or bellows suction devices can in particular be used as suction devices, the flat suction device having a contact surface made of foam or the like also making it possible to hold the component when the flat suction device is partially attached to the component to cover a hole in the component. The two-dimensional template of the holding device 20 is generated by projection, either along the Z direction or along the surface normal.

Beim Schablonenabgleich wird also überprüft, ob die Schablone auf die infolge Projektion ebenfalls zweidimensionale Angriffsfläche 18 passt. Als Ergebnis kann ein binäres Bild erstellt werden, in welchem durch eine „1“ angegeben ist, ob die Schablone vollständig auf die Angriffsfläche 18 passt. Die übrigen Punkte des binären Bildes sind mit „0“ belegt.When comparing stencils, it is therefore checked whether the stencil is attacking the surface that is also two-dimensional due to the projection 18 fits. As a result, a binary image can be created, in which a "1" indicates whether the template is completely on the attack surface 18 fits. The remaining points of the binary image are assigned "0".

Dieses binäre Bild wird weiter ausgewertet. Für jeden Greifpunkt wird ein Abstand der Anlagefläche des Haltemittels 20 zu einem Rand der Angriffsfläche 18, beispielsweise zu einer nächstgelegenen Kante der Angriffsfläche 18 oder zu einem Loch in dem Bauteil, ermittelt.This binary image is further evaluated. For each gripping point there is a distance between the contact surface of the holding means 20 to an edge of the attack surface 18 , for example to a nearest edge of the attack surface 18 or to a hole in the component.

Des Weiteren werden unterschiedliche Orientierungen der Anlagefläche in Bezug auf die Angriffsfläche 18 daraufhin untersucht, bei welcher Orientierung der Anlagefläche ein besonders großer Abstand zu dem Rand der Angriffsfläche 18 besteht. Die zweidimensionale Schablone des Haltemittels 20 der Greifeinheit kann hierbei um eine Rotationsachse verdreht werden. Unterschiedliche Rotationen der Schablone und das Ermitteln des maximalen Abstands aller getesteter Rotationen der Schablone liefern so einen optimalen Greifpunkt je Angriffsfläche 18.Furthermore, there are different orientations of the contact surface in relation to the attack surface 18 thereupon examined at which orientation of the contact surface a particularly large distance from the edge of the attack surface 18 consists. The two-dimensional template of the holding device 20 the gripping unit can be rotated about an axis of rotation. Different rotations of the template and the determination of the maximum distance of all tested rotations of the template thus provide an optimal gripping point per attack surface 18 ,

In 4 sind je Angriffsfläche 18 die zugehörigen optimalen Greifpunkte durch Darstellung der Lage und Orientierung Haltemittels 20 der Greifeinheit auf der Angriffsfläche 18 veranschaulicht. Ein solcher optimaler Greifpunkt je Angriffsfläche 18 weist maximalen Abstände zu nächsten Kanten der Angriffsfläche 18 auf und ist durch die zugehörige Rotation des Haltemittels 20, beispielsweise des Saugers, definiert.In 4 are per attack surface 18 the associated optimal gripping points by displaying the position and orientation of the holding means 20 the gripping unit on the attack surface 18 illustrated. Such an optimal gripping point per attack surface 18 shows maximum distances to the nearest edges of the attack surface 18 on and is due to the associated rotation of the holding means 20 , for example of the sucker, defined.

Nach der Ermittlung des optimalen Greifpunktes je Angriffsfläche 18, wird die Güte des jeweiligen Greifpunktes durch eine Fitnessfunktion bewertet, und der Greifpunkt höchster Güte aus der Gesamtheit der betrachteten Greifpunkte je Angriffsfläche 18 ausgewählt. Es wird also eine Rangordnung der Greifpunkte erstellt. Zur Erstellung der Rangordnung werden die Größe der fusionierten Angriffsfläche 18, der Abstand des Haltemittels 20 zur nächstgelegenen Kante der Angriffsfläche 18, ein Erfahrungswert bisheriger Greifversuche in der Region, und der Abstand der Angriffsfläche 18 von einer Bezugsebene, also der Z-Wert des Greifpunktes, berücksichtigt. Zur Vermeidung des Greifens des Kistenbodens werden zudem Ebenen, deren Ausdehnung größer als ein maximaler und teilespezifischer Wert ist, sowie Ebenen, deren Flächeninhalt größer als ein maximaler teilespezifischer Flächeninhalt ist, ignoriert, da diese Ebenen keine Bauteile darstellen können. Ein ranghöchster Greifpunkt 22 ist in 4 durch Darstellung des entsprechenden zugehörigen Haltemittels auf der Angriffsfläche 18 veranschaulicht.After determining the optimal gripping point for each attack surface 18 , the quality of the respective gripping point is evaluated by a fitness function, and the gripping point of the highest quality from the total of the gripping points considered per attack surface 18 selected. A ranking of the gripping points is thus created. To create the ranking, the size of the merged attack surface 18 , the distance of the holding means 20 to the nearest edge of the attack surface 18 , an empirical value of previous gripping attempts in the region, and the distance of the attack surface 18 from a reference plane, i.e. the Z value of the gripping point. In order to avoid gripping the crate bottom, levels whose expansion is greater than a maximum and part-specific value and levels whose area is greater than a maximum part-specific area are also ignored, since these levels cannot represent any components. A highest gripping point 22 is in 4 by displaying the corresponding associated holding means on the attack surface 18 illustrated.

Dieses Greifpunkts 22 bedient sich dann die Greifeinheit, um das Bauteil aus der Gitterbox zu entnehmen. Nach dem Erkennen der genauen Lage, Position und Orientierung des Bauteils an der Greifeinheit kann das Bauteil schließlich definiert abgelegt werden.This gripping point 22 The gripper then uses it to remove the component from the grid box. After recognizing the exact position, position and orientation of the component on the gripping unit, the component can finally be stored in a defined manner.

Claims (8)

Verfahren zum Ermitteln wenigstens einer Teilfläche eines in einem Behältnis befindlichen Bauteils als Angriffsfläche (18) zum Ansetzen einer Greifeinheit, bei welchem a) mittels eines Sensors ein Bild des Bauteils erfasst wird, welches eine dreidimensionale Wolke (10) mit einer Mehrzahl von erfassten Bildpunkten (12) umfasst; b) das Bild mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen als Angriffsfläche (18) verwendbaren Teilfläche des Bauteils untersucht wird, wobei Bildpunkte (12) wenigstens einer dreidimensionalen Gitterzelle (14) zugeordnet werden und anhand der Bildpunkte (12) der Gitterzelle (14) ein Flächenstück (16) der wenigstens einen Teilfläche als Angriffsfläche (18), ermittelt wird; c) auf der Angriffsfläche (18) wenigstens ein Greifpunkt zum Ansetzen einer Greifeinheit in Abhängigkeit von einer Größe einer Anlagefläche der Greifeinheit ermittelt wird.Method for determining at least a partial surface of a component located in a container as an engagement surface (18) for attaching a gripping unit, in which a) an image of the component is captured by means of a sensor, which comprises a three-dimensional cloud (10) with a plurality of captured image points (12); b) the image is examined by means of an evaluation unit for the presence of the at least one partial surface of the component that can be used as an attack surface (18), pixels (12) being assigned to at least one three-dimensional grid cell (14) and the grid cell (14) using the pixels (12) ) an area piece (16) of the at least one partial area is determined as the contact area (18); c) at least one gripping point for attaching a gripping unit as a function of a size of a contact surface of the gripping unit is determined on the engagement surface (18). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Erfassen des Bilds des Bauteils gemäß Schritt a) ein, insbesondere mehr als eine Kamera nutzendes, Lichtschnittverfahren, insbesondere ein Laserlichtschnittverfahren, eingesetzt wird.Procedure according to Claim 1 , characterized in that when capturing the image of the component according to step a), a light section method, in particular using more than one camera, in particular a laser light section method, is used. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch Zuordnen der Bildpunkte (12) zu wenigstens einer der dreidimensionalen Gitterzellen (14) Nachbarschaftsbeziehungen zwischen Bildpunkten (12) definiert werden.Procedure according to Claim 1 or 2 , characterized in that neighborhood relationships between pixels (12) are defined by assigning the pixels (12) to at least one of the three-dimensional grid cells (14). Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass beim Ermitteln des Flächenstücks (16) eine Hauptkomponentenanalyse der Bildpunkte (12) einer Gitterzelle (14) durchgeführt wird.Procedure according to one of the Claims 1 to 3 , characterized in that a main component analysis of the pixels (12) of a grid cell (14) is carried out when determining the surface piece (16). Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass voneinander verschiedene Flächenstücke (16) in Abhängigkeit von einem Abstand zu einer Bezugsebene und/oder in Abhängigkeit von einer Raumausrichtung einer Flächenstücknormalen zu einer Teilfläche (18) zusammengefasst werden.Procedure according to one of the Claims 1 to 4 , characterized in that surface areas (16) which are different from one another are combined as a function of a distance to a reference plane and / or as a function of a spatial orientation of a surface normal to a partial area (18). Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass voneinander verschiedene Flächenstücke (16) mit voneinander abweichenden Raumausrichtungen der Flächenstücknormalen zu einer Teilfläche (18) mit einer vorgebbaren Krümmung zusammengefasst werden.Procedure according to Claim 5 , characterized in that different areas (16) with different spatial orientations of the area norms are combined to form a partial area (18) with a predefinable curvature. Verfahren nach einem der Ansprüche 1 bis 6 dadurch gekennzeichnet, dass bei der Greifpunktermittlung gemäß Schritt c) der wenigstens eine Greifpunkt in Abhängigkeit von einem Abstand der Anlagefläche zu einem Rand der Teilfläche (18) und/oder einer Öffnung in dem Bauteil und/oder in Abhängigkeit von einer Orientierung der Anlagefläche ermittelt wird.Procedure according to one of the Claims 1 to 6 characterized in that when determining the gripping point according to step c), the at least one gripping point is determined as a function of a distance from the contact surface to an edge of the partial surface (18) and / or an opening in the component and / or as a function of an orientation of the contact surface , Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass eine Rangordnung von Greifpunkten voneinander verschiedener Teilflächen (18) in Abhängigkeit von einer Größe der jeweiligen Teilfläche (18) und/oder einem Abstand der Anlagefläche zu einem Rand der Teilfläche (18) und/oder einem Abstand der Teilfläche (18) von einer Bezugsebene erstellt wird.Procedure according to one of the Claims 1 to 7 , characterized in that a ranking of gripping points of different partial surfaces (18) depending on a size of the respective partial surface (18) and / or a distance of the contact surface from an edge of the partial surface (18) and / or a distance of the partial surface (18 ) is created from a reference plane.
DE102009009569.1A 2009-02-19 2009-02-19 Method for determining a partial surface of a component Active DE102009009569B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009009569.1A DE102009009569B4 (en) 2009-02-19 2009-02-19 Method for determining a partial surface of a component

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009009569.1A DE102009009569B4 (en) 2009-02-19 2009-02-19 Method for determining a partial surface of a component

Publications (2)

Publication Number Publication Date
DE102009009569A1 DE102009009569A1 (en) 2010-09-16
DE102009009569B4 true DE102009009569B4 (en) 2019-12-19

Family

ID=42557666

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009009569.1A Active DE102009009569B4 (en) 2009-02-19 2009-02-19 Method for determining a partial surface of a component

Country Status (1)

Country Link
DE (1) DE102009009569B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5670397B2 (en) 2012-08-29 2015-02-18 ファナック株式会社 Apparatus and method for picking up loosely stacked articles by robot
JP2015089590A (en) 2013-11-05 2015-05-11 ファナック株式会社 Method and apparatus for taking out bulked article by using robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978504A (en) 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
WO2007083039A2 (en) 2006-01-23 2007-07-26 Grosbois Jerome Method and system allowing the automatic picking of parts
WO2008014960A1 (en) 2006-08-03 2008-02-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for automated 3d-object recognition and location determination

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978504A (en) 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
WO2007083039A2 (en) 2006-01-23 2007-07-26 Grosbois Jerome Method and system allowing the automatic picking of parts
WO2008014960A1 (en) 2006-08-03 2008-02-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for automated 3d-object recognition and location determination

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FRANSENS,J.,REETH,F.:Hierarchical PCA Decomposition of Point Clouds.In:IEEE Proceedings of the Third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006,S.591-598 *
RICHTSFELD,M.,ZILLICH,M.:Grasping Unknown Objects Based on 2 1/2D Range Data.In:4th IEEE Conference on Automation Science and Engineering, 2008,S.691-696 *

Also Published As

Publication number Publication date
DE102009009569A1 (en) 2010-09-16

Similar Documents

Publication Publication Date Title
DE112011103794B4 (en) Pick-up device for workpieces
DE102013012224B4 (en) Device for removing loosely stored objects by a robot
DE102014016033B4 (en) Apparatus and method for picking up randomly distributed objects with a robot
DE102019104310B4 (en) System and method for simultaneously viewing edges and normal image features by a vision system
DE102014102943B4 (en) Robot system with functionality for determining the location of a 3D box
DE10080012B4 (en) Three-dimensional method of detecting objects and system for picking up an object from a container using the method
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE112013004103B4 (en) Method and apparatus for generating a disparity card
DE102016122678B4 (en) Workpiece position / posture calculation system and handling system
DE112014004190T5 (en) Posture estimation and robots
DE102016013986A1 (en) DEVICE FOR MEASURING THE POSITIONS AND POSITIONS OF A MULTIPLE OF ARTICLES AND THE DEVICE PROVIDING ROBOT SYSTEM
WO2020157249A1 (en) Processing image data sets
DE102009051826A1 (en) Method for comparing the similarity of 3D pictorial objects
DE102016013274A1 (en) IMAGE PROCESSING DEVICE AND METHOD FOR RECOGNIZING AN IMAGE OF AN OBJECT TO BE DETECTED FROM ENTRY DATA
DE102016100101A1 (en) SYSTEM FOR MACHINE SEALING AND ANALYTICAL METHOD FOR SEGMENTING PLANAR SURFACES
DE102019124810A1 (en) Image processing device and image processing method
DE102021103726B4 (en) Measurement parameter optimization method and device and computer control program
DE112018007727B4 (en) robotic system
DE102012223047B4 (en) Multi-part correspondent (corresponder) for several cameras
DE102017116853A1 (en) System and method for automatically selecting 3D alignment algorithms in a vision system
DE102021107351A1 (en) SYSTEM FOR PROPERTY DETECTION THROUGH DEEP LEARNING AND VECTOR FIELD ESTIMATION
DE102009009569B4 (en) Method for determining a partial surface of a component
DE102021107479A1 (en) CAPTURING A THREE-DIMENSIONAL POSE BY MULTIPLE 2D CAMERAS
EP1098268A2 (en) Method for the threedimensional optical measurement of object surfaces
DE102009007024A1 (en) Method and device for separating components

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE