DE102009009569B4 - Method for determining a partial surface of a component - Google Patents
Method for determining a partial surface of a component Download PDFInfo
- Publication number
- DE102009009569B4 DE102009009569B4 DE102009009569.1A DE102009009569A DE102009009569B4 DE 102009009569 B4 DE102009009569 B4 DE 102009009569B4 DE 102009009569 A DE102009009569 A DE 102009009569A DE 102009009569 B4 DE102009009569 B4 DE 102009009569B4
- Authority
- DE
- Germany
- Prior art keywords
- component
- partial
- gripping
- pixels
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zum Ermitteln wenigstens einer Teilfläche eines in einem Behältnis befindlichen Bauteils als Angriffsfläche (18) zum Ansetzen einer Greifeinheit, bei welchem
a) mittels eines Sensors ein Bild des Bauteils erfasst wird, welches eine dreidimensionale Wolke (10) mit einer Mehrzahl von erfassten Bildpunkten (12) umfasst;
b) das Bild mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen als Angriffsfläche (18) verwendbaren Teilfläche des Bauteils untersucht wird, wobei Bildpunkte (12) wenigstens einer dreidimensionalen Gitterzelle (14) zugeordnet werden und anhand der Bildpunkte (12) der Gitterzelle (14) ein Flächenstück (16) der wenigstens einen Teilfläche als Angriffsfläche (18), ermittelt wird;
c) auf der Angriffsfläche (18) wenigstens ein Greifpunkt zum Ansetzen einer Greifeinheit in Abhängigkeit von einer Größe einer Anlagefläche der Greifeinheit ermittelt wird.
Method for determining at least a partial surface of a component located in a container as an engagement surface (18) for attaching a gripping unit, in which
a) an image of the component is captured by means of a sensor, which comprises a three-dimensional cloud (10) with a plurality of captured image points (12);
b) the image is examined by means of an evaluation unit for the presence of the at least one partial surface of the component that can be used as an attack surface (18), pixels (12) being assigned to at least one three-dimensional grid cell (14) and the grid cell (14) using the pixels (12) ) an area piece (16) of the at least one partial area is determined as the contact area (18);
c) at least one gripping point for attaching a gripping unit as a function of a size of a contact surface of the gripping unit is determined on the engagement surface (18).
Description
Die Erfindung betrifft ein Verfahren zum Ermitteln wenigstens einer Teilfläche, insbesondere einer Angriffsfläche zum Ansetzen einer Greifeinheit, eines Bauteils, welches sich in einem Behältnis befindet. Bei diesem Verfahren wird mittels eines Sensors ein Bild des Bauteils erfasst, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst. Das Bild wird mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen Teilfläche, insbesondere Angriffsfläche, des Bauteils untersucht.The invention relates to a method for determining at least one partial surface, in particular an attack surface for attaching a gripping unit, of a component which is located in a container. In this method, an image of the component is captured by means of a sensor, which comprises a three-dimensional cloud with a plurality of captured image points. The image is examined by means of an evaluation unit for the presence of the at least one partial surface, in particular the attack surface, of the component.
Das Ermitteln von Teilflächen eines sich in einem Behältnis befindenden Bauteils ist insbesondere dann von Interesse, wenn diese Teilfläche als potenzielle Angriffsfläche zum Ansetzen einer Greifeinheit dienen soll, um so mittels der Greifeinheit ein Bauteil gezielt aus dem Behältnis, beispielsweise einer Gitterbox, entnehmen zu können.The determination of partial areas of a component located in a container is of particular interest if this partial area is to serve as a potential contact surface for attaching a gripping unit, so that a component can be specifically removed from the container, for example a lattice box, by means of the gripping unit.
Die PCT Anmeldung
Die PCT Anmeldung
Das Patent
Die Schrift von Richtsfeld, M; Zillich, M.: „Grasping Unknown Objects Based on 2½ D Range Data“ in 4th IEEE Conference on Automotive Science and Engineering 2008, S. 691-696 Abst., Abschn. I u. V beschäftigt sich mit der Problematik der Berechnung von Greifpunkten aus einer Punktewolke von 2½ -dimensionalen Messpunkten. Hierzu werden in der Punktewolke Regionen mit großer Krümmung detektiert, die als Ränder identifiziert und in Form von Linien abgebildet werden. Aufbauend auf diese Randlinien wird die Topologie der zugehörigen Objekte ermittelt und Greifpunkte definiert.The writing by Richtsfeld, M; Zillich, M .: "Grasping Unknown Objects Based on 2½ D Range Data" in 4th IEEE Conference on Automotive Science and Engineering 2008, pp. 691-696 abstracts, Sect. I u. V deals with the problem of calculating gripping points from a point cloud of 2½-dimensional measuring points. For this purpose, regions with large curvature are detected in the point cloud, which are identified as edges and mapped in the form of lines. Based on these border lines, the topology of the associated objects is determined and gripping points are defined.
Die Schrift von Fransens, J., Reeth, F. in IEEE Proceedings of third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006, S. 591-598 Abstr., Absch. 4 u. 4 : „Hierarchical PCA Decomposition of Point Clouds“ beschreibt ein Verfahren zur Extraktion ebener Teilflächen aus einer 3D-Punktewolke mit Hilfe der Hauptkomponentenanalyse. Das Verfahren beruht auf einer Segmentierung der 3D-Punktewolke mit Hilfe einer iterativen Baumstruktur (octree) und anschließendem Gruppieren der extrahierten ebenen Teilflächen zu größeren ebenen Bereichen.The writing by Fransens, J., Reeth, F. in IEEE Proceedings of third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006, pp. 591-598 Abstr., Para. 4 u. 4: "Hierarchical PCA Decomposition of Point Clouds" describes a process for extracting flat partial areas from a 3D point cloud using the main component analysis. The method is based on a segmentation of the 3D point cloud with the help of an iterative tree structure (octree) and then grouping the extracted flat partial areas into larger flat areas.
Aus dem Stand der Technik ist es hierbei bekannt, mittels eines Sensors ein Bild des Bauteils zu erfassen, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst. Diese dreidimensionale Wolke von Bildpunkten auf ein Vorliegen der wenigstens einen Teilfläche hin auszuwerten ist jedoch bei aus dem Stand der Technik bekannten Verfahren mit einem sehr hohen Rechenaufwand verbunden. It is known from the prior art to use a sensor to capture an image of the component which comprises a three-dimensional cloud with a plurality of captured pixels. However, evaluating this three-dimensional cloud of pixels for the presence of the at least one partial area is associated with a very high computing effort in methods known from the prior art.
Daher ist hier das Untersuchen auf ein Vorliegen der Angriffsfläche besonders zeitaufwendig. Eine ausreichend kurze, einer rationellen Handhabung bzw. Weiterverarbeitung genügende Taktzeit zum Ergreifen des Bauteils mittels der Greifeinheit ist bei einem solchen Verfahren nicht erreichbar. Darüber hinaus werden bekannte Verfahren, bei welchen die dreidimensionale Wolke an Bildpunkten ausgewertet wird, Anforderungen an zulässige Toleranzen in der Regel nicht gerecht und die Genauigkeit der Ermittlung der Angriffsfläche ist nicht zufriedenstellend.Therefore, the examination for the presence of the attack surface is particularly time-consuming. A sufficiently short cycle time, sufficient for efficient handling or further processing, for gripping the component by means of the gripping unit cannot be achieved with such a method. In addition, known methods in which the three-dimensional cloud is evaluated at image points generally do not meet the requirements for permissible tolerances and the accuracy of the determination of the attack surface is unsatisfactory.
Aufgabe der vorliegenden Erfindung ist es daher, ein verbessertes Verfahren der eingangs genannten Art zu schaffen.The object of the present invention is therefore to provide an improved method of the type mentioned at the outset.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Als vorteilhafte Ausgestaltungen mit zweckmäßigen Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.This object is achieved by a method having the features of patent claim 1. As advantageous configurations with appropriate Developments of the invention are specified in the dependent claims.
Bei dem erfindungsgemäßen Verfahren zum Ermitteln wenigstens einer Teilfläche, insbesondere einer Angriffsfläche zum Ansetzen einer Greifeinheit, eines Bauteils, welches sich in einem Behältnis befindet, bei welchem
- a) mittels eines Sensors ein Bild des Bauteils erfasst wird, welches eine dreidimensionale Wolke mit einer Mehrzahl von erfassten Bildpunkten umfasst, und bei welchem
- b) das Bild mittels einer Auswerteeinheit auf ein Vorliegen der wenigstens einen Teilfläche, insbesondere Angriffsfläche, des Bauteils untersucht wird,
- a) by means of a sensor an image of the component is captured, which comprises a three-dimensional cloud with a plurality of captured image points, and in which
- b) the image is examined by means of an evaluation unit for the presence of the at least one partial surface, in particular the contact surface, of the component,
Das Untersuchen des Bildes auf ein Vorliegen der wenigstens einen Teilfläche kann so mit vergleichsweise geringem Rechenaufwand und folglich besonders rasch erfolgen, da die Auswerteeinheit nicht eine Vielzahl von erfassten Bildpunkten, sondern lediglich anhand der Bildpunkte innerhalb einer dreidimensionalen Gitterzelle ermittelte Flächenstücke zum Auffinden der Teilfläche nutzt. Die Komplexität der Auswertung ist so stark verringert, da beim Untersuchen der Flächenstücke auf das Vorliegen der wenigstens einen Teilfläche ein zweidimensionales Auswertungsverfahren zum Einsatz kommen kann.The examination of the image for the presence of the at least one partial area can thus be carried out with comparatively little computational effort and consequently particularly quickly, since the evaluation unit does not use a large number of recorded image points, but rather only uses area parts determined on the basis of the image points within a three-dimensional grid cell to find the partial area. The complexity of the evaluation is so greatly reduced that a two-dimensional evaluation method can be used when examining the surface pieces for the presence of the at least one partial surface.
Das Zusammenfassen einer Vielzahl von Bildpunkten innerhalb einer jeweiligen dreidimensionalen Gitterzelle zu einem einzigen, anhand weniger Parameter beschreibbaren Flächenstück führt zu einer bedeutenden Reduzierung zu verarbeitender Daten. Das rasche Verarbeiten der Daten erlaubt ein rasches Ermitteln der Teilfläche eines Bauteils. Handelt es sich bei dieser Teilfläche um eine Angriffsfläche zum Ansetzen einer Greifeinheit, so ist hierdurch ein vollautomatisiertes Greifen des Bauteils, bei welchem es sich beispielsweise um ein Blechumformteil handeln kann, ermöglicht. Derartige Blechumformteile können insbesondere Stahlteile für einen Integralträger oder einen Hinterachsträger, sowie Aluminiumteile, insbesondere für einen Hinterachsträger, eines Kraftfahrzeugs, umfassen.The combination of a large number of pixels within a respective three-dimensional grid cell to form a single piece of area that can be described using fewer parameters leads to a significant reduction in the data to be processed. The rapid processing of the data enables the partial area of a component to be determined quickly. If this partial surface is a contact surface for attaching a gripping unit, this enables fully automated gripping of the component, which can be, for example, a sheet metal part. Such sheet metal parts can in particular include steel parts for an integral support or a rear axle support, as well as aluminum parts, in particular for a rear axle support, of a motor vehicle.
Das Verfahren ist im Rahmen einer automatisierten, rationellen Weiterverarbeitung von aus Behältnissen, beispielsweise aus Gitterboxen, zu entnehmenden Bauteilen innerhalb einer vorgegebenen Taktzeit einsetzbar. Das mittels der Greifeinheit aus dem Behältnis vereinzelte Bauteil kann in einem weiteren Schritt einer Einrichtung zum Erkennen einer Lage, Position und Orientierung des sich an der Greifeinheit befindenden Bauteils zugeführt werden. Ist die Lage, Orientierung und Position des Bauteils an der Greifeinheit ermittelt, kann das Bauteil anschließend definiert abgelegt bzw. einer entsprechenden Weiterverarbeitungseinrichtung zugeführt werden. Das lagerichtige Erkennen der Angriffsstelle, an welcher die Greifeinheit das Bauteil ergriffen hat, ermöglicht es, die Greifeinheit dazu zu veranlassen, das Bauteil in eine gewünschte räumliche Orientierung zu überführen. Dadurch ist ein geordnetes, lagerichtiges Ablegen des Bauteils ermöglicht.The method can be used within the scope of an automated, rational further processing of components to be removed from containers, for example from mesh boxes, within a predetermined cycle time. In a further step, the component separated from the container by means of the gripping unit can be fed to a device for recognizing a position, position and orientation of the component located on the gripping unit. Once the position, orientation and position of the component on the gripping unit has been determined, the component can then be stored in a defined manner or fed to a corresponding further processing device. The correct detection of the point of attack at which the gripping unit has gripped the component makes it possible to cause the gripping unit to convert the component into a desired spatial orientation. This enables an orderly, correct storage of the component.
In einer vorteilhaften Ausgestaltung der Erfindung wird beim Erfassen des Bilds des Bauteils gemäß Schritt a) ein, insbesondere mehr als eine Kamera nutzendes, Lichtschnittverfahren, insbesondere ein Laserlichtschnittverfahren, eingesetzt. Ein solches auf einem Triangulationsansatz basierendes Lichtschnittverfahren hat sich als besonders geeignet zum Ermitteln der wenigstens einen Teilfläche des Bauteils erwiesen. In an advantageous embodiment of the invention, when capturing the image of the component according to step a), a light-cutting method, in particular using more than one camera, in particular a laser light-cutting method is used. Such a light section method based on a triangulation approach has proven to be particularly suitable for determining the at least one partial area of the component.
Durch gleichzeitiges Einsetzen von zwei oder mehr Kameras beim Verwenden lediglich einer Lichtschnittlinie, insbesondere Laserlichtschnittlinie, können trotz unvermeidlicher Abschattungen der Bauteile in dem Behältnis potenzielle Angriffsflächen mit großer Genauigkeit und besonders rasch ermittelt werden. Beim Verwenden lediglich einer Kamera und einer Lichtschnittlinie, insbesondere Laserlichtschnittlinie, ist ein mehrmaliges Scannen der Bauteile in dem Behältnis zum Erfassen des Bilds möglich. Ebenso können zwei oder mehr als zwei Kameras mit jeweils einer, der Kamera zugeordneten Lichtschnittlinie, insbesondere Laserlichtschnittlinie, zum Ermitteln der Angriffsfläche herangezogen werden.By simultaneously using two or more cameras when using only one light section line, in particular laser light section line, potential attack surfaces can be determined with great accuracy and particularly quickly, despite inevitable shadowing of the components in the container. If only one camera and a light section line, in particular a laser light section line, are used, the components in the container can be scanned several times in order to capture the image. Likewise, two or more than two cameras, each with a light section line assigned to the camera, in particular a laser light section line, can be used to determine the target surface.
In weiter vorteilhafte Weise werden durch Zuordnen der Bildpunkte zu wenigstens einer dreidimensionalen Gitterzelle Nachbarschaftsbeziehungen zwischen Bildpunkten definiert. Dadurch ist es ermöglicht, zum Erstellen des die dreidimensionale Wolke von Bildpunkten umfassendes Bildes voneinander verschiedene Sensordatenerfassungen, beispielsweise Scans des Laserlichtschnittsensors, zu verwenden, zwischen welchen keine definierten Nachbarschaftsbeziehungen bestehen. Das Heranziehen mehrerer, voneinander unabhängiger Sensordatenerfassungen ermöglicht ein Erstellen eines sehr genauen Bildes des Bauteils.Neighboring relationships between pixels are further advantageously defined by assigning the pixels to at least one three-dimensional grid cell. This makes it possible to use different sensor data acquisitions, for example scans of the laser light section sensor, between which there are no defined neighborhood relationships to create the image comprising the three-dimensional cloud of pixels. The use of several, independent of each other Sensor data acquisition enables a very precise image of the component to be created.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung wird beim Ermitteln des Flächenstücks je dreidimensionaler Gitterzelle eine Hauptkomponentenanalyse der Bildpunkte einer jeweiligen Gitterzelle durchgeführt. Durch Reduzieren der Bildpunkte einer jeweiligen dreidimensionalen Gitterzelle auf die Hauptkomponenten eines Flächenstücks ist ein besonders wenig rechenaufwendiges und somit rasches Auffinden von Teilflächen, insbesondere von Angriffsflächen zum Ansetzen der Greifeinheit, ermöglicht. Des Weiteren wird durch die Hauptkomponentenanalyse das Rauschen des Sensors nahezu vollständig unterdrückt.In a further advantageous embodiment of the invention, when determining the area per three-dimensional grid cell, a main component analysis of the pixels of a respective grid cell is carried out. By reducing the pixels of a respective three-dimensional grid cell to the main components of a surface piece, partial areas, in particular attack surfaces for attaching the gripping unit, can be found in a particularly computation-free and thus quick manner. Furthermore, the sensor noise is almost completely suppressed by the main component analysis.
Als weiter vorteilhaft hat es sich gezeigt, voneinander verschiedene Flächenstücke in Abhängigkeit von einem Abstand zu einer Bezugsebene und/oder in Abhängigkeit von einer Raumausrichtung einer Flächenstücknormalen zu einer gemeinsamen Teilfläche zusammenzufassen. Einzelne Flächenstücke einer jeweiligen dreidimensionalen Gitterzelle werden also zu einer größeren Einheit fusioniert. Handelt es sich bei den Flächenstücken um im Wesentlichen planare Flächenstücke, so ergeben sich aus der Fusion größere, ebene Teilflächen.It has also been shown to be advantageous to combine surface pieces that are different from one another depending on a distance from a reference plane and / or depending on a spatial orientation of a surface normal to a common partial surface. Individual patches of a respective three-dimensional grid cell are thus fused into a larger unit. If the patches are essentially planar patches, the merger results in larger, flat patches.
Durch das Berücksichtigen des jeweiligen Abstands des Flächenstücks zu einer Bezugsebene ist sicherstellbar, nur diejenigen Flächenstücke zu einer gemeinsamen Teilfläche zusammenzufassen, deren Abstand zu der Bezugsebene innerhalb eines vorgebbaren Toleranzintervalls liegt.By taking into account the respective distance of the surface piece from a reference plane, it can be ensured that only those surface pieces are combined into a common partial surface whose distance from the reference plane lies within a predefinable tolerance interval.
Werden die Raumausrichtungen der jeweiligen Flächenstücknormalen beim Zusammenfassen der einzelnen Flächenstücke berücksichtigt, so ist sicherstellbar, dass lediglich die Flächenstücke zu einer gemeinsamen Teilfläche zusammengefasst werden, deren jeweilige Raumausrichtungen nicht um mehr als einen vorgebbaren Wert voneinander abweichen. Die aus einzelnen Flächenstücken gebildete größere Einheit weist dann eine vergleichsweise einheitliche Raumausrichtung auf.If the spatial orientations of the respective surface normal are taken into account when combining the individual surface pieces, it can be ensured that only the surface pieces are combined into a common partial surface, the respective spatial orientations of which do not differ from one another by more than a predeterminable value. The larger unit formed from individual surface pieces then has a comparatively uniform spatial orientation.
In weiter vorteilhafter Weise werden hierbei voneinander verschiedene Flächenstücke mit voneinander abweichenden Raumausrichtungen der Flächenstücknormalen zu einer Teilfläche mit einer vorgebbaren Krümmung zusammengefasst. Dies erlaubt ein Zusammenfassen von Flächenstücken zu einer gekrümmten Teilfläche. Durch Vorgeben der maximal zulässigen Toleranz der Abweichungen der Raumausrichtungen der Flächenstücknormalen ist so ein maximaler Krümmungsradius vorgebbar, welcher ein sicheres Ansetzen der Greifeinheit ermöglicht.In a further advantageous manner, different surface sections with different spatial orientations of the surface normal are combined to form a partial surface with a predefinable curvature. This allows the joining of surface pieces into a curved partial surface. By specifying the maximum permissible tolerance of the deviations in the spatial orientations of the surface normal, a maximum radius of curvature can be specified, which enables the gripping unit to be securely attached.
Von Vorteil ist es hierbei weiterhin, wenn der wenigstens eine Greifpunkt in Abhängigkeit von einem Abstand der Anlagefläche zu einem Rand der Teilfläche und/oder einer Öffnung in dem Bauteil und/oder in Abhängigkeit von einer Orientierung der Anlagefläche ermittelt wird. Eventuelle Löcher oder Ausnehmungen in dem Bauteil werden also beim Ermitteln des Greifpunkts berücksichtigt. Dies ist insbesondere dann vorteilhaft, wenn als Greifeinheit ein Sauggreifer anstelle eines Magnetgreifers eingesetzt wird. Des Weiteren kann die Orientierung der Anlagefläche der Greifeinheit so verändert werden, dass ein maximaler Abstand der Anlagefläche der Greifeinheit zu dem Rand der Teilfläche oder der Öffnung in dem Bauteil gegeben ist. Ist auf der Teilfläche wenigstens ein geeigneter Greifpunkt ermittelt, so ist ein sicheres Greifen des Bauteils ermöglicht.It is also advantageous here if the at least one gripping point is determined as a function of a distance from the contact surface to an edge of the partial surface and / or an opening in the component and / or as a function of an orientation of the contact surface. Any holes or recesses in the component are therefore taken into account when determining the gripping point. This is particularly advantageous if a suction gripper is used instead of a magnetic gripper as the gripping unit. Furthermore, the orientation of the contact surface of the gripping unit can be changed such that there is a maximum distance between the contact surface of the gripping unit and the edge of the partial surface or the opening in the component. If at least one suitable gripping point is determined on the partial surface, then a secure gripping of the component is made possible.
Schließlich hat es sich als vorteilhaft gezeigt, eine Rangordnung von Greifpunkten voneinander verschiedener Teilflächen in Abhängigkeit von einer Größe der jeweiligen Teilfläche und/oder einem Abstand der Anlagefläche zu einem Rand der Teilfläche und/oder in Abhängigkeit von einem Abstand der Teilfläche von einer Bezugsebene zu erstellen. Ist eine solche Rangordnung der Greifpunkte erstellt, so kann dasjenige Bauteil bevorzugt aus dem Behältnis entnommen werden, welches den zum Ansetzen der Greifeinheit am Besten geeigneten, also ranghöchsten Greifpunkt aufweist. Auf diese Weise sind insbesondere Kollisionen von Bauteilen miteinander beim Entnehmen aus dem Behältnis vermeidbar. Des Weiteren ist so ein besonders sicheres Greifen des Bauteils ermöglicht.Finally, it has proven to be advantageous to create a ranking of gripping points of different partial areas depending on a size of the respective partial area and / or a distance of the contact surface from an edge of the partial area and / or depending on a distance of the partial area from a reference plane , If such a ranking of the gripping points has been established, then that component can preferably be removed from the container which has the most suitable, ie highest-ranking, gripping point for attaching the gripping unit. In this way, collisions of components with one another when removed from the container can be avoided. Furthermore, a particularly secure gripping of the component is made possible.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung einer bevorzugten Ausführungsform sowie anhand der Zeichnungen. Dabei zeigen:
-
1 einen Bildausschnitt von sich in einer Gitterbox befindenden Bauteilen, wobei das Bild eine dreidimensionale Wolke von mittels eines Lichtschnittsensors erfassten Bildpunkten umfasst; -
2 in jeweiligen dreidimensionalen Gitterzellen der dreidimensionalen Wolke ermittelte, planare Flächenstücke auf Oberflächen der Bauteile; -
3 Angriffsflächen an Bauteilen, welche durch Zusammenfassen einer Mehrzahl voneinander verschiedener Flächenstücke gemäß2 gewonnen wurden; und -
4 Angriffsflächen unterschiedlicher Bauteile mit möglichen Greifpunkten zum Ansetzen einer Greifeinheit an dem jeweiligen Bauteil.
-
1 an image detail of components located in a lattice box, the image comprising a three-dimensional cloud of image points detected by means of a light section sensor; -
2 planar surface pieces on surfaces of the components determined in respective three-dimensional grid cells of the three-dimensional cloud; -
3 Attack surfaces on components, which by combining a plurality of mutually different surface pieces according2 were won; and -
4 Attack surfaces of different components with possible gripping points for attaching a gripping unit to the respective component.
Das mit Bezug auf
Der Gesamtprozess des vollautomatischen Greifens und Ablegens der Bauteile beim Vereinzeln aus der Gitterbox gliedert sich also in zwei Phasen. In der ersten Phase wird eine Angriffsfläche des Bauteils in der Gitterbox mittels einer 3D-Erkennung ermittelt und auf der Angriffsfläche ein Greifpunkt bestimmt. Dies ermöglicht das Greifen des Bauteiles an dem Greifpunkt. Nach dem Greifen wird das Bauteil in der zweiten Phase einer 2D-Bauteillageerkennung zugeführt. Hierbei wird die genaue Lage, Position und Orientierung des Bauteils an der Greifeinheit bestimmt, um das Bauteil schließlich definiert ablegen zu können.The entire process of fully automatic gripping and depositing of the components when separating them from the mesh box is divided into two phases. In the first phase, an attack surface of the component in the lattice box is determined using 3D detection and a gripping point is determined on the attack surface. This enables the component to be gripped at the gripping point. After gripping, the component is fed to a 2D component position detection in the second phase. The exact position, position and orientation of the component on the gripping unit is determined in order to finally be able to store the component in a defined manner.
Um das in
Durch wiederholtes Scannen der Gitterbox sind im Bild der Scanprofile keine Nachbarschaftsbeziehungen zwischen Bildpunkten
Nachdem alle Bildpunkte
Hierfür wird für jede Gitterzelle i, die eine Mindestanzahl an Bildpunkten
Wurden die Massenschwerpunkte berechnet, kann für jede der dreidimensionalen Gitterzellen i (Gitterzelle
Hierbei steht (p - ci)T für den transponierten Spaltenvektor.Here, (p - c i ) T stands for the transposed column vector.
Die Korrelationsmatrix beinhaltet die Varianzen aller Bildpunkte
Die Bedingung der Flächenstückextraktion lässt sich wie folgt definieren: Sind die Eigenwerte λi mit den zugehörigen Eigenvektoren e, entsprechend Gleichung (3) der Größe nach geordnet, so erfüllen die Eigenwerte die Gleichungen (4), (5) und (6).
Geometrisch lassen sich die Gleichungen wie folgt erläutern: Die Varianzen der Bildpunkte
Nachdem eine Mehrzahl planarer Flächenstücke
Zu diesem Zweck werden ein 2D-Grauwertbild der Abstandsinformationen und ein 2D-Farbbild der Normalenrichtungen erzeugt. Jeder Pixel des Grauwertbilds bzw. des Farbbilds entspricht dabei einem Flächenstück
In analoger Weise werden die Raumausrichtungen der Flächenstücknormalen benachbarter Flächenstücke
Benachbarte Flächenstücke
In
Zum Ermitteln von Greifpunkten wird jede fusionierte Angriffsfläche
Das Haltemittel
Beim Schablonenabgleich wird also überprüft, ob die Schablone auf die infolge Projektion ebenfalls zweidimensionale Angriffsfläche
Dieses binäre Bild wird weiter ausgewertet. Für jeden Greifpunkt wird ein Abstand der Anlagefläche des Haltemittels
Des Weiteren werden unterschiedliche Orientierungen der Anlagefläche in Bezug auf die Angriffsfläche
In
Nach der Ermittlung des optimalen Greifpunktes je Angriffsfläche
Dieses Greifpunkts
Claims (8)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102009009569.1A DE102009009569B4 (en) | 2009-02-19 | 2009-02-19 | Method for determining a partial surface of a component |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102009009569.1A DE102009009569B4 (en) | 2009-02-19 | 2009-02-19 | Method for determining a partial surface of a component |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102009009569A1 DE102009009569A1 (en) | 2010-09-16 |
| DE102009009569B4 true DE102009009569B4 (en) | 2019-12-19 |
Family
ID=42557666
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102009009569.1A Active DE102009009569B4 (en) | 2009-02-19 | 2009-02-19 | Method for determining a partial surface of a component |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102009009569B4 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5670397B2 (en) | 2012-08-29 | 2015-02-18 | ファナック株式会社 | Apparatus and method for picking up loosely stacked articles by robot |
| JP2015089590A (en) | 2013-11-05 | 2015-05-11 | ファナック株式会社 | Method and apparatus for taking out bulked article by using robot |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5978504A (en) | 1997-02-19 | 1999-11-02 | Carnegie Mellon University | Fast planar segmentation of range data for mobile robots |
| WO2007083039A2 (en) | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Method and system allowing the automatic picking of parts |
| WO2008014960A1 (en) | 2006-08-03 | 2008-02-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for automated 3d-object recognition and location determination |
-
2009
- 2009-02-19 DE DE102009009569.1A patent/DE102009009569B4/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5978504A (en) | 1997-02-19 | 1999-11-02 | Carnegie Mellon University | Fast planar segmentation of range data for mobile robots |
| WO2007083039A2 (en) | 2006-01-23 | 2007-07-26 | Grosbois Jerome | Method and system allowing the automatic picking of parts |
| WO2008014960A1 (en) | 2006-08-03 | 2008-02-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for automated 3d-object recognition and location determination |
Non-Patent Citations (2)
| Title |
|---|
| FRANSENS,J.,REETH,F.:Hierarchical PCA Decomposition of Point Clouds.In:IEEE Proceedings of the Third International Symposium on 3D Data Processing, Visualization and Transmission (3DPVT06), 2006,S.591-598 * |
| RICHTSFELD,M.,ZILLICH,M.:Grasping Unknown Objects Based on 2 1/2D Range Data.In:4th IEEE Conference on Automation Science and Engineering, 2008,S.691-696 * |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102009009569A1 (en) | 2010-09-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112011103794B4 (en) | Pick-up device for workpieces | |
| DE102013012224B4 (en) | Device for removing loosely stored objects by a robot | |
| DE102014016033B4 (en) | Apparatus and method for picking up randomly distributed objects with a robot | |
| DE102019104310B4 (en) | System and method for simultaneously viewing edges and normal image features by a vision system | |
| DE102014102943B4 (en) | Robot system with functionality for determining the location of a 3D box | |
| DE10080012B4 (en) | Three-dimensional method of detecting objects and system for picking up an object from a container using the method | |
| DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
| DE112013004103B4 (en) | Method and apparatus for generating a disparity card | |
| DE102016122678B4 (en) | Workpiece position / posture calculation system and handling system | |
| DE112014004190T5 (en) | Posture estimation and robots | |
| DE102016013986A1 (en) | DEVICE FOR MEASURING THE POSITIONS AND POSITIONS OF A MULTIPLE OF ARTICLES AND THE DEVICE PROVIDING ROBOT SYSTEM | |
| WO2020157249A1 (en) | Processing image data sets | |
| DE102009051826A1 (en) | Method for comparing the similarity of 3D pictorial objects | |
| DE102016013274A1 (en) | IMAGE PROCESSING DEVICE AND METHOD FOR RECOGNIZING AN IMAGE OF AN OBJECT TO BE DETECTED FROM ENTRY DATA | |
| DE102016100101A1 (en) | SYSTEM FOR MACHINE SEALING AND ANALYTICAL METHOD FOR SEGMENTING PLANAR SURFACES | |
| DE102019124810A1 (en) | Image processing device and image processing method | |
| DE102021103726B4 (en) | Measurement parameter optimization method and device and computer control program | |
| DE112018007727B4 (en) | robotic system | |
| DE102012223047B4 (en) | Multi-part correspondent (corresponder) for several cameras | |
| DE102017116853A1 (en) | System and method for automatically selecting 3D alignment algorithms in a vision system | |
| DE102021107351A1 (en) | SYSTEM FOR PROPERTY DETECTION THROUGH DEEP LEARNING AND VECTOR FIELD ESTIMATION | |
| DE102009009569B4 (en) | Method for determining a partial surface of a component | |
| DE102021107479A1 (en) | CAPTURING A THREE-DIMENSIONAL POSE BY MULTIPLE 2D CAMERAS | |
| EP1098268A2 (en) | Method for the threedimensional optical measurement of object surfaces | |
| DE102009007024A1 (en) | Method and device for separating components |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final | ||
| R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE Owner name: DAIMLER AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE |
|
| R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |