[go: up one dir, main page]

DE102017201169A1 - Rechnergestütztes Bildverarbeitungsverfahren - Google Patents

Rechnergestütztes Bildverarbeitungsverfahren Download PDF

Info

Publication number
DE102017201169A1
DE102017201169A1 DE102017201169.6A DE102017201169A DE102017201169A1 DE 102017201169 A1 DE102017201169 A1 DE 102017201169A1 DE 102017201169 A DE102017201169 A DE 102017201169A DE 102017201169 A1 DE102017201169 A1 DE 102017201169A1
Authority
DE
Germany
Prior art keywords
point
pair
normal vector
normal
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017201169.6A
Other languages
English (en)
Inventor
Tolga Birdal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE102017201169.6A priority Critical patent/DE102017201169A1/de
Priority to PCT/EP2018/050665 priority patent/WO2018137935A1/de
Publication of DE102017201169A1 publication Critical patent/DE102017201169A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein rechnergestütztes Bildverarbeitungsverfahren zum Ermitteln von zueinander orthogonalen Ebenen (W, W) aus einer orientierten Punktwolke, die eine Anzahl N von mit einem Normalvektor (n, n) assoziierten Punkten (p, p) enthält, durch Auswählen eines Punktes (p) aus der Punktwolke mit assoziiertem Normalvektor (n) als ein mit einem Referenznormalvektor (n) assoziierten Referenzpunkt (p), Bestimmen einer Punktpaar-Relation (F(p,p)), die eine Mehrzahl von Punktpaar-Merkmalen enthält, für den Referenzpunkt (p) mit den weiteren Punkten (p) der Punktwolke, wobei die Punktpaar-Merkmale sich jeweils auf unterschiedliche geometrische Parameter des Referenzpunktes (p) und des jeweiligen weiteren Punktes (p) und/oder des Referenznormalvektors (n) und des jeweiligen weiteren Normalvektors (n) beziehen, Bestimmen einer durch den Referenzpunkt (p) und den Referenznormalvektor (n) definierten Referenzebene (W), wenn die Punktpaar-Relation (F(p,p)) eine vorgegebene Bedingung erfüllt, und Bestimmen einer zu der Referenzebene (W) orthogonalen Ebene (W) aus denjenigen weiteren Punkten (p) , deren Punktpaar-Relation (F(p,p)) ebenfalls die vorgegebene Bedingung erfüllt.

Description

  • Die Erfindung betrifft ein Rechnergestütztes Bildverarbeitungsverfahren zum Ermitteln von zueinander orthogonalen Ebenen aus einer orientierten Punktwolke.
  • Das Gebiet der Ermittlung von Ebenen in der Bildverarbeitung ist gut untersucht. Es wird unter anderem auf folgende Dokumente verwiesen:
    1. [1] Borrmann et al., „The 3d hough transform for plane detection in point clouds: A review and a new accumulator design," 3D Research, vol. 2, no. 2, pp. 1-13, 2011
    2. [2] Yang und Förstner, „Plane detection in point cloud data," 2010
    3. [3] Deschaud und Goulette, „A fast and accurate plane detection algorithm for large noisy point clouds using filtered normals and voxel growing," Proceedings of 3D Processing, Visualization and Transmission Conference, 2010
    4. [4] B. Drost und S. Ilic, „Local hough transform for 3d primitive detection," in 3D Vision (3DV), 2015 International Conference on, pp. 398-406
    5. [5] Li et al., „Globfit: consistently fitting primitives by discovering global relations," in ACM Transactions on Graphics (TOG). ACM, 2011, vol. 30, p. 52
    6. [6] Wang und Xu, „Shape detection from raw lidar data with subspace modeling," IEEE Transactions on Visualization and Computer Graphics, vol. PP, no. 99, pp. 1-1, 2016.
    7. [7] Oehler et al., „Efficient multiresolution plane segmentation of 3d point clouds," in International Conference on Intelligent Robotics and Applications. Springer, 2011, pp. 145-156
    8. [8] Oßwald et al., „From 3d point clouds to climbing stairs: A comparison of plane segmentation approaches for humanoids," in Humanoid Robots (Humanoids), 2011 11th IEEE-RAS International Conference on. IEEE, 2011, pp. 93-98
    9. [9] Holz et al., „Real-time plane segmentation using rgb-d cameras," in Robot Soccer World Cup. Springer, 2011, pp. 306-317
    10. [10] Xiao et al., „Threedimensional point cloud plane segmentation in both structured and unstructured environments," Robotics and Autonomous Systems, vol. 61, no. 12, pp. 1641-1652, 2013
    11. [11] Micusik et al., „Detection and matching of rectilinear structures," in Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008, pp. 1-7
    12. [12] Fond et al., „Généeration d'hypothèeses de façades utilisant des critèeres contextuels et structurels," in Reconnaissance des Formes et Intelligence Artificielle, 2016
    13. [13] Herout und Dubskä, „Real projective plane mapping for detection of orthogonal vanishing points," in Proceedings of the British Machine Vision Conference, 2013, BMVA Press
    14. [14] Singhal et al., „Top down approach to detect multiple planes from pair of images," in Proceedings of the 2014 Indian Conference on Computer Vision Graphics and Image Processing, New York, NY, USA, 2014, ICVGIP '14, pp. 53:1-53:8, ACM
    15. [15] Micusk et al. „Towards detection of orthogonal planes in monocular images of indoor environments," in Robotics and Automation, 2008. ICRA2008. IEEE International Conference on. IEEE, 2008, pp. 999-1004
    16. [16] Lee et al., „Mav visual slam with plane constraint," in Robotics and Automation (ICRA), 2011 IEEE International Conference on, May 2011, pp. 3139-3144
    17. [17] Trevor et al., „Planar surface slam with 3d and 2d sensors," in Robotics and Automation (ICRA), 2012 IEEE International Conference on, IEEE, 2012, pp. 3041-3048
    18. [18] Kohlhepp et al., „Using orthogonal surface directions for autonomous 3d-exploration of indoor environments," in 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2006, pp. 3086-3092
    19. [19] Pathak et al., „Online three-dimensional slam by registration of large planar surface segments and closed-form pose-graph relaxation," Journal of Field Robotics, vol. 27, no. 1, pp. 52-84, 2010.
    20. [20] Harati und Siegwart, „Orthogonal 3d-slam for indoor environments using right angle corners,"
    21. [21] Nguyen et al., „A lightweight slam algorithm using orthogonal planes for indoor mobile robotics," in 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2007, pp. 658-663.
    22. [22] Garcia, „Fitting primitive shapes to point clouds for robotic grasping," Master of Science Thesis. School of Computer Science and Communication, Royal Institute of Technology, Stockholm, Sweden, 2009.
    23. [23] Jiang und Xiao, „A linear approach to matching cuboids in rgbd images," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2013, pp. 2171-2178.
    24. [24] Birdal und Ilic, „Point pair features based object detection and pose estimation revisited," in 3D Vision (3DV), 2015 International Conference on. IEEE, 2015, pp. 527-535.
    25. [25] Duda und Hart, „Use of the hough transformation to detect lines and curves in pictures," Communications of the ACM, vol. 15, no. 1, pp. 11-15, 1972.
    26. [26] Besl und McKay, „Method for registration of 3-d shapes," in Robotics-DL tentative. International Society for Optics and Photonics, 1992, pp. 586-606.
    27. [27] Hoaglin et al., Understanding robust and exploratory data analysis, vol. 3, Wiley New York, 1983.
  • Ebenenerfassung ist in der Bildverarbeitung ein gut untersuchtes Gebiet. Borrmann et. al. verwenden einen verbesserten Hough Akkumulator, um 3D-Ebenen zu ermitteln [1]. Yang und Forstner [2] schlagen ein RANSAC basiertes Schema vor, das häufig in unterschiedlichen Anwendungen verwendet wird. Sie verwenden eine minimale Beschreibungslänge (engl. minimum description lengh, MDL) um sich mit unterschiedlichen wettstreitenden Hypothesen auseinander zu setzen. Schnabel et. al. verallgemeinern den RANSAC basierten Ansatz, um unterschiedliche Primitive in Punktwolken zu ermitteln, einschließlich Ebenen. Deschaud et. al. verwenden gefilterte Normalen und Voxel Growing (ein 3D Analogon zu Region-Growing) für eine schnelle und zuverlässige Ermittlung. Schließlich verwenden Drost und Ilic [4] ein lokales Hough Voting Schema um effizient mehrere Ebenen zu ermitteln. Hierzu werden Punktpaar-Merkmale (engl. point pair features, PPF) verwendet. Das Verfahren befasst sich ebenso mit dem Entdecken anderer Primitive, wie etwa Kugeln oder Zylinder. Die Verwendung von Ebenen zusammen mit anderen Primitiven wurde zwar schon teilweise angegangen, vgl. [5, 4, 6]. Jedoch benötigt die Verwendung einzelner Ebenen in einer Pipeline zum Ermitteln orthogonaler Ebenen weitere aufwendige Schritte.
  • Weitere Arbeiten befassen sich mit dem sogenannten Clustering Approach, um eine vernünftige Näherung der Umgebung zu erhalten [7, 8, 9, 10]. Jedoch befasst sich keiner dieser Ansätze mit orthogonalen Ebenen. Ebenso kann keine Orthogonalität der ermittelten Ebenen garantiert werden.
  • Orthogonalität von Ebenen ist in menschengemachten Umgebungen allgegenwärtig, wie etwa bei Gebäudefassaden und auch in Innenräumen. Hierfür wurden zahlreiche Anwendungen ersonnen. In 2D wird Orthogonalität zum wiederherstellen recti-linearer Strukturen [11], schätzen von Fluchtpunkten und -linien [12, 13] oder zum Ermitteln von Ebenen aus einem Bilderpaar verwendet [14].
  • Micusk et. al. [15, 11] geben Verfahren für die Erfassung von orthogonalen Ebenen in 2D Bildern an. Wegen fehlender 3D Information basieren die Verfahren auf Fluchtpunkten.
  • Eine direkte und viel akzeptierte Anwendung der Orthogonalität auf 3D-Daten ist SLAM (engl. simultaneous localization and mapping). Viele Arbeiten betrachten hauptsächlich orthogonale Ebenen als Randbedingung, um SLAM durchführen zu können [16, 17, 18, 19, 20, 21]. Dies hilft etwa bei der Navigation von Robotern. Der gewöhnliche Ansatz ist hier jedoch, die Orthogonalität per Design in SLAM einzubauen und nicht aus den Daten zu ermitteln.
  • Garcia et. al. [22] entwickelten ein Verfahren zur Box-Erkennung. Sie verwenden jedoch Punkttripletts um eine Ebene zu definieren. Die ist jedoch rechenzeitaufwendig aufgrund der sogenannten kombinatorischen Explosion der Daten.
  • Drost und Ilic [4] verwenden Punktpaar-Merkmale zur Erfassung von Primitiven. Jedoch ist eine Ermittlung Orthogonaler Ebenen daraus nicht bekannt.
  • Jiang und Xiao [23] erfassen Quader in Bildern, die auf RGBD-Daten basieren, also eine Tiefeninformation beinhalten.
  • Auch in der Patentliteratur wurden unterschiedliche Ideen vorgestellt.
  • US 8 908 913 B2 offenbart eine Voting-basierte Schätzung für 3D-Sensoren.
  • US 7 843 448 B2 befasst sich mit verdeckten Kantenregionen in 3D-Punktdaten.
  • US 9 208 609 B2 stellt ein Verfahren zum Fitten von primitiven Formen an 3D-Punktdaten mittels Entfernungsfeldern vor.
  • US 2011 0 304 619 A1 offenbart die Extraktion einer primitiven Quadrik-Fläche aus unorganisierten Punktwolkendaten.
  • US 9 412 040 B2 offenbart ein Verfahren zum Extrahieren von Ebenen aus 3D-Punktwolkendaten eines Sensors.
  • US 5 978 504 A beschreibt ein schnelles planares Segmentierungsverfahren für Reichweitendaten mobiler Roboter.
  • Die bekannten Verfahren verlassen sich auf RANSAC basiertes Sampling oder Ansätze nach Art von Region-Growing. Diese sind entweder (rechen-)zeitaufwendig oder benötigen eine Bildsegmentierung.
  • Es ist die Aufgabe der Erfindung ein verbessertes Bildverarbeitungsverfahren zu schaffen, das insbesondere eine höhere Rauschresistenz, gesteigerte Effizienz und Robustheit aufweist.
  • Die Aufgabe wird durch den Gegenstand des unabhängigen Anspruchs gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Es wird darauf hingewiesen, dass die Abfolge der Verfahrensschritte keine Reihenfolge impliziert. Die Schritte sind lediglich zur besseren Referenzierbarkeit mit Buchstaben versehen. Die Schritte können folglich auch in beliebigen anderen ausführbaren Kombinationen durchgeführt werden, so lange das gewünschte Ergebnis erreicht wird.
  • Die Erfindung schafft ein rechnergestütztes Bildverarbeitungsverfahren zum Ermitteln von zueinander orthogonalen Ebenen aus einer orientierten Punktwolke, die eine Anzahl N von mit einem Normalvektor assoziierten Punkten enthält, durch Auswählen eines Punktes aus der Punktwolke mit assoziiertem Normalvektor als ein mit einem Referenznormalvektor assoziierten Referenzpunkt, Bestimmen einer Punktpaar-Relation, die eine Mehrzahl von Punktpaar-Merkmalen enthält, für den Referenzpunkt mit den weiteren Punkten der Punktwolke, wobei die Punktpaar-Merkmale sich jeweils auf unterschiedliche geometrische Parameter des Referenzpunktes und des jeweiligen weiteren Punktes und/oder des Referenznormalvektors und des jeweiligen weiteren Normalvektors beziehen, Bestimmen einer durch den Referenzpunkt und den Referenznormalvektor definierten Referenzebene, wenn die Punktpaar-Relation eine vorgegebene Bedingung erfüllt, und Bestimmen einer zu der Referenzebene orthogonalen Ebene aus denjenigen weiteren Punkten, deren Punktpaar-Relation ebenfalls die vorgegebene Bedingung erfüllt.
  • Es ist bevorzugt, dass die Punktpaar-Merkmale wenigstens einen der folgenden geometrischen Parameter enthalten:
    • - einen Normalwinkel zwischen dem Referenznormalvektor und dem weiteren Normalvektor; und/oder
    • - einen Referenzverbindungswinkel zwischen dem Referenznormalvektor und einem Verbindungsvektor, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet; und/oder
    • - einen Normalverbindungswinkel zwischen dem jeweiligen weiteren Normalvektor und einem Verbindungsvektor, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet; und/oder
    • - eine Verbindungslänge eines Verbindungsvektors, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet.
  • Es ist bevorzugt, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn eine Gruppe der Punktpaar-Merkmale innerhalb eines jeweiligen durch einen vorgegebenen Genauigkeitswert und einen Zielwert definierten Bereichs liegen. Es ist bevorzugt, dass der Bereich sich von einem um den Genauigkeitswert verringerten Zielwert bis zu einem um den Genauigkeitswert erhöhten Zielwert erstreckt.
  • Es ist bevorzugt, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Normalwinkel um höchstens einen vorgegebenen Normal-Genauigkeitswert von einem rechten Winkel abweicht. Es ist bevorzugt, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Referenzverbindungswinkel und/oder der Normalverbindungswinkel kleiner sind als ein um einen vorgegebenen Verbindungs-Genauigkeitswert erhöhter rechter Winkel.
  • Es ist bevorzugt, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Normalwinkel um höchstens einen vorgegebenen Normal-Genauigkeitswert von einem rechten Winkel abweicht. Es ist bevorzugt, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Referenzverbindungswinkel und/oder der Normalverbindungswinkel größer sind als ein um einen vorgegebenen Verbindungs-Genauigkeitswert erniedrigter rechter Winkel.
  • Es ist bevorzugt, dass in Schritt c) die Paarpunkt-Relation die Bedingung erfüllt, wenn zusätzlich die Verbindungslänge weniger als eine vorgegebene Maximal-Verbindungslänge beträgt.
  • Es ist bevorzugt, dass in Schritt d) die zu der Referenzebene orthogonale Ebene mittels eines Voting-Verfahrens, insbesondere mittels einer Hough-Transformation, bestimmt wird, wobei vorzugsweise der Referenzpunkt den Ursprung der Hough-Transformation bildet.
  • Es ist bevorzugt, dass in Schritt d) wenigstens eine Schnittgerade zwischen der Referenzebene und der wenigstens einen durch den weiteren Punkt und die assoziierte Normale definierten Ebene ermittelt wird, wobei vorzugsweise die wenigstens eine Schnittgerade Hough transformiert wird.
  • Vorzugsweise umfasst das Verfahren den Schritt:
    • e) Wiederholen der Schritte b) bis d) für jeden weiteren Punkt der Punktwolke als Referenzpunkt.
  • Vorzugsweise umfasst das Verfahren den Schritt:
    • f) Vereinigen der orthogonalen Ebenen, die mit unterschiedlichen Referenzpunkten assoziiert sind, vorzugsweise durch ein Clusteranalyse-Verfahren, insbesondere ein agglomeratives Clusteranalyse-Verfahren.
  • Vorzugsweise umfasst das Verfahren den Schritt:
    • g) Optimieren der zuvor ermittelten orthogonalen Ebenen
  • Mit den erfindungsgemäßen Merkmalen können unter anderem nachfolgend erläuterte Vorteile erreicht werden. Es sollte beachtet werden, dass nicht alle Vorteile gleichzeitig vorhanden sein müssen.
  • Im Unterschied zu bekannten Verfahren mit dem hierin beschriebenen Verfahren orthogonale Ebenen simultan und direkt aus einer 3D Punktwolke ohne vorherige Bearbeitung der Daten extrahiert werden. Zudem kann gleichzeitig die Ausrichtung der Ebenen ermittelt werden. Die Eingangsdaten sind bevorzugt eine unstrukturierte 3D-Punktwolke ohne Farbinformation. Als Ausgabe werden die Ebenengleichungen aller Ebenen gewünscht, die orthogonal zueinander sind. Zudem kann durch Clustern orthogonaler Ebenen in einer Gruppe die volle Information über die Ausrichtung (6DOF, engl. 6 degrees of freedom) erhalten werden. Mittels einer Kombination aus Ermitteln und Optimieren können die Ergebnisse zusätzlich verbessert werden.
  • Dies ist die erste Arbeit, die Punktpaar-Merkmale zusammen mit einer lokalen Hough-Transformation verwendet. Dabei wird ein Punktepaar, das auf zueinander orthogonalen Ebenen gefunden wird verwendet um die geometrische Konfiguration zu beschreiben.
  • Die lokale Parametrisierung ist lediglich 2D, reicht jedoch aus um die gesamte 5D Konfiguration der orthogonalen Ebenen anzugeben. Somit ist das Verfahren weniger rechenaufwendig und kann auch in Echtzeitanwendungen verwendet werden. Insbesondere sind keine Region-Growing oder RANSAC-artigen Heuristiken mehr erforderlich. Dies kann insbesondere durch den lokalen Voting-Space erreicht werden.
  • Es wird angemerkt, dass das Erzeugen eines lokalen Voting-Space den Aufwand für RANSAC deutlich reduziert, nämlich vom Auswählen zweier Punkte auf einen einzigen. Somit ist das Verfahren exponentiell effizienter als RANSAC. Durch das Verfahren können auch Diskretisierungsfehler vermieden werden, wobei Geschwindigkeit und Genauigkeit erhalten bleiben. Mittels des Verfahrens können somit mehrere orthogonale Ebenen ermittelt und geclustert werden, um insbesondere die volle 3D Geometrie der Umgebung zu beschreiben. Das Verfahren erfordert zudem keine Tiefeninformation und kann gegebenenfalls auch auf dünnbesetzten Punktmengen ohne weitere Vorverarbeitung verwendet werden.
  • Das Verfahren kann auch unendlich ausgedehnte orthogonale Ebenen ermitteln, da insbesondere aufgrund des Paaransatzes sowohl lokaler als auch globaler Kontext, sogenannte Semi-Lokalität, gegeben sind. Wird eine Längenbeschränkung verwendet, kann ein Nutzer zudem nach Belieben die Größe der ermittelten Ebene einstellen.
  • Durch die Nachoptimierung können die aus der 3D Punktwolke ermittelten genäherten orthogonalen Konfigurationen bis zur Maschinengenauigkeit des Rechners und zum Sensorrauschen verbessert werden. So kann eine äußerst präzise Anpassung erfolgen.
  • Ausführungsbeispiele der Erfindung werden anhand der beigefügten schematischen Zeichnungen näher erläutert. Darin zeigt:
    • 1 ein Ausführungsbeispiel des Verfahrens;
    • 2 eine Darstellung orthogonaler Ebenen;
    • 3 eine weitere Darstellung orthogonaler Ebenen;
    • 4 eine 3D-Darstellung einer Referenzebene und einer weiteren Ebene; und
    • 5 eine 2D-Darstellung einer Referenzebene und Schnittgerade.
  • 1 zeigt ein Ausführungsbeispiel eines rechnergestützten Bildverarbeitungsverfahrens zum Ermitteln zueinander orthogonaler Ebenen aus einer Punktwolke. Die Punktwolke enthält insgesamt eine Anzahl N an Punkten. Das Verfahren beginnt in Schritt S1 mit dem auswählen eines Referenzpunktes pi aus einer, vorzugsweise dreidimensionalen, orientierten Punktwolke. Orientiert bedeutet dabei, dass jedem Punkt pj der Punktwolke ein zugehöriger Normalvektor nj zugeordnet ist. Im Falle des Referenzpunktes pi wird der zugehörige Normalvektor als Referenznormalvektor ni bezeichnet.
  • 2 und 3 zeigen zwei mögliche Konfigurationen orthogonaler Ebenen. Eine Referenzebene Wi ist durch den Referenzpunkt pi und den Referenznormalvektor ni definiert, während die andere Ebene Wj durch den Punkt pj und den zugehörigen Normalvektor nj definiert ist. Die in 2 dargestellte Variante wird als konkave Konfiguration bezeichnet, während die in 3 dargestellt Variante als konvex bezeichnet wird. Ein Verbindungsvektor d verbindet den Referenzpunkt pi und den Punkt pj.
  • Für den Referenzpunkt pi werden in Schritt S2 insgesamt N-1 Punktpaar-Relationen F(pi, pj) ermittelt; mit anderen Worten für jedes Paar Punkte (pi, pj) , wobei i ungleich j ist wird eine Punktpaar-Relation F(pi, pj) ermittelt. Die Punktpaar-Relation F(pi, pj) enthält eine Mehrzahl von Punktpaar-Merkmalen von denen sich jedes auf unterschiedliche geometrische Parameter des Referenzpunktes pi und des Punktes pj bezieht.
  • Als Punktpaar-Merkmale werden der Normalwinkel <(ni,nj) zwischen dem Referenznormalvektor ni und dem Normalvektor nj, der Referenzverbindungswinkel <(ni, d) zwischen dem Referenznormalvektor ni und dem Verbindungsvektor d, der Normalverbindungswinkel <(nj, d) zwischen dem Normalvektor nj und dem Verbindungsvektor d sowie die Verbindungslänge | |d| | des Verbindungsvektors d ermittelt.
  • Die Winkel werden bevorzugt anhand der folgenden Formel ermittelt, die an sich bekannt ist: < ( v 1 , v 2 ) = tan 1 ( v 1 × v 2 v 1 v 2 )
    Figure DE102017201169A1_0001
  • In Schritt S3 werden die Punktpaar-Merkmale mit vorgegebenen Beziehungen verglichen. Für eine Einordnung der Punktpaar-Relation F(pi, pj) als Kandidat für eine konkave Konfiguration (2) müssen die Punktpaar-Merkmale die folgenden Relationen erfüllen: π /2 ε n < < ( n i ,n j ) < π /2 + ε n
    Figure DE102017201169A1_0002
    | < ( n i , d ) | > π / 2 ε d
    Figure DE102017201169A1_0003
    | < ( n j , d ) | > π / 2 ε d
    Figure DE102017201169A1_0004
  • Für eine Einordnung der Punktpaar-Relation F(pi, pj) als Kandidat für eine konvexe Konfiguration (3) müssen die Punktpaar-Merkmale die folgenden Relationen erfüllen: π / 2 ε n < < ( n i ,n j ) < π / 2 + ε n
    Figure DE102017201169A1_0005
    | < ( n i ,  d ) | < π / 2 + ε d
    Figure DE102017201169A1_0006
    | < ( n j ,  d ) | < π / 2 + ε d
    Figure DE102017201169A1_0007
  • Dabei bezeichnet |x| den Betrag von x, εn den Normal-Genauigkeitswert und εd den Verbindungs-Genauigkeitswert. Die Genauigkeitswerte geben die maximal zulässige Abweichung der Punktpaar-Merkmale vom Zielwert, hier: n/2, an.
  • Zusätzlich kann verlangt sein, dass die Verbindungslänge | |d| | kleiner als ein Schwellwert τd ist. Somit werden nur Ebenen als Kandidaten in Betracht gezogen, die einen Abstand kleiner τd von dem Referenzpunkt pi haben. τd wird auch als maximale Verbindungslänge bezeichnet.
  • Erfüllen die Punktpaar-Merkmale alle der jeweiligen Relationen, so erfüllt die Punktpaar-Relation F(pi, pj) die Bedingung zum Fortsetzen des Verfahrens. Mit anderen Worten liegen die Punkte pi, pj des Punktpaares auf zueinander orthogonalen Ebenen innerhalb der betrachteten Genauigkeiten εn und εd.
  • In Schritt S4 wird nun die zu der Referenzebene Wi orthogonale Ebene Wj ermittelt. Die Orthogonalitätsbedingung ist durch die Punktpaar-Relationen F(pi,pj) näherungsweise erfüllt, jedoch nicht eineindeutig. Die Kandidaten für die orthogonale Ebene Wj können um den Referenznormalvektor ni rotiert und/oder in der Referenzebene Wi relativ zu dem Referenzpunkt pi verschoben sein. Diese beiden Freiheitsgrade müssen noch bestimmt werden. Hierzu wird eine Konfiguration erzeugt, wie sie in 4 und 5 dargestellt ist. Der Kandidat für die orthogonale Ebene Wj wird demnach in einem Polarkoordinatensystem mit den Parametern (Θ, ϱ) dargestellt, wobei Θ den Drehwinkel um den Referenznormalvektor ni, also den Winkel zwischen der Schnittgeraden l der x-Achse des Koordinatensystems, und ϱ den Abstand von einer Schnittgeraden l der Referenzebene Wi und dem Kandidaten für die orthogonale Ebene Wj zu dem Referenzpunkt pi bezeichnet. Es sollte beachtet werden, dass zu diesem Zeitpunkt lediglich ein zweidimensionales Problem gelöst werden muss und nicht mehr alle grundsätzlichen 6 Freiheitsgrade ermittelt werden müssen.
  • Zu dem Referenzpunkt pi werden durch ein an sich bekanntes Voting-Verfahren, beispielsweise eine Hough-Transformation, die Parameter (Θ, ϱ) bestimmt, welche die zu der Referenzebene Wi orthogonale Ebene Wj beschreiben. Dabei wird zum Lösten des zweidimensionalen Problems der Referenzpunkt pi als Ursprung des Koordinatensystems verwendet und der Referenznormalvektor ni als y-Achse des Koordinatensystems.
  • Die zuvor beschriebenen Schritte S1 bis S4 werden für einen weiteren Punkt der Punktwolke als Referenzpunkt pi wiederholt, solange bis jeder Punkt der Punktwolke wenigstens einmal der Referenzpunkt pi gewesen ist.
  • In Schritt S5 werden die zu unterschiedlichen Referenzpunkten pi gehörigen Referenzebenen Wi und die zugehörigen orthogonalen Ebenen Wj mittels eines, insbesondere agglomerativen, Clusteranalyse-Verfahrens vereinigt, das als solches bekannt ist. Demnach werden insbesondere anhand eines Ähnlichkeitsmaßes Gruppen von zueinander ähnlichen Paaren von Referenzebene Wi und orthogonaler Ebene Wj gebildet. Nach dem Gruppieren/Clustern wird diejenige Konfiguration ausgewählt, welche höchste Stimmanzahl erhalten hat. Die Stimmanzahl kann beispielsweise auf der Anzahl der zu einer Gruppe gehörenden Ebenen basieren.
  • In Schritt S6 werden die zuvor ermittelten zueinander orthogonalen Ebenen Wi, Wj möglichst ohne Beeinträchtigung ihrer Orthogonalität optimiert. Unter optimieren wird hier verstanden, dass Diskretisierungsfehler, Rauschen und Artefakte, die bis zu diesem Zeitpunkt aufgetreten sind möglichst vollständig und ohne Beeinträchtigung der Orthogonalität der Ebenen zueinander entfernt werden.
  • Es wird eine Variante des Iterative-Closest-Point-Verfahrens (ICP-Verfahren) vorgeschlagen. Die zu minimierende Zielfunktion lautet: E ( P , { W 1 , W 2 } ) = i = 1 M min ( Q ( p i , W 1 ) , Q ( p i , W 2 ) )
    Figure DE102017201169A1_0008
  • Dabei bezeichnen W1 und W2 die zueinander orthogonalen Ebenen, P die gesamte Punktwolke, Q(p, W) der Punkt-Ebenen-Abstant (wie auch aus dem ICP-Verfahren bekannt) und p bezeichnet jeden Punkt der Punktwolke P. Um jedoch die Orthogonalität zu wahren müssen die Folgenden Zwangsbedingungen erfüllt sein: W 1 n W 2 n = 0 W 1 n = 1 W 2 n = 1
    Figure DE102017201169A1_0009
  • Dabei bezeichnet Wn i die Normalvektorkoeffizienten der Ebene i. Die Zielfunktion kann daher umgeschrieben werden zu: { W 1 , W 2 } = a r g W 1, W 2    m i n E ( P , { W 1 , W 2 } ) + λ ( W 1 n W 2 n ) + γ ( W ^ 1 n 1 ) + ξ ( W ^ 2 n 1 )
    Figure DE102017201169A1_0010
  • Der Parameter λ steuert die Strenge der Orthogonalitätsbedingung. Da die Orthogonalität der Ebenen jedoch nicht ohne Weiteres sichergestellt ist, wird bevorzugt bei jedem Iterationsschritt der Minimierung die Lösung zurück auf den Orthogonalen Unterraum projiziert. Mit anderen Worten wird derjenige orthogonale Vektor V2 ermittelt, der dem Vektor W2 am nächsten liegt und dennoch orthogonal zu W1 ist. Die Projektion lässt sich effizient berechnen, so dass insgesamt wiederum Rechenzeit eingespart werden kann. Die Minimierung der Zielfunktion erfolgt beispielsweise mittels Levenberg-Marquart-Iteration.
  • Um die Konvergenz zu verbessern und bessere Ergebnisse auch bei stark rauschbehaftete Punktwolken, wie sie etwa durch RGBD-Sensoren erzeugt werden, zu erhalten wird als robuste Zielfunktion vorgeschlagen: E r o b u s t ( P , { W 1 , W 2 } ) = Φ ( E ( P , { W 1 , W 2 } ) )
    Figure DE102017201169A1_0011
  • Dabei ist Φ ein M-Schätzer, der an sich bekannt ist: Φ ( r ^ i ) = { r ^ i ( 1 ( r ^ i c ) 2 ) 2    i f | r ^ i | 0 0 a n d e r n f a l l s
    Figure DE102017201169A1_0012
  • Dabei gilt r ^ i = r i s ^
    Figure DE102017201169A1_0013
  • Mit ri dem momentanen Residuum und c einer Konstanten, etwa c = 4.685 und s ^ = m a d ( r i ) 0.6745
    Figure DE102017201169A1_0014
    mit mad(ri) dem Median der absoluten Abweichungen.
  • Voriger Ansatz erfüllt zwar nicht direkt die Zwangsbedingungen. Sobald jedoch die Ebenen W1 und W2 gemeinsam als einzelner Parametervektor beschrieben sind, kann auf die Regularisierungsterme beim Minimieren verzichtet werden. Die zueinander orthogonalen Ebenen Wi, Wj sind durch {pi, ni, Θ, ϱ} parametrisiert. Obwohl dies immer noch Überbestimmt ist, können doch die Parameter individuell geändert werden, wobei die Orthogonalität der Ebenen Wi, Wj jedoch erhalten bleibt. Weiter vorteilhaft bleibt auch die Verbindung zwischen Ebene Wi und Referenzpunkt pi erhalten. Es sollte beachtet werden, dass die Funktion f: (x) -> {Wi, Wj} unkompliziert ist, da stets die Schnittgerade l aus dem zweidimensionalen Geradenort (Θ, ϱ) rekonstruiert werden kann und umgekehrt. Überdies kann die orthogonale Ebene Wj durch projezieren des Referenzpunktes pi auf die dreidimensionale Linie und berechnen des Kreuzproduktes der dreidimensionalen Linie und der Normale ni des Referenzpunktes pi gewonnen werden, sobald der Referenzpunkt ni und die dreidimensionale Linie einmal bekannt sind.
  • Weiter wird zum Optimieren noch ein Verfahren mit Lagrange-Multiplikatoren vorgeschlagen, wodurch die Zwangsbedingungen in der Zielfunktion direkt berücksichtigt werden können: L ( W 1 , W 2 , λ , γ , ξ ) = E ( P , { W 1 , W 2 } ) + λ ( W 1 n W 2 n ) + γ ( W ^ 1 n 1 ) + ξ ( W ^ 2 n 1 )
    Figure DE102017201169A1_0015
  • Die Parameter und Multiplikatoren können dann auf an sich bekannte Weise durch Lösen der Gleichung W 1 , W 2 , λ , γ , ξ L = 0
    Figure DE102017201169A1_0016
    bestimmt werden.
  • Da hier ausgedient Ebenenschnitte ermittelt werden müssen, wird auch hierfür ein besserer Ansatz vorgestellt. Während das Schnittproblem zwischen Ebenen gut untersucht ist ist für die hier vorgestellten Zwecke ein anderer Ansatz zielführender. Bei der bekannten Vorgehensweise wird ein beliebiger Punkt ausgewählt, ohne die Geometrie zu berücksichtigen. Bevorzugt jedoch soll dieser Punkt nahe an den Punkten pi, pj, den Ebenen Wi, Wj, oder der Schnittgeraden l sein. Gewöhnlich wird der Richtungsvektor der Schnittgeraden l als das Kreuzprodukt der Normalvektoren ni, nj der beiden orthogonalen Ebenen Wi, Wj berechnet. Üblicherweise würde dann ein beliebiger Punkt p0 ausgewählt, beispielsweise der Ursprung oder der Mittelpunkt. Gewünscht ist jedoch, dass der gewählte Punkt p möglichst nahe an den Punkten pi, pj der Ebenen Wi, Wj liegt. Hierfür wird die Zielfunktion vorgeschlagen: J = p p 0 + λ ( p p 1 ) 2 + μ ( p p 2 ) 2
    Figure DE102017201169A1_0017
  • Der gewählte Punkt p kann dann mit dem üblichen Lagrange-Formalismus ermittelt werden.
  • Mit dem hierin beschriebenen Verfahren, können orthogonale Ebenen direkt aus 3 die Punktwolken generiert werden. Ferner kann die Ausrichtung der Gesamten orthogonalen Ebenenkonfiguration, die fünfdimensional ist, aus lediglich zwei Dimensionen ermittelt werden. Das Verfahren kann somit mit weniger Ressourcen durch einen Rechner ausgeführt werden, so dass grundsätzlich ein Einsatz bei zeitkritischen Anwendungen möglich ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8908913 B2 [0012]
    • US 7843448 B2 [0013]
    • US 9208609 B2 [0014]
    • US 20110304619 A1 [0015]
    • US 9412040 B2 [0016]
    • US 5978504 A [0017]
  • Zitierte Nicht-Patentliteratur
    • Borrmann et al., „The 3d hough transform for plane detection in point clouds: A review and a new accumulator design,“ 3D Research, vol. 2, no. 2, pp. 1-13, 2011 [0002]
    • Yang und Förstner, „Plane detection in point cloud data,“ 2010 [0002]
    • Deschaud und Goulette, „A fast and accurate plane detection algorithm for large noisy point clouds using filtered normals and voxel growing,“ Proceedings of 3D Processing, Visualization and Transmission Conference, 2010 [0002]
    • B. Drost und S. Ilic, „Local hough transform for 3d primitive detection,“ in 3D Vision (3DV), 2015 International Conference on, pp. 398-406 [0002]
    • Li et al., „Globfit: consistently fitting primitives by discovering global relations,“ in ACM Transactions on Graphics (TOG). ACM, 2011, vol. 30, p. 52 [0002]
    • Wang und Xu, „Shape detection from raw lidar data with subspace modeling,“ IEEE Transactions on Visualization and Computer Graphics, vol. PP, no. 99, pp. 1-1, 2016 [0002]
    • Oehler et al., „Efficient multiresolution plane segmentation of 3d point clouds,“ in International Conference on Intelligent Robotics and Applications. Springer, 2011, pp. 145-156 [0002]
    • Oßwald et al., „From 3d point clouds to climbing stairs: A comparison of plane segmentation approaches for humanoids,“ in Humanoid Robots (Humanoids), 2011 11th IEEE-RAS International Conference on. IEEE, 2011, pp. 93-98 [0002]
    • Holz et al., „Real-time plane segmentation using rgb-d cameras,“ in Robot Soccer World Cup. Springer, 2011, pp. 306-317 [0002]
    • Xiao et al., „Threedimensional point cloud plane segmentation in both structured and unstructured environments,“ Robotics and Autonomous Systems, vol. 61, no. 12, pp. 1641-1652, 2013 [0002]
    • Micusik et al., „Detection and matching of rectilinear structures,“ in Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008, pp. 1-7 [0002]
    • Fond et al., „Généeration d'hypothèeses de façades utilisant des critèeres contextuels et structurels,“ in Reconnaissance des Formes et Intelligence Artificielle, 2016 [0002]
    • Herout und Dubskä, „Real projective plane mapping for detection of orthogonal vanishing points,“ in Proceedings of the British Machine Vision Conference, 2013, BMVA Press [0002]
    • Singhal et al., „Top down approach to detect multiple planes from pair of images,“ in Proceedings of the 2014 Indian Conference on Computer Vision Graphics and Image Processing, New York, NY, USA, 2014, ICVGIP '14, pp. 53:1-53:8, ACM [0002]
    • Micusk et al. „Towards detection of orthogonal planes in monocular images of indoor environments,“ in Robotics and Automation, 2008. ICRA2008. IEEE International Conference on. IEEE, 2008, pp. 999-1004 [0002]
    • Lee et al., „Mav visual slam with plane constraint,“ in Robotics and Automation (ICRA), 2011 IEEE International Conference on, May 2011, pp. 3139-3144 [0002]
    • Trevor et al., „Planar surface slam with 3d and 2d sensors,“ in Robotics and Automation (ICRA), 2012 IEEE International Conference on, IEEE, 2012, pp. 3041-3048 [0002]
    • Kohlhepp et al., „Using orthogonal surface directions for autonomous 3d-exploration of indoor environments,“ in 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2006, pp. 3086-3092 [0002]
    • Pathak et al., „Online three-dimensional slam by registration of large planar surface segments and closed-form pose-graph relaxation,“ Journal of Field Robotics, vol. 27, no. 1, pp. 52-84, 2010 [0002]
    • Harati und Siegwart, „Orthogonal 3d-slam for indoor environments using right angle corners,“ [0002]
    • Nguyen et al., „A lightweight slam algorithm using orthogonal planes for indoor mobile robotics,“ in 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2007, pp. 658-663 [0002]
    • Garcia, „Fitting primitive shapes to point clouds for robotic grasping,“ Master of Science Thesis. School of Computer Science and Communication, Royal Institute of Technology, Stockholm, Sweden, 2009 [0002]
    • Jiang und Xiao, „A linear approach to matching cuboids in rgbd images,“ in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2013, pp. 2171-2178 [0002]
    • Birdal und Ilic, „Point pair features based object detection and pose estimation revisited,“ in 3D Vision (3DV), 2015 International Conference on. IEEE, 2015, pp. 527-535 [0002]
    • Duda und Hart, „Use of the hough transformation to detect lines and curves in pictures,“ Communications of the ACM, vol. 15, no. 1, pp. 11-15, 1972 [0002]
    • Besl und McKay, „Method for registration of 3-d shapes,“ in Robotics-DL tentative. International Society for Optics and Photonics, 1992, pp. 586-606 [0002]
    • Hoaglin et al., Understanding robust and exploratory data analysis, vol. 3, Wiley New York, 1983 [0002]

Claims (11)

  1. Rechnergestütztes Bildverarbeitungsverfahren zum Ermitteln von zueinander orthogonalen Ebenen (Wi, Wj) aus einer orientierten Punktwolke, die eine Anzahl N von mit einem Normalvektor (ni, nj) assoziierten Punkten (pi, pj) enthält, durch a) Auswählen eines Punktes (pi) aus der Punktwolke mit assoziiertem Normalvektor (ni) als ein mit einem Referenznormalvektor (ni) assoziierten Referenzpunkt (pi); b) Bestimmen einer Punktpaar-Relation (F(pi,pj)), die eine Mehrzahl von Punktpaar-Merkmalen enthält, für den Referenzpunkt (pi) mit den weiteren Punkten (pj) der Punktwolke, wobei die Punktpaar-Merkmale sich jeweils auf unterschiedliche geometrische Parameter des Referenzpunktes (pi) und des jeweiligen weiteren Punktes (pj) und/oder des Referenznormalvektors (ni) und des jeweiligen weiteren Normalvektors (nj) beziehen; c) Bestimmen einer durch den Referenzpunkt (pi) und den Referenznormalvektor (ni) definierten Referenzebene (Wi), wenn die Punktpaar-Relation (F(pi,pj)) eine vorgegebene Bedingung erfüllt; und d) Bestimmen einer zu der Referenzebene (Wi) orthogonalen Ebene (Wj) aus denjenigen weiteren Punkten (pj), deren Punktpaar-Relation (F(pi,pj)) ebenfalls die vorgegebene Bedingung erfüllt.
  2. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Punktpaar-Merkmale wenigstens einen der folgenden geometrischen Parameter enthalten: - einen Normalwinkel zwischen dem Referenznormalvektor und dem weiteren Normalvektor; und/oder - einen Referenzverbindungswinkel zwischen dem Referenznormalvektor und einem Verbindungsvektor, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet; und/oder - einen Normalverbindungswinkel zwischen dem jeweiligen weiteren Normalvektor und einem Verbindungsvektor, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet; und/oder - eine Verbindungslänge eines Verbindungsvektors, der den Referenzpunkt mit dem jeweiligen weiteren Punkt verbindet.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn eine Gruppe der Punktpaar-Merkmale innerhalb eines jeweiligen durch einen vorgegebenen Genauigkeitswert und einen Zielwert definierten Bereichs liegen, wobei vorzugsweise der Bereich sich von einem um den Genauigkeitswert verringerten Zielwert bis zu einem um den Genauigkeitswert erhöhten Zielwert erstreckt.
  4. Verfahren nach einem der Ansprüche 2 bis 3, dadurch gekennzeichnet, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Normalwinkel um höchstens einen vorgegebenen Normal-Genauigkeitswert von einem rechten Winkel abweicht und/oder wenn der Referenzverbindungswinkel und/oder der Normalverbindungswinkel kleiner sind als ein um einen vorgegebenen Verbindungs-Genauigkeitswert erhöhter rechter Winkel.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass in Schritt c) die Punktpaar-Relation die Bedingung erfüllt, wenn der Normalwinkel um höchstens einen vorgegebenen Normal-Genauigkeitswert von einem rechten Winkel abweicht und/oder wenn der Referenzverbindungswinkel und/oder der Normalverbindungswinkel größer sind als ein um einen vorgegebenen Verbindungs-Genauigkeitswert erniedrigter rechter Winkel.
  6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass in Schritt c) die Paarpunkt-Relation die Bedingung erfüllt, wenn zusätzlich die Verbindungslänge weniger als eine vorgegebene Maximal-Verbindungslänge beträgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Schritt d) die zu der Referenzebene orthogonale Ebene mittels eines Voting-Verfahrens, insbesondere mittels einer Hough-Transformation, bestimmt wird, wobei vorzugsweise der Referenzpunkt den Ursprung der Hough-Transformation bildet.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Schritt d) wenigstens eine Schnittgerade zwischen der Referenzebene und der wenigstens einen durch den weiteren Punkt und die assoziierte Normale definierten Ebene ermittelt wird, wobei vorzugsweise die wenigstens eine Schnittgerade Hough transformiert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch den Schritt: e) Wiederholen der Schritte b) bis d) für jeden weiteren Punkt der Punktwolke als Referenzpunkt.
  10. Verfahren nach Anspruch 9, gekennzeichnet durch den Schritt: f) Vereinigen ähnlicher orthogonalen Ebenen, die mit unterschiedlichen Referenzpunkten assoziiert sind, vorzugsweise durch ein Clusteranalyse-Verfahren, insbesondere ein agglomeratives Clusteranalyse-Verfahren.
  11. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch den Schritt: g) Optimieren der zuvor ermittelten orthogonalen Ebenen ohne Beeinträchtigung der Orthogonalität.
DE102017201169.6A 2017-01-25 2017-01-25 Rechnergestütztes Bildverarbeitungsverfahren Withdrawn DE102017201169A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017201169.6A DE102017201169A1 (de) 2017-01-25 2017-01-25 Rechnergestütztes Bildverarbeitungsverfahren
PCT/EP2018/050665 WO2018137935A1 (de) 2017-01-25 2018-01-11 Rechnergestütztes bildverarbeitungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017201169.6A DE102017201169A1 (de) 2017-01-25 2017-01-25 Rechnergestütztes Bildverarbeitungsverfahren

Publications (1)

Publication Number Publication Date
DE102017201169A1 true DE102017201169A1 (de) 2018-07-26

Family

ID=61094418

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017201169.6A Withdrawn DE102017201169A1 (de) 2017-01-25 2017-01-25 Rechnergestütztes Bildverarbeitungsverfahren

Country Status (2)

Country Link
DE (1) DE102017201169A1 (de)
WO (1) WO2018137935A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627548A (zh) * 2021-08-17 2021-11-09 熵智科技(深圳)有限公司 一种平面工件模板匹配方法、装置、介质及计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978504A (en) 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
US7843448B2 (en) 2005-11-21 2010-11-30 Leica Geosystems Ag Identification of occluded edge regions from 3D point data
US20110304619A1 (en) 2010-06-10 2011-12-15 Autodesk, Inc. Primitive quadric surface extraction from unorganized point cloud data
US8908913B2 (en) 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
US9208609B2 (en) 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978504A (en) 1997-02-19 1999-11-02 Carnegie Mellon University Fast planar segmentation of range data for mobile robots
US7843448B2 (en) 2005-11-21 2010-11-30 Leica Geosystems Ag Identification of occluded edge regions from 3D point data
US20110304619A1 (en) 2010-06-10 2011-12-15 Autodesk, Inc. Primitive quadric surface extraction from unorganized point cloud data
US8908913B2 (en) 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
US9208609B2 (en) 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data

Non-Patent Citations (28)

* Cited by examiner, † Cited by third party
Title
B. Drost und S. Ilic, „Local hough transform for 3d primitive detection," in 3D Vision (3DV), 2015 International Conference on, pp. 398-406
Besl und McKay, „Method for registration of 3-d shapes," in Robotics-DL tentative. International Society for Optics and Photonics, 1992, pp. 586-606
Birdal und Ilic, „Point pair features based object detection and pose estimation revisited," in 3D Vision (3DV), 2015 International Conference on. IEEE, 2015, pp. 527-535
Borrmann et al., „The 3d hough transform for plane detection in point clouds: A review and a new accumulator design," 3D Research, vol. 2, no. 2, pp. 1-13, 2011
Deschaud und Goulette, „A fast and accurate plane detection algorithm for large noisy point clouds using filtered normals and voxel growing," Proceedings of 3D Processing, Visualization and Transmission Conference, 2010
Duda und Hart, „Use of the hough transformation to detect lines and curves in pictures," Communications of the ACM, vol. 15, no. 1, pp. 11-15, 1972
Fond et al., „Généeration d'hypothèeses de façades utilisant des critèeres contextuels et structurels," in Reconnaissance des Formes et Intelligence Artificielle, 2016
Garcia, „Fitting primitive shapes to point clouds for robotic grasping," Master of Science Thesis. School of Computer Science and Communication, Royal Institute of Technology, Stockholm, Sweden, 2009
Harati und Siegwart, „Orthogonal 3d-slam for indoor environments using right angle corners,"
Herout und Dubskä, „Real projective plane mapping for detection of orthogonal vanishing points," in Proceedings of the British Machine Vision Conference, 2013, BMVA Press
Hoaglin et al., Understanding robust and exploratory data analysis, vol. 3, Wiley New York, 1983
Holz et al., „Real-time plane segmentation using rgb-d cameras," in Robot Soccer World Cup. Springer, 2011, pp. 306-317
Jiang und Xiao, „A linear approach to matching cuboids in rgbd images," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2013, pp. 2171-2178
Kohlhepp et al., „Using orthogonal surface directions for autonomous 3d-exploration of indoor environments," in 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2006, pp. 3086-3092
Lee et al., „Mav visual slam with plane constraint," in Robotics and Automation (ICRA), 2011 IEEE International Conference on, May 2011, pp. 3139-3144
Li et al., „Globfit: consistently fitting primitives by discovering global relations," in ACM Transactions on Graphics (TOG). ACM, 2011, vol. 30, p. 52
Micusik et al., „Detection and matching of rectilinear structures," in Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008, pp. 1-7
Micusk et al. „Towards detection of orthogonal planes in monocular images of indoor environments," in Robotics and Automation, 2008. ICRA2008. IEEE International Conference on. IEEE, 2008, pp. 999-1004
Nguyen et al., „A lightweight slam algorithm using orthogonal planes for indoor mobile robotics," in 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2007, pp. 658-663
Oehler et al., „Efficient multiresolution plane segmentation of 3d point clouds," in International Conference on Intelligent Robotics and Applications. Springer, 2011, pp. 145-156
Oßwald et al., „From 3d point clouds to climbing stairs: A comparison of plane segmentation approaches for humanoids," in Humanoid Robots (Humanoids), 2011 11th IEEE-RAS International Conference on. IEEE, 2011, pp. 93-98
Pathak et al., „Online three-dimensional slam by registration of large planar surface segments and closed-form pose-graph relaxation," Journal of Field Robotics, vol. 27, no. 1, pp. 52-84, 2010
Singhal et al., „Top down approach to detect multiple planes from pair of images," in Proceedings of the 2014 Indian Conference on Computer Vision Graphics and Image Processing, New York, NY, USA, 2014, ICVGIP '14, pp. 53:1-53:8, ACM
Trevor et al., „Planar surface slam with 3d and 2d sensors," in Robotics and Automation (ICRA), 2012 IEEE International Conference on, IEEE, 2012, pp. 3041-3048
Wang und Xu, „Shape detection from raw lidar data with subspace modeling," IEEE Transactions on Visualization and Computer Graphics, vol. PP, no. 99, pp. 1-1, 2016
WÖHLER, C.: 3D Computer Vision – Efficient Methods and Applications. Springer, 2009. Seiten 113-114
Xiao et al., „Threedimensional point cloud plane segmentation in both structured and unstructured environments," Robotics and Autonomous Systems, vol. 61, no. 12, pp. 1641-1652, 2013
Yang und Förstner, „Plane detection in point cloud data," 2010

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627548A (zh) * 2021-08-17 2021-11-09 熵智科技(深圳)有限公司 一种平面工件模板匹配方法、装置、介质及计算机设备

Also Published As

Publication number Publication date
WO2018137935A1 (de) 2018-08-02

Similar Documents

Publication Publication Date Title
DE102019104310B4 (de) System und Verfahren zur simultanen Betrachtung von Kanten und normalen bei Bildmerkmalen durch ein Sichtsystem
DE112018000332T5 (de) Dichtes visuelles slam mit probabilistic-surfel-map
DE69811050T2 (de) Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen.
DE112012005350B4 (de) Verfahren zum Schätzen der Stellung eines Objekts
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP2927844A1 (de) Positions- und lagebestimmung von 3d objekten
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE112023000536T5 (de) Semantisches SLAM-Framework zur verbesserten Objektposenschätzung
DE112017006018T5 (de) Mobile robotische vorrichtung, die unstrukturierte daten von innenumgebungen verarbeitet, um räume in einer einrichtung zu segmentieren, um die bewegung der vorrichtung durch die einrichtung zu verbessern
DE112006003380T5 (de) Verfahren und Vorrichtung für die Positionsabgleichung von dreidimensionalen Formdaten
EP1205765B1 (de) Verfahren zur Leitungserkennung für tieffliegende Fluggeräte
EP4055459B1 (de) Computer-implementiertes verfahren zum erstellen einer umgebungskarte für das betreiben eines mobilen agenten
Han et al. DiLO: Direct light detection and ranging odometry based on spherical range images for autonomous driving
DE102016116572A1 (de) Ausrichtung von Punktwolken zur Modellierung von Innenräumen
DE102020214300A1 (de) Vorrichtung und verfahren zum trainieren eines maschinellen lernmodells zum erkennen einer objekttopologie eines objekts aus einem bild des objekts
DE102020108898A1 (de) Verfahren zum betreiben einer fahrzeugkameravorrichtung, fahrzeugkameravorrichtung und fahrzeug
DE102017201169A1 (de) Rechnergestütztes Bildverarbeitungsverfahren
DE102021211741A1 (de) Formvervollständigung und Objektlageabschätzung für maschinelles Sehen
DE102021109036A1 (de) Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte
Bartelsen et al. Orientation and dense reconstruction from unordered wide baseline image sets
EP3465608B1 (de) Verfahren und vorrichtung zum bestimmen eines übergangs zwischen zwei anzeigebildern, und fahrzeug
DE102018009345A1 (de) Verfahren und vorrichtung zum trainieren eines neuronalen netzwerks zum spezifizieren von landmarken auf 2d- und 3d-bildern
Carvalho et al. Technical Report: Co-learning of geometry and semantics for online 3D mapping
DE102018130154B4 (de) Komprimierung von semantischen Informationen zur Aufgaben- und Bewegungsplanung

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee