[go: up one dir, main page]

DE60312303T2 - Positionsbestimmungsverfahren - Google Patents

Positionsbestimmungsverfahren Download PDF

Info

Publication number
DE60312303T2
DE60312303T2 DE60312303T DE60312303T DE60312303T2 DE 60312303 T2 DE60312303 T2 DE 60312303T2 DE 60312303 T DE60312303 T DE 60312303T DE 60312303 T DE60312303 T DE 60312303T DE 60312303 T2 DE60312303 T2 DE 60312303T2
Authority
DE
Germany
Prior art keywords
movement
distance
wheel
robot
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60312303T
Other languages
English (en)
Other versions
DE60312303D1 (de
Inventor
Henrik Christensen
Guido Zunino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electrolux AB
Original Assignee
Electrolux AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electrolux AB filed Critical Electrolux AB
Application granted granted Critical
Publication of DE60312303D1 publication Critical patent/DE60312303D1/de
Publication of DE60312303T2 publication Critical patent/DE60312303T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Apparatuses And Processes For Manufacturing Resistors (AREA)
  • Die Bonding (AREA)

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren und die Anwendung eines Verfahrens zur Bestimmung der Position einer automatischen Vorrichtung auf Rädern wie z.B. eines Roboterstaubsaugers. Mindestens ein Rad an der Vorrichtung umfasst mindestens einen Radsensor, der die Drehung des Rades erkennt. Die Vorrichtung umfasst auch mindestens einen Raumsensor, der Gegenstände in dem Raum erfasst, der die Vorrichtung umgibt.
  • HINTERGRUND
  • Automatische Vorrichtungen auf Rädern, so genannte Roboter, sind Produkte, deren Wichtigkeit und Bedeutung in den letzten Jahren zugenommen haben. Früher wurden sie in der Industrie professionell vor allem für Produktionsaufgaben verwendet. Einige dieser Roboter waren mit Merkmalen ausgestattet, die es ihnen ermöglichten, zu navigieren, sich in der Umgebung zu bewegen und Gegenstände im umgebenden Bereich zu erfassen. In den letzten Jahren drangen Verbraucheraspekte in den Roboterbereich vor, wobei Merkmale, wie z.B. solche für die Navigation, von Interesse für die Verbraucher sind.
  • Eine Methode, Möglichkeiten zur Navigation zu schaffen, besteht darin, Magnetstreifen im Boden anzubringen, wobei der Roboter diesen Streifen folgt. Die Verwendung von Streifen ermöglicht es dem Benutzer, die Navigationsroute für den Roboter vorherzubestimmen. Der Bereich um die Route kann dabei für Menschen markiert werden. Ein Roboter, der Magnetstreifen folgt, kann auch die Fähigkeit besitzen, zu erkennen, ob er mit etwas kollidiert, wie z.B. einem Hindernis oder dem Gegenstand, mit dem er arbeiten soll. Um solche Kollisionen zu fühlen, könnten Sensoren, die physischen Kontakt wahrnehmen, verwendet werden.
  • Anstelle von Magnetstreifen kann der Roboter ein Navigationssystem verwenden, das auf Erkennungssensoren wie z.B. IR (Infrarot)- oder Ultraschallsensoren beruht. Diese Sensoren können Gegenstände in ihrer Umgebung durch Senden und Empfangen reflektierter Signale erkennen. Durch die Verwendung dieser Arten von Sensoren können die Richtung und der Abstand zu den Sensoren geschätzt werden. Um dies zu bewerkstelligen, müssen die Sensoren am Roboter montiert und auf geeignete Weise gesteuert werden. Ein solches Sensorsystem ist im europäischen Patent EP0835459 offenbart.
  • Diese Sensorsysteme sind trotz ihrer Eigenschaften bezüglich des Erkennens von Gegenständen nicht ebenso nützlich beim Navigieren des Roboters. Um dies zu erreichen, wird der Roboter oft mit Radsensoren ausgestattet, die die Drehung an jedem Rad erkennen. Diese Sensoren fühlen die Drehung des Rades und werden regelmäßig kalibriert, um die Entfernung zwischen den Rädern und die Radabmessungen zu berücksichtigen. Einer Wand zu folgen, ist ein Verfahren, bei dem diese Art von Radsensorsystem verwendet wird. Bei diesem Verfahren beginnt der Roboter seinen Betrieb, indem er den Wänden entlang dem Raum folgt. Wenn dies abgeschlossen ist, schätzt der Roboter die Größe des Raumes mindestens auf der Basis der Informationen seitens der Radsensoren und beginnt im Raum zu navigieren, indem er mindestens die Informationen seitens der Radsensoren verwendet.
  • Ein Problem bei diesem Folgen der Wand mit Hilfe von Radsensoren besteht darin, dass das Rad oft auf dem Boden rutscht. Dieses Rutschen tritt oft auf, wenn die Räder abgenutzt sind und/oder die Reibung gegen den Boden schlecht ist. Eine andere typische Ursache sind auf dem Boden liegende Kabel. Dies bedeutet, dass er sehr rasch Probleme beim Navigieren bekommt, wenn der Roboter das Wandfolgeverfahren verwendet. Um dieses Problem zu lösen, wurde ein SLAM-Verfahren entwickelt. SLAM berechnet die Roboterposition auf der Basis des Positionsverhältnisses zwischen dem Roboter und einem Gegenstand. Um dies zu bewerkstelligen, kann ein Sensorsystem mit Ultraschall oder IR verwendet werden. SLAM erzeugt eine Karte des Raumes, in dem der Roboter navigiert. Durch die Verwendung eines spezifischen Algorithmus wird die Position des Roboters geschätzt.
  • Wenn SLAM zusammen mit einem Sensorsystem verwendet wird, das nur Gegenstände in seiner Umgebung erkennt, bekommt das Verfahren Schwierigkeiten bei seinen Schätzungen. Wenn keine zu erkennenden Gegenstände in der Nähe des Roboters sind, wird dies SLAM dazu veranlassen, zu versagen oder mit höherer Ungenauigkeit zu arbeiten, da SLAM zu wenige Gegenstände hat, mit dem es arbeiten kann. Eine Möglichkeit zur Lösung des Problems besteht darin, die Fähigkeit des Sensorsystems zu verbessern. Alle solchen Verbesserungen kosten jedoch Geld, was zu teureren Produkten für den Verbraucher führt.
  • Zweck der vorliegenden Erfindung ist es daher, ein Navigationsverfahren für einen regulären Roboter zu schaffen, wobei dieses Verfahren relativ zuverlässig und leicht anzuwenden sein sollte, ohne dass teure Bestandteile notwendig sind. Dieses Verfahren ist dazu bestimmt, in Robotern verwendet zu werden, wie z.B. in Roboterstaubsaugern, um ihre Betriebsleistungen zu verbessern.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft daher ein Verfahren nach Anspruch 1 und die Anwendung eines Verfahrens zur Bestimmung der Position einer automatischen Vorrichtung auf Rädern wie z.B. eines Roboterstaubsaugers nach Anspruch 20. Mindestes ein Rad an der Vorrichtung umfasst mindestens einen Radsensor, der die Drehung des Rades erkennt. Die Vorrichtung umfasst auch mindestens einen Raumsensor, der Gegenstände in dem Raum erfasst, der die Vorrichtung umgibt. Die Positionsbestimmung wird erzielt, indem mindestens ein Radsensor verwendet wird und die wesentliche horizontale Ausdehnungsrichtung von im Wesentlichen vertikalen Ebenen an den Gegenständen geschätzt wird, wobei die Ebenen durch die Vorrichtung definiert werden und wobei die wesentliche tatsächliche Position der Vorrichtung bestimmt wird, indem mindestens eine vorbestimmte Annahme über die Beziehung zwischen der Richtung der Ausdehnung verschiedener Ebenen verwendet wird.
  • Das Verfahren verwendet Radsensoren zur Positionsbestimmung, und zusammen damit verwendet sie vorbestimmte Annahmen über Eigenschaften von umgebenden Ebenen, die durch die Vorrichtung definiert werden, wodurch die Informationen und die benötigte Ausrüstung billiger sind.
  • ZEICHNUNGEN
  • 1 zeigt eine perspektivische Ansicht eines Roboters, bei dem das Verfahren der vorliegenden Erfindung angewendet wird.
  • 2 zeigt eine Seitenansicht des Roboters gemäß 1.
  • 3 zeigt eine Vorderansicht des Roboters gemäß 1.
  • 4 zeigt eine Grafik darüber, wie das Sensorsystem des Roboters gemäß 1 seine Umgebung erkennt.
  • 5 zeigt ein vereinfachtes Flussdiagramm des Verfahrens gemäß der vorliegenden Erfindung.
  • 6 zeigt eine vereinfachte Ansicht darüber, wie das Verfahren gemäß der vorliegenden Erfindung seine aktuelle Position schätzt.
  • 7 zeigt, wie die Schätzung gemäß 6 teilweise durchgeführt wird.
  • EINE VERANSCHAULICHENDE AUSFÜHRUNGSFORM
  • 13 zeigen ein veranschaulichendes Beispiel eines Roboters, mit dem zusammen das Verfahren gemäß der vorliegenden Erfindung verwendet werden kann. Die Merkmale und das Navigationssystem des Roboters werden einleitend beschrieben. Anschließend wird eine veranschaulichende Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung beschrieben.
  • 13 zeigen einen automatischen Staubsaugerroboter. Die Form des Roboters ist kreisförmig, und er wird von zwei Antriebsrädern 1 gemeinsam mit einem vorderen Stützrad (nicht dargestellt) getragen. Die Antriebsräder sind so ausgebildet, dass sie die bestmögliche Reibung gegen den Boden erzielen. Die beiden Antriebsräder werden so gesteuert, dass sie den Roboter in jeder Richtung über den Boden bewegen, auf dem er betrieben wird. Jedes Antriebsrad ist daher eventuell über ein Getriebe mit einem Elektromotor verbunden, wobei der Motor durch eine Steuereinheit gesteuert wird, wodurch die Einheit den Roboter in Bewegung setzt. Der Roboter umfasst auch eine Bürstenwalze (nicht dargestellt) als Teil der Bodenreinigungseinrichtung. Diese Reinigungseinrichtung wird nicht weiter beschrieben, da ihre Funktion für den Umfang der vorliegenden Erfindung nicht wichtig ist.
  • Der Roboter weist Radsensoren (nicht dargestellt) auf, die die Drehung des Rades bei jedem der beiden Antriebsräder 1 erkennen. Die Abmessung jedes Antriebsrads wird in Verbindung mit der Steuereinheit gespeichert. Darüber hinaus wird ein Kalibrationsverfahren verwendet, das in der schwedischen Patent-Offenlegungsschrift 0100925-7 eingehender beschrieben wird. Das Verfahren berechnet die Navigationsroute des Roboters, wobei die Abstandsveränderungen zwischen den beiden Antriebsrädern berücksichtigt werden. Es wird angenommen, dass diese Veränderung davon abhängt, ob und wie viel sich der Roboter dreht. Durch die Unterteilung der Bewegung des Roboters in verschiedene Einstellungen in Abhängigkeit von verschiedenen Werten der Radabstände könnte jede Einstellung auf geeignete Weise verwendet werden, um die Bewegung des Roboters in Bezug auf den Boden zu schätzen.
  • Damit der Roboter Gegenstände in seiner Umgebung erkennt, ist er mit einem Sensorsystem ausgestattet. Dadurch kann der Roboter die Gegenstände erkennen, Schätzungsberechnungen ihrer Position in Bezug auf den Roboter durchführen und anschließend die Bewegung des Roboters wie gewünscht steuern. Eine gesteuerte Bewegung könnte darin bestehen, den Roboter in eine langsamere Bewegung zu versetzen, wenn er sich dem Gegenstand nähert. Eine andere Option besteht darin, eine effektivere Navigationsroute zu ermöglichen. Eine solche Option ist in der schwedischen Patent-Offenlegungsschrift 0100924-0 offenbart. Beim Navigieren unterteilt der Roboter die Bodenfläche in Zellen, wobei jede Zelle mit einem Wert verbunden ist, der neu bewertet wird, wenn sich der Roboter bewegt. Die Navigationsroute wird in Abhängigkeit davon beschlossen, welchen Wert die Zellen in der Nähe des Roboters haben.
  • Die sichtbaren äußeren Teile des Sensorsystems des Roboters sind in 13 dargestellt. Das System verwendet Ultraschallsignale, um Hindernisse und Gegenstände in seiner Umgebung zu erkennen. Ein Sender 2 erstreckt sich entlang der Vorderseite des Roboters. Der Sender sendet Ultraschallsignale, die sich sowohl horizontal als auch vertikal ausbreiten. Mikrofone 3a3e und 4a4d sind entlang der Vorderseite angeordnet und empfangen die gesendeten Signale, die durch einen Gegenstand oder ein Hindernis reflektiert wurden. In 4 wird gezeigt, wie das System einen Punkt an dem Gegenstand erkennt. In 4 entspricht „mik 1–5" zum Beispiel den Mikrofonen 3a3e.
  • Die Volllinien in 4 beziehen sich auf die reflektierten Signale, die von den Mikrofonen 3a3e erkannt wurden. Das System erkennt jeweils einen Punkt. Wenn er die Ausrichtung des Senders 2 und der Mikrofone und die Eigenschaften des Ultraschallsignals kennt, kann der Roboter den Abstand und die Richtung zu einem erkannten Punkt auf einem Gegenstand schätzen. In der schwedischen Patentveröffentlichung SE502834 wird ein solches Sensorsystem genauer beschrieben. In 1 dieser Anmeldung wird ein freier beweglicher und hängender Frontteil 6 gezeigt, den der Roboter verwendet, um eine direkte Kollision mit einem Hindernis oder Gegenstand zu erkennen. Der Frontteil bewegt sich, wenn er in Kontakt mit einem Gegenstand kommt, und wirkt auf Mikroschalter oder andere Bewegungsdetektoren hinter dem Frontteil 6 ein. Ein Oberteil 7, unter dem ein Staubsammelbehälter montiert ist, ist ebenfalls in der Figur dargestellt.
  • Um eine effektive Navigation zu ermöglichen, wendet der Roboter das Wandfolgeverhalten an, das weiter oben in diesem Dokument beschrieben wurde. Bei der Anwendung dieses Verhaltens beginnt der Roboter zuerst damit, eine Wand zu suchen, siehe 6. Danach folgt der Roboter der Wand, die den Raum umgibt, und zwar den gesamten Weg rundum, bis er wieder seine ursprüngliche Wandfolgeposition erreicht hat. Die Radsensoren erkennen die Bewegung und berechnen die Position des Roboters. Auf der Basis der Wandverfolgung erstellt der Roboter eine Karte des Raumes. Das Sensorsystem wird verwendet, um zu kontrollieren, dass einer Wand gefolgt wird. In 6 werden die Positionen des Roboters, die durch die Radsensoren an dem Roboter geschätzt werden, als punktierte Linie 8 dargestellt. Die tatsächliche Position des Roboters wird als Volllinie 9 dargestellt. Der äußere Rahmen 10 der Figur entspricht den umgebenden Wänden, und die beiden schwarzen Flächen 11, 12, entsprechen Hindernissen in der Raumfläche. Da das Sensorsystem die Wände und Hindernisse erkennt, ist es möglich, ein Arbeits-Wandfolgeverhalten zu erzielen.
  • Das Verfahren gemäß der vorliegenden Erfindung soll nun eingehender beschrieben werden. Das in 6 dargestellte Wandfolgeverhalten stellt den Rahmen des Verfahrens gemäß der vorliegenden Erfindung dar. Ein Problem bei dem Wandfolgeverhalten besteht darin, dass die Position des Roboters auf der Basis der Radsensoren geschätzt wird. Da die Bewegung der Räder nicht definitiv mit der Bewegung des Roboters in Bezug auf den Boden in Zusammenhang steht, wird ein Fehler in der Positionsschätzung erzeugt. Diese ist als punktierte Linie 8 in 6 dargestellt. Die tatsächliche Bewegung, die als Volllinie 9 dargestellt wird, wird erzeugt, da der Roboter in Wirklichkeit der Wand folgt. Jedes Mal, wenn ein Antriebsrad 1 auf dem Boden rutscht oder auf andere Weise den direkten Kontakt mit dem Boden verliert, wird ein Fehler zur geschätzten Position addiert, was dazu führt, das der Gesamtfehler der Schätzung steigt, wenn die Roboterbewegung fortgesetzt wird.
  • Um dem Roboter eine verbesserte Positionsschätzung zu ermöglichen, wendet das erfindungsgemäße Verfahren das Wandfolgeverhalten an. Auch nimmt das Verfahren gemäß der vorliegenden Erfindung eine Beziehung der Richtung der horizontalen Ausdehnung zwischen den Wänden oder zwischen Wänden und anderen größeren Gegenständen in der Fläche (Raum) an, in der der Roboter betrieben wird. Die Annahme basiert auf der Tatsache, dass Wände normalerweise senkrecht zueinander sind. Andere Winkel, wie z.B. 30° (DEG), 45° oder 60°, sind in modernen Räumen üblich und können ebenfalls in die Annahme aufgenommen werden. In dieser veranschaulichenden Ausführungsform sind senkrechte und parallele Wände von der größten Bedeutung, doch die vorliegende Erfindung soll auch so gelesen werden, dass andere Wandwinkelverhältnisse in Betracht gezogen werden. Was größere Gegenstände betrifft, so lautet die Annahme, dass diese normalerweise senkrecht oder parallel zu einer Wand angeordnet sind. Sie können auch in Beziehungen von 30°, 45° oder 60° zu einer Wand angeordnet sein.
  • Unter Berücksichtigung dieser Annahmen ist die Position des Roboters, die aufgrund von Informationen seitens der Radsensoren die geschätzte Linie 8 darstellt, in die korrekte Position der Linie 9 zu korrigieren. Das Verfahren vergleicht die geschätzte Richtung, wenn der Roboter einer ersten Wand oder einem größeren Gegenstand folgt, mit der geschätzten Richtung, wenn der Roboter einer zweiten Wand folgt. Die Fehler (Rutschen usw.) führen dazu, dass diese geschätzten Richtungen mit mehr oder weniger als 90°, 180°, 270°, 360° (für die senkrechten oder parallelen Gegenstände oder Wände) voneinander abweichen. Das Wissen darum, dass ein Unterschied zwischen dem geschätzten Wert und dem Annahmewert existiert, vermittelt dem Roboter eine Information, die es ihm ermöglicht, die geschätzte Position zu korrigieren. Bezugnehmend auf 6 wird die als punktierte Linie 8 dargestellte geschätzte Route in die als Volllinie 9 dargestellte tatsächliche Route korrigiert. Später kann eine neue Korrektur durchgeführt werden, wenn sich herausstellt, dass die geschätzte Position neuerlich abweicht. Als Alternative wird regelmäßig eine Wandverfolgung mit Hilfe des Verfahrens der bevorzugten Ausführungsform durchgeführt.
  • Um zu vermeiden, dass der Roboter Wände und größere Gegenstände mit kleineren Gegenständen verwechselt, die normalerweise freier in der Fläche (Raum) verteilt sind, werden bestimmte Schwellenwerte zum Verfahren hinzugefügt. Darüber hinaus werden gekrümmte Wände vom Verfahren ausgeschlossen.
  • Im Folgenden wird ein Algorithmus gezeigt, der dem Verfahren gemäß der vorliegenden Erfindung entspricht, siehe auch das Flussdiagramm in 5. Der Algorithmus umfasst die folgenden Schritte:
    Figure 00110001
  • FollowingStraightWall bezieht sich auf das oben erwähnte Wandfolgeverhalten. Durch das Sensorsystem wird eine Wandverfolgung durchgeführt, wobei der Sender 2 und die Mikrofone 3a3e, 4a4d die Tatsache erkennen und sicherstellen, dass der Roboter einer Wand oder jeder anderen Ebene folgen kann, die vom Sensorsystem erkannt wird. Eine erkannte Ebene könnte sich auf eine feste Möbelwandseite oder eine virtuelle Wandseite beziehen, die vom Sensorsystem definiert und geschaffen wird, wobei sich die virtuelle Wand zum Beispiel zwischen den Füßen eines großen Sofas erstreckt. Dieses erfindungsgemäße Verfahren soll nicht darauf beschränkt werden, welche Wände der Roboter sehen und definieren kann, sondern auf die Tatsache, dass der Roboter ein Wandfolgeverfahren startet, wobei er jeglicher Wand oder Ebene folgt. Auch wenn das Verfahren primär zum Verfolgen fester Wände welcher Art auch immer bestimmt ist, was bedeutet, dass der Roboter nicht physisch „durch" die Wand gehen kann, wird von nun an jede verfolgte Wand oder Möbelseite als eine vom Roboter definierte Ebene definiert werden, gleich, ob es sich um eine feste Wand oder eine virtuelle Wand handelt oder nicht. Da sich der Roboter parallel zu der Ebene bewegt, erkennt er kontinuierlich Punkte an der Ebene oder nimmt sie bei virtuellen Wänden an, und wenn der Abstand im Wesentlichen konstant bleibt, wird FollowingStraightWall gesetzt. Der Abstand muss auch innerhalb eines bestimmten Schwellenwerts bleiben, zum Beispiel 5 Zentimeter. Der Schwellenwert wird den Roboter veranlassen, zu erkennen, ob eine Wand beendet ist. Bei virtuellen Wänden geht dies weiter, die Abstandserkennung ist nicht real, und daher wird die Abstandskontrolle auf andere Weise funktionieren, die hier nicht beschrieben ist. Der Gedanke bei diesem Abstandskonzept ist es, zu prüfen, ob einer festen Wand ordnungsgemäß gefolgt wird.
  • Wenn das Sensorsystem ausgehend von den Radsensoren erkennt, dass die Bewegungsrichtung des Roboters abweicht, nachdem FollowingStraightWall gesetzt wurde, muss diese Abweichung innerhalb eines Schwellenwerts von zum Beispiel 3° (DEG) gehalten werden. Dieser Wert wird festgelegt, um zu erkennen, ob eine Ebene geendet hat oder ob die Wandverfolgung begonnen hat zu oszillieren. Der Schwellenwinkel bezieht sich auf den Unterschied der Bewegungsrichtung bei zwei verschiedenen Bewegungen nacheinander. Darüber hinaus wird ein zweiter Schwellenwert von zum Beispiel 5° (DEG) festgelegt, dieser bezieht sich auf den Unterschied der Bewegungsrichtung zwischen der Richtung, die zum Zeitpunkt von FollowingStraightWall registriert wurde, und der Richtung, die im letzten Moment registriert wurde, wenn eine Ebene endet oder der Roboter aufhört, einer Wand zu folgen, d.h. bei endWallEncountered. Dieser zweite Schwellenwert wird festgelegt, um zu erkennen, ob die verfolgte Ebene gerade oder gekrümmt war. Auch hier wird einer virtuellen Wand normalerweise ohne Winkelabweichungen gefolgt, was bedeutet, dass eine solche Kontrolle bei virtuellen Wänden anders funktioniert.
  • Wenn einer dieser Schwellenwerte überschritten wird, wird endWallEncountered gesetzt. Danach wird die Bewegungsdistanz zwischen FollowingStraightWall und endWallEncountered registriert. Diese Distanz entspricht der Länge l der Ebene, die der Wand 10 oder dem größeren Gegenstand 11, 12 entspricht, an dem sich der Roboter entlangbewegt hat. Wenn l größer als oder gleich minLength ist, die zum Beispiel auf 80 Zentimeter festgesetzt ist, wird die wesentliche Ausdehnungsrichtung ε der definierten verfolgten Ebene und die Ausdehnungslänge ρ derselben Ebene mit Hilfe einer Hugh-Transformation (hier nicht dargestellt oder beschrieben) berechnet und gespeichert. Beide Werte werden auf der Basis der Informationen berechnet, die von den Radsensoren registriert wurden. Was virtuelle Wände betrifft, so wird endWallEncountered auf der Basis anderer Kontrollaspekte gesetzt, wie dies oben erwähnt wurde. Wie dies gemacht wird, wird in dieser Anmeldung nicht weiter beschrieben. Das Wichtige ist, dass endWallEncountered auch für virtuelle Wände gesetzt wird, wenn die Verfolgung dieser Wände bestimmte Anforderungen erfüllt, und dass die Distanzanforderungen, die nach endWallEncountered kontrolliert werden, auch bei den virtuellen Wänden beurteilt werden.
  • Wenn der Roboter feststellt, dass die Ebenenwerte die ersten sind, die nach einem bestimmten Moment gespeichert werden, wird darüber hinaus gemäß dem Verfahren ε als RefAngle gesetzt. Damit ist ein Moment gemeint, in dem der Roboter zu arbeiten beginnt oder so eingestellt wird, dass er ein neues Wandfolgeverfahren durchführt. Andererseits wird, wenn die Ebenenwerte nicht die ersten sind, die nach diesem Moment gespeichert werden, der Winkel ε mit RefAngle verglichen. Während dieses Vergleichs wird die Differenz zu den oben erwähnten Annahmewinkeln 90°, 180°, 270°, 360° kompensiert. Dies bedeutet, dass 90° abgezogen werden, wenn der Unterschied 93° beträgt, was ein Resultat von +/–3° ergibt, was als Rdiff definiert wird. Wenn sich während dieses Vergleichs herausstellt, dass Rdiff einen Wert aufweist, der nicht null ist, muss dieser ebenfalls innerhalb eines Schwellenwerts angleTh bleiben.
  • Der Schwellenwert angleTh ist nicht definitiv, sondern wird kontinuierlich neu berechnet, und zwar auf der Basis der Unsicherheit, die während früherer Anpassungen registriert wurde, die durch das Verfahren gemäß der Erfindung vorgenommen wurden. Sein Höchstwert ist 25°, falls die Annahme lautet, dass die Winkelbeziehungen zwischen zwei definierten Ebenen nur 90°, 180°, 270° oder 360° lauten. Die kompensierte Rdiff kann definiert werden als: Rdiff = min[|ε – RefAngle|, |ε – (RefAngle + 90°)|, |ε – (RefAngle + 180°)|, |ε – (RefAngle + 270°)|]
  • Falls andere Annahmewinkel erlaubt sind (zum Beispiel 30°, 45°, 60°), sollte angleTh niedriger sein, damit das Verfahren zufriedenstellend arbeitet. Rdiff wird auf diese Weise auch unter Zugrundelegung dieser Annahmewinkel kompensiert.
  • Der kompensierte Rdiff wird schließlich verwendet, um die Position anzupassen, die durch die Radsensoren des Roboters geschätzt wurde. Nun wird auf 7 Bezug genommen, wobei die neue Position als Anpassung des Winkels berechnet wird, der durch die Differenz der geschätzten und tatsächlichen Winkelbeziehung zwischen zwei definierten Ebenen verursacht wird. Der geschätzte Winkel bezieht sich auf die Ausdehnungsrichtung der definierten Ebene, an der sich der Roboter zwischen FollowingStraightWall und endWallEncountered bewegt hat. In 7 bezieht sich die Volllinie 13 auf die tatsächliche Ausdehnungsrichtung der definierten Ebene wie z.B. der Wand oder Möbelseite. Die punktierte Linie 14 bezieht sich auf die geschätzte Ausdehnungsrichtung dieser Ebene, die auf Informationen seitens der Radsensoren geschätzt wurde. Die dünnere Volllinie 15 schließlich bezieht sich auf die Korrektur der geschätzten Richtung, wobei „K" die Korrektur ist und Rdiff entspricht, wobei die Richtung von Rdiff berücksichtigt wird. Die angepasste Richtung kann dann als Referenz bei dem Algorithmus des Verfahrens verwendet werden und mit der nächsten geschätzten Richtung der Ebene verglichen werden, und zwar unter der Annahme, dass diese in einer senkrechten oder parallelen Beziehung zueinander stehen sollten.
  • Die Erfindung ist nicht durch die Tatsache beschränkt, dass der Roboter ein Raumsensorsystem haben muss, das IR- oder Ultraschallsignale verwendet, um ein Wandfolgeverhalten auszuführen. Jede Art von Lösung, wie z.B. ein an der Wand rollendes Rad oder jede andere Lösung, die für den Fachmann tatsächlich naheliegend ist, kann verwendet werden. Die einzige Anforderung ist, dass jegliche gewählte Lösung ein Wandfolgeverhalten ausführen und erkennen kann, wobei Wände jeglicher Ebene entsprechen, die von dem Roboter definiert werden.

Claims (20)

  1. Verfahren zur Bestimmung der Position einer automatischen Vorrichtung auf Rädern (1), wobei mindestes ein Rad mindestens einen Radsensor umfasst, der die Drehung des Rades (1) erkennt, wobei die Vorrichtung auch mindestens einen Raumsensor (2, 3a3e, 4a4d) umfasst, der Gegenstände in dem Raum erfasst, der die Vorrichtung umgibt, dadurch gekennzeichnet, dass die Bewegungsrichtung, die Bewegungsgeschwindigkeit und die geschätzte Position der Vorrichtung geschätzt werden, wobei mindestens Informationen von einem Radsensor verwendet werden; eine wesentliche horizontale Ausdehnungsrichtung (14) von im Wesentlichen vertikalen Ebenen (13) an den Gegenständen (1012) geschätzt wird, wobei die Ebenen (13) durch die Vorrichtung definiert werden, indem Informationen von dem mindestens einen Raumsensor (2, 3a3e, 4a4d) verwendet werden; und die wesentliche tatsächliche Position der Vorrichtung bestimmt wird, indem mindestens eine vorbestimmte Annahme über die Beziehung zwischen der Ausdehnungsrichtung (15) von verschiedenen Ebenen (13) verwendet wird, wobei die Ausdehnungsrichtungen (15) der definierten Ebenen (13) erkannt werden, indem mindestens einer der Raumsensoren (2, 3a3e, 4a4d) verwendet wird und festgestellt wird, ob die Bewegungsrichtung (9) der Vorrichtung im Wesentlichen parallel zur Ausdehnungsrichtung (15) von mindestens einer der definierten Ebenen (13) ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Schätzung auch ausgeführt wird, indem gespeicherte Informationen über die Radabmessung und Informationen über den Abstand zwischen den Rädern (1) verwendet werden, wobei der Abstand bestimmt werden kann, indem ein Verfahren zur Berechnung der Spurweite angewendet wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Verfahren zur Berechnung des Radabstands eine wiederkehrende Berechnung des Abstands auf der Basis von Informationen über die Radabmessung und Informationen über die Position von Gegenständen in Bezug auf die Vorrichtung umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Abstand zwischen der Vorrichtung und einem Gegenstand erkannt wird, indem Informationen von mindestens einem Raumsensor (2, 3a3e, 4a4d) verwendet werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens einer der Raumsensoren (2, 3a3e, 4a4d) Ultraschallsignale verwendet, um einen Gegenstand zu erkennen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens einer der Raumsensoren (2, 3a3e, 4a4d) mechanische Erkennungsmittel verwendet, um zu erkennen, ob sich die Vorrichtung in Kontakt mit einem Gegenstand befindet.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenn die parallele Bewegung (9) erkannt wird, zuerst die Bewegungsrichtung R0 der Vorrichtung zu einem ersten Zeitpunkt TD0 erkannt wird und danach zu späteren Zeitpunkten TD1-TDn auch die Bewegungsrichtung R1-Rn erkannt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass wenn mindestens einer der Raumsensoren (2, 3a3e, 4a4d) zu einem ersten Zeitpunkt TDend nach TD0 erkennt, dass der Abstand zwischen der Vorrichtung und der definierten Ebene (13), an der sich die Vorrichtung im Wesentlichen parallel entlangbewegt, von bestimmten gespeicherten oder durch die Vorrichtung ermittelten Abstandsanforderungen abweicht, und/oder mindestens einer der Radsensoren zu einem ersten Zeitpunkt TDend nach TD0 erkennt, dass die Bewegungsrichtung Rend der Vorrichtung von bestimmten gespeicherten oder durch die Vorrichtung ermittelten Abstandsanforderungen abweicht und/oder wenn zu einem ersten Zeitpunkt TDend nach TD0 erkannt wird, eine definierte Ebene bestimmte Anforderungen erfüllt, wird eine Messung der Bewegungsdistanz der Vorrichtung, gezählt von TD0 bis TDend, durchgeführt dass, wobei die Distanz berechnet und gespeichert wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Richtungsanforderung dem entspricht, dass der Absolutwert der Differenz zwischen Rend und R0 größer ist als ein bestimmter erster Richtungswert und/oder dass der Absolutwert der Differenz zwischen Rend und der Bewegungsrichtung, die zu einem Zeitpunkt nach TD0, jedoch vor TDend erkannt wird, größer ist als ein bestimmter zweiter Richtungswert.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der erste Richtungswert auf 5° (DEG) festgelegt wird, und der zweite Richtungswert auf 3° (DEG) festgelegt wird.
  11. Verfahren nach einem der Ansprüche 8–10, dadurch gekennzeichnet, dass wenn die Bewegungsdistanz größer als oder gleich einem bestimmten gespeicherten oder durch die Vorrichtung ermittelten Distanzwert ist, mindestens die wesentliche Bewegungsrichtung (14) zwischen TD0 und TDend auf der Basis von Informationen seitens mindestens einem Radsensor berechnet und gespeichert wird.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass der Distanzwert auf etwa 80 Zentimeter festgesetzt wird.
  13. Verfahren nach einem der Ansprüche 11 oder 12, dadurch gekennzeichnet, dass die wesentliche Bewegungsrichtung als RefAngle festgesetzt wird, wenn sie die erste wesentliche Bewegungsrichtung ist, die nach einem bestimmten Zeitpunkt gespeichert wird.
  14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass die wesentliche Bewegungsrichtung (14) für mindestens eine der Bewegungsdistanzen, die größer als oder gleich einem bestimmten gespeicherten oder durch die Vorrichtung ermittelten Wert ist, mit RefAngle verglichen wird, wodurch ein Richtungsunterschied berechnet wird.
  15. Verfahren nach einem der vorhergehenden Ansprüche 7–14, dadurch gekennzeichnet, dass ein Richtungswert Rdiff auf der Basis des Richtungsunterschieds berechnet wird, der durch Annahmewerte für Unterschiede in der Ausdehnungsrichtung zwischen zwei der definierten Ebenen kompensiert wird.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Annahmewerte mindestens einem der Werte 30° (DEG), 45° (DEG), 60° (DEG) oder 90° (DEG) entsprechen.
  17. Verfahren nach einem der Ansprüche 15–16, dadurch gekennzeichnet, dass wenn Rdiff kleiner als oder gleich einem bestimmten gespeicherten oder durch die Vorrichtung ermittelten Richtungswert angleTh ist, die geschätzte Bewegungsrichtung (14) der Vorrichtung entsprechend Rdiff korrigiert wird.
  18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass angleTh auf der Basis der Ungewissheit wiederholt angepasst wird, die aus der nächstliegenden früheren Korrektur ermittelt wird, wobei angleTh einen Grenzwert aufweist, der nicht überschritten werden darf, wobei der Grenzwert darauf basierend definiert wird, welche Ausdehnungsrichtungsbeziehung zwischen verschiedenen definierten Ebenen das Verfahren handhaben soll.
  19. Verfahren nach einem der Ansprüche 17–18, dadurch gekennzeichnet, dass der Wert der Korrektur bei der geschätzten Richtung Rdiff entspricht.
  20. Anwendung eines Verfahrens nach einem der Ansprüche 1–19 zusammen mit einem automatischen Staubsauger.
DE60312303T 2002-01-23 2003-01-22 Positionsbestimmungsverfahren Expired - Lifetime DE60312303T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE0200197 2002-01-23
SE0200197A SE0200197L (sv) 2002-01-23 2002-01-23 Förfarande för en anordning på hjul
PCT/SE2003/000098 WO2003062937A1 (en) 2002-01-23 2003-01-22 Position determination method

Publications (2)

Publication Number Publication Date
DE60312303D1 DE60312303D1 (de) 2007-04-19
DE60312303T2 true DE60312303T2 (de) 2007-12-20

Family

ID=20286750

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60312303T Expired - Lifetime DE60312303T2 (de) 2002-01-23 2003-01-22 Positionsbestimmungsverfahren

Country Status (5)

Country Link
EP (1) EP1468342B1 (de)
AT (1) ATE356378T1 (de)
DE (1) DE60312303T2 (de)
SE (1) SE0200197L (de)
WO (1) WO2003062937A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340852B2 (en) 2009-04-29 2012-12-25 Honeywell International Inc. System and method for simultaneous localization and map building
US20120195491A1 (en) * 2010-07-21 2012-08-02 Palo Alto Research Center Incorporated System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing
WO2014101840A1 (zh) 2012-12-28 2014-07-03 苏州宝时得电动工具有限公司 自动割草系统
CN106154278B (zh) * 2014-12-12 2019-08-02 江苏美的清洁电器股份有限公司 智能机器人及用于其的传感器组件和障碍物检测方法
EP3112897B1 (de) * 2014-12-12 2021-09-22 Jiangsu Midea Cleaning Appliances Co., Ltd. Intelligenter roboter und sensoranordnung sowie hinderniserkennungsverfahren dafür
TWI634403B (zh) * 2017-01-26 2018-09-01 好樣科技有限公司 自動清潔機及其控制方法
CN108614562B (zh) * 2018-06-05 2021-05-07 北京智行者科技有限公司 一种清扫路径优化方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0168189B1 (ko) * 1995-12-01 1999-02-01 김광호 로보트의 환경인식장치 및 그 제어방법
JPH10240342A (ja) * 1997-02-28 1998-09-11 Minolta Co Ltd 自律走行車
EP1098587A1 (de) * 1998-07-31 2001-05-16 Volker Sommer Haushaltsroboter zum automatischen staubsaugen von bodenflächen
GB2344888A (en) * 1998-12-18 2000-06-21 Notetry Ltd Obstacle detection system

Also Published As

Publication number Publication date
SE0200197D0 (sv) 2002-01-23
ATE356378T1 (de) 2007-03-15
SE0200197L (sv) 2003-07-24
EP1468342B1 (de) 2007-03-07
WO2003062937A1 (en) 2003-07-31
DE60312303D1 (de) 2007-04-19
EP1468342A1 (de) 2004-10-20

Similar Documents

Publication Publication Date Title
EP3376933B1 (de) Robotergestützte bearbeitung einer oberfläche mittels eines roboters
EP3408719B1 (de) Verfahren zum erstellen einer umgebungskarte für ein selbsttätig verfahrbares bearbeitungsgerät
DE10145150B4 (de) Verfahren zur Einstellung eines Kurses eines mobilen Roboters
EP2764812B1 (de) Reinigungsroboter
DE102014012811B4 (de) Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
WO2017140726A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
DE102005014648A1 (de) Kompensationsverfahren eines Gyro-Sensors für Reinigungsroboter
DE102013101563A1 (de) Steuerverfahren for reinigungsroboter
EP0378528B1 (de) Verfahren zur steuerung eines selbstfahrenden fahrzeugs und selbstfahrendes fahrzeug
EP3709853A1 (de) Bodenbearbeitung mittels eines autonomen mobilen roboters
EP3963417B1 (de) Verfahren zur steuerung zumindest eines autonomen arbeitsgeräts
EP3695244A1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
WO2007036487A2 (de) Verfahren zum betreiben eines selbsttätig verfahrbaren haushaltsgeräts sowie verfahren zum betreiben einer basisstation
CH619799A5 (en) Orientation device for an appliance system which moves over a surface for the purpose of treating it
EP1987371A1 (de) Verfahren zur detektion von objekten mit einer schwenkbaren sensoreinrichtung
WO2003016941A2 (de) Echosignalüberwachungsvorrichtung und -verfahren
AT502931A2 (de) Arbeitsbereichsüberwachung für automatisierte, programmgesteuerte maschinen und roboter
DE60312303T2 (de) Positionsbestimmungsverfahren
DE102004014281A1 (de) Flächenbearbeitungssystem
DE102010021042A1 (de) Verfahren zur rechnergestützten Spurführung von Fahrzeugen
EP0453905A2 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines relativ zu einem Hinernis bewegten Objekts
DE102014110201B3 (de) Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
EP2741161B1 (de) Selbstfahrendes bodenbearbeitungsgerät und verfahren zur positionsbestimmung bei einem selbstfahrenden bodenbearbeitungsgerät
EP4413907A1 (de) Verfahren zum erstellen einer umgebungskarte
EP4660735A1 (de) Reinigungsgerät und verfahren zum betreiben eines reinigungsgeräts

Legal Events

Date Code Title Description
8364 No opposition during term of opposition