[go: up one dir, main page]

DE102008041679A1 - Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature - Google Patents

Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature Download PDF

Info

Publication number
DE102008041679A1
DE102008041679A1 DE102008041679A DE102008041679A DE102008041679A1 DE 102008041679 A1 DE102008041679 A1 DE 102008041679A1 DE 102008041679 A DE102008041679 A DE 102008041679A DE 102008041679 A DE102008041679 A DE 102008041679A DE 102008041679 A1 DE102008041679 A1 DE 102008041679A1
Authority
DE
Germany
Prior art keywords
data
feature
classification
sensor
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008041679A
Other languages
German (de)
Inventor
Martin Mueller
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102008041679A priority Critical patent/DE102008041679A1/en
Publication of DE102008041679A1 publication Critical patent/DE102008041679A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

The method involves storing data of an object or a feature in a storage. The object or the feature is classified by comparison of the data stored in the storage after visual inspection of the object or the feature. The object or the feature is recorded in a digital card of a navigation device, and the data is derived from two time points from a sensor (11) e.g. light detection and ranging sensor, and/or is computed from sensor data of the sensor. The classification is associated with probability or reliability for a right classification. An independent claim is also included for a device for environment recognition for a system to be moved.

Description

Stand der TechnikState of the art

Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren zur erinnerungsbasierten Umfelderkennung nach Gattung der unabhängigen Ansprüche.The The invention is based on a device or a method for memory-based environment recognition by type of independent Claims.

Aus der DE 10 2006 058 304 A1 ist ein Verfahren zum ortsbasierten Verarbeiten von Daten bekannt, welches auftretende Ereignisse in Zusammenhang mit einem Fahrzeug speichert, wobei der Ort an dem dieses Ereignis stattfindet, mitgespeichert wird. Ziel dieser Erfindung ist es, dass beim wiederholten Annähern an derartige Orte ein Erinnerungsvermögen hergestellt wird, wodurch beispielsweise eine rechtzeitige Warnung vor ehemals begegneten Gefahrenquellen ausgeben werden kann. Weiterhin können andere Fahrerassistenzsysteme angesteuert, bzw. informiert werden, als auch Daten von diesen, insbesondere einem Navigationsgerät, Verwendung finden. Im speziellen handelt es sich bei dieser Erfindung um die Behandlung von Ereignissen, somit muss ein Ereignis mindestens einmal eintreten, bevor man einem solchen präventiv entgegenwirken kann. Des Weiteren offenbart die Schrift kein konkretes Verfahren wie an die Informationen zu kommen ist, bzw. welche Daten verwendet werden.From the DE 10 2006 058 304 A1 a method for location-based processing of data is known, which stores occurring events in connection with a vehicle, wherein the location at which this event takes place, is stored. The aim of this invention is that the repeated approach to such places a memory is made, which can be spent, for example, a timely warning against previously encountered hazards. Furthermore, other driver assistance systems can be activated or informed, as well as using data from them, in particular a navigation device. Specifically, this invention is the treatment of events, so an event must occur at least once before it can be counteracted preventively. Furthermore, the document does not disclose a concrete method of how to obtain the information or what data is used.

Weiterhin ist aus der DE 10 335 601 A1 ein Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank bekannt, bei dem in einer Datenbank abgespeicherte Referenzdaten als 3D-Datenmodell abgespeichert sind, und die real gemessenen Daten auf verschiedene Variationen der 3D Lage des Modells verglichen und damit klassifiziert werden. Die Verwendung von Referenzdaten, die durch einen anderen Weg (Sensor) aufgenommen werden, als die zu prüfenden Daten, führt zu der Problematik, dass Ungenauigkeiten in beiden Aufnahmewegen (z. B. Bauteiltoleranzen) voll in das Klassifikationsergebnis mit einfließen. Es wird versucht, über die fehlerbehaftete Abbildung der Sensorik ein bekanntes Objekt zu klassifizieren.Furthermore, from the DE 10 335 601 A1 a method for object classification using a 3D model database known in which stored in a database reference data are stored as a 3D data model, and the real measured data are compared to different variations of the 3D position of the model and classified. The use of reference data recorded by a different path (sensor) than the data to be tested leads to the problem that inaccuracies in both acquisition paths (eg component tolerances) are fully included in the classification result. An attempt is made to classify a known object via the faulty image of the sensor system.

Offenbarung der ErfindungDisclosure of the invention

Die erfindungsgemäße Vorrichtung und Verfahren mit den Merkmalen der unabhängigen Ansprüche haben demgegenüber den Vorteil, dass eine autarke Umfelderkennung, analog zu der eines Menschen möglich ist, in dem Objekte in einer unbekannten Gegend wahrgenommen und bei einer Wiederkehr wieder erkannt werden. In der Technik werden in Abhängigkeit der Sensorausstattungsvarianten sensorspezifische Merkmale der Umfeldobjekte, wie beispielsweise Position, relative Geschwindigkeit, Ausdehnung, Kontur, Größe, Form oder Reflektanz erfasst und daraus ein Umfeldmodell erstellt, welches bei einer Wiederkehr angepasst werden kann. Aus der Veränderung von Parametern dieser Objekte zwischen wenigstens zweimaligen Wahrnehmen können Schlüsse gezogen, bzw. Klassifikationen vorgenommen werden, insbesondere um die Frage zu klären, ob ein Objekt statisch, oder dynamisch (beweglich) ist. Ersteres wird dann der Fall sein, wenn das Objekt bei mehrmaliger Wiederkehr jedes Mal auftaucht, ein dynamisches Objekt, wie beispielsweise ein Fußgänger wird nicht jedes Mal auftauchen. Damit kann ein adaptives Umfeldmodell statischer Objekte erstellt werden. Im Gegensatz zu anderen Verfahren, können hier dynamische und statische Objekte schneller von einander unterschieden werden, da bei dem plötzlichen Auftreten eines dynamischen Objekts an einer bekannten Stelle an der normalerweise kein Objekt vorhanden ist, sofort klassifiziert werden kann.The Inventive device and method with have the features of the independent claims In contrast, the advantage that a self-sufficient environment detection, analogous to that of a human is possible in the objects perceived in an unknown area and on a return to be recognized. In technology, depending on the sensor equipment variants sensor-specific characteristics of the environment objects, such as position, relative speed, extension, Contour, size, shape or reflectance recorded and it creates an environment model, which is adapted when it returns can be. From the change of parameters of this Objects between at least two perceptions can draw conclusions pulled, or classifications are made, in particular to clarify the question of whether an object is static, or dynamic (movable). The former will be the case when the object is at repeated recurrence every time, a dynamic object, such as a pedestrian is not every Time to show up. This makes an adaptive environment model more static Objects are created. Unlike other methods, you can differentiate dynamic and static objects from each other faster be there at the sudden appearance of a dynamic Object in a known location where normally no object exists, can be classified immediately.

Erfindungsgemäß beschränkt sich die Klassifizierung nicht auf dynamische und statische Objekte, sondern kann auch für andere Klassifikation herangezogen werden, sofern der erfindungsgemäße Gedanke der Unterscheidung zwischen mehreren Wahrnehmungen zutrifft. Denkbar ist auch eine diversifiziertere Klassifizierung, wie beispielsweise das Erkennen von regelmäßig wiederkehrenden dynamischen Objekten, beispielsweise parkenden Autos zur Geschäftszeit, Schulkindern zur Zeit des Unterrichtsbeginns/-schluss oder einer Tagesbaustelle.Limited according to the invention the classification does not apply to dynamic and static objects, but can also be used for other classification if the inventive concept of Distinction between multiple perceptions applies. Conceivable is also a more diversified classification, such as the recognition of regularly recurring dynamic Objects, such as parked cars during business hours, Schoolchildren at the time the lesson starts / ends or one Days site.

Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen möglich.By those listed in the dependent claims Measures are advantageous developments and improvements possible.

Vorteilhafterweise findet die Erstellung einer Karte statt, in die die detektierten Objekte eingetragen werden. Hierdurch kann autark eine Karte erstellt werden, welche in der Regel aktueller und genauer sein wird als solches von extern zugelieferten digitalen Karten, wie beispielsweise der eines Navigationssystems. Vorraussetzung hierfür ist jedoch, dass eine Strecke mehrfach gefahren, bzw. wahrgenommen wurde. Durch die Eintragungen der Objekte in einer digitalen Karte ist es möglich Objekte zu erfassen und zuzuordnen, auch wenn man nicht den gleichen Fahrweg bei der Wiederkehr fährt. So sind Objekte, die beispielsweise auf der Hinfahrt wahrgenommen wurden, auf der Rückfahrt bereits bekannt, sofern nicht spezielle Umstände vorliegen, wie z. B. die Tatsache, dass ein Objekt verdeckt sein könnte. Ist ein Objekt beispielsweise nur auf der Rückfahrt sichtbar, weil es blickrichtungsabhängig verdeckt ist, so ist vorteilhafterweise für die nächste Hinfahrt das Objekt bereits bekannt, obwohl es für diese Fahrtrichtung nicht sichtbar ist.advantageously, The creation of a map takes place in which the detected Objects are registered. This allows a self-sufficient map to be created which will usually be more up-to-date and more accurate as such externally supplied digital cards, such as the a navigation system. The prerequisite for this, however, is that a track has been ridden several times, resp. By the entries of objects in a digital map, it is possible Capture and assign objects, even if you do not use the same infrastructure at the return drives. Such are objects, for example on the way there, on the way back already known unless special circumstances exist, such as For example, the fact that an object might be obscured. For example, if an object is only visible on the return trip because it is obscured depending on the direction of view, it is advantageous for the next way the object is already known, although it is not visible for this direction of travel.

Weiterhin kann durch die digitale Karte das Problem von Abbildungsfehlern durch die sogenannte Triangulation behoben werden, welche bei der Position zur Entfernungsbestimmung von Objekten mit Hilfe einer Stereo-Videosensorik Abbildungsfehler verursacht, welche durch Plausibilisierung mit den bereits vorhandenen Daten in der digitalen Karte plausibilisiert werden können.Furthermore, by the digital map, the problem of aberrations can be corrected by the so-called triangulation, which at the Po For determining the distance of objects with the help of a stereo video sensor system, imaging errors are caused, which can be made plausible by plausibility checking with the already existing data in the digital map.

Vorteilhaft ist die Möglichkeit, das erfindungsgemäße Verfahren immer mit den selben Sensoren durchzuführen, wodurch der Vergleich von Daten immer auf den selben Sensorquellen basiert. Im Gegensatz zu bekannten Verfahren wird bei diesem Ansatz nicht angestrebt, über die fehlerbehaftete Abbildung der Sensorik ein bekanntes statisches Objekt, welches beispielsweise über andere Sensoren aufgenommen und in einer Datenbank abgelegt wurde, zu klassifizieren, sondern die Objekte aus den reduzierten Informationen der selben Sensorsignale zu erkennen und abzuspeichern. Dies hat den Vorteil, dass die „Sensorsicht” eines Fahrzeugs für die Erstellung des adaptiven Umfeldmodells eingesetzt wird, wodurch Auswirkungen von Bauteilschwankungen auf dem Klassifikationsprozess entfallen, weil sich diese Fehler sozusagen herauskürzen. Hingegen wäre bei bekannten Verfahren ab einem gewissen Grad der fehlerbehafteten Abbildung einer Klassifikation nicht mehr möglich. Durch die Verwendung des adaptiven Umfeldmodells können nun auch weniger genaue Sensoren verwendet werden, oder Sensoren verwendet werden, die gegensätzliche Aufgaben, wie beispielsweise Entfernungs- und Konturensensierung durchführen und normalerweise unterschiedlich optimiert sein müssten. Neben der Minderung der technischen Fehlereinflüsse, wie Sensorrauschen, Fertigungsprozessschwankungen, Abbildungsfehler durch Triangulation ist die Verwendung der selben Sensoren auch geeignet um Umfeldeinflüsse, wie Abbildungsfehler durch Witterungseinflüsse, Nässe, Kälte oder Verschmutzungen auszugleichen.Advantageous is the possibility of the invention Always perform procedures with the same sensors, whereby the comparison of data always on the same sensor sources based. Unlike known methods, this approach is used not intended, about the faulty figure of the Sensors a known static object, which for example via other sensors were recorded and stored in a database, to classify, but the objects from the reduced information recognize and store the same sensor signals. this has the advantage that the "sensor view" of a vehicle used to create the adaptive environment model, which effects of component variations on the classification process omitted, because these errors cut out, so to speak. On the other hand, in known methods would be from a certain Degree of error-prone mapping of a classification no longer possible. By using the adaptive environment model less accurate sensors can now be used, or sensors that perform conflicting tasks, such as distance and contour sensing and usually need to be optimized differently. In addition to the reduction of technical errors, such as Sensor noise, manufacturing process variations, aberrations By triangulation, the use of the same sensors is also suitable for environmental influences, such as aberrations Weather conditions, wet, cold or Compensate for contamination.

Vorteilhafterweise kann man aus den Informationen, die sich durch das erfindungsgemäße System ergeben und Informationen von anderen Quellen eine Sensordatenfusion durchführen, die einige Vorteile bietet: Einerseits können mit der Erfindung mehrdeutige Umfeldsensordaten abgesichert werden und durch das Vorhandensein der ergänzenden Informationen eines wenigstens zweiten Systems die Szeneninterpretation verbessert werden um sicherere, d. h. genauere und schnellere Ergebnisse bzw. Funktionsentscheidungen zu bekommen. Weiterhin kann mittels des Vergleichs der Sensordaten, bzw. Auswerteergebnisse, oder Zwischenschritte wenigstens zweier Systeme, eine Plausibilisierung durchgeführt werden, die die Genauigkeit erhöht, sowie ergänzende Information bereitstellt, was ein größeres Vorwissen für die Szeneninterpretation bewirkt. Das adaptive Umfeldmodell ermöglicht die Speicherung geografischer Straßeninformationen, die selbst erkundet wurden, und den Vergleich dieser Information mit aktuellen digitalen Karten, beispielsweise von Navigationsgeräten oder ergänzender bzw. alternativer Informationsquellen wie GPS oder Informationen über ein Mensch-Maschine Interface. So können beispielsweise bei kurzfristigen Änderungen des Straßenverlaufs (Baustellen, Verkehrsberuhigung, Straßenrückbildung) diese Informationen aus Sicht des Fahrzeugs wahrgenommen werden und somit ein realistischeres und aktuelleres Abbild des Umfeld erzeugen. Durch dieses zusätzliche Wissen über den Fahrzustand und der Fahrbahnverlauf können stabilere Fahrerassistenzfunktionen ermöglicht werden. So kann beispielsweise ein Lane-Keeping-Support System die Daten aus dem adaptiven Umfeldmodell heranziehen, um die Fahrtrajektorie, bzw. Fahrschlauch, um bekannte, oder mit einer gewissen Wahrscheinlichkeit vorhandene, Hindernisse herumzuführen. Als weiteres Beispiel kann das Erkennen von Fußgängern als dynamische Objekte mittels des a priori Wissens des adaptiven Umfeldmodells schnell erfolgen, wodurch Warnungen oder ein Eingriff in die Fahrdynamik stattfinden können.advantageously, can one from the information, which is characterized by the invention System yield and information from other sources a sensor data fusion which offers some advantages: On the one hand ambiguous environment sensor data can be secured with the invention and by the presence of supplementary information an at least second system improves the scene interpretation become safer, d. H. more accurate and faster results or functional decisions to get. Furthermore, by means of the comparison of the sensor data, or evaluation results, or intermediate steps of at least two Systems that perform a plausibility check are the accuracy increases, as well as additional information provides, what a greater foreknowledge for the scene interpretation causes. The adaptive environment model allows the storage of geographic road information that themselves were explored, and the comparison of this information with current digital maps, such as navigation devices or supplementary or alternative sources of information like GPS or information about a human-machine interface. For example, with short-term changes the course of the road (construction sites, traffic calming, road recession) this information is perceived from the vehicle's point of view and thus a more realistic and up-to-date image of the environment produce. Through this additional knowledge about the driving condition and the road course can be more stable Driver assistance functions are enabled. So, for example a lane-keeping-support system that uses data from the adaptive environment model, to the Fahrtrajektorie, or Fahrschlauch to known, or with a certain probability of passing around obstacles. Another example is the recognition of pedestrians as dynamic objects by means of the a priori knowledge of the adaptive Environment model can be done quickly, causing warnings or interference can take place in the driving dynamics.

Vorteilhaft ist die Möglichkeit das adaptive Umfeldmodell für Strecken zu erstellen, die vom Fahrzeug häufig durchfahren werden, was z. B. der tägliche Weg zur Arbeit sein kann. Je häufiger eine bestimmte Strecke abgefahren wird, desto verlässlicher wird die Aussagekraft des adaptiven Umfeldmodells über die Klassifikation statischer Objekte. Beispielsweise können diese folglich als Landmarken für die Szeneninterpretation eingesetzt werden. Welche Strecke als häufig gefahrene Strecke gilt, kann entweder vom Fahrer definiert werden oder auch durch das System selbständig ermittelt werden. Der Vorteil der selektiven Erstellung des adaptiven Umfeldmodells nur für bestimmte Strecken manifestiert sich dadurch, dass die ohnehin zu erwartende große Datenmenge eingeschränkt und somit Speicherplatz gespart werden kann.Advantageous is the possibility the adaptive environment model for Create routes that frequent the vehicle frequently be what z. B. can be the daily way to work. The more frequently a particular route is traveled, the more the significance of the adaptive environment model becomes more reliable the classification of static objects. For example, you can these consequently as landmarks for the scene interpretation be used. Which route as frequently driven Track applies, can be defined either by the driver or else be determined independently by the system. The advantage of selective creation of the adaptive environment model only for Certain routes manifest themselves in that anyway limited and expected large amount of data thus storage space can be saved.

Eine weitere Optimierungsaufgabe würde dann darin bestehen, die Informationen im adaptiven Umfeldmodell auf die Merkmale zu reduzieren, die mit der im Fahrzeug verbauten Sensorik, eine hohe Relevanz für die betrachtete Fahrerassistenzfunktion besitzen.A then another optimization task would be the information in the adaptive environment model to the characteristics reduce, which with the built-in sensors in the vehicle, a high relevance for the considered driver assistance function.

Vorteilhaft ist, eine Wahrscheinlichkeit zusammen mit dem Klassifikationsergebnis abzulegen, welche Aussagt, mit welcher Sicherheit die Klassifikation korrekt ist. Dadurch wird die Aussagekraft der Klassifikation erhöht und eine genauere Auswertung bzw. Reaktion ermöglicht. Beispielsweise kann so das unnötige Warnen des Fahrers vermieden werden oder ein Bremseingriff nur dann durchgeführt werden, wenn ein Hindernis mit einer hohen Wahrscheinlichkeit erkannt wurde. Idealerweise wird pro erkanntes Objekt eine Wahrscheinlichkeit ermittelt, entweder für das Klassifikationsergebnis, oder für die Bewertung der einzelnen Parameter, aus der eine Verlässlichkeit der Hypothese zu statischen Objekten getroffen werden kann. Diese Hypothesenbildung, bzw. Wahrscheinlichkeitsermittlung wird abhängig sein vom Vorwissen des adaptiven Umfeldmodells, d. h. z. B. wie oft das Fahrzeug an der Stelle schon vorbeigefahren ist und ein Objekt bzw. Merkmal eines Objekts erkannt hat, und der Güte der Sensorik, die die Merkmale bereitstellt. So können auch statische Objekte, die durch die einmalige Sensierung auf Grund diverser Verdeckungsgrade (egal ob durch statische oder dynamische Objekte verdeckt) über die Sensorik nicht eindeutig statisch klassifiziert werden konnten, gefestigt werden.It is advantageous to store a probability together with the classification result, which states with what certainty the classification is correct. This increases the meaningfulness of the classification and allows a more accurate evaluation or reaction. For example, the unnecessary warning of the driver can be avoided or a braking intervention can only be carried out if an obstacle with a high probability was detected. Ideally, a probability is determined for each recognized object, either for the classification result, or for the Evaluation of the individual parameters, from which a reliability of the hypothesis to static objects can be made. This hypothesis formation or probability determination will depend on the prior knowledge of the adaptive environment model, ie, for example, how often the vehicle has already passed the location and has detected an object or feature of an object, and the quality of the sensor system that provides the features. Thus, even static objects that could not be clearly statically classified by the sensor system due to the unique sensation due to various levels of concealment (regardless of whether they are obscured by static or dynamic objects) can be stabilized.

In einer Weiterbildung des Systems könnten auch dynamische Objekte dahingehend klassifiziert werden, ob sie beispielsweise regelmäßig auftauchen, wie Kinder in der Nähe einer Schule zur Pausenzeit, oder parkende Autos in zeitlich begrenzten Parkzonen, oder geschlossene Bahnübergänge die mit den Durchfahrtszeiten von Zügen korellieren. Zur Verwirklichung eines solchen Systems kann Information über das temporäre Auftreten von Objekten entweder intrinsisch über die Historie und gewisse Korrelationen erlangt werden, oder extrinsisch mittels anderer Datenbestände, wie z. B. Fahrplänen oder Daten in Navigationssystemen.In a development of the system could also be dynamic Objects are classified according to whether they are, for example regularly show up, like children nearby a school at break time, or parked cars in temporary parking zones, or closed level crossings with the transit times of trains. For the realization of such Systems can provide information about the temporary occurrence of objects either intrinsically about the history and certain correlations are obtained, or extrinsic with others Data stocks, such. Eg timetables or data in navigation systems.

Vorteilhaft ist, dass die Erfindung zusätzlich die Art und Anzahl der Informationen erweitert, die für eine Szeneninterpretation herangezogen werden. Auf Basis dieser ergänzenden Informationen ist die Entwicklung neuer Fahrerassistenzfunktionen möglich, die mit Sensoren aktueller Fahrerassistenzsystemen nicht umgesetzt werden können. Beispielsweise ist denkbar auf diese Weise ein Fußgängerwarnsystem, oder bei spezieller Auswertung sogar ein Kinderwarnsystem zu realisieren. Weiterhin könnte als Reaktion automatisch die Hupe oder Lichthupe aktiviert werden.Advantageous is that the invention additionally the type and number of Information extended for a scene interpretation be used. Based on this supplementary information the development of new driver assistance functions is possible, not implemented with sensors of current driver assistance systems can be. For example, this is conceivable in this way a pedestrian warning system, or with special evaluation even to realize a child warning system. Furthermore, as Reaction automatically the horn or flasher be activated.

Vorteilhaft ist, dass die Erfindung zusätzlich ein Bewegungsprofil dynamischer Objekte, wie Fussgänger, Schulkinder oder Radfahrer, in der Karte des adaptiven Umfeldmodells berücksichtigt und diese für zukünfitge Fahrerassistenzfunktionen bereithält.Advantageous is that the invention additionally a movement profile dynamic objects, such as pedestrians, schoolchildren or cyclists, considered in the map of the adaptive environment model and this for future driver assistance functions holds.

Dadurch dass die Wahrnehmung des erfindungsgemäßen Systems ähnlich wie beim Menschen ist, insbesondere in Bezug auf die visuellen bzw. kognitiven Fähigkeiten, eröffnet sich ein weiteres Ziel der Erfindung, nämlich das autonome Fahren. Voraussetzung hierfür ist das Information über einen Streckenverlauf eröffnet werden, die das Fahrzeug selber lernt. Weitere Voraussetzung ist, dass die Verlässlichkeit der Hypothesen für die Informationen in dem adaptiven Umfeldmodell in dem Maße steigen, dass sie der Hypothese durch den Fahrer, bzw. eines Menschen gleich kommen.Thereby that the perception of the system according to the invention is similar as in humans, especially with respect to the visual or cognitive abilities, another opens up Object of the invention, namely autonomous driving. requirement this is the information about a route opened, which learns the vehicle itself. Further The condition is that the reliability of the hypotheses for the information in the adaptive environment model in increase to the extent that they are the hypothesis by the driver, or to come straight away.

Unbenommen von Vorigem ist es möglich, die Inhalte des adaptiven Umfeldmodells nicht nur mit anderen Fahrerassistenzsystemen, sondern auch mit anderen Systemen im eigenen, sowie im fremden Fahrzeug (beispielsweise über Ad-hoc Kommunikation) auszutauschen. So kann die spezielle Information, über die ein einzelnes Fahrzeugs verfügt, beispielsweise die Existenz einer neuen Baustelle, anderen Verkehrsteilnehmern zur Verfügung gestellt werden. Dies mag über peer-to-peer (ad-hoc) Kommunikation oder auch über ein zentral verwaltetes Datenerfassungssystem erfolgen. Funktionen, die auf digitalen Karten aufbauen (z. B. Lane Keeping Support Systeme), können sich so mit Hilfe des adaptiven Umfeldmodells selbständig an eine geänderte Infrastruktur adaptieren.Irrespective of this from the previous it is possible to use the contents of the adaptive environment model not only with other driver assistance systems, but also with other systems in their own, as well as in the foreign vehicle (for example Ad-hoc communication). So the special information, about which has a single vehicle, such as the Existence of a new construction site, other road users to Will be provided. This may be about peer-to-peer (ad hoc) communication or via a centrally managed data collection system respectively. Functions built on digital maps (eg Lane Keeping Support Systems), can do so with the help of Adaptive environment model independently to a changed Adapt infrastructure.

Vorteilhaft ist, dass über das Vorwissen des adaptiven Umfeldmodells aus abgefahrenen Strecken Entscheidungen für die Fahrplanung getroffen werden können, auch wenn zur Zeit der aktuellen Fahrt eine Erkennung von Objekten nicht möglich ist, wenn technische oder Umfeldeinflüsse eine aktuelle Sensierung verhindern. So können entsprechende Witterungs- oder Beleuchtungseinflüsse bei der jeweils verwendeten Sensorik Abbildungfehler verursachen; beispielsweise können Schnee, Gischt und Regen zu fehlerhaften Lidar-/Radar-Signalen führen, oder Videoaufnahmen durch zu starkes Gegenlicht verrauscht werden. Bei derartigen Gegebenheiten steht daher für eine bestimmte Szenerie kein verlässliches, aktuelles Umgebungsbild zur Verfügung. Hierbei können die aus früheren Fahrten wahrgenommenen Landmarken/Objekte/Merkmale in die aktuelle Szenerie eingefügt werden. Gleichzeitig ist eine Prädiktion der Fahrtrajektorie, bzw. des Fahrschlauchs, für den uneinsichtigen Straßenverlauf möglich. Gleichzeitig kann bei der Trajektorien-Planung die Vorausschauungsweite entscheidend erhöht werden.Advantageous is that about the prior knowledge of the adaptive environment model Outriding routes decisions for the timetable can be taken, even if at the time of the current trip A recognition of objects is not possible if technical or environmental influences prevent a current sensing. Thus, appropriate weather or lighting effects cause imaging errors in the respective sensors used; For example, snow, spray and rain can be faulty Lidar / radar signals, or video recordings Too strong a backlit noise. In such circumstances therefore not reliable for a particular scene, current environment image available. Here you can the landmarks / objects / features perceived from previous journeys be inserted into the current scenery. simultaneously is a prediction of the driving trajectory, or of the driving tube, for the unreasonable road course possible. simultaneously In the trajectory planning the foresight span can be decisive increase.

BegriffserläuterungenDefinitions

Eine Hypothese ist die Annahme eines Klassifikationsergebnisses. Wenn beispielsweise als Klassifikation unterschieden wird, ob ein Objekt statisch (Landmarke) oder dynamisch ist, so bedeutet eine starke Hypothese des einen bzw. des anderen, dass die Klassifikation wahrscheinlich richtig ist. Gleiches gilt für andere Klassifikationsvarianten, wie beispielsweise der Klassifikation der Art des Objekts, bzw. des Verhalten des Objekts, bzw. seines temporären Wiederkehrverhaltens.A Hypothesis is the assumption of a classification result. If For example, it is distinguished as classification whether an object static (landmark) or dynamic, that means strong Hypothesis of one or the other that the classification is likely correct is. The same applies to other classification variants, such as the classification of the type of object, or the behavior of the object or its temporary recurrence behavior.

Das adaptive Umfeldmodell wird erstellt, in dem eine Umfelderkennung stattfindet, die mittels bekannter Sensorsignale und einer Szeneninterpretation durchgeführt wird (diese Begriffe können auch synonym verwendet werden). Adaptiv ist das System durch die Aktualisierung von Daten bzw. die Klassifikation bei erneutem Vorbeifahren an einer Szenerie.The adaptive environment model is created, in which an environment identifier takes place by means of known sensor signals and a scene interpretation (these terms can also be synonymous be used). The system is adaptive by updating of data or the classification when driving past again Scenery.

Als bildgebende Verfahren bezeichnet man aparative Verfahren mit denen physikalische Phänomene visualisiert werden. Im einfachsten Fall wird über eine Videokamera direkt ein Bild aufgenommen, welches ausgewertet werden kann. Unter Zuhilfenahme physikalischer Gegebenheiten können auch andere Sensoren, wie Infrarotkameras, Radar-, Ultraschall-, Lidargeräte oder Laserscanner eine Information liefern, die mittels eines Bildes visualisiert werden kann. Allen bildgebenden Verfahren ist gemeinsam, dass Messungen eines von einem Objekt ausgehenden physikalischen Effekts in ein Bild umgewandelt wird.When Imaging procedures are called aparative procedures with those physical phenomena are visualized. In the simplest Case is taken via a video camera directly a picture, which can be evaluated. With the help of physical conditions Other sensors, such as infrared cameras, radar, Ultrasound, Lidargeräte or laser scanner information deliver, which can be visualized by means of an image. all imaging is common that measurements one of a Object outgoing physical effect converted into an image becomes.

Im Allgemeinen erlaubt die Umfeldsensorik, wie Radar, Ultraschall, Laserscannern oder Video nur eine eingeschränkte Abbildung der Eigenschaften von Umfeldobjekten in das technische System. Damit Fahrerassistenzfunktionen, die für sie wichtige Objekte mittels Umfeldsensorik dennoch erkennen, werden auf den abgebildeten Eigenschaften Hypothesen erstellt, die den Rückschluss auf ein Objekt ermöglichen. Die für eine Objekthypothese relevanten und abgebildeten Eigenschaften können auch als ”Merkmale” bezeichnet werden. Da Merkmale z. B. aus der Form, Größe, Farbe, Oberflächenbeschaffenheit, Reflexions- und Materialeigenschaften oder lediglich dem Wissen über vorhandene Kanten und Ecken eines Objektes bestehen, muss für eine Fahrerassistenzfunktion nicht zwingendermaßen das komplette Wissen über ein ”Objekt” in das adaptive Umfeldmodell eingetragen werden. Es reicht für viele Funktionen auch aus, vereinzelte, aber relevante Merkmale zu speichern. Damit ergeben sich auch bsp. positive Auswirkungen auf den benötigten Speicherbedarf.in the Generally, environment sensors, such as radar, allow ultrasound, Laser scanners or video only a limited illustration the properties of environment objects in the technical system. So that driver assistance functions, the objects that are important to them by means of environmental sensors nevertheless recognize, hypotheses are created on the mapped properties, which make it possible to draw conclusions about an object. The relevant and pictured for an object hypothesis Properties can also be referred to as "features" become. Because features z. B. from the shape, size, Color, surface texture, reflection and material properties or just the knowledge of existing edges and corners an object must exist for a driver assistance function not necessarily the complete knowledge about an "object" is entered in the adaptive environment model become. It is also sufficient for many functions, isolated, but to store relevant features. This results also bsp. positive effects on the required storage requirements.

Figurenbeschreibungfigure description

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.embodiments The invention is illustrated in the drawings and in the following Description explained in more detail.

Es zeigen,It demonstrate,

1 ein Blockschaltbild des erfindungsgemäßen Systems, 1 a block diagram of the system according to the invention,

2 den Signalfluss eines erfindungsgemäßen Systems, 2 the signal flow of a system according to the invention,

3 die Erstellung eines adaptiven Umfeldmodells während einer Erstfahrt, 3 the creation of an adaptive environment model during a first trip,

4 die Adaption des Umfeldmodells auf einer Rückfahrt, 4 the adaptation of the environment model on a return journey,

5 die schnelle Erkennung von dynamischen Objekten in einem bekannten Umfeld, 5 the fast detection of dynamic objects in a known environment,

6 die Prädiktion eines Streckenabschnitts bei gestörter Sensorik, 6 the prediction of a section of road in the case of disturbed sensors,

7 die Lösung einer Triangulationsproblematik. 7 the solution of a triangulation problem.

In 1 ist ein Blockschaltbild mit den beteiligten Komponenten des Systems dargestellt wobei wenigstens ein Sensor 11, beispielsweise ein Lidarsensor mit optional weiteren Sensoren 12, beispielsweise Radar oder Videosensoren deren Signale einer Basissignalverarbeitung 13 zugeführt werden, deren Ergebnisse von beliebigen Systemen im Fahrzeug verarbeitet werden, insbesondere aber auch vom erfindungsgemäß beschriebenen adaptiven Umfeldmodell 14. Dieses verbindet die Daten mit den Daten eines Positionsgebers 15, beispielsweise einem GPS Signal. Weiterhin wird optional eine Sensordatenfusion durchgeführt, wobei die Daten aus dem erfindungsgemäßen System 14 mit den Daten von fremden Systemen zusammengeführt werden, um dadurch insbesondere Objekte zu erkennen und zu klassifizieren. Die Ergebnisse, d. h. die Daten bzw. auch Klassifikationsergebnisse des adaptiven Umfeldmodells 14 und der gegebenenfalls über einer optionalen Datenfusion bereitgestellten Ergebnisse externe Systeme gelangen in eine Szeneninterpretation 17, die das aktuelle Umfeld beschreibt und es ermöglicht, gegebenenfalls eine Funktionsauslösung 18 durchzuführen. Dies kann verschiedenste Dinge beinhalten, angefangen von der einfachen Warnung eines Fahrers in beliebiger Weise über die Meldung an andere Fahrerassistentsysteme von einer bevorstehenden Gefahrensituation, bis zur direkt in Auftraggabe einer Funktionsauslösung, beispielsweise eines Bremsvorgangs. Beispielsweise können auch Airbagsysteme ihre Auslöseschwellen abhängig von der interpretierten Szene anpassen. Die Sensoren am Fahrzeug 11, 12 liefern eine eingeschränkte Abbildung der Umfeld, da die Abbildung Fehleranfälle gegenüber Umfeldeinflüssen ist.In 1 a block diagram is shown with the components of the system involved wherein at least one sensor 11 For example, a lidar sensor with optional other sensors 12 For example, radar or video sensors whose signals a basic signal processing 13 are supplied, the results of which are processed by any system in the vehicle, but in particular by the invention described adaptive environment model 14 , This connects the data with the data of a position sensor 15 , for example, a GPS signal. Furthermore, a sensor data fusion is optionally carried out, wherein the data from the system according to the invention 14 be merged with the data of foreign systems to thereby in particular to recognize and classify objects. The results, ie the data or also classification results of the adaptive environment model 14 and the optional external data fusion provided by external systems will enter into a scene interpretation 17 , which describes the current environment and makes it possible, if necessary, a function triggering 18 perform. This can include a variety of things, from the simple warning of a driver in any way on the message to other driver assistant systems of an imminent danger situation, up to directly in order a function triggering, such as a braking operation. For example, airbag systems can also adjust their trigger thresholds depending on the scene being interpreted. The sensors on the vehicle 11 . 12 Provide a limited picture of the environment, since the figure is faulty against environmental influences.

Alternativ kann zusätzlich eine Rückkopplung der Szeneninterpretation 17 zum adaptiven Umfeldmodell 14 realisiert werden (gestrichelte Linie), hierbei werden Ergebnisse der Szeneninterpretation zur Verbesserung der Vorhersagegenauigkeit des adaptiven Umfeldmodells berücksichtigt.Alternatively, in addition, a feedback of the scene interpretation 17 to the adaptive environment model 14 be realized (dashed line), this results of the scene interpretation to improve the predictive accuracy of the adaptive environment model are considered.

In 2 wird der Signalfluss des erfindungsgemäßen Verfahrens beschrieben, bei dem wenigstens ein Sensor 21 Daten bereitstellt, aus dem Merkmale extrahiert werden 22 und zusammen mit den Positionsdaten 23 in einem Speicher 24 abgelegt werden. Bei den Merkmalen handelt es sich beispielsweise um erkannte Objekte, seien es dynamische oder statische, können aber auch Teilinformationen dieser Objekte, wie Flächeninformationen, Texturen, Konturen, Kanten oder Ecken berücksichtigen. Dieses aktuelle Informationspaar wird gleichzeitig genutzt, um eine Hypothese 25 unter Zuhilfenahmen von früheren Informationen aus dem Speicher 24 zu bilden. Diese Hypothesen ergeben dann das adaptive Umfeldmodell 26 aus welchem eine Szeneninterpretation 27 abgeleitet werden kann, optional unter Zuhilfenahme externer Daten 29 und einer eventuellen Funktionsauslösung 28, wie bereits in 1 beschrieben.In 2 the signal flow of the inventive method is described in which at least one sensor 21 Provides data from which to extract features 22 and together with the position data 23 in a store 24 be filed. The features are, for example, recognized objects, be they dynamic or static, but can also take into account partial information of these objects, such as surface information, textures, contours, edges or corners. This current information pair is used simultaneously to form a hypothesis 25 with help from previous information from the store 24 to build. These hypotheses then yield the adaptive environment model 26 from which a scene interpretation 27 can be derived, optionally with the help of external data 29 and a possible function triggering 28 as already in 1 described.

In einem erweiterten Signalfluss werden ergänzend Informationen des adaptiven Umfeldmodells 26 in den Speicher 24 ablegt (gestrichelte Linie).In an expanded signal flow, additional information of the adaptive environment model is added 26 in the store 24 drops (dashed line).

In den nun folgenden 3 bis 7 beschreibt der Figurteil A ein reales Bild der Umfeldsituation in der sich das Fahrzeug befindet, in Figurteil B das adaptive Umfeldmodell, das mittels des erfindungsgemäßen Verfahrens entsteht.In the following 3 to 7 FIG. A describes a real picture of the surrounding situation in which the vehicle is located, in FIG. B the adaptive environment model that results from the method according to the invention.

Das Szenario in 3 besteht aus einem Fahrzeug, welches ein erfindungsgemäßes System besitzt, zwei Bäumen B1 und B2, zwei Verkehrszeichnen S1 und S2, zwei Gebäuden H1 und H2, sowie einem Fußgänger F1. Durchfährt das Fahrzeug FZG das Szenario so können mit einer gewissen Verlässlichkeit Hypothesen zu statischen Objekten getroffen werden, die in der Karte des adaptiven Umfeldmodells hinterlegt werden. Im Figurteil B ist diese Karte dargestellt, wobei die Verlässlichkeit einer Hypothese über die Stärke des Grauwertes angegeben ist. Bei häufigerem Auftreten eines Objekts insbesondere über mehrmaliges Vorbeifahren wird die Wahrscheinlichkeit für die Klassifikation eines statischen Objekts immer höher und der Grauwert somit immer dunkler. Bei einmaligem Vorbeifahren wie hier in 3 kann durch das Auswerten mehrerer Bilder bereits eine Klassifikation durchgeführt werden und beispielsweise sehr dynamische Objekte wie entgegenkommende Fahrzeuge sogar schon klassifiziert werden. Weiterhin können auch sehr lange sichtbare statische Objekte, wie beispielsweise das Gebäude H1 bereits relativ sicher als statisch klassifiziert werden. Kritisch ist insbesondere ein Objekt wie der Fußgänger F1, der, wenn er sich nicht bewegt, als statisches Objekt fehlklassifiziert werden könnte. Weiterhin werden verdeckte Ziele, wie beispielsweise das Verkehrszeichen S2, welches im Gegensatz zum Verkehrszeichen S1 während der Vorbeifahrt meist durch das Gebäude H1 verdeckt ist, mit nur einer geringen Genauigkeit erkannt, was durch den Grauwert entsprechend dargestellt ist.The scenario in 3 consists of a vehicle having a system according to the invention, two trees B1 and B2, two traffic signs S1 and S2, two buildings H1 and H2, and a pedestrian F1. If the vehicle FZG passes through the scenario, hypotheses can be made about static objects that are stored in the map of the adaptive environment model with a certain degree of reliability. In the figure B this map is shown, wherein the reliability of a hypothesis on the strength of the gray value is indicated. With more frequent occurrence of an object, in particular by driving past several times, the probability for the classification of a static object is always higher and the gray value thus always darker. With a single pass as here in 3 By evaluating several images, a classification can already be carried out and, for example, very dynamic objects such as oncoming vehicles can even be classified. Furthermore, even very long visible static objects, such as the building H1 can be classified as relatively static as static. Particularly critical is an object such as the pedestrian F1, which, if it does not move, could be misclassified as a static object. Furthermore, hidden targets, such as the traffic sign S2, which is covered in contrast to the traffic sign S1 during passing by mostly the building H1, recognized with only a slight accuracy, which is represented by the gray value accordingly.

Insbesondere in 4 zeigt sich nun der erfindungsgemäße Vorteil, bei dem durch mehrfache Sensierung einer häufig gefahrenen Strecke, auch von verschiedenen Richtungen (z. B. auf dem Rückweg von der Arbeit) eine genauere Klassifikation möglich wird. In dieser Figur findet das Fahrzeug FZG das selbe statische Szenario vor, wodurch eine weitere Stabilisierung der Hypothesen des adaptiven Umfeldmodells erfolgen kann. Wie der Figur zu entnehmen ist, kann der zuvor in 3 als unsicheres statisches Objekt erkannte Fußgänger F1 nun richtig als dynamisches Objekt klassifiziert werden, da dieser nicht mehr detektiert werden kann, da er verschwunden ist. Somit kann die Wahrscheinlichkeit für dessen Hypothese als statisches Objekt in der digitalen Karte des adaptiven Umfeldmodells reduziert und prinzipiell gelöscht werden. Alternativ kann das Wissen über klassifizierte dynamische Objekte für die Erstellung von Bewegungsprofilen eingesetzt werden. Gleichzeitig können statische Objekte, die durch die einmalige Sensierung auf Grund der vorher beschriebenen Verdeckung nicht eindeutig als statisch klassifiziert werden konnten, nun genauer zugeordnet werden, was sich in der 4B als dunklerer Grauwert des Verkehrszeichens S2 dargestellt ist. Hierbei kommt förderlicherweise dazu, dass die Betrachtung aus einer anderen Perspektive (Rückweg) stattfinden kann.In particular in 4 the advantage according to the invention now appears in which a more accurate classification becomes possible by multiple sensing of a frequently traveled route, also from different directions (eg on the way back from the work). In this figure, the vehicle FZG finds the same static scenario, whereby a further stabilization of the hypotheses of the adaptive environment model can take place. As the figure can be seen, the previously in 3 as an unstable static object, pedestrian F1 has now been correctly classified as a dynamic object, since it can no longer be detected because it has disappeared. Thus, the probability of its hypothesis as a static object in the digital map of the adaptive environment model can be reduced and deleted in principle. Alternatively, the knowledge of classified dynamic objects can be used to create motion profiles. At the same time, static objects that could not be unambiguously classified as static by the one - time sensing due to the previously described occlusion can now be more accurately assigned, which is reflected in the 4B is shown as a darker gray value of the traffic sign S2. This conducive to the fact that the viewing can take place from another perspective (return).

In 5 ist das Fahrzeug FZG mit Fußgängern F1 bis F3 konfrontiert, welches sich plötzlich in einem – bereits bekannten – Umfeld befinden, bzw. auftauchen. Dadurch, dass das Umfeldmodell durch mehrmalige Vorbeifahrt bereits gefestigt ist (siehe Tiefe der Grauwerte), genügt eine siginifikante Abweichung der aktuellen Sensorinformation vom adaptierten Umfeldmodell (hier der Fußgänger), um mit einer hohen Sicherheit sagen zu können, dass es sich um ein dynamisches Objekt handelt. Somit kann eine sehr schnelle Reaktion erfolgen. So kann beispielsweise ein Bremsmanöver eingeleitet werden, wenn sich Fußgänger auf der Fahrbahn befinden, eine Baustelle neu eingerichtet wurde, das Ende eines Staus erreicht wird oder parkende Autos die Weiterfahrt behindern. Gleiches gilt für Warnungen bzw. Ausweichmanöver oder sonstige Reaktionen.In 5 the vehicle FZG is confronted with pedestrians F1 to F3, which are suddenly in an - already known - environment, or emerge. Due to the fact that the environment model is already established by repeated passing (see depth of gray values), a significant deviation of the current sensor information from the adapted environment model (here the pedestrian) is sufficient to say with a high degree of certainty that it is a dynamic object is. Thus, a very fast reaction can take place. Thus, for example, a braking maneuver can be initiated when pedestrians are on the road, a construction site has been re-established, the end of a traffic jam is reached or parked cars impede the onward journey. The same applies to warnings or evasive maneuvers or other reactions.

In 6 ist ein gestrichelt umrandeter Bereich dargestellt, in dem das Fahrzeug FZG auf Grund von beispielsweise Witterungseinflüssen kein Signal, bzw. keine geeignete Abbildung erhält, um Objekte wahrnehmen zu können. Bei derartigen Gegebenheiten steht daher für einen bestimmten Straßenzug kein verlässliches und aktuelles Bild zur Verfügung. Die in früheren Vorbeifahrten wahrgenommenen statischen Landmarken, Objekte und Merkmale, die im adaptiven Umfeldmodell hinterlegt sind, ermöglichen eine Prädiktion des befahrbaren Bereichs bzw. eines Fahrschlauches auch in dem Teil des uneinsichtigen Straßenverlaufs. Dadurch kann die Vorausschauungsweite im Vergleich zu den heutigen Systemen durch das Vorwissen aus bereits abgefahrenen Strecken entscheidend erhöht werden.In 6 a dashed bordered area is shown in which the vehicle FZG due to, for example, weather conditions no signal, or no suitable image receives to perceive objects. In such circumstances, therefore, no reliable and up-to-date image is available for a particular street. The static landmarks, objects and features perceived in past pass-bys, which are stored in the adaptive environment model, allow a prediction of the drivable area or a travel tube also in the part of the unreasonable road course. As a result, the foresight range can be significantly increased in comparison to today's systems by the prior knowledge of already worn tracks.

In 7 ist im Figurteil A eine Situation gezeigt, die bei heutigen Umfeldsensoren zur Abbildungsfehlern führen können und nur schwer beherrschbar sind. Es ist eine fehlerhafte Abbildung E auf Grund der Triangulation mit einer Stereo-Videosensorik dargestellt, die Aufgrund der Konstellation der Objekte H1 und H2 ein Scheinobjekt erzeugt. Durch Plausibilisierung der erhaltenen Sensorinformation mittels des adaptiven Umfeldmodells lässt sich darauf schließen, dass das ermittelte Objekt E ein Abbildungsfehler darstellt und somit keine Fehleintragung eines neuen Objekts in das adaptive Umfeldmodell erfolgt bzw. eine Fehlklassifikation stattfindet.In 7 is shown in the figure A, a situation that can lead to aberrations in today's environment sensors and are difficult to control. It is a faulty figure E due to the triangulation with a stereo video represented sensor system, which generates a dummy object due to the constellation of the objects H1 and H2. By plausibility checking of the obtained sensor information by means of the adaptive environment model, it can be concluded that the determined object E represents an aberration and thus no erroneous entry of a new object into the adaptive environment model takes place or a misclassification takes place.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 102006058304 A1 [0002] - DE 102006058304 A1 [0002]
  • - DE 10335601 A1 [0003] - DE 10335601 A1 [0003]

Claims (10)

Verfahren zur Umfelderkennung – für ein sich bewegendes System – wobei wenigstens ein an das sich bewegende System gebundener Sensor zum Einsatz kommt, – bei dem mittels eines bildgebenden Verfahrens – wenigstens ein Objekt oder Merkmal im Umfeld des Systems erkannt wird – zu einem ersten Zeitpunkt – wobei Daten des wenigstens eines dieser Objekte oder Merkmale in einem Speicher abgelegt werden, dadurch gekennzeichnet, dass – nach einer weiteren möglichen Sichtung dieses wenigstens einen Objekts oder Merkmals – zu einem mindestens zweiten Zeitpunkt – eine Klassifikation dieses wenigstens einen Objekts oder Merkmals stattfindet – mithilfe eines Vergleichs der im Speicher abgelegten Daten.Method for environment detection - for a moving system - wherein at least one sensor attached to the moving system is used, - in which by means of an imaging process - at least one object or feature is detected in the environment of the system - at a first time - Data of at least one of these objects or features are stored in a memory, characterized in that - after a further possible screening of this at least one object or feature - at least a second time - a classification of this at least one object or feature takes place - using a comparison the data stored in memory. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass – das wenigstens eine Objekt oder Merkmal in einer digitale Karte eingetragen wird.Method according to claim 1, characterized in that that The at least one object or feature in a digital map is registered. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die zu vergleichenden Daten von den mindestens zwei Zeitpunkten, vom dem wenigstens einen selben Sensor stammt und/oder aus Sensordaten des selben wenigstens einen Sensors errechnet wurden.Method according to one of the preceding claims, characterized marked that - the data to be compared from the at least two times, from the at least one same sensor originates and / or from sensor data of the same at least one sensor were calculated. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – zu einer genaueren Klassifikation zusätzlich Informationen von anderen Quellen herangezogen werden könnenMethod according to one of the preceding claims, characterized marked that - for a more precise classification additional information from other sources used can be Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – nur die Daten der Objekte oder Merkmale gespeichert werden, die besonders häufig gesichtet werden und/oder – an deren üblichem Standort das System besonders häufig vorbei kommt und/oder – die durch die nachgelagerte Szeneninterpretation als besonders relevant für eine darzustellende Fahraufgabe, wie z. B. das autonome Fahren, eingestuft werden.Method according to one of the preceding claims, characterized marked that - only the data of the objects or Characteristics are stored that are spotted most frequently be and / or - at their usual location the system comes over often and / or - the through the downstream scene interpretation as particularly relevant for a driving task to be displayed, such. B. the autonomous Driving, to be classified. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die wenigstens eine Klassifikation mit einer Wahrscheinlichkeit oder Verlässlichkeit für die richtige Klassifikation verbunden wird und/oder – die Wahrscheinlichkeit und Verlässlichkeit in Form eines iterativen Verfahrens über die Zeit angepasst werden.Method according to one of the preceding claims, characterized marked that - the at least one classification with a probability or reliability for the right classification is linked and / or - the Probability and reliability in the form of an iterative Procedure to be adapted over time. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die Daten und/oder die Klassifikation und/oder daraus resultierende Reaktionskommandos anderen Systemen zugetragen werden und/oder – gespeichert werden und/oder – für die Erstellung von Bewegungsprofilen klassifizierter, dynamischer Objekte herangezogen werden.Method according to one of the preceding claims, characterized marked that - the data and / or the classification and / or resulting reaction commands to other systems be carried and / or - be stored and / or - For the creation of motion profiles more classified, more dynamic Objects are used. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – bei einer Unmöglichkeit der Erkennung von Objekten oder Merkmalen zum zweiten Zeitpunkt auf die gespeicherten Daten und/oder Klassifikation zurückgegriffen wird.Method according to one of the preceding claims, characterized marked that - at an impossibility the detection of objects or features at the second time to the stored data and / or classification becomes. Vorrichtung zur Umfelderkennung – für ein sich bewegendes System, – mit wenigstens einem dem System zugehörigen Sensor, – geeignet zur Durchführung eines bildgebenden Verfahrens – zur Erkennung von wenigstens einem Objekt oder Merkmal im Umfeld – mit einem Speicher dadurch gekennzeichnet, dass – eine Einheit zur Klassifikation derart ausgeprägt ist, – die Daten von verschiedenen Zeitpunkten aus dem Speicher zu vergleichenDevice for environment detection - For a moving system, - with at least one sensor associated with the system, - suitable to carry out an imaging process - to Detection of at least one object or feature in the environment - With a memory characterized in that - one Unit for classification is so pronounced - the Compare data from different times from memory Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass – Schnittstellen vorgesehen sind, die in das System weitere Daten zur Klassifikation importieren, – und/oder Daten und/oder Klassifikation und/oder daraus resultierende Reaktionskommandos an andere Systeme exportieren.Device according to claim 9, characterized in that that - Interfaces are provided in the System import more data for classification, - and or Data and / or classification and / or resulting reaction commands to export to other systems.
DE102008041679A 2008-08-29 2008-08-29 Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature Withdrawn DE102008041679A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008041679A DE102008041679A1 (en) 2008-08-29 2008-08-29 Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008041679A DE102008041679A1 (en) 2008-08-29 2008-08-29 Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature

Publications (1)

Publication Number Publication Date
DE102008041679A1 true DE102008041679A1 (en) 2010-03-04

Family

ID=41605875

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008041679A Withdrawn DE102008041679A1 (en) 2008-08-29 2008-08-29 Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature

Country Status (1)

Country Link
DE (1) DE102008041679A1 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010040650A1 (en) 2010-09-13 2012-03-15 Robert Bosch Gmbh Device and method for adjusting the illumination of a vehicle in case of unreasonable curves
DE102011082477A1 (en) 2011-09-12 2013-03-14 Robert Bosch Gmbh Method and system for creating a digital image of a vehicle environment
DE102011121487A1 (en) 2011-12-16 2013-06-20 Audi Ag Method for operating driver assistance system of motor vehicle e.g. car, involves detecting whether vehicle movement trajectory passes within driving path that is detected based on track course extending in vehicle travel direction
DE102012004396A1 (en) 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Method and device for detecting objects in an environment of a vehicle
DE102012215533A1 (en) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Method for determining position of rail vehicle by satellite navigation system, involves providing receiver unit in retainer at track, and comparing recorded data in retainer with stored data of landmarks
US20140376777A1 (en) * 2012-02-10 2014-12-25 Isis Innovation Limited Method Of Locating A Sensor And Related Apparatus
WO2015009217A1 (en) * 2013-07-18 2015-01-22 Scania Cv Ab Management of sensor detection in a driver assistance system of a vehicle
DE102011083378B4 (en) * 2011-09-26 2015-07-16 Robert Bosch Gmbh Device and method for checking route data
DE102015212581A1 (en) 2015-07-06 2017-01-12 Robert Bosch Gmbh Driver assistance and driver assistance system
US9945950B2 (en) 2012-04-02 2018-04-17 Oxford University Innovation Limited Method for localizing a vehicle equipped with two lidar systems
DE102018118215A1 (en) * 2018-07-27 2020-01-30 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
DE102018133457A1 (en) * 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Method and system for providing environmental data
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
DE102022206175A1 (en) 2022-06-21 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Procedure for finding a parking space
DE102023108655A1 (en) * 2023-04-04 2024-10-10 Bayerische Motoren Werke Aktiengesellschaft mapping a predetermined geographic area
DE102012023498B4 (en) 2012-12-03 2024-10-10 Continental Autonomous Mobility Germany GmbH Method and system for automatic and/or assisted vehicle guidance
DE102023210178A1 (en) 2023-10-18 2025-04-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method and system for providing map data for operation of an automated and/or assistive system
DE102024115995A1 (en) * 2024-06-07 2025-12-11 Audi Aktiengesellschaft Method for controlling at least one system component of a system according to environmental information generated by the system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601A1 (en) 2003-08-04 2005-03-03 Robert Bosch Gmbh Classification of objects using 3D model database e.g. for vehicle safety or industrial production processes, involves measuring data of information about all three directions spatially with comparisons made of three-dimensional data
DE102006058304A1 (en) 2006-12-11 2008-06-12 Robert Bosch Gmbh Position-based processing of data for vehicle approaching position comprises simultaneous processing of data associated with position and event occurring at it

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601A1 (en) 2003-08-04 2005-03-03 Robert Bosch Gmbh Classification of objects using 3D model database e.g. for vehicle safety or industrial production processes, involves measuring data of information about all three directions spatially with comparisons made of three-dimensional data
DE102006058304A1 (en) 2006-12-11 2008-06-12 Robert Bosch Gmbh Position-based processing of data for vehicle approaching position comprises simultaneous processing of data associated with position and event occurring at it

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010040650A1 (en) 2010-09-13 2012-03-15 Robert Bosch Gmbh Device and method for adjusting the illumination of a vehicle in case of unreasonable curves
WO2012034848A1 (en) 2010-09-13 2012-03-22 Robert Bosch Gmbh Device and method for adjusting the lighting of a vehicle in blind curves
CN103097196A (en) * 2010-09-13 2013-05-08 罗伯特·博世有限公司 Device and method for adjusting the lighting of a vehicle in unclear curves
CN103097196B (en) * 2010-09-13 2018-06-12 罗伯特·博世有限公司 Device and method for adjusting the lighting of a vehicle in unclear curves
US9227553B2 (en) 2010-09-13 2016-01-05 Robert Bosch Gmbh Device and method for adjusting the lighting of a vehicle in blind curves
DE102011082477A1 (en) 2011-09-12 2013-03-14 Robert Bosch Gmbh Method and system for creating a digital image of a vehicle environment
EP2579228A1 (en) 2011-09-12 2013-04-10 Robert Bosch GmbH Method and system for digital imaging of the vicinity of a vehicle
DE102011083378B4 (en) * 2011-09-26 2015-07-16 Robert Bosch Gmbh Device and method for checking route data
DE102011121487B4 (en) * 2011-12-16 2016-03-03 Audi Ag Device and method for operating at least one driver assistance system of a motor vehicle
DE102011121487A1 (en) 2011-12-16 2013-06-20 Audi Ag Method for operating driver assistance system of motor vehicle e.g. car, involves detecting whether vehicle movement trajectory passes within driving path that is detected based on track course extending in vehicle travel direction
US20140376777A1 (en) * 2012-02-10 2014-12-25 Isis Innovation Limited Method Of Locating A Sensor And Related Apparatus
US20170098128A1 (en) * 2012-02-10 2017-04-06 Oxford University Innovation Limited Method of locating a sensor and related apparatus
US9576206B2 (en) * 2012-02-10 2017-02-21 Oxford University Innovation Limited Method of locating a sensor and related apparatus
WO2013131592A1 (en) 2012-03-03 2013-09-12 Volkswagen Aktiengesellschaft Method and device for detecting objects in the surroundings of a vehicle
DE102012004396A1 (en) 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Method and device for detecting objects in an environment of a vehicle
US9488725B2 (en) 2012-03-03 2016-11-08 Volkswagen Aktiengesellschaft Method and device for detecting objects in the surroundings of a vehicle
US9945950B2 (en) 2012-04-02 2018-04-17 Oxford University Innovation Limited Method for localizing a vehicle equipped with two lidar systems
DE102012215533A1 (en) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Method for determining position of rail vehicle by satellite navigation system, involves providing receiver unit in retainer at track, and comparing recorded data in retainer with stored data of landmarks
DE102012023498B4 (en) 2012-12-03 2024-10-10 Continental Autonomous Mobility Germany GmbH Method and system for automatic and/or assisted vehicle guidance
WO2015009217A1 (en) * 2013-07-18 2015-01-22 Scania Cv Ab Management of sensor detection in a driver assistance system of a vehicle
DE102015212581A1 (en) 2015-07-06 2017-01-12 Robert Bosch Gmbh Driver assistance and driver assistance system
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
US11745767B2 (en) * 2018-03-30 2023-09-05 Komatsu Ltd. Work machine control system, work machine, and work machine control method
DE102018118215B4 (en) * 2018-07-27 2020-04-16 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
US11940291B2 (en) 2018-07-27 2024-03-26 Volkswagen Aktiengesellschaft Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium
DE102018118215A1 (en) * 2018-07-27 2020-01-30 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
DE102018133457B4 (en) 2018-12-21 2020-07-09 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102018133457A1 (en) * 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Method and system for providing environmental data
US12002353B2 (en) 2018-12-21 2024-06-04 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102022206175A1 (en) 2022-06-21 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Procedure for finding a parking space
DE102023108655A1 (en) * 2023-04-04 2024-10-10 Bayerische Motoren Werke Aktiengesellschaft mapping a predetermined geographic area
DE102023210178A1 (en) 2023-10-18 2025-04-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method and system for providing map data for operation of an automated and/or assistive system
DE102024115995A1 (en) * 2024-06-07 2025-12-11 Audi Aktiengesellschaft Method for controlling at least one system component of a system according to environmental information generated by the system

Similar Documents

Publication Publication Date Title
DE102008041679A1 (en) Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature
DE102017203838B4 (en) Process and system for detecting the surroundings
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102017206847B4 (en) Method for the automatic creation and updating of a data record for an autonomous vehicle
EP3584663A1 (en) Method for automatic transverse guidance of a follow vehicle in a vehicle platoon
WO2015197353A2 (en) Method for producing a model of the surroundings of a vehicle
EP2583263A1 (en) Method for combining a road sign recognition system and a lane detection system of a motor vehicle
DE102012024873A1 (en) Method and control device for providing a road ahead
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102016213782A1 (en) A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane
DE102016213817A1 (en) A method, apparatus and computer readable storage medium having instructions for determining the lateral position of a vehicle relative to the lanes of a lane
DE102016208025A1 (en) Method for detecting traffic signs
DE102017209347A1 (en) Method and device for controlling a vehicle
DE102010049215A1 (en) Method for determining vehicle environment, particularly for determining traffic lane course, involves determining objects in environment of vehicle from current local environment data
EP3609755A1 (en) Driver assistance system for a vehicle
DE102018214971A1 (en) Method for creating a map of the surroundings of a vehicle
WO2020148047A1 (en) Method for training a trajectory for a vehicle, and electronic vehicle guiding system
DE102015005987B4 (en) Method for operating a radar sensor in a motor vehicle, radar sensor and motor vehicle
DE102019102922A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
DE102010049214A1 (en) Method for determining lane course for vehicle for e.g. controlling lane assistance device, involves determining global surrounding data from fusion of lane course data with card data, and determining lane course of vehicle from global data
DE102017004721A1 (en) Method for locating a vehicle
DE102019216732A1 (en) Process and system for plausibility checking of map data
WO2017174227A1 (en) Method for determining a pose of an at least partially autonomously moving vehicle using specially selected landmarks transmitted from a back end server
DE102016212786A1 (en) Driver assistance system for an ego vehicle on a path of a road network and method for operating the driver assistance system
WO2017198358A1 (en) Method and device for determining the location of a vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20110408

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee