[go: up one dir, main page]

DE102007007540A1 - Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane - Google Patents

Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane Download PDF

Info

Publication number
DE102007007540A1
DE102007007540A1 DE102007007540A DE102007007540A DE102007007540A1 DE 102007007540 A1 DE102007007540 A1 DE 102007007540A1 DE 102007007540 A DE102007007540 A DE 102007007540A DE 102007007540 A DE102007007540 A DE 102007007540A DE 102007007540 A1 DE102007007540 A1 DE 102007007540A1
Authority
DE
Germany
Prior art keywords
lane
reference vehicle
objects
detected
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007007540A
Other languages
German (de)
Inventor
Ludwig Ertl
Christian Dr. Preis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corp filed Critical Siemens Corp
Priority to DE102007007540A priority Critical patent/DE102007007540A1/en
Publication of DE102007007540A1 publication Critical patent/DE102007007540A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The device (100) has an object tracking device for spatial tracking of objects, which are detected by an object detection device (111), in a lane. A lane characteristic determining device determines geometry of the lane used by a reference vehicle. The object tracking device determines a position of the detected objects based on a position of the objects relative to the reference vehicle in spatial relation to the geometry of the lane. An independent claim is also included for a method for detecting and tracking an object in a surrounding of a vehicle in a roadway.

Description

Die Erfindung betrifft das Erkennen von Fahrzeugen, die sich im toten Winkel eines Fahrzeugs befinden oder sich diesem auf einem benachbarten Fahrstreifen nähern.The The invention relates to the detection of vehicles in the dead Angle of a vehicle are located or this on an adjacent Approach lanes.

Zur Vermeidung von Gefahrensituationen beim Führen eines Kraftfahrzeugs werden als Fahrerassistenzsysteme bekannte elektronische Zusatzsysteme eingesetzt, die den Fahrzeugführer vor kritischen Situation warnen teilweise sogar in die Fahrzeugführung eingreifen können. Beim Spurenwechsel, z. B. im Rahmen eines Überholvorgangs, kann es zu einer Kollision mit einem sich von hinten nähernden Fahrzeug kommen, wenn sich dieses zuvor unerkannt im so genannten toten Winkel des eigenen Fahrzeugs befunden hatte. Weitere Gefahrensituationen können beispielsweise beim Wechsel der Fahrstreifen entstehen, wenn sich auf den benachbarten Fahrstreifen andere Fahrzeuge mit großer Relativgeschwindigkeit nähern.to Avoidance of dangerous situations when driving a motor vehicle known as driver assistance systems known electronic auxiliary systems used the driver warn of critical situation sometimes even intervene in the vehicle control can. When changing tracks, z. B. in the context of an overtaking, it may a collision with a vehicle approaching from behind, if This previously unrecognized in the so-called blind spot of your own vehicle had found. Other dangerous situations, for example, when changing Lanes arise when on the adjacent lane other vehicles with big ones Approach relative speed.

Es werden daher Fahrerassistenzsysteme für die Erfassung des toten Winkels und zur Spurwechselunterstützung angeboten, die jeweils Informationen darüber liefern, ob sich andere Fahrzeuge auf benachbarten Fahrstreifen im toten Winkel der eigenen Außenspiegel befinden bzw. sich diesem schnell von hinten nähern. Erkennen diese Systeme bei der Einleitung eines Spurenwechsels eine sich dadurch anbahnende Gefahrensituation, so warnen sie den Fahrzeugführer z. B. mittels einer diskreten Vibration des Lenkrads.It are therefore driver assistance systems for the detection of the blind spot and to lane change assistance each providing information about whether others are Vehicles on adjacent lanes in the blind spot of their own Mirrors or approaching it quickly from behind. Recognize these systems the initiation of a change of track is thereby an impending Hazardous situation, they warn the driver z. B. by means of a discrete vibration of the steering wheel.

Die Erfassung von Fahrzeugen im Umfeld des eigenen erfolgt meist mit Radarsensoren, kann aber auch mittels anderer Umfeldsensoren erfolgen, beispielsweise mit Lidar- oder Ultraschallsensoren. Um festzustellen, ob ein rückwärtig fahrendes Fahrzeug eine Gefährdung beim Wechsel der Fahrspur darstellt, müssen die rückwärtig erfassten Fahrzeuge den verschiedenen Fahrstreifen der gerade befahrenen Fahrbahn zugeordnet werden. Die gegenwärtig eingesetzten Fahrerassistenzsysteme zur Überwachung des rückwärtigen Verkehrs, wie beispielsweise Blind Spot Detection (BSD) und Lane Change Assistent (LCA), können zwar rückwärtige Fahrzeuge erkennen, diese mangels einer Erkennung von Fahrbahnmarkierungen, wie Leit- oder Fahrstreifenbegrenzungslinien, jedoch nicht direkt einem jeweiligen Fahrstreifen zuordnen.The Detection of vehicles in the environment of their own usually with Radar sensors, but can also be done using other environmental sensors, for example with lidar or ultrasonic sensors. To determine if a rearward driving Vehicle a hazard when changing the lane, the rear detected vehicles must assigned to different lanes of the road currently being used become. The currently used Driver assistance systems for monitoring rear traffic, such as Blind Spot Detection (BSD) and Lane Change Assistant (LCA), can Although rear vehicles recognize this lack of recognition of lane markings, like guideway or lane boundary lines, but not directly Assign to a respective lane.

Für die Fahrstreifenzuordnung werden stattdessen symmetrisch rechts und links zum Fahrzeug verlaufende Fahrstreifen festgelegter Breite angenommen und die Lage der erfassten Fahrzeuge relativ zu diesen "theoretischen" Fahrstreifen abgeschätzt. Ist die tatsächliche Fahrstreifenbreite jedoch geringer als die angenommene, so gibt das System unter Umständen auch dann eine Warnung aus, wenn sich das rückwärtige Fahrzeug nicht auf dem unmittelbar benachbarten Fahrstreifen, sondern auf einem Fahrstreifen bzw. einer Fahrspur weiter entfernt befindet. Eine Abweichung der tatsächlichen Fahrstreifenbreite von der für die Auswertung im Fahrerassistenzsystem vorgegebnen Fahrstreifenbreite kann damit zu einer fehlerhaften Fahrspurzuordnung führen.For the lane assignment instead be symmetrical right and left to the vehicle running Lanes of defined width adopted and the location of the detected Vehicles estimated relative to these "theoretical" lanes. is the actual Lane width, however, less than the assumed, so there the system under circumstances even then a warning if the rear vehicle is not on the immediate adjacent lanes, but on a lane or a Lane is located further away. A deviation of the actual lane width from the for the evaluation in the driver assistance system can predefined lane width thus lead to a faulty lane assignment.

Ferner muss für die Fahrstreifenzuordnung auch der Verlauf des rückwärtigen Fahrstreifens abgeschätzt werden. Im Allgemeinen geschieht dies durch Auswerten der Fahrzeuggeschwindigkeit in Verbindung mit den Lenkbewegungen des Fahrzeugs. Häufig wird der tatsächliche Verlauf dadurch nicht mit ausreichender Genauigkeit wiedergegeben, da viele Fahrer die Kurven schneiden oder bei mehrspurigen Richtungsfahrbahnen teilweise oder vollständig in andere Fahrspuren wechseln und bisweilen auch in Schlangenlinien fahren. Dadurch wird ein zum tatsächlichen verschiedener Fahrstreifenverlauf ermittelt, woraus sich eine durch falsche Fahrstreifenzuordnung verursachte Fehlwarnung ergeben kann.Further must for the lane assignment and the course of the rear lane are estimated. In general, this is done by evaluating the vehicle speed in connection with the steering movements of the vehicle. Frequently becomes the actual History thereby not reproduced with sufficient accuracy, since many drivers cut the corners or multi-lane directional lanes partially or completely change into other lanes and sometimes in snaking lines drive. As a result, an actual different lane course is determined, from which a caused by wrong lane assignment Failure warning can result.

Eine weitere Ursache für die Ausgabe von Fehlwarnungen ist bei den gegenwärtigen Systemen durch ihre mangelnde Unter scheidung von Straßeninfrastrukturelementen, wie beispielsweise Schutzplanken (ehemals Leitplanken) und Leitpfosten, und rückwärtigen Fahrzeugen gegeben. Denn die Unterscheidung zwischen Straßeninfrastrukturelementen und anderen Fahrzeugen erfolgt nur anhand der Signale der Umfeldsensoren und den daraus berechneten Objekttrajektorien. Die Zuordnung, ob sich das detektierte Element innerhalb eines Fahrstreifens (dies würde auf ein Fahrzeug deuten) oder außerhalb der Fahrbahn (wie es für Straßeninfrastrukturelemente üblich ist) befindet, ist mit diesen Mitteln nicht möglich.A further cause for the issuing of false warnings is by their current systems lack of differentiation of road infrastructure elements, such as crash barriers (former guardrails) and delineators, and rear vehicles given. Because the distinction between road infrastructure elements and other vehicles are only based on the signals of the environment sensors and the calculated object trajectories. The assignment, whether the detected element within a lane (this would on to interpret a vehicle) or outside the Roadway (as is for Road infrastructure elements is common) is not possible with these means.

Es ist daher Aufgabe der Erfindung, eine Vorrichtung zur korrekten Fahrstreifenzuordnung rückwärtig eines Bezugsfahrzeugs erfasster Fahrzeuge anzugeben.It It is therefore an object of the invention to provide a device for correct Lane assignment backward one Reference vehicle of registered vehicles.

Die Aufgabe wird gemäß den unabhängigen Ansprüchen der Erfindung gelöst.The The object is according to the independent claims of Invention solved.

Die Erfindung umfasst eine Vorrichtung für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn mit einer Objekterfassungseinrichtung zum Erfassen von Objekten in der Umgebung eines Bezugsfahrzeugs, einer Lagebestimmungseinrichtung zum Bestimmen der Lage der erfassten Objekte relativ zum Bezugsfahrzeug, einer optischen Abbildungseinrichtung zum Erzeugen einer optischen Abbildung von zumindest einem Teilbereich der Fahrbahn, einer Bildwandlungseinrichtung zum Umwandeln der optischen Abbildung in diese repräsentierende Bildsignale, einer Bildverarbeitungseinrichtung zur Erfassung von Fahrstreifenmarkierungen der Fahrbahn auf der Grundlage der Bildsignale, einer Fahrstreifenbreite-Ermittlungseinrichtung zur Ermittlung der Breite des oder der von den Fahrstreifenmarkierungen begrenzten Fahrstreifen, einer Positionsbestimmungseinrichtung zur Bestimmung der Position des Bezugsfahrzeugs relativ zu einer der erfassten Fahrstreifenmarkierung oder relativ zu mehreren der erfassten Fahrstreifenmarkierungen, einer Fahrweg-Bestimmungseinrichtung zum Bestimmen des von dem Bezugsfahr zeug zurückgelegten Fahrwegs, einer Fahrstreifengeometrie-Ermittlungseinrichtung zum Ermitteln der Geometrie des von dem Bezugsfahrzeug benutzten Fahrstreifens und zumindest eines an diesen angrenzenden Fahrstreifens in einem vorgegebenen Bereich hinter dem Bezugsfahrzeug, und einer Objektzuordnungseinrichtung zum räumlichen Zuordnen eines von der Objekterfassungseinrichtung erfassten Objekts zu einem Fahrstreifen. Die Fahrstreifenverlauf-Ermittlungseinrichtung ist hierbei dazu ausgebildet, die Geometrie der Fahrstreifen auf der Grundlage des von der Fahrweg-Bestimmungseinrichtung bestimmten zurückgelegten Fahrwegs des Bezugsfahrzeugs, der im Verlauf des zurückgelegten Fahrwegs von der Bildverarbeitungseinrichtung jeweils erfassten Fahrstreifenmarkierungen und der von der Fahrstreifenbreite-Ermittlungseinrichtung ermittelten Fahrstreifenbreite sowie der von der Positionsbestimmungseinrichtung bestimmten Position des Bezugsfahrzeugs relativ zu der einen oder den mehreren Fahrstreifenmarkierungen zu ermitteln, und die Objektzuordnungseinrichtung ist dazu ausgebildet, die Lage der erfassten Objekte anhand der von der Lagebebestimmungseinrichtung bestimmten Lage der Objekte relativ zum Bezugsfahrzeug in räumlicher Relation zur Geometrie der Fahrstreifen zu ermitteln.The invention comprises a device for detecting objects in the vicinity of a vehicle on a roadway and for assigning the detected objects to lanes of the roadway with an object detection device for detecting objects in the vicinity of a reference vehicle, a position determination device for determining the position of the detected objects relative to the reference vehicle, an optical imaging device for generating an optical image at least a portion of the roadway, image converting means for converting the optical image into image signals representative thereof, image processing means for detecting lane markings of the roadway based on the image signals, lane width detecting means for detecting the width of the lane (s) defined by the lane markings, a position determination device for determining the position of the reference vehicle relative to one of the detected lane markings or relative to a plurality of the detected lane markings, a guideway determining device for determining the distance covered by the reference vehicle, a lane geometry determination device for determining the geometry of the lane used by the reference vehicle and at least one adjacent to this lane in a predetermined area behind the reference vehicle, and an object zuor Dnungseinrichtung for spatially assigning an object detected by the object detection device object to a lane. In this case, the lane course determination device is designed to determine the geometry of the lanes on the basis of the distance traveled by the path determining device of the reference vehicle, the lane markings respectively detected by the image processing device in the course of the traveled travel distance, and the lane width determined by the lane width determination device determining the position of the reference vehicle determined by the position-determining device relative to the one or more lane markings, and the object-allocating device is designed to determine the position of the detected objects in relation to the geometry of the lanes based on the position of the objects relative to the reference vehicle determined by the position-determining device to investigate.

In diesem Zusammenhang wird darauf hingewiesen, dass die in dieser Beschreibung und den Ansprüchen zur Aufzählung von Merkmalen verwendeten Begriffe "umfassen", "aufweisen", "beinhalten", "enthalten" und "mit", sowie deren grammatikalische Abwandlungen, generell als nichtabschließende Aufzählung von Merkmalen, wie z. B. Verfahrensschritten, Einrichtungen, Bereichen, Größen und dergleichen aufzufassen ist, die in keiner Weise das Vorhandensein anderer oder zusätzlicher Merkmale oder Gruppierungen von anderen oder zusätzlichen Merkmalen ausschließt.In In this context, it should be noted that in this Description and claims to the list terms used to describe "comprise", "comprise", "include", "contain" and "with", as well as their grammatical modifications, generally as non-conclusive enumeration of features such. B. process steps, facilities, areas, Sizes and the like is to be understood, in no way the presence other or additional Excludes features or groupings from other or additional features.

Die Erfindung umfasst ferner ein Verfahren für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn mit Schritten zum Erfassen von Objekten im Umfeld des Bezugsfahrzeugs, zum Erfassen von wenigstens einem Teilbereich der Fahrbahn zumindest vor dem Bezugsfahrzeug, zum Bestimmen der Lage der erfassten Objekte, zum Bestimmen der Fahrstreifengeometrie und zum Zuordnen der Lage der erfassten Objekte zu den Fahrstreifen auf der Grundlage der bestimmten Lage der Objekte und der bestimmten Fahrstreifengeometrie.The The invention further includes a method for the detection of objects in the vicinity of a vehicle on a roadway and the Assignment of the detected objects to lanes of the roadway with Steps for detecting objects in the environment of the reference vehicle, for detecting at least a portion of the road at least in front of the reference vehicle, for determining the position of the detected objects, for determining the lane geometry and for assigning the location of captured objects to the lanes based on the particular Location of the objects and the specific lane geometry.

Die Erfindung vermeidet Fehlwarnungen aufgrund falscher Fahrstreifenzuordnungen von detektierten Fremdfahrzeugen, wobei insbesondere unnötige Warnungen vor Fahrzeugen, die sich nicht auf dem benachbarten Fahrstreifen befinden, unterbunden werden. Ferner werden erwünschte Warnungen vor Fahrzeugen, die sich auf einem benachbarten Fahrstreifen befinden auch bei kurvigen Straßenverläufen vorteilhaft unterstützt. Weiterhin ermöglicht die Erfindung den Ausschluss von Warnungen vor Objekten, die sich außerhalb der Fahrbahn und damit des warnrelevanten Bereichs befinden.The Invention avoids false warnings due to incorrect lane assignments of detected foreign vehicles, in particular unnecessary warnings in front of vehicles that are not on the adjacent lane be stopped. Furthermore, desired warnings about vehicles, which are on a neighboring lane are also curvy Road progresses advantageous supported. Furthermore possible the invention excludes warnings of objects that are outside the roadway and thus the area relevant to the warning.

Die Erfindung wird in ihren abhängigen Ansprüchen weitergebildet.The Invention is in their dependent claims further training.

Für die Verwendung von auf Laufzeitmessungen beruhenden Umfeldsensoren ist die Lagebestimmungseinrichtung vorteilhaft dazu ausgebildet, die Lage der erfassten Objekte relativ zum Bezugsfahrzeug durch eine Abstands- und Winkelermittlung zu bestimmen.For the use of environment sensors based on transit time measurements is the attitude determination device advantageously designed to the position of the detected objects relative to the reference vehicle by a distance and angle determination too determine.

In einer bevorzugten Weiterbildung der Erfindung ist die Bildverarbeitungseinrichtung ausgebildet, die Art der Fahrstreifenmarkierungen, wie z. B. durchgezogene, unterbrochene, dünne oder dicke Linien, zu erkennen, so dass die Art der Fahrstreifen bestimmt werden kann.In A preferred embodiment of the invention is the image processing device designed, the type of lane markings, such. B. solid, broken, thin or thick lines, to detect, so the type of lanes determined can be.

Um nicht zu berücksichtigende Objekte am Fahrbahnrand oder außerhalb der Fahrbahn ausschließen zu können, ist die Objektzuordnungseinrichtung zweckmäßig dazu ausgebildet, den Rand der Fahrbahn anhand der Art der Fahrstreifenmarkierung zu erkennen.Around not to be considered Objects on the roadside or outside exclude the roadway to be able to the object allocation device is expediently adapted to the edge of the Identify the lane on the basis of the type of lane marking.

Weitere Merkmale der Erfindung ergeben sich aus der folgenden Beschreibung erfindungsgemäßer Ausführungsbeispiele in Verbindung mit den Ansprüchen sowie den Figuren. Die einzelnen Merkmale können bei einer Ausführungsform gemäß der Erfindung je für sich oder zu mehreren verwirklicht sein. Bei der nachfolgenden Erläuterung einiger Ausführungsbeispiele der Erfindung wird auf die beiliegenden Figuren Bezug genommen, von denenFurther Features of the invention will become apparent from the following description inventive embodiments in connection with the claims as well as the figures. The individual features may in one embodiment according to the invention ever for be realized or more than one. In the following explanation some embodiments the invention is referred to the attached figures, of which

1 eine Vorrichtung zur Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der Objekte zu Fahrstreifen der Fahrbahn zeigt, 1 shows a device for detecting objects in the vicinity of a vehicle on a roadway and for the assignment of the objects to lanes of the roadway,

2 mehrere von einer Vorrichtung nach 1 auf verschiedenen Fahrstreifen einer Richtungsfahrbahn erfasste Fahrzeuge zeigt, und 2 several of a device after 1 shows vehicles detected on different lanes of a lane, and

3 die grundlegenden Schritte zur Zuordnung erfasster Objekte zu Fahrstreifen einer Fahrbahn in einem Flussdiagramm zeigt. 3 shows the basic steps for assigning detected objects to lanes of a lane in a flow chart.

1 zeigt eine schematische Darstellung einer Vorrichtung 100 für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn. Die Darstellung der 2 dient zur Veranschaulichung der bei der Objekterkennung zur Gefahrenabschätzung beim Spurwechsel auftretenden Problematiken. 1 shows a schematic representation of a device 100 for the detection of objects in the vicinity of a vehicle on a roadway and for the assignment of the detected objects to lanes of the roadway. The presentation of the 2 serves to illustrate the problems that occur during object recognition for risk assessment when changing lanes.

In der 2 ist beispielhaft eine gekrümmte Richtungsfahrbahn 200 mit vier nebeneinander verlaufenden Fahrstreifen 201, 202, 203 und 204 dargestellt. Die Fahrstreifen sind untereinander durch unterbrochene Fahrstreifenmarkierungen 207, 208 bzw. 209 getrennt, die in der 2 von gestrichelten Linien repräsentiert werden. Die am Rande der Fahrbahn 200 verlaufenden Fahrstreifen 201 und 204 sind dem jeweiligen Fahrbahnrand gegenüber jeweils mit einer als durchgezogene Linie dargestellten Rand- oder Leitlinie 205, 206 abgegrenzt.In the 2 is an example of a curved directional roadway 200 with four adjacent lanes 201 . 202 . 203 and 204 shown. The lanes are interconnected by broken lane markings 207 . 208 respectively. 209 separated in the 2 represented by dashed lines. The on the edge of the roadway 200 running lanes 201 and 204 are each the edge of the road opposite each with a solid line shown edge or guideline 205 . 206 demarcated.

Das die Vorrichtung von 1 beherbergende Bezugsfahrzeug 210 fährt unter Bezugnahme auf die in der Figur nach links gerichtete Fahrtrichtung der Kraftfahrzeuge auf dem zweiten Fahrstreifen 202 der Fahrbahn 200 von rechts. Das Bezugsfahrzeug 210 ist mit (nicht gezeigten) Umfeldsensoren zur Objekterfassung ausgestattet. Der Erfassungsbereich 211 der Umfeldsensoren ist in unterbrochener Kreuzschraffur veranschaulicht. Bei geradem Fahrbahnverlauf erfassen die Umfeldsensoren die dem benutzten Fahrstreifen 202 unmittelbar benachbarten Fahrstreifen 201 und 203, sowie den daran anschließenden Randbereich des daneben liegenden Fahrstreifens 204 und des Fahrbahnrands. Die dargestellte Breite des Erfassungsbereichs stellt nur ein Beispiel dar und ist in keiner Weise als einschränkend zu verstehen. Insbesondere kann der Erfassungsbereich 211 auch eine größere als die dargestellte Breite aufweisen. Als Umfeldsensoren eignen sich Sensoren, die eine Bestimmung der Lage der mit ihnen erfassten Objekte relativ zum Bezugsfahrzeug ermöglichen. Bevorzugt werden Radar-Lidar- oder Ultraschallsensoren verwendet.That the device of 1 harboring vehicle 210 moves with reference to the in the figure to the left direction of travel of the motor vehicles on the second lane 202 the roadway 200 from the right. The reference vehicle 210 is equipped with environment sensors (not shown) for object detection. The coverage area 211 the environment sensors are illustrated in broken crosshatching. In the case of a straight lane course, the environmental sensors record the lane used 202 immediately adjacent lanes 201 and 203 , as well as the adjoining edge area of the adjacent lane 204 and the roadside. The illustrated width of the detection area is only an example and should not be construed as limiting in any way. In particular, the detection range 211 also have a greater width than the illustrated. As environment sensors are suitable sensors that allow a determination of the position of the objects detected with them relative to the reference vehicle. Preferably, radar lidar or ultrasonic sensors are used.

Rückwärts und seitlich zum Bezugsfahrzeug 210 versetzt fahren weitere Fahrzeuge 212, 213, 214 und 215. Jedes dieser Fahrzeuge befindet sich im Erfassungsbereich 211 der Umfeldsensoren des Bezugsfahrzeugs. Eine Gefahrensituation könnte auftreten, wenn das Bezugsfahrzeug 210 auf den Fahrstreifen 203 ausschert und das rückwärtige Fahrzeug 214 sich dem Bezugsfahrzeug mit hoher Geschwindigkeit nähert. Wird der gekrümmte Fahrbahnverlauf nicht berücksichtigt, kann in diesem Fall die erforderlich Warnung des Fahrerassistenzsystems für den Fahrspurwechsel ausbleiben, da sich das Fahrzeug 214 in der rückwärtigen Verlängerung der Längsachse des Bezugsfahrzeugs 210 befindet.Backward and laterally to the reference vehicle 210 offset drive other vehicles 212 . 213 . 214 and 215 , Each of these vehicles is in the detection area 211 the environment sensors of the reference vehicle. A dangerous situation could occur if the reference vehicle 210 on the lane 203 breaks out and the rear vehicle 214 approaches the reference vehicle at high speed. If the curved lane course is not taken into account, the required warning of the driver assistance system for the lane change can be omitted in this case, since the vehicle 214 in the rearward extension of the longitudinal axis of the reference vehicle 210 located.

Umgekehrt würde im dargestellten Fall das Fahrerassistenzsystem für den Fahrspurwechsel eine Fehlwarnung ausgeben, wenn das Bezugsfahrzeug 210 in den Fahrstreifen 201 ausschert, da das Fahrzeug 215 als rechts hinter dem Bezugsfahrzeug befindlich erfasst würde, obwohl es sich im selben Fahrstreifen wie dieses bewegt.Conversely, in the case illustrated, the driver assistance system for the lane change would issue a false warning if the reference vehicle 210 in the lanes 201 goes away as the vehicle 215 would be detected as being behind the subject vehicle even though it is moving in the same lane as this one.

Die Erfindung beruht daher auf der Erkenntnis, dass eine korrekte Beurteilung der aktuellen Gefahrenlage aufgrund des häufig gekrümmten Verlaufs von Fahrbahnen stets eine Zuordnung der erfassten Objekte zu den jeweiligen Fahrstreifen der Fahrbahn erfordert. Dies erfordert die Erfassung der durch Fahrstreifenverlauf und Fahrstreifenbreite bestimmten Fahrstreifengeometrie.The The invention is therefore based on the knowledge that a correct assessment the current danger situation due to the often curved course of roadways always an assignment of the detected objects to the respective lanes the roadway requires. This requires the detection of the lane course and lane width determined lane geometry.

Zum Erfassen der Fahrstreifengeometrie können für Fahrerassistenzsysteme zur Spurhalteunterstützung (engl. Lane Departure Warning, LDP) entwickelte Techniken herangezogen werden. Diese Systeme besitzen eine abbildende Optik, mit denen zumindest ein Teilbereich der Fahrbahn vor der Front des Bezugsfahrzeugs abgebildet werden kann. Das von der Optik erzeugte Abbild wird mithilfe eines, beispielsweise in CMOS-Technologie ausgeführten, Bildwandlers in Bildsignale umgewandelt, deren Informationsgehalt das Abbild umfasst. Die Abbilder werden in regelmäßigen Abständen umgewandelt, sodass immer eine die aktuelle Fahrbahn wiedergebende Bildinformation verfügbar ist. Spurhalteassistenzsysteme weisen weiterhin eine Bildverarbeitungseinrichtung zur Fahrstreifenerkennung auf. Die Fahrstreifenerkennung beruht auf einer Erfassung der Fahrstreifenmarkierungen, die den oder die Fahrstreifen der Fahrbahn begrenzen. Um festzustellen, ob sich das Fahrzeug zum oder gar über den Rand des benutzten Fahrstreifens bewegt, weisen Spurhalteassistenzsysteme darüber hinaus im Allgemeinen Einrichtungen zur Bestimmung der Breite des benutzten Fahrstreifens und zur Bestimmung der Position des eigenen Fahrzeugs relativ zu den Rändern des benutzten Fahrstreifens auf.To the Detecting the lane geometry can for driver assistance systems for Lane Keeping (Lane Departure Warning, LDP) developed techniques become. These systems have an imaging optics with which at least a portion of the roadway in front of the front of the reference vehicle mapped can be. The image created by the optics is for example in CMOS technology executed, image converter converted into image signals whose information content the image includes. The images are converted at regular intervals, so always an image information reproducing the current roadway is available. Lane departure warning systems further include an image processing device for lane detection. Lane detection is based on a detection of the lane markings, the one or more Limit lanes of the roadway. To see if that is Vehicle to or even over moving the edge of the used lane have lane keeping assistance systems about that In addition, generally means for determining the width of the used Lane and to determine the position of your own vehicle relative to the edges of the used lane on.

In der in der 1 dargestellten Vorrichtung zur Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn ist die Verwendung eines bekannten Spurhalteassistenzsystems durch Gruppierung der oben erläuterten Einrichtungen veranschaulicht. Die Verwendung eines Spurhalteassistenzsystems ist jedoch nicht notwendigerweise erforderlich. Vielmehr können die zur Spurerfassung verwendeten Einrichtungen als eigenständige Einrichtungen innerhalb der Vorrichtung 100 ausgebildet sein. Die Gruppierung dieser Einrichtungen zu einer Spurerfassungseinheit 130 innerhalb der Vorrichtung kann dabei sowohl als logische als auch als räumliche Einheit realisiert werden. Das Einbinden bekannter Systeme in den Aufbau der Vorrichtung 100 bietet jedoch die kostengünstige Möglichkeit eines modularen Aufbaus, der eine Vielzahl von Funktionen mit einem reduzierten apparativen Aufwand gestattet.In the in the 1 illustrated device for detecting objects in the vicinity of a vehicle on a roadway and for the assignment of the detected objects to lanes of the roadway, the use of a known lane keeping assistance system is illustrated by grouping the above-mentioned devices. However, the use of a lane keeping assistance system is not necessarily required. Rather, the devices used for track detection can be used as standalone devices within the device 100 be educated. The grouping of these devices into a track detection unit 130 Within the device can be realized both as a logical and as a spatial unit. The incorporation of known systems in the construction of the device 100 However, offers the cost-effective possibility of a modular design that allows a variety of functions with a reduced equipment cost.

Die für die Vorrichtung benötigte Objekterfassungseinrichtung 111 und Lagebestimmungseinrichtung 112 sind in der 1 zu einer Objektlagenerfassungseinheit 110 gruppiert dargestellt. Wie bei der Spurerfassungseinheit 130 können auch für die Realisierung der Objektlagenerfassungseinheit 110 herkömmliche Systeme, wie beispielsweise die zuvor beschriebenen Blind Spot Detection und Lane Change Assistent, in die Vorrichtung 100 eingebunden werden.The object detection device required for the device 111 and orientation device 112 are in the 1 to an object location detection unit 110 grouped. As with the track detection unit 130 can also for the realization of the object position detection unit 110 conventional systems, such as the Blind Spot Detection and Lane Change Assistant described above, into the device 100 be involved.

Die Objekterfassungseinrichtung 111 ist vorzugsweise mit Umfeldsensoren wie Radar, Lidar oder Ultraschall ausgestattet, die eine Objekterkennung anhand der an den Objekten reflektierten Signale ermöglichen. Die von der Objekterfassungseinrichtung empfangenen Signale werden in Lagebestimmungseinrichtung 112 ausgewertet, wobei die Auswertung bei Verwendung der oben angegebenen Umfeldsensoren zweckmäßig auf der Grundlage von richtungsabhängigen Laufzeitmessungen erfolgt. Ergebnis der Lagebestimmung sind die jeweiligen Entfernungen und Richtungen zu den einzelnen, von der Objekterfassungseinrichtung 111 erfassten Objekten. Bei den Objekten kann es sich um andere Fahrzeuge aber z. B. auch um Verkehrseinrichtungen wie Straßenbegrenzungsobjekte (Schutzplanken, Leitpfosten und dergleichen) handeln. Die Ergebnisse der Lagebestimmung werden an die Objektzuordnungseinrichtung 123 übertragen.The object detection device 111 is preferably equipped with environmental sensors such as radar, lidar or ultrasound, which allow object recognition based on the signals reflected at the objects. The signals received by the object detection device are in position determination device 112 evaluated, wherein the evaluation using the environment sensors specified above is expedient on the basis of direction-dependent transit time measurements. Result of the orientation are the respective distances and directions to the individual, from the object detection device 111 captured objects. The objects may be other vehicles but z. As well as traffic facilities such as road boundary objects (guardrails, delineators and the like) act. The results of the orientation are sent to the object allocation device 123 transfer.

Eine Bestimmung der Lage der erfassten Objekte 212, 213, 214, 215 und 216 in Bezug auf die einzelnen Fahrstreifen 201, 202, 203 und 204 einer Fahrbahn 200 erfordert jedoch die Kenntnis der Fahrstreifengeometrie. Diese wird mittels der Spurerfassungseinheit 130 ermittelt. In einer bevorzugten Ausführungsform umfasst die Spurerfassungseinheit 130 eine optische Abbildungseinrichtung 131 z. B. in Form eines Objektivs, die einen Bereich der Fahrbahn 200 vor der Front des Bezugsfahrzeugs 210 auf eine photosensitive Fläche eines ebenfalls in der Spurerfassungseinheit 130 angeordneten Bildwandlers 132 projiziert. Abbildungseinrichtung 131 und Bildwandlungseinrichtung 132 können innerhalb einer Kamera angeordnet sein. Die Bildwandlungseinrichtung 132 dient der Umsetzung des von der Abbildungseinrichtung 131 projizierten Bildes in elektrische Bildsignale, die eine elektronische Verarbeitung und des Bildes und die Auswertung der Bildinformation in der Nachfolgenden Bildverarbeitungseinrichtung 133 und weiteren Einrichtungen ermöglichen.A determination of the location of the detected objects 212 . 213 . 214 . 215 and 216 in relation to the individual lanes 201 . 202 . 203 and 204 a roadway 200 however, requires knowledge of the lane geometry. This is done by means of the track detection unit 130 determined. In a preferred embodiment, the track detection unit comprises 130 an optical imaging device 131 z. In the form of a lens covering a portion of the road surface 200 in front of the front of the reference vehicle 210 on a photosensitive surface of a also in the track detection unit 130 arranged image converter 132 projected. imaging device 131 and image converting means 132 can be arranged inside a camera. The image conversion device 132 serves the implementation of the imaging device 131 projected image into electrical image signals, the electronic processing and the image and the evaluation of the image information in the subsequent image processing device 133 and other facilities.

Die Bildverarbeitungseinrichtung 133 ist zum Erfassen von Fahrstreifenmarkierungen im Abbild des von der optischen Abbildungseinrichtung 131 erfassten Straßenabschnitts ausgebildet. Vorzugsweise kann die Bildverarbeitungseinrichtung 133 auch unterschiedliche Ausführungen von Fahrstreifenmarkierungen erkennen, sodass eine Unterscheidung zwischen Fahrstreifenmarkierungen zur Separation von Fahrstreifen und Fahrstreifenmarkierungen zur Kennzeichnung des Fahrbahnrands getroffen werden kann. Der Bildverarbeitungseinrichtung 133 ist nachfolgend eine Fahrstreifenbreite-Ermittlungseinrichtung angeschlossen, die unter Berücksichtigung des Abbildungseigenschaften und der Ergebnisse von Bildwandlung und Bildverarbeitung die Breite der einzelnen von der optischen Abbil dungseinrichtung 131 erfassten Fahrstreifen bestimmt. Schließlich bestimmt die Positionsbestimmungseinrichtung die Lage des Bezugsfahrzeugs 210 relativ zu den Fahrstreifenmarkierungen 207 und 208, die den vom Bezugsfahrzeug benutzten Fahrstreifen begrenzen. Die Positionsbestimmung erfolgt ebenfalls auf der Grundlage der von der Bildverarbeitungseinrichtung ermittelten Fahrstreifenmarkierungen und gegebenenfalls unter Berücksichtigung der bestimmten Fahrstreifenbreite.The image processing device 133 is for detecting lane markings in the image of the optical imaging device 131 detected road section formed. Preferably, the image processing device 133 also recognize different versions of lane markings, so that a distinction between lane markings for the separation of lanes and lane markings can be made to identify the edge of the road. The image processing device 133 Next, a lane width detecting means is connected, which, taking into account the imaging characteristics and the results of image conversion and image processing, the width of each of the optical Abbil tion device 131 determined lanes determined. Finally, the position determination device determines the position of the reference vehicle 210 relative to the lane markings 207 and 208 limiting the lane used by the reference vehicle. The position determination also takes place on the basis of the lane markings determined by the image processing device and optionally taking into account the determined lane width.

Um die jeweils aktuelle Fahrbahnsituation in Bezug auf das Bezugsfahrzeug zu bestimmen, ist der Bildwandler zur Wiederholten Wandlung des auf seine photosensitive Fläche projizierten Straßenabbilds ausgebildet.Around the current lane situation with respect to the reference vehicle to determine is the image converter for the repeated transformation of on its photosensitive surface projected road image formed.

Die von den entsprechenden Einrichtungen der Spurerfassungseinheit 130 bereitgestellten und mit jeder Neuumwandlung des projizierten Straßenbildes aktualisierten Daten bezüglich den Fahrstreifenbegrenzungen, der Position des Bezugsfahrzeugs relativ zum benutzten Fahrstreifen und der Fahrstreifenbreite werden an die sie weiterverarbeitenden Einrichtungen der Zuordnungseinheit 120 weitergereicht.Those of the corresponding facilities of the track detection unit 130 data provided with respect to the lane boundaries, the position of the reference vehicle relative to the lane used and the lane width are updated with each new conversion of the projected road image to the units of the allocation unit which process them further 120 passed on.

Die Zuordnungseinheit 120 umfasst eine Fahrwegbestimmungseinrichtung 121, eine Fahrstreifengeometrie-Ermittlungseinrichtung 122 und eine Objektzuordnungseinrichtung 123. Die Fahrwegbestimmungseinrichtung 121 ist dazu ausgebildet den vom Bezugsfahrzeug auf der Fahrbahn 200 zurückgelegten Fahrweg unter Berücksichtigung der Geschwindigkeit und der Lenkbewegungen des Bezugsfahrzeugs zu Bestimmen. Die Bestimmung erfolgt vorzugsweise auf ein mit dem Bezugsfahrzeug verknüpftes Koordinatensystem.The allocation unit 120 comprises a guideway determination device 121 , a lane geometry determining means 122 and an object allocation device 123 , The route determining device 121 is trained to that of the reference vehicle on the road 200 Determining covered route taking into account the speed and the steering movements of the reference vehicle. The determination preferably takes place on a coordinate system linked to the reference vehicle.

Die Fahrstreifengeometrie-Ermittlungseinrichtung 122 verknüpft die Fahrweginformation mit der von der Fahrstreifenbreite-Ermittlungseinrichtung 134 bereitgestellten Fahrstreifenbreiteinformation und der Positionsinformation der Positionsbestimmungseinrichtung 135 so, dass die Geometrie des vom Bezugsfahrzeug benutzten und der anderen über die optische Abbildungseinrichtung 131 erfassten Fahrstreifen im seitlichen und rückwärtigen Bereich des Bezugsfahrzeugs vollständig rekonstruiert wird. Mit anderen Worten ermittelt die Fahrstreifengeometrie-Ermittlungseinrichtung 122 die so genannten "Ground Truth"-Daten der Fahrbahn 200 mit Bezug auf das Bezugsfahrzeug 210.The lane geometry determination device 122 links the route information with that of the lane width detecting means 134 provided lane width information and the position information of the position-determining device 135 such that the geometry of that used by the reference vehicle and the other via the optical imaging device 131 recorded lanes in the lateral and rearward area of the reference vehicle is completely reconstructed. In other words, the lane geometry determining means determines 122 the so-called "ground truth" data of the roadway 200 with reference to the reference vehicle 210 ,

Fahrstreifengeometrie und Lage der erfassten Objekte werden in der Objektzuordnungseinrichtung 123 mit dem Ergebnis verknüpft, dass jedes der erfassten Objekte dem Fahrstreifen der Fahrbahn 200 zugeordnet wird, auf dem es sich befindet. Da die Bildverarbeitungseinrichtung auch zum Erkennen von Rand- oder Leitlinien ausgebildet sein kann, können Objekte, die sich außerhalb der benutzbaren Fahrbahn befinden, sicher von der Beurteilung einer Gefahrensituation ausgeschlossen werden. Damit kann die Häufigkeit fehlerhafter Warnungen von Spurwechselassistenten reduziert werden.Lane geometry and location of the detected objects are in the object mapper 123 linked to the result that each of the detected objects the lane of the road 200 is assigned to it. Since the image processing device can also be designed for recognizing boundary or guidelines, objects which are located outside the usable roadway can be reliably excluded from the assessment of a dangerous situation. This can reduce the frequency of erroneous warnings from lane change assistants.

In dem Flussdiagramm der 3 sind die grundlegenden Schritte des von der Vorrichtung 100 ausgeführten Verfahrens für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn. Ausgangspunkt des Verfahrens ist die Erfassung von Objekten und der Fahrbahn im Umfeld des Bezugsfahrzeugs in Schritt S0, wobei die Fahrbahn 200 zumindest im Bereich vor dem Bezugsfahrzeug erfasst wird. Daran anschließend wird in Schritt S1 die Lage der in Schritt S0 erfassten Objekte relativ zum Bezugsfahrzeug bestimmt. In Schritt S2 wird die Geometrie der Fahrstreifen von Fahrbahn 200 relativ zum Bezugsfahrzeug bestimmt. Die Bestimmung erfolgt dabei wie oben beschrieben durch das Ermitteln von Fahrstreifenmarkierungen, Fahrstreifenbreite, Position des Bezugsfahrzeugs im benutzten Fahrstreifen und des zurückgelegten Fahrwegs. Schritt S1 und S2 können auch in umgekehrter Reihenfolge oder, da jeder dieser Schritte mehrere Teilschritte umfasst auch gemischt und somit simultan ausgeführt werden. Die Ergebnisse von Schritt S1 und S2 werden in Schritt S3 so verknüpft, dass eine Zuordnung der erfassten Objekte zu den einzelnen Fahrstreifen der Fahrbahn 200 erfolgt. Ergebnis der Zuordnung ist eine Angabe darüber, in welchem der Fahrstreifen sich ein jeweils erfasstes Objekt befindet und ob es sich überhaupt in einem der Fahrstreifen befindet. In Schritt S4 wird anschließend geprüft, ob die Zuordnung der Objekte zu den Fahrstreifen beendet werden soll. Falls die Abfrage negativ beschieden wird, wird das Verfahren beginnend mit Schritt S0 wiederholt, ansonsten wird es in Schritt S5 beendet.In the flow chart of 3 are the basic steps of the device 100 executed method for the detection of objects in the vicinity of a vehicle on a roadway and for the assignment of the detected objects to lanes of the road. The starting point of the method is the detection of objects and the roadway in the vicinity of the reference vehicle in step S0, wherein the roadway 200 is detected at least in the area in front of the reference vehicle. Subsequently, in step S1, the position of the objects detected in step S0 relative to the reference vehicle is determined. In step S2, the geometry of the lanes of roadway 200 determined relative to the reference vehicle. The determination is carried out as described above by determining lane markings, lane width, position of the reference vehicle in the used lane and the traveled track. Steps S1 and S2 can also be mixed in reverse order or, since each of these steps comprises several substeps, and thus executed simultaneously. The results of step S1 and S2 are linked in step S3 so that an assignment of the detected objects to the individual lanes of the road 200 he follows. The result of the assignment is an indication as to which of the lanes a respective detected object is located in and whether it is actually located in one of the lanes. In step S4, it is then checked whether the assignment of the objects to the lanes should be terminated. If the query is rejected, the process is repeated beginning with step S0, otherwise it is terminated in step S5.

Die Erfindung vermeidet Fehlwarnungen aufgrund falscher Fahrstreifenzuordnungen für detektierte Fremdfahrzeuge, sodass insbesondere unnötige Warnungen vor Fahrzeugen, die sich nicht auf dem benachbarten Fahrstreifen befinden unterbleiben. Ferner werden erwünschte Warnungen vor Fahrzeugen, die sich auf einem benachbarten Fahrstreifen befinden gerade bei kurvigen Straßenverläufen vorteilhaft unterstützt. Schließlich ermöglicht die Erfindung den Ausschluss von Warnungen vor Objekten, die sich außerhalb der Fahrbahn und damit des warnrelevanten Bereichs befinden.The Invention avoids false warnings due to incorrect lane assignments for detected Other vehicles, in particular unnecessary warnings of vehicles, which are not located on the adjacent lane. Furthermore, desired Warnings of vehicles that are on an adjacent lane are favorably supported especially on winding roads. Finally, the invention allows the exclusion of warnings about objects that are outside the roadway and thus the area relevant to the warning.

100100
Vorrichtung zur Erfassung und Zuordnung von Objektencontraption for capturing and assigning objects
110110
ObjektlagenerfassungseinheitObject position detection unit
111111
ObjekterfassungseinrichtungObject detection device
112112
LagebestimmungseinrichtungPosition detection device
120120
Zuordnungseinheitallocation unit
121121
FahrwegbestimmungseinrichtungTrack determiner
122122
Fahrstreifengeometrie-ErmittlungseinrichtungLane geometry detection means
123123
ObjektzuordnungseinrichtungObject allocator
130130
SpurerfassungseinheitTrack detection unit
131131
optische Abbildungseinrichtungoptical imaging device
132132
BildwandlungseinrichtungImage conversion device
133133
BildverarbeitungseinrichtungImage processing means
134134
Fahrstreifenbreite-ErmittlungseinrichtungLane width determining means
135135
PositionsbestimmungseinrichtungLocation facility
200200
Fahrbahnroadway
201201
Fahrstreifenlane
202202
Fahrstreifenlane
203203
Fahrstreifenlane
204204
Fahrstreifenlane
205205
Fahrstreifenmarkierung als Randlinie/Leitlinielane marker as boundary line / guideline
206206
Fahrstreifenmarkierung als Randlinie/Leitlinielane marker as boundary line / guideline
207207
Fahrstreifenmarkierunglane marker
208208
Fahrstreifenmarkierunglane marker
209209
Fahrstreifenmarkierunglane marker
210210
Bezugsfahrzeugreference vehicle
211211
Erfassungsbereichdetection range
212212
Fremdfahrzeugforeign vehicle
213213
Fremdfahrzeugforeign vehicle
214214
Fremdfahrzeugforeign vehicle
215215
Fremdfahrzeugforeign vehicle
216216
Verkehrseinrichtung außerhalb der Fahrbahntransport Building outside the roadway

Claims (5)

Vorrichtung für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn mit – einer Objekterfassungseinrichtung zum Erfassen von Objekten in der Umgebung eines Bezugsfahrzeugs, – einer Lagebestimmungseinrichtung zum Bestimmen der Lage der erfassten Objekte relativ zum Bezugsfahrzeug, – einer optischen Abbildungseinrichtung zum Erzeugen einer optischen Abbildung von zumindest einem Teilbereich der Fahrbahn, – einer Bildwandlungseinrichtung zum Umwandeln der optischen Abbildung in diese repräsentierende Bildsignale, – einer Bildverarbeitungseinrichtung zur Erfassung von Fahrstreifenmarkierungen der Fahrbahn auf der Grundlage der Bildsignale, – einer Fahrstreifenbreite-Ermittlungseinrichtung zur Ermittlung der Breite des oder der von den Fahrstreifenmarkierungen begrenzten Fahrstreifen, – einer Positionsbestimmungseinrichtung zur Bestimmung der Position des Bezugsfahrzeugs relativ zu einer der erfassten Fahrstreifenmarkierung oder relativ zu mehreren der erfassten Fahrstreifenmarkierungen, – einer Fahrweg-Bestimmungseinrichtung zum Bestimmen des von dem Bezugsfahrzeug zurückgelegten Fahrwegs, – einer Fahrstreifengeometrie-Ermittlungseinrichtung zum Ermitteln der Geometrie des von dem Bezugsfahrzeug benutzten Fahrstreifens und zumindest eines an diesen angrenzenden Fahrstreifens in einem vorgegebenen Bereich hinter dem Bezugsfahrzeug, und – einer Objektzuordnungseinrichtung zum räumlichen Zuordnen eines von der Objekterfassungseinrichtung erfassten Objekts zu einem Fahrstreifen, wobei die Fahrstreifenverlauf-Ermittlungseinrichtung dazu ausgebildet ist, die Geometrie der Fahrstreifen auf der Grundlage des von der Fahrweg-Bestimmungseinrichtung bestimmten zurückgelegten Fahrwegs des Bezugsfahrzeugs, der im Ver lauf des zurückgelegten Fahrwegs von der Bildverarbeitungseinrichtung jeweils erfassten Fahrstreifenmarkierungen und der von der Fahrstreifenbreite-Ermittlungseinrichtung ermittelten Fahrstreifenbreite sowie der von der Positionsbestimmungseinrichtung bestimmten Position des Bezugsfahrzeugs relativ zu der einen oder den mehreren Fahrstreifenmarkierungen zu ermitteln, und die Objektzuordnungseinrichtung dazu ausgebildet ist, die Lage der erfassten Objekte anhand der von der Lagebebestimmungseinrichtung bestimmten Lage der Objekte relativ zum Bezugsfahrzeug in räumlicher Relation zur Geometrie der Fahrstreifen zu ermitteln.Device for the detection of objects in the environment of a vehicle on a roadway and for the assignment of the detected objects to lanes of the road with An object detection device for detecting objects in the surroundings of a reference vehicle, a position determination device for determining the position of the detected objects relative to the reference vehicle, an optical imaging device for generating an optical image of at least a partial region of the roadway, an image conversion device for converting the optical An image in these representative image signals, - an image processing device for detecting lane markings of the roadway based on the image signals, - lane width detection means for determining the width of the lane or the lanes bounded by the lane markings, - a position determining means for determining the position of the reference vehicle relative to one of the detected lane markings or relative to a plurality of the detected lane markings, a guideway determination device for determining the lane marker lane travel traveled by the reference vehicle, lane geometry determination means for determining the geometry of the lane used by the reference vehicle and at least one lane adjacent thereto in a predetermined area behind the reference vehicle, and object association means for spatially allocating an object detected by the object detection device a lane, wherein the lane course determining means is adapted to the geometry of the lanes on the basis of the distance traveled by the guideway determining device travel distance of the reference vehicle, in the course of the distance traveled by the image processing device respectively detected lane markings and of the lane width- Detection device determined lane width and determined by the position determination device position of the reference vehicle relative to the one or determine the plurality of lane markers, and the object allocation device is adapted to determine the position of the detected objects based on the determined by the Lagebebestimmungseinrichtung position of the objects relative to the reference vehicle in spatial relation to the geometry of the lanes. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Lagebestimmungseinrichtung ausgebildet ist, die Lage der erfassten Objekte relativ zum Bezugsfahrzeug durch eine Abstands- und Winkelermittlung zu bestimmen.Device according to claim 1, characterized in that the position determination device is designed to determine the position of the detected objects relative to the reference vehicle by a distance and Determine angle determination. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bildverarbeitungseinrichtung ausgebildet ist, die Art der Fahrstreifenmarkierungen zu erkennen.Device according to Claim 1 or 2, characterized that the image processing device is designed, the type of To recognize lane markings. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass die Objektzuordnungseinrichtung ausgebildet ist, den Rand der Fahrbahn anhand der Art der Fahrstreifenmarkierung zu erkennen.Device according to claim 3, characterized in that the object allocation device is designed to define the edge of the Identify the lane on the basis of the type of lane marking. Verfahren für die Erfassung von Objekten im Umfeld eines auf einer Fahrbahn befindlichen Fahrzeugs und zur Zuordnung der erfassten Objekte zu Fahrstreifen der Fahrbahn mit Schritten zum – Erfassen von Objekten im Umfeld des Bezugsfahrzeugs, – Erfassen von wenigstens einem Teilbereich der Fahrbahn zumindest vor dem Bezugsfahrzeug, – Bestimmen der Lage der erfassten Objekte relativ zum Bezugsfahrzeug, – Bestimmen der Fahrstreifengeometrie relativ zum Bezugsfahrzeug, und – räumliches Zuordnen der Lage der erfassten Objekte zu den Fahrstreifen auf der Grundlage der bestimmten Lage der Objekte und der bestimmten Fahrstreifengeometrie.Procedure for The detection of objects in the environment of a on a roadway Vehicle and the assignment of the detected objects to lanes the road with steps to - Capture objects in the Environment of the reference vehicle, - Detecting at least one Part of the road at least in front of the reference vehicle, - Determine the position of the detected objects relative to the reference vehicle, - Determine the lane geometry relative to the reference vehicle, and - spatial Assigning the location of the detected objects to the lanes on basis of a certain position of objects and certain lane geometry.
DE102007007540A 2007-02-15 2007-02-15 Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane Ceased DE102007007540A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007007540A DE102007007540A1 (en) 2007-02-15 2007-02-15 Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007007540A DE102007007540A1 (en) 2007-02-15 2007-02-15 Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane

Publications (1)

Publication Number Publication Date
DE102007007540A1 true DE102007007540A1 (en) 2008-08-21

Family

ID=39628024

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007007540A Ceased DE102007007540A1 (en) 2007-02-15 2007-02-15 Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane

Country Status (1)

Country Link
DE (1) DE102007007540A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009103692A1 (en) * 2008-02-20 2009-08-27 Continental Teves Ag & Co. Ohg Method and assistance system for detecting objects in the surrounding area of a vehicle
DE102012204948A1 (en) * 2012-03-28 2013-10-02 Robert Bosch Gmbh Method for assisting driver when driving vehicle at changing lanes, involves assigning vehicle and detected objects to tracks of roadway, and generating warning signal when detected object regarding vehicle is located on relevant track
DE102016202830A1 (en) * 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Device and method for transverse guidance support for a road-bound vehicle
CN107251127A (en) * 2015-01-21 2017-10-13 株式会社电装 The travel controlling system and travel control method of vehicle
WO2018010742A1 (en) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Device and method for adapting regions for warning a driver
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
US11093759B2 (en) 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
CN113434614A (en) * 2020-03-23 2021-09-24 北京四维图新科技股份有限公司 Map data association method and device and electronic equipment
US11312376B2 (en) 2016-02-24 2022-04-26 Bayerische Motoren Werke Aktiengesellschaft Device for lateral guidance assistance for a road vehicle
DE102021108807A1 (en) 2021-04-08 2022-10-13 Bayerische Motoren Werke Aktiengesellschaft METHOD OF DETECTING VULNERABLE ROAD USER BY A VEHICLE
US12162482B2 (en) 2021-04-30 2024-12-10 Steering Solutions Ip Holding Corporation Always on lateral advanced driver-assistance system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19904097A1 (en) * 1999-02-02 2000-08-03 Valeo Schalter & Sensoren Gmbh System for monitoring region on side of vehicle in dynamic traffic environment has devices to change size of monitored region according to state of roadway and/or speed of vehicle
DE19921449C1 (en) * 1999-05-08 2001-01-25 Daimler Chrysler Ag Guide assistance when changing the lane of a motor vehicle
DE10341905A1 (en) * 2003-09-11 2005-05-12 Daimler Chrysler Ag Method and device for determining a position of a motor vehicle on a road
DE102004031771A1 (en) * 2004-07-01 2006-01-26 Robert Bosch Gmbh Lane change assistant for motor vehicles
DE102006010275A1 (en) * 2005-03-03 2006-12-14 Continental Teves Ag & Co. Ohg Method and device for avoiding a collision during a lane change of a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19904097A1 (en) * 1999-02-02 2000-08-03 Valeo Schalter & Sensoren Gmbh System for monitoring region on side of vehicle in dynamic traffic environment has devices to change size of monitored region according to state of roadway and/or speed of vehicle
DE19921449C1 (en) * 1999-05-08 2001-01-25 Daimler Chrysler Ag Guide assistance when changing the lane of a motor vehicle
DE10341905A1 (en) * 2003-09-11 2005-05-12 Daimler Chrysler Ag Method and device for determining a position of a motor vehicle on a road
DE102004031771A1 (en) * 2004-07-01 2006-01-26 Robert Bosch Gmbh Lane change assistant for motor vehicles
DE102006010275A1 (en) * 2005-03-03 2006-12-14 Continental Teves Ag & Co. Ohg Method and device for avoiding a collision during a lane change of a vehicle

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457359B2 (en) 2008-02-20 2013-06-04 Continental Teves Ag & Co. Ohg Method and assistance system for detecting objects in the surrounding area of a vehicle
WO2009103692A1 (en) * 2008-02-20 2009-08-27 Continental Teves Ag & Co. Ohg Method and assistance system for detecting objects in the surrounding area of a vehicle
DE102012204948A1 (en) * 2012-03-28 2013-10-02 Robert Bosch Gmbh Method for assisting driver when driving vehicle at changing lanes, involves assigning vehicle and detected objects to tracks of roadway, and generating warning signal when detected object regarding vehicle is located on relevant track
CN107251127A (en) * 2015-01-21 2017-10-13 株式会社电装 The travel controlling system and travel control method of vehicle
CN108698601A (en) * 2016-02-24 2018-10-23 宝马股份公司 The device and method that transverse guidance for road vehicle assists
DE102016202830A1 (en) * 2016-02-24 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Device and method for transverse guidance support for a road-bound vehicle
US10885789B2 (en) 2016-02-24 2021-01-05 Bayerische Motoren Werke Aktiengesellschaft Device and method for lateral guidance assistance for a road vehicle
US11312376B2 (en) 2016-02-24 2022-04-26 Bayerische Motoren Werke Aktiengesellschaft Device for lateral guidance assistance for a road vehicle
WO2018010742A1 (en) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Device and method for adapting regions for warning a driver
DE102016212727A1 (en) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh Device and method for adjusting areas for warning a driver
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
US11035678B2 (en) 2016-08-26 2021-06-15 Here Global B.V. Automatic localization geometry detection
US11093759B2 (en) 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
CN113434614A (en) * 2020-03-23 2021-09-24 北京四维图新科技股份有限公司 Map data association method and device and electronic equipment
DE102021108807A1 (en) 2021-04-08 2022-10-13 Bayerische Motoren Werke Aktiengesellschaft METHOD OF DETECTING VULNERABLE ROAD USER BY A VEHICLE
US12162482B2 (en) 2021-04-30 2024-12-10 Steering Solutions Ip Holding Corporation Always on lateral advanced driver-assistance system

Similar Documents

Publication Publication Date Title
DE102007007540A1 (en) Object detecting and tracking device for motor vehicle, has object tracking device determining position of detected objects based on position of objects relative to reference vehicle in spatial relation to geometry of lane
EP2583263B1 (en) Method for combining a road sign recognition system and a lane detection system of a motor vehicle
EP2620929B1 (en) Method and apparatus for detecting an exceptional traffic situation
EP3095102B1 (en) Method and system for detecting an emergency lane situation
EP3491339B1 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a road
DE102017204603B4 (en) Vehicle control system and method for controlling a vehicle
EP3292423B1 (en) Diagnostic method for a vision sensor of a vehicle and vehicle having a vision sensor
DE102014117751A1 (en) System and method for dynamically focusing vehicle sensors
DE102013012324A1 (en) Method and device for finding a route
EP2116958B1 (en) Method and device for calculating the drive path in the area in front of a vehicle
DE102014208673A1 (en) Method and traffic monitoring device for detecting a wrong-way drive of a motor vehicle
DE102013104256A1 (en) Method and device for estimating the number of lanes
DE102016002230B4 (en) Method for operating a motor vehicle and motor vehicle
EP3024709B1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102012208302C5 (en) Method for providing information about an environment of a vehicle
DE102013219023A1 (en) Method and device for assisting a driver of a vehicle when changing lanes
WO2019233777A1 (en) Driving assistance system
DE102017205245B4 (en) Free-range fusion for driver assistance systems
WO2018188846A1 (en) Driver assistance system for a vehicle
DE102018009434A1 (en) Control system and method for a motor vehicle for processing multi-reflected signals
DE102014212216A1 (en) Method and driver assistance system for detecting a Fahrzeugumfel des
DE102015110969A1 (en) Method for outputting a driving instruction relating to a lane change of a motor vehicle, control device, driver assistance system and motor vehicle
DE102017206117B4 (en) Method and device for operating a vehicle
DE102022206348A1 (en) Method and system for determining sensor and/or localization errors
EP3332351A1 (en) Method for operating a driver assistance system of a vehicle, control device and vehicle

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

8131 Rejection