[go: up one dir, main page]

DE102007019531A1 - Lane detection with cameras of different focal lengths - Google Patents

Lane detection with cameras of different focal lengths Download PDF

Info

Publication number
DE102007019531A1
DE102007019531A1 DE102007019531A DE102007019531A DE102007019531A1 DE 102007019531 A1 DE102007019531 A1 DE 102007019531A1 DE 102007019531 A DE102007019531 A DE 102007019531A DE 102007019531 A DE102007019531 A DE 102007019531A DE 102007019531 A1 DE102007019531 A1 DE 102007019531A1
Authority
DE
Germany
Prior art keywords
image information
lane
camera
vehicle
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007019531A
Other languages
German (de)
Inventor
Gregory Dr. BARATOFF
Ludwig Ertl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102007019531A priority Critical patent/DE102007019531A1/en
Priority to PCT/EP2008/055001 priority patent/WO2008132130A1/en
Publication of DE102007019531A1 publication Critical patent/DE102007019531A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/089Lane monitoring; Lane Keeping Systems using optical detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft eine Auswertevorrichtung für ein Fahrerassistenzsystem für ein Fahrzeug (1), mit einem Eingang zum Empfangen von ersten Bildinformationen (I-K1), welche von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K1) mit einer ersten Brennweite erfasst wurden, und einem Eingang zum Empfangen von zweiten Bildinformationen (I-K2), welche von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K2) mit einer zweiten Brennweite erfasst wurden. Weiterhin ist ein Ermittlungsbestandteil vorhanden zum Ermitteln eines Verlaufs einer Fahrbahnspur (SP1) unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2).The invention relates to an evaluation device for a driver assistance system for a vehicle (1), having an input for receiving first image information (I-K1) which has been detected by a first camera (K1) oriented in the forward direction of the vehicle with a first focal length, and an input for receiving second image information (I-K2) detected by a second forward-facing vehicle (K2) having a second focal length. Furthermore, a determination component is provided for determining a course of a lane lane (SP1) using the first image information (I-K1) and the second image information (I-K2).

Description

Die Erfindung betrifft eine Auswertevorrichtung für ein Fahrerassistenzsystem für ein Fahrzeug.The The invention relates to an evaluation device for a driver assistance system for a vehicle.

Unter dem Begriff der Fahrerassistenzsysteme (englisch: ADAS, Advanced Driver Assistance Systems) werden Funktionen zusammengefasst, welche der Unterstützung des Fahrers eines Kraftfahrzeuges dienen. Ziel der Fahrerassistenzsysteme ist häufig die Steigerung der Sicherheit durch die Vermeidung von Gefahrensituationen vor deren Entstehung und durch die Unterstützung des Fahrers zur Unfallvermeidung in kritischen Situationen. Weitere Ziele sind die Steigerung des Komforts durch Stressreduktion und Entlastung des Fahrers in Standardsituationen, die Erleichterung der Orientierung durch situationsabhängig aufbereitete und fahrergerecht vermittelte Umfeld-Informationen, sowie die Erhöhung des Fahrspaßes.Under the concept of driver assistance systems (English: ADAS, Advanced Driver Assistance Systems) functions are summarized which to assist the driver of a motor vehicle. The aim of the driver assistance systems is often the increase safety by avoiding dangerous situations their emergence and the support of the driver for accident prevention in critical situations. Other goals are the increase of comfort through stress reduction and relief the driver in standard situations, facilitating orientation by situation-dependent prepared and driver-appropriate mediated Environment information, as well as the increase of driving pleasure.

Beispiele für Fahrerassistenzfunktionen sind die Antriebsschlupfregelung bzw. Traktionskontrolle wie ABS (Antiblockiersystem), ASR (Antriebs-Schlupf-Regelung), ESP (Elektronisches Stabilitätsprogramm), EDS (Elektronische Differentialsperre), sowie adaptives Kurvenlicht, Auf- und Abblendassistent für das Fahrlicht, Nachtsichtsysteme (englisch: Night Vision), Tempomat, Einparkhilfe, Bremsassistent, ACC (Adaptive Cruise Control) bzw. Abstandsregeltempomat, Abstandswarner, Abbiegeassistent, Stauassistent, Spurerkennungssystem, Spurhalteassistent, Spurhalteunterstützung, Spurwechselassistent, ISA (Intelligent Speed Adaption), ANB (Automatische Notbremsung), Kurvenassistent, Reifendruckkontrollsystem, Fahrerzustandserkennung, Verkehrszeichenerkennung, Platooning.Examples for driver assistance functions are traction control or traction control such as ABS (antilock braking system), ASR (traction control), ESP (Electronic Stability Program), EDS (Electronic Stability Program) Differential lock), as well as adaptive headlights, fade-in and dimming assist for the driving lights, night vision systems (English: Night Vision), Cruise Control, Park Assist, Brake Assist, ACC (Adaptive Cruise Control) distance control, distance warning, turn assistant, traffic jam assistant, Lane Detection System, Lane Keeping Assist, Lane Keeping Assist, Lane Change Assistant, ISA (Intelligent Speed Adaptation), ANB (Automatic Emergency braking), curve assistant, tire pressure monitoring system, driver condition detection, Traffic sign recognition, Platooning.

Der Erfindung liegt die Aufgabe zugrunde, eine effiziente Auswertevorrichtung für ein Fahrerassistenzsystem, sowie ein entsprechendes Fahrerassistenzsystem, ein Verfahren zum Betreiben eines Fahrerassistenzsystems und ein Computerprogrammprodukt aufzuzeigen.Of the Invention is based on the object, an efficient evaluation device for a driver assistance system, and a corresponding Driver assistance system, a method for operating a driver assistance system and to show a computer program product.

Diese Aufgabe wird durch eine Auswertevorrichtung mit den Merkmalen des Anspruchs 1, sowie durch ein Fahrerassistenzsystem, durch ein Verfahren und ein Computerprogrammprodukt mit Merkmalen von nebengeordneten Ansprüchen gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand von Unteransprüchen.These Task is performed by an evaluation device with the characteristics of Claim 1, and by a driver assistance system, by a method and a computer program product with features of siblings Claims solved. Advantageous embodiments and further developments are the subject of dependent claims.

Die erfindungsgemäße Auswertevorrichtung umfasst einen Eingang zum Empfangen von ersten Bildinformationen, wobei die ersten Bildinformationen von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera mit einer ersten Brennweite erfasst wurden, sowie einen Eingang zum Empfangen von zweiten Bildinformationen, wobei die zweiten Bildinformationen von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite erfasst wurden. Weiterhin ist ein Ermittlungsbestandteil vorhanden zum Ermitteln eines Verlaufs einer Fahrbahnspur unter Verwendung der ersten Bildinformationen und der zweiten Bildinformationen.The Inventive evaluation device comprises a Input for receiving first image information, wherein the first Image information from a first forward vehicle-oriented camera with a first focal length and an input for receiving second image information, wherein the second image information is from a second in the forward direction of the vehicle-facing camera with a second opposite captured the first focal length larger focal length were. Furthermore, a determination component is available for determining a course of a lane lane using the first image information and the second image information.

Die Auswertevorrichtung empfängt erste und zweite Bildinformationen. Bei diesen Bildinformationen kann es sich jeweils um die ursprünglich von der jeweiligen Kamera erfassten Daten handeln, oder um eine bereits verarbeitete Version der ursprünglich erfassten Daten.The Evaluation device receives first and second image information. This image information may be the original one act on the respective camera captured data, or by a already processed version of the originally recorded Dates.

Die beiden Kameras sind nach vorne ausgerichtet. Dies bedeutet, dass sie zumindest ausschnittsweise die bei einer Fahrt in Vorwärtsrichtung vor dem Fahrzeug liegende bzw. bei einer Fahrt in Rückwärtsrichtung hinter dem Fahrzeug liegende Umgebung erfassen. Somit bilden sowohl die ersten als auch die zweiten Bildinformationen Teile der vor dem Fahrzeug liegenden Umgebung ab. Jede der beiden Kameras weist eine bestimmte Brennweite auf, wobei die Brennweite der zweiten Kamera größer ist als diejenige der ersten Kamera. Ist die Brennweite einer oder beider Kameras variabel, so gilt zumindest für die ersten und die zweiten Bildinformationen, dass die für die zweiten Bildinformationen verwendete Brennweite größer als diejenige der ersten Bildinformationen ist. Die Brennweite der Kameras bestimmt die Abmaße des Ausschnittes der Umgebung, welchen die jeweilige Kamera erfasst. Bei einer schematischen Darstellung dieses Ausschnittes als zweidimensionaler Kreissektor bestimmt die Brennweite den Öffnungswinkel und den Radius des Kreissektors. Gemäß dem Verhältnis der Brennweiten entsprechen die ersten Bildinformationen einer näheren Fahrzeugumgebung und die zweiten Bildinformationen einer weiter entfernten Umgebung des Fahrzeugs.The both cameras are facing forward. This means that they at least partially before in a drive in the forward direction the vehicle lying or when driving in the reverse direction Capture the environment behind the vehicle. Thus, both form the first as well as the second picture parts of the before the Vehicle lying environment. Each of the two cameras has one certain focal length, with the focal length of the second camera larger than that of the first camera. is the focal length of one or both cameras variable, so at least for the first and the second image information that the focal length used for the second image information larger than that of the first image information is. The focal length of the cameras determines the dimensions of the Detail of the environment, which the respective camera captures. In a schematic representation of this section as a two-dimensional Circular sector determines the focal length of the opening angle and the radius of the circular sector. According to the ratio the focal lengths correspond to the first image information of a closer vehicle environment and the second image information of a more distant environment of the vehicle.

Die Auswertevorrichtung verwendet sowohl Daten der ersten Kamera als auch Daten der zweiten Kamera, um den Verlauf einer Fahrbahnspur zu ermitteln. Bei der Fahrbahnspur, deren Verlauf ermittelt wird, kann es sich um diejenige Fahrbahnspur handeln, welche das Fahrzeug aktuell befährt, und/oder z. B. um eine benachbarte Fahrbahnspur. Der von der Auswertevorrichtung ermittelte Verlauf kann von der Auswertevorrichtung über einen geeigneten Ausgang ausgegeben werden. Von der Auswertevorrichtung wird der Verlauf vorzugsweise relativ zu dem Fahrzeug angegeben; alternativ ist eine Angabe der absoluten Position des Verlaufs der Fahrbahnspur möglich. Der ermittelte Verlauf kann z. B. der Verlauf der Mitte der jeweiligen Fahrbahnspur sein, oder der rechten oder linken Begrenzung der jeweiligen Fahrbahnspur.The Evaluation device uses both data of the first camera as also data from the second camera to the course of a lane to investigate. At the lane track whose course is determined It may be the lane that the vehicle is currently travels, and / or z. B. to an adjacent lane. The course determined by the evaluation device can be determined by the Evaluation device output via a suitable output become. From the evaluation of the course is preferably indicated relative to the vehicle; alternatively, an indication of the absolute Position of the course of the lane track possible. The determined History can z. B. the course of the middle of each lane be, or the right or left boundary of the respective lane track.

In Weiterbildung der Erfindung wird von der ersten Kamera Strahlung im Wellenlängenbereich des sichtbaren Lichts detektiert. Es ist möglich, dass die erste Kamera ausschließlich im Wellenlängenbereich des sichtbaren Lichts sensitiv ist, oder hauptsächlich in diesem Wellenlängenbereich, oder u. a. in diesem Wellenlängenbereich. Zusätzlich oder alternativ kann von der ersten Kamera Strahlung im Wellenlängenbereich des nahen Infrarot detektiert werden. Hierbei ist es insbesondere möglich, dass die erste Kamera hauptsächlich im Wellenlängenbereich des sichtbaren Lichts und in kleinerem Um fang im Wellenlängenbereich des nahen Infrarot sensitiv ist. Es versteht sich, dass die ersten Bildinformationen die von der Fahrzeugumgebung im jeweiligen Wellenlängenbereich, welcher von der ersten Kamera detektierbar ist, emittierte Strahlung abbilden.In Further development of the invention is radiation from the first camera detected in the wavelength range of visible light. It is possible that the first camera exclusively is sensitive in the wavelength range of visible light, or mainly in this wavelength range, or u. a. in this wavelength range. additionally or alternatively, radiation from the first camera may be in the wavelength range the near infrared are detected. Here it is in particular possible that the first camera mainly in the Wavelength range of visible light and in smaller To begin in the wavelength range of the near infrared sensitive is. It is understood that the first image information is that of the vehicle environment in the respective wavelength range, which is detectable by the first camera emitted radiation depict.

In Weiterbildung der Erfindung wird von der zweiten Kamera Strahlung im Wellenlängenbereich des nahen Infrarot detektiert. Es ist möglich, dass die zweite Kamera ausschließlich im Wellenlängenbereich des nahen Infrarot sensitiv ist, oder hauptsächlich in diesem Wellenlängenbereich, oder u. a. in diesem Wellenlängenbereich. Es versteht sich, dass die zweiten Bildinformationen die von der Fahrzeugumgebung im jeweiligen Wellenlängenbereich, welcher von der zweiten Kamera detektierbar ist, emittierte Strahlung abbilden.In Further development of the invention is radiation from the second camera detected in the wavelength range of the near infrared. It is possible that the second camera exclusively is sensitive in the wavelength range of the near infrared, or mainly in this wavelength range, or u. a. in this wavelength range. It goes without saying that the second image information is that of the vehicle environment in the respective wavelength range, which of the second Camera is detectable, imaging emitted radiation.

Einer Weiterbildung der Erfindung gemäß ist die Auswertevorrichtung ausgebildet zum Ermitteln des Verlaufs der Fahrbahnspur anhand zumindest einer Fahrbahnmarkierung und/oder zumindest eines Fahrbahnrandes. Fahrbahnmarkierungen werden auch als Straßenmarkierung oder Bodenmarkierung bezeichnet; es sind auf der Fahrbahnoberfläche angebrachte Zeichen. Beispiele sind durchgehende oder unterbrochene Mittellinien, oder auch zwei oder mehr parallele Linien. Bei dem Fahrbahnrand kann es sich z. B. um einen Streifen aus Gras und/oder Erde, eine Leit- bzw. Schutzplanke oder eine Mauer handeln. Durch einen geeigneten Bildauswertungsalgorithmus kann in den Bildinformationen nach für eine Fahrbahnmarkierung und/oder einen Fahrbahnrand charakteristischen Merkmalen gesucht werden.one Further development of the invention according to the evaluation device designed for determining the course of the lane track based at least a lane marking and / or at least one lane edge. Road markings are also called road marking or ground mark; it's on the road surface attached characters. Examples are continuous or interrupted Centerlines, or two or more parallel lines. In which Road edge can be z. B. a strip of grass and / or Earth, a guardrail or a wall act. By a suitable image evaluation algorithm may be included in the image information after for a lane marking and / or a roadside edge characteristic features are sought.

In Ausgestaltung der Erfindung bilden die ersten Bildinformationen gegenüber den zweiten Bildinformationen unterschiedliche Teile der zumindest einen Fahrbahnmarkierung und/oder des zumindest einen Fahrbahnrandes ab. Hierbei ist es möglich, dass Überlappungen zwischen den in den ersten Bildinformationen und den in den zweiten Bildinformationen enthaltenen Teilen von Fahrbahnmarkierung und/oder Fahrbahnrand bestehen.In Embodiment of the invention form the first image information different from the second image information Parts of the at least one lane marking and / or at least a roadside edge. It is possible that overlaps between the ones in the first image information and the one in the second Image information contained parts of road marking and / or Roadside edge exist.

Jedoch existieren Teile von Fahrbahnmarkierung und/oder Fahrbahnrand, welche lediglich in den ersten Bildinformationen und nicht in den zweiten Bildinformationen enthalten sind, und/oder Teile, welche lediglich in den zweiten Bildinformationen und nicht in den ersten Bildinformationen enthalten sind.however There are parts of road markings and / or roadside which only in the first image information and not in the second image information are included, and / or parts, which only in the second Image information and not included in the first image information are.

Es ist möglich, dass die ersten Bildinformationen erste von den zweiten Bildinformationen nicht abgebildete Teile der zumindest einen Fahrbahnmarkierung und/oder des zumindest einen Fahrbahnrandes abbilden, und dass die zweiten Bildinformationen zweite von den ersten Bildinformationen nicht abgebildete gegenüber den ersten Teilen weiter von dem Fahrzeug entfernte Teile der zumindest einen Fahrbahnmarkierung und/oder des zumindest einen Fahrbahnrandes abbilden. Die jeweils die Fahrbahnmarkierung und/oder den Fahrbahnrand enthaltenden Bildinformationen können dann zur Ermittlung des Verlaufs der Fahrbahnspur herangezogen werden.It it is possible that the first image information first from the second image information not shown parts of the at least a lane marking and / or the at least one lane edge map, and that the second image information is second of the first image information not pictured opposite the first parts further removed from the vehicle parts of at least a lane marking and / or the at least one lane edge depict. Each of the road marking and / or the roadside containing image information can then be used to determine the course of the lane track are used.

Die Auswertevorrichtung kann ausgebildet sein zum Ermitteln des Verlaufs einer Fahrbahnspur innerhalb der ersten Bildinformationen und zum Ermitteln des Verlaufs einer Fahrbahnspur innerhalb der zweiten Bildinformationen, sowie zum Kombinieren der unter Verwendung der ersten Bildinformationen und unter Verwendung der zweiten Bildinformationen ermittelten Verläufe. Bei der Kombination können die Verläufe z. B. aneinandergesetzt werden, sofern sie sich auf verschiedene Teile des Verlaufs beziehen. Werden Verläufe an übereinstimmenden Positionen ermittelt, kann z. B. eine Mittelwertbildung erfolgen.The Evaluation device can be designed to determine the course a lane track within the first image information and the Determining the course of a lane track within the second Image information, as well as to combine using the first image information and using the second image information determined courses. When combining can the courses z. B. juxtaposed, if they refer to different parts of the course. Be progressions determined at matching positions, z. Legs Averaging done.

Das erfindungsgemäße Fahrerassistenzsystem umfasst eine Auswertevorrichtung der erläuterten Art, die erste und die zweite Kamera, sowie eine Applikationseinheit zum Verwenden des von der Auswertevorrichtung ermittelten Verlaufs der Fahrbahnspur im Rahmen einer Fahrerassistenzfunktion, insbesondere im Rahmen einer Spurverlassenswarnung oder eines Spurhalteassistenten.The inventive driver assistance system comprises an evaluation device of the type explained, the first and the second camera, and an application unit for use the course of the lane track determined by the evaluation device as part of a driver assistance function, in particular in the context a lane departure warning or a lane departure warning assistant.

Das erfindungsgemäße Fahrzeug umfasst ein Fahrerassistenzsystem der erläuterten Art, sowie Scheinwerfer, welche hinsichtlich ihrer Ausstrahlung an einen von der ersten Kamera und/oder der zweiten Kamera detektierbaren Wellenlängenbereich angepasst sind. Z. B. können Infrarotscheinwerfer vorhanden sein, wenn die zweite Kamera eine Infrarotkamera ist.The The vehicle according to the invention comprises a driver assistance system of the type explained, as well as headlights, which in terms of their broadcast to one of the first camera and / or the second Camera detectable wavelength range are adjusted. For example, infrared lights may be present when the second camera is an infrared camera.

Bei dem Verfahren zum Betreiben eines Fahrerassistenzsystems werden von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera mit einer ersten Brennweite erste Bildinformationen erfasst, von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite werden zweite Bildinformationen erfasst, und unter Verwendung der ersten und der zweiten Bildinformationen wird ein Verlauf einer Fahrbahnspur ermittelt.In the method for operating a driver assistance system, first image information is acquired by a first camera oriented in the forward direction of the vehicle, a second camera aligned in the forward direction of the vehicle with a second focal length greater than the first focal length, second image information is acquired, and Use of the first and second image information becomes a course of a lane lane averages.

Das erfindungsgemäße Computerprogrammprodukt für ein Fahrerassistenzsystem verfügt über die Funktionalität eines Eingangs zum Empfangen von ersten Bildinformationen, welche von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera mit einer ersten Brennweite erfasst wurden, eines Eingangs zum Empfangen von zweiten Bildinformationen, welche von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten zweiten Kamera mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite erfasst wurden, sowie eines Ermittlungsbestandteils zum Ermitteln eines Verlaufs einer Fahrbahnspur unter Verwendung der ersten Bildinformationen und der zweiten Bildinformationen. Unter einem Computerprogrammprodukt kann im Zusammenhang mit der vorliegenden Erfindung neben dem eigentlichen Computerprogramm (mit seinem über das normale physikalische Zusammenspiel zwischen Programm und Recheneinheit hinausgehenden technischen Effekt) insbesondere ein Aufzeichnungsträger für das Computerprogramm, eine Dateisammlung, eine konfigurierte Recheneinheit, aber auch beispielsweise eine Speichervorrichtung oder ein Server, auf der bzw. dem zum Computerprogramm gehörende Dateien gespeichert sind, verstanden werden.The Computer program product according to the invention a driver assistance system has the functionality an input for receiving first image information, which from a first in the forward direction of the vehicle aligned Camera with a first focal length were captured, an input for receiving second image information, which is from a second in the forward direction of the vehicle aligned second Camera with a second opposite the first focal length larger focal length were recorded, as well as one Determination component for determining a course of a lane using the first image information and the second image information. Under a computer program product may be related to the present invention in addition to the actual computer program (with his about the normal physical interaction between Program and computing unit going beyond technical effect) in particular a record carrier for the computer program, a file library, a configured arithmetic unit, as well For example, a storage device or a server on the or the files associated with the computer program are to be understood.

Das erfindungsgemäße Computerprogrammprodukt und das erfindungsgemäße Verfahren eignen sich insbesondere für die erfindungsgemäße Auswertevorrichtung, wobei dies auch auf die Ausgestaltungen und Weiterbildungen zutreffen kann. Hierzu können sie weitere geeignete Mittel bzw. Schritte umfassen.The Computer program product according to the invention and the Inventive methods are particularly suitable for the evaluation device according to the invention, this also applies to the embodiments and developments can. For this purpose, they may comprise further suitable means or steps.

Im folgenden wird die Erfindung anhand eines Ausführungsbeispiels näher erläutert. Dabei zeigen:in the The following is the invention with reference to an embodiment explained in more detail. Showing:

1: ein Kraftfahrzeug mit einem Fahrerassistenzsystem, 1 : a motor vehicle with a driver assistance system,

2: einen Ausschnitt aus einem Fahrerassistenzsystem. 2 : a section of a driver assistance system.

Das in 1 dargestellte Kraftfahrzeug 1 fahre aktuell auf der rechten Fahrbahnspur SP1, in 1 nach rechts. Am rechten Rand der rechten Fahrspur SP1 befindet sich die Fahrbahnbegrenzung MR. Hierbei kann es sich z. B. um eine Fahrbahnmarkierung in Form einer Linie oder den Rand eines Streifens aus Gras und/oder Erde handeln. Zwischen der rechten Fahrbahnspur SP1 und der linken Fahrbahnspur SP2 befindet sich die Fahrbahnmarkierung MM.This in 1 illustrated motor vehicle 1 drive currently on the right lane SP1, in 1 to the right. At the right edge of the right lane SP1 is the lane boundary MR. This may be z. B. to act a lane marking in the form of a line or the edge of a strip of grass and / or earth. Between the right lane SP1 and the left lane SP2 is the lane marker MM.

Das Fahrzeug 1 verfügt über eine Videokamera K1, z. B. eine CMOS-Kamera. Die Kamera K1 nimmt Bilder hauptsächlich im Wellenlängenbereich des sichtbaren Spektrums auf. Dies kann bewirkt werden, indem ein geeigneter Filter vor dem Sensor der Kamera K1 angebracht ist, oder indem der Sensor lediglich im genannten Wellenlängenbereich sensitiv ist. Bei der Kamera K1 kann es sich um eine Schwarz-Weiß-Kamera handeln, diese ist kostengünstiger als eine Farbkamera. Überdies ist die Auflösung einer Schwarz-Weiß-Kamera bei gegebener Pixelanzahl größer als bei einer Farbkamera. Für den Fahrer des Fahrzeugs 1 ist die Verwendung einer Schwarz-Weiß-Kamera insofern nicht nachteilig, als ihm das von der Kamera 1 erfasste Bild nicht angezeigt wird.The vehicle 1 has a video camera K1, z. B. a CMOS camera. The camera K1 captures images mainly in the wavelength range of the visible spectrum. This can be accomplished by placing a suitable filter in front of the sensor of the camera K1, or by the sensor being sensitive only in said wavelength range. The camera K1 can be a black and white camera, which is less expensive than a color camera. Moreover, the resolution of a black-and-white camera is larger for a given number of pixels than for a color camera. For the driver of the vehicle 1 the use of a black and white camera is not disadvantageous in that it is not displayed the image captured by the camera 1.

Die Kamera K1 ist in Fahrtrichtung gerichtet, nimmt somit Bilder der vor dem Fahrzeug 1 liegenden Umgebung auf. Hierzu kann sie z. B. in der Nähe des Daches und der Windschutzscheibe des Fahrzeugs 1 montiert sein. Mit B1 ist der schematisch dargestellte von der Kamera K1 erfasste Bereich bezeichnet, welcher durch die Brennweite der Kamera K1 festgelegt wird. Diese ist so groß, dass der Erfassungsbereich B1 sich bis etwa 50 Meter vor dem Fahrzeug 1 erstreckt.The camera K1 is directed in the direction of travel, thus taking pictures of the front of the vehicle 1 lying on the environment. For this purpose, it may, for. B. near the roof and the windshield of the vehicle 1 be mounted. B1 designates the region which is shown schematically by the camera K1 and which is determined by the focal length of the camera K1. This is so large that the detection area B1 up to about 50 meters in front of the vehicle 1 extends.

Unter Verwendung eines hierfür geeigneten Bildverarbeitungs- bzw. Fahrspurdetektionsalgorithmus werden die von der Kamera K1 aufgenommenen Bilder ausgewertet und hierdurch die Fahrbahnbegrenzung MR und/oder die Fahrbahnmarkierung MM detektiert. Aufgrund dieser Detektion ist der Verlauf von Fahrbahnbegrenzung MR und/oder Fahrbahnmarkierung MM und somit der Verlauf der Fahrbahnspur SP1 in Bezug auf das Eigenfahrzeug 1 bekannt. Hierzu können an sich bekannte Verfahren eingesetzt werden, z. B. beschrieben in dem Dokument WO 2007/002964 A2 .Using an image processing or lane detection algorithm suitable for this purpose, the images recorded by the camera K1 are evaluated and the lane boundary MR and / or the lane marking MM are thereby detected. Because of this detection, the course of the road boundary MR and / or road mark MM and thus the course of the road lane SP1 with respect to the own vehicle 1 known. For this purpose, known methods can be used, for. As described in the document WO 2007/002964 A2 ,

Der detektierte Verlauf der Fahrbahnspur SP1 kann z. B. für die Fahrerassistenzfunktion Spurverlassenswarnung (englisch: Lane Departure Warning) oder Spurhalteassistent (englisch: Lane Keep Assist) eingesetzt werden. Hierbei soll der Fahrer bei einem unbeabsichtigten Verlassen seiner Fahrspur gewarnt werden.Of the detected course of the lane SP1 can, for. For example the driver assistance function lane departure warning (English: Lane Departure Warning) or Lane Keep Assist (English: Lane Keep Assist) be used. Here, the driver in an unintentional Being warned to leave his lane.

Eine stabile Fahrspurdetektion unter Verwendung der Kamera K1 ist bei guten Sichtverhältnissen am Tag bis ca. 50 Meter vor dem Fahrzeug 1 möglich, bei Nacht bis ca. 35 Meter. Die Reichweiteneinschränkung bei Nacht ist insbesondere durch die eingeschränkte Ausleuchtung der Fahrzeugumgebung durch das Abblendlicht des Fahrzeugs 1 bedingt. Für eine verbesserte Performance der Fahrerassistenzfunktionen Spurverlassenswarnung, Spurhalteassistent oder Abstandsregeltempomat bzw. ACC (Adaptive Cruise Control) ist es wünschenswert, den Verlauf der Fahrbahnspur SP1 über den von der Kamera K1 erfassten Bereich B1 hinaus zu kennen. Dies gilt insbesondere bei Vorhan densein einer Fahrspurkrümmung. Hierzu ist es möglich, durch Extrapolation den innerhalb des Erfassungsbereichs der Kamera K1 ermittelten Verlauf der Fahrbahnspur SP1 über diesen Bereich hinaus zu erweitern. Dies ist allerdings mit großen Ungenauigkeiten verbunden; der extrapolierte Fahrbahnspurverlauf kann erheblich von dem tatsächlichen abweichen. Insbesondere kann die extrapolierte Fahrbahnspurkrümmung entgegengesetzt zu der tatsächlichen verlaufen, wenn der Wendepunkt des Fahrbahnspurverlaufs außerhalb des von der Kamera K1 erfassten Bereichs B1 liegt.A stable lane detection using the camera K1 is in good visibility conditions during the day to about 50 meters in front of the vehicle 1 possible, at night to about 35 meters. The range limitation at night is in particular due to the limited illumination of the vehicle surroundings by the low beam of the vehicle 1 conditionally. For improved performance of the driver assistance functions Lane Departure Warning, Lane Keeping Assist or Adaptive Cruise Control (ACC), it is desirable to extend the course of the lane SP1 beyond the area B1 detected by the camera K1 to know. This is especially true in the presence of a lane curvature. For this purpose, it is possible, by extrapolation, to extend the course of the traffic lane SP1 determined within the detection range of the camera K1 beyond this range. However, this is associated with great inaccuracies; the extrapolated lane course may differ significantly from the actual one. In particular, the extrapolated lane curvature may be opposite to the actual one if the inflection point of the lane lane is outside the range B1 detected by the camera K1.

Zusätzlich zur Kamera K1 verfügt das Fahrzeug 1 über eine weitere Videokamera K2. Die Kamera K2 nimmt Bilder hauptsächlich im Wellenlängenbereich des Nahen Infrarot (englisch Near Infrared, NIR) auf, d. h. von 0,7–1.4 μm. Dies kann bewirkt werden, indem ein geeigneter Filter vor dem Sensor der Kamera K2 angebracht ist, oder indem der Sensor lediglich im genannten Wellenlängenbereich sensitiv ist. Auch die Kamera K2 ist in Fahrtrichtung gerichtet, nimmt somit Bilder der vor dem Fahrzeug 1 liegenden Umgebung auf. Hierzu kann sie z. B. in der Nähe des Daches und der Windschutzscheibe des Fahrzeugs 1 montiert sein.In addition to the camera K1, the vehicle has 1 via another video camera K2. The K2 camera captures images mainly in the Near Infrared (NIR) wavelength range, ie 0.7-1.4 μm. This can be effected by placing a suitable filter in front of the sensor of the camera K2, or by the sensor being sensitive only in said wavelength range. The camera K2 is directed in the direction of travel, thus taking pictures of the front of the vehicle 1 lying on the environment. For this purpose, it may, for. B. near the roof and the windshield of the vehicle 1 be mounted.

Die Kamera K2 kann z. B. im Rahmen der Fahrerassistenzfunktion Night Vision dazu dienen, die Fahrsicherheit bei Nacht- oder Nebelfahrten zu erhöhen. Hierzu können die von der Kamera K2 aufgenommenen Infrarot-Bilder dem Fahrer des Fahrzeugs 1 auf einem Display angezeigt werden. Hierbei wird ausgenutzt, dass die Reichweite des im nahen Infrarot liegenden Anteils von von einer Glühlampe des Fahrzeugscheinwerfers ausgesendeter Strahlung höher ist als im sichtbaren Bereich. Zusätzlich können Infrarotscheinwerfer S vorgesehen sein, die die Umgebung mit infraroter Strahlung ausleuchten.The camera K2 can z. As in the context of the driver assistance function Night Vision serve to increase driving safety at night or fog rides. For this purpose, the images taken by the camera K2 infrared images to the driver of the vehicle 1 be displayed on a display. This exploits the fact that the range of the near-infrared portion of radiation emitted by an incandescent lamp of the vehicle headlight is higher than in the visible range. In addition, infrared lights S can be provided, which illuminate the environment with infrared radiation.

Mit B2 ist der schematisch dargestellte von der Kamera K2 erfasste Bereich bezeichnet, welcher durch die Brennweite der Kamera K2 festgelegt wird. Diese ist derart, dass der Erfassungsbereich B2 sich bis etwa 200 Meter vor dem Fahrzeug 1 erstreckt. Die Brennweite der Kamera K2 ist größer als diejenige der Kamera K1. Dementsprechend ist das Gesichtsfeld der Kamera K2 schmaler als dasjenige der Kamera K1, erstreckt sich jedoch weiter nach vorne. Die größere Brennweite der Kamera K2 eignet sich besonders für die erwähnte Fahrerassistenzfunktion Night Vision, da hierbei der von dem Abblendlicht des Fahrzeugs 1 nicht erleuchtete Bereich für den Fahrer sichtbar gemacht werden soll.With B2 is the schematically represented detected by the camera K2 area designated by the focal length of the camera K2. This is such that the detection area B2 is up to about 200 meters in front of the vehicle 1 extends. The focal length of the camera K2 is larger than that of the camera K1. Accordingly, the field of view of the camera K2 is narrower than that of the camera K1, but extends further forward. The larger focal length of the camera K2 is particularly suitable for the aforementioned driver assistance function Night Vision, since in this case of the dipped beam of the vehicle 1 not illuminated area should be made visible to the driver.

2 zeigt einen Ausschnitt aus dem Fahrerassistenzsystem des Fahrzeugs 1. Dem Auswertebestandteil S werden von der Kamera K1 die Informationen I-K1 und von der Kamera K2 die Informationen I-K2 zur Verfügung gestellt. Bei den Informationen I-K1 und I-K2 kann es sich um die von der jeweiligen Kamera K1 bzw. K2 erfassten Bilddaten handeln, oder um aus einer Bearbeitung dieser Bilddaten hervorgegangene Daten. Der Auswertebestandteil S wertet die Informationen I-K1 und I-K2 aus und ermittelt aufgrund dieser Auswertung den Verlauf der Fahrbahnspur SP1 relativ zum Eigenfahrzeug 1. An die Applikationseinheit A gibt der Auswertebestandteil S die Informationen I-S aus, welchen der Verlauf der Fahrbahnspur SP1 zu entnehmen ist. Die Applikationseinheit A verwendet die Informationen I-S im Sinne der jeweiligen Fahrerassistenzfunktion, bei einer Spurhalteassistent-Fahrerassistenzfunktion z. B. zur Feststellung eines unbeabsichtigten Spurwechsels des Fahrzeugs 1. 2 shows a section of the driver assistance system of the vehicle 1 , The evaluation component S is provided by the camera K1 with the information I-K1 and the camera K2 with the information I-K2. The information I-K1 and I-K2 may be the image data captured by the respective camera K1 or K2, or data resulting from a processing of this image data. The evaluation component S evaluates the information I-K1 and I-K2 and determines the course of the lane SP1 relative to the own vehicle on the basis of this evaluation 1 , The evaluation unit S outputs to the application unit A the information IS which can be taken from the course of the lane SP1. The application unit A uses the information IS in terms of the respective driver assistance function, in a lane departure warning driver assistance function z. B. to determine an unintended lane change of the vehicle 1 ,

Die Applikationseinheit A ist an eine Schnittstelle I angebunden. Hierbei kann es sich um eine Mensch-Maschine-Schnittstelle und/oder an eine Schnittstelle zur autonomen Kontrolle des Fahrzeugs 1 handeln. Über eine Mensch-Maschine-Schnittstelle kann auf akustische, optische oder haptische Weise an den Fahrer eine Information oder Warnung ausgegeben werden, z. B. aufgrund eines Verlassens der Fahrbahnspur SP1. Über eine Schnittstelle zur autonomen Kontrolle des Fahrzeugs kann in das Fahrverhalten des Fahrzeugs 1 eingegriffen werden, ohne dass es der Mitwirkung des Fahrers bedarf, z. B. durch Abbremsung oder Lenken des Fahrzeugs 1.The application unit A is connected to an interface I. This may be a man-machine interface and / or an interface for the autonomous control of the vehicle 1 act. About a man-machine interface can be issued in an audible, visual or haptic manner to the driver information or warning, z. B. due to leaving the lane SP1. Through an interface to the autonomous control of the vehicle can be used in the driving behavior of the vehicle 1 be intervened without the need for the involvement of the driver, z. B. by slowing down or steering the vehicle 1 ,

Wie bereits erläutert, ermittelt der Auswertebestandteil S unter Verwendung der Informationen I-K1 den innerhalb des Erfassungsbereichs B1 der Kamera K1 liegenden Verlauf der Fahrbahnspur SP1. Ebenso ermittelt der Auswertebestandteil S unter Verwendung der Informationen I-K2 den innerhalb des Erfassungsbereichs B2 der Kamera K2 liegenden Verlauf der Fahrbahnspur SP1. Die Ermittlung des Verlaufes erfolgt jeweils anhand einer Detektion von Fahrbahnbegrenzung MR und/oder Fahrbahnmarkierung MM. Die Detektion von Fahrbahnbegrenzung MR und/oder Fahrbahnmarkierung MM ist sowohl innerhalb der Bilder des sichtbaren Wellenlängenbereichs der Kamera K1, als auch innerhalb der Bilder des nahen Infrarot Bereichs der Kamera K2 möglich, denn diese Bilder sind einander sehr ähnlich. Insbesondere erscheinen im sichtbaren Wellenlängenbereich helle oder dunkle Objekte auch im nahen Infrarot als hell bzw. dunkel.As already explained, determines the evaluation component S using the information I-K1 within the coverage area B1 of the camera K1 lying course of the lane SP1. As well determines the evaluation component S using the information I-K2 lying within the detection range B2 of the camera K2 Course of the lane SP1. The determination of the course takes place each based on a detection of road boundary MR and / or Lane marker MM. The detection of lane boundary MR and / or Road marking MM is both within the images of the visible Wavelength range of the camera K1, as well as within the images of the near infrared range of the camera K2 possible, because these pictures are very similar to each other. Especially appear in the visible wavelength range bright or dark objects also in the near infrared as light or dark.

Der Auswertebestandteil S fusioniert die aus den beiden Bildinformationen I-K1 und I-K2 gewonnenen Fahrbahnspurverläufe, so dass sich hieraus der gesamte Verlauf der Fahrbahnspur SP1 innerhalb der Erfassungsbereiche B1 und B2 ergibt. Dies kann durch ein Aneinandersetzen der Verläufe in nichtüberlappenden Bereichen erfolgen. In überlappenden Bereichen hingegen kann entweder der aus den Bildinformationen I-K1 gewonnnen Verlauf oder der aus den Bildinformationen I-K2 gewonnene Verlauf, oder eine Kombination der beiden verwendet werden.The evaluation component S merges the lane tracks obtained from the two image information items I-K1 and I-K2, so that the entire course of the lane track SP1 within the coverage areas B1 and B2 results therefrom. This can be done by connecting the courses in non-overlapping areas. In overlapping areas, however, either the course obtained from the image information I-K1 or the history obtained from the image information I-K2, or a combination of both.

Dies bedeutet, dass der Auswertebestandteil S den Verlauf der Fahrbahnspur SP1 von dem Eigenfahrzeug 1 bis zum Ende des Erfassungsbereichs B2 der Kamera K2 ermitteln kann. Dies ist unter Verwendung von lediglich den Bildinformationen I-K1 nicht möglich, da der Erfassungsbereich B1 der Kamera K1 aufgrund der kleineren Brennweite deutlich kleiner ist. Auch unter Verwendung von lediglich den Bildinformationen I-K2 ist dies nicht möglich, da der Erfassungsbereich B2 der Kamera K2 aufgrund der größeren Brennweite schmaler ist, so dass im nä heren Umfeld des Fahrzeugs 1 die Fahrbahnbegrenzung MR und/oder Fahrbahnmarkierung MM wie in 1 dargestellt von der Kamera K2 nicht erfasst werden.This means that the evaluation component S the course of the lane SP1 of the own vehicle 1 until the end of the detection range B2 of the camera K2 can determine. This is not possible using only the image information I-K1, since the detection range B1 of the camera K1 is significantly smaller due to the smaller focal length. Even using only the image information I-K2 this is not possible because the detection range B2 of the camera K2 is narrower due to the larger focal length, so that in the nä heren environment of the vehicle 1 the road boundary MR and / or road mark MM as in 1 can not be detected by the camera K2.

Zur Erfassung der Bildinformationen I-K2 können die Infrarotscheinwerfer S eingesetzt werden, so dass die Kamera K2 die von der Umgebung reflektierte Strahlung der Infrarotscheinwerfer S erfasst. Detektiert die Kamera K1 neben dem sichtbaren Licht zumindest teilweise auch Strahlung des nahen Infrarotbereichs, so können auch in Bezug auf die Kamera K1 die Infrarotscheinwerfer S für die Ermittlung des Verlaufs der Fahrbahnspur SP1 eingesetzt werden. Wie bereits erwähnt ist der Erfassungsbereich B1 der Kamera K1 bei Nacht aufgrund der geringen Reichweite des Abblendlichts stark eingeschränkt. Diese Einschränkung kann aufgehoben oder zumindest reduziert werden, wenn die Infrarotscheinwerfer S eingeschaltet werden.to Capturing the image information I-K2 can be the infrared headlights S be used so that the camera K2 reflected from the environment Radiation of the infrared headlights S detected. Detects the camera K1 in addition to the visible light at least partially radiation of the near infrared range, so also in terms of the Camera K1 the infrared headlights S for the determination the course of the lane SP1 be used. As already mentioned is the detection range B1 of the camera K1 at Night severely limited due to the low range of the low beam. This restriction can be removed or at least reduced when the infrared lights S are turned on.

Gegenüber der Verwendung von lediglich der Kamera K1 ergibt sich bei der erläuterten Vorgehensweise eine Vergrößerung des Bereichs, innerhalb dessen der Verlauf der Fahrbahnspur SP1 bekannt ist. Aus der Messung des Verlaufs der Fahrbahnspur SP1 in größeren Entfernungen resultiert eine signifikante Verbesserung gegenüber einem Extrapolationsverfahren, bei welchem lediglich aus den im Nahbereich ermittelten Fahrspurdaten auf den Verlauf der Fahrspur in größerer Entfernung geschlossen wird. Hierdurch ist eine früherer und präzisere Reaktion der Applikationseinheit A im Rahmen der jeweiligen Fahrerassistenzfunktion möglich.Across from the use of only the camera K1 results in the explained Proceeding an enlargement of the area, within which the course of the lane SP1 is known. Out the measurement of the course of the lane SP1 in larger Distances result in a significant improvement over an extrapolation method in which only the Near-range determined lane data on the course of the lane is closed at a greater distance. hereby is an earlier and more precise reaction of the application unit A possible within the scope of the respective driver assistance function.

Die Erfindung wurde voranstehend an einem Ausführungsbeispiel beschrieben. Es versteht sich, dass zahlreiche Änderungen und Modifikationen möglich sind, ohne dass der Rahmen der Erfindung verlassen wird.The The invention has been described in an embodiment described. It is understood that many changes and modifications are possible without the scope of the Is left invention.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - WO 2007/002964 A2 [0028] WO 2007/002964 A2 [0028]

Claims (12)

Auswertevorrichtung (S) für ein Fahrerassistenzsystem für ein Fahrzeug (1), mit einem Eingang zum Empfangen von ersten Bildinformationen (I-K1), welche von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K1) mit einer ersten Brennweite erfasst wurden, einem Eingang zum Empfangen von zweiten Bildinformationen (I-K2), welche von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K2) mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite erfasst wurden, einem Ermittlungsbestandteil zum Ermitteln eines Verlaufs einer Fahrbahnspur (SP1) unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2).Evaluation device (S) for a driver assistance system for a vehicle ( 1 ) having an input for receiving first image information (I-K1) detected by a first forward-facing camera of the vehicle (K1) at a first focal length, an input for receiving second image information (I-K2) detected by a second forward camera of the vehicle (K2) having a second focal length greater than the first focal length, a determination component for determining a lane course (SP1) using the first image information (I-K1) and the second image information ( I-K2). Auswertevorrichtung (S) nach Anspruch 1, wobei von der ersten Kamera (K1) Strahlung im Wellenlängenbereich des sichtbaren Lichts detektiert wird.Evaluation device (S) according to claim 1, wherein of the first camera (K1) radiation in the wavelength range of visible light is detected. Auswertevorrichtung (S) nach Anspruch 1 oder 2, wobei von der ersten Kamera (K1) Strahlung im Wellenlängenbereich des nahen Infrarot detektiert wird.Evaluation device (S) according to claim 1 or 2, wherein from the first camera (K1) radiation in the wavelength range the near infrared is detected. Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 3, wobei von der zweiten Kamera (K2) Strahlung im Wellenlängenbereich des nahen Infrarot detektiert wird.Evaluation device (S) according to one of the claims 1 to 3, wherein from the second camera (K2) radiation in the wavelength range the near infrared is detected. Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 4, wobei der Ermittlungsbestandteil ausgebildet ist zum Ermitteln des Verlaufs der Fahrbahnspur (SP1) anhand zumindest einer Fahrbahnmarkierung (MM) und/oder zumindest eines Fahrbahnrandes (MR).Evaluation device (S) according to one of the claims 1 to 4, wherein the determination component is designed to determine the course of the lane track (SP1) based on at least one lane marking (MM) and / or at least one roadside edge (MR). Auswertevorrichtung (S) nach Anspruch 5, wobei die ersten Bildinformationen (I-K1) gegenüber den zweiten Bildinformationen (I-K2) unterschiedliche Teile der zumindest einen Fahrbahnmarkierung (MM) und/oder des zumindest einen Fahrbahnrandes (MR) abbilden.Evaluation device (S) according to claim 5, wherein the first image information (I-K1) relative to the second image information (I-K2) different parts of the at least one road mark (MM) and / or the at least one lane edge (MR). Auswertevorrichtung (S) nach Anspruch 5 oder 6, wobei die ersten Bildinformationen (I-K1) erste von den zweiten Bildinformationen (I-K2) nicht abgebildete Teile der zumindest einen Fahrbahnmarkierung (MM) und/oder des zumindest einen Fahrbahnrandes (MR) abbilden, und die zweiten Bildinformationen (I-K2) zweite von den ersten Bildinformationen (I-K1) nicht abgebildete gegenüber den ersten Teilen weiter von dem Fahrzeug (1) entfernte Teile der zumindest einen Fahrbahnmarkierung (MM) und/oder des zumindest einen Fahrbahnrandes (MR) abbilden.Evaluation device (S) according to claim 5 or 6, wherein the first image information (I-K1) first of the second image information (I-K2) not shown parts of the at least one lane marking (MM) and / or the at least one lane edge (MR) , and the second image information (I-K2) second from the first image information (I-K1) not shown in the first parts of the vehicle ( 1 ) depict remote parts of the at least one lane marking (MM) and / or of the at least one lane edge (MR). Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 7, wobei der Ermittlungsbestandteil ausgebildet ist zum Ermitteln des Verlaufs einer Fahrbahnspur (SP1) innerhalb der ersten Bildinformationen (I-K1) und zum Ermitteln des Verlaufs einer Fahrbahnspur (SP1) innerhalb der zweiten Bildinformationen (I-K2), sowie zum Kombinieren der unter Verwendung der ersten Bildinformationen (I-K1) und unter Verwendung der zweiten Bildinformationen (I-K2) ermittelten Verläufe.Evaluation device (S) according to one of the claims 1 to 7, wherein the determination component is adapted to determine the course of a lane track (SP1) within the first image information (I-K1) and for determining the course of a lane (SP1) within the second image information (I-K2), as well as for combining the using the first image information (I-K1) and using the second image information (I-K2) determined gradients. Fahrerassistenzsystem für ein Fahrzeug, umfassend eine Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 8, der erste Kamera (K1) und die zweite Kamera (K2), eine Applikationseinheit (A) zum Verwenden des von der Auswertevorrichtung (S) ermittelten Verlaufs der Fahrbahnspur (SP1) im Rahmen einer Fahrerassistenzfunktion.Driver assistance system for a vehicle, comprising an evaluation device (S) according to one of the claims 1 to 8, the first camera (K1) and the second camera (K2), one Application unit (A) for using the of the evaluation device (S) determined course of the lane (SP1) in a Driver assistance function. Fahrzeug (1) mit einem Fahrerassistenzsystem nach Anspruch 9, und Scheinwerfern (S), welche hinsichtlich ihrer Ausstrahlung an einen von der ersten Kamera (K1) und/oder der zweiten Kamera (K2) detektierbaren Wellenlängenbereich angepasst sind.Vehicle ( 1 ) with a driver assistance system according to claim 9, and headlights (S), which are adapted in terms of their radiation to one of the first camera (K1) and / or the second camera (K2) detectable wavelength range. Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug, wobei von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K1) mit einer ersten Brennweite erste Bildinformationen (I-K1) erfasst werden, von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K2) mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite zweite Bildinformationen (I-K2) erfasst werden, unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2) ein Verlauf einer Fahrbahnspur (SP1) ermittelt wird.Method for operating a driver assistance system for a vehicle, taking from a first in the forward direction of the vehicle-oriented camera (K1) with a first focal length first image information (I-K1) is captured, from a second in the forward direction of the vehicle-oriented camera (K2) with a second opposite the first focal length larger focal length second image information (I-K2) be detected using the first image information (I-K1) and the second image information (I-K2) is a course of a lane lane (SP1) is determined. Computerprogrammprodukt für ein Fahrerassistenzsystem für ein Fahrzeug, mit einem Eingang zum Empfangen von ersten Bildinformationen (I-K1), welche von einer ersten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K1) mit einer ersten Brennweite erfasst wurden, einem Eingang zum Empfangen von zweiten Bildinformationen (I-K2), welche von einer zweiten in Vorwärtsrichtung des Fahrzeugs ausgerichteten Kamera (K2) mit einer zweiten gegenüber der ersten Brennweite größeren Brennweite erfasst wurden, einem Ermittlungsbestandteil zum Ermitteln eines Verlaufs einer Fahrbahnspur (SP1) unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2).Computer program product for a driver assistance system for a vehicle, with an entrance to receive of first image information (I-K1), which is from a first in Forward direction of the vehicle-oriented camera (K1) with recorded at a first focal length, an entrance to receive of second image information (I-K2), which is from a second in Forward direction of the vehicle-oriented camera (K2) with a second larger compared to the first focal length Focal length were recorded, an investigative component of the Determining a course of a lane lane (SP1) using the first image information (I-K1) and the second image information (I-K2).
DE102007019531A 2007-04-25 2007-04-25 Lane detection with cameras of different focal lengths Ceased DE102007019531A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007019531A DE102007019531A1 (en) 2007-04-25 2007-04-25 Lane detection with cameras of different focal lengths
PCT/EP2008/055001 WO2008132130A1 (en) 2007-04-25 2008-04-24 Driving lane detection using cameras having different focal lengths

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007019531A DE102007019531A1 (en) 2007-04-25 2007-04-25 Lane detection with cameras of different focal lengths

Publications (1)

Publication Number Publication Date
DE102007019531A1 true DE102007019531A1 (en) 2008-11-13

Family

ID=39639586

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007019531A Ceased DE102007019531A1 (en) 2007-04-25 2007-04-25 Lane detection with cameras of different focal lengths

Country Status (2)

Country Link
DE (1) DE102007019531A1 (en)
WO (1) WO2008132130A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514372B2 (en) 2013-02-06 2016-12-06 GM Global Technology Operations LLC Lane-tracking assistance system for a motor vehicle
DE102020105711A1 (en) 2020-03-03 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2662827B1 (en) * 2012-05-08 2016-01-13 Axis AB Video analysis
US9671243B2 (en) 2013-06-13 2017-06-06 Mobileye Vision Technologies Ltd. Vision augmented navigation
US10562439B2 (en) 2016-01-19 2020-02-18 Harman International Industries, Incorporated Techniques for optimizing vehicle headlights based on situational awareness
CN109178040A (en) 2018-11-01 2019-01-11 同方威视技术股份有限公司 Train identifying system and its method, train safety check system and its method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007002964A2 (en) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Method for lane recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Object detection device in front of the vehicle
KR100250323B1 (en) * 1997-10-10 2000-04-01 정몽규 Image processing device and method
GB0317949D0 (en) * 2003-07-31 2003-09-03 Trw Ltd Sensing apparatus for vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007002964A2 (en) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Method for lane recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514372B2 (en) 2013-02-06 2016-12-06 GM Global Technology Operations LLC Lane-tracking assistance system for a motor vehicle
DE102020105711A1 (en) 2020-03-03 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system
US12252138B2 (en) 2020-03-03 2025-03-18 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system

Also Published As

Publication number Publication date
WO2008132130A1 (en) 2008-11-06

Similar Documents

Publication Publication Date Title
DE102011088130B4 (en) Method and device for detecting a braking situation
DE102018203807A1 (en) Method and device for detecting and evaluating road conditions and weather-related environmental influences
EP1214224B1 (en) Sensor device for a motor vehicle used for detecting environmental parameters
WO2008080951A1 (en) Vertical orientation of a lidar sensor
DE102005054972A1 (en) Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible
DE102007033887A1 (en) Controller for driver assistance system with recommendation for lane change has decision device for deciding about outputting of lane change signal to the driver taking into account further lane and vehicle detection results
DE102008020007A1 (en) Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients
EP3434523A1 (en) Indirect vision system for a vehicle
DE102015207026A1 (en) Method and device for controlling a detection system for detecting an environment of a vehicle
DE102007019531A1 (en) Lane detection with cameras of different focal lengths
DE102007048842A1 (en) Control device for driver assistance system, has decision component providing decision about generation of output signal using information, where signal provides correctness of current driving direction, and output for outputting signal
DE102011105074A1 (en) Method for determining visual range for vehicle, involves determining surrounding of vehicle by camera, where contrast dimensions are determined for object depicted in images, where visual range is determined from contrast dimensions
DE102010045511A1 (en) Method and device for detecting lane markings in an image
DE102017223439B4 (en) Warning device against dangerous situations for a motor vehicle
DE102008054041B3 (en) Method for outputting of image of image recording device with information to display device i.e. LCD-device, in motor vehicle i.e. passenger car, involves considering intensity of image recorded by recording device as image information
EP2229770A1 (en) Method and device for image detection for motor vehicles
DE102004020682A1 (en) Imaging system
EP3688412A1 (en) Method and device for determining a highly precise position and for operating an automated vehicle
DE102017211887A1 (en) Method and device for locating and automated operation of a vehicle
EP2181416B1 (en) Method and system for evaluating brightness values in sensor images of image-evaluating adaptive cruise control systems
DE102008050456A1 (en) Ego lane recognizing method for motor vehicle, involves validating transformed lines by removing of transformed lines, defining vertical line by main axis of camera, and comparing validated lines with lines of model to determine lane
DE102011076341B4 (en) Method for controlling the light function of a vehicle and vehicle with a driver assistance system for carrying out the method
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102010018333A1 (en) Method for evaluating information of image that is captured by optical camera in driver assisting system in e.g. passenger car, involves evaluating information that contains in determined image region, which comprises track course portion
DE102020213147A1 (en) Method for a camera system and camera system

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection