DE102007008542B4 - Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs - Google Patents
Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs Download PDFInfo
- Publication number
- DE102007008542B4 DE102007008542B4 DE102007008542.9A DE102007008542A DE102007008542B4 DE 102007008542 B4 DE102007008542 B4 DE 102007008542B4 DE 102007008542 A DE102007008542 A DE 102007008542A DE 102007008542 B4 DE102007008542 B4 DE 102007008542B4
- Authority
- DE
- Germany
- Prior art keywords
- analysis
- images
- vehicle
- evaluation
- analysis method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
- B60Q1/14—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
- B60Q1/1415—Dimming circuits
- B60Q1/1423—Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
- B60Q1/143—Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/10—Indexing codes relating to particular vehicle conditions
- B60Q2300/11—Linear movements of the vehicle
- B60Q2300/112—Vehicle speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/30—Indexing codes relating to the vehicle environment
- B60Q2300/33—Driving situation
- B60Q2300/332—Driving situation on city roads
- B60Q2300/3321—Detection of streetlights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/40—Indexing codes relating to other road users or special conditions
- B60Q2300/41—Indexing codes relating to other road users or special conditions preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/40—Indexing codes relating to other road users or special conditions
- B60Q2300/42—Indexing codes relating to other road users or special conditions oncoming vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
mehrere Bilder nacheinander als Bildfolge erfasst werden,
wobei eine Verfolgung von Objekten über mehrere Bilder erfolgt, um eine Bildfolge mit Trackingdaten zu erhalten;
zumindest ein Teil der Bilder der erhaltenen Bildfolge mit Hilfe eines ersten Analyseverfahrens (62) analysiert wird;
zumindest ein Teil der Bilder der erhaltenen Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren (62) verschiedenen zweiten Analyseverfahrens (62 bis 68) analysiert wird, wobei durch jedes Analyseverfahren (62 bis 68) mindestens ein Analyseergebnis erzeugt wird;
die Analyseergebnisse mit Hilfe eines Bewertungsverfahrens bewertet werden, wobei das Bewertungsverfahren mindestens ein Bewertungsergebnis ausgibt;
und bei dem abhängig vom Bewertungsergebnis die Lichtabgabe durch mindestens einen Scheinwerfer (20, 22) des Fahrzeugs (18) gesteuert wird.
Description
- Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs, bei dem mehrere Bilder von der Umgebung des Fahrzeugs erfasst und analysiert werden.
- Aus dem Dokument
DE 10 2004 063 836 A1 ist bekannt, zur Bildaufnahme eine Kamera im Bereich des Innenspiegels des Kraftfahrzeugs anzuordnen, die das Licht des Gegenverkehrs und das Licht von anderen äußeren Lichtquellen erfasst. Dabei wird das Verkehrsgeschehen vor dem Fahrzeug analysiert und abhängig vom Analyseergebnis wird die Reichweite des Abblendlichtscheinwerfers des Kraftfahrzeugs eingestellt. Eine variable Einstellung der Reichweite des Abblendlichts kann dabei je nach Aufbau des Scheinwerfers durch eine Leuchtweitenregulierung, durch Drehen einer Blendenwelle, durch eine gleitende Absenkung eines Shutters durch eine Leistungsänderung einer oder mehrerer Lichtquellen, sowie durch Zuschalten einer oder mehrerer Lichtquellen erfolgen. Mit Hilfe einer bereits erwähnten Blendenwelle, die auch als VarioX-Walze bezeichnet wird und die in Abstrahlrichtung vor der Lichtquelle des Scheinwerfers angeordnet ist, kann die Hell-Dunkel-Grenze des Scheinwerfers des Kraftfahrzeugs verschoben werden. - Aus dem Dokument
EP 0 935 728 B1 ist ein Scheinwerfer für Fahrzeuge bekannt, bei dem eine Blendenwelle in mehrere Drehstellungen drehbar ist, um verschiedene Lichtfiguren zu erzeugen. Mit Hilfe dieser Lichtfiguren kann eine Hell-Dunkel-Grenze variiert werden. - Aus dem Dokument
EP 0 971 829 B1 ist ein Steuerungssystem zum automatischen Dimmen von Fahrzeugscheinwerfern bekannt, das ein optisches System und ein Bildverarbeitungssystem umfasst. Das optische System ist dabei in der Lage, zwischen Scheinwerfern und Rücklichtern zu unterscheiden, wobei die Lichtstrahlen von den Scheinwerfern und von den Rücklichtern auf unterschiedliche Bereiche eines Sensor-Pixel-Arrays fokussiert werden. Abhängig von der vertikalen und horizontalen Winkelposition sowie von der Entfernung anderer Fahrzeuge wird das Fernlicht des mit dem Steuerungssystem ausgestatteten Fahrzeugs gesteuert. - Aufgabe der Erfindung ist es, ein Verfahren und eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs anzugeben, bei denen auf einfache Art und Weise die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs gesteuert werden kann, um den Verkehrsraum vor dem Fahrzeug optimal auszuleuchten.
- Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und einer Vorrichtung mit den Merkmalen des Patentanspruchs 11 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.
- Bei dem Verfahren zum Steuern der Lichtabgabe eines Fahrzeugs mit den Merkmalen des Patentanspruchs 1 werden mehrere Bilder nacheinander als Bildfolge erfasst. Zumindest ein Teil der Bilder der Bildfolge wird mit Hilfe eines ersten Analyseverfahrens analysiert. Ferner wird zumindest ein Teil der Bilder der Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren verschiedenen zweiten Analyseverfahrens analysiert, wobei jedes Analyseverfahren mindestens ein Analyseergebnis erzeugt.
- Die Analyseergebnisse werden mit Hilfe eines Bewertungsverfahrens bewertet und ein Bewertungsergebnis ausgegeben. Abhängig vom Bewertungsergebnis wird die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs gesteuert.
- Bei diesem erfindungsgemäßen Verfahren werden mehrere Analyseverfahren vorzugsweise parallel, im Multitasking-Betrieb einer Steuereinheit oder nacheinander ausgeführt. Die Analyseergebnisse der Analyseverfahren werden mit Hilfe des Bewertungsverfahrens bewertet. Das Bewertungsverfahren kann dabei insbesondere voreingestellte Bewertungskriterien berücksichtigen, durch die insbesondere gesetzliche oder andere Vorschriften, die beispielsweise in Lastenheften festgelegt sind, umgesetzt werden können. Durch das Verfahren mit den Merkmalen des Patentsanspruchs 1 ist es möglich, die Lichtabgabe durch mindestens einen Scheinwerfer des Fahrzeugs automatisch in Abhängigkeit von der mit Hilfe der erfassten Bilder und der Analyseverfahren analysierten Umgebung des Fahrzeugs einzustellen. Dabei wird mit Hilfe der Bilder insbesondere der Bereich vor dem Fahrzeug erfasst und ausgewertet, indem die von dem mindestens einen Scheinwerfer des Fahrzeugs abgestrahlten Lichtstrahlen andere Verkehrsteilnehmer behindern können. Durch das Verfahren kann die Lichtabstrahlung der Scheinwerfer eines Fahrzeugs und somit die Ausleuchtung des Bereichs vor dem Fahrzeug optimal eingestellt werden, wobei eine Behinderung anderer Verkehrsteilnehmer vermieden wird.
- Durch eine Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs mit den Merkmalen des Patentanspruchs 11 können die gleichen Vorteile erzielt werden wie durch das Verfahren nach Patentanspruch 1. Ferner kann diese Vorrichtung auf die gleiche Weise weitergebildet werden, wie dieses Verfahren.
- Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung, welche in Verbindung mit den beigefügten Figuren die Erfindung anhand eines Ausführungsbeispiels erläutert.
- Es zeigen:
-
1 eine schematische Darstellung einer Verkehrssituation mit mehreren Kraftfahrzeugen; -
2 ein Blockdiagramm zur verkehrsabhängigen Steuerung der Lichtabgabe eines Kraftfahrzeugs; -
3 das mit Hilfe einer Kamera aufgenommene Bild eines vorausfahrenden Fahrzeugs bei Dunkelheit, wobei die Rücklichter des vorausfahrenden Fahrzeugs sichtbar sind; -
4 das mit Hilfe einer Kamera aufgenommene Bild eines entgegenkommenden Fahrzeugs bei Dunkelheit, wobei ein Frontscheinwerfer des Fahrzeugs sichtbar ist; -
5 das mit Hilfe einer Kamera aufgenommene Bild einer vom Fahrzeug weit entfernten Straßenlampe bei Dunkelheit; -
6 das mit Hilfe einer Kamera aufgenommene Bild einer nahe dem Fahrzeug angeordneten Straßenlampe; -
7 das mit Hilfe einer Kamera aufgenommene Bild von insgesamt zwei Leitpfosten, wobei ein erster Leitpfosten nahe dem Fahrzeug und ein zweiter Leitpfosten weiter entfernt vom Fahrzeug angeordnet sind; -
8 das mit Hilfe einer Kamera aufgenommene Bild eines entgegenkommenden Fahrzeugs bei Dunkelheit, wobei die Frontscheinwerfer des Fahrzeugs sichtbar sind; -
9 das Tracking eines Objekts über mehrere Bilder zum Ermitteln der Zusammengehörigkeit von in den einzelnen Bildern ermittelten Objekten; und -
10 eine grafische Darstellung der Positionsbestimmung eines Objekts mit Hilfe einer bewegten Kamera, um die Hypothese zu bestätigen oder zu widerlegen, dass das Objekt ein ortsfestes Objekt ist. - In
1 ist eine schematische Darstellung einer Verkehrssituation10 mit mehreren Kraftfahrzeugen18 ,24 ,26 ,28 auf den Fahrspuren14 ,16 der Fahrbahn12 gezeigt. Auf der Fahrspur14 befindet sich das Fahrzeug18 , das eine Vorrichtung zum Steuern der Lichtabgabe der Frontscheinwerfer20 ,22 des Fahrzeugs18 aufweist. Vor dem Fahrzeug18 befindet sich auf der Fahrspur14 das Fahrzeug24 . Das Fahrzeug24 bildet den zum Fahrzeug18 nächstkommenden vorausfahrenden Verkehr. Auf der Fahrspur16 kommen dem Fahrzeug18 die Fahrzeuge26 ,28 als Gegenverkehr entgegen. Ferner befinden sich zwei Straßenlampen30 ,32 am rechten Fahrbandrand und zwei Straßenlampen34 ,36 am linken Fahrbahnrand im Bereich vor dem Fahrzeug18 . Vom Fahrzeug18 aus gesehen sind weiterhin am rechten Fahrbahnrand zwei Leitpfosten38 ,40 und am linken Fahrbahnrand zwei Leitpfosten42 ,44 vorhanden. Die Straßenlampen30 bis36 dienen zur Beleuchtung der Fahrspuren14 ,16 innerhalb einer geschlossenen Ortschaft. Die Leitpfosten38 bis44 dienen zur Markierung der Fahrbahnränder außerhalb geschlossener Ortschaften. - Vor dem Fahrzeug
18 sind die mit Hilfe der Scheinwerfer20 ,22 des Fahrzeugs18 ausleuchtbaren Bereiche für herkömmliches Abblendlicht (Bereich46 ) für den mit Hilfe der Leuchtweitenregulierung und einer VarioX-Blendenwalze ausgestatteten Frontscheinwerfer20 ,22 des Fahrzeugs18 ausleuchtbare Bereich48 und der mit Hilfe des Fernlichts ausleuchtbare Bereich50 als Projektion auf die Fahrbahn12 schematisch dargestellt. Das Fahrzeug18 weist eine Bilderfassungseinheit52 auf, die vorzugsweise nahe dem Innenspiegel hinter der Windschutzscheibe des Fahrzeugs18 angeordnet ist. Die Bilderfassungseinheit52 erzeugt vorzugsweise mit Hilfe eines CMOS-Pixel-Arrays Ladungsbilder, die mit Hilfe eines Analog-Digital-Wandlers in digitale Bilddaten umgewandelt werden. Für jeden Bildpunkt des CMOS-Pixel-Arrays wird dabei ein Helligkeitswert ermittelt, vorzugsweise werden mit Hilfe der Bilderfassungseinheit52 Graustufenbilder und keine Farbbilder erfasst. Die Bilderfassungseinheit52 weist ein geeignetes optisches System zum Abbilden des gesamten relevanten Bereichs vor dem Fahrzeug18 auf, so dass auf den mit Hilfe der Bilderfassungseinheit52 erfassten Bildern das vorausfahrende Fahrzeug24 , die entgegenkommenden Fahrzeuge26 ,28 , die Straßenlampen30 bis36 sowie die Leitpfosten38 bis44 abgebildet sind. Bei Dunkelheit werden von der Bilderfassungseinheit52 nur die aktuell lichtabstrahlenden Lichtquellen sowie die aktuell lichtreflektierenden Elemente dieser Objekte als helle Bereiche in den aufgenommenen Bildern erfasst. - Die Scheinwerfer
20 ,22 weisen Stellantriebe zur Leuchtweitenregulierung und/oder zum Einstellen einer gewünschten Position der jeweiligen Blendenwalze auf oder gestatten zumindest das Zu- und Abschalten des Fernlichts über einen Datenbus. Vorzugsweise weisen die Scheinwerfer20 ,22 des Fahrzeugs18 Steuereinheiten auf, die über ein CAN-Bus-System mit weiteren Steuereinheiten des Fahrzeugs18 verbunden sind. Die Bilderfassungseinheit52 ist ebenfalls über das CAN-Bus-System mit weiteren Steuereinheiten des Fahrzeugs18 , insbesondere den Steuereinheiten der Scheinwerfersysteme20 ,22 , verbunden. - Die Lichtsteuerung des Fahrzeugs
18 hat dabei so zu erfolgen, dass weder der vorausfahrende Verkehr (Fahrzeug24 ) noch der entgegenkommende Verkehr (Fahrzeuge26 ,28 ) geblendet und dadurch behindert werden. - Die Bilderfassungseinheit
52 nimmt fortlaufend Bilder des relevanten Bereichs vor dem Fahrzeug18 auf, die von einer Bildverarbeitungseinheit ausgewertet werden, wie nachfolgend im Zusammenhang mit den weiteren Figuren noch näher erläutert wird. Die Analyseergebnisse mehrerer Analyseverfahren werden dabei mit Hilfe eines geeigneten Bewertungsverfahrens bewertet. Ein Bewertungsergebnis des Bewertungsverfahrens gibt dann an, welche Scheinwerfereinstellung der Scheinwerfer20 ,22 möglich ist, um die optimale Fahrbahnausleuchtung zu erreichen. Die optimale Fahrbahnausleuchtung ist dabei die durch die Scheinwerfer erzeugbare maximale Ausleuchtung des Verkehrsraums, bei der die anderen Verkehrsteilnehmer nicht geblendet und behindert werden. Auf die optimale Ausleuchtung kann beispielsweise bei Tagfahrten und/oder in Ortschaften bei Dunkelheit verzichtet werden. Bei der in1 dargestellten Verkehrssituation10 ist die optimal mögliche Ausleuchtung durch den Bereich51 angegeben, da bei dieser Ausleuchtung kein Verkehrsteilnehmer der Fahrzeuge24 ,26 ,28 durch das von den Scheinwerfern20 ,22 des Fahrzeugs18 emittierten Lichts beeinträchtigt wird. - In
2 ist ein Blockdiagramm mit Funktionen zur Bildaufnahme, Bildverarbeitung und zur Ansteuerung der Scheinwerfer20 ,22 dargestellt. Mit Hilfe der Bilderfassungseinheit52 wird, wie bereits im Zusammenhang mit1 beschrieben, eine Bildfolge mit Bildern des Bereichs vor dem Kraftfahrzeug18 aufgenommen. Vorzugsweise werden bei einer Fahrt des Kraftfahrzeugs18 mit eingeschaltetem Lichtsystem bzw. bei Dunkelheit fortlaufend Bilder aufgenommen. Die Bildaufnahme wird mit Hilfe des Funktionsblocks54 gesteuert, wobei durch den Funktionsblock54 sowohl die zeitliche Abfolge der Bildaufnahme als auch die Umwandlung der aufgenommenen Bilder in Digitalbilddaten gesteuert wird. Die Bilder der Bildfolge können dabei in gleichen zeitlichen Abständen oder in von der Fahrzeuggeschwindigkeit des Kraftfahrzeugs18 abhängigen zeitlichen Abständen aufgenommen werden. Mit Hilfe der Bilderfassungseinheit52 und der Bildaufnahmesteuerung54 erfolgt eine Datenerfassung. In den aufgenommenen Bildern werden Bereiche mit einer größeren Helligkeit als die übrigen Bildbereiche mit Hilfe der Blobextraktionsfunktion56 extrahiert. Diese Bereiche mit größerer Helligkeit sind Strahlungsquellen, wie Lichtquellen oder lichtreflektierende Objekte, d. h. beispielsweise Verkehrszeichen oder Leitpfähle sowie Warntafeln und Reflektoren an Kraftfahrzeugen. - Die Blobextraktion
56 wird für jedes Bild durchgeführt, das zur weiteren Analyse herangezogen wird. Mit Hilfe einer nachfolgend durchgeführten Blobtrackingfunktion58 werden gleiche Strahlungsquellen in mehreren nacheinander aufgenommenen Bildern ermittelt und deren Bewegung über mehrere Bilder nachverfolgt. Das Blobtracking umfasst somit Bearbeitungsschritte, die der Verfolgung von Objekten über mehrere Bilder dienen und dadurch die Information über den Verlauf der Objektbewegung und der Position des Objekts im Raum ermitteln. Mit Hilfe des Blobtrackings kann auch eine Vorhersage der Positions- und Bewegungsinformation anhand der bereits über mehrere Bilder ermittelten Bewegungsinformation und Positionsinformation eines Objekts in Verbindung mit physikalischer sowie mathematischer Gesetzmäßigkeiten getroffen werden. Dieser Vorgang wird auch als Prädiktion bezeichnet. - Durch die vom Blobtracking vorzugsweise umfasste Assoziation werden einzelne Objekte über mehrere Messzyklen bzw. über mehrere Bilder identifiziert, wodurch ein in einem aktuell auszuwertenden Bild ermitteltes Objekt einem bereits über mehrere Bilder ermittelten und verfolgten Objekt zugeordnet werden kann. Anhand der für einzelne Objekte ermittelten Bewegungsverläufe kann das Objekt einem bestimmten Objektmodell zugeordnet werden, wodurch nachfolgend mindestens eine Objekteigenschaft des Objekts bestimmt werden kann. Der Blobtrackingfunktion
58 werden zusätzliche Kalibrierungsinformationen60 zur Verfügung gestellt, um Fehler beim Blobtracking zu vermeiden. - Die von der Blobtrackingfunktion
58 ermittelten Trackingergebnisse werden nachfolgend mehreren Analysefunktionen62 bis68 zugeführt, die jeweils ein Analyseverfahren durchführen. Jeder Analysefunktion62 bis68 werden Zusatzinformationen62a bis68a in Form von Modellwissen zur Verfügung gestellt, um die zugeführten Informationen entsprechend verarbeiten und bewerten zu können. Bei der Analysefunktion62 werden die 2D-Eigenschaften von Objekten erfasst, insbesondere die Form, die Struktur, die Größe usw. Dazu wird die Blobstruktur ausgewertet, wobei insbesondere der Grauwert und die Grauwertverteilung jedes Blobs, d. h. jedes Helligkeitskleckses, im erfassten Bild bzw. in den erfassten Bildern ermittelt und bewertet wird. Jedoch sind die Grauwerte und die Grauwertverteilung der Helligkeitskleckse stark von der Entfernung und dem Blickwinkel von der Bilderfassungseinheit52 zu der jeweiligen Strahlungsquelle des Blobs und vom Design des Helligkeitspunkts abhängig. Beispiele für mögliche Blobs, deren zweidimensionale Eigenschaften (2D -Eigenschaften), d. h. deren Blobstruktur, analysiert wird, sind nachfolgend in den3 bis8 beispielhaft gezeigt. Jedoch ergibt die Analyse der 2D-Eigenschaften ein schwach signifikantes Merkmal, das nur in Kombination mit den Ergebnissen weiterer Analysen zu einem sinnvollen Bewertungsergebnis führt. - Die Analysefunktion
64 ermittelt aus den Blobtrackingdaten zusammengehörende helle Bereiche, vorzugsweise über mehrere nacheinander aufgenommene Bilder einer Bildfolge hinweg und analysiert eine dreidimensionale Struktur (3D-Struktur) der einzelnen lichtabstrahlenden Elemente im Raum und kann dadurch insbesondere zusammengehörige Elemente einem Objekt zuordnen bzw. zu einem Objekt zusammenfassen. Bei dieser Analyse erfolgt eine Modellierung von erwarteten Strukturen. Insbesondere werden Leuchtenpaare, wie Frontscheinwerferpaare und Rückleuchtenpaare, ermittelt. Beispielsweise können mit der 3D-Strukturanalyse Fahrzeuge mit zahlreicher Zusatzbeleuchtung als LKW und eine Reihe von Leuchtpunkten als Straßenbeleuchtung bzw. als Leitpfähle identifiziert werden. Für einzelne Lichtquellen, wie z. B. die Rückleuchte oder der Frontscheinwerfer von Motorrädern oder PKW bzw. LKW mit nur einem funktionierenden Rücklicht oder nur einem funktionierenden Frontscheinwerfer können mit Hilfe der 3D-Strukturanalyse nicht genauer analysiert werden, sodass die 3D-Strukturanalyse für diese Objekte keine weiteren Informationen ermitteln kann. Die Analysefunktion64 zum Ermitteln der 3D-Strukur kann ferner auch als Bestandteil einer sogenannten Lane-Departure-Warning (LDW-Funktion) genutzt werden. - Ein Tracking kann dann vorzugsweise für alle einem Objekt zugeordneten Lichtpunkte erfolgen. Mit Hilfe der Netzleuchtenerkennungsfunktion
56 können netzbetriebene Lichtquellen, wie Ampeln, Straßenbeleuchtungen, beleuchtete Werbeflächen und aus Gebäuden austretendes Licht von nicht netzbetriebenen Lichtquellen unterschieden werden. Die netzbetriebenen Lichtquellen sind ortsfeste Lichtquellen, die für eine erfindungsgemäße Lichtsteuerung irrelevant sind, da diese Leuchten nicht Verkehrsteilnehmern zuzuordnen sind, die bei der Lichtverteilung des vom Kraftfahrzeug18 abgestrahlten Lichts berücksichtigt werden müssten. Die Abtastfrequenz, d. h. die Bildaufnahmefrequenz, der mit Hilfe der Netzleuchtenerkennungsfunktion66 ausgewerteten Bilder kann dabei weit unter der Netzfrequenz von 50 bzw. 60 Hz liegen, mit der die netzbetriebenen Lichtquellen mit Energie versorgt werden. Eine konkrete Ausführungsmöglichkeit der Netzleuchtenerkennung ist ausführlich im Dokument beschrieben.WO 2006/069978 A2 - Mit Hilfe der Analysefunktion
68 kann eine Unterscheidung von unbewegten, d. h. ortsfesten, und bewegten Objekten durchgeführt werden, indem die Position eines lichtabgebenden Objekts im Raum mit Hilfe der durch die Bilderfassungseinheit52 aufgenommenen Bilder bei einer bekannten Relativbewegung der Bilderfassungseinheit52 zum Objekt bestimmt wird. Eine solche Positionsbestimmung ist mit Hilfe einer Bilderfassungseinheit52 , die nur ein Monokamerasystem und kein Stereokamerasystem aufweist, nur für ortsfeste Objekte möglich. Kann für ein solches Objekt über mindestens drei nacheinander aufgenommene Bilder, zwischen denen eine Relativbewegung der Bilderfassungseinheit52 stattgefunden hat, eine einzige Position plausibel ermittelt werden, so ist das Objekt ein ortsfestes Objekt. Bei dieser Analysefunktion68 wird vorzugsweise als Hypothese angenommen, dass das zu analysierendes Objekt ein unbewegtes ortsfestes Objekt ist. Die Position des Objekts wird dabei bei der Verwendung einer Monokamera als Bilderfassungseinheit52 mit Hilfe von zwei nacheinander aufgenommenen Bildern bestimmt und mit mindestens einem dritten Bild überprüft, indem die Position des Objekts weiterhin mit Hilfe des ersten und dritten und/oder zweiten und dritten Bildes bestimmt wird. Stimmen die ermittelten Positionen überein, ist das Objekt unbewegt und im betrachteten Zeitraum ortsfest. Somit wird die Hypothese, dass das Objekt unbewegt ist mit Hilfe der dritten und/oder weiteren Bilder überprüft und verifiziert. Ergeben sich für das Objekt andere Positionen, so dass die Hypothese nicht verifiziert werden kann, so ist das Objekt ein bewegtes Objekt. Die Analysefunktion68 zur Bestimmung von ortsfesten Objekten erhält neben Modellwissen weiterhin Informationen eines Fahrdynamikmodells68a , dem über das CAN-Bus-System69 des Kraftfahrzeugs18 aktuelle Fahrzeugdaten zur Verfügung gestellt werden, die insbesondere die Geschwindigkeit und/oder die Position des Fahrzeugs18 betreffen. Aus diesen Daten wird die Positionsänderung der Bilderfassungseinheit52 zwischen der Aufnahme von zwei zur Positionsbestimmung genutzten Bildern ermittelt. - Die Arialyseergebnisse der Analysefunktion
62 bis68 werden der Klassifikationsfunktion70 zugeführt, durch die eine Zusammenfassung der durch die einzelnen Analysefunktionen62 bis68 erfolgten Einzelbewertungen erfolgt. Dabei erfolgen eine Zuordnung und eine differenzierte Bewertung in vordefinierten Objektklassen. Solche Objektklassen können beispielsweise Rücklicht, Frontscheinwerfer, Straßenlampe, Reflektor, Verkehrsschild usw. sein. Aufgrund von voreingestellten Regeln, durch die Funktionsvorschriften des Gesamtsystems zum Steuern der Lichtabgabe durch die Funktionskategorisierung umgesetzt werden, erfolgt eine Gesamtbewertung der Analyseergebnisse der Analysefunktionen. Dabei können insbesondere Lastenhefte und gesetzliche Vorschriften berücksichtigt und Aktionen zur Lichtsteuerung festgelegt werden. Anschließend wird aufgrund der Einstellmöglichkeiten des Lichtsystems bzw. der Scheinwerfer20 ,22 des Kraftfahrzeugs18 die optimale Ausleuchtung51 des relevanten Verkehrsraums vor dem Fahrzeug18 unter Berücksichtigung der anderen Verkehrsteilnehmer24 ,26 ,28 bestimmt. Diese Information wird als Parameter oder Stellsignal über das CAN-Bus-System des Kraftfahrzeugs18 zum Lichtsystem übertragen, durch das die Lichtabgabe der Scheinwerfer20 ,22 entsprechend eingestellt wird. Über ein Human-Machine-Interface kann eine Information über die aktuelle Einstellung des Lichtsystems des Kraftfahrzeugs18 an den Fahrer des Kraftfahrzeugs18 ausgegeben werden. - In den
3 bis8 ist jeweils ein mit Hilfe der Bilderfassungseinheit52 des Kraftfahrzeugs18 aufgenommenes Bild in verschiedenen Verkehrssituationen dargestellt, wobei jeweils das Analyseergebnis der Analysefunktion62 angegeben ist, durch das das ermittelte Objekt näher bestimmbar ist und einer Objektklasse zugeordnet wird. Bei den in3 dargestellten lichtabstrahlenden Elementen handelt es sich um die Rücklichter und die Nummernschildbeleuchtung eines vorausfahrenden Fahrzeugs24 . Bei dem in4 dargestellten lichtabstrahlenden Bereich handelt es sich um einen Scheinwerfer eines entgegenkommenden Fahrzeugs. Bei dem in5 dargestellten lichtabstrahlenden Bereich handelt es sich um eine entfernt vom Kraftfahrzeug18 bzw. entfernt von der Bilderfassungseinheit52 angeordnete Straßenlampe. Bei dem in6 dargestellten lichtabstrahlenden Bereich handelt es sich um eine nahe dem Kraftfahrzeug18 bzw. nahe der Bilderfassungseinheit52 angeordnete Straßenlampe. Bei den in7 dargestellten lichtabstrahlenden Bereichen handelt es sich um einen nahe dem Kraftfahrzeug18 angeordneten ersten Leitpfosten und einen entfernt vom Kraftfahrzeug18 angeordneten zweiten Leitpfosten. Bei den in8 dargestellten lichtabstrahlenden Bereichen handelt es sich um entfernt vom Kraftfahrzeug18 angeordnete Scheinwerfer entgegenkommender Kraftfahrzeuge. - In
9 ist das Analyseergebnis der 3D-Strukturanalysefunktion 64 für insgesamt 12 Straßenlampen dargestellt, wobei die Straßenlampen in dem mit Kamerakoordinaten der Bilderfassungseinheit52 versehenen rechten Diagramm als Lichtpunkte und im linken Diagramm als Punkte in dem Koordinatensystem einer Ebene dargestellt sind. Die Positionen der Lichtpunkte bzw. der Straßenlampen in der Ebene sind im linken Diagramm der9 ausgehend von der Bilderfassungseinheit52 bzw. zum Kraftfahrzeug18 angegeben, wobei die Bilderfassungseinheit52 im Koordinatenursprung angeordnet ist. - In
10 ist die Positionsbestimmung eines ortsfesten Objekts80 mit Hilfe der Analysefunktion68 dargestellt. Die Bilderfassungseinheit52 wird mit dem Fahrzeug18 bewegt. Die Bewegung der Bilderfassungseinheit52 in der Ebene ist durch mehrere Punkte dargestellt, die auf einer zur Y-Achse parallelen Gerade angeordnet sind. Die Relativbewegung der Bilderfassungseinheit52 zum Objekt80 ist durch die Bewegung des Fahrzeugs18 festgelegt, da das Objekt80 als ortsfest angenommen wird. Wird für das Objekt80 mit Hilfe mehrerer Positionsbestimmungen mit unterschiedlichen aufgenommenen Bildern jeweils dieselbe Position ermittelt, ist die Annahme korrekt, dass es sich beim Objekt80 um ein ortsfestes Objekt handelt. Werden verschiedene Positionen oder nicht plausible Positionen ermittelt, so handelt es sich beim Objekt80 nicht um ein ortsfestes Objekt. - Bei dieser Analyse kann dann auch die Entfernung zwischen dem Kraftfahrzeug
18 und dem Objekt80 mit Hilfe einer Monokamera ermittelt werden, wenn es sich beim Objekt80 um ein ortsfestes Objekt handelt. Die Klassifizierung von Objekten erfolgt vorzugsweise mit Hilfe eines Bewertungsverfahrens, das die Bewertung der zu erfassenden Objekte ausgehend von den durch die Analysefunktionen ausgegebenen Analysenergebnisse durchführt. Als Bewertungsverfahren kann insbesondere ein Standardklassifizierungsverfahren genutzt werden, insbesondere unter Verwendung der Bayes-Klassifikation, einer Fuzzy-Logik, einer Support-Vector-Machine und/oder eines anderen geeigneten Bewertungsverfahrens.
Claims (11)
- Verfahren zum Steuern der Lichtabgabe eines Fahrzeugs, bei dem mehrere Bilder nacheinander als Bildfolge erfasst werden, wobei eine Verfolgung von Objekten über mehrere Bilder erfolgt, um eine Bildfolge mit Trackingdaten zu erhalten; zumindest ein Teil der Bilder der erhaltenen Bildfolge mit Hilfe eines ersten Analyseverfahrens (62) analysiert wird; zumindest ein Teil der Bilder der erhaltenen Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren (62) verschiedenen zweiten Analyseverfahrens (62 bis 68) analysiert wird, wobei durch jedes Analyseverfahren (62 bis 68) mindestens ein Analyseergebnis erzeugt wird; die Analyseergebnisse mit Hilfe eines Bewertungsverfahrens bewertet werden, wobei das Bewertungsverfahren mindestens ein Bewertungsergebnis ausgibt; und bei dem abhängig vom Bewertungsergebnis die Lichtabgabe durch mindestens einen Scheinwerfer (20, 22) des Fahrzeugs (18) gesteuert wird.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass die Analyseverfahren den jeweiligen Teil der Bilder unabhängig voneinander analysieren, wobei zumindest ein Teil der vom ersten Analyseverfahren (62) genutzten Bilder auch zur Analyse mit Hilfe des zweiten Analyseverfahrens (64 bis 68) genutzt wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder der Bildfolge mit Hilfe einer Einzelkamera (52) oder einer Stereokamera erfasst werden, wobei zumindest die mit Hilfe des ersten Analyseverfahrens (62) analysierten Bilder vorzugsweise Graustufenbilder sind.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die durch den Scheinwerfer (20, 22) abgegebenen Lichtstrahlen erzeugte Lichtverteilung gesteuert wird, wobei die durch mindestens den einen Scheinwerfer (20, 22) des Fahrzeugs (18) abgegebenen Lichtstrahlen durch Verändern des Neigungswinkels, des Gierwinkels und/oder eines optischen Systems zum Formen der abgegebenen Lichtstrahlen mindestens eines Scheinwerfers (20, 22) und/oder mindestens einer Lichtquelle gesteuert wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bewertungsverfahren mit Hilfe der Analyseergebnisse eine Klassifizierung mit Hilfe von in den Analyseergebnissen enthaltenen Merkmalen von erfassten Objekten (80) durchführt, vorzugsweise mit Hilfe eines Standardklassifizierungsverfahren, insbesondere unter Verwendung der Bayes-Klassifikation, einer Fuzzy-Logik oder einer Support-Vector-Machine.
- Verfahren nach
Anspruch 5 , dadurch gekennzeichnet, dass bei der Klassifikation weitere durch das Fahrzeug (18) zur Verfügung gestellte Informationen (68a) berücksichtigt werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit Hilfe des ersten Analyseverfahrens (62), des zweiten Analyseverfahrens (64 bis 68) und/oder des Bewertungsverfahrens eine Kategorisierung von mit Hilfe der Bilder ermittelten Objekten (80) durchgeführt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Analyseverfahren (62 bis 68) ein Analyseverfahren zur Netzleuchtenerkennung, ein Analyseverfahren zur dreidimensionalen Strukturanalyse zum Erfassen von zusammengehörigen Objekten, ein Analyseverfahren zum Ermitteln von zweidimensionalen Eigenschaften eines Objekts, wie Form, Struktur und/oder Größe, ein Analyseverfahren zum Ermitteln von dreidimensionalen Eigenschaften eines Objekts, vorzugsweise zum Ermitteln des Objektstatus bewegt oder unbewegt, und/oder mindestens ein weiteres Analyseverfahren umfasst.
- Verfahren nach
Anspruch 8 , dadurch gekennzeichnet, dass die ermittelten Eigenschaften eines Objekts (80) durch mindestens eines der Analyseverfahren (62, 60) mit Eigenschaften eines Objektmodells (62a bis 66a) verglichen werden, wobei aufgrund der übereinstimmenden und/oder abweichenden Eigenschaften zwischen den tatsächlichen Eigenschaften des Objekts (80) und eines Objektmodells (62a bis 66a) ein Bewertungskriterium als Analyseergebnis dem Bewertungsverfahren zur Verfügung gestellt wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bewertungsverfahren bei der Verarbeitung der Analyseergebnisse eine Wichtung der Analyseergebnisse durchführt und/oder Fehlertoleranzen bei der Bewertung der Analyseergebnisse einbezieht.
- Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs, mit einer Bilderfassungseinheit (52) zum Erfassen von Bildern einer Bildfolge, wobei eine Verfolgung von Objekten über mehrere Bilder erfolgt, um eine Bildfolge mit Trackingdaten zu erhalten; mit einer Auswerteeinheit, die einen Teil der Bilder der erhaltenen Bildfolge mit Hilfe eines ersten Analyseverfahrens (62) analysiert, die zumindest einen Teil der Bilder der erhaltenen Bildfolge mit Hilfe mindestens eines vom ersten Analyseverfahren (62) verschiedenen zweiten Analyseverfahrens (64 bis 68) analysiert, die mit Hilfe eines Bewertungsverfahrens die von jedem Analyseverfahren erzeugten Analyseergebnisse bewertet und ein Bewertungsergebnis ausgibt, und die abhängig vom Bewertungsergebnis ein Stellsignal erzeugt, durch das die Abgabe von Lichtstrahlen mindestens eines Scheinwerfers (20, 22) eines Fahrzeugs (18) gesteuert wird.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007008542.9A DE102007008542B4 (de) | 2007-02-21 | 2007-02-21 | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007008542.9A DE102007008542B4 (de) | 2007-02-21 | 2007-02-21 | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102007008542A1 DE102007008542A1 (de) | 2008-08-28 |
| DE102007008542B4 true DE102007008542B4 (de) | 2019-04-18 |
Family
ID=39645805
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102007008542.9A Active DE102007008542B4 (de) | 2007-02-21 | 2007-02-21 | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102007008542B4 (de) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009024352A1 (de) * | 2009-06-09 | 2010-12-16 | Automotive Lighting Reutlingen Gmbh | Verfahren zum Betreiben einer Beleuchtungseinrichtung |
| DE102009028342A1 (de) | 2009-08-07 | 2011-02-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Aktivierung des Stadtlichts eines Fahrzeugs, abhängig von der Erkennung einer beleuchteten Gegend innerorts mittels einer Kamera |
| EP2495127B1 (de) * | 2011-03-01 | 2014-07-30 | Autoliv Development AB | Fahrerassistenzsystem und -verfahren für ein Kraftfahrzeug |
| FR3013875B1 (fr) * | 2013-11-25 | 2017-03-31 | Renault Sas | Systeme et procede de formation d'images nocturnes pour un vehicule automobile. |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0935728A1 (de) | 1997-09-06 | 1999-08-18 | Hella KG Hueck & Co. | Scheinwerfer für fahrzeuge |
| DE19922735A1 (de) * | 1998-05-18 | 1999-12-02 | Koito Mfg Co Ltd | Fahrzeugbeleuchtungssystem |
| EP0971829A1 (de) | 1997-04-02 | 2000-01-19 | Gentex Corporation | Steuerungssystem um fahrzeugscheinwerfer automatisch zu dimmen |
| DE19902015A1 (de) * | 1999-01-20 | 2000-07-27 | Porsche Ag | Anordnung zur Anpassung des Beleuchtungssystems an einem Kraftfahrzeug |
| US6097023A (en) * | 1993-02-26 | 2000-08-01 | Donnelly Corporation | Vehicle headlight control using imaging sensor |
| US20040066458A1 (en) * | 2002-07-12 | 2004-04-08 | Hiroyuki Kawamura | Imaging system |
| DE102004063836A1 (de) | 2004-12-24 | 2006-03-30 | Daimlerchrysler Ag | Scheinwerfersteuerung |
| WO2006069978A2 (de) | 2004-12-23 | 2006-07-06 | Hella Kgaa Hueck & Co. | Verfahren und vorrichtung zum ermitteln eines kalibrierparameters einer stereokamera |
| DE10261290B4 (de) * | 2001-12-28 | 2007-02-15 | Yazaki Corp. | Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung |
| DE102006016073A1 (de) * | 2005-08-24 | 2007-03-22 | Dr.Ing.H.C. F. Porsche Ag | Verfahren zur Steuerung der Leuchtweite eines Kraftfahrzeuges |
-
2007
- 2007-02-21 DE DE102007008542.9A patent/DE102007008542B4/de active Active
Patent Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6097023A (en) * | 1993-02-26 | 2000-08-01 | Donnelly Corporation | Vehicle headlight control using imaging sensor |
| EP0971829A1 (de) | 1997-04-02 | 2000-01-19 | Gentex Corporation | Steuerungssystem um fahrzeugscheinwerfer automatisch zu dimmen |
| EP0971829B1 (de) | 1997-04-02 | 2001-11-14 | Gentex Corporation | Steuerungssystem um fahrzeugscheinwerfer automatisch zu dimmen |
| EP0935728A1 (de) | 1997-09-06 | 1999-08-18 | Hella KG Hueck & Co. | Scheinwerfer für fahrzeuge |
| EP0935728B1 (de) | 1997-09-06 | 2004-05-26 | Hella KG Hueck & Co. | Scheinwerfer für fahrzeuge |
| DE19922735A1 (de) * | 1998-05-18 | 1999-12-02 | Koito Mfg Co Ltd | Fahrzeugbeleuchtungssystem |
| DE19902015A1 (de) * | 1999-01-20 | 2000-07-27 | Porsche Ag | Anordnung zur Anpassung des Beleuchtungssystems an einem Kraftfahrzeug |
| DE10261290B4 (de) * | 2001-12-28 | 2007-02-15 | Yazaki Corp. | Im-Fahrzeug-Bildkorrektur-Einrichtung und Nachtfahrt-Sichtfeld-Unterstützungs-Einrichtung |
| US20040066458A1 (en) * | 2002-07-12 | 2004-04-08 | Hiroyuki Kawamura | Imaging system |
| WO2006069978A2 (de) | 2004-12-23 | 2006-07-06 | Hella Kgaa Hueck & Co. | Verfahren und vorrichtung zum ermitteln eines kalibrierparameters einer stereokamera |
| DE102004063836A1 (de) | 2004-12-24 | 2006-03-30 | Daimlerchrysler Ag | Scheinwerfersteuerung |
| DE102006016073A1 (de) * | 2005-08-24 | 2007-03-22 | Dr.Ing.H.C. F. Porsche Ag | Verfahren zur Steuerung der Leuchtweite eines Kraftfahrzeuges |
Non-Patent Citations (1)
| Title |
|---|
| GRAEFE, V.: Echtzeit-Bildverarbeitung für ein Fahrer-Unterstützungssystem zum Einsatz auf Autobahnen. In: it+ti Informationstechnik und Technische Informatik, H. 36, 1994, S. 16-24 * |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102007008542A1 (de) | 2008-08-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102013100327B4 (de) | Fahrzeugfahrtumgebungserkennungsvorrichtung | |
| EP2501584B1 (de) | Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung | |
| DE69937956T3 (de) | Stufenlose steuerung eines scheinwerfers | |
| DE102009039179B4 (de) | Scheinwerfersteuervorrichtung und Fahrzeugscheinwerfer mit Scheinwerfersteuervorrichtung | |
| EP2501585B1 (de) | Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung | |
| DE112017006833B4 (de) | Fahrzeugbeleuchtungssystem | |
| EP2748032B1 (de) | Verfahren und vorrichtung zur ansteuerung eines scheinwerfers eines fahrzeugs | |
| EP2718869A2 (de) | Verfahren und vorrichtung zur erkennung von objekten in einem umfeld eines fahrzeugs | |
| EP2127945B1 (de) | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs | |
| EP0869031A2 (de) | Verfahren zur Regelung von Leuchtweite und/oder Leuchtrichtung | |
| EP2501586B1 (de) | Verfahren zum steuern einer scheinwerferanordnung für ein fahrzeug und scheinwerferanordnung | |
| DE102009054249A1 (de) | Verfahren zum Steuern einer Scheinwerferanordnung für ein Fahrzeug und Scheinwerferanordnung | |
| DE102007008542B4 (de) | Verfahren und Vorrichtung zum Steuern der Lichtabgabe eines Fahrzeugs | |
| DE102011003550A1 (de) | Verfahren und Vorrichtung zum Justieren einer Grundeinstellung eines Scheinwerfers eines Kraftfahrzeugs | |
| EP4185488B1 (de) | Verfahren zum betrieb einer beleuchtungseinrichtung und kraftfahrzeug | |
| EP2562685B1 (de) | Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts | |
| EP2131308B1 (de) | Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts | |
| DE102009054243A1 (de) | Bauteil mit Oberflächenbeschichtung und Verfahren zur Herstellung eines solchen Bauteils | |
| EP1962245B1 (de) | Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten | |
| DE102015209550A1 (de) | Verfahren und vorrichtung zur erkennung von objekten in einer fahrzeugumgebung eines fahrzeugs | |
| DE102013220839A1 (de) | Dynamische adaptive Rückspiegelabblendungs-Überlagerung durch Szenehelligkeitsschätzung | |
| DE102006004770B4 (de) | Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs | |
| EP3136291A1 (de) | Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung | |
| DE102006043433B4 (de) | Verfahren zur bildgestützten Bestimmung der Fahrtrichtung von Fahrzeugen | |
| DE102017211427B4 (de) | Beleuchten einer Fahrzeugumgebung eines Kraftfahrzeugs |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
| R012 | Request for examination validly filed |
Effective date: 20131121 |
|
| R082 | Change of representative |
Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE MBB, DE Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE |
|
| R081 | Change of applicant/patentee |
Owner name: CAR.SOFTWARE ESTONIA AS, EE Free format text: FORMER OWNER: HELLA KGAA HUECK & CO., 59557 LIPPSTADT, DE Owner name: HELLA GMBH & CO. KGAA, DE Free format text: FORMER OWNER: HELLA KGAA HUECK & CO., 59557 LIPPSTADT, DE |
|
| R082 | Change of representative |
Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE |
|
| R016 | Response to examination communication | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final | ||
| R081 | Change of applicant/patentee |
Owner name: CAR.SOFTWARE ESTONIA AS, EE Free format text: FORMER OWNER: HELLA GMBH & CO. KGAA, 59557 LIPPSTADT, DE |
|
| R082 | Change of representative |