[go: up one dir, main page]

WO2011110204A1 - Fahrerassistenzvorrichtung mit optischer darstellung erfasster objekte - Google Patents

Fahrerassistenzvorrichtung mit optischer darstellung erfasster objekte Download PDF

Info

Publication number
WO2011110204A1
WO2011110204A1 PCT/EP2010/007233 EP2010007233W WO2011110204A1 WO 2011110204 A1 WO2011110204 A1 WO 2011110204A1 EP 2010007233 W EP2010007233 W EP 2010007233W WO 2011110204 A1 WO2011110204 A1 WO 2011110204A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
detected
driver assistance
assistance device
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2010/007233
Other languages
English (en)
French (fr)
Inventor
Joachim Gloger
Markus Gressmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to US13/583,336 priority Critical patent/US20130107052A1/en
Priority to CN2010800650029A priority patent/CN102782739A/zh
Publication of WO2011110204A1 publication Critical patent/WO2011110204A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present invention relates to a driver assistance device for a vehicle having a sensor device for detecting an object in the surroundings of the vehicle and a display device for visually displaying the object detected by the sensor device with reference to a schematic plan view of the vehicle.
  • Detection method undergo various preprocessing steps so that captured objects can be displayed in the presentation system. For example, in the bird's eye view of the surround view system, sublime ones appear
  • driver assistance system is for example from the document
  • This driver assistance system detects a
  • the environment sensor includes an evaluation unit, which determines by evaluating signals from the sensors distance data to objects detected in the vicinity of the vehicle and the determined
  • the distance data are determined, for example, by transit time measurement. Included in the signal evaluation the evaluation unit in one direction only the object closest to the vehicle. Since only one value is detected in one direction, objects that have a certain vertical extent do not readily understand where the respective object actually is.
  • the object of the present invention is therefore to a
  • a vehicle assistance system in which detected in the vicinity of a vehicle objects as accurately as possible in their actual position relative to the
  • Vehicle can be visualized.
  • this object is achieved by a driver assistance device according to claim 1.
  • the above object is achieved by a method according to claim 5.
  • a driver assistance device for a vehicle with a sensor device for detecting an object in the vicinity of the vehicle and a display device for optically displaying the object detected by the sensor device with respect to a schematic
  • Ground coordinates of the object can be detected as position data.
  • the ground coordinates are used by the display device for positioning a symbol symbolizing the object in plan view in the illustration.
  • a clear position of a detected object can be determined.
  • This lateral position relative to the vehicle can be displayed to scale on a display device, so that the driver can better estimate the actual position of the object and the danger potential emanating therefrom.
  • the display device is preceded by a classification device which classifies the detected objects according to object classes so that a detected object can be displayed according to its object class with a specific symbol, a specific color, a specific brightness and / or a specific marking.
  • the size of the icon for the detected object in depiction may depend on the distance of the object to a given reference point.
  • the display device can be a detected object at the edge of the display area if its virtual presentation position would be outside the viewport.
  • FIG. 1 is a block diagram of a surround view system according to the prior art
  • Fig. 2 is a block diagram of a driver assistance device according to the invention.
  • the driver assistance system in a known embodiment acquires raw data 1.
  • This raw data 1 can be used, for example, to generate a camera gray value image.
  • the detected objects are distorted in it. It is therefore necessary to preprocess the raw data 2 in order to obtain suitable preprocessed data 3 suitable for undistorted presentation.
  • a bird's-eye view 4 of, for example, a vehicle-integrated screen the environment 5 of the vehicle including a vertical projection of the vehicle itself is displayed on the ground.
  • This vertical projection can be referred to here as a virtual vehicle 6.
  • the preprocessed data 3 obtained after the preprocessing 2 are used as 2D or 3D coordinates 7 of the detected objects for the perspective representation 4.
  • a symbol 8 for the detected object can be placed in the perspective view 4 after a corresponding preprocessing has taken place.
  • several receptacles 9 around the vehicle are necessary. These respective recordings 9 are also pre-processed and their information is used to obtain the
  • Vehicle an environment of the vehicle via an environmental sensor and this represents on an optical display unit.
  • an evaluation determined by evaluating signals from the ambient sensor position data to a detected object 10 and provides the detected object 10 to the position data as a symbol 11 on the optical display unit in Referring to a schematic plan view 16 of the vehicle, resulting in a virtual bird's eye view 14 of the vehicle environment.
  • ground coordinates (3D coordinates) of the detected object 10 are determined from the signals of the environmental sensor system and projected into the representation 14 with the schematic top view 16 of the vehicle.
  • the detected object is preferably represented by a superimposed graphic or an icon, by highlighting by means of color and / or brightness, or by marking with colored line segments, as will be explained in more detail below.
  • the 3D coordinates 17 from the object 10 or the person on the ground are determined from the sensor data. For example, the coordinates of the feet of a pedestrian or the lower edge of a trash can are determined. In this way, the position of the object / person can be displayed in bird's eye view by projecting these (ground) coordinates into the virtual camera used to calculate the bird's eye view.
  • the position in the bird's-eye view image 14 thus corresponds to the position at which the object 10 would be perceived by a viewer who is actually hovering above the vehicle.
  • the representation takes place at the edge of the visible area.
  • the position 22, 23 of the representation at the edge corresponds to the respective intersection of a straight line 24, 25 from the center 26 of the bird's-eye view 14 or any other reference point in this perspective and the boundaries 27 of the display area 14.
  • the size of the shown at the positions 22 and 23 Symbols depends on the distance of the positions 20 and 21 to the reference point 26 from. If the object is closer to the reference point 26, so it is at the position 23 with a larger symbol than an object detected at the position 20, which is farther from the reference point 26.
  • the detected objects can be classified by a classifier.
  • the depiction is made by a superimposed graphic (icon), by highlighting (color, brightness) of the object or by marking with color

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

In der Umgebung eines Fahrzeugs erfasste Objekte sollen in Bezug auf eine schematische Draufsicht (16) des Fahrzeugs exakter positioniert werden können. Daher wird eine Fahrerassistenzvorrichtung für ein Fahrzeug mit einer Sensorikeinrichtung zum Erfassen eines Objekts (10) in der Umgebung des Fahrzeugs und einer Anzeigeeinrichtung zum optischen Darstellen des von der Sensorikeinrichtung erfassten Objekts (10) in Bezug zu einer schematischen Draufsicht (16) des Fahrzeugs bereitgestellt. Mit der Sensorikeinrichtung sind Bodenkoordinaten des Objekts (10) als Positionsdaten (17) erfassbar. Die Bodenkoordinaten werden von der Anzeigeeinrichtung zur Positionierung eines Symbols (11), das das Objekt (10) in der Draufsicht symbolisiert, in der Darstellung (14) verwendet.

Description

Fahrerassistenzvorrichtung mit optischer Darstellung erfasster Objekte
Die vorliegende Erfindung betrifft eine Fahrerassistenzvorrichtung für ein Fahrzeug mit einer Sensorikeinrichtung zum Erfassen eines Objekts in der Umgebung des Fahrzeugs und einer Anzeigeeinrichtung zum optischen Darstellen des von der Sensorikeinrichtung erfassten Objekts in Bezug zu einer schematischen Draufsicht des Fahrzeugs.
Nach der Detektion eines Objekts (unter einem Objekt wird hier auch eine Person verstanden) durch Sensoren im/am Fahrzeug muss diese Information dem Fahrer vermittelt werden. Dies erfolgt beispielsweise mit Hilfe eines so genannten Surround- View-Systems, bei dem die Umgebung des Fahrzeugs einschließlich des erfassten Objekts optisch dargestellt wird. Die Präsentation der„Roh-Detektion" ist hierbei nicht möglich, da das Detektionsverfahren meist mit einer anderen Darstellung der Daten arbeitet als das Präsentationssystem. Daher müssen die Rohdaten des
Detektionsverfahrens diverse Vorverarbeitungsschritte durchlaufen, damit erfasste Objekte in dem Präsentationssystem dargestellt werden können. Beispielsweise erscheinen in der Vogelperspektive des Surround-View-Systems erhabene
Objekte/Personen verzerrt oder sie sind durch eine technisch notwendige Einschränkung des Sichtbereichs nur teilweise zu sehen.
Ein derartiges Fahrerassistenzsystem ist beispielsweise aus der Druckschrift
DE 10 2005 026 458 A1 bekannt. Dieses Fahrerassistenzsystem erfasst einen
Nahbereich des Fahrzeugs über eine Umgebungssensorik mit mehreren Sensoren und stellt ihn auf einer optischen Anzeigeeinheit dar. Die Umgebungssensorik umfasst eine Auswerteeinheit, welche durch Auswerten von Signalen der Sensoren Abstandsdaten zu im Nahbereich des Fahrzeugs erfassten Objekten bestimmt und die bestimmten
Abstandsdaten als Objektkontur auf der optischen Anzeigeeinheit in Bezug auf eine schematische Draufsicht des eigenen Fahrzeugs darstellt. Die Abstandsdaten werden beispielsweise durch Laufzeitmessung ermittelt. Bei der Signalauswertung berücksichtigt die Auswerteeinheit in einer Richtung nur das zum Fahrzeug nächstliegende Objekt. Da in einer Richtung immer nur ein Wert erfasst wird, ist bei Objekten, die eine gewisse vertikale Erstreckung aufweisen, nicht ohne weiteres klar, wo sich das jeweilige Objekt tatsächlich befindet.
Die Aufgabe der vorliegenden Erfindung besteht somit darin, ein
Fahrzeugassistenzsystem bereitzustellen, bei dem in der Umgebung eines Fahrzeugs detektierte Objekte möglichst exakt in ihrer tatsächlichen Position relativ zu dem
Fahrzeug optisch dargestellt werden können.
Erfindungsgemäß wird diese Aufgabe gelöst durch eine Fahrerassistenzvorrichtung nach Anspruch 1. Darüber hinaus wird die genannte Aufgabe gelöst durch ein Verfahren nach Anspruch 5. Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den
Unteransprüchen.
Entsprechend der vorliegenden Erfindung wird demnach eine Fahrerassistenzvorrichtung für ein Fahrzeug mit einer Sensorikeinrichtung zum Erfassen eines Objekts in der Umgebung des Fahrzeugs und eine Anzeigeeinrichtung zum optischen Darstellen des von der Sensorikeinrichtung erfassten Objekts in Bezug zu einer schematischen
Draufsicht des Fahrzeugs bereitgestellt. Mit der Sensorikeinrichtung sind
Bodenkoordinaten des Objekts als Positionsdaten erfassbar. Die Bodenkoordinaten werden von der Anzeigeeinrichtung zur Positionierung eines Symbols, das das Objekt in der Draufsicht symbolisiert, in der Darstellung verwendet.
In vorteilhafter Weise ist durch die Erfassung der Bodenkoordinaten eine klare Position eines erfassten Objekts ermittelbar. Diese laterale Position gegenüber dem Fahrzeug lässt sich maßstabsgetreu auf einer Anzeigeeinrichtung darstellen, so dass der Fahrer die tatsächliche Position des Objekts und das davon ausgehende Gefahrenpotential besser abschätzen kann.
Vorzugsweise ist der Anzeigeeinrichtung eine Klassifizierungseinrichtung vorgeschaltet, die die erfassten Objekte nach Objektklassen klassifiziert, so dass ein erfasstes Objekt entsprechend seiner Objektklasse mit einem spezifischen Symbol, einer spezifischen Farbe, einer spezifischen Helligkeit und/oder einer spezifischen Markierung darstellbar ist. Ferner kann die Größe des Symbols für das erfasste Objekt bei der Darstellung von der Distanz des Objekts zu einem vorgegebenen Referenzpunkt abhängen. Darüber hinaus kann die Anzeigeeinrichtung ein erfasstes Objekt am Rand des Darstellungsbereichs darstellen, wenn seine virtuelle Darstellungsposition außerhalb des Darstellungsbereichs läge.
Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
Fig. 1 ein Blockschaltbild eines Surround-View-Systems gemäß dem Stand der
Technik und
Fig. 2 ein Blockschaltbild einer erfindungsgemäßen Fahrerassistenzvorrichtung.
Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte
Ausführungsformen der vorliegenden Erfindung dar. Zunächst wird jedoch anhand von Fig. 1 ein Beispiel aus dem Stand der Technik näher erläutert, damit die vorliegende Erfindung besser verstanden werden kann.
Das Fahrerassistenzsystem in einer bekannten Ausführung erfasst Rohdaten 1. Diese Rohdaten 1 können beispielsweise dazu verwendet werden, ein Kamera-Grauwertbild zu erzeugen. Die erfassten Objekte sind darin verzerrt dargestellt. Es ist deswegen notwendig, die Rohdaten einer Vorverarbeitung 2 zu unterziehen, damit geeignete vorverarbeitete Daten 3, die für eine unverzerrte Darstellung geeignet sind, gewonnen werden können.
In einer vogelperspektivischen Darstellung 4 beispielsweise eines in das Fahrzeug integrierten Bildschirms wird die Umgebung 5 des Fahrzeugs einschließlich einer vertikalen Projektion des Fahrzeugs selbst auf den Boden wiedergegeben. Diese vertikale Projektion kann hier als virtuelles Fahrzeug 6 bezeichnet werden.
Die nach der Vorverarbeitung 2 erhaltenen vorverarbeiteten Daten 3 werden als 2D- oder 3D-Koordinaten 7 der erfassten Objekte für die perspektivische Darstellung 4 genutzt. Damit lässt sich ein Symbol 8 für das erfasste Objekt in der perspektivischen Darstellung 4 platzieren, nachdem eine entsprechende Vorverarbeitung stattgefunden hat. Um die gesamte Umgebung 5 des virtuellen Fahrzeugs 6 darstellen zu können, sind mehrere Aufnahmen 9 rund um das Fahrzeug notwendig. Diese jeweiligen Aufnahmen 9 sind ebenfalls vorzuverarbeiten und ihre Informationen werden zur Gewinnung der
vogelperspektivischen Darstellung 4 genutzt. Da die erhabenen Objekte in dem oben genannten Verfahren hinsichtlich ihrer Position nicht eindeutig charakterisierbar sind, wird ein erfindungsgemäßes Verfahren gemäß der prinzipiellen Darstellung von Fig. 2 vorgeschlagen. Auch hier erfasst ein
Fahrerassistenzsystem beziehungsweise eine Fahrerassistenzvorrichtung für ein
Fahrzeug eine Umgebung des Fahrzeugs über eine Umgebungssensorik und stellt diese auf einer optischen Anzeigeeinheit dar. Hierzu bestimmt eine Auswerteeinheit durch Auswerten von Signalen der Umgebungssensorik Positionsdaten zu einem erfassten Objekt 10 und stellt das erfasste Objekt 10 an den Positionsdaten als Symbol 11 auf der optischen Anzeigeeinheit in Bezug zu einer schematischen Draufsicht 16 des Fahrzeugs dar, wodurch sich eine virtuelle Vogelperspektivedarstellung 14 der Fahrzeugumgebung ergibt. Erfindungsgemäß werden als die Positionsdaten Bodenkoordinaten (3D- Koordinaten) des erfassten Objekts 10 aus den Signalen der Umgebungssensorik bestimmt und in die Darstellung 14 mit der schematischen Draufsicht 16 des Fahrzeugs projiziert. Vorzugsweise wird das erfasste Objekt je nach Objektklasse durch eine überlagerte Grafik beziehungsweise ein Icon, durch Hervorheben mittels Farbe und/oder Helligkeit oder durch Markieren mit farbigen Liniensegmenten dargestellt, wie unten näher erläutert werden wird.
Im Einzelnen werden aus den Sensordaten die 3D-Koordinaten 17 von dem Objekt 10 beziehungsweise der Person auf dem Boden bestimmt. Beispielsweise werden die Koordinaten der Füße eines Fußgängers oder die Unterkante eines Mülleimers ermittelt. Damit kann die Position des Objekts/Person in der Vogelperspektive dargestellt werden, indem diese (Boden-) Koordinaten in die zur Berechnung der Vogelperspektive verwendete virtuelle Kamera projiziert werden. Die Position im Vogelperspektiven-Bild 14 entspricht somit der Position, an der das Objekt 10 von einem tatsächlich über dem Fahrzeug schwebenden Betrachter wahrgenommen würde.
Liegt die projizierte Pixelposition 20 beziehungsweise 21 außerhalb des
Darstellungsbereichs der Vogelperspektive 14, so erfolgt die Darstellung am Rand des sichtbaren Bereichs. Die Position 22, 23 der Darstellung am Rand entspricht dem jeweiligen Schnittpunkt einer Geraden 24, 25 vom Zentrum 26 der Vogelperspektive 14 oder eines beliebigen anderen Referenzpunkts in dieser Perspektive und den Grenzen 27 des Darstellungsbereichs 14. Die Größe des an den Positionen 22 und 23 dargestellten Symbols hängt dabei von der Distanz der Positionen 20 und 21 zum Referenzpunkt 26 ab. Liegt das Objekt näher an dem Referenzpunkt 26, so wird es an der Position 23 mit einem größeren Symbol dargestellt als ein an der Position 20 detektiertes Objekt, welches weiter von dem Referenzpunkt 26 entfernt ist.
Die detektierten Objekte können durch einen Klassifikator klassifiziert werden. Die Darstellung erfolgt je nach Objektklasse durch eine übergelagerte Grafik (Icon), durch Hervorheben (Farbe, Helligkeit) des Objekts oder Markierung mit farbigen
Liniensegmenten. Weiterhin können transparente Icons und Markierungen verwendet werden. So kann der Fahrer im Vogelperspektiven-Bild erkennen, wie das Objekt beschaffen ist, vor dem er gewarnt wird. Ohne Transparenz würde die Markierung den sichtbaren Bereichs des detektierten Objekts komplett oder partiell verdecken.

Claims

Patentansprüche
Fahrerassistenzvorrichtung für ein Fahrzeug mit
einer Sensorikeinrichtung zum Erfassen eines Objekts (10) in der Umgebung des Fahrzeugs und
einer Anzeigeeinrichtung zum optischen Darstellen (14) des von der
Sensorikeinrichtung erfassten Objekts (10) in Bezug zu einer schematischen Draufsicht (16) des Fahrzeugs,
dadurch gekennzeichnet, dass
mit der Sensorikeinrichtung Bodenkoordinaten des Objekts (10) als Positionsdaten erfassbar sind und
die Bodenkoordinaten von der Anzeigeeinrichtung zur Positionierung eines
Symbols (11), das das Objekt in der Draufsicht symbolisiert, in der Darstellung (14) verwendet werden.
Fahrerassistenzvorrichtung nach Anspruch 1 ,
dadurch gekennzeichnet, dass
der Anzeigeeinrichtung eine Klassifizierungseinrichtung vorgeschaltet ist, die die erfassten Objekte nach Objektklassen klassifiziert, so dass ein erfasstes Objekt (10) entsprechend seiner Objektklasse mit einem spezifischen Symbol (1 1), einer spezifischen Farbe, einer spezifischen Helligkeit und/oder einer spezifischen Markierung darstellbar ist.
Fahrerassistenzvorrichtung nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
die Größe des Symbols (11 ) für das erfasste Objekt (10) bei der Darstellung (14) von der Distanz des Objekts (10) zu einem vorgegebenen Referenzpunkt (26) abhängt.
4. Fahrerassistenzvorrichtung nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Anzeigeeinrichtung ein erfasstes Objekt (10) am Rand (27) des
Darstellungsbereichs darstellt, wenn seine virtuelle Darstellungsposition außerhalb des Darstellungsbereichs läge.
5. Verfahren zum Assistieren eines Fahrers in einem Fahrzeug durch
- Erfassen eines Objekts (10) in der Umgebung des Fahrzeugs und
- optisches Darstellen des erfassten Objekts (10) in Bezug zu einer schematischen Draufsicht (16) des Fahrzeugs,
dadurch gekennzeichnet, dass
- Bodenkoordinaten des Objekts (10) als Positionsdaten erfasst werden und
- die Bodenkoordinaten zur Positionierung eines Symbols (1 1), das das Objekt in der Draufsicht symbolisiert, bei dem optischen Darstellen (14) verwendet werden.
PCT/EP2010/007233 2010-03-10 2010-11-30 Fahrerassistenzvorrichtung mit optischer darstellung erfasster objekte Ceased WO2011110204A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/583,336 US20130107052A1 (en) 2010-03-10 2010-11-30 Driver Assistance Device Having a Visual Representation of Detected Objects
CN2010800650029A CN102782739A (zh) 2010-03-10 2010-11-30 能光学地显示出所检测到的物体的驾驶员辅助设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010010912.6 2010-03-10
DE102010010912A DE102010010912A1 (de) 2010-03-10 2010-03-10 Fahrerassistenzvorrichtung mit optischer Darstellung erfasster Objekte

Publications (1)

Publication Number Publication Date
WO2011110204A1 true WO2011110204A1 (de) 2011-09-15

Family

ID=43028697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/007233 Ceased WO2011110204A1 (de) 2010-03-10 2010-11-30 Fahrerassistenzvorrichtung mit optischer darstellung erfasster objekte

Country Status (4)

Country Link
US (1) US20130107052A1 (de)
CN (1) CN102782739A (de)
DE (1) DE102010010912A1 (de)
WO (1) WO2011110204A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR201205754T1 (tr) * 2009-11-03 2012-09-21 Vawd Applied Science & Technology Corporation Emniyet mesafeli, engele rağmen algılayan radar sistemi.
US9073484B2 (en) * 2010-03-03 2015-07-07 Honda Motor Co., Ltd. Surrounding area monitoring apparatus for vehicle
US9672432B2 (en) 2011-06-09 2017-06-06 Aisin Seiki Kabushiki Kaisha Image generation device
DE102011084554A1 (de) 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
DE102011084596A1 (de) 2011-10-17 2013-04-18 Robert Bosch Gmbh Verfahren zum Assistieren eines Fahrers in einer fremden Umgebung
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
WO2013109869A1 (en) 2012-01-20 2013-07-25 Magna Electronics, Inc. Vehicle vision system with free positional virtual panoramic view
DE102012215026A1 (de) * 2012-08-23 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
DE102012023009A1 (de) 2012-11-24 2013-05-29 Daimler Ag Fahrerassistenzsystem mit Security-Funktion sowie Verfahren zum Assistieren eines Fahrzeuginsassen mit einer Security-Funktion
DE102012024970A1 (de) * 2012-12-20 2013-07-04 Daimler Ag Verfahren zum Bestimmen einer Soll-Kurvenneigung eines Kraftfahrzeugs beim Befahren eines kurvenförmigen Fahrbahnabschnitts
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
DE102013016244A1 (de) * 2013-10-01 2015-04-02 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
DE102014014662A1 (de) 2014-09-19 2016-03-24 Mekra Lang North America, Llc Anzeigeeinrichtung für Fahrzeuge, insbesondere Nutzfahrzeuge
US9725040B2 (en) 2014-10-28 2017-08-08 Nissan North America, Inc. Vehicle object detection system
US9880253B2 (en) 2014-10-28 2018-01-30 Nissan North America, Inc. Vehicle object monitoring system
US9834141B2 (en) 2014-10-28 2017-12-05 Nissan North America, Inc. Vehicle object detection system
DE102018205965A1 (de) * 2018-04-19 2019-10-24 Zf Friedrichshafen Ag Verfahren und Steuergerät zum Kennzeichnen einer Person
DE102020213147A1 (de) 2020-10-19 2022-04-21 Continental Automotive Gmbh Verfahren für ein Kamerasystem sowie Kamerasystem

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0464821A1 (de) * 1990-07-05 1992-01-08 FIAT AUTO S.p.A. Verfahren und Gerät zur Vermeidung einer Kollision zwischen einem Kraftfahrzeug und Hindernissen
DE19741896A1 (de) * 1997-09-23 1999-04-22 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
EP1014109A1 (de) * 1998-12-22 2000-06-28 Mannesmann VDO Aktiengesellschaft Einrichtung zur Darstellung einer von einer Abstandsregeleinrichtung eines Kraftfahrzeuges bestimmten Regelsituation
DE102005026458A1 (de) 2005-06-09 2006-07-27 Daimlerchrysler Ag Fahrerassistenzsystem für ein Fahrzeug
DE102008046214A1 (de) * 2008-09-08 2009-04-30 Daimler Ag Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6429789B1 (en) * 1999-08-09 2002-08-06 Ford Global Technologies, Inc. Vehicle information acquisition and display assembly
DE10131720B4 (de) * 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
JP4021344B2 (ja) * 2003-03-03 2007-12-12 富士重工業株式会社 車両用運転支援装置
EP1748654A4 (de) * 2004-04-27 2013-01-02 Panasonic Corp Umfangs-display eines fahrzeugs
FI117576B (fi) * 2005-04-29 2006-11-30 Tracker Oy Menetelmä paikannettavien kohteiden esittämiseksi paikannuslaitteen näytöllä, paikannuslaite ja sovellus
JP4956799B2 (ja) * 2006-05-09 2012-06-20 日産自動車株式会社 車両周辺画像提供装置及び車両周辺画像提供方法
EP2085279B1 (de) * 2008-01-29 2011-05-25 Ford Global Technologies, LLC System zur Vorhersage eines Kollisionskurses
JP5124351B2 (ja) * 2008-06-04 2013-01-23 三洋電機株式会社 車両操作システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0464821A1 (de) * 1990-07-05 1992-01-08 FIAT AUTO S.p.A. Verfahren und Gerät zur Vermeidung einer Kollision zwischen einem Kraftfahrzeug und Hindernissen
DE19741896A1 (de) * 1997-09-23 1999-04-22 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
EP1014109A1 (de) * 1998-12-22 2000-06-28 Mannesmann VDO Aktiengesellschaft Einrichtung zur Darstellung einer von einer Abstandsregeleinrichtung eines Kraftfahrzeuges bestimmten Regelsituation
DE102005026458A1 (de) 2005-06-09 2006-07-27 Daimlerchrysler Ag Fahrerassistenzsystem für ein Fahrzeug
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
DE102008046214A1 (de) * 2008-09-08 2009-04-30 Daimler Ag Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges

Also Published As

Publication number Publication date
US20130107052A1 (en) 2013-05-02
CN102782739A (zh) 2012-11-14
DE102010010912A1 (de) 2010-12-02

Similar Documents

Publication Publication Date Title
WO2011110204A1 (de) Fahrerassistenzvorrichtung mit optischer darstellung erfasster objekte
EP2617022B1 (de) Visuelles fahrerinformations- und warnsystem für einen fahrer eines kraftfahrzeugs
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE112011100180B4 (de) Spurhalteunterstützungsvorrichtung, Verfahren zum Anzeigen einer Spurgrenzlinie und Programm
EP3955046B1 (de) Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug
EP3392111B1 (de) Verfahren und vorrichtung zum ermitteln einer visuellen ablenkung eines fahrers eines fahrzeugs
WO2020048564A1 (de) Verfahren zum darstellen einer fahrzeugumgebung in einem fahrzeug und zugehörige vorrichtung
DE102014003550A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102017107396A1 (de) Testverfahren und Testvorrichtung für Fahrerassistenzsysteme
WO2011029694A1 (de) Verfahren und vorrichtung zur darstellung von hindernissen in einem einparkhilfesystem von kraftfahrzeugen
DE102010042026B4 (de) Verfahren zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
DE102020212412B3 (de) Verfahren zum Betreiben einer Head-Up-Displayeinrichtung und Head-Up-Displayeinrichtung
DE102016014712B4 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE102012220100A1 (de) Verfahren und Informationsgerät zum Darstellen von einer Fahrerinformation auf einer Blickfeldanzeige für ein Fahrzeug
EP1285814A1 (de) Überwachungseinrichtung für Fahrzeuge
EP1580588A1 (de) Vorrichtung zur visuellen Darstellung einer Information
EP3327698A1 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim abstellen des kraftfahrzeugs auf einer parkfläche, fahrerassistenzsystem sowie kraftfahrzeug
WO2019037905A1 (de) Verfahren zum betreiben eines assistenzsystems für ein fahrzeug und assistenzsystem
DE102009003220B4 (de) Verfahren zur Kollisionswarnung sowie Kollisionswarneinrichtung
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102008017833A1 (de) Verfahren zum Betrieb einer Bildaufnahmevorrichtung und eine Bildaufnahmevorrichtung
DE102012006679A1 (de) Verfahren zum Erfassen und Darstellen einer Fahrzeugumgebung eines Fahrzeugs
DE102021111216A1 (de) Darstellung von Informationen an Bord eines Fahrzeugs
DE102013019114A1 (de) Verfahren und System zum Betreiben einer Anzeigeeinrichtung eines Kraftwagens sowie Kraftwagen mit einem System zum Betreiben einer Anzeigeeinrichtung
DE102020212562B3 (de) Fahrspurbezogene visuelle Assistenzfunktion einer Head-Up-Displayeinrichtung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080065002.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10785349

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13583336

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10785349

Country of ref document: EP

Kind code of ref document: A1