[go: up one dir, main page]

DE102009038406A1 - Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs - Google Patents

Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs Download PDF

Info

Publication number
DE102009038406A1
DE102009038406A1 DE102009038406A DE102009038406A DE102009038406A1 DE 102009038406 A1 DE102009038406 A1 DE 102009038406A1 DE 102009038406 A DE102009038406 A DE 102009038406A DE 102009038406 A DE102009038406 A DE 102009038406A DE 102009038406 A1 DE102009038406 A1 DE 102009038406A1
Authority
DE
Germany
Prior art keywords
camera
motor vehicle
laser
data
laser beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009038406A
Other languages
English (en)
Other versions
DE102009038406B4 (de
Inventor
Richard Dr. Auer
Stefan Dr. Brosig
Daniel Mossau
Dennis Rosebrock
Jens Spehr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102009038406.5A priority Critical patent/DE102009038406B4/de
Publication of DE102009038406A1 publication Critical patent/DE102009038406A1/de
Application granted granted Critical
Publication of DE102009038406B4 publication Critical patent/DE102009038406B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Bei einem Verfahren bzw. Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs, wobei aus von einer Kamera aufgenommenen Bildern der Umgebung des Kraftfahrzeugs mittels Motion Stereo erste 3-D-Umfelddaten des Umfeldes bestimmt werden, mittels eines abtastenden Laserstrahls eines Lasersystems, welches unter einem vorgegebenen Winkel zur Kamera angeordnet ist, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist, aus dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem und der räumlichen Ausrichtung des Laserstrahls zweite 3-D-Daten des Kraftfahrzeugumfeldes ermittelt werden, und werden die ersten und die zweiten 3-D-Daten zu einem gemeinsamen 3-D-Datensatz des Umfeldes des Kraftfahrzeugs verarbeitet.

Description

  • Die Erfindung betrifft ein Verfahren zur Vermessung des Umfelds eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 und eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 6. Ferner betrifft die Erfindung einen Parkassistenten gemäß dem Oberbegriff des Anspruchs 11.
  • Verfahren und Vorrichtungen zur Vermessung des Umfelds eines Kraftfahrzeugs sind bekannt und werden in vielfältiger Form in heutigen modernen Kraftfahrzeugen eingesetzt. So sind beispielsweise Radarsysteme im Einsatz, um in ACC-Fahrerassistenzsystemen (ACC: Automatic Cruise Control) das vorwärtige Umfeld des Kraftfahrzeugs vermessen zu können. Ferner werden Kamerasysteme, Lasersysteme, Radar und Ultraschallsysteme zur Detektion und Vermessung von Parklücken bei Parkassistenten eingesetzt. Systeme zum Halten des Fahrzeugs in der eigenen Fahrspur, sogenannte Lane-Assists-Systeme, detektieren Fahrspurbegrenzungen bzw. Fahrspurmarkierungen und halten das Eigenfahrzeug durch geeignete Lenkmomente innerhalb der eigenen Fahrspur.
  • So sind zur Umfelderfassung Laserscanner mit einem mechanisch rotierenden Kopf bekannt, wobei durch Drehen des Kopfes mittels des Lasers die Umgebung abgetastet und erfasst wird.
  • Aus der Druckschrift H. G. Jung et al.: "Light stripe projection based parking space detection for intelligent parking Systems", Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.–15. Juni, 2007, S. 962–968, wird zur Bestimmung von Parklücken in schlecht ausgeleuchteten Parkgaragen ein in einer waagerechten Ebene strahlender Linienlaser verwendet, dessen reflektiertes Licht von einer unter einem Winkel zum Laser stehenden Kamera detektiert wird. Aus dem Verlauf der reflektierten Linien kann auf eine mögliche Parklücke geschlossen werden.
  • Ferner sind auch Motion-Stereo-Verfahren zur Bestimmung von 3D-Daten bekannt, wie es beispielsweise in E. Wahl et al.: "Realisierung eines Parkassistenten, basierend auf Motion-Stereo", 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871–880, beschrieben ist, wobei mittels einer Kamera und der Bewegung des Fahrzeugs Parklücken vermessen werden, indem zwei Bilder von verschiedenen Betrachtungspunkten desselben Umgebungsgebiets verwendet werden, um mittels Stereo-Algorithmen Tiefeninformationen zu bestimmen, um so 3D-Daten, der Kraftfahrzeugumgebung zu ermitteln.
  • Weiterhin werden in der Fahrzeugserie Ultraschall-Sensoren sowohl zur Vermessung von Parklücken als auch zur Warnung des Fahrers vor möglichen Hindernissen während des Einparkvorgangs verwendet.
  • Der aktuelle Stand des Parklückenvermessens bietet jedoch mehrere Nachteile. So werden bei der Verwendung des oben geschilderten Laserverfahrens Bordsteine nicht erkannt, sofern diese niedriger als der abgestrahlte Linienlaser sind. Mit anderen Worten, sämtliche kleineren Objekte, die unterhalb des Linienlasers liegen, werden nicht erkannt. Ebenso können Fahrbahnmarkierungen nicht detektiert werden. Mittels Ultraschall-Sensoren sind Abstände zu Objekten, die im Erfassungsbereich des Ultraschalls liegen, messbar, jedoch ist nicht sichergestellt, dass diese erfassten Objekte auch tatsächlich im Fahrschlauch liegen. Daher kommt es bei Ultraschall-Sensoren oft zu Fehlauslösungen, da naheliegende Objekte als vermeintliche Hindernisse erkannt werden, obwohl sie nicht im Fahrschlauch liegen. Bei der Detektion von Parklücken mittel Motion-Stereo ist eine ausreichende Beleuchtung notwendig, um auswertungsfähige Kamerabilder zur Verfügung zu haben.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Vermessung der Umgebung eines Kraftfahrzeugs sowie einen entsprechenden Parkassistenten zu schaffen, damit die 3D-Daten der Kraftfahrzeugumgebung einen geringeren Fehler aufweisen.
  • Diese Aufgabe wird durch ein Verfahren zur Vermessung der Umgebung eines Kraftfahrzeugs mit den Merkmalen des Anspruchs 1, eine entsprechende Vorrichtung mit den Merkmalen des Anspruchs 6 sowie durch einen Parkassistenten mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei dem erfindungsgemäßen Verfahren zur Vermessung des Umfelds eines Kraftfahrzeugs werden mittels der von einer Kamera aufgenommenen Bildern des Umgebung des Kraftfahrzeugs die 3D-Umfelddaten des Kraftfahrzeugumfelds mittels einer Motion-Stereo-Analyse bestimmt. Ferner wird mittels eines scannenden Laserstrahls eines Lasersystems, das unter einem vorgegebenen Winkel zur Kamera angeordnet ist, von dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem und der räumlichen Ausrichtung des Laserstrahls zweite 3D-Umfelddaten des Kraftfahrzeugumfelds ermittelt, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist. Schließlich werden aus den ersten und zweiten 3D-Daten ein gemeinsamer 3D-Datensatz des Umfelds des Kraftfahrzeugs erzeugt. Mit anderen Worten, die 3D-Daten der Motion-Stereo-Analyse können durch die 3D-Daten des Lasersystems überprüft, verifiziert und gegebenenfalls verbessert werden, so dass das Zusammenführen der ersten und zweiten 3D-Datensätze zu einem gemeinsamen 3D-Datensatz die Qualität der 3D-Daten signifikant erhöht.
  • Vorzugsweise wird die genannte räumliche Struktur des Laserstrahls durch eine senkrecht zur Fahrbahnebene verlaufende Linie gebildet. Mit anderen Worten, der Laserstrahl wird durch eine entsprechende Optik in eine Strahlebene aufgeweitet und bildet daher am Ort des Auftreffs keine Punktform, sondern eine Linienform. Derartige Laser werden auch durch den Begriff Linienlaser charakterisiert. Durch diese senkrecht verlaufende Linie werden beispielsweise alle Bodenunebenheiten vermessen. Ferner können durch die erhöhte Reflexivität der Fahrbahnmarkierungen diese erkannt werden, und da deren 3D-Position aufgrund der Motion-Stereo-Analyse bekannt ist, als Fahrbahnmarkierungen erkannt und klassifiziert werden.
  • Ferner kann die räumliche Struktur des Laserlichts durch mehrere, senkrecht zur Fahrbahnebene verlaufenden Linien gebildet werden, wodurch ein schnelleres Erkennen des Umfelds ermöglicht wird.
  • Vorzugsweise kann die räumliche Struktur des Laserlichts auch durch ein Raster, insbesondere durch ein Schachbrettmuster, gebildet werden. Mit anderen Worten, der Laser wird so aufgespaltet, dass er nicht eine Linie darstellt, sondern ein schachbrettartiges Muster, das so ausgerichtet ist, dass alle Linien des Rasters zu der verwendeten Kamera einen Winkel definieren. Durch die Verwendung eines solchen Rasters, insbesondere eines schachbrettartigen Musters, ist eine ganze Fläche des Kraftfahrzeugumfelds gleichzeitig, d. h. synchron, erfassbar.
  • Vorzugsweise scannt der Laserstrahl einen vorgegebenen Winkelbereich ab. Es ist daher möglich, den Scanbereich des Lasersystems durch die Bewegung des Kraftfahrzeugs festzulegen, es ist jedoch auch möglich, den Laserstrahl aktiv scannend über einen vorgegebenen Winkelbereich auszulegen. Beide Ausführungen können beispielsweise bei der Vermessung des seitlichen Umfelds des Kraftfahrzeugs verwendet werden, wie dies bei der Suche nach geeigneten Parkplätzen bei Parkassistenten notwendig ist.
  • Eine erfindungsgemäße Vorrichtung zur Durchführung des im vorangegangenen erläuterten Verfahrens umfasst mindestens eine Kamera und mindestens ein unter einem vorgegebenen Winkel zur Kamera angeordnetes Lasersystem, wobei das Lasersystem einen Laserstrahl mit einer vorgegebenen räumlichen Struktur erzeugt, sowie eine Auswerteeinrichtung zur Bestimmung von ersten 3D-Daten mittels einer Motion-Stereo-Analyse von Bildern der mindestens einen Kamera und eines zweiten 3D-Datensatzes aus dem von der Kamera ermittelten reflektierten Laserlichts und einer nachfolgenden Fusionseinheit zum Zusammenführen der ersten und der zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz der entsprechenden Umgebung des Kraftfahrzeugs.
  • Vorzugsweise wird die räumliche Struktur durch eine senkrecht zur Fahrbahnebene verlaufende Ebene des Laserlichts erzeugt, so dass das auf ein Hindernis auftreffende Laserlicht eine senkrecht verlaufende Linie bildet. Mit anderen Worten, der Laser ist ein sogenannter Linienlaser, dessen Licht durch eine geeignete Optik in eine Lichtebene aufgefächert wird. Andere räumliche Strukturen können vorzugsweise ebenso verwendet werden, beispielsweise eine Rasterstruktur oder eine Struktur mehrerer Laserstrahlebenen, wobei die Linien des Rastermusters bzw. die Laserstrahlebenen gegenüber der Kamera einen Winkel bilden. Ferner ist die Kamera von der Laserquelle um einen vorgegebenen Abstand beabstandet.
  • Weiter bevorzugt strahlt das Lasersystem im infraroten Wellenlängenbereich, wodurch eine Vermessung der Umgebung für das menschliche Auge nicht sichtbar wäre. Entsprechend muss dann die Kamera auch in der Lage sein, im infraroten Wellenlängenbereich des Lasers geeignet detektieren zu können.
  • Vorzugsweise bestimmt die Auswerteeinrichtung aus dem reflektierten Laserlicht die Reflektivität des jeweiligen Kraftfahrzeugumfelds, wobei aus der gemessenen Reflektivität und den 3D-Daten des Motion-Stereo-Verfahrens auf Fahrbahnmarkierungen geschlossen werden kann, wenn die gemessene Reflektivität oberhalb einer vorgegebenen Schwelle liegt. Insbesondere kann auf diese Weise beispielsweise bei Parkassistenten gegebenenfalls vorhandene Parkplatzmarkierungen und deren Koordinaten, d. h., räumliche Anordnung, durch das Zusammenspiel des Motion-Stereo-Verfahrens und des Laserscannens präziser ermittelt werden.
  • Ein erfindungsgemäßes Parkassistenzsystem, welches die im Vorangegangenen erläuterte Vorrichtung verwendet, leuchtet mittels des Lasersystems zur Detektion und Vermessung von Parkplatzlücken die seitliche Umgebung des Kraftfahrzeugs aus und legt aufgrund der ermittelten fusionierten 3D-Daten eine Einparkstrategie fest und führt diese durch. Dabei kann das Parkassistenzsystem ein solches sein, welches dem Fahrer Hilfe anbietet, den Parkvorgang teilautomatisch durchführt oder ein autonomes Ein- bzw. Ausparken des Fahrzeugs in bzw. aus einer Parklücke durchführt.
  • Vorzugsweise ist bei einem derartigen Parkassistenzsystem die Kamera in einem rechten und/oder linken Seitenspiegel des Kraftfahrzeugs angeordnet, und das Lasersystem befindet sich in der Nähe des rechten und/oder linken Scheinwerfers oder das Lasersystem ist in der Nähe des rechten und/oder des linken Rücklichts angeordnet. Selbstverständlich kann das Parkassistenzsystem zwei Kameras bzw. zwei Lasersysteme aufweisen, wobei jeweils eine Kamera und ein Lasersystem auf der rechten und das zweite auf der linken Fahrzeugseite angeordnet ist, so dass das Parkassistenzsystem beide seitlichen Umgebungen des Kraftfahrzeugs beobachten kann.
  • Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
  • 1 ein Kraftfahrzeug mit erfindungsgemäßem Parkassistenzsystem, und
  • 2 eine schematische Darstellung der Funktionsweise der erfindungsgemäßen Vorrichtung.
  • 1 zeigt in Draufsicht ein Kraftfahrzeug 1 mit linkem Seitenspiegel 2 und rechtem Seitenspiegel 3. In den beiden Seitenspiegeln 2, 3 ist jeweils eine nicht dargestellte Kamera angeordnet, die mit einer geeigneten Optik einen entsprechenden Sichtbereich 4, 5 der seitlichen Umgebung des Kraftfahrzeugs einsehen. In der Nähe der Rückspiegel sind seitlich Lasersysteme 6, 7 angeordnet, wie dies hier schematisch angedeutet ist. Dabei strahlen die Lasersysteme entweder in vorgegebenen festen Richtungen 8, 9 in seitlicher Richtung, oder sie scannen über einen vorgegebenen Winkelbereich 10, 11 die seitliche Umgebung des Kraftfahrzeugs. Bewegt sich nun das Kraftfahrzeug 1 in Vorwärtsrichtung 12, so können die seitlichen in den Rückspiegeln 2, 3 angeordneten Kameras mittels Motion-Stereo die linke und die rechte Umgebung des Kraftfahrzeugs vermessen und entsprechend 3D-Datensätze erstellen. Mittels der Lasersysteme 6, 7 können nun ebenfalls mittels des Winkels zwischen den Lasersystemen und der entsprechenden Kamera 3D-Daten erstellt werden. Bei fester Beobachtungsrichtung setzt dies neben dem Winkel und dem notwendigen Abstand zwischen Lasersystem und entsprechender Kamera eine Bewegung des Fahrzeugs voraus, um die gesamte seitliche Umgebung des Fahrzeugs scannen zu können, und so einen Abgleich zwischen den 3D-Daten durch Motion-Stereo und den Lasersystem-3D-Daten vornehmen zu können. Falls die Lasersysteme über einen vorgegebenen Winkelbereich 10, 11 scannen können, ist zur Erstellung von 3D-Daten mittels der Lasersysteme keine Bewegung des Fahrzeugs 1 notwendig, sondern die linken und rechten seitlichen Umgebungen des Kraftfahrzeugs können über den Scanverlauf ermittelt werden. Jedoch kann bei einem stehenden Fahrzeug keine Motion-Stereo-3D-Daten erzeugt werden. Allerdings können so erste 3D-Datensätze bei einem stehenden Fahrzeug mittels der Lasersysteme erzeugt werden, die dann mit der Bewegung des Fahrzeugs durch Motion-Stereo ergänzt bzw. verbessert werden können.
  • Wie bereits erwähnt, sind die Lasersysteme Linienlaser mit senkrecht zur Fahrbahnebene verlaufenden Linien bzw. Strahlebenen. Aufgrund des senkrechten Verlaufs der Linie bzw. der Strahlebene können anhand des Linienverlaufs auch kleine Hindernisse in der Fahrbahnebene, wie Bordsteine usw., von den Linienlasern in Verbindung mit dem Kamerasystem erkannt werden. Messungen der Reflexivität des Laserlinienverlaufs als Funktion des Ortes, dessen Koordinaten durch die 3D-Daten der Motion-Stereo-Analyse bekannt sind, können zur Verbesserung der Erkennung von Fahrbahnen, insbesondere Parkplatzmarkierungen führen.
  • Insbesondere kann ein Infrarot-Linienlaser verwendet werden, so dass der Messvorgang für das menschliche Auge nicht sichtbar ist. Mit der Verwendung derartiger Infrarot-Wellenlängen kann der Linienverlauf im Kamerabild beispielsweise durch ein Subtraktionsverfahren von zwei entsprechenden ortsgleichen Kamerabildern durch eine Differenzbildung zwischen einem Kamerabild mit Laserlicht und einem entsprechenden Kamerabild ohne Laserlicht vorgenommen werden. Diese Differenzdaten können kann amplitudenmäßig analysiert werden, um die Reflexivität entlang der reflektierten Lichtlinie bestimmen zu können, um Orte hoher Reflexivität als Fahrbahnmarkierungen zu identifizieren.
  • Die Kombination des Linienlasersystemverfahrens mit dem Motion-Stereo-Verfahren ermöglicht die Erzeugung eines 3D-Datensatzes der linken oder rechten seitlichen Umgebung des Kraftfahrzeugs mit hoher Qualität.
  • 2 zeigt den schematischen Aufbau der erfindungsgemäßen Vorrichtung, die vorzugsweise in einem Parkassistenzsystem eingesetzt werden kann. Dabei beobachtet eine Kamera 20 die Umgebung eines Kraftfahrzeugs, welches gleichzeitig durch ein Lasersystem, vorzugsweise im Infraroten, 21 gescannt bzw. ausgeleuchtet wird. Aus den Bildern der Kamera zu verschiedenen Zeiten, d. h., zu verschiedenen Positionen. des sich bewegenden Kraftfahrzeugs, wird mittels Motion-Stereo in einer Auswerteeinheit 22 ein 3D-Datensatz der beobachteten Umgebung des Kraftfahrzeugs ermittelt. Ferner wird mittels der von dem Lasersystem 21 unter einem vorgegebenen Abstand und einem vorgegebenen Winkel angeordneten Kamera 20 das reflektierte Bild des Linienlasers 21 aus dem Kamerabild extrahiert und in der Auswerteeinheit 22 analysiert. Die sich in der Auswerteeinheit 22 ergebenden 3D-Daten des Kamera-Lasersystem sowie die Motion-Stereo-3D-Daten der sich bewegenden Kamera in einer Fusionseinheit 23 zusammengeführt, und es ergeben sich fusionierte 3D-Daten 24, die aufgrund der Redundanten Ermittlung eine höhere Genauigkeit aufweisen.
  • Bezugszeichenliste
  • 1
    Kraftfahrzeug
    2
    linker Seitenspiegel
    3
    rechter Seitenspiegel
    4
    Sichtbereich Kamera links
    5
    Sichtbereich Kamera rechts
    6
    Lasersystem links
    7
    Lasersystem rechts
    8
    feste Beobachtungsrichtung Laser links
    9
    feste Beobachtungsrichtung Laser echts
    10
    Beobachtungsbereich Laser links
    11
    Beobachtungsbereich Laser rechts
    20
    Kamera
    21
    Lasersystem
    22
    Auswerteeinheit
    23
    Fusionseinheit
    24
    fusionierte 3D-Daten
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • H. G. Jung et al.: ”Light stripe projection based parking space detection for intelligent parking Systems”, Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.–15. Juni, 2007, S. 962–968 [0004]
    • E. Wahl et al.: ”Realisierung eines Parkassistenten, basierend auf Motion-Stereo”, 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871–880 [0005]

Claims (12)

  1. Verfahren zur Vermessung des Umfeldes eines Kraftfahrzeugs, wobei aus von einer Kamera aufgenommenen Bildern der Umgebung des Kraftfahrzeugs (1) mittels Motion Stereo erste 3D-Umfelddaten des Umfeldes bestimmt werden, dadurch gekennzeichnet, dass mittels eines abtastenden Laserstrahls eines Lasersystems (6, 7), welches unter einem vorgegebenen Winkel zur Kamera angeordnet ist, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist, aus dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem (6, 7) und der räumlichen Ausrichtung des Laserstrahls zweite 3D-Daten des Kraftfahrzeugumfeldes ermittelt werden, und die ersten und die zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz des Umfeldes des Kraftfahrzeugs (1) verarbeitet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch eine senkrecht zur Fahrbahnebene verlaufende Linie gebildet wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch mehrere, senkrecht zur Fahrbahnebene verlaufenden Linien gebildet werden.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch ein Raster, insbesondere ein Schachbrettmuster, gebildet wird.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Laserstrahl einen vorgegebenen Winkelbereich abscannt.
  6. Vorrichtung zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Vorrichtung eine Kamera (20) und ein unter einem vorgegebenen Winkel zur Kamera angeordnetes Lasersystem (21), wobei das Lasersystem (21) einen Laserstrahl mit einer vorgegebenen räumlichen Struktur erzeugt, und eine Auswerteeinrichtung (22) zur Bestimmung von ersten 3D-Daten mittels Motion-Stereo und zweiten 3D-Daten aus den Kameradaten des reflektierten Laserlichts, und eine Fusionseinheit (23) zum Zusammenführen der ersten und der zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz aufweist
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die räumliche Struktur des Laserstrahls durch eine senkrecht zur Fahrbahnebene verlaufende Ebene erzeugt wird, so dass auf ein Hindernis auftreffende Laserlicht eine senkrecht verlaufende Linie bildet.
  8. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die räumliche Struktur des Laserstrahls durch eine Rasterstruktur, insbesondere durch ein Schachbrettmuster, gebildet wird, so dass die die Linien der Rasterstruktur zur Kamera jeweils einen Winkel bilden.
  9. Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das Lasersystem Licht im Infraroten erzeugt.
  10. Vorrichtung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Auswerteeinrichtung aus dem reflektierten Laserlicht die Reflektivität des Kraftfahrzeugumfeldes bestimmt, wobei aus der Reflektivität und den 3D-Daten des Motion-Stereo-Verfahrens auf Fahrbahnmarkierungen geschlossen wird, wenn die Reflektivität oberhalb einer vorgegeben Schwelle liegt.
  11. Parkassistenzsystem eines Kraftfahrzeugs unter Verwendung der Vorrichtung nach einem der Ansprüche 6 bis 10, wobei das Lasersystem die seitliche Umgebung des Kraftfahrzeugs ausleuchtet.
  12. Parkassistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Kamera in einem rechten oder linken Seitenspiegel des Kraftfahrzeugs und das Lasersystem in der Nähe des rechten oder linken Scheinwerfer oder in der Nähe des rechten oder linken Rücklichts angeordnet ist.
DE102009038406.5A 2009-08-24 2009-08-24 Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs Active DE102009038406B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009038406.5A DE102009038406B4 (de) 2009-08-24 2009-08-24 Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009038406.5A DE102009038406B4 (de) 2009-08-24 2009-08-24 Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs

Publications (2)

Publication Number Publication Date
DE102009038406A1 true DE102009038406A1 (de) 2011-03-03
DE102009038406B4 DE102009038406B4 (de) 2017-10-05

Family

ID=43524962

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009038406.5A Active DE102009038406B4 (de) 2009-08-24 2009-08-24 Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102009038406B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011082475A1 (de) 2011-09-12 2013-03-14 Robert Bosch Gmbh Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen
DE102016120433A1 (de) * 2016-10-26 2018-04-26 Valeo Schalter Und Sensoren Gmbh Parkplatzerkennung mit Laserscanner
CN108051818A (zh) * 2017-12-29 2018-05-18 湖南有位智能科技有限公司 立体停车库及其人车误入检测系统、人车误入检测方法
US10399483B2 (en) 2017-03-08 2019-09-03 Ford Global Technologies, Llc Vehicle illumination assembly

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69021354T2 (de) * 1990-01-02 1996-03-28 Honeywell Inc System zur Detektion eines Hindernisses.
DE19730414A1 (de) * 1997-07-16 1999-01-21 Opel Adam Ag Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung
US6502053B1 (en) * 2000-06-12 2002-12-31 Larry Hardin Combination passive and active speed detection system
DE10143504A1 (de) * 2001-09-05 2003-03-20 Sick Ag Überwachungsverfahren und optoelektronischer Sensor
DE10154861A1 (de) * 2001-11-08 2003-05-22 Ibeo Automobile Sensor Gmbh Verfahren zur Bereitstellung von Bildinformationen
DE60009114T2 (de) * 1999-09-20 2004-08-05 Matsushita Electric Industrial Co. Ltd. Vorrichtung zur unterstützung von kraftfahrzeugführern
DE102005003191A1 (de) * 2005-01-24 2006-07-27 Robert Bosch Gmbh Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
DE102006007150A1 (de) * 2005-08-05 2007-02-08 Volkswagen Ag Verfahren und Vorrichtung zur Parklückenvermessung
US20070177011A1 (en) * 2004-03-05 2007-08-02 Lewin Andrew C Movement control system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69021354T2 (de) * 1990-01-02 1996-03-28 Honeywell Inc System zur Detektion eines Hindernisses.
DE19730414A1 (de) * 1997-07-16 1999-01-21 Opel Adam Ag Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung
DE60009114T2 (de) * 1999-09-20 2004-08-05 Matsushita Electric Industrial Co. Ltd. Vorrichtung zur unterstützung von kraftfahrzeugführern
US6502053B1 (en) * 2000-06-12 2002-12-31 Larry Hardin Combination passive and active speed detection system
DE10143504A1 (de) * 2001-09-05 2003-03-20 Sick Ag Überwachungsverfahren und optoelektronischer Sensor
DE10154861A1 (de) * 2001-11-08 2003-05-22 Ibeo Automobile Sensor Gmbh Verfahren zur Bereitstellung von Bildinformationen
US20070177011A1 (en) * 2004-03-05 2007-08-02 Lewin Andrew C Movement control system
DE102005003191A1 (de) * 2005-01-24 2006-07-27 Robert Bosch Gmbh Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
DE102006007150A1 (de) * 2005-08-05 2007-02-08 Volkswagen Ag Verfahren und Vorrichtung zur Parklückenvermessung

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
E. Wahl et al.: "Realisierung eines Parkassistenten, basierend auf Motion-Stereo", 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871-880
H. G. Jung et al.: "Light stripe projection based parking space detection for intelligent parking Systems", Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.-15. Juni, 2007, S. 962-968
SCHANZ,A.:Fahrerassistenz zum automatischen Parken, VDI-Verl.,2005 Fig.3 m. zugeh. Beschr.
SCHANZ,A.:Fahrerassistenz zum automatischen Parken, VDI-Verl.,2005 $ Fig.3 m. zugeh. Beschr.$ *
VESTRI,C.,et.al.:Evaluation of a Vision-Based Parking Assistance System.In:IEEE Intelligent Transportation Systems, 2005, Proceedings, S.131-135 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011082475A1 (de) 2011-09-12 2013-03-14 Robert Bosch Gmbh Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen
WO2013037530A1 (de) 2011-09-12 2013-03-21 Robert Bosch Gmbh Fahrerassistenzsystem zur unterstützung eines fahrers in kollisionsrelevanten situationen
DE102016120433A1 (de) * 2016-10-26 2018-04-26 Valeo Schalter Und Sensoren Gmbh Parkplatzerkennung mit Laserscanner
US10399483B2 (en) 2017-03-08 2019-09-03 Ford Global Technologies, Llc Vehicle illumination assembly
CN108051818A (zh) * 2017-12-29 2018-05-18 湖南有位智能科技有限公司 立体停车库及其人车误入检测系统、人车误入检测方法

Also Published As

Publication number Publication date
DE102009038406B4 (de) 2017-10-05

Similar Documents

Publication Publication Date Title
DE102009023326B4 (de) Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben
DE102015213701B4 (de) Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten
DE112017002743B4 (de) Parkunterstützungsvorrichtung und Parkunterstützungsverfahren
DE20105340U1 (de) Dimensionale Umfelderfassung
DE102011054852B4 (de) Verfahren zur Erfassung und Bewertung einer Ebene
DE102011017540B4 (de) Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten
EP3877776B1 (de) Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
EP2982572A2 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken, fahrerassistenzsystem und kraftfahrzeug
DE102017205245B4 (de) Freibereichsfusion für Fahrerassistenzsysteme
WO2021213788A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
WO2011045277A1 (de) Kamerasystem
DE102021108621A1 (de) Vorrichtung zum Erfassen von Umgebungsinformationen eines Fahrzeugs und Verfahren zur Steuerung davon
DE102009038406B4 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE112017003543T5 (de) Objekterfassungsvorrichtung
EP1628141B1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
DE102020206935A1 (de) Lidar mit vertikaler Abtastung
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
DE102009052560A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Position von Objekten im Umfeld eines Kraftfahrzeugs
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
DE102007013501B4 (de) Fahrerassistenzsystem mit unterschiedlich ausgerichteten Kameras
DE102006007149B4 (de) Vorrichtung und Verfahren zur Überprüfung der Parklückenvermessung von Einparkhilfsvorrichtungen
DE102006007150A1 (de) Verfahren und Vorrichtung zur Parklückenvermessung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative